JP2021140764A - データ融合方法、装置及びデータ処理装置 - Google Patents

データ融合方法、装置及びデータ処理装置 Download PDF

Info

Publication number
JP2021140764A
JP2021140764A JP2021016092A JP2021016092A JP2021140764A JP 2021140764 A JP2021140764 A JP 2021140764A JP 2021016092 A JP2021016092 A JP 2021016092A JP 2021016092 A JP2021016092 A JP 2021016092A JP 2021140764 A JP2021140764 A JP 2021140764A
Authority
JP
Japan
Prior art keywords
video
radar
target
coordinate system
targets
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021016092A
Other languages
English (en)
Inventor
ジャン・ジャオユィ
Zhaoyu Zhang
欣 底
Xin Di
欣 底
ワン・レェフェイ
Lefei Wang
ティアン・ジュン
Jun Tian
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JP2021140764A publication Critical patent/JP2021140764A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Image Analysis (AREA)

Abstract

【課題】カメラヘッドが検出したターゲットと、レーダーが検出したターゲットとに対して融合を行って、両者が収集した測定データを融合するデータ融合方法、装置及びデータ処理装置を提供する。【解決手段】データ融合装置1000は、各組のセンシング装置が検出した各ターゲットについて、ターゲットの所定範囲内に他の組のセンシング装置が検出したターゲットが存在する場合、所定範囲内のすべてのターゲットが同じ物体であると確定する第一確定ユニット1001及び所定範囲内のすべてのターゲットの位置及び速度に基づいて物体の位置及び速度を確定する第二確定ユニット1002を含む。【選択図】図10

Description

本発明は、情報技術分野に関し、特に、データ融合方法、装置及びデータ処理装置に関する。
交通システムにおいてインテリジェントモニタリングを実現するために、ミリ波レーダー及びビデオカメラヘッドが車両、歩行者及び他の物体を監視するために同時に用いられることがある。なお、ここでこれらのものは物体と総称する。1つの物体がレーダー及びカメラヘッドの作用範囲内に入るときに、レーダー及びカメラヘッドはともにこの物体を検出することができる。レーダー及びカメラヘッドが得たデータを融合することで、監視システムはより多くの情報を取得して十分な分析を行うことができる。
発明者が次のようなことを発見した。即ち、如何に、カメラヘッドが検出したターゲットと、レーダーが検出したターゲットとに対して融合を行って、両者が収集した測定データを融合するかは1つの問題である。また、カメラヘッド及びレーダーの監視視野が限定されているから、交差点で複数組のセンシング装置(1組のセンシング装置が1つのカメラヘッド及び1つのレーダーを含む)を設置して異なる方向の物体を監視し得るが、如何に、複数組のセンシング装置が検出したターゲット及び収集した測定データに対して融合を行うかも1つの問題である。
上述の問題のうちの1つ又は他の類似した問題を解決するために、本発明の実施例は、データ融合方法、装置及びデータ処理装置を提供する。
本発明の実施例の一側面によれば、1組のセンシング装置についてのデータ融合方法が提供され、前記1組のセンシング装置は1つのレーダー及び1つのカメラヘッドをふくみ、そのうち、前記方法は、
カレントフレームのレーダー検出結果をビデオ座標系に投影し、カレントフレームのレーダー検出結果におけるすべてのレーダーターゲットのビデオ座標系での位置を取得し;
ビデオ座標系において、未マッチング(unmatched)の各レーダーターゲットについて、前記レーダーターゲットと関連付けられるビデオターゲットを確定し;
ビデオ座標系において、未マッチングの各ビデオターゲットについて、前記ビデオターゲットの類型、及び前記ビデオターゲットと関連付けられるレーダーターゲットに基づいて、前記ビデオターゲットとマッチするレーダーターゲットを確定し;
物体番号を用いて、カレントフレームのレーダー検出結果におけるすべてのレーダーターゲット及びカレントフレームのビデオ検出結果におけるすべてのビデオターゲットを標識(mark)し;及び
標識された各物体について、前記物体に対応するビデオ情報及び/又はレーダー情報に基づいて前記物体のワールド座標系での位置及び速度を確定することを含む。
本発明の実施例の他の側面によれば、複数組のセンシング装置についてのデータ融合方法が提供され、各組のセンシング装置は1つのレーダー及び1つのカメラヘッドを含み、そのうち、前記方法は、
各組のセンシング装置が検出した各ターゲットについて、前記ターゲットの所定範囲内に他の組センシング装置が検出したターゲットが存在すれば、前記所定範囲内のすべてのターゲットが同一の物体であると確定し;及び
前記所定範囲内のすべてのターゲットの位置及び速度に基づいて前記物体の位置及び速度を確定することを含む。
本発明の実施例の他の側面によれば、1組のセンシング装置についてのデータ融合装置が提供され、前記1組のセンシング装置は1つのレーダー及び1つのカメラヘッドを含み、そのうち、前記装置は、
カレントフレームのレーダー検出結果をビデオ座標系に投影し、カレントフレームのレーダー検出結果におけるすべてのレーダーターゲットのビデオ座標系での位置を取得すための投影ユニット;
ビデオ座標系において、未マッチングの各レーダーターゲットについて、前記レーダーターゲットに関連付けられるビデオターゲットを確定するための第一確定ユニット;
ビデオ座標系において、未マッチングの各ビデオターゲットについて、前記ビデオターゲットの類型及び前記ビデオターゲットと関連付けられるレーダーターゲットに基づいて、前記ビデオターゲットとマッチするレーダーターゲットを確定するための第二確定ユニット;
物体番号を用いて、カレントフレームのレーダー検出結果におけるすべてのレーダーターゲット及びカレントフレームのビデオ検出結果におけるすべてのビデオターゲットを標識するための第一標識ユニット;及び
標識された各物体について、前記物体に対応するビデオ情報及び/又はレーダー情報に基づいて前記物体のワールド座標系下での位置及び速度を確定するための第三確定ユニットを含む。
本発明の実施例の他の側面によれば、複数組のセンシング装置についてのデータ融合装置が提供され、各組のセンシング装置は1つのレーダー及び1つのカメラヘッドを含み、そのうち、前記装置は、
各組のセンシング装置が検出した各ターゲットについて、前記ターゲットの所定範囲内に他の組のセンシング装置が検出したターゲットが存在すれば、前記所定範囲内のすべてのターゲットが同一の物体であると確定するための第一確定ユニット;及び
前記所定範囲内のすべてのターゲットの位置及び速度に基づいて、前記物体の位置及び速度を確定するための第二確定ユニットを含む。
本発明の実施例の有益な効果の1つは次の通りであり、即ち、本発明は、レーダー検出結果及びビデオ検出結果を使用してターゲットの位置を計算し、そして、レーダー及びカメラヘッドが収集したデータを融合することで、従来の方法と比較して、融合の結果はより正確になる。また、複数組のセンシング装置が設置される場合、各組のセンシング装置が道路上の異なる方向でターゲットを検出し、各組のセンシング装置が検出したターゲット及び収集したデータを融合し、電子マップを生成することにより、道路上の各方向のターゲットをリアルタイムに表示することができる。
2組のセンシング装置の検出結果及び融合結果を示す図である。 本発明の実施例の第一側面におけるデータ融合方法を示す図である。 uw及びvwを設定する一例を示す図である。 レーダーターゲット及びビデオターゲットを融合する一例のフローチャートである。 レーダーターゲット及びビデオターゲットを融合する一例を示す図である。 本発明の実施例の第二側面におけるデータ融合方法を示す図である。 3組のセンシング装置が検出したターゲットのワールド座標系における様子を示す図である。 物体の速度を計算することを示す図である。 本発明の実施例の第三側面におけるデータ融合装置を示す図である。 本発明の実施例の第四側面におけるデータ融合装置を示す図である。 本発明の実施例におけるデータ処理装置を示す図である。
以下、添付した図面を参照しながら、本発明を実施するための好ましい実施例について詳細に説明する。
レーダー及びカメラヘッドを用いて道路上の物体を検出するときに、データがフレームごとに記録され得る。レーダー検出結果の各フレーム(レーダーフレームと略称する)には、レーダーが検出した物体が含まれ、ビデオ検出結果の各フレーム(ビデオフレームと略称する)には、カメラヘッドが検出した物体が含まれる。レーダー検出結果は物体の速度、位置座標などの情報を含み、ビデオ検出結果は物体のピクセル座標を含む。レーダー座標系では、物体(レーダー物体と略称する)の位置座標(即ち、物体のレーダーに対する位置)が(x,y)と表され、ビデオ座標系では、物体(ビデオ物体と略称する)のピクセル座標(即ち、ピクセル点の位置)が(u,v)と表される。
図1は2組のセンシング装置の検出結果及び融合結果を示す図である。図1に示すように、第一組のセンシング装置におけるレーダーが検出したターゲット(レーダーターゲットと略称する)11及びカメラヘッドが検出したターゲット(ビデオターゲットと略称する)12は、融合されて電子マップ(動的地図とも言う)上で(1)(なお、ここでの(1)は図中のマルイチの意味である。以下の(2)、(3)も同様である。)と表示され、第二組のセンシング装置におけるレーダーが検出したターゲット(レーダーターゲットと略称する)21及びカメラヘッドが検出したターゲット(ビデオターゲットと略称する)22は、融合されて電子マップ上で(2)と表示される。
発明者が次のようなことを発見した。即ち、各組のセンシング装置について言えば、例えば、図1に示す第一組のセンシング装置、又は、図1に示す第二組のセンシング装置について言えば、同一のターゲットに対しての検出であるが、レーダー検出結果及びビデオ検出結果は完全に一致していない。例えば、図1に示すレーダーの測距(距離測定)結果が10mであるが、図1に示すカメラヘッドの測距結果が10.5mである。よって、如何に、各組のセンシング装置が検出したターゲット及び収集したデータを融合するかは1つの問題である。
また、発明者が次のようなことも発見した。即ち、複数組のセンシング装置について言えば、例えば、図1に示す第一組のセンシング装置及び図1に示す第二組のセンシング装置について言えば、この2組のセンシング装置が同一の交差点の異なる方向に設置されるが、実際には、この2組のセンシング装置が検出した物体が同一のターゲットに属し、電子マップ上で同一の標識と表示されるべきである。よって、如何に、複数組のセンシング装置が検出したターゲット及び収集したデータを融合するかも1つの問題である。
上述の問題のうちの少なくとも1つ又は他の類似している問題を解決するために、本発明が提案されている。以下、図面を参照しながら本発明の実施例の各種の実施方式について説明する。なお、これらの実施方式は例示に過ぎず、本発明の実施例を限定するものではない。
<実施例の第一側面>
本発明の実施例はデータ融合方法を提供する。図2は本発明の実施例におけるデータ融合方法の一例を示す図である。該方法は1組のセンシング装置が検出したターゲット及び収集した測定データを融合し、この1組センシング装置は1つのレーダー及び1つのカメラヘッドを含む。
本発明の実施例では、レーダーの検出結果がレーダー検出結果と称され、レーダー検出結果は複数のターゲットを含み、レーダーターゲットと称される。カメラヘッドの検出結果がビデオ検出結果と称され、ビデオ検出結果は複数のターゲットを含み、ビデオターゲットと称される。
本発明の実施例では、該方法は、時間上でアラインするレーダー検出結果の各フレーム(レーダーフレームと称する)及びビデオ検出結果の各フレーム(ビデオフレームと称する)に対して行われ、このようなフレームは本発明の実施例ではカレントフレームと称され、即ち、該カレントフレームは時間上でアラインする1つのレーダーフレーム及び1つのビデオフレームを含む。
図2を参照する。本発明の実施例におけるデータ融合方法は、以下のようなステップを含む。
201:カレントフレームのレーダー検出結果をビデオ座標系に投影し、カレントフレームのレーダー検出結果におけるすべてのレーダーターゲットのビデオ座標系での位置を取得し;
202:ビデオ座標系において、未マッチングの各レーダーターゲットについて、前記レーダーターゲットと関連付けられるビデオターゲットを確定し;
203:ビデオ座標系において、未マッチングの各ビデオターゲットについて、前記ビデオターゲットの類型に基づいて前記ビデオターゲットとマッチするレーダーターゲットを確定し;
204:物体番号(object ID)を用いて、カレントフレームのレーダー検出結果におけるすべてのレーダーターゲット及びカレントフレームのビデオ検出結果におけるすべてのビデオターゲットを標識(mark)し;
205:標識された各物体について、前記物体に対応するビデオ情報及び/又はレーダー情報に基づいて前記物体のワールド座標系での位置及び速度を確定する。
本発明の実施例における方法によれば、1つの物体がレーダー及びカメラヘッドにより検出された後に、レーダー検出結果をビデオ座標系に投影し、その後、ビデオ座標系においてレーダー検出ターゲットとビデオ検出ターゲットとのマッチングを行う。同一のターゲットについて、ビデオ及びレーダーの測定結果に基づいて、該ターゲットの位置及び速度を決定する。これにより、従来の方法と比較して、融合の結果はより正確になる。
201では、レーダーが検出したターゲットのレーダー座標系における位置と、そのビデオ座標系における位置の間には変換関係があり、本発明ではf()と記される。なお、本発明は該変換関係f()の確定方法について限定せず、従来の任意の方法を採用しても良い。これにより、該変換関係f()により、レーダーが検出した各ターゲットのビデオ座標系における位置を確定することができる。
例えば、レーダーがn個のターゲット(レーダーターゲット)を検出しており、レーダー座標系における位置がそれぞれ(x,y),(x,y),…,(x,y)であるとする。変換関係f()により、レーダーターゲットのビデオ座標系における位置(u,v),(u,v),…,(u,v)を得ることができる。そのうち、(u,v)=f(x,y)、(u,v)=f(x,y)、…、(u,v)=f(x,y)である。
また、カメラヘッドがm個のターゲット(ビデオターゲット)を検出しており、ビデオ座標系における位置がそれぞれ(u’,v’),(u’,v’),…,(u’,v’)であるとする。
上述の202では、ビデオ座標系において、未マッチングの各レーダーターゲットについて、該レーダーターゲットと関連付けられるビデオターゲットを見つけ、即ち、該レーダーターゲットとともにマッチング条件を満たしたビデオターゲットを見つける。該レーダーターゲットとともにマッチング条件を満足したビデオターゲットを見つけることができれば、このレーダーターゲット及びこのビデオターゲットは、現実の世界の中の同じ物体に対応する可能性があり、該レーダーターゲットとともにマッチング条件を満たすビデオターゲットを見つけることができない場合、このレーダーターゲットは、関連付けられる又は対応するビデオターゲットを有しない。
幾つかの実施例において、レーダーターゲットとビデオターゲットとの間の距離に基づいてレーダーターゲットと関連付けられるビデオターゲットを確定することができる。例えば、該レーダーターゲットと、カレントフレームのビデオ検出結果におけるすべての未マッチングのビデオターゲットとの間の距離を計算し、距離が第一閾値(th1)未満であり且つ距離が最小であるビデオターゲットを、該レーダーターゲットと関連付けられるビデオターゲットとし、他のビデオターゲットを、該レーダーターゲットと関連付けられないものと見なす。すべてのビデオターゲットに対応する距離がすべて第一閾値よりも大きい場合、該レーダーターゲットと関連付けられるビデオターゲットが存在しないと見なす。なお、本発明では第一閾値の値について限定せず、経験あるいは他の原則又はポリシーに基づいて確定されても良い。
幾つかの実施例において、カレントフレームのビデオ検出結果におけるすべての未マッチングのビデオターゲットの中の各ビデオターゲットについて、以下の公式により上述の距離を計算する。
ij=uw*(ur−uv)+vw*(vr−vv
そのうち、(ur,vr)は該レーダーターゲットのビデオ座標系での座標であり、(uv,vv)は上述のビデオターゲットのビデオ座標系での座標であり、uwは横方向ウェイト(重み)値であり、vwは縦方向ウェイト値であり、uw≧0、vw≧0、且つuw+vw=1である。
ビデオ座標系では、横方向に対応する実際の物理的な長さのスパンが縦方向よりも遥かに小さい。例えば、2つのピクセル点の横方向の座標が5ピクセル異なり、実際の距離上ではd1=20cm異なる。一方、2つのピクセル点の縦方向の座標が5ピクセル異なる場合、実際の距離上ではd2=2m異なる可能性がある。これで分かるように、d2はd1よりも遥かに大きい。本発明の実施例では、uw及びvwを設定することで、横方向及び縦方向のピクセルの差の、上述の距離dにおける割合を調整することができる。
幾つかの実施例において、上述の横方向ウェイト値uwと上述の縦方向ウェイト値vwとの比(uw:vw)は、カレントフレームに対応するビデオ画像のアスペクト比、及び、該ビデオ画像に対応する実際位置の距離比に基づいて設定される。
図3は、uw及びvwを設定する一例を示す図である。ビデオ画像のアスペクト比がW:Lであり、対応する実際位置の距離比がC:Kであるとすれば、uw:vw=W/C:L/Kである。例えば、図3に示すように、ビデオ画面のピクセル比が1920ピクセル:1080ピクセルであ、画面における実際位置の横方向と縦方向の距離比が100m:20mであり、この場合は、uw:vw=1920/100:1080/20=192:54である。
202によれば、未マッチングの各レーダーターゲットと関連付けられるビデオターゲットを確定しており、又は、依然としてマッチすることができないレーダーターゲットを確定している。これにより、各ビデオターゲットは複数のレーダーターゲットと関連付けられる可能性があるが、該複数のレーダーターゲットは必ずしも該ビデオターゲットとマッチせず、即ち、必ずしも現実の世界の中の同じ物体に対応しない。本発明の実施例では、203により各ビデオターゲットとマッチするレーダーターゲットを確定することができる。
上述の203では、ビデオターゲットの類型に基づいて該ビデオターゲットとマッチするレーダーターゲットを確定することができる。例えば、該ビデオターゲットの類型が複数のレーダーターゲットに対応し得る類型であれば、該ビデオターゲットと関連付けられるすべてのレーダーターゲットがすべて該ビデオターゲットとマッチするレーダーターゲットであると確定する。該ビデオターゲットの類型が複数のレーダーターゲットに対応することができない類型であり、即ち、該ビデオターゲットが1つのみのレーダーターゲットとマッチし得る場合、該ビデオターゲットとの距離が最小であるレーダーターゲットを、該ビデオターゲットとマッチするレーダーターゲットとする。
本発明の実施例では、依然として未マッチングのレーダーターゲットについて、引き続き、202によりそれと関連付けられるビデオターゲットを確定しても良い。このときに、該レーダーターゲットと、すべての未マッチングのビデオターゲットとの間の距離が既に計算されているから、該レーダーターゲットとの間の距離がth1よりも小さいすべてのビデオターゲットのうち、距離が2番目に小さいビデオターゲットを、該レーダーターゲットと関連付けられるビデオターゲットとすることができる。
図4はレーダーターゲットとビデオターゲットとの融合の一例のフローチャートである。図4に示すように、該フローチャートは以下のステップを含む。
401:未マッチングの各レーダーターゲットについて、該レーダーターゲットと、すべての未マッチングのビデオターゲットとの間の距離dijを計算し;
402:dij≦th1のすべてのビデオターゲットを小から大への順で並べ替え;
403:k=1とし;
404:該レーダーターゲットを、並べ替えられた後のk番目のビデオターゲットと関連付け;
405:ビデオターゲットが複数のレーダーターゲットと関連付けられているかを判断し、はいと判断された場合、406を実行し、そうでない場合、終了し;
406:ビデオターゲットが複数のレーダーターゲットとマッチし得るかを判断し、はいと判断された場合、407を実行し、そうでない場合、終了し;
407:該ビデオターゲットと関連付けられるすべてのレーダーターゲットのうち、該ビデオターゲットとの間の距離が最小であるレーダーターゲットを、該ビデオターゲットとマッチするレーダーターゲットとし;
408:未マッチングのレーダーターゲットがまだあるかを判断し、はいと判断された場合、kの値に1をプラスして404へ戻り、そうでない場合、終了する。
未マッチングの各レーダーターゲットに対しては401〜404の処理を行っても良く、また、未マッチングの各ビデオターゲットに対しては405〜408の処理を行っても良い。
なお、図4は本発明の実施例を例示的に説明するためのものに過ぎず、本発明はこれに限られない。例えば、各操作(ステップ)の間の実行順序を適切に調整したり、幾つかの操作を増減したりしても良い。即ち、当業者は、図4の記載をもとに、上述の内容に対して適切に変更を行っても良い。
図5はレーダーターゲットとビデオターゲットとの融合の一例を示す図である。
図5に示すように、501において、未マッチングの各レーダーターゲットについて、該レーダーターゲットと、すべての未マッチングのビデオターゲットとの間の距離(dij)を計算し、そして、距離(dij)が第一閾値(th1)以下であるビデオターゲットを、距離(dij)の小から大への順序で並べ替えることで、距離が最も小さいビデオターゲットを該レーダーターゲットと関連付ける。また、他のビデオターゲットについては、該レーダーターゲットと関連付けられないものを見なす。すべてのビデオターゲットに対応するdijがすべてth1よりも大きい場合、該レーダーターゲットと関連付けられるビデオターゲットがないと見なし、このような場合は、カメラヘッドの検出漏れによる可能性があるため、該レーダーターゲットを1つのシングルな物体と見なす。
図5に示すように、502において、未マッチングの各ビデオターゲットについて、該ビデオターゲットが複数のレーダーターゲットとマッチし得る場合、該ビデオターゲットと関連付けられるすべてのレーダーターゲットを、該ビデオターゲットとマッチするレーダーターゲットとし、該ビデオターゲットが1つのみのレーダーターゲットとマッチし得る場合、該ビデオターゲットとの距離が最も近い、関連付けられるレーダーターゲットを、それとマッチするレーダーターゲットとする。
図5の502では、一番左のビデオターゲットが複数のレーダーターゲットとマッチすることができ;中間のビデオターゲットが1つのレーダーターゲットと関連付けられ、且つ1つのみのレーダーターゲットとマッチすることができ、この場合、それと関連付けられるレーダーターゲットを、それとマッチするレーダーターゲットとし;一番右のビデオターゲットが複数のレーダーターゲットと関連付けられるが、1つのみのレーダーターゲットとマッチすることができ、この場合、それとの距離が最も近いレーダーターゲットを、それとマッチするレーダーターゲットとし、それと関連付けられる他のレーダーターゲットについては、501に戻り、引き続き、距離が2番目に小さいビデオターゲットを、それと関連付けられるビデオターゲットとして選択し、これに基づいて類推する。
本発明の実施例では、1つのレーダーターゲットがいずれのビデオターゲットとマッチすることができない場合、該レーダーターゲットを1つのシングルなターゲットとする。このような場合は、カメラヘッドの検出漏れによる可能性がある。
本発明の実施例では、1つのビデオターゲットがいずれのレーダーターゲットとマッチすることができない場合、例えば、該ビデオターゲットと関連付けられるレーダーターゲットが存在しない場合、該ビデオターゲットを1つのシングルなターゲットとする。このような場合は、レーダーの検出漏れによる可能性がある。
上述の204では、幾つかの実施例において、203のマッチング結果に基づいて、物体番号oidを用いてカレントフレームのレーダー検出結果におけるすべてのレーダーターゲット及びカレントフレームのビデオ検出結果におけるすべてのビデオターゲットを標識し、oidは現実の世界の中の1つの物体に対応する。例えば、マッチしているレーダーターゲット及びビデオターゲットについて1つの物体番号を付与し、未マッチングのレーダーターゲットについて1つの物体番号を付与し、未マッチングのビデオターゲットについて1つの物体番号を付与しても良い。これにより、カレントフレームのレーダー検出結果におけるすべてのレーダーターゲット及びカレントフレームのビデオ検出結果におけるすべてのビデオターゲットはすべて1つの対応する物体番号を有するようになる。
幾つかの実施例において、203のマッチング結果に基づいて上述の標識を行う前に、例えば、202の前に、先にレーダー軌跡及びビデオ軌跡に基づいて幾つかのレーダーターゲット及びビデオターゲットに対して標識を行っても良い。例えば、少なくとも1つのレーダーターゲットが1つのレーダー軌跡に属し、少なくとも1つのビデオターゲットが1つのビデオ軌跡に属し、且つ該レーダー軌跡及び該ビデオ軌跡におけるターゲットが1つ前のフレームで同一の物体番号を用いて標識された場合、1つ前のフレームの物体番号を用いて該少なくとも1つのレーダーターゲット及び該少なくとも1つのビデオターゲットに対して標識を行う。
例えば、カレントフレームがm+1番目のフレームであり、m番目のフレームにおいて、レーダー軌跡rtの中のレーダーターゲットx及びビデオ軌跡vtの中のビデオターゲットyがマッチしており、物体番号oによりx及びyを標識しているとする場合、m+1番目のフレームでは、軌跡rtの中のレーダーターゲットxm+1について引き続き物体番号oを用いて標識を行い、ビデオ軌跡vtの中のビデオターゲットym+1についてもoを用いて標識を行う。
これにより、先に幾つかのレーダーターゲット及びビデオターゲットを標識しているから、後続の202の処理に係る未マッチングのレーダーターゲットは、標識されていないレーダーターゲットであり、後続の203の処理に係る未マッチングのビデオターゲットは、標識されていないビデオターゲットであり、後続の204の処理に係るレーダーターゲット及びビデオターゲットは、標識されていないレーダーターゲット及びビデオターゲットである。なお、ここでは網羅的な説明を省略する。
上述の205では、204の標識結果に基づいて、標識された各物体について、該物体に対応するビデオ情報及び/又はレーダー情報に基づいて該物体の位置及び速度を確定することができる。
本発明の実施例では、ビデオ情報は物体のビデオ検出結果のワールド座標系での位置及び速度を含み、前述のように、ビデオ検出結果はカメラヘッドが検出することにより得たものである。レーダー情報は物体のレーダー検出結果のワールド座標系での位置及び速度を含み、前述のように、レーダー検出結果はレーダーが検出することで得たものである。
幾つかの実施例において、前述のように、マッチしているレーダーターゲット及びビデオターゲットについては、その対応する物体は上述のビデオ情報及び上述のレーダー情報を含み;未マッチングのレーダーターゲットについては、その対応する物体は上述のレーダー情報のみを含み;未マッチングのビデオターゲットについては、その対応する物体は上述のビデオ情報のみを含む。
カメラヘッドが1組のターゲット[c,c,…,c]を検出しており、レーダーが1組のターゲット[r,r,…,r]を検出していることを例にとる。201−204の方法により、レーダーが検出したターゲットと、カメラヘッドが検出したターゲットとのマッチングを行い、また、集合[o,o,…,o]を用いて、レーダー及びカメラヘッドにより検出された現実の世界の物体(204におけるoid)を表す。そのうち、各物体oはビデオ情報
(外1)
Figure 2021140764
及びレーダー情報
(外2)
Figure 2021140764
を含み、又は、ビデオ情報及びレーダー情報のうちの1種類のみを含む。
そのうち、(cx,cy)はカメラヘッドが検出したターゲットのワールド座標系での座標であり、(rx,ry)はレーダーが検出したターゲットのワールド座標系での座標であり、
(外3)
Figure 2021140764
はカメラヘッドが測定したターゲットのベクトル速度であり、
(外4)
Figure 2021140764
はレーダーが測定したターゲットのベクトル速度であり、ここで、ベクトル速度は速度の大小及び速度の方向の両方を含む。また、カメラヘッドのワールド座標系での座標が(co,co)であり、レーダーのワールド座標系での座標が(ro,ro)であるとする。幾つかの実施例において、カメラヘッド及びレーダーはワールド座標系において同一の位置にあるが、本発明はこれに限定されない。
幾つかの実施例において、物体がビデオ情報のみを含む場合、該物体のビデオ検出結果のワールド座標系での位置(cx,cy)を該物体のワールド座標系での位置とする。
幾つかの実施例において、物体がレーダー情報のみを含む場合、該物体のレーダー検出結果のワールド座標系での位置(rx,ry)を該物体のワールド座標系での位置とする。
幾つかの実施例において、物体がビデオ情報及びレーダー情報の両方を含む場合、ワールド座標系での該物体とレーダーとの間の距離(d)、又は、ワールド座標系での該物体とカメラヘッドとの間の距離(d)に基づいて、該物体のワールド座標系における位置を確定する。
例えば、上述の距離(d又はd)が第二閾値(th2)以下である場合、該物体のビデオ検出結果のワールド座標系での位置(cx,cy)を該物体のワールド座標系での位置とし;上述の距離(d又はd)が第二閾値(th2)よりも大きい場合、該物体のレーダー検出結果の世界座標系での位置(rx,ry)を該物体のワールド座標系での位置とする。
幾つかの実施例において、1組のセンシング装置のカメラヘッド及びレーダーが道路の同一の位置に配置される。被測定物体がカメラヘッド及びレーダーに近い位置にあるときに、カメラヘッドの測距の正確度はより高く、被測定物体がカメラヘッド及びレーダーから遠い位置にあるときに、レーダーの測距の正確度はより高い。本発明は、この原則(原理)に基づいて融合後のターゲット(即ち、上述の物体)の位置でどのセンサの測定データを最終のキャリブレーションデータとして用いるかを判断する。
幾つかの実施例において、第二閾値(th2)はビデオ測距精度に関連する。例えば、システムに必要な測距精度がrであるとする。この場合、ビデオ測距アルゴリズムも、異なる測距dで対応する精度(ビデオ測距精度と言う)rを有し、例えば、0<d<d1のときに、対応する測距精度はr1であり、d1≦d<d2のときに、対応する測距精度はr2である。一般的には、ビデオ測距精度rが測距dの増大に伴って悪くなる。本発明の実施例では、最大の測距dをth2として選択することができ、そのうち、dに対応するビデオ測距精度rはrのニーズに満たし、即ち、r<rである。以上、例示に過ぎず、本発明はこれに限定されない。本発明の実施例では、第二閾値th2は他の値に設定されても良い。
幾つかの実施例において、ワールド座標系で上述の物体とカメラヘッドとの間の距離は、以下の公式により算出することができる。
Figure 2021140764
そのうち、(cox,coy)はカメラヘッドのワールド座標系での座標であり、(cx,cy)はカメラヘッドが検出した物体(ビデオターゲット)のワールド座標系での座標である。
幾つかの実施例において、ワールド座標系で上述の物体とレーダーとの間の距離は以下の公式で算出することができる。
Figure 2021140764
そのうち、(rox,roy)はレーダーのワールド座標系における座標であり、(rx,ry)はレーダーが検出した物体(レーダーターゲット)のワールド座標系における座標である。
本発明の実施例では、後続のデータ処理のために、例えば、複数組のセンシング装置のターゲット融合及びデータ融合のために、レーダーが測定した速度(レーダー速度であり、前述のように、
(外5)
Figure 2021140764
である。)及びカメラヘッドが測定した速度(ビデオ速度であり、前述のように、
(外6)
Figure 2021140764
である。)を直接保留しても良い。
例えば、物体がビデオ情報のみを含む場合、該物体のビデオ検出結果のワールド座標系での速度
(外7)
Figure 2021140764
を、該物体のワールド座標系でのビデオ速度とする。
例えば、物体僅がレーダー情報のみを含む場合、該物体のレーダー検出結果の世界座標系での速度
(外8)
Figure 2021140764
を、該物体のワールド座標系におけるレーダー速度とする。
例えば、物体がビデオ情報だけでなくレーダー情報も含む場合、該物体のビデオ検出結果のワールド座標系における速度
(外9)
Figure 2021140764
を、該物体在ワールド座標系でのビデオ速度とし、また、該物体のレーダー検出結果の世界座標系での速度
(外10)
Figure 2021140764
を、該物体のワールド座標系におけるレーダー速度とする。
なお、以上、本発明に係る各操作又はプロセスのみについて説明したが、本発明はこれに限定されない。該方法はさらに他の操作(ステップ)又はプロセスを含んでも良い。これらの操作(ステップ)又はプロセスの具体的な内容については、関連技術を参照することができる。
本発明の実施例により、レーダー検出結果及びビデオ検出結果を用いてターゲットの位置を計算し、そして、レーダー及びカメラヘッドが収集したデータに対しいて融合を行うことにより、従来の方法と比較して、融合の結果は更に正確になる。
<実施例の第二側面>
本発明の実施例はデータ融合方法を提供し、実施例の第一側面における方法とは異なる点は、次の通りであり、即ち、本発明の実施例の第二側面における方法では、複数組のセンシング装置が検出したターゲット及び収集した測定データに対して融合を行い、各組のセンシング装置が1つのレーダー及び1つのカメラヘッドを含む。なお、本発明の実施例の第二側面では、本発明の実施例の第一側面と同じである内容の重複説明が省略される。
図6は、本発明の実施例におけるデータ融合方法を示す図である。図6に示すように、該方法は以下のようなステップを含む。
601:各組のセンシング装置が検出した各ターゲットについて、前記ターゲットの所定範囲内に他の組のセンシング装置が検出したターゲットが存在する場合、前記所定範囲内のすべてのターゲットが同一の物体であると確定し;
602:前記所定範囲内のすべてのターゲットの位置及び速度に基づいて、前記物体の位置及び速度を確定する。
本発明の実施例では、複数組のセンシング装置を設置して検出を行うことにより、多方向、全方位の情報を得ることができ、これにより、交通の状況を示す動的地図を取得することができる。しかし、これらのセンシング装置の感知範囲が重畳(overlap)する場合があり、例えば、1つの物体が複数組のセンシング装置により検出されたときに、異なる組のセンシング装置が検出したターゲットに対してデータ融合を行わないと、動的地図上で複数の物体が現れることがあり、これらの物体は実際には現実の世界の中の1つの物体に対応する。本発明の実施例における方法によれば、重畳部分のセンシング情報を融合することで、このようなことの発生を避け、動的地図で道路上の各方向の実際の物体をリアルタイムに表示することができる。
601では、各組のセンシング装置が検出したターゲットは、この組のセンシング装置のレーダー及びカメラヘッドが検出したターゲットを融和した後のターゲットであり、例えば、図1に示す第一組のセンシング装置が検出したターゲット、又は、図1に示す第2組センシング装置が検出したターゲットである。本発明の実施例では、各組のセンシング装置が検出したターゲットに対しての融合は、実施例の第一側面における方法を採用して実現されても良く、その内容はここに合併され、ここではその詳しい説明を省略する。なお、本発明はこれに限定されず、他の方法を採用して実現されても良い。
601では、所定範囲は第四閾値th4を用いて定義されても良く、即ち、上述のターゲットのth4の範囲内で、他の組のセンシング装置が検出したターゲットが存在すれば、該th4の範囲内のすべてのターゲットが同一の物体に属すると見なす。
図7は3組のセンシング装置が検出したターゲットのワールド座標系における様子を示す図である。図7に示すように、第一組のセンシング装置が検出した各ターゲットについて、ターゲット(1)のth4の範囲701内で、第二組のセンシング装置が検出したターゲット(2)及び第三組のセンシング装置が検出したターゲット(3)が存在し、この場合、範囲701内のターゲット(1)及びターゲット(2)及びターゲット(3)は同一の物体に属し;ターゲット(1)のth4の範囲702内で、第二組のセンシング装置が検出したターゲット(2)が存在し、この場合、範囲702内のターゲット(1)及びターゲット(2)は同一の物体に属し;ターゲット(1)のth4の範囲703内で、第二組のセンシング装置が検出したターゲット(2)が存在し、この場合、範囲703内のターゲット(1)及びターゲット(2)は同一の物体に属する。
各組のセンシング装置が検出した各ターゲットに対して上述の処理を行った後に、複数組のセンシング装置が検出したすべてのターゲットの融合を完了している。融合後の同一の物体について、同じ物体番号を用いて標識することができる。例えば、範囲701内の3つのターゲット(3組のセンシング装置により検出されたもの)に対して1つの物体番号を用いて標識を行い、範囲702内の2つのターゲット(2組のセンシング装置により検出されたもの)に対して1つの物体番号を用いて標識を行い、範囲703内の2つのターゲット(2組のセンシング装置により検出されたもの)に対して1つの物体番号を用いて標識を行う。また、th4の範囲外で見つかった、他の組のセンシング装置により検出されたターゲットについて、例えば、図7において範囲701〜703に無い、第三組のセンシング装置により検出されたターゲット(3)について、1つの物体番号を用いてそれに対して標識を行う。
本発明の実施例では、各組のセンシング装置が検出したターゲット(レーダー検出結果とビデオ検出結果とを融合した後のターゲット)の所在する位置に基づいて、複数組のセンシング装置が検出したターゲットに対して融合を行う以外に、各組のセンシング装置が検出したターゲットの速度を参考にしても良い。
幾つかの実施例において、上述の所定範囲内のターゲットは、対向して設置されるセンシング装置が検出したものであり、且つ、該所定範囲内のターゲットのうち、対向して設置されるセンシング装置により検出されたターゲットの速度ベクトルの差は第五閾値(th5)未満である。なお、対向して設置されるセンシング装置の具体的な意味については、後述する。
依然として図7を例にとり、ターゲットの位置のみを考慮する場合、範囲701内のターゲット(1)、(2)、(3)がth4を満足しているから、範囲701内のターゲット(1)、(2)、(3)は同一の物体に属し;ターゲットの位置及びターゲットの速度の両方を考慮する場合、範囲701内のターゲット(1)、(2)、(3)がth4を満足しているが、範囲701内のターゲット(1)及び(2)がth5を満足し、(3)がth5を満足しなければ、(1)及び(2)は同一の物体に属し、(3)はこの物体に属しない。
602では、幾つかの実施例において、所定範囲内のすべてのターゲットの位置及び速度に基づいて該物体の位置及び速度を確定する。
本発明の実施例では、実施例の第一側面に記載のように、融合後の各ターゲットの情報は該ターゲットの位置情報及び該ターゲットの速度情報を含み、該位置情報は例えば、実施例の第一側面に記載の(cx,cy)(該組のセンシング装置が検出した融合後のターゲットはビデオ情報のみを含み、又は、d≦th2、又は、d≦th2である。)又は(rx,ry)(該組のセンシング装置が検出した融合後のターゲットはレーダー情報のみを含み、又は、d>th2、又は、d>th2である。)であり、該速度情報は例えば、実施例の第一側面に記載の
(外11)
Figure 2021140764
及び/又は
(外12)
Figure 2021140764
である。
幾つかの実施例において、所定範囲内のすべてのターゲットの位置の平均値をこれらのターゲットに対応する該物体の位置としても良い。
例えば、1つの融合後の物体(601の処理により融合された物体)について、第g組のセンシング装置が検出した融合後のターゲットの座標が(x,y)であり、トータルでn組のセンサがある場合、該融合後の物体の位置は、
(外13)
Figure 2021140764
である。
幾つかの実施例において、対向して設置されるセンシング装置のレーダー速度に基づいて、該物体のレーダー速度測定結果を確定し、また、対向して設置されるセンシング装置のビデオ速度に基づいて該物体のビデオ速度測定結果を確定し、そして、レーダー速度測定結果及びビデオ速度測定結果の平均値を該物体の速度とすることができる。
幾つかの実施例において、レーダー速度測定結果は、すべての、対向して設置されるセンシング装置のレーダー速度のベクトルの和の平均値であり、ビデオ速度測定結果は、すべての、対向して設置されるセンシング装置のビデオ速度のベクトルの和の平均値である。
本発明の実施例では、対向して設置されるセンシング装置とは、2組のセンシング装置が対向して設置されることを意味する。例えば、第一組のセンシング装置が交差点の東側に設置され且つ西側に面し、第二組のセンシング装置が交差点の西側に設置され且つ東側に面する場合、第一組のセンシング装置及び第二組のセンシング装置は、対向して設置されるセンシング装置に属する。また、例えば、第三組のセンシング装置が交差点の南側に設置されて北側に面し、第四組のセンシング装置が交差点の北側に設置されて南側に面する場合、第三組のセンシング装置及び第四組センシング装置は、対向して設置されるセンシング装置に属する。これに基づいて類推することができるため、ここでは網羅的な列挙を省略する。
例えば、1つの融合後の物体(601の処理により融合された物体)について、まず、対向して設置されるセンシング装置の中のレーダー(対向レーダーとも言う)が測定した速度の平均値を求め、この物体に関してこのような対向レーダーがトータルでn対あり、そのうち、第h対の対向レーダーが測定した該物体の速度ベクトルが
(外14)
Figure 2021140764
であり、第h対の対向カメラヘッドが測定した該物体の速度ベクトルが
(外15)
Figure 2021140764
である場合、レーダー速度測定結果は、
Figure 2021140764
であり、ビデオ速度測定結果は、
Figure 2021140764
であり、この物体の最終速度は、
Figure 2021140764
である。
また、例えば、1つの融合後の物体(601の処理により融合された物体)について、トータルでn組のセンシング装置が該物体を測定し、そのうち、第h組のセンシング装置のレーダーが測定した該物体の速度ベクトルが
(外16)
Figure 2021140764
であり、カメラヘッドが測定した該物体の速度ベクトルが
(外17)
Figure 2021140764
である場合、レーダー速度測定結果は、
Figure 2021140764
であり、ビデオ速度測定結果は、
Figure 2021140764
であり、この物体の最終速度は、
Figure 2021140764
である。
図8は該物体の速度を計算する一例を示す図である。図8に示すように、1つの物体aが交差点を通過するときに、iはレーダー速度測定結果であり、
(外18)
Figure 2021140764
及び
(外19)
Figure 2021140764
は、それぞれ、第1対の対向レーダー及び第2対の対向レーダーが測定した速度ベクトルであり、レーダーの速度測定結果は、
(外20)
Figure 2021140764
であり;iiはビデオ速度測定結果であり、
(外21)
Figure 2021140764
及び
(外22)
Figure 2021140764
は、それぞれ、第1対の対向カメラヘッド及び第2対の対向カメラヘッドが測定した速度ベクトルであり、ビデオ速度測定結果は、
(外23)
Figure 2021140764
であり;iiiは物体aの速度、即ち、
Figure 2021140764
である。
本発明の実施例における方法によれば、複数組のセンシング装置が設けられる場合、各組のセンシング装置が道路上の異なる方向でターゲットを検出し、各組のセンシング装置が検出したターゲット及び収集したデータを融合し、電子マップを生成することで、道路上の各方向のターゲットをリアルタイムに表示することができる。
<実施例の第三側面>
本発明の実施例の第三側面では、データ融合装置が提供され、該データ融合装置は実施例の第一側面におけるデータ融合方法に対応し、ここでは同じ内容の重複説明が省略される。
図9は本発明の実施例におけるデータ融合装置を示す図である。図9に示すように、本発明の実施例におけるデータ融合装置900は、投影ユニット901、第一確定ユニット902、第二確定ユニット903、第一標識ユニット904、及び第三確定ユニット905を含む。
投影ユニット901は、カレントフレームのレーダー検出結果をビデオ座標系に投影し、カレントフレームのレーダー検出結果におけるすべてのレーダーターゲットのビデオ座標系での位置を取得し;
第一確定ユニット902は、ビデオ座標系において、未マッチングの各レーダーターゲットについて、前記レーダーターゲットと関連付けられるビデオターゲットを確定し;
第二確定ユニット903は、ビデオ座標系において、未マッチングの各ビデオターゲットについて、前記ビデオターゲットの類型、及び前記ビデオターゲットと関連付けられるレーダーターゲットに基づいて、前記ビデオターゲットとマッチするレーダーターゲットを確定し;
第一標識ユニット904は、物体番号を用いて、カレントフレームのレーダー検出結果におけるすべてのレーダーターゲット及びカレントフレームのビデオ検出結果におけるすべてのビデオターゲットを標識し;
第三確定ユニット905は、標識された各物体について、前記物体に対応するビデオ情報及び/又はレーダー情報に基づいて前記物体のワールド座標系における位置及び速度を確定する。
幾つかの実施例において、第一確定ユニット902が前記レーダーターゲットと関連付けられるビデオターゲットを確定することは、
前記レーダーターゲットと、カレントフレームのビデオ検出結果におけるすべての未マッチングのビデオターゲットとの間の距離を計算し;及び
距離が第一閾値よりも小さく且つ距離が最小であるビデオターゲットを、前記レーダーターゲットと関連付けられるビデオターゲットとすることを含む。
幾つかの実施例において、第一確定ユニット902が前記レーダーターゲットと、カレントフレームのビデオ検出結果におけるすべての未マッチングのビデオターゲットとの間の距離を計算することは、
カレントフレームのビデオ検出結果におけるすべての未マッチングのビデオターゲットのうちの各ビデオターゲットについて、以下の公式により前記距離を計算することを含む。
ij=uw*(ur−uv)+vw*(vr−vv
そのうち、(ur,vr)は前記レーダーターゲットのビデオ座標系における座標であり、(uv,vv)は前記ビデオターゲットのビデオ座標系における座標であり、uwは横方向ウェイト値であり、vwは縦方向ウェイト値であり、uw≧0、vw≧0、且つuw+vw=1である。
幾つかの実施例において、前記横方向ウェイト値及び前記縦方向ウェイト値の比は、カレントフレームに対応するビデオ画像のアスペクト比及び前記ビデオ画像に対応する実際位置の距離比に基づいて設定される。
幾つかの実施例において、第二確定ユニット903が前記ビデオターゲットの類型に基づいて前記ビデオターゲットとマッチするレーダーターゲットを確定することは、
前記ビデオターゲットの類型が複数のレーダーターゲットとマッチし得る類型である場合、第二確定ユニット903が、前記ビデオターゲットとマッチするレーダーターゲットがすべての、前記ビデオターゲットと関連付けられるレーダーターゲットであると確定し;及び
前記ビデオターゲットの類型が1つのみのレーダーターゲットにマッチし得る類型である場合、第二確定ユニット903が、前記ビデオターゲットとマッチするレーダーターゲットがすべての、前記ビデオターゲットと関連付けられるレーダーターゲットのうち、前記ビデオターゲットとの間の距離が最も小さいレーダーターゲットであると確定することを含む。
幾つかの実施例において、第一標識ユニット904が物体番号を用いてカレントフレームのレーダー検出結果におけるすべてのレーダーターゲット及びカレントフレームのビデオ検出結果におけるすべてのビデオターゲットを標識することは、
各組のマッチしたレーダーターゲット及びビデオターゲットを1つの物体番号により標識し;
未マッチングの各レーダーターゲットを1つの物体番号により標識し;及び
未マッチングの各ビデオターゲットを1つの物体番号により標識することを含む。
幾つかの実施例において、図9に示すように、該データ融合装置900はさらに以下のようなものを含む。
第二標識ユニット906:第一確定ユニット902がレーダーターゲットと関連付けられるビデオターゲットを確定する前に、レーダー軌跡及びビデオ軌跡に基づいてレーダーターゲット及びビデオターゲットを標識する。
第二標識ユニット906の標識処理は、少なくとも1つのレーダーターゲットが1つのレーダー軌跡に属し、少なくとも1つのビデオターゲットが1つのビデオ軌跡に属し、且つ前記レーダー軌跡及び前記ビデオ軌跡の中のターゲットが1つ前のフレームにおいて同じ物体番号により標識されている場合、1つ前のフレームの前記物体番号を用いて前記の少なくとも1つのレーダーターゲット及び上述の少なくとも1つのビデオターゲットを標識することを含む。
幾つかの実施例において、前記ビデオ情報は、前記物体のビデオ検出結果のワールド座標系における位置及び速度を含み、前記ビデオ検出結果は、カメラヘッドが検出したものであり、前記レーダー情報は、前記物体のレーダー検出結果の世界座標系での位置及び速度を含み、前記レーダー検出結果はレーダーが検出したものである。
幾つかの実施例において、第三確定ユニット905が前記物体に対応するビデオ情報及び/又はレーダー情報に基づいて前記物体のワールド座標系における位置を確定することは、
前記物体が前記ビデオ情報のみを含む場合、第三確定ユニット905が、前記物体のビデオ検出結果のワールド座標系における位置を前記物体のワールド座標系での位置とし;
前記物体が前記レーダー情報のみを含む場合、第三確定ユニット905が、前記物体のレーダー検出結果の世界座標系での位置を前記物体のワールド座標系における位置とし;及び
前記物体が前記ビデオ情報及び前記レーダー情報を含む場合、第三確定ユニット905が、ワールド座標系での前記物体と前記レーダーとの間の距離、又は、ワールド座標系での前記物体と、前記カメラヘッドとの間の距離に基づいて、前記物体の世界座標における位置を確定することを含む。
幾つかの実施例において、前記距離が第二閾値以下である場合、第三確定ユニット905は、前記物体のビデオ検出結果のワールド座標系での位置を前記物体のワールド座標系における位置とし、前記距離が第二閾値よりも大きい場合、第三確定ユニット905は、前記物体のレーダー検出結果の世界座標系における位置を前記物体のワールド座標系での位置とする。
幾つかの実施例において、前記第二閾値はビデオ測距精度と関係がある。
幾つかの実施例において、第三確定ユニット905は、以下の公式によりワールド座標系における前記物体と前記カメラヘッドとの間の距離を計算する。
Figure 2021140764
そのうち、(cox,coy)は前記カメラヘッドのワールド座標系での座標であり、(cx,cy)は前記カメラヘッドが検出した前記物体のワールド座標系における座標である。
幾つかの実施例において、第三確定ユニット905は以下の公式によりワールド座標系での前記物体と前記レーダーとの間の距離を計算する。
Figure 2021140764
そのうち、(rox,roy)は前記レーダーのワールド座標系における座標であり、(rx,ry)は前記レーダーが検出した前記物体のワールド座標系での座標である。
幾つかの実施例において、第三確定ユニット905が前記物体に対応するビデオ情報及び/又はレーダー情報に基づいて前記物体のワールド座標系での速度を計算することは、
前記物体が前記ビデオ情報のみを含む場合、第三確定ユニット905が、前記物体のビデオ検出結果のワールド座標系における速度を前記物体のワールド座標系におけるビデオ速度とし;
前記物体が前記レーダー情報のみを含む場合、第三確定ユニット905が、前記物体のレーダー検出結果の世界座標系での速度を前記物体のワールド座標系におけるレーダー速度とし;及び
前記物体が前記ビデオ情報及び前記レーダー情報を含む場合、第三確定ユニット905が、前記物体のビデオ検出結果のワールド座標系における速度を前記物体のワールド座標系におけるビデオ速度とし、また、前記物体のレーダー検出結果の世界座標系での速度を前記物体のワールド座標系におけるレーダー速度とすることを含む。
なお、以上、本発明に係る各部品又はモジュールのみについて説明したが、本発明はこれに限定されない。データ融合装置900はさら、他の部品又はモジュールを含んでも良い。これらの部品又はモジュールの具体的な内容については、関連技術を参照することができる。
本発明の実施例により、レーダー検出結果及びビデオ検出結果に基づいてターゲットの位置を計算し、そして、レーダー及びカメラヘッドが収集したデータを融合することで、従来の方法に比べて、融合の結果はより正確になる。
<実施例の第四側面>
本発明の実施例の第四側面ではデータ融合装置が提供され、該データ融合装置は実施例の第二側面におけるデータ融合方法に対応し、ここでは同じ内容の重複説明を省略する。
図10は本発明の実施例におけるデータ融合装置を示す図である。図10に示すように、本発明の実施例のデータ融合装置1000は第一確定ユニット1001及び第二確定ユニット1002を含む。
第一確定ユニット1001は、各組のセンシング装置が検出した各ターゲットについて、前記ターゲットの所定範囲内に他の組センシング装置が検出したターゲットが存在する場合、前記所定範囲内のすべてのターゲットが同じ物体であると確定し;
第二確定ユニット1002は、前記所定範囲内のすべてのターゲットの位置及び速度に基づいて前記物体の位置及び速度を確定する。
幾つかの実施例において、第二確定ユニット1002が前記物体の位置を確定することは、前記所定範囲内のすべてのターゲットの位置の平均値を前記物体の位置とすることを含む。
幾つかの実施例において、第二確定ユニット1002が前記物体の速度を確定することは、対向して設置されるセンシング装置のレーダー速度に基づいて前記物体のレーダー速度測定結果を確定し、対向して設置されるセンシング装置のビデオ速度に基づいて前記物体のビデオ速度測定結果を確定し、及び、前記レーダー速度測定結果及び前記ビデオ速度測定結果の平均値を前記物体の速度とすることを含む。
幾つかの実施例において、前記レーダー速度測定結果はすべての、対向して設置されるセンシング装置のレーダー速度のベクトルの和の平均値であり、前記ビデオ速度測定結果はすべての、対向して設置されるセンシング装置のビデオ速度のベクトルの和の平均値である。
幾つかの実施例において、前記所定範囲内のターゲットは対向して設置されるセンシング装置が検出したものであり、また、前記所定範囲内のターゲットのうち、対向して設置されるセンシング装置が検出したターゲットの速度ベクトルの差は第五閾値未満である。
なお、以上、本発明に係る各部品又はモジュールのみについて説明したが、本発明はこれに限定されない。データ融合装置900はさらに他の部品又はモジュールを含んでも良い。これらの部品又はモジュールの具体的な内容については、関連技術を参照することができる。
本発明の実施例によれば、複数組のセンシング装置が設置される場合、各組のセンシング装置が道路上の異なる方向でターゲットを検出し、各組のセンシング装置が検出したターゲット及び収集したデータを融合し、電子マップを生成することで、道路上の各方向のターゲットをリアルタイムに表示することができる。
<実施例の第五側面>
本発明の実施例の第五側面ではデータ処理装置が提供され、該データ処理装置は例えばコンピュータ、サーバー、ワークステーション、デスクトップパソコン、スマートフォンなどであっても良いが、本発明の実施例はこれに限られない。
図11は本発明の実施例におけるデータ処理装置を示す図である。図11に示すように、データ処理装置1100は少なくとも1つのインターフェース(図示せず)、処理器(例えば、中央処理器(CPU))1101及び記憶器1102を含み、記憶器1102は処理器1101に接続される。そのうち、記憶器1102は各種のデータを記憶することができ、また、データ融合プログラム1103をさらに記憶することができ、且つ処理器1101の制御下で該プログラム1103を実行することができ、また、各種のデータ、例えば、所定の値及び所定の条件などを記憶することもできる。
1つの実施例において、実施例の第三側面に記載のデータ融合装置900の機能が処理器1101に統合されることで、実施例の第一側面に記載のデータ融合方法を実現しても良い。例えば、該処理器1101は以下のように構成されても良く、即ち、
カレントフレームのレーダー検出結果をビデオ座標系に投影し、カレントフレームのレーダー検出結果におけるすべてのレーダーターゲットのビデオ座標系での位置を取得し;
ビデオ座標系において、未マッチングの各レーダーターゲットについて、前記レーダーターゲットと関連付けられるビデオターゲットを確定し;
ビデオ座標系において、未マッチングの各ビデオターゲットについて、前記ビデオターゲットの類型、及び前記ビデオターゲットと関連付けられるレーダーターゲットに基づいて、前記ビデオターゲットとマッチするレーダーターゲットを確定し;
物体番号を用いて、カレントフレームのレーダー検出結果におけるすべてのレーダーターゲット及びカレントフレームのビデオ検出結果におけるすべてのビデオターゲットを標識し;及び
標識された各物体について、前記物体に対応するビデオ情報及び/又はレーダー情報に基づいて前記物体のワールド座標系における位置及び速度を確定する。
もう1つの実施方式において、実施例の第三側面に記載のデータ融合装置900が処理器1101と別々で配置されても良く、例えば、該データ融合装置900を、処理器1101に接続されるチップとして構成し、処理器1101の制御によりデータ融合装置900の機能を実現しても良い。
1つの実施例において、実施例の第四側面に記載のデータ融合装置1000の機能が処理器1101に集積されることで、実施例の第二側面に記載のデータ融合方法を実現しても良い。例えば、該処理器1101は以下のように構成されても良く、即ち、
各組のセンシング装置が検出した各ターゲットについて、前記ターゲットの所定範囲内で他の組のセンシング装置が検出したターゲットが存在する場合、前記所定範囲内のすべてのターゲットが同じ物体であると確定し;及び
前記所定範囲内のすべてのターゲットの位置及び速度に基づいて前記物体の位置及び速度を確定する。
もう1つの実施方式において、実施例の第四側面に記載のデータ融合装置1000が処理器1101と独立して配置されても良く、例えば、該データ融合装置1000を、処理器1101に接続されるチップとして構成し、処理器1101の制御によりデータ融合装置1000の機能を実現しても良い。
なお、データ処理装置1100はさらに表示器1105及びI/O装置1104を含んでも良く、又は、図11に示すすべての部品を含む必要なく、例えば、カメラヘッド及びレーダー(図示せず)を、入力画像フレームを得るためにさらに含んでも良い。また、該データ処理装置1100はさらに図11にない部品を含んでも良いが、これについては従来技術を参照することができる。
本発明の実施例では、処理器1101は制御器又は操作コントローラーと称される場合があり、マイクロプロセッサ又は他の処理器装置及び/又は論理装置を含んでも良く、該処理器1101は入力を受信し、また、データ処理装置1100の各部品の操作を制御することができる。
本発明の実施例では、記憶器1102は例えばバッファ、フレッシュメモリ、HDD、移動可能な媒体、揮発性記憶器、不揮発性記憶器又は他の適切な装置のうちの1つ又は複数であっても良い。それは、各種の情報を記憶することができ、また、情報処理用のプログラムをさらに記憶することができる。処理器1101は、該記憶器1102に記憶の該プログラムを実行することで、情報の記憶又は処理などを実現することもできる。なお、他の部品の機能が従来と類似しているため、ここではその詳しい説明を省略する。さらに、データ処理装置1100の各部品は専用ハードウェア、ファームウェア、ソフトウェア又はそれらの組み合わせにより実現されても良いが、そのすべては本発明の範囲に属する。
本発明の実施例のデータ処理装置は、データ融合の正確性を向上させることができる。
本発明の実施例はさらにコンピュータ可読プログラムを提供し、そのうち、データ処理装置の中で前記プログラムを実行するときに、前記プログラムは、前記データ処理装置に、実施例の第一側面又は第二側面に記載の方法を実行させる。
本発明の実施例はさらにコンピュータ可読プログラムを記憶した記憶媒体を提供し、そのうち、前記コンピュータ可読プログラムは、データ処理装置の中で実施例の第一側面又は第二側面に記載の方法を実行させる。
また、本発明の実施例による装置、方法などは、ソフトウェアにより実現されても良く、ハードェアにより実現されてもよく、ハードェア及びソフトウェアの組み合わせにより実現されても良い。本発明は、このようなコンピュータ可読プログラムにも関し、即ち、前記プログラムは、ロジック部品により実行されるときに、前記ロジック部品に、上述の装置又は構成要素を実現させることができ、又は、前記ロジック部品に、上述の方法又はそのステップを実現させることができる。さらに、本発明は、上述のプログラムを記憶した記憶媒体、例えば、ハードディスク、磁気ディスク、光ディスク、DVD、フレッシュメモリなどにも関する。
また、上述の実施例などに関し、さらに以下の付記を開示する。
(付記1)
1組のセンシング装置のためのデータ融合方法であって、
前記1組のセンシング装置は1つのレーダー及び1つのカメラヘッドを含み、
前記方法は、
カレントフレームのレーダー検出結果をビデオ座標系に投影し、カレントフレームのレーダー検出結果におけるすべてのレーダーターゲットのビデオ座標系での位置を取得し;
ビデオ座標系において、未マッチングの各レーダーターゲットについて、前記レーダーターゲットと関連付けられるビデオターゲットを確定し;
ビデオ座標系において、未マッチングの各ビデオターゲットについて、前記ビデオターゲットの類型及び前記ビデオターゲットと関連付けられるレーダーターゲットに基づいて、前記ビデオターゲットとマッチするレーダーターゲットを確定し;
物体番号を用いて、カレントフレームのレーダー検出結果におけるすべてのレーダーターゲット及びカレントフレームのビデオ検出結果におけるすべてのビデオターゲットを標識し;及び
標識された各物体について、前記物体に対応するビデオ情報及び/又はレーダー情報に基づいて前記物体のワールド座標系における位置及び速度を確定することを含む、方法。
(付記2)
付記1に記載の方法であって、
前記レーダーターゲットと関連付けられるビデオターゲットを確定することは、
前記レーダーターゲットと、カレントフレームのビデオ検出結果におけるすべての未マッチングのビデオターゲットとの間の距離を計算し;及び
距離が第一閾値よりも小さく且つ距離が最も小さいビデオターゲットを、前記レーダーターゲットと関連付けられるビデオターゲットとすることを含む、方法。
(付記3)
付記2に記載の方法であって、
前記レーダーターゲットと、カレントフレームのビデオ検出結果におけるすべての未マッチングのビデオターゲットとの間の距離を計算することは、
カレントフレームのビデオ検出結果におけるすべての未マッチングのビデオターゲットのうちの各ビデオターゲットについて、以下の公式により前記距離を計算し、
ij=uw*(ur−uv)+vw*(vr−vv
そのうち、(ur,vr)は前記レーダーターゲットビデオ座標系における座標であり、(uv,vv)は前記ビデオターゲットビデオ座標系における座標であり、uwは横方向ウェイト値であり、vwは縦方向ウェイト値であり、uw≧0、vw≧0、且つuw+vw=1である、方法。
(付記4)
付記3に記載の方法であって、
前記横方向ウェイト値と前記縦方向ウェイト値の比は、カレントフレームに対応するビデオ画像のアスペクト比、及び、前記ビデオ画像に対応する実際位置の距離比に基づいて設定される、方法。
(付記5)
付記1に記載の方法であって、
前記ビデオターゲットの類型に基づいて前記ビデオターゲットとマッチするレーダーターゲットを確定することは、
前記ビデオターゲットの類型が複数のレーダーターゲットとマッチし得る類型である場合、前記ビデオターゲットとマッチするレーダーターゲットがすべての、前記ビデオターゲットと関連付けられるレーダーターゲットであると確定し;及び
前記ビデオターゲットの類型が1つのみのレーダーターゲットとマッチし得る類型である場合、前記ビデオターゲットとマッチするレーダーターゲットがすべての、前記ビデオターゲットと関連付けられるレーダーターゲットのうちの、前記ビデオターゲットとの間の距離が最も小さいレーダーターゲットであると確定することを含む、方法。
(付記6)
付記1に記載の方法であって、
物体番号を用いて、カレントフレームのレーダー検出結果におけるすべてのレーダーターゲット及びカレントフレームのビデオ検出結果におけるすべてのビデオターゲットを標識することは、
各組のマッチしているレーダーターゲット及びビデオターゲットを1つの物体番号により標識し;
未マッチングの各レーダーターゲットを1つの物体番号により標識し;及び
未マッチングの各ビデオターゲットを1つの物体番号により標識することを含む、方法。
(付記7)
付記1に記載の方法であって、
レーダーターゲットと関連付けられるビデオターゲットを確定する前に、前記方法は、さらに、レーダー軌跡及びビデオ軌跡に基づいてレーダーターゲット及びビデオターゲットを標識することを含み、
前記のレーダー軌跡及びビデオ軌跡に基づいてレーダーターゲット及びビデオターゲットを標識することは、
少なくとも1つのレーダーターゲットが1つのレーダー軌跡に属し、少なくとも1つのビデオターゲットが1つのビデオ軌跡に属し、且つ前記レーダー軌跡及び前記ビデオ軌跡の中のターゲットが1つ前のフレームにおいて同じ物体番号により標識されている場合、1つ前のフレームの前記物体番号を用いて前記少なくとも1つのレーダーターゲット及び前記少なくとも1つのビデオターゲットを標識することを含む、方法。
(付記8)
付記1に記載の方法であって、
前記ビデオ情報は前記物体のビデオ検出結果のワールド座標系における位置及び速度を含み、前記ビデオ検出結果はカメラヘッドが検出したものであり、前記レーダー情報は前記物体のレーダー検出結果の世界座標系での位置及び速度を含み、前記レーダー検出結果はレーダーが検出したものである、方法。
(付記9)
付記8に記載の方法であって、
前記物体に対応するビデオ情報及び/又はレーダー情報に基づいて前記物体のワールド座標系における位置を確定することは、
前記物体が前記ビデオ情報のみを含む場合、前記物体のビデオ検出結果のワールド座標系における位置を前記物体のワールド座標系における位置とし;
前記物体が前記レーダー情報のみを含む場合、前記物体のレーダー検出結果の世界座標系での位置を前記物体のワールド座標系における位置とし;及び
前記物体が前記ビデオ情報及び前記レーダー情報を含む場合、ワールド座標系での前記物体と前記レーダーとの間の距離又はワールド座標系での前記物体と前記カメラヘッドとの間の距離に基づいて前記物体の世界座標系での位置を確定することを含む、方法。
(付記10)
付記9に記載の方法であって、
前記距離が第二閾値以下である場合、前記物体のビデオ検出結果のワールド座標系における位置を前記物体のワールド座標系における位置とし;
前記距離が第二閾値よりも大きい場合、前記物体のレーダー検出結果の世界座標系での位置を前記物体のワールド座標系における位置とする、方法。
(付記11)
付記10に記載の方法であって、
前記第二閾値はビデオ測距精度と関係がある、方法。
(付記12)
付記9に記載の方法であって、
ワールド座標系での前記物体と前記カメラヘッドとの間の距離は以下の公式により計算され、
Figure 2021140764
そのうち、(cox,coy)は前記カメラヘッドのワールド座標系における座標であり、(cx,cy)は前記カメラヘッドが検出した前記物体のワールド座標系における座標である、方法。
(付記13)
付記9に記載の方法であって、
ワールド座標系での前記物体と前記レーダーとの間の距離は以下の公式により計算され、
Figure 2021140764
そのうち、(rox,roy)は前記レーダーのワールド座標系における座標であり、(rx,ry)は前記レーダーが検出した前記物体のワールド座標系における座標である、方法。
(付記14)
付記8に記載の方法であって、
前記物体に対応するビデオ情報及び/又はレーダー情報に基づいて前記物体のワールド座標系における速度を確定することは、
前記物体が前記ビデオ情報のみを含む場合、前記物体のビデオ検出結果のワールド座標系における速度を前記物体のワールド座標系におけるビデオ速度とし;
前記物体が前記レーダー情報のみを含む場合、前記物体のレーダー検出結果の世界座標系での速度を前記物体のワールド座標系におけるレーダー速度とし;及び
前記物体が前記ビデオ情報及び前記レーダー情報を含む場合、前記物体のビデオ検出結果のワールド座標系における速度を前記物体のワールド座標系におけるビデオ速度とし、また、前記物体のレーダー検出結果の世界座標系での速度を前記物体のワールド座標系におけるレーダー速度とすることを含む、方法。
(付記15)
複数組のセンシング装置のためのデータ融合方法であって、
各組のセンシング装置は1つのレーダー及び1つのカメラヘッドを含み、
前記方法は、
各組のセンシング装置が検出した各ターゲットについて、前記ターゲットの所定範囲内で他の組のセンシング装置が検出したターゲットが存在する場合、前記所定範囲内のすべてのターゲットが同じ物体であると確定し;及び
前記所定範囲内のすべてのターゲットの位置及び速度に基づいて前記物体の位置及び速度を確定することを含む、方法。
(付記16)
付記15に記載の方法であって、
前記物体の位置の確定は、前記所定範囲内のすべてのターゲットの位置の平均値を前記物体の位置とすることを含む、方法。
(付記17)
付記15に記載の方法であって、
前記物体の速度の確定は、
対向して設置されるセンシング装置のレーダー速度に基づいて前記物体のレーダー速度測定結果を確定し;
対向して設置されるセンシング装置のビデオ速度に基づいて前記物体のビデオ速度測定結果を確定し;及び
前記レーダー速度測定結果及び前記ビデオ速度測定結果の平均値を前記物体の速度とすることを含む、方法。
(付記18)
付記17に記載の方法であって、
前記レーダー速度測定結果は、すべての、対向して設置されるセンシング装置のレーダー速度のベクトルの和の平均値であり、前記ビデオ速度測定結果は、すべての、対向して設置されるセンシング装置のビデオ速度のベクトルの和の平均値である、方法。
(付記19)
付記15に記載の方法であって、
前記所定範囲内のターゲットは対向して設置されるセンシング装置が検出したものであり、前記所定範囲内のターゲットのうち、対向して設置されるセンシング装置が検出したターゲットの速度ベクトルの差は第五閾値未満である、方法。
(付記20)
データ処理装置であって、
前記データ処理装置は処理器及び記憶器を含み、前記記憶器はコンピュータプログラムを記憶しており、前記処理器は、前記コンピュータプログラムを実行して以下のデータ融合方法を実現するように構成され、即ち、
カレントフレームのレーダー検出結果をビデオ座標系に投影し、カレントフレームのレーダー検出結果におけるすべてのレーダーターゲットのビデオ座標系での位置を取得し;
ビデオ座標系において、未マッチングの各レーダーターゲットについて、前記レーダーターゲットと関連付けられるビデオターゲットを確定し;
ビデオ座標系において、未マッチングの各ビデオターゲットについて、前記ビデオターゲットの類型に基づいて前記ビデオターゲットとマッチするレーダーターゲットを確定し;
物体番号を用いて、カレントフレームのレーダー検出結果におけるすべてのレーダーターゲット及びカレントフレームのビデオ検出結果におけるすべてのビデオターゲットを標識し;及び
標識された各物体について、前記物体に対応するビデオ情報及び/又はレーダー情報に基づいて前記物体のワールド座標系における位置及び速度を確定する、装置。
(付記21)
データ処理装置であって、
前記データ処理装置は処理器及び記憶器を含み、前記記憶器はコンピュータプログラムを記憶しており、前記処理器は前記コンピュータプログラムを実行して以下のデータ融合方法を実現するように構成され、即ち、
各組のセンシング装置が検出した各ターゲットについて、前記ターゲットの所定範囲内で他の組のセンシング装置が検出したターゲットが存在する場合、前記所定範囲内のすべてのターゲットが同じ物体であると確定し;及び
前記所定範囲内のすべてのターゲットの位置及び速度に基づいて前記物体の位置及び速度を確定する、装置。
以上、本発明の好ましい実施形態を説明したが、本発明はこの実施形態に限定されず、本発明の趣旨を離脱しない限り、本発明に対するあらゆる変更は本発明の技術的範囲に属する。

Claims (10)

  1. 1組のセンシング装置のためのデータ融合装置であって、
    前記1組のセンシング装置は1つのレーダー及び1つのカメラヘッドを含み、
    前記データ融合装置は、
    カレントフレームのレーダー検出結果をビデオ座標系に投影し、カレントフレームのレーダー検出結果におけるすべてのレーダーターゲットのビデオ座標系での位置を取得する投影ユニット;
    ビデオ座標系において、未マッチングの各レーダーターゲットについて、前記レーダーターゲットと関連付けられるビデオターゲットを確定する第一確定ユニット;
    ビデオ座標系において、未マッチングの各ビデオターゲットについて、前記ビデオターゲットの類型、及び前記ビデオターゲットと関連付けられるレーダーターゲットに基づいて、前記ビデオターゲットとマッチするレーダーターゲットを確定する第二確定ユニット;
    物体番号を用いて、カレントフレームのレーダー検出結果におけるすべてのレーダーターゲット及びカレントフレームのビデオ検出結果におけるすべてのビデオターゲットを標識する第一標識ユニット;及び
    標識された各物体について、前記物体に対応するビデオ情報及び/又はレーダー情報に基づいて前記物体のワールド座標系における位置及び速度を確定する第三確定ユニットを含む、データ融合装置。
  2. 請求項1に記載のデータ融合装置であって、
    前記第一確定ユニットが前記レーダーターゲットと関連付けられるビデオターゲットを確定することは、
    前記レーダーターゲットと、カレントフレームのビデオ検出結果におけるすべての未マッチングのビデオターゲットとの間の距離を計算し;及び
    距離が第一閾値よりも小さく且つ距離が最も小さいビデオターゲットを、前記レーダーターゲットと関連付けられるビデオターゲットとすることを含む、データ融合装置。
  3. 請求項2に記載のデータ融合装置であって、
    前記第一確定ユニットが前記レーダーターゲットと、カレントフレームのビデオ検出結果におけるすべての未マッチングのビデオターゲットとの間の距離を計算することは、
    カレントフレームのビデオ検出結果におけるすべての未マッチングのビデオターゲットのうちの各ビデオターゲットについて、
    ij=uw*(ur−uv)+vw*(vr−vv
    により前記距離を計算し、
    (ur,vr)は前記レーダーターゲットビデオ座標系における座標であり、(uv,vv)は前記ビデオターゲットビデオ座標系における座標であり、uwは横方向ウェイト値であり、vwは縦方向ウェイト値であり、uw≧0、vw≧0、且つuw+vw=1である、データ融合装置。
  4. 請求項1に記載のデータ融合装置であって、
    前記第一標識ユニットが物体番号を用いて、カレントフレームのレーダー検出結果におけるすべてのレーダーターゲット及びカレントフレームのビデオ検出結果におけるすべてのビデオターゲットを標識することは、
    各組のマッチしたレーダーターゲット及びビデオターゲットを1つの物体番号により標識し;
    未マッチングの各レーダーターゲットを1つの物体番号により標識し;及び
    未マッチングの各ビデオターゲットを1つの物体番号により標識することを含む、データ融合装置。
  5. 請求項1に記載のデータ融合装置であって、
    第二標識ユニットをさらに含み、
    前記第二標識ユニットは、前記第一確定ユニットがレーダーターゲットと関連付けられるビデオターゲットを確定する前に、レーダー軌跡及びビデオ軌跡に基づいてレーダーターゲット及びビデオターゲットを標識し、
    前記のレーダー軌跡及びビデオ軌跡に基づいてレーダーターゲット及びビデオターゲットを標識することは、
    少なくとも1つのレーダーターゲットが1つのレーダー軌跡に属し、少なくとも1つのビデオターゲットが1つのビデオ軌跡に属し、且つ前記レーダー軌跡及び前記ビデオ軌跡の中のターゲットが1つ前のフレームにおいて同じ物体番号により標識されている場合、1つ前のフレームの前記物体番号を用いて前記少なくとも1つのレーダーターゲット及び前記少なくとも1つのビデオターゲットを標識することを含む、データ融合装置。
  6. 請求項1に記載のデータ融合装置であって、
    前記ビデオ情報は前記物体のビデオ検出結果のワールド座標系における位置及び速度を含み、前記ビデオ検出結果はカメラヘッドが検出したものであり、
    前記レーダー情報は前記物体のレーダー検出結果のワールド座標系における位置及び速度を含み、前記レーダー検出結果はレーダーが検出したものである、データ融合装置。
  7. 請求項6に記載のデータ融合装置であって、
    第三確定ユニットが前記物体に対応するビデオ情報及び/又はレーダー情報に基づいて前記物体のワールド座標系における位置を確定することは、
    前記物体が前記ビデオ情報のみを含む場合、前記第三確定ユニットが、前記物体のビデオ検出結果のワールド座標系における位置を前記物体のワールド座標系における位置とし;
    前記物体が前記レーダー情報のみを含む場合、前記第三確定ユニットが、前記物体のレーダー検出結果のワールド座標系での位置を前記物体のワールド座標系における位置とし;及び
    前記物体が前記ビデオ情報及び前記レーダー情報を含む場合、前記第三確定ユニットが、ワールド座標系下での前記物体と前記レーダーとの間の距離、又は、ワールド座標系での前記物体と前記カメラヘッドとの間の距離に基づいて、前記物体の世界座標系での位置を確定することを含む、データ融合装置。
  8. 請求項7に記載のデータ融合装置であって、
    前記距離が第二閾値以下である場合、前記第三確定ユニットは、前記物体のビデオ検出結果のワールド座標系における位置を前記物体のワールド座標系における位置とし、
    前記距離が第二閾値よりも大きい場合、前記第三確定ユニットは、前記物体のレーダー検出結果の世界座標系での位置を前記物体のワールド座標系における位置とする、データ融合装置。
  9. 請求項6に記載のデータ融合装置であって、
    前記第三確定ユニットが前記物体に対応するビデオ情報及び/又はレーダー情報に基づいて前記物体のワールド座標系における速度を確定することは、
    前記物体が前記ビデオ情報のみを含む場合、前記第三確定ユニットが、前記物体のビデオ検出結果のワールド座標系における速度を前記物体のワールド座標系におけるビデオ速度とし;
    前記物体が前記レーダー情報のみを含む場合、前記第三確定ユニットが、前記物体のレーダー検出結果の世界座標系での速度を前記物体のワールド座標系におけるレーダー速度とし;及び
    前記物体が前記ビデオ情報及び前記レーダー情報を含む場合、前記第三確定ユニットが、前記物体のビデオ検出結果のワールド座標系における速度を前記物体のワールド座標系におけるビデオ速度とし、また、前記物体のレーダー検出結果の世界座標系での速度を前記物体のワールド座標系におけるレーダー速度とすることを含む、データ融合装置。
  10. 複数組のセンシング装置のためのデータ融合装置であって、
    各組のセンシング装置は1つのレーダー及び1つのカメラヘッドを含み、
    前記データ融合装置は、
    各組のセンシング装置が検出した各ターゲットについて、前記ターゲットの所定範囲内に他の組のセンシング装置が検出したターゲットが存在する場合、前記所定範囲内のすべてのターゲットが同じ物体であると確定する第一確定ユニット;及び
    前記所定範囲内のすべてのターゲットの位置及び速度に基づいて前記物体の位置及び速度を確定する第二確定ユニットを含む、データ融合装置。
JP2021016092A 2020-03-05 2021-02-03 データ融合方法、装置及びデータ処理装置 Pending JP2021140764A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010147030.0A CN113359125A (zh) 2020-03-05 2020-03-05 数据融合方法、装置和数据处理设备
CN202010147030.0 2020-03-05

Publications (1)

Publication Number Publication Date
JP2021140764A true JP2021140764A (ja) 2021-09-16

Family

ID=77523901

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021016092A Pending JP2021140764A (ja) 2020-03-05 2021-02-03 データ融合方法、装置及びデータ処理装置

Country Status (2)

Country Link
JP (1) JP2021140764A (ja)
CN (1) CN113359125A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112924960A (zh) * 2021-01-29 2021-06-08 重庆长安汽车股份有限公司 目标尺寸实时检测方法、系统、车辆及存储介质
CN115019512A (zh) * 2022-07-05 2022-09-06 北京动视元科技有限公司 一种基于雷达视频融合的道路事件检测系统
WO2023189076A1 (ja) * 2022-03-28 2023-10-05 i-PRO株式会社 監視システム及び監視方法
CN117214966A (zh) * 2023-08-01 2023-12-12 珠海微度芯创科技有限责任公司 毫米波安检成像设备的图像映射方法、装置、设备、介质

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115098731B (zh) * 2022-07-14 2022-11-22 浙江大华技术股份有限公司 目标关联方法、设备及存储介质

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10545232B2 (en) * 2016-08-24 2020-01-28 Mitsubishi Electric Research Laboratories, Inc. System and method for radar imaging using distributed moving platforms under unknown position perturbations
CN109615870A (zh) * 2018-12-29 2019-04-12 南京慧尔视智能科技有限公司 一种基于毫米波雷达和视频的交通检测系统
CN109839634A (zh) * 2019-01-25 2019-06-04 中国汽车技术研究中心有限公司 一种车载摄像头与雷达的目标融合方法
CN110187334B (zh) * 2019-05-28 2021-06-08 深圳大学 一种目标监控方法、装置及计算机可读存储介质
CN110794405B (zh) * 2019-10-18 2022-06-10 北京全路通信信号研究设计院集团有限公司 一种基于相机和雷达融合的目标检测方法及系统

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112924960A (zh) * 2021-01-29 2021-06-08 重庆长安汽车股份有限公司 目标尺寸实时检测方法、系统、车辆及存储介质
WO2023189076A1 (ja) * 2022-03-28 2023-10-05 i-PRO株式会社 監視システム及び監視方法
CN115019512A (zh) * 2022-07-05 2022-09-06 北京动视元科技有限公司 一种基于雷达视频融合的道路事件检测系统
CN117214966A (zh) * 2023-08-01 2023-12-12 珠海微度芯创科技有限责任公司 毫米波安检成像设备的图像映射方法、装置、设备、介质
CN117214966B (zh) * 2023-08-01 2024-04-05 珠海微度芯创科技有限责任公司 毫米波安检成像设备的图像映射方法、装置、设备、介质

Also Published As

Publication number Publication date
CN113359125A (zh) 2021-09-07

Similar Documents

Publication Publication Date Title
JP2021140764A (ja) データ融合方法、装置及びデータ処理装置
Lee et al. 3D tracking of multiple onsite workers based on stereo vision
Sochor et al. Traffic surveillance camera calibration by 3d model bounding box alignment for accurate vehicle speed measurement
US11830216B2 (en) Information processing apparatus, information processing method, and storage medium
EP3001384B1 (en) Three-dimensional coordinate computing apparatus, three-dimensional coordinate computing method, and program for three-dimensional coordinate computing
JP6525453B2 (ja) オブジェクト位置推定システム、及びそのプログラム
US8599252B2 (en) Moving object detection apparatus and moving object detection method
US20110142283A1 (en) Apparatus and method for moving object detection
US20100277572A1 (en) Information processing apparatus and control method thereof
Kumar et al. A semi-automatic 2D solution for vehicle speed estimation from monocular videos
JP5956248B2 (ja) 画像監視装置
CN105453546A (zh) 图像处理装置、图像处理系统、图像处理方法和计算机程序
JP2018147095A (ja) カメラ位置姿勢推定装置、方法およびプログラム
CN108764338B (zh) 一种应用于视频分析的行人跟踪方法
JP2017036970A (ja) 情報処理装置、情報処理方法、プログラム
JP2018036226A (ja) 画像処理プログラム、画像処理方法および画像処理装置
WO2023083256A1 (zh) 位姿显示方法、装置及系统、服务器以及存储介质
JP6738293B2 (ja) カメラキャリブレーション方法、プログラムおよび装置
CN116824457A (zh) 基于全景视频中移动目标自动挂牌方法及相关装置
Shao A Monocular SLAM System Based on the ORB Features
JP5983033B2 (ja) 位置関係判定プログラム、位置関係判定方法および位置関係判定装置
CN116259001A (zh) 一种多视角融合的三维行人姿态估计与追踪方法
JP4573590B2 (ja) 画像処理による移動物体計測方法及び装置
Horn et al. Extrinsic Infrastructure Calibration Using the Hand-Eye Robot-World Formulation
EP4292777A1 (en) Assistance system, image processing device, assistance method and program