JP2007218738A - 校正装置、物標検知装置および校正方法 - Google Patents

校正装置、物標検知装置および校正方法 Download PDF

Info

Publication number
JP2007218738A
JP2007218738A JP2006039563A JP2006039563A JP2007218738A JP 2007218738 A JP2007218738 A JP 2007218738A JP 2006039563 A JP2006039563 A JP 2006039563A JP 2006039563 A JP2006039563 A JP 2006039563A JP 2007218738 A JP2007218738 A JP 2007218738A
Authority
JP
Japan
Prior art keywords
coordinate system
radar
target
dimensional coordinates
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006039563A
Other languages
English (en)
Other versions
JP4918676B2 (ja
Inventor
Zhencheng Hu
振程 胡
Keiichi Uchimura
圭一 内村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kumamoto University NUC
Original Assignee
Kumamoto University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kumamoto University NUC filed Critical Kumamoto University NUC
Priority to JP2006039563A priority Critical patent/JP4918676B2/ja
Publication of JP2007218738A publication Critical patent/JP2007218738A/ja
Application granted granted Critical
Publication of JP4918676B2 publication Critical patent/JP4918676B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Radar Systems Or Details Thereof (AREA)

Abstract

【課題】レーダから得られた物標の座標と、カメラから得られた物標の座標とを用いて、物標同士を容易にマッチングさせることの可能な校正装置を提供する。
【解決手段】制御部は、レーダ情報から各物標のレーダ座標系の3次元座標を取得する。制御部は、右カメラの2次元画像から各物標の2次元座標を、左カメラの2次元画像から各物標の2次元座標を抽出し、各物標の右カメラ座標系および左カメラ座標系の2次元座標から視差情報を取得し、視差情報を用いて各物標の右カメラ座標系および左カメラ座標系の2次元座標を、右カメラ座標系および左カメラ座標系の3次元座標に変換する。制御部は、レーダ情報から得られた各物標のレーダ座標系の3次元座標と、ステレオ画像から得られた各物標の右カメラ座標系および左カメラ座標系の3次元座標とを用いて、レーダ座標系の3次元座標を右カメラ座標系および左カメラ座標系の3次元座標に変換する。
【選択図】図1

Description

本発明は、レーダによって検知された座標と、ステレオカメラによって検知された座標とを利用して物標を検知する物標検知装置、この物標検知装置を校正するための校正装置およびその校正方法に関する。
近年、自動車やバイクなどの前方走行車や、歩行者、障害物などの物標との衝突を防止する衝突防止装置や、物標との車間距離を一定の範囲内に保つための車間距離制御装置など、自動車やバイクなどの運転の安全性や快適性を高めるための様々な運転支援装置が開発されている。これら運転支援装置では、物標を検知することが極めて重要であり、運転支援装置にはそのような物標を検知するための物標検知装置が搭載されている。物標検知装置は、例えば、レーザ光またはミリ波電磁波などで物標を検知するレーダや、撮影した画像の解析から物標を検知するカメラ、レーダおよびカメラを含んで構成されたセンサフュージョンなどにより構成されている。
ここで、レーダは、一般に、物標との距離や、相対速度を高精度に測定することができるだけでなく、濃霧などの悪天候によって前方の視界が悪い状況であっても、物標の検知が可能であるという利点を有するが、横方向の分解能が低いので物標の境界の検知が容易でなく、また、検知範囲の上下方向の角度が小さいので視野が狭いなどの欠点を有する。カメラは、一般に、平面分解能が高いので物標の境界の検知が容易であり、視野角も広いという利点を有するが、物標との距離や、相対速度の精度があまり高くなく、天候や照明条件の影響を受けやすいので悪天候や、夜間の場合に物標の検知能力が低下しやすいという欠点を有する。他方、センサフュージョンは、レーダおよびカメラの双方の欠点を双方の利点で補うことが可能であり、最近の開発の主流となっている。例えば、特許文献1,2記載の物標検知装置は、1台のレーダと、1台のカメラとを含んで構成されたセンサフュージョンを備えており、レーダによって検知された物標の座標と、カメラによって検知された物標の座標とを利用して物標を検知するようになっている。
特開2003−315441号公報 特開2003−315442号公報
しかし、このような装置では、カメラから得られた座標には、物標との距離についての正確な情報が含まれていないので、レーダから得られた座標と、カメラから得られた座標とを用いて、物標同士を整合(マッチング)させることが容易ではないという問題がある。
本発明はかかる問題点に鑑みてなされたものであり、その目的は、レーダから得られた物標の座標と、カメラから得られた物標の座標とを用いて、物標同士を容易に整合(マッチング)させることの可能な物標検知装置、この物標検知装置を校正するための校正装置およびその校正方法を提供することにある。
本発明の校正装置は、車両前方のレーダ情報を取得するためのレーダと、車両前方のステレオ画像を取得するための右カメラおよび左カメラを有するステレオカメラと、レーダで取得したレーダ情報、ならびに右カメラで取得した2次元画像および左カメラで取得した2次元画像からなるステレオ画像を処理するための制御部とを備えたものである。 ここで、制御部は、以下の(A)〜(E)の各手段を有している。
(A)レーダによって得られたレーダ情報から各物標のレーダ座標系の3次元座標を取得するレーダ側3次元座標取得手段
(B)右カメラによって得られた2次元画像の中から各物標の右カメラ座標系の2次元座標を、左カメラによって得られた2次元画像の中から各物標の左カメラ座標系の2次元座標をそれぞれ抽出するカメラ側2次元座標取得手段
(C)各物標の右カメラ座標系の2次元座標および各物標の左カメラ座標系の2次元座標から視差情報を取得する視差情報取得手段
(D)視差情報を用いて、各物標の右カメラ座標系の2次元座標および左カメラ座標系の2次元座標を、右カメラ座標系の3次元座標および左カメラ座標系の3次元座標に変換するカメラ側3次元座標取得手段
(E)レーダ情報に基づいて得られた各物標のレーダ座標系の3次元座標と、ステレオ画像に基づいて得られた各物標の右カメラ座標系の3次元座標および左カメラ座標系の3次元座標とを用いて、レーダ座標系の3次元座標を右カメラ座標系の3次元座標および左カメラ座標系の3次元座標に変換するための変換係数を求める変換係数取得手段
本発明の校正方法は、以下の(A)〜(F)の各工程を含んでいる。
(A)車両前方のレーダ情報を取得するためのレーダと、車両前方のステレオ画像を取得するための右カメラおよび左カメラを有するステレオカメラと、レーダで取得したレーダ情報、ならびに右カメラで取得した2次元画像および左カメラで取得した2次元画像からなるステレオ画像を処理するための制御部とを用意する工程
(B)レーダによって得られたレーダ情報から各物標のレーダ座標系の3次元座標を取得する工程
(C)右カメラによって得られた2次元画像の中から各物標の右カメラ座標系の2次元座標を、左カメラによって得られた2次元画像の中から各物標の左カメラ座標系の2次元座標をそれぞれ抽出する工程
(D)各物標の右カメラ座標系の2次元座標および各物標の左カメラ座標系の2次元座標から視差情報を取得する工程
(E)視差情報を用いて、各物標の右カメラ座標系の2次元座標および左カメラ座標系の2次元座標を、右カメラ座標系の3次元座標および左カメラ座標系の3次元座標に変換する工程
(F)レーダ情報に基づいて得られた各物標のレーダ座標系の3次元座標と、ステレオ画像に基づいて得られた各物標の右カメラ座標系の3次元座標および左カメラ座標系の3次元座標とを用いて、レーダ座標系の3次元座標を右カメラ座標系の3次元座標および左カメラ座標系の3次元座標に変換するための変換係数を求める工程
本願発明の校正装置および校正方法では、ステレオカメラから得られるステレオ画像から物標との距離に関係する視差情報を得るようにしたので、ステレオカメラから得られた右カメラ座標系の2次元座標および左カメラ座標系の2次元座標を、右カメラ座標系の3次元座標および左カメラ座標系の3次元座標に変換することができる。これにより、レーダから得られた各物標の座標と、視差情報に基づいて変換された右カメラ座標系の3次元座標および左カメラ座標系の3次元座標とを用いて、レーダ座標系の3次元座標を、右カメラ座標系の3次元座標および左カメラ座標系の3次元座標に変換するための変換係数を求めることができる。
本発明の物標検知装置は、上記の校正装置と同様、レーダ、ステレオカメラおよび制御部とを備え、さらに、レーダ座標系の3次元座標を右カメラ座標系の3次元座標および左カメラ座標系の3次元座標に変換するための変換係数が格納されている記憶部を備えたものである。ここで、制御部は、以下の(A)〜(D)の各手段を有している。
(A)レーダによって得られたレーダ情報から各物標のレーダ座標系の3次元座標を取得するレーダ側3次元座標取得手段
(B)変換係数を用いて、各物標のレーダ座標系の3次元座標を、右カメラ座標系の3次元座標および左カメラ座標系の3次元座標に変換すると共に、その変換された各物標の右カメラ座標系の3次元座標および左カメラ座標系の3次元座標を、右カメラ座標系の2次元座標および左カメラ座標系の2次元座標に変換するレーダ側2次元座標取得手段
(C)右カメラによって得られた2次元画像の中から各物標の右カメラ座標系の2次元座標を、左カメラによって得られた2次元画像の中から各物標の左カメラ座標系の2次元座標をそれぞれ抽出するカメラ側2次元座標取得手段
(D)レーダ情報に基づいて得られた各物標の右カメラ座標系の2次元座標および左カメラ座標系の2次元座標と、ステレオ画像に基づいて得られた各物標の右カメラ座標系の2次元座標および左カメラ座標系の2次元座標とを対比して、車両前方の物標を特定する物標特定手段
本願発明の物標検知装置では、変換係数を用いるようにしたので、レーダによって得られたレーダ情報から、奥行き情報を実質的に含んた各物標の右カメラ座標系の2次元座標および左カメラ座標系の2次元座標を求めることができる。
本発明の校正装置および校正方法によれば、ステレオカメラから得られるステレオ画像から物標との距離に関係する視差情報を得るようにしたので、レーダ座標系の3次元座標を、右カメラ座標系の3次元座標および左カメラ座標系の3次元座標に変換するための変換係数を求めることができる。これにより、走行中に障害物の位置を特定する際に、上記のようにして求められた変換係数を用いて、レーダから得られた物標の座標と、ステレオカメラから得られた物標の座標とを対比することができるので、存在可能性の高い物標を特定することができる。従って、レーダから得られた物標の座標と、ステレオカメラから得られた物標の座標とを用いて、物標同士を容易にマッチングさせることができる。
本発明の物標検知装置によれば、変換係数を用いるようにしたので、レーダによって得られたレーダ情報から、奥行き情報を実質的に含んた各物標の右カメラ座標系の2次元座標および左カメラ座標系の2次元座標を求めることができる。これにより、レーダ情報に基づいて得られた、奥行き情報を実質的に含んた各物標の右カメラ座標系の2次元座標および左カメラ座標系の2次元座標と、ステレオ画像に基づいて得られた各物標の右カメラ座標系の2次元座標および左カメラ座標系の2次元座標とを対比することができるので、。存在可能性の高い物標を特定することができる。従って、レーダから得られた物標の座標と、ステレオカメラから得られた物標の座標とを用いて、物標同士を容易にマッチングさせることができる。
以下、本発明の実施の形態について、図面を参照して詳細に説明する。
図1は、本発明の一実施の形態に係るセンサフュージョン(物標検知装置)の概略構成を表したものである。このセンサフュージョンは、自動車やバイクなどの前方走行車や、歩行者、障害物などの物標を検知するシステムであり、例えば、自動車Cに搭載されるものである。
このセンサフュージョンは、レーダ1、ステレオカメラ2、制御部3、記憶部4、表示部5を含んで構成されたものである。レーダ1は、例えば、レーザ光を放射するレーザレーダ、またはミリ波電磁波を放射するミリ波レーダからなり、自動車Cのバンパの中央部分などに取り付けられている。このレーダ1は、自動車Cの前方にレーザ光やミリ波電磁波を放射すると共に、自動車Cの前方に放射したレーザ光の反射光やミリ波電磁波の反射波を検知し、さらに、検知した反射光や反射波から自動車Cの前方に存在する物標の方位θ、距離dおよび相対速度vなどを計測するようになっている。ステレオカメラ2は、右カメラ21および左カメラ22を備えている。右カメラ21および左カメラ22は、例えば、電荷結合素子(CCD)からなり、自動車Cのフロントガラスの内壁であって、互いに所定の間隔を隔てると共に、路面から同じ高さのところに取り付けられている。このステレオカメラ2は、自動車Cの前方を互いに異なる視点から撮影して、右カメラ21で撮影された2次元画像と左カメラ22で撮影された2次元画像とからなるステレオ画像を取得するようになっている。
制御部3は、例えば、DSP(Digital Signal Processor)などにより構成され、レーダ1およびステレオカメラ2によって得られた情報を処理して自動車Cの前方の障害物の位置や種類などを所定の演算により特定するようになっている。記憶部4は、例えば、RAM(Random Access Memory)およびHD(hard disk)からなり、記憶部4には、センサフュージョンを校正するためのプログラムや、障害物を検知するためのプログラム、制御部3で得られた演算結果などが格納されている。表示部5は、例えば、液晶表示装置であり、制御部3で得られた演算結果に基づく情報を表示するようになっている。
次に、センサフュージョンをキャリブレーションする手順について説明する。ただし、これに先立って、このキャリブレーションに用いる反射板6について説明する。
(反射板6)
図2および図3は反射板6の一例を示したものであり、図2はレーダ1がレーザレーダのときの反射板を、図3はレーダ1がミリ波レーダのときの反射板をそれぞれ例示したものである。図4は、センサフュージョンをキャリブレーションする際の、反射板6の配置例を表すものである。
図2の反射板6は、反射ブロック6Aと、吸収ブロック6Bとを交互に配置してなる格子状のパターンを有している。反射ブロック6Aはレーザ光を強く反射する材質により構成されており、吸収ブロック6Bはレーザ光を強く吸収する材質により構成されている。他方、図3の反射板6は、平板6Cと、リフレクタ6Dとを有している。平板6Cは、ミリ波電磁波を透過する材料(布や発砲スチロールなど)からなり、リフレクタ6Dを裏面で固定するようになっている。リフレクタ6Dは、例えば、三角錐形状の金属板からなり、リフレクタ6Dの裏面に格子状に配列されている。このリフレクタ6Dは、開口部側から入射したミリ波電磁波を反射するようになっている。
ここで、反射ブロック6Aや平板6Cのうちリフレクタ6Dの配置されている部分は、レーザ光またはミリ波電磁波を強く反射するので、反射ブロック6A等の横幅D1と同じサイズの横幅を有する物標がそこに存在する、とレーダ1に認識され得るものである。他方、吸収ブロック6Bや平板6Cのうちリフレクタ6Dの配置されていない部分は、レーザ光やミリ波電磁波をほとんど反射しないので、吸収ブロック6B等の横幅D2と同じサイズの横幅の空間がそこに存在する、とレーダ1に認識され得るものである。
各反射ブロック6Aおよび各吸収ブロック6Bのサイズは、レーダ1の分解能や、レーダ1と反射板6との距離に応じて設定される。反射ブロック6A等の横幅D1は、レーダ1が分解能と同程度の大きさの物標を認識することは困難であることから、少なくともレーダ1の分解能の2倍程度であることが必要である。吸収ブロック6B等の横幅D2は、レーダ1は複数の物標が互いに近接配置されるとこれらを別個の物標として明確に区別することが困難となることから、少なくともレーダ1の分解能の3倍程度であることが必要である。反射ブロック6A等および吸収ブロック6B等の縦方向のサイズHは、レーダ1のスキャン平面に垂直な方向の誤差の範囲内に複数の物標が存在するとこれらを別個の物標として明確に区別することが困難となることから、少なくともレーダ1のスキャン平面に垂直な方向の誤差程度であることが必要である。
なお、反射板6の横方向のサイズは、レーダ1によってスキャンされる範囲と同程度の大きさとなっており、反射板6の縦方向のサイズは、反射ブロック6Aを縦方向に複数配置できる大きさ以上の大きさとなっていれば特に制限されるものではない。また、キャリブレーションの便宜上、最下行の反射ブロック6A等は、自動車Cに搭載されたレーダ1と同じ高さのところに配置されているものとする。
(レーダ1自身のキャリブレーション、図4〜図8)
まず、作業者Pは反射板6を設置する(ステップS1)。具体的には、図4に示したように、反射板6を自動車Cの車軸X1と垂直に交わるようにして、自動車Cの前方(自動車Cに設置されたレーダ1およびステレオカメラ2の前方)の所定の距離に配置する。続いて、レーダ1がレーザレーダの場合には、反射板6の格子状のパターンのうち地面に最も近い最下行のパターンだけを残して、その他の部分を、レーザ光を強く吸収するカバー(図示せず)で覆い、レーダ1がミリ波レーダの場合には、平板6Cに取り付けられたリフレクタ6Dのうち地面に最も近い最下行のリフレクタ6Dだけを残して、その他のリフレクタ6Dを平板6Cから取り外す。
次に、作業者Pは、制御部3にレーダ1自身のキャリブレーションの実行を要求する(ステップS2)。すると、制御部3は、最下行のパターンに含まれる各物標(反射ブロック6A等)の3次元座標と、レーダ1の3次元座標、俯角ξおよびずれ角φとを計測する。
ここで、俯角ξとは、図5(図1の側面図)に示したように、レーダ座標系(Xm,Ym,Zm)において、レーダ1のスキャン平面Aと、(Xm,Zm)平面B(一般には路面と平行な平面)とが交わる角度(微小偏移角)のことである。なお、レーダ1がレーザレーダの場合には、レーザ光がある程度の広がり角を有しているので、その広がり角を二等分する面をスキャン平面Aとする。ずれ角φとは、図6(図1の上面図)に示したように、レーダ座標系(Xm,Ym,Zm)の(Xm,Zm)平面と平行な平面において直線X2(後述)と垂直に交わる直線X3と、自動車Cの車軸X1とが交わる角度のことである。
具体的には、まず、制御部3は、レーダ1に対してスキャンを要求する(ステップS3)。レーダ1はスキャンの要求を受信する(ステップS4)と、最下行のパターンをスキャンして、スキャン平面内に存在する物標(反射ブロック6A等)の方位θiを検知すると共に、検知した最下行の物標ごとに、距離diおよび相対速度viを計算したのち(ステップS5)、最下行の各物標のレーダ情報(θi,di,vi)を制御部3に送信する(ステップS6)。なお、θや、d、vのサフィックスiは1以上、最下行のパターンに含まれる反射ブロック6Aの数n以下の整数である。
制御部3はレーダ1から最下行の各物標のレーダ情報(θi,di,vi)を受信したのち(ステップS7)、レーダ1によって検知されるはずの物標が全て検知されているか否かを判定する(ステップS8)。レーダ1によって検知されるはずの物標が全て検知されている場合には、制御部3は、以下の式(1)を用いて、検知された最下行の各物標のレーダ情報(θi,di,vi)をレーダ座標系(Xm,Ym,Zm)の3次元座標(Xmi,Ymi,Zmi)へ変換したのち(ステップS9)、最下行の各物標のレーダ情報(θi,di,vi)と、最下行の各物標の3次元座標(Xmi,Ymi,Zmi)とを記憶部4に格納する(ステップS10)。
Figure 2007218738
なお、式(1)はレーダによる計測データをレーダ座標系の3次元座標へ変換する式である。
一方、レーダ1によって検知されるはずの全ての物標が検知されていない場合には、制御部3はその旨の表示を表示部5に要求する(ステップS11)。表示部5は、その要求を受信すると、全ての物標が検知されていない旨を表示する(ステップS12)。作業者Pは、その表示を確認し、最下行の全ての物標が検知されるようにレーダ1の向き(俯角ξ、ずれ角φ)を調整し直したのち(ステップS13)、再度、ステップS1〜S8を実行する。すなわち、エイミングを実行する。このとき、最下行の全ての物標が検知されるようにするためには、例えば、最下行の各物標のうち中央に配置された物標に対応する反射光または反射波の強度が最も大きくなるように俯角ξおよびずれ角φを調整する。
その結果、レーダ1によって最下行の全ての物標が検知された場合には制御部3は上記のステップS9,S10を順次実行し、検知されていなかった場合には、制御部3は再度、ステップS11を実行し、最終的にはステップ10まで実行する。
次に、制御部3は、レーダ座標系へ変換された各物標の3次元座標(Xmi,Ymi,Zmi)が、レーダ座標系(Xm,Ym,Zm)の(Xm,Ym)平面上に分布しているか否かを判定する(ステップS14)。各物標の3次元座標(Xmi,Ymi,Zmi)が(Xm,Ym)平面上に分布していない場合には、各物標の3次元座標(Xmi,Ymi,Zmi)が反射板6上に分布していない、つまり、レーダ1が反射板6に対して正体していないということになるので、レーダ1の傾き具合を正確に求めておくことにより、レーダ1が反射板6に対して正体しているときの、各物標のレーダ座標系(Xm,Ym,Zm)の3次元座標(Xmi′′,Ymi′′,Zmi′′)(後述)を求めることが可能となる。
判定の結果、(Xm,Ym)平面上に分布していない場合には、制御部3は、例えば、各物標の3次元座標(Xmi,Ymi,Zmi)(図6の黒丸)を最小二乗法を用いて直線近似を行い、最小二乗法により得られた各物標の3次元座標(Xmi′,Ymi′,Zmi′)(図6の白丸)と、それら3次元座標(Xmi′,Ymi′,Zmi′)を含む直線X2と、レーダ座標系(Xm,Ym,Zm)の(Xm,Zm)平面において直線X2と垂直に交わる直線X3とを求める。続いて、三角測量法を用いて、レーダ1の座標、俯角ξおよびずれ角φを計算する(ステップS15)。
ここで、レーダ1の座標は、例えば、図6に示したように、(Xm,Zm)平面であって、かつ直線X2上の各物標の3次元座標(Xmi′,Ymi′,Zmi′)を含む平面内に、各物標の3次元座標(Xmi′,Ymi′,Zmi′)のうち両端の物標の3次元座標(Xm1′,Ym1′,Zm1′),(Xmn′,Ymn′,Zmn′)の位置を中心として、その座標に対応する距離d1,dnを半径とする円弧をそれぞれ描き、双方の円弧の交わる2つの点のうち自動車C側の点に対応する座標を計算することにより求められる。俯角ξは、上記したように、例えば、最下行の各物標のうち中央に配置された物標に対応する反射光または反射波の強度が最も大きくなるように調整されており、ほとんど0°となるので、例えば、デフォルトで0°としてもよい。ずれ角φは、例えば、レーダ座標系(Xm,Ym,Zm)の(Xm,Zm)平面において直線X2と垂直に交わる直線X3と、自動車Cの車軸X1とが交わる角度を計算することにより求められる。
次に、制御部3は、俯角ξおよびずれ角φを用いて、各物標の3次元座標(Xmi,Ymi,Zmi)または(Xmi′,Ymi′,Zmi′)が反射板6上に分布するように、これら3次元座標(Xmi,Ymi,Zmi)または(Xmi′,Ymi′,Zmi′)を補正する(ステップS16)。
一方、レーダ座標系へ変換された各物標の3次元座標(Xmi,Ymi,Zmi)が、(Xm,Ym)平面上に分布している場合には、各物標の3次元座標(Xmi,Ymi,Zmi)が反射板6上に分布していることを意味するので、レーダ1の俯角ξおよびずれ角φはほとんど0°になっていると推測できる。従って、この場合には、3次元座標(Xmi,Ymi,Zmi)をわざわざ補正する必要はないので、3次元座標(Xmi,Ymi,Zmi)の補正を行わない。もちろん、レーダ1の俯角ξおよびずれ角φを求めるようにしてもよいが、その場合には、上記のステップS15,S16を実行することとなる。
なお、以下では、3次元座標(Xmi,Ymi,Zmi)の補正が行われた場合の手順について説明するが、この手順は、補正の行われていない3次元座標(Xmi,Ymi,Zmi)についてももちろん適用可能である。
次に、上記ステップ16で補正することにより得られた、最下行の各物標の3次元座標(Xmi′′,Ymi′′,Zmi′′)、俯角ξおよびずれ角φを記憶部4に格納する(ステップS17)。
次に、制御部3は、最下行の各物標の3次元座標(Xmi′′,Ymi′′,Zmi′′)を利用して、最下行以外の各物標(反射ブロック6A)の座標を推定する(ステップS18)。例えば、反射ブロック6Aおよび吸収ブロック6Bの高さは共にHなので、最下行から1行上がるごとに、YmiにHを加えることにより、最下行以外の各物標の座標(Xmi′′,Ymi′′+H×(s−1),Zmi′′)を求める。ここで、sは、最下行から数えたブロックの数である(最下行はs=1)。その後、最下行以外の各物標の座標(Xmi′′,Ymi′′+H×(s−1),Zmi′′)を記憶部4に格納する(ステップS19)。
次に、制御部3は、レーダ1自身のキャリブレーションの完了の出力を表示部5に要求する(ステップS20)。表示部5は、その要求を受信すると、レーダ1自身のキャリブレーションが完了した旨を出力する(ステップS21)。このようにして、レーダ1自身のキャリブレーションが完了する。
(ステレオカメラ2自身のキャリブレーション、図9)
次に、作業者Pは、反射板6を調整する(ステップS22)。具体的には、レーダ1がレーザレーダの場合には反射板6を覆っているカバーを外して反射板6の格子状パターンを全て露出させ、他方、レーダ1がミリ波レーダの場合には先に取り外したリフレクタ6Dを元の位置に取り付ける。続いて、作業者Pはステレオカメラ2自身のキャリブレーションを制御部3に要求する(ステップS23)。すると、制御部3はステレオカメラ2に第1回目の撮影を要求する(ステップS24)。ステレオカメラ2は、第1回目の撮影の要求を受信する(ステップS25)と、反射板6のステレオ画像を撮影する(ステップS26)。
次に、制御部3は、作業者Pに対して反射板6の車軸X1に対する角度を所定の角度に変更する指令を表示するように表示部5に要求する(ステップS27)。表示部5は、制御部3からの表示要求を受信すると、その指令を表示する(ステップS28)。作業者Pは、その指令に従って反射板6の角度を変更する(ステップS29)。続いて、制御部3はステレオカメラ2に次の撮影を要求する(ステップS30)。ステレオカメラ2は、次の撮影の要求を受信する(ステップS31)と、反射板6のステレオ画像を撮影する(ステップS32)。
引き続き、反射板6の角度を徐々に変えながらステップS27〜S33を複数回繰り返したのち、撮影回数が所定の回数に到達する(ステップS33)と、制御部3は撮影した全てのステレオ画像の送信をステレオカメラ2に要求する(ステップS34)。ステレオカメラ2は、その要求を受信する(ステップS35)と、撮影した全てのステレオ画像を制御部3に送信する(ステップS36)。
制御部3は、ステレオ画像を受信する(ステップS37)と、受信したステレオ画像を用いて、ステレオカメラ2の内部パラメータ(例えば、焦点距離F、光学中心位置および光学歪補正係数)と、外部パラメータ(例えば、右カメラ21および左カメラ22の間の並進行列式および回転行列式)とを計算したのち(ステップS38)、内部パラメータおよび外部パラメータと、第1回目に撮影されたステレオ画像とを記憶部4に格納する(ステップS39)。
次に、制御部3は、ステレオカメラ2自身のキャリブレーションの完了の出力を表示部5に要求する(ステップS40)。表示部5は、その要求を受信すると、ステレオカメラ2自身のキャリブレーションが完了した旨を出力する(ステップS41)。このようにして、ステレオカメラ2自身のキャリブレーションが完了する。
(レーダ1およびステレオカメラ2の相互間のキャリブレーション、図10)
制御部3は、記憶部4に格納された第1回目のステレオ画像を読み出し、そのステレオ画像の中から、各物標の右カメラ画像座系の2次元座標(Xrj,Yrj)および左カメラ画像座系の2次元座標(Xlj,Ylj)を抽出する(ステップS42)。具体的には、反射ブロック6Aの4つの角を抽出し、その4つの角の中央の座標を物標の座標として抽出する。なお、Xr、Yr、Xl、Ylのサフィックスjは1以上、ステレオカメラ2によって検知された物標の数以下の整数である。
続いて、制御部3は、2次元座標(Xrj,Yrj),(Xlj,Ylj)と、以下の式(2)〜(7)とを用いて、各物標の右カメラ座標系の3次元座標(XRj,YRj,ZRj)および左カメラ座標系の3次元座標(XLj,YLj,ZLj)を求める(ステップS43)。
Figure 2007218738
Figure 2007218738
Figure 2007218738
Figure 2007218738
Figure 2007218738
Figure 2007218738
ここで、bはステレオカメラ2の基線長、すなわち、右カメラ21および左カメラ22のそれぞれの中心位置間の距離である。また、d(Xrj,Yrj)は右カメラの2次元座標の視差情報であり、d(Xlj,Ylj)は左カメラの2次元座標の視差情報である。視差情報d(Xrj,Yrj)、d(Xlj,Ylj)は、物標との距離に関係するものであり、右カメラ21で撮影された2次元画像と、左カメラ22で撮影された2次元画像とを用いて求めることができる。具体的には、右カメラ21および左カメラ22が互いに等しい高さに配置されており、右カメラ21で撮影された2次元画像中の各物標の2次元座標(Xrj,Yrj)、および左カメラ22で撮影された2次元画像中の各物標の2次元座標(Xlj,Ylj)のうち、同一の物標のY座標は互いに一致することから、同一の物標のX座標の差分の絶対値|Xrj−Xlj|が視差情報d(Xrj,Yrj)、d(Xlj,Ylj)となる。従って、この場合の視差情報d(Xrj,Yrj)、d(Xlj,Ylj)は、Y座標とは無関係な値となる。
次に、制御部3は、レーダ1によって計測され、または推定によって求められた各物標の座標(Xmi′′,Ymi′′+H×(s−1),Zmi′′)を記憶部4から読み出したのち、レーダ1から得られたレーダ座標系の3次元座標(Xmi′′,Ymi′′+H×(s−1),Zmi′′)と、ステレオカメラ2から得られた右カメラ座標系の3次元座標(XRj,YRj,ZRj)および左カメラ座標系の3次元座標(XLj,YLj,ZLj)とを、以下の式(8),(9)に代入して、各物標に対するRrj,Rlj,Trj,Tljを求める(ステップS44)。ここで、Rrj,Rljはレーダ座標系からカメラ座標系(XR,YR,ZR),(XL,YL,ZL)への回転行列式であり、Trj,Tljはレーダ座標系からカメラ座標系への並進行列式である。
Figure 2007218738
Figure 2007218738
なお、式(8)はレーダ座標系の3次元座標を右カメラ座標系の3次元座標へ変換する式であり、式(9)はレーダ座標系の3次元座標を右カメラ座標系の3次元座標へ変換する式である。
続いて、制御部3は、各物標に対するRrj,Rlj,Trj,Tljの平均値Rr,Rl,Tr,Tlを求めたのち(ステップS45)、これらを記憶部4に格納する(ステップS46)。
このように、本実施の形態では、レーダ1からのレーダ情報を補正するにより得られた各物標の座標(Xmi′′,Ymi′′+H×(s−1),Zmi′′)と、ステレオカメラ2から得られた右カメラ座標系の3次元座標(XRj,YRj,ZRj)および左カメラ座標系の3次元座標(XLj,YLj,ZLj)とを用いて、レーダ座標系の3次元座標と、右カメラ座標系の3次元座標および左カメラ座標系の3次元座標とを相互に変換するためのRr,Rl,Tr,Tlを求めることができる。
次に、制御部3は、センサフュージョンのキャリブレーションの完了の出力を表示部5に要求する(ステップS47)。表示部5は、その要求を受信すると、センサフュージョンのキャリブレーションが完了した旨を出力する(ステップS48)。このようにして、レーダ1およびステレオカメラ2の相互間のキャリブレーションが行われ、センサフュージョンのキャリブレーションが完了する。
このように、本実施の形態では、レーダ1から各物標の座標を得ると共に、ステレオカメラ2から各物標の座標を得ることにより、レーダ1自身や、ステレオカメラ2自身だけでなく、レーダ1およびステレオカメラ2の相互間のキャリブレーションをも一括して行うことができる。つまり、レーダ1およびステレオカメラ2を含んで構成されたセンサフュージョンを同時キャリブレーションすることができる。
次に、自動車Cの走行中に、自動車Cの前方に存在する障害物の存在、位置および種類を特定する手順について説明する。
(障害物の位置の特定、図11〜図14)
まず、制御部3は、レーダ1に対してスキャンの要求を、ステレオカメラ2に対して撮影の要求を、互いに同期して行う(ステップS49)。レーダ1はスキャンの要求を受信する(ステップS50)と、スキャン平面内をスキャンして、そのスキャン平面内に存在する物標の方位θjを検知すると共に、検知した物標ごとに、距離djおよび相対速度vjを計算したのち(ステップS51)、計測されたレーダ情報(θi,di,vi)を制御部3に送信する(ステップS52)。なお、ここでのθや、d、vのサフィックスiは1以上、レーダ1によって検知された物標の数以下の整数である。他方、ステレオカメラ2は、撮影の要求を受信する(ステップS53)と、自動車Cの前方のステレオ画像を撮影する(ステップS54)と共に、そのステレオ画像を制御部3に送信する(ステップS55)。
次に、制御部3は、レーダ1からのレーダ情報(θi,di,vi)およびステレオカメラ2からのステレオ画像を受信する(ステップS56)。すると、まず、制御部3は、式(1)および以下の式(10)〜(13)を用いて、受信したレーダ情報(θi,di,vi)を右カメラ座標系の3次元座標(XmRi,YmRi,ZmRi)および左カメラ座標系の3次元座標(XmLi,YmLi,ZmLi)に変換すると共に、右カメラ座標系の2次元座標(Xmri,Ymri)および左カメラ座標系の2次元座標(Xmli,Ymli)に変換する(ステップS57)。続いて、制御部3は、受信したステレオ画像の中から、物標の角を抽出することにより、各物標の右カメラ座標系の2次元座標(Xrj,Yrj)および左カメラ座標系の2次元座標(Xlj,Ylj)を求める(ステップS58)。なお、ここでのXr,Yr,Xl,Ylのサフィックスjは1以上、ステレオ画像の中から検知された物標の総数以下の整数である。
Figure 2007218738
Figure 2007218738
Figure 2007218738
Figure 2007218738
なお、式(10)はレーダ座標系の3次元座標を右カメラ座標系の3次元座標へ変換する式であり、式(11)はレーダ座標系の3次元座標を左カメラ座標系の3次元座標へ変換する式である。式(12)は式(10)で得られた3次元座標を2次元座標へ変換する式であり、式(13)は式(11)で得られた3次元座標を2次元座標へ変換する式である。ここで、λは斎次カメラ座標系用係数であり、(Xr,Yr)は右カメラ座標系の2次元座標であり、(Xl,Yl)は左カメラ座標系の2次元座標であり、(XR,YR,ZR)は右カメラ座標系の3次元座標であり、(XL,YL,ZL)は左カメラ座標系の3次元座標であり、fxr,fyrは右カメラの焦点距離を画素の横方向または縦方向のサイズで割った値であり、fxl,fylは左カメラの焦点距離を画素の縦方向または縦方向のサイズで割った値であり、uo,voは右カメラおよび左カメラのそれぞれの光学中心位置の画像座標である。なお、fxl,fyl,uoおよびvoは、上記したステレオカメラ2自身のキャリブレーションにおいて得られたものである。
次に、制御部3は、レーダ1によって検知された1または複数の物標が、ステレオカメラ2によって検知された1または複数の物標に含まれているか否かを判定する。すなわちレーダ1によって検知された1または複数の物標と、ステレオカメラ2によって検知された1または複数の物標とのマッチングを行う(ステップS59)。
具体的には、まず、レーダ1から得られた2次元座標(Xmri,Ymri),(Xmli,Ymli)と、ステレオカメラ2から得られた2次元座標(Xrj,Yrj),(Xlj,Ylj)とを対比して、互いに同一または近似する座標が存在するか否かを判定する。その結果、互いに同一または近似する座標が存在する場合には、その座標には物標が存在する可能性が高いことになる。続いて、レーダ1から得られた2次元座標(Xmri,Ymri),(Xmli,Ymli)に対応する距離diと、ステレオカメラ2から得られた、レーダ1で検知された物標と同一と思われる物標の2次元座標(Xrj,Yrj),(Xlj,Ylj)の、式(7)によって得られる奥行きZLjとを、存在可能性の高い物標について対比する。その結果、距離diと、奥行きZLjとが一致または近似する(マッチする)場合には、レーダ1が検知した物標と、ステレオカメラ2が検知した物標とが互いに同一の物標であることになり、逆に、マッチしない場合には、レーダ1が検知した物標と、ステレオカメラ2が検知した物標とが互いに異なる物標であることになる。制御部3は、このようにしてマッチングした物標を障害物候補として抽出する(ステップS60)。
次に、制御部3は、ステップS50からステップ59を繰り返し行ったときに、障害物候補の物標の距離diの変化の割合と、その奥行きZLjの変化の割合とを対比する(ステップS61)。その結果、距離diの変化の割合と、奥行きZLjの変化の割合とが互いに全く異なる場合には、その物標は実在しない可能性が極めて高いので、その物標を障害物候補から除外する(ステップS62)。なお、互いにほぼ等しい場合には、その物標が実在する可能性が極めて高いので、その物標を障害物候補として残存させる。
次に、制御部3は、障害物候補の物標が障害物存在可能領域内にあるか否かを判定する。ここで、障害物存在可能領域とは、障害物が存在することの可能な領域のことであり、例えば、図14に示したような走行路面S1および路側S2を含む。走行路面S1とは、自動車Cが走行可能な路面のことであり、路側S2とは、走行路面S1に沿って設けられた路面のことである。なお、図14では、走行路面S1および路側S2は、車線区分線Lによって区分されている。
判定の結果、障害物候補の物標が、例えば図14に示したように、走行路面S1上にある場合には、その物標は、走行路面S1上に存在しうる障害物のリスト(例えば、自動車、バイク、自転車、落下物)の中の一の障害物であることになり、他方、距離diの物標が路側S2上にある場合には、その物標は、路側S2上に存在しうる障害物のリスト(例えば、ガードレール、道路看板)の中の一の障害物であることになる。従って、障害物候補の物標が障害物存在可能領域の外にある場合には、その物標は自動車Cにとって障害物とはなり得ない物標であることになるので、その場合には、その物標を障害物候補から除外する(ステップS63)。このようにして、障害物候補の物標が特定されると共に、その物標の位置が特定される。
(障害物7の種類の特定、図12〜図14)
次に、制御部3は、例えば、ステレオカメラ2から得られた2次元座標(Xrj,Yrj),(Xlj,Ylj)と、レーダ1から得られた2次元座標(Xmri,Ymri),(Xmli,Ymli)に対応する距離diとから、障害物害物候補の物標の形状および大きさを推定する(ステップS64)。続いて、推定した形状および大きさならびに相対速度viと対応する障害物をリストの中から特定する(ステップS65)。例えば、障害物害物候補の物標が図14の障害物7であり、障害物7が相対速度viで走行している場合には、走行路面S1上に存在しうる障害物のリスト(例えば、自動車、バイク、自転車、落下物)の中からバイクが特定される。このようにして、障害物の種類が特定される。
以上のように、本実施の形態では、ステレオカメラ2から得られるステレオ画像から物標との距離に関係する視差情報を得るようにしたので、ステレオカメラ2から得られた右カメラ座標系の2次元座標および左カメラ座標系の2次元座標を、右カメラ座標系の3次元座標および左カメラ座標系の3次元座標に変換することができる。これにより、レーダ1から得られた各物標の座標と、視差情報に基づいて変換された右カメラ座標系の3次元座標および左カメラ座標系の3次元座標とを用いて、レーダ座標系の3次元座標を、右カメラ座標系の3次元座標および左カメラ座標系の3次元座標に変換するためのRr,Rl,Tr,Tlを求めることができる。その結果、走行中に障害物の位置を特定する際に、上記のようにして求められたRr,Rl,Tr,Tlを用いることにより、レーダ1から得られた物標の座標と、ステレオカメラ2から得られた物標の座標とを対比することが可能となる。その結果、存在可能性の高い物標を特定することができる。
従って、本実施の形態では、走行中に障害物の位置を特定する際に、レーダ1によって検知された物標の座標と、ステレオカメラ2によって検知された物標の座標とを用いて、物標同士を容易にマッチングさせることができる。
特に、本実施の形態では、ステレオカメラ2から得られるステレオ画像から、Y座標とは無関係な、物標との距離に関係する視差情報を得るようにしたので、ステレオカメラ2の俯角が自動車Cの前方の物標を撮影することが可能な範囲内のどのような値になっていようとも、ステレオカメラ2から得られた右カメラ座標系の2次元座標および左カメラ座標系の2次元座標を、右カメラ座標系の3次元座標および左カメラ座標系の3次元座標に常に正確に変換することができる。これにより、レーダ1から得られた各物標の座標と、視差情報に基づいて変換された右カメラ座標系の3次元座標および左カメラ座標系の3次元座標とを用いて、レーダ座標系の3次元座標を、右カメラ座標系の3次元座標および左カメラ座標系の3次元座標に変換するためのRr,Rl,Tr,Tlを常に正確に求めることができる。その結果、走行中に障害物の位置を特定する際に、例えば、自動車Cのサスペンションによりステレオカメラ2の俯角が経時的に変動するような場合であっても、上記のようにして求められたRr,Rl,Tr,Tlを用いることにより、レーダ1から得られた物標の座標と、ステレオカメラ2から得られた物標の座標とを正確に対比することが可能となる。その結果、存在可能性の高い物標を正確に特定することができる。
また、本実施の形態では、走行中に障害物の位置を特定する際に、Rr,Rl,Tr,Tlを用いているので、レーダ1によって得られた各物標のレーダ座標系の3次元座標を、奥行き情報を実質的に含んた右カメラ座標系の2次元座標および左カメラ座標系の2次元座標に変換することができる。これにより、レーダ1から得られた、奥行き情報を実質的に含んた各物標の右カメラ座標系の2次元座標および左カメラ座標系の2次元座標と、ステレオ画像に基づいて得られた各物標の右カメラ座標系の2次元座標および左カメラ座標系の2次元座標とを対比することができるので、存在可能性の高い物標を特定することができる。従って、レーダから得られた物標の座標と、ステレオカメラから得られた物標の座標とを用いて、物標同士を容易にマッチングさせることができる。
さらに、本実施の形態では、走行中に障害物の位置を特定する際に、示唆情報から物標の奥行きZLjを求めるようにしたので、レーダ1から得られた物標との距離diと、ステレオカメラ2から得られた、レーダ1で検知された物標と同一と思われる物標の奥行きZLjとを対比することができる。これにより、例えば、レーダ1から得られた物標の2次元座標と、ステレオカメラ2から得られた物標の2次元座標とが互いに近接するものの、距離diと奥行きZLjとが互いに大きく異なる場合には、これらを互いに別個の物標として認識することができる。一方、例えば、レーダ1から得られた物標の2次元座標と、ステレオカメラ2から得られた物標の2次元座標とが互いに等しいかまたは近接している場合であって、かつ、距離diと奥行きZLjとが互いに等しいかまたは近接しているときには、これらを互いに同一の物標として認識することができる。
このように、走行中に障害物の位置を特定する際に、レーダ1から得られた物標の2次元座標と、ステレオカメラ2から得られた物標の2次元座標とを互いに対比するだけでなく、距離diと奥行きZLjとを互いに対比するようにしたので、レーダ1から得られた物標の2次元座標と、ステレオカメラ2から得られた物標の2次元座標とが互いに近接している場合であっても、それらが互いに異なるものなのか、互いに同一のものなのかを正確に特定することができる。
また、本実施の形態では、キャリブレーションにおいて、レーダ1によって検知された各物標の3次元座標(Xmi,Ymi,Zmi)が反射板6上に分布していない場合には、演算により求めたレーダ1の俯角ξおよびずれ角φを用いて、3次元座標(Xmi,Ymi,Zmi)を補正するようにしたので、レーダ1の向きに起因する誤差をRr,Rl,Tr,Tlから取り除くことができる。これにより、レーダ1から得られた物標の座標と、ステレオカメラ2から得られた物標の座標とを極めて正確に対比することが可能となるので、走行中に障害物の位置を特定する際に、レーダ1によって検知された物標の座標と、ステレオカメラ2によって検知された物標の座標とを用いて、物標同士を極めて正確にマッチングさせることができる。
また、本実施の形態では、走行中に障害物の位置を特定する際に、レーダ1から得られた物標との距離diの変化の割合と、ステレオカメラ2から得られた、レーダ1で検知された物標と同一と思われる物標の奥行きZLjの変化の割合とを対比するようにしたので、レーダ1から得られた物標の2次元座標と、ステレオカメラ2から得られた物標の2次元座標とが互いに近接している場合であっても、それらが互いに異なるものなのか、互いに同一のものなのかを極めて正確に特定することができる。これにより、走行中に障害物の位置を特定する際に、レーダ1によって検知された物標の座標と、ステレオカメラ2によって検知された物標の座標とを用いて、物標同士を極めて正確にマッチングさせることができる。
また、本実施の形態では、障害物7の位置および種類を特定したのちに、レーダ1によって検知された障害物7のレーダ情報(θi,di,vi)およびステレオカメラ2によって検知された障害物7のステレオ画像のいずれか一方に何らかの不具合(例えばノイズの混入)が発生して、いずれか一方の情報を使うことができなくなった場合であっても、使うことの可能な方の情報だけを用いて、障害物7の位置を追跡することができる。この場合に、双方の情報を用いて障害物7の位置を追跡していたときから、一方の情報だけを用いて障害物7の位置を追跡するように切り換えた瞬間に、障害物7の位置が不連続に変動することはない。障害物7の位置を追跡する際には、キャリブレーションによって得られた定数を含む式(1)、(7)、(10)〜(13)を用いているので、レーダ1によって検知された物標の座標と、ステレオカメラ2によって検知された物標の座標とを、一の座標系のほぼ同一の座標に変換することができるからである。
以上、実施の形態および実施例を挙げて本発明を説明したが、本発明は、これらに限定されるものではなく、種々の変形が可能である。
本発明の一実施の形態に係る物標検知装置の概略構成図である。 図1の反射板の一構成例を説明するための図である。 図1の反射板の他の構成例を説明するための図である。 物標検知装置のキャリブレーションを行う際の配置図である。 俯角ξを説明するための側面図である。 ずれ角φを説明するための上面図である。 物標検知装置のキャリブレーション手順を説明するための流れ図である。 図7に続く手順を説明するための流れ図である。 図8に続く手順を説明するための流れ図である。 図9に続く手順を説明するための流れ図である。 障害物の検知についての手順を説明するための流れ図である。 図11に続く手順を説明するための流れ図である。 図12に続く手順を説明するための流れ図である。 障害物の検知についての手順を説明するための斜視図である。
符号の説明
1…レーダ、2…ステレオカメラ、21…右カメラ、22…左カメラ、3…制御部、4…記憶部、5…表示部、6…反射板、6A…反射ブロック、6B…吸収ブロック、6C…平板、6D…リフレクタ、7…障害物、A…スキャン平面、B…(Xm,Zm)平面、C…自動車、d1,d2…半径、S1…走行路面、S2…非走行路面、X1…車軸、X2,X3…線分、ξ…俯角、φ…ずれ角。

Claims (9)

  1. 車両前方のレーダ情報を取得するためのレーダと、
    車両前方のステレオ画像を取得するための右カメラおよび左カメラを有するステレオカメラと、
    前記レーダで取得したレーダ情報、ならびに前記右カメラで取得した2次元画像および前記左カメラで取得した2次元画像からなるステレオ画像を処理するための制御部と、
    を備え、
    前記制御部は、
    前記レーダによって得られたレーダ情報から各物標のレーダ座標系の3次元座標を取得するレーダ側3次元座標取得手段と、
    前記右カメラによって得られた2次元画像の中から前記各物標の右カメラ座標系の2次元座標を、前記左カメラによって得られた2次元画像の中から前記各物標の左カメラ座標系の2次元座標をそれぞれ抽出するカメラ側2次元座標取得手段と、
    前記各物標の右カメラ座標系の2次元座標および前記各物標の左カメラ座標系の2次元座標から視差情報を取得する視差情報取得手段と、
    前記視差情報を用いて、前記各物標の右カメラ座標系の2次元座標および左カメラ座標系の2次元座標を、右カメラ座標系の3次元座標および左カメラ座標系の3次元座標に変換するカメラ側3次元座標取得手段と、
    前記レーダ情報に基づいて得られた各物標のレーダ座標系の3次元座標と、前記ステレオ画像に基づいて得られた各物標の右カメラ座標系の3次元座標および左カメラ座標系の3次元座標とを用いて、レーダ座標系の3次元座標を右カメラ座標系の3次元座標および左カメラ座標系の3次元座標に変換するための変換係数を求める変換係数取得手段と
    を有する
    ことを特徴とする校正装置。
  2. 前記右カメラおよび左カメラは、互いに等しい高さに配置されている
    ことを特徴とする請求項1に記載の校正装置。
  3. 前記レーダ側3次元座標取得手段は、前記レーダ情報から取得した各物標のレーダ座標系の3次元座標が一の平面上に分布していない場合には、前記レーダの俯角およびずれ角を用いて、その3次元座標を補正する
    ことを特徴とする請求項1に記載の校正装置。
  4. 前記レーダ側3次元座標取得手段は、前記レーダ情報から取得した各物標のレーダ座標系の3次元座標を最小二乗法を用いて直線近似を行い、それにより得られた各物標の3次元座標を含む第1直線と前記一の平面に垂直に交わる平面において垂直に交わる第2直線を求め、前記第2直線と自動車の車軸とが交わる角度を前記レーダのずれ角として求める
    ことを特徴とする請求項3に記載の校正装置。
  5. 車両前方のレーダ情報を取得するためのレーダと、
    車両前方のステレオ画像を取得するための右カメラおよび左カメラを有するステレオカメラと、
    前記レーダで取得したレーダ情報、ならびに前記右カメラで取得した2次元画像および前記左カメラで取得した2次元画像からなるステレオ画像を処理するための制御部と、
    レーダ座標系の3次元座標を右カメラ座標系の3次元座標および左カメラ座標系の3次元座標に変換するための変換係数が格納されている記憶部と
    を備え、
    前記制御部は、
    前記レーダによって得られたレーダ情報から各物標のレーダ座標系の3次元座標を取得するレーダ側3次元座標取得手段と、
    前記変換係数を用いて、前記各物標のレーダ座標系の3次元座標を、右カメラ座標系の3次元座標および前記左カメラ座標系の3次元座標に変換すると共に、その変換された各物標の右カメラ座標系の3次元座標および前記左カメラ座標系の3次元座標を、右カメラ座標系の2次元座標および左カメラ座標系の2次元座標に変換するレーダ側2次元座標取得手段と、
    前記右カメラによって得られた2次元画像の中から前記各物標の右カメラ座標系の2次元座標を、前記左カメラによって得られた2次元画像の中から前記各物標の左カメラ座標系の2次元座標をそれぞれ抽出するカメラ側2次元座標取得手段と、
    前記レーダ情報に基づいて得られた各物標の右カメラ座標系の2次元座標および左カメラ座標系の2次元座標と、前記ステレオ画像に基づいて得られた各物標の右カメラ座標系の2次元座標および左カメラ座標系の2次元座標とを対比して、車両前方の物標を特定する物標特定手段と
    を有する
    ことを特徴とする物標検知装置。
  6. 前記右カメラおよび左カメラは、互いに等しい高さに配置されている
    ことを特徴とする請求項5に記載の物標検知装置。
  7. 前記記憶部には、前記ステレオカメラの視差情報がさらに格納されており、
    前記物標位置特定手段は、前記レーダ情報から得られた各物標との距離と、前記視差情報から得られた各物標の奥行きとを対比して、車両前方の物標を特定する
    ことを特徴とする請求項5に記載の物標検知装置。
  8. 前記記憶部には、前記ステレオカメラの視差情報がさらに格納されており、
    前記物標位置特定手段は、前記レーダ情報から得られた各物標との距離の変化の割合と、前記視差情報から得られた各物標の奥行きの変化の割合とを対比して、車両前方の物標を特定する
    ことを特徴とする請求項5に記載の物標検知装置。
  9. 車両前方のレーダ情報を取得するためのレーダと、車両前方のステレオ画像を取得するための右カメラおよび左カメラを有するステレオカメラと、前記レーダで取得したレーダ情報、ならびに前記右カメラで取得した2次元画像および前記左カメラで取得した2次元画像からなるステレオ画像を処理するための制御部とを用意し、
    前記レーダによって得られたレーダ情報から各物標のレーダ座標系の3次元座標を取得し、
    前記右カメラによって得られた2次元画像の中から前記各物標の右カメラ座標系の2次元座標を、前記左カメラによって得られた2次元画像の中から前記各物標の左カメラ座標系の2次元座標をそれぞれ抽出し、
    前記各物標の右カメラ座標系の2次元座標および前記各物標の左カメラ座標系の2次元座標から視差情報を取得し、
    前記視差情報を用いて、前記各物標の右カメラ座標系の2次元座標および左カメラ座標系の2次元座標を、右カメラ座標系の3次元座標および左カメラ座標系の3次元座標に変換し、
    前記レーダ情報に基づいて得られた各物標のレーダ座標系の3次元座標と、前記ステレオ画像に基づいて得られた各物標の右カメラ座標系の3次元座標および左カメラ座標系の3次元座標とを用いて、レーダ座標系の3次元座標を右カメラ座標系の3次元座標および左カメラ座標系の3次元座標に変換するための変換係数を求める
    ことを特徴とする校正方法。
JP2006039563A 2006-02-16 2006-02-16 校正装置および校正方法 Active JP4918676B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006039563A JP4918676B2 (ja) 2006-02-16 2006-02-16 校正装置および校正方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006039563A JP4918676B2 (ja) 2006-02-16 2006-02-16 校正装置および校正方法

Publications (2)

Publication Number Publication Date
JP2007218738A true JP2007218738A (ja) 2007-08-30
JP4918676B2 JP4918676B2 (ja) 2012-04-18

Family

ID=38496204

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006039563A Active JP4918676B2 (ja) 2006-02-16 2006-02-16 校正装置および校正方法

Country Status (1)

Country Link
JP (1) JP4918676B2 (ja)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010091426A (ja) * 2008-10-08 2010-04-22 Toyota Central R&D Labs Inc 距離計測装置及びプログラム
JP2010190612A (ja) * 2009-02-16 2010-09-02 Honda Motor Co Ltd 軸調整用ターゲット装置
JP2012141770A (ja) * 2010-12-28 2012-07-26 Toyota Central R&D Labs Inc 運転支援装置及びプログラム
WO2012129421A2 (en) * 2011-03-23 2012-09-27 Tk Holdings Inc. Dynamic stereo camera calibration system and method
KR20150051388A (ko) * 2013-11-04 2015-05-13 현대모비스 주식회사 스테레오 카메라 보정 시스템
KR20150092920A (ko) * 2014-02-06 2015-08-17 주식회사 만도 레이더 및 카메라의 캘리브레이션 지그 및 캘리브레이션 시스템
WO2017057042A1 (ja) * 2015-09-30 2017-04-06 ソニー株式会社 信号処理装置、信号処理方法、プログラム、および、物体検出システム
WO2017057041A1 (ja) * 2015-09-30 2017-04-06 ソニー株式会社 信号処理装置、信号処理方法、およびプログラム
WO2017159382A1 (ja) * 2016-03-16 2017-09-21 ソニー株式会社 信号処理装置および信号処理方法
JP6236549B1 (ja) * 2016-06-02 2017-11-22 日本郵船株式会社 船舶航行支援装置
JP2018155709A (ja) * 2017-03-21 2018-10-04 キヤノン株式会社 位置姿勢推定装置および位置姿勢推定方法、運転支援装置
WO2018226390A1 (en) * 2017-06-09 2018-12-13 Waymo Llc Lidar optics alignment systems and methods
CN109001711A (zh) * 2018-06-05 2018-12-14 北京智行者科技有限公司 多线激光雷达标定方法
KR101937540B1 (ko) * 2016-12-21 2019-01-11 전자부품연구원 카메라와 레이더의 동시 보정을 위한 보정기구
CN109211298A (zh) * 2017-07-04 2019-01-15 百度在线网络技术(北京)有限公司 一种传感器标定方法和装置
FR3080590A1 (fr) * 2018-04-25 2019-11-01 Psa Automobiles Sa Procede et systeme de detection d’obstacle dans l’environnement d’un vehicule automobile
JP2020507829A (ja) * 2017-01-26 2020-03-12 モービルアイ ビジョン テクノロジーズ リミテッド 整合画像及びlidar情報に基づいた車両ナビゲーション
JP2020079781A (ja) * 2018-09-07 2020-05-28 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 相対的位置姿勢の決定方法、装置、機器及び媒体
WO2020129369A1 (ja) 2018-12-17 2020-06-25 ソニーセミコンダクタソリューションズ株式会社 キャリブレーション装置とキャリブレーション方法とプログラムおよびキャリブレーションシステムとキャリブレーションターゲット
JP2020530555A (ja) * 2017-07-26 2020-10-22 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh 物体の位置を認識する装置および方法
JP2021085679A (ja) * 2019-11-25 2021-06-03 トヨタ自動車株式会社 センサ軸調整用ターゲット装置
JP2022515225A (ja) * 2019-11-18 2022-02-17 商▲湯▼集▲團▼有限公司 センサキャリブレーション方法及び装置、記憶媒体、キャリブレーションシステム並びにプログラム製品
KR20220109537A (ko) * 2021-01-28 2022-08-05 경북대학교 산학협력단 자율주행 자동차의 센서 시스템 교정 장치 및 그 방법
CN115453476A (zh) * 2022-11-10 2022-12-09 齐鲁云商数字科技股份有限公司 双侧雷达设备校准定位系统及立体探测融合方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5145585B2 (ja) * 2007-06-08 2013-02-20 国立大学法人 熊本大学 物標検出装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11194169A (ja) * 1997-12-27 1999-07-21 Honda Motor Co Ltd 車両用物体検知装置
JP2000329852A (ja) * 1999-05-17 2000-11-30 Nissan Motor Co Ltd 障害物認識装置
JP2002303672A (ja) * 2001-04-04 2002-10-18 Honda Motor Co Ltd 物体検知装置の軸調整状態検知方法および軸調整方法
JP2003057334A (ja) * 2001-08-15 2003-02-26 Fujitsu Ten Ltd レーダの水平方向軸ずれ発生検出装置、軸ずれ量決定装置、および軸ずれ補正装置
JP2003315442A (ja) * 2002-04-22 2003-11-06 Mitsubishi Electric Corp 車載レーダ装置の位置調整装置および位置調整方法
JP2006038843A (ja) * 2004-07-08 2006-02-09 Ibeo Automobile Sensor Gmbh 距離画像センサの較正方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11194169A (ja) * 1997-12-27 1999-07-21 Honda Motor Co Ltd 車両用物体検知装置
JP2000329852A (ja) * 1999-05-17 2000-11-30 Nissan Motor Co Ltd 障害物認識装置
JP2002303672A (ja) * 2001-04-04 2002-10-18 Honda Motor Co Ltd 物体検知装置の軸調整状態検知方法および軸調整方法
JP2003057334A (ja) * 2001-08-15 2003-02-26 Fujitsu Ten Ltd レーダの水平方向軸ずれ発生検出装置、軸ずれ量決定装置、および軸ずれ補正装置
JP2003315442A (ja) * 2002-04-22 2003-11-06 Mitsubishi Electric Corp 車載レーダ装置の位置調整装置および位置調整方法
JP2006038843A (ja) * 2004-07-08 2006-02-09 Ibeo Automobile Sensor Gmbh 距離画像センサの較正方法

Cited By (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010091426A (ja) * 2008-10-08 2010-04-22 Toyota Central R&D Labs Inc 距離計測装置及びプログラム
JP2010190612A (ja) * 2009-02-16 2010-09-02 Honda Motor Co Ltd 軸調整用ターゲット装置
JP2012141770A (ja) * 2010-12-28 2012-07-26 Toyota Central R&D Labs Inc 運転支援装置及びプログラム
WO2012129421A2 (en) * 2011-03-23 2012-09-27 Tk Holdings Inc. Dynamic stereo camera calibration system and method
WO2012129421A3 (en) * 2011-03-23 2013-01-10 Tk Holdings Inc. Dynamic stereo camera calibration system and method
KR20150051388A (ko) * 2013-11-04 2015-05-13 현대모비스 주식회사 스테레오 카메라 보정 시스템
KR102132242B1 (ko) * 2013-11-04 2020-07-10 현대모비스 주식회사 스테레오 카메라 보정 시스템
KR101931955B1 (ko) * 2014-02-06 2018-12-24 주식회사 만도 레이더 및 카메라의 캘리브레이션 지그 및 캘리브레이션 시스템
KR20150092920A (ko) * 2014-02-06 2015-08-17 주식회사 만도 레이더 및 카메라의 캘리브레이션 지그 및 캘리브레이션 시스템
US20180259621A1 (en) * 2015-09-30 2018-09-13 Sony Corporation Signal processing apparatus, signal processing method, program, and object detection system
US11061111B2 (en) 2015-09-30 2021-07-13 Sony Corporation Signal processing apparatus, signal processing method, and object detection system
WO2017057041A1 (ja) * 2015-09-30 2017-04-06 ソニー株式会社 信号処理装置、信号処理方法、およびプログラム
CN108139475A (zh) * 2015-09-30 2018-06-08 索尼公司 信号处理设备、信号处理方法和程序
JPWO2017057041A1 (ja) * 2015-09-30 2018-08-09 ソニー株式会社 信号処理装置、信号処理方法、およびプログラム
US10670697B2 (en) 2015-09-30 2020-06-02 Sony Corporation Signal processing apparatus, signal processing method, and object detection system
US20180267142A1 (en) * 2015-09-30 2018-09-20 Sony Corporation Signal processing apparatus, signal processing method, and program
WO2017057042A1 (ja) * 2015-09-30 2017-04-06 ソニー株式会社 信号処理装置、信号処理方法、プログラム、および、物体検出システム
US11719788B2 (en) 2015-09-30 2023-08-08 Sony Corporation Signal processing apparatus, signal processing method, and program
US10908257B2 (en) 2015-09-30 2021-02-02 Sony Corporation Signal processing apparatus, signal processing method, and program
CN108779984A (zh) * 2016-03-16 2018-11-09 索尼公司 信号处理设备和信号处理方法
WO2017159382A1 (ja) * 2016-03-16 2017-09-21 ソニー株式会社 信号処理装置および信号処理方法
DE112017001322T5 (de) 2016-03-16 2018-12-27 Sony Corporation Signalverarbeitungsvorrichtung und Signalverarbeitungsverfahren
JP6236549B1 (ja) * 2016-06-02 2017-11-22 日本郵船株式会社 船舶航行支援装置
WO2017208422A1 (ja) * 2016-06-02 2017-12-07 日本郵船株式会社 船舶航行支援装置
KR101937540B1 (ko) * 2016-12-21 2019-01-11 전자부품연구원 카메라와 레이더의 동시 보정을 위한 보정기구
US11953599B2 (en) 2017-01-26 2024-04-09 Mobileye Vision Technologies Ltd. Vehicle navigation based on aligned image and LIDAR information
JP7157054B2 (ja) 2017-01-26 2022-10-19 モービルアイ ビジョン テクノロジーズ リミテッド 整合画像及びlidar情報に基づいた車両ナビゲーション
JP2022185089A (ja) * 2017-01-26 2022-12-13 モービルアイ ビジョン テクノロジーズ リミテッド 整合画像及びlidar情報に基づいた車両ナビゲーション
JP2020507829A (ja) * 2017-01-26 2020-03-12 モービルアイ ビジョン テクノロジーズ リミテッド 整合画像及びlidar情報に基づいた車両ナビゲーション
JP2018155709A (ja) * 2017-03-21 2018-10-04 キヤノン株式会社 位置姿勢推定装置および位置姿勢推定方法、運転支援装置
US10578724B2 (en) 2017-06-09 2020-03-03 Waymo Llc LIDAR optics alignment systems and methods
CN110741278A (zh) * 2017-06-09 2020-01-31 伟摩有限责任公司 Lidar光学对准系统和方法
US10302749B2 (en) 2017-06-09 2019-05-28 Waymo Llc LIDAR optics alignment systems and methods
CN110741278B (zh) * 2017-06-09 2021-11-30 伟摩有限责任公司 Lidar光学对准系统和方法
WO2018226390A1 (en) * 2017-06-09 2018-12-13 Waymo Llc Lidar optics alignment systems and methods
CN109211298A (zh) * 2017-07-04 2019-01-15 百度在线网络技术(北京)有限公司 一种传感器标定方法和装置
CN109211298B (zh) * 2017-07-04 2021-08-17 百度在线网络技术(北京)有限公司 一种传感器标定方法和装置
JP2020530555A (ja) * 2017-07-26 2020-10-22 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh 物体の位置を認識する装置および方法
US11313961B2 (en) 2017-07-26 2022-04-26 Robert Bosch Gmbh Method and device for identifying the height of an object
FR3080590A1 (fr) * 2018-04-25 2019-11-01 Psa Automobiles Sa Procede et systeme de detection d’obstacle dans l’environnement d’un vehicule automobile
CN109001711A (zh) * 2018-06-05 2018-12-14 北京智行者科技有限公司 多线激光雷达标定方法
JP2020079781A (ja) * 2018-09-07 2020-05-28 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 相対的位置姿勢の決定方法、装置、機器及び媒体
US11372101B2 (en) 2018-09-07 2022-06-28 Apollo Intelligent Driving Technology (Beijing) Co., Ltd. Method and apparatus for determining relative pose, device and medium
JP7222854B2 (ja) 2018-09-07 2023-02-15 アポロ インテリジェント ドライビング テクノロジー(ペキン)カンパニー リミテッド 相対的位置姿勢の決定方法、装置、機器及び媒体
WO2020129369A1 (ja) 2018-12-17 2020-06-25 ソニーセミコンダクタソリューションズ株式会社 キャリブレーション装置とキャリブレーション方法とプログラムおよびキャリブレーションシステムとキャリブレーションターゲット
JP2022515225A (ja) * 2019-11-18 2022-02-17 商▲湯▼集▲團▼有限公司 センサキャリブレーション方法及び装置、記憶媒体、キャリブレーションシステム並びにプログラム製品
JP2021085679A (ja) * 2019-11-25 2021-06-03 トヨタ自動車株式会社 センサ軸調整用ターゲット装置
KR102498435B1 (ko) * 2021-01-28 2023-02-13 경북대학교 산학협력단 자율주행 자동차의 센서 시스템 교정 장치 및 그 방법
KR20220109537A (ko) * 2021-01-28 2022-08-05 경북대학교 산학협력단 자율주행 자동차의 센서 시스템 교정 장치 및 그 방법
CN115453476B (zh) * 2022-11-10 2023-02-07 齐鲁云商数字科技股份有限公司 双侧雷达设备校准定位系统及立体探测融合方法
CN115453476A (zh) * 2022-11-10 2022-12-09 齐鲁云商数字科技股份有限公司 双侧雷达设备校准定位系统及立体探测融合方法

Also Published As

Publication number Publication date
JP4918676B2 (ja) 2012-04-18

Similar Documents

Publication Publication Date Title
JP4918676B2 (ja) 校正装置および校正方法
JP7398506B2 (ja) ローカライゼーション基準データを生成及び使用する方法及びシステム
US11763571B2 (en) Monocular cued detection of three-dimensional structures from depth images
JP4406381B2 (ja) 障害物検出装置及び方法
JP7056540B2 (ja) センサ校正方法およびセンサ校正装置
JP5322789B2 (ja) モデル生成装置、モデル生成方法、モデル生成プログラム、点群画像生成方法および点群画像生成プログラム
US10602059B2 (en) Method for generating a panoramic image
US10643349B2 (en) Method of calibrating a camera and a laser scanner
CN108692719B (zh) 物体检测装置
JP2022505772A (ja) 構造化光照明付き飛行時間型センサ
CN113673282A (zh) 目标检测方法和装置
JP2004530144A (ja) 画像情報を提供する方法
JP6552448B2 (ja) 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラム
US20190152487A1 (en) Road surface estimation device, vehicle control device, and road surface estimation method
KR20150069927A (ko) 카메라 및 레이저 센서의 캘리브레이션 장치 및 캘리브레이션 방법
CN107851390B (zh) 台阶检测装置及台阶检测方法
JP2018189463A (ja) 車両位置推定装置及びプログラム
JP2023029441A (ja) 計測装置、計測システムおよび車両
WO2005027739A1 (ja) 距離画像計測機能を有する撮像装置及び内視鏡装置
JP3807583B2 (ja) 道路領域判定装置
JP2006323693A (ja) 処理装置、画像処理方法および画像処理プログラム
JP2007233440A (ja) 車載用画像処理装置
JP5580062B2 (ja) 障害物検知警報装置
JP7207889B2 (ja) 測距装置および車載カメラシステム
JP2021182254A (ja) 車載表示システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110524

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110525

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110824

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111227

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150