JP2005025497A - Sign recognizing device - Google Patents
Sign recognizing device Download PDFInfo
- Publication number
- JP2005025497A JP2005025497A JP2003190078A JP2003190078A JP2005025497A JP 2005025497 A JP2005025497 A JP 2005025497A JP 2003190078 A JP2003190078 A JP 2003190078A JP 2003190078 A JP2003190078 A JP 2003190078A JP 2005025497 A JP2005025497 A JP 2005025497A
- Authority
- JP
- Japan
- Prior art keywords
- sign
- angle
- dimensional object
- target
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、路上の道路標識などの標識を検出して内容を認識する標識認識装置に関する。
【0002】
【従来の技術】
カメラにより撮像した画像に基づいて、道路標識を認識する装置が知られている(特許文献1参照)。この従来の標識認識装置では、撮像画像から標識の特定色を抽出して抽出画像とし、抽出画像の形状に対してパターンマッチング処理を施すことにより、標識を認識している。
【0003】
【特許文献1】
特開平9−185703号公報
【0004】
【発明が解決しようとする課題】
しかしながら、撮像画像中には、道路上のペイントなどが示されている場合もあるので、従来の認識装置では、撮像画像から標識の特定色を抽出した時に、道路上のペイント部分が抽出される場合もある。従って、路面上のペイント等のように、平面物に対してもパターンマッチング処理を行うことになり、演算負荷の増大、または、演算速度の速い高価な演算装置が必要となるという問題があった。
【0005】
本発明は、撮像画像中の立体物を特定して、特定した立体物に対して標識の内容を認識するための処理を行う標識認識装置を提供する。
【0006】
【課題を解決するための手段】
本発明による標識認識装置は、信号を送出して物体に反射して戻ってきた反射信号に基づいて、立体物の位置を検出し、検出した立体物の位置に基づいて、撮像画像上における検出された立体物の位置を特定し、画像中において特定された立体物の位置の部分に対して、標識の内容を認識するための処理を行うことを特徴とする。
【0007】
【発明の効果】
本発明による標識認識装置によれば、撮像画像中の立体物を特定して、特定した立体物に対して標識の内容を認識するための処理を行うので、標識を認識するための演算負荷を軽減することができる。
【0008】
【発明の実施の形態】
図1は、本発明による標識認識装置を車両1に搭載した一実施の形態を示す図である。一実施の形態における標識認識装置は、カメラ2と、レーダ3と、反射面角度推定装置4と、処理装置5とを備える。カメラ2は、車両1の室内天井1aの前方中央部に取り付けられ、フロントウインドウ1bを通して、車両前方を撮影する。カメラ2は、高感度撮像が可能なCCDまたはCMOSセンサを備えたカメラを用いることが好ましい。なお、カメラ2の光軸は、車両直進方向と一致させておくことが好ましい。
【0009】
レーダ3は、車両前方に取り付けられ、車両前方にレーザ光を出射し、物標までの距離、反射光が戻ってくる方向、反射角度および反射強度を検出する。物標までの距離は、レーザ光を出射してから反射光が戻ってくるまでの時間に基づいて算出する。図2は、レーダ3の詳細な構成を示す図である。レーダ3は、投光窓41と、受光窓42と、ミラー43と、モータ44と、受光素子(PD)45と、レーザ発光素子(LD)46と、増幅回路47と、レーザ発光素子46を駆動するLD駆動回路48と、モータ44を駆動するモータ駆動回路49と、CPU50とを備える。
【0010】
レーザ発光素子46は、LD駆動回路48からの指令に基づいて、近赤外線波長域のレーザ光を送出する。レーザ発光素子46から送出されたレーザ光は、反射ミラー43にて反射されて、投光窓41から射出される。このとき、モータ駆動回路49は、モータ44を駆動して、上下左右方向に回転する反射ミラー43を所定の角度分解能で回転させることにより、所定角度範囲に水平方向にn本のビーム、垂直方向にm本のビームを送出する。投光窓41から射出されたレーザ光は、先行車などの物標に反射し、受光窓42を介して、受光素子45で受光される。受光素子45で受光された受光信号は、増幅回路47で増幅されて、CPU50に送られる。
【0011】
CPU50は、増幅回路47、LD駆動回路48およびモータ駆動回路49を制御することにより、レーザ発光素子45からレーザ光を送出させて、受光素子45で受光される受光信号の強度を時間分解して記録し、前方物標との距離や検出角度、相対速度を算出する。CPU50は、これらの計算結果と、図示しない車速センサから出力される車速信号および後述する車両挙動推定処理部20にて算出される車両のピッチ角とに基づいて、車速信号に基づいて算出される自車両の速度、および、垂直方向の物標検出角度を補正して、物標の高さを算出する。CPU50は、また、自車両の速度と、物標との相対速度とに基づいて、検出された物標が静止物であるか否かを判定する。
【0012】
物標の高さの算出について、図3,図4を用いて補足しておく。図3は、レーダ3の上下方向のピッチ角が0である場合に、レーダ3から上下方向に3本のレーザビームを送出している様子を示す図である。この状態から、図4に示すように、レーダ3が上方向に傾くと、3本のビームで検知するエリアも変化する。従って、レーダ3の上下方向の傾き(車両のピッチ角)に基づいて、それぞれのビームで検出された物標の高さを補正する必要があり、CPU50は、補正後の高さを算出する。
【0013】
レーダ3の構成について補足しておく。受光窓42には受光レンズ(不図示)が組み込まれており、受光レンズで集光された光が受光素子45に入力される。また、レーザ発光素子45の前方には図示しない投光レンズが設けられており、レーザ発光素子45から送出されるレーザ光は、投光レンズを介して所定の角度に広げられる。投光窓41にも図示しない投光レンズが組み込まれているので、レーザ発光素子45から送出されたレーザ光は、投光窓41の投光レンズにて所定の角度に細められて送出される。投光レンズで広げられる所定の角度は、走査を行うエリア広さ、要求分解能、モータ性能、装置の要求サイズ等に基づいて決められる。レーダ装置3のこのような構造により、投光窓41から投光されるレーザ光は一定の面積を持つ太いレーザ光により走査することが可能となり、汚れや雨に強いレーザ光を得ることができる。
【0014】
レーザ光の強度分布を図5に示す。図5(a)は、上述した一定の面積を持つレーザ光の強度が同じ部分を結んだ分布を示す図であり、図5(b)は、図5(a)の中心線で切断した断面での強度を示す図である。図5(b)に示すように、レーザ光の中心部分が最も強度が強い。
【0015】
反射面角度推定装置4は、レーダ3により検出された物標(標識)が自車両に向いている角度(反射面角度)を推定する。反射面角度の推定方法について説明する。図6は、物標に対してレーダ3からレーザ光を照射する様子を示す図である。物標に照射されたレーザ光は、レーダ3と物標とが正対していなければ、散乱光が観測される。物標を完全散乱面であると仮定すると、観測されるレーザ光(反射光)の強度Iは、ランバート(Lambert)の余弦則より、次式(1)により表される。
I=Kd×Ii×cosα …(1)
ただし、Kdは散乱反射率、Iiは物標入射光の強度、αは、図6に示すように、物標の法線と入射レーザ光との間の成す角である。なお、完全散乱面とは、反射光を見た場合に、どの方向から見ても輝度の等しい表面をいう。
【0016】
ここで、図6に示すように、レーダ3の右側において物標が検出された場合について考察する。この場合、レーダ3の左側から射出されたレーザ光は、物標の左側に当たって反射して戻ってくるのに対して、右側から射出されたレーザ光は、物標の右側で反射して戻ってくる。物標は、レーダ3の右側に位置しているので、物標の左側で反射する光の方が、物標の右側で反射する光よりも早く戻ってくる。また、物標の右側に照射される面積の方が、左側に照射される面積よりも広いので、反射光の強度が低下していく時間は、物標の右側で反射して戻ってくる光の方が長い。
【0017】
図7は、物標に反射して戻ってくる光の強度の時間変化を示す図である。反射光の強度が所定のしきい値(例えば、最大値の10%)から最大値となるのに要する時間をt1、最大値から所定のしきい値に低下するまでに要する時間をt2とすると、物標がレーダ3の右側に位置している場合には、上述した理由により、t1<t2の関係が成り立つ。また、t1とt2との比は、レーダ3に対する物標の位置を示す角度αにより決定される。従って、t1とt2とを計測して、両者の比を演算することにより、物標の反射面角度を算出することができる。なお、t1とt2との比と、物標の反射面角度との関係は、実験等により予め求めておく。
【0018】
図8は、物標が3つ存在する場合に、レーダ3からレーザ光を射出して、反射光を受光する様子を示した図である。物標1がレーダ3に最も近い位置に存在し、物標3がレーダ3から最も遠い位置に存在している。図9は、図8に示す物標1〜3で反射して戻ってきた光の強度の時間変化を示す図である。図9に示すように、物標1に対して、上述した時間t1,t2をt1_1,t2_1、物標2に対して、t1_2,t2_2、物標3に対して、t1_3,t2_3とそれぞれ表す。
【0019】
図9に示すように、物標の位置がレーダ3から遠ざかる程、時間t1とt2との比が1:1に近くなる。この時間t1とt2との和(t1+t2)は、レーザ光の広がり角、および、レーダ3と物標との距離に依存する。従って、遠方に位置する物標3に対するレーザ光の入射角度αは小さくなるが、レーダ3からの距離は長くなるので、必ずしもt1_3+t2_3の大きさがt1_1+t2_1より短くなるわけではない。
【0020】
上述した時間t1,t2の大きさ、および、t1とt2との比の関係は、物標がレーダ3の左側に存在する場合にも同様である。レーダ3のどちら側に物標が存在するかは、反射光の戻ってくる方向に基づいて判断する。
【0021】
図10は、処理装置5の詳細な構成を示す図である。処理装置5は、画像メモリ10と、車両挙動推定処理部20と、標識検出部30とを備える。画像メモリ10には、カメラ2によって所定時間(例えば、16msec)ごとに撮像された画像が格納される。
【0022】
車両挙動推定処理部20は、内部で行う処理機能上、白線検出部21と、車両挙動推定部22と、車両進行方向推定部23とを備える。白線検出部21は、画像メモリ10に格納されている画像に基づいて、道路上の白線を検出する。白線の検出は、例えば、画像の濃淡エッジに基づいて画像の中の特徴パターンの位置を認識する方法や、画像中の特徴パターンと予め記憶している白線の特徴パターンとを照合して認識する方法など、既知の方法を採用することができる。検出された白線が図11に示すように、道路の境界線である2本のレーンマークL1,L2である場合には、白線検出部21は、2本のラインL1,L2の画像上の座標値を取得する。
【0023】
車両挙動推定部22は、白線検出部21で検出された白線に基づいて、カメラ2の路面に対するピッチ角を算出する。ピッチ角の算出は既知の方法を用いることができる。例えば、車両が静止した状態において撮像された2本のレーンマークが図11に示すものであるとすると、車両の前部が持ち上がった場合(カメラ2の光軸が上向き)には、開いて見えるレーンマークL1,L2の開き具合がさらに大きくなる。逆に、車両の後部が持ち上がった場合(カメラ2の光軸が下向き)には、図11に示す2本のレーンマークL1,L2の開き具合が小さくなる(平行に近づく)。この原理に基づいて、車両のピッチ角、すなわち、カメラ2の路面に対するピッチ角を算出することができる(特開2002−163641号公報参照)。
【0024】
車両進行方向推定部23は、白線検出部21で検出された白線に基づいて、車線(白線)に対する自車両1のヨー角、および、道路の曲率を算出する。例えば、自車両1のヨー角および道路の曲率などのパラメータを含む道路モデルを適用し、カルマンフィルタや最小二乗法を用いるなどの既知の方法により推定することができる(特開2002−236912号公報参照)。なお、車両挙動推定部22で算出されるピッチ角を車両進行方向推定部23で算出してもよい。
【0025】
標識検出部30は、内部で行う処理機能上、物標特定部31と、物標座標推定部32と、パターンマッチング部33とを備える。物標特定部31は、車両進行方向推定部23により推定されたヨー角および道路の曲率と、レーダ3により検出された物標の位置および方向と、反射面角度推定装置4により検出された物標の反射面角度とに基づいて、自車線向けの標識を検出する。
【0026】
図12を用いて、自車線向けの標識を検出する具体的な方法について説明する。図12は、自車両1がカーブに進入する様子を示しており、図中には、物標A,物標B,物標Cの3つの物標が示されている。通常、自車線向けの標識は、道路にほぼ直角に設置されており、道路が曲率を有する場合には、その地点での道路にほぼ直角に、すなわち、標識の面が標識とカーブの中心とを結ぶ線分とほぼ平行になるように設置されている。従って、標識の面が標識とカーブの中心とを結ぶ線分とほぼ平行である場合には、自車線向けの標識であると判断することができる。なお、標識とカーブの中心とを結ぶ線分と、標識の面を示す線分との成す角が所定の角度以下であれば、自車線向けの標識であると判断してもよい。
【0027】
路上の区分線(車線)は、道路に平行に引かれているので、区分線の形状が分かれば、道路の形状を推定することができる。車両進行方向推定部23により推定される自車両のヨー角および道路の曲率に基づいて、物標A,B,Cの地点の道路の形状を類推するとともに、物標までの距離、方向、高さに基づいて、物標(標識)の位置を特定し、道路の曲率中心と物標とを結んだ線の自車両に対する角度を計算する。この角度と、反射面角度推定装置4により算出された反射面角度とが一致すれば、対象物標が自車線向けの標式であると判断することができる。このような方法により、図12に示す物標A,B,Cのうち、物標Bおよび物標Cが自車線向けの標識であると判断する。
【0028】
物標座標推定部32は、車両挙動推定部22により推定された車両1のピッチ角と、レーダ3により検出された物標の高さ、距離とに基づいて、自車線向けの標識であると判定された物標の画面上での座標を求める。具体的には、物標特定部21により自車線向けの標識であると判定された物標座標を画像メモリ10上に射影を行い、パターンマッチング処理部33にてパターンマッチを行うための中心座標を求める。ここでの射影処理とは、レーダ3により検出された実空間座標上にある立体物がカメラ2によりどのように写るのか計算する処理のことである。
【0029】
図13は、カメラ2および物標Bを横方向から見た図である。カメラ2のレンズ2aと撮像素子2bとの距離、すなわち、レンズ2aの焦点距離をf、カメラ2の高さをh、物標Bの高さをH、カメラ2のレンズ2aから物標Bまでの距離をL、カメラ2のピッチ角をθ1、カメラ2の高さhの位置から物標Bを見た時の角度をθ2、撮像素子2b上に射影される座標(y座標)をyとすると、次式(2)〜(4)の関係が成り立つ。なお、座標の単位は、画素数であり、焦点距離fは、実空間上の距離を画素数で表したもの、つまり、実寸法を1画素当たりの大きさで割った値である。
tan(θ1+θ2)=y/f …(2)
tan(θ1+θ2)=(tanθ1+tanθ2)/(1−tanθ1×tanθ2) …(3)
tan(θ2)=(H−h)/L …(4)
【0030】
θ1およびθ2の値が0に近い場合には、1−tanθ1×tanθ2≒1と近似できるので、式(3)に式(2),(4)をそれぞれ代入すると、次式(5)が得られる。
tan−1(y/f)=tan−1((H−h)/L)+θ1 …(5)
【0031】
図14は、カメラ2および物標Bを上方向から見た図である。この場合、撮像素子2b上に射影される座標(x座標)xは、次式(6)により表される。
x=f・tan(θb) …(6)
ただし、θbは、カメラ2(レンズ2a)の光軸と物標Bとの間の角度である。
【0032】
パターンマッチング処理部33は、物標座標推定部32により算出された座標に対応する部分、すなわち、カメラ2により撮像された画像において、自車線向きの標識であると判定された部分と、所定のテンプレートとに対してパターンマッチング処理を施して、標識の内容を認識する。なお、パターンマッチングの方法としては、標識に使用される特定の色の組み合わせを有していることに基づいて行う方法や、標識の形状に着目したパターンマッチングによる認識手法が用いられる。すなわち、標識の色の組み合わせや形状をテンプレートとして画像とマッチング処理を行い、標識の種類や文字を判別する。なお、標識は見る角度によって形状が変化するので、反射面角度推定装置4にて算出された反射面角度に基づいて補正されたテンプレートを用いる。
【0033】
パターンマッチング処理による標識の認識結果は、ナビゲーション装置などの外部装置に出力される。例えば、ナビゲーション装置に標識の表示を行うことにより、運転者に対して注意喚起を促すことができる。また、標識表示をナビゲーション情報の更新、車両の自動制御に用いることもできる。
【0034】
一実施の形態における標識認識装置によれば、レーダ3からレーザ光を送出して、物標に反射して戻ってきた反射光に基づいて、立体物の位置を検出し、検出した立体物の位置に基づいて、カメラ2により撮像された画像上における立体物の位置を特定し、画像上において特定した立体物の部分に対して、標識の内容を認識するための処理(パターンマッチング処理)を行う。これにより、路面のペイント表示などの平面物に対して、標識の内容を認識するための処理を行うことが無くなるので、演算負荷を軽減することができる。
【0035】
また、一実施の形態における標識認識装置によれば、撮像画像に基づいて、道路形状を推定し、レーダ3から送出されたレーザ光の反射光に基づいて、立体物の反射面の角度を算出し、推定された道路形状と算出した反射面角度とに基づいて、自車線向きの標識を検出する。この自車線向けの標識に対して、標識の内容を認識するための処理(パターンマッチング処理)を行うので、他の車線向けの標識に対して、標識の内容を認識するための処理を行うことが無くなるので、演算負荷を軽減することができる。
【0036】
本発明は、上述した一実施の形態に限定されることはない。例えば、立体物の検出に際し、レーザ光を送出するレーダを用いたが、電波や超音波等の他の信号を送出するレーダを用いてもよい。
【0037】
また、車両1のピッチ角、車線(白線)に対する車両1のヨー角、道路の曲率の算出方法も上述した方法に限定されることはなく、他の方法を用いることができる。
【0038】
特許請求の範囲の構成要素と一実施の形態の構成要素との対応関係は次の通りである。すなわち、カメラ10が撮影手段を、レーダ3および物標特定部31が位置検出手段を、物標座標推定部32が位置特定手段を、パターンマッチング処理部33が認識手段を、レーダ3および反射角度推定装置4が反射面角度算手段を、物標特定部31が自車線標識判定手段をそれぞれ構成する。なお、本発明の特徴的な機能を損なわない限り、各構成要素は上記構成に限定されるものではない。
【図面の簡単な説明】
【図1】本発明による標識認識装置を車両1に搭載した一実施の形態を示す図
【図2】レーダ3の詳細な構成を示す図
【図3】レーダの上下方向のピッチ角が0である場合に、レーダから上下方向に3本のレーザビームを送出している様子を示す図
【図4】レーダが上下方向に傾いた時にレーザビームを送出する様子を示す図
【図5】図5(a)は、上述した一定の面積を持つレーザ光の強度が同じ部分を結んだ分布を示す図であり、図5(b)は、図5(a)の中心線で切断した断面での強度を示す図
【図6】物標に対してレーダからレーザ光を照射する様子を示す図
【図7】物標に反射して戻ってくる光の強度の時間変化を示す図
【図8】物標が3つ存在する場合に、レーダからレーザ光を射出して、反射光を受光する様子を示した図
【図9】図13に示す物標1〜3で反射して戻ってきた光の強度の時間変化を示す図
【図10】処理装置5の詳細な構成を示す図
【図11】白線検出部21により検出された2本の白線L1,L2を示す図
【図12】自車両がカーブに進入する様子を示す図
【図13】カメラおよび物標Bを横方向から見た図
【図14】カメラおよび物標Bを上方向から見た図
【符号の説明】
1…車両、1a…天井、1b…フロントウインドウ、2…カメラ、3…レーダ、4…反射面角度推定装置、5…処理装置、10…画像メモリ、20…車両挙動推定処理部、21…白線検出部、22…車両挙動推定部、23…車両進行方向推定部、30…標識検出部、31…物標特定部、32…物標座標推定部、33…パターンマッチング処理部、41…投光窓、42…受光窓、43…反射ミラー、44…モータ、45…受光素子、46…レーザ発光素子、47…増幅回路、48…LD駆動回路、49…モータ駆動回路、50…CPU[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a sign recognition device that recognizes the contents by detecting signs such as road signs on a road.
[0002]
[Prior art]
An apparatus that recognizes a road sign based on an image captured by a camera is known (see Patent Document 1). In this conventional sign recognition device, a sign is recognized by extracting a specific color of the sign from the captured image to obtain an extracted image, and performing pattern matching processing on the shape of the extracted image.
[0003]
[Patent Document 1]
Japanese Patent Laid-Open No. 9-185703
[Problems to be solved by the invention]
However, since there are cases where paint on the road is shown in the captured image, the conventional recognition apparatus extracts the paint portion on the road when the specific color of the sign is extracted from the captured image. In some cases. Therefore, pattern matching processing is also performed on a flat object such as paint on the road surface, and there is a problem that an expensive calculation device with a high calculation speed or a high calculation speed is required. .
[0005]
The present invention provides a sign recognition device that identifies a three-dimensional object in a captured image and performs processing for recognizing the content of the sign for the specified three-dimensional object.
[0006]
[Means for Solving the Problems]
The sign recognition device according to the present invention detects a position of a three-dimensional object based on a reflected signal that is sent back from a signal and reflected by an object, and detection on a captured image is performed based on the detected position of the three-dimensional object. The position of the identified three-dimensional object is specified, and processing for recognizing the content of the sign is performed on the position of the specified three-dimensional object in the image.
[0007]
【The invention's effect】
According to the sign recognition device according to the present invention, the three-dimensional object in the captured image is specified, and the processing for recognizing the contents of the sign is performed on the specified three-dimensional object. Therefore, the calculation load for recognizing the sign is reduced. Can be reduced.
[0008]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a diagram showing an embodiment in which a sign recognition device according to the present invention is mounted on a
[0009]
The
[0010]
The laser
[0011]
The
[0012]
The calculation of the height of the target will be supplemented with reference to FIGS. FIG. 3 is a diagram illustrating a state in which three laser beams are transmitted in the vertical direction from the
[0013]
The configuration of the
[0014]
FIG. 5 shows the intensity distribution of the laser beam. FIG. 5A is a diagram showing a distribution in which the above-mentioned laser beams having a certain area have the same intensity, and FIG. 5B is a cross section taken along the center line of FIG. It is a figure which shows the intensity | strength in. As shown in FIG. 5B, the central portion of the laser beam has the strongest intensity.
[0015]
The reflection surface angle estimation device 4 estimates the angle (reflection surface angle) at which the target (marker) detected by the
I = Kd × Ii × cos α (1)
Where Kd is the scattering reflectance, Ii is the intensity of the target incident light, and α is the angle formed between the normal of the target and the incident laser light, as shown in FIG. The perfect scattering surface means a surface having the same brightness when viewed from any direction when the reflected light is viewed.
[0016]
Here, consider a case where a target is detected on the right side of the
[0017]
FIG. 7 is a diagram illustrating a temporal change in the intensity of light that is reflected back from the target. Assuming that the time required for the intensity of the reflected light to reach a maximum value from a predetermined threshold value (for example, 10% of the maximum value) is t1, and the time required for the reflected light intensity to decrease from the maximum value to the predetermined threshold value is t2. When the target is located on the right side of the
[0018]
FIG. 8 is a diagram showing a state in which laser light is emitted from the
[0019]
As shown in FIG. 9, as the target position is further away from the
[0020]
The relationship between the magnitudes of the times t1 and t2 and the ratio between t1 and t2 is the same when the target is on the left side of the
[0021]
FIG. 10 is a diagram illustrating a detailed configuration of the
[0022]
The vehicle behavior estimation processing unit 20 includes a white
[0023]
The vehicle
[0024]
The vehicle traveling
[0025]
The sign detection unit 30 includes a
[0026]
A specific method for detecting a sign for the own lane will be described with reference to FIG. FIG. 12 shows a state in which the
[0027]
Since the dividing line (lane) on the road is drawn parallel to the road, if the shape of the dividing line is known, the shape of the road can be estimated. Based on the yaw angle of the vehicle and the curvature of the road estimated by the vehicle traveling
[0028]
The target coordinate
[0029]
FIG. 13 is a view of the
tan (θ 1 + θ 2 ) = y / f (2)
tan (θ 1 + θ 2 ) = (tan θ 1 + tan θ 2 ) / (1−tan θ 1 × tan θ 2 ) (3)
tan (θ 2 ) = (H−h) / L (4)
[0030]
When the values of θ 1 and θ 2 are close to 0, it can be approximated as 1−tan θ 1 × tan θ 2 ≈1, so when substituting Equations (2) and (4) into Equation (3), the following equation ( 5) is obtained.
tan −1 (y / f) = tan −1 ((H−h) / L) + θ 1 (5)
[0031]
FIG. 14 is a view of the
x = f · tan (θb) (6)
Here, θb is an angle between the optical axis of the camera 2 (lens 2a) and the target B.
[0032]
The pattern
[0033]
The sign recognition result obtained by the pattern matching process is output to an external device such as a navigation device. For example, the driver can be alerted by displaying a sign on the navigation device. The sign display can also be used for updating navigation information and automatically controlling the vehicle.
[0034]
According to the sign recognition apparatus in the embodiment, the position of the three-dimensional object is detected based on the reflected light that is sent back from the
[0035]
Further, according to the sign recognition device in the embodiment, the road shape is estimated based on the captured image, and the angle of the reflecting surface of the three-dimensional object is calculated based on the reflected light of the laser beam transmitted from the
[0036]
The present invention is not limited to the embodiment described above. For example, in detecting a three-dimensional object, a radar that transmits laser light is used, but a radar that transmits other signals such as radio waves and ultrasonic waves may be used.
[0037]
Further, the calculation method of the pitch angle of the
[0038]
The correspondence between the constituent elements of the claims and the constituent elements of the embodiment is as follows. That is, the
[Brief description of the drawings]
FIG. 1 is a diagram showing an embodiment in which a sign recognition device according to the present invention is mounted on a vehicle. FIG. 2 is a diagram showing a detailed configuration of a radar. FIG. FIG. 4 is a diagram showing a state in which three laser beams are transmitted from the radar in the vertical direction in some cases. FIG. 4 is a diagram illustrating a state in which the laser beam is transmitted when the radar is tilted in the vertical direction. (A) is a figure which shows the distribution which tied the part with the same intensity | strength of the laser beam which has the above-mentioned fixed area, FIG.5 (b) is the cross section cut | disconnected by the centerline of Fig.5 (a). FIG. 6 is a diagram showing the intensity of the laser beam irradiated from the radar to the target. FIG. 7 is a diagram showing the time variation of the intensity of the light reflected back from the target. Diagram showing how the laser beam is emitted from the radar and the reflected light is received when there are three targets. 9 is a diagram showing a temporal change in the intensity of light reflected by the
DESCRIPTION OF
Claims (4)
信号を送出し、物体に反射して戻ってきた反射信号に基づいて、立体物の位置を検出する位置検出手段と、
前記位置検出手段により検出した立体物の位置に基づいて、前記撮像手段により撮像された画像上における前記検出された立体物の位置を特定する位置特定手段と、
画像上において前記位置特定手段により特定された立体物の位置に対応する部分に対して、標識の内容を認識するための処理を行う認識処理手段とを備えることを特徴とする標識認識装置。An imaging means mounted on the vehicle for imaging the surroundings of the vehicle;
A position detection means for transmitting a signal and detecting the position of the three-dimensional object based on the reflected signal returned by being reflected by the object;
Position specifying means for specifying the position of the detected three-dimensional object on the image captured by the imaging means based on the position of the three-dimensional object detected by the position detecting means;
A sign recognition apparatus comprising: a recognition processing means for performing a process for recognizing the contents of the sign for a portion corresponding to the position of the three-dimensional object specified by the position specifying means on the image.
前記撮像手段により撮像された画像に基づいて、道路形状を推定する道路形状推定手段と、
前記位置検出手段から送出された信号が物体に反射して戻ってきた反射信号に基づいて、立体物の反射面の角度を算出する反射面角度算出手段と、
前記道路形状推定手段により推定された道路形状と、前記反射面角度算出手段により算出された反射面の角度とに基づいて、前記位置検出手段により検出された立体物が自車両の走行車線向けの標識であると判定する自車線標識判定手段とをさらに備え、
前記位置特定手段は、前記自車線標識判定手段により判定された標識の位置に基づいて、前記撮像手段により撮像された画像上における前記標識の位置を特定し、
前記認識処理手段は、前記位置特定手段により特定された標識の位置の部分に対して、標識の内容を認識するための処理を行うことを特徴とする標識認識装置。In the sign recognition device according to claim 1,
Road shape estimation means for estimating a road shape based on an image captured by the imaging means;
Reflecting surface angle calculating means for calculating the angle of the reflecting surface of the three-dimensional object based on the reflected signal returned from the object reflected from the position detecting means;
Based on the road shape estimated by the road shape estimating means and the angle of the reflecting surface calculated by the reflecting surface angle calculating means, the three-dimensional object detected by the position detecting means is for the traveling lane of the host vehicle. The vehicle further comprises own lane sign judging means for judging that it is a sign,
The position specifying means specifies the position of the sign on the image captured by the imaging means based on the position of the sign determined by the own lane sign determining means,
The sign recognition apparatus characterized in that the recognition processing means performs a process for recognizing the contents of the sign with respect to the position of the sign specified by the position specifying means.
前記反射面角度算出手段は、前記反射信号の強度が所定のしきい値以上となってから最大値となるまでの時間と、前記反射信号の強度が最大値となってから所定のしきい値以下となるまでの時間との比に基づいて、立体物の反射面の角度を算出することを特徴とする標識認識装置。The sign recognition apparatus according to claim 2,
The reflecting surface angle calculating means includes a time from when the intensity of the reflected signal reaches a maximum value to a maximum value, and a predetermined threshold value after the intensity of the reflected signal reaches a maximum value. A sign recognition apparatus that calculates an angle of a reflecting surface of a three-dimensional object based on a ratio to a time until the following.
前記道路形状推定手段は、自車両が走行している車線の曲率中心を検出し、
前記自車線標識判定手段は、前記道路形状推定手段により検出された道路の曲率中心と立体物とを結ぶ線分と、前記反射面角度算出手段により算出された反射面の角度に基づいて求められる反射面を示す線分との成す角度が所定の角度以下の場合に、検出された立体物が自車両の走行車線向けの標識であると判定することを特徴とする標識認識装置。In the sign recognition device according to claim 2 or 3,
The road shape estimation means detects the center of curvature of the lane in which the host vehicle is traveling,
The own lane sign determination unit is obtained based on a line segment connecting the center of curvature of the road detected by the road shape estimation unit and the three-dimensional object and the angle of the reflection surface calculated by the reflection surface angle calculation unit. A sign recognition apparatus, characterized in that, when an angle formed by a line segment indicating a reflecting surface is equal to or smaller than a predetermined angle, the detected three-dimensional object is determined as a sign for a traveling lane of the host vehicle.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003190078A JP4321142B2 (en) | 2003-07-02 | 2003-07-02 | Sign recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003190078A JP4321142B2 (en) | 2003-07-02 | 2003-07-02 | Sign recognition device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005025497A true JP2005025497A (en) | 2005-01-27 |
JP4321142B2 JP4321142B2 (en) | 2009-08-26 |
Family
ID=34188065
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003190078A Expired - Fee Related JP4321142B2 (en) | 2003-07-02 | 2003-07-02 | Sign recognition device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4321142B2 (en) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009053059A (en) * | 2007-08-27 | 2009-03-12 | Mitsubishi Electric Corp | Object specifying device, object specifying method, and object specifying program |
US7898437B2 (en) | 2006-05-17 | 2011-03-01 | Toyota Jidosha Kabushiki Kaisha | Object recognition device |
JP2012098199A (en) * | 2010-11-04 | 2012-05-24 | Aisin Aw Co Ltd | Reference pattern information generation device, method, and program, and general-vehicle position specification apparatus |
JP2012185076A (en) * | 2011-03-07 | 2012-09-27 | Denso Corp | Speed limit value notification device and speed limit value notification system |
JP2012238245A (en) * | 2011-05-12 | 2012-12-06 | Fuji Heavy Ind Ltd | Environment recognition device and environment recognition method |
WO2016189811A1 (en) * | 2015-05-22 | 2016-12-01 | パナソニックIpマネジメント株式会社 | Road information sensing device and road information sensing method |
JP2017036980A (en) * | 2015-08-10 | 2017-02-16 | 日産自動車株式会社 | Vehicle position estimation device and vehicle position estimation method |
JP2017101944A (en) * | 2015-11-30 | 2017-06-08 | パイオニア株式会社 | Speed calculation device, control method, program, and storage medium |
JP2017527876A (en) * | 2014-07-25 | 2017-09-21 | コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH | Method for operating a vehicle assistant system and assistant system |
WO2017168654A1 (en) * | 2016-03-30 | 2017-10-05 | パイオニア株式会社 | Measurement device, measurement method, and program |
US10147006B2 (en) | 2015-12-01 | 2018-12-04 | Denso Corporation | Drive support system |
JPWO2018042628A1 (en) * | 2016-09-02 | 2019-06-24 | パイオニア株式会社 | Speed calculation device, control method, program and storage medium |
JP2019194900A (en) * | 2012-09-05 | 2019-11-07 | ウェイモ エルエルシー | Construction zone detection using plural information sources |
-
2003
- 2003-07-02 JP JP2003190078A patent/JP4321142B2/en not_active Expired - Fee Related
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7898437B2 (en) | 2006-05-17 | 2011-03-01 | Toyota Jidosha Kabushiki Kaisha | Object recognition device |
JP2009053059A (en) * | 2007-08-27 | 2009-03-12 | Mitsubishi Electric Corp | Object specifying device, object specifying method, and object specifying program |
JP2012098199A (en) * | 2010-11-04 | 2012-05-24 | Aisin Aw Co Ltd | Reference pattern information generation device, method, and program, and general-vehicle position specification apparatus |
JP2012185076A (en) * | 2011-03-07 | 2012-09-27 | Denso Corp | Speed limit value notification device and speed limit value notification system |
JP2012238245A (en) * | 2011-05-12 | 2012-12-06 | Fuji Heavy Ind Ltd | Environment recognition device and environment recognition method |
JP2019194900A (en) * | 2012-09-05 | 2019-11-07 | ウェイモ エルエルシー | Construction zone detection using plural information sources |
JP2017527876A (en) * | 2014-07-25 | 2017-09-21 | コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH | Method for operating a vehicle assistant system and assistant system |
US10339803B2 (en) | 2014-07-25 | 2019-07-02 | Conti Temic Microelectronic Gmbh | Method for operating an assistance system of a motor vehicle and assistance system |
CN107408337A (en) * | 2015-05-22 | 2017-11-28 | 松下知识产权经营株式会社 | Road information detection device and road information detection method |
JPWO2016189811A1 (en) * | 2015-05-22 | 2018-03-29 | パナソニックIpマネジメント株式会社 | Road information detection device and road information detection method |
EP3300052A4 (en) * | 2015-05-22 | 2018-05-30 | Panasonic Intellectual Property Management Co., Ltd. | Road information sensing device and road information sensing method |
WO2016189811A1 (en) * | 2015-05-22 | 2016-12-01 | パナソニックIpマネジメント株式会社 | Road information sensing device and road information sensing method |
US10551494B2 (en) | 2015-05-22 | 2020-02-04 | Panasonic Intellectual Property Management Co., Ltd. | Road information detection apparatus and road information detection method |
CN107408337B (en) * | 2015-05-22 | 2020-06-16 | 松下知识产权经营株式会社 | Road information detection device and road information detection method |
JP2017036980A (en) * | 2015-08-10 | 2017-02-16 | 日産自動車株式会社 | Vehicle position estimation device and vehicle position estimation method |
JP2017101944A (en) * | 2015-11-30 | 2017-06-08 | パイオニア株式会社 | Speed calculation device, control method, program, and storage medium |
US10147006B2 (en) | 2015-12-01 | 2018-12-04 | Denso Corporation | Drive support system |
WO2017168654A1 (en) * | 2016-03-30 | 2017-10-05 | パイオニア株式会社 | Measurement device, measurement method, and program |
JPWO2017168654A1 (en) * | 2016-03-30 | 2019-02-14 | パイオニア株式会社 | Measuring apparatus, measuring method, and program |
JPWO2018042628A1 (en) * | 2016-09-02 | 2019-06-24 | パイオニア株式会社 | Speed calculation device, control method, program and storage medium |
US11203349B2 (en) | 2016-09-02 | 2021-12-21 | Pioneer Corporation | Velocity calculation apparatus, control method, program and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP4321142B2 (en) | 2009-08-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3822515B2 (en) | Obstacle detection device and method | |
JP6471528B2 (en) | Object recognition apparatus and object recognition method | |
US7859652B2 (en) | Sight-line end estimation device and driving assist device | |
JP3123303B2 (en) | Vehicle image processing device | |
US20120008129A1 (en) | Object detection system | |
JP4321142B2 (en) | Sign recognition device | |
JP2015143979A (en) | Image processor, image processing method, program, and image processing system | |
JPH08313632A (en) | Alarm generator, alarm generating method and vehicle mounting alarm generator | |
JP2006258497A (en) | Object recognition apparatus for vehicle | |
KR101180621B1 (en) | Apparatus and method for detecting a vehicle | |
JP2004205398A (en) | Vehicle radar device and optical axis adjustment method of radar | |
JP5082923B2 (en) | Vehicle obstacle detection device | |
JP3612970B2 (en) | Tunnel detection apparatus and vehicle control apparatus using the same | |
JP2001195698A (en) | Device for detecting pedestrian | |
CN108061902A (en) | A kind of method and device of detecting object | |
JP3822417B2 (en) | Vehicle periphery monitoring device | |
JP3070277B2 (en) | Preceding vehicle detection device | |
JP2008056163A (en) | Obstacle detecting device for vehicle | |
JPH04193641A (en) | Obstacle detection device for vehicle | |
JP3988657B2 (en) | Object detection device | |
JP2004271404A (en) | Obstacle detector for vehicle | |
JP2006258507A (en) | Apparatus for recognizing object in front | |
JP4033106B2 (en) | Ranging performance degradation detection device for vehicles | |
JP4151571B2 (en) | In-vehicle obstacle detection device | |
JPH05113482A (en) | Rear end collision prevention device mounted on car |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060529 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090217 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090409 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090512 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090525 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120612 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120612 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130612 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |