JP2005025497A - Sign recognizing device - Google Patents

Sign recognizing device Download PDF

Info

Publication number
JP2005025497A
JP2005025497A JP2003190078A JP2003190078A JP2005025497A JP 2005025497 A JP2005025497 A JP 2005025497A JP 2003190078 A JP2003190078 A JP 2003190078A JP 2003190078 A JP2003190078 A JP 2003190078A JP 2005025497 A JP2005025497 A JP 2005025497A
Authority
JP
Japan
Prior art keywords
sign
angle
dimensional object
target
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003190078A
Other languages
Japanese (ja)
Other versions
JP4321142B2 (en
Inventor
Seiji Takeda
誠司 武田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2003190078A priority Critical patent/JP4321142B2/en
Publication of JP2005025497A publication Critical patent/JP2005025497A/en
Application granted granted Critical
Publication of JP4321142B2 publication Critical patent/JP4321142B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To execute processing to specify a solid object in a picked up image, and to recognize the contents of a sign to the specified solid object. <P>SOLUTION: A laser beam is transmitted from a radar 3, and reflected on a solid object, and the position of the solid object is detected based on the reflected light, and the position of the solid image on an image picked up by a camera 2 is specified based on the detected position of the solid object. Then, pattern matching processing to recognize the contents of a sign is carried out to the part of the position of the solid object in the specified image. Thus, it it not unnecessary to carry out the pattern matching to a paint display part on a road surface, and it is possible to reduce an arithmetic load. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、路上の道路標識などの標識を検出して内容を認識する標識認識装置に関する。
【0002】
【従来の技術】
カメラにより撮像した画像に基づいて、道路標識を認識する装置が知られている(特許文献1参照)。この従来の標識認識装置では、撮像画像から標識の特定色を抽出して抽出画像とし、抽出画像の形状に対してパターンマッチング処理を施すことにより、標識を認識している。
【0003】
【特許文献1】
特開平9−185703号公報
【0004】
【発明が解決しようとする課題】
しかしながら、撮像画像中には、道路上のペイントなどが示されている場合もあるので、従来の認識装置では、撮像画像から標識の特定色を抽出した時に、道路上のペイント部分が抽出される場合もある。従って、路面上のペイント等のように、平面物に対してもパターンマッチング処理を行うことになり、演算負荷の増大、または、演算速度の速い高価な演算装置が必要となるという問題があった。
【0005】
本発明は、撮像画像中の立体物を特定して、特定した立体物に対して標識の内容を認識するための処理を行う標識認識装置を提供する。
【0006】
【課題を解決するための手段】
本発明による標識認識装置は、信号を送出して物体に反射して戻ってきた反射信号に基づいて、立体物の位置を検出し、検出した立体物の位置に基づいて、撮像画像上における検出された立体物の位置を特定し、画像中において特定された立体物の位置の部分に対して、標識の内容を認識するための処理を行うことを特徴とする。
【0007】
【発明の効果】
本発明による標識認識装置によれば、撮像画像中の立体物を特定して、特定した立体物に対して標識の内容を認識するための処理を行うので、標識を認識するための演算負荷を軽減することができる。
【0008】
【発明の実施の形態】
図1は、本発明による標識認識装置を車両1に搭載した一実施の形態を示す図である。一実施の形態における標識認識装置は、カメラ2と、レーダ3と、反射面角度推定装置4と、処理装置5とを備える。カメラ2は、車両1の室内天井1aの前方中央部に取り付けられ、フロントウインドウ1bを通して、車両前方を撮影する。カメラ2は、高感度撮像が可能なCCDまたはCMOSセンサを備えたカメラを用いることが好ましい。なお、カメラ2の光軸は、車両直進方向と一致させておくことが好ましい。
【0009】
レーダ3は、車両前方に取り付けられ、車両前方にレーザ光を出射し、物標までの距離、反射光が戻ってくる方向、反射角度および反射強度を検出する。物標までの距離は、レーザ光を出射してから反射光が戻ってくるまでの時間に基づいて算出する。図2は、レーダ3の詳細な構成を示す図である。レーダ3は、投光窓41と、受光窓42と、ミラー43と、モータ44と、受光素子(PD)45と、レーザ発光素子(LD)46と、増幅回路47と、レーザ発光素子46を駆動するLD駆動回路48と、モータ44を駆動するモータ駆動回路49と、CPU50とを備える。
【0010】
レーザ発光素子46は、LD駆動回路48からの指令に基づいて、近赤外線波長域のレーザ光を送出する。レーザ発光素子46から送出されたレーザ光は、反射ミラー43にて反射されて、投光窓41から射出される。このとき、モータ駆動回路49は、モータ44を駆動して、上下左右方向に回転する反射ミラー43を所定の角度分解能で回転させることにより、所定角度範囲に水平方向にn本のビーム、垂直方向にm本のビームを送出する。投光窓41から射出されたレーザ光は、先行車などの物標に反射し、受光窓42を介して、受光素子45で受光される。受光素子45で受光された受光信号は、増幅回路47で増幅されて、CPU50に送られる。
【0011】
CPU50は、増幅回路47、LD駆動回路48およびモータ駆動回路49を制御することにより、レーザ発光素子45からレーザ光を送出させて、受光素子45で受光される受光信号の強度を時間分解して記録し、前方物標との距離や検出角度、相対速度を算出する。CPU50は、これらの計算結果と、図示しない車速センサから出力される車速信号および後述する車両挙動推定処理部20にて算出される車両のピッチ角とに基づいて、車速信号に基づいて算出される自車両の速度、および、垂直方向の物標検出角度を補正して、物標の高さを算出する。CPU50は、また、自車両の速度と、物標との相対速度とに基づいて、検出された物標が静止物であるか否かを判定する。
【0012】
物標の高さの算出について、図3,図4を用いて補足しておく。図3は、レーダ3の上下方向のピッチ角が0である場合に、レーダ3から上下方向に3本のレーザビームを送出している様子を示す図である。この状態から、図4に示すように、レーダ3が上方向に傾くと、3本のビームで検知するエリアも変化する。従って、レーダ3の上下方向の傾き(車両のピッチ角)に基づいて、それぞれのビームで検出された物標の高さを補正する必要があり、CPU50は、補正後の高さを算出する。
【0013】
レーダ3の構成について補足しておく。受光窓42には受光レンズ(不図示)が組み込まれており、受光レンズで集光された光が受光素子45に入力される。また、レーザ発光素子45の前方には図示しない投光レンズが設けられており、レーザ発光素子45から送出されるレーザ光は、投光レンズを介して所定の角度に広げられる。投光窓41にも図示しない投光レンズが組み込まれているので、レーザ発光素子45から送出されたレーザ光は、投光窓41の投光レンズにて所定の角度に細められて送出される。投光レンズで広げられる所定の角度は、走査を行うエリア広さ、要求分解能、モータ性能、装置の要求サイズ等に基づいて決められる。レーダ装置3のこのような構造により、投光窓41から投光されるレーザ光は一定の面積を持つ太いレーザ光により走査することが可能となり、汚れや雨に強いレーザ光を得ることができる。
【0014】
レーザ光の強度分布を図5に示す。図5(a)は、上述した一定の面積を持つレーザ光の強度が同じ部分を結んだ分布を示す図であり、図5(b)は、図5(a)の中心線で切断した断面での強度を示す図である。図5(b)に示すように、レーザ光の中心部分が最も強度が強い。
【0015】
反射面角度推定装置4は、レーダ3により検出された物標(標識)が自車両に向いている角度(反射面角度)を推定する。反射面角度の推定方法について説明する。図6は、物標に対してレーダ3からレーザ光を照射する様子を示す図である。物標に照射されたレーザ光は、レーダ3と物標とが正対していなければ、散乱光が観測される。物標を完全散乱面であると仮定すると、観測されるレーザ光(反射光)の強度Iは、ランバート(Lambert)の余弦則より、次式(1)により表される。
I=Kd×Ii×cosα …(1)
ただし、Kdは散乱反射率、Iiは物標入射光の強度、αは、図6に示すように、物標の法線と入射レーザ光との間の成す角である。なお、完全散乱面とは、反射光を見た場合に、どの方向から見ても輝度の等しい表面をいう。
【0016】
ここで、図6に示すように、レーダ3の右側において物標が検出された場合について考察する。この場合、レーダ3の左側から射出されたレーザ光は、物標の左側に当たって反射して戻ってくるのに対して、右側から射出されたレーザ光は、物標の右側で反射して戻ってくる。物標は、レーダ3の右側に位置しているので、物標の左側で反射する光の方が、物標の右側で反射する光よりも早く戻ってくる。また、物標の右側に照射される面積の方が、左側に照射される面積よりも広いので、反射光の強度が低下していく時間は、物標の右側で反射して戻ってくる光の方が長い。
【0017】
図7は、物標に反射して戻ってくる光の強度の時間変化を示す図である。反射光の強度が所定のしきい値(例えば、最大値の10%)から最大値となるのに要する時間をt1、最大値から所定のしきい値に低下するまでに要する時間をt2とすると、物標がレーダ3の右側に位置している場合には、上述した理由により、t1<t2の関係が成り立つ。また、t1とt2との比は、レーダ3に対する物標の位置を示す角度αにより決定される。従って、t1とt2とを計測して、両者の比を演算することにより、物標の反射面角度を算出することができる。なお、t1とt2との比と、物標の反射面角度との関係は、実験等により予め求めておく。
【0018】
図8は、物標が3つ存在する場合に、レーダ3からレーザ光を射出して、反射光を受光する様子を示した図である。物標1がレーダ3に最も近い位置に存在し、物標3がレーダ3から最も遠い位置に存在している。図9は、図8に示す物標1〜3で反射して戻ってきた光の強度の時間変化を示す図である。図9に示すように、物標1に対して、上述した時間t1,t2をt1_1,t2_1、物標2に対して、t1_2,t2_2、物標3に対して、t1_3,t2_3とそれぞれ表す。
【0019】
図9に示すように、物標の位置がレーダ3から遠ざかる程、時間t1とt2との比が1:1に近くなる。この時間t1とt2との和(t1+t2)は、レーザ光の広がり角、および、レーダ3と物標との距離に依存する。従って、遠方に位置する物標3に対するレーザ光の入射角度αは小さくなるが、レーダ3からの距離は長くなるので、必ずしもt1_3+t2_3の大きさがt1_1+t2_1より短くなるわけではない。
【0020】
上述した時間t1,t2の大きさ、および、t1とt2との比の関係は、物標がレーダ3の左側に存在する場合にも同様である。レーダ3のどちら側に物標が存在するかは、反射光の戻ってくる方向に基づいて判断する。
【0021】
図10は、処理装置5の詳細な構成を示す図である。処理装置5は、画像メモリ10と、車両挙動推定処理部20と、標識検出部30とを備える。画像メモリ10には、カメラ2によって所定時間(例えば、16msec)ごとに撮像された画像が格納される。
【0022】
車両挙動推定処理部20は、内部で行う処理機能上、白線検出部21と、車両挙動推定部22と、車両進行方向推定部23とを備える。白線検出部21は、画像メモリ10に格納されている画像に基づいて、道路上の白線を検出する。白線の検出は、例えば、画像の濃淡エッジに基づいて画像の中の特徴パターンの位置を認識する方法や、画像中の特徴パターンと予め記憶している白線の特徴パターンとを照合して認識する方法など、既知の方法を採用することができる。検出された白線が図11に示すように、道路の境界線である2本のレーンマークL1,L2である場合には、白線検出部21は、2本のラインL1,L2の画像上の座標値を取得する。
【0023】
車両挙動推定部22は、白線検出部21で検出された白線に基づいて、カメラ2の路面に対するピッチ角を算出する。ピッチ角の算出は既知の方法を用いることができる。例えば、車両が静止した状態において撮像された2本のレーンマークが図11に示すものであるとすると、車両の前部が持ち上がった場合(カメラ2の光軸が上向き)には、開いて見えるレーンマークL1,L2の開き具合がさらに大きくなる。逆に、車両の後部が持ち上がった場合(カメラ2の光軸が下向き)には、図11に示す2本のレーンマークL1,L2の開き具合が小さくなる(平行に近づく)。この原理に基づいて、車両のピッチ角、すなわち、カメラ2の路面に対するピッチ角を算出することができる(特開2002−163641号公報参照)。
【0024】
車両進行方向推定部23は、白線検出部21で検出された白線に基づいて、車線(白線)に対する自車両1のヨー角、および、道路の曲率を算出する。例えば、自車両1のヨー角および道路の曲率などのパラメータを含む道路モデルを適用し、カルマンフィルタや最小二乗法を用いるなどの既知の方法により推定することができる(特開2002−236912号公報参照)。なお、車両挙動推定部22で算出されるピッチ角を車両進行方向推定部23で算出してもよい。
【0025】
標識検出部30は、内部で行う処理機能上、物標特定部31と、物標座標推定部32と、パターンマッチング部33とを備える。物標特定部31は、車両進行方向推定部23により推定されたヨー角および道路の曲率と、レーダ3により検出された物標の位置および方向と、反射面角度推定装置4により検出された物標の反射面角度とに基づいて、自車線向けの標識を検出する。
【0026】
図12を用いて、自車線向けの標識を検出する具体的な方法について説明する。図12は、自車両1がカーブに進入する様子を示しており、図中には、物標A,物標B,物標Cの3つの物標が示されている。通常、自車線向けの標識は、道路にほぼ直角に設置されており、道路が曲率を有する場合には、その地点での道路にほぼ直角に、すなわち、標識の面が標識とカーブの中心とを結ぶ線分とほぼ平行になるように設置されている。従って、標識の面が標識とカーブの中心とを結ぶ線分とほぼ平行である場合には、自車線向けの標識であると判断することができる。なお、標識とカーブの中心とを結ぶ線分と、標識の面を示す線分との成す角が所定の角度以下であれば、自車線向けの標識であると判断してもよい。
【0027】
路上の区分線(車線)は、道路に平行に引かれているので、区分線の形状が分かれば、道路の形状を推定することができる。車両進行方向推定部23により推定される自車両のヨー角および道路の曲率に基づいて、物標A,B,Cの地点の道路の形状を類推するとともに、物標までの距離、方向、高さに基づいて、物標(標識)の位置を特定し、道路の曲率中心と物標とを結んだ線の自車両に対する角度を計算する。この角度と、反射面角度推定装置4により算出された反射面角度とが一致すれば、対象物標が自車線向けの標式であると判断することができる。このような方法により、図12に示す物標A,B,Cのうち、物標Bおよび物標Cが自車線向けの標識であると判断する。
【0028】
物標座標推定部32は、車両挙動推定部22により推定された車両1のピッチ角と、レーダ3により検出された物標の高さ、距離とに基づいて、自車線向けの標識であると判定された物標の画面上での座標を求める。具体的には、物標特定部21により自車線向けの標識であると判定された物標座標を画像メモリ10上に射影を行い、パターンマッチング処理部33にてパターンマッチを行うための中心座標を求める。ここでの射影処理とは、レーダ3により検出された実空間座標上にある立体物がカメラ2によりどのように写るのか計算する処理のことである。
【0029】
図13は、カメラ2および物標Bを横方向から見た図である。カメラ2のレンズ2aと撮像素子2bとの距離、すなわち、レンズ2aの焦点距離をf、カメラ2の高さをh、物標Bの高さをH、カメラ2のレンズ2aから物標Bまでの距離をL、カメラ2のピッチ角をθ、カメラ2の高さhの位置から物標Bを見た時の角度をθ、撮像素子2b上に射影される座標(y座標)をyとすると、次式(2)〜(4)の関係が成り立つ。なお、座標の単位は、画素数であり、焦点距離fは、実空間上の距離を画素数で表したもの、つまり、実寸法を1画素当たりの大きさで割った値である。
tan(θ+θ)=y/f …(2)
tan(θ+θ)=(tanθ+tanθ)/(1−tanθ×tanθ) …(3)
tan(θ)=(H−h)/L …(4)
【0030】
θおよびθの値が0に近い場合には、1−tanθ×tanθ≒1と近似できるので、式(3)に式(2),(4)をそれぞれ代入すると、次式(5)が得られる。
tan−1(y/f)=tan−1((H−h)/L)+θ …(5)
【0031】
図14は、カメラ2および物標Bを上方向から見た図である。この場合、撮像素子2b上に射影される座標(x座標)xは、次式(6)により表される。
x=f・tan(θb) …(6)
ただし、θbは、カメラ2(レンズ2a)の光軸と物標Bとの間の角度である。
【0032】
パターンマッチング処理部33は、物標座標推定部32により算出された座標に対応する部分、すなわち、カメラ2により撮像された画像において、自車線向きの標識であると判定された部分と、所定のテンプレートとに対してパターンマッチング処理を施して、標識の内容を認識する。なお、パターンマッチングの方法としては、標識に使用される特定の色の組み合わせを有していることに基づいて行う方法や、標識の形状に着目したパターンマッチングによる認識手法が用いられる。すなわち、標識の色の組み合わせや形状をテンプレートとして画像とマッチング処理を行い、標識の種類や文字を判別する。なお、標識は見る角度によって形状が変化するので、反射面角度推定装置4にて算出された反射面角度に基づいて補正されたテンプレートを用いる。
【0033】
パターンマッチング処理による標識の認識結果は、ナビゲーション装置などの外部装置に出力される。例えば、ナビゲーション装置に標識の表示を行うことにより、運転者に対して注意喚起を促すことができる。また、標識表示をナビゲーション情報の更新、車両の自動制御に用いることもできる。
【0034】
一実施の形態における標識認識装置によれば、レーダ3からレーザ光を送出して、物標に反射して戻ってきた反射光に基づいて、立体物の位置を検出し、検出した立体物の位置に基づいて、カメラ2により撮像された画像上における立体物の位置を特定し、画像上において特定した立体物の部分に対して、標識の内容を認識するための処理(パターンマッチング処理)を行う。これにより、路面のペイント表示などの平面物に対して、標識の内容を認識するための処理を行うことが無くなるので、演算負荷を軽減することができる。
【0035】
また、一実施の形態における標識認識装置によれば、撮像画像に基づいて、道路形状を推定し、レーダ3から送出されたレーザ光の反射光に基づいて、立体物の反射面の角度を算出し、推定された道路形状と算出した反射面角度とに基づいて、自車線向きの標識を検出する。この自車線向けの標識に対して、標識の内容を認識するための処理(パターンマッチング処理)を行うので、他の車線向けの標識に対して、標識の内容を認識するための処理を行うことが無くなるので、演算負荷を軽減することができる。
【0036】
本発明は、上述した一実施の形態に限定されることはない。例えば、立体物の検出に際し、レーザ光を送出するレーダを用いたが、電波や超音波等の他の信号を送出するレーダを用いてもよい。
【0037】
また、車両1のピッチ角、車線(白線)に対する車両1のヨー角、道路の曲率の算出方法も上述した方法に限定されることはなく、他の方法を用いることができる。
【0038】
特許請求の範囲の構成要素と一実施の形態の構成要素との対応関係は次の通りである。すなわち、カメラ10が撮影手段を、レーダ3および物標特定部31が位置検出手段を、物標座標推定部32が位置特定手段を、パターンマッチング処理部33が認識手段を、レーダ3および反射角度推定装置4が反射面角度算手段を、物標特定部31が自車線標識判定手段をそれぞれ構成する。なお、本発明の特徴的な機能を損なわない限り、各構成要素は上記構成に限定されるものではない。
【図面の簡単な説明】
【図1】本発明による標識認識装置を車両1に搭載した一実施の形態を示す図
【図2】レーダ3の詳細な構成を示す図
【図3】レーダの上下方向のピッチ角が0である場合に、レーダから上下方向に3本のレーザビームを送出している様子を示す図
【図4】レーダが上下方向に傾いた時にレーザビームを送出する様子を示す図
【図5】図5(a)は、上述した一定の面積を持つレーザ光の強度が同じ部分を結んだ分布を示す図であり、図5(b)は、図5(a)の中心線で切断した断面での強度を示す図
【図6】物標に対してレーダからレーザ光を照射する様子を示す図
【図7】物標に反射して戻ってくる光の強度の時間変化を示す図
【図8】物標が3つ存在する場合に、レーダからレーザ光を射出して、反射光を受光する様子を示した図
【図9】図13に示す物標1〜3で反射して戻ってきた光の強度の時間変化を示す図
【図10】処理装置5の詳細な構成を示す図
【図11】白線検出部21により検出された2本の白線L1,L2を示す図
【図12】自車両がカーブに進入する様子を示す図
【図13】カメラおよび物標Bを横方向から見た図
【図14】カメラおよび物標Bを上方向から見た図
【符号の説明】
1…車両、1a…天井、1b…フロントウインドウ、2…カメラ、3…レーダ、4…反射面角度推定装置、5…処理装置、10…画像メモリ、20…車両挙動推定処理部、21…白線検出部、22…車両挙動推定部、23…車両進行方向推定部、30…標識検出部、31…物標特定部、32…物標座標推定部、33…パターンマッチング処理部、41…投光窓、42…受光窓、43…反射ミラー、44…モータ、45…受光素子、46…レーザ発光素子、47…増幅回路、48…LD駆動回路、49…モータ駆動回路、50…CPU
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a sign recognition device that recognizes the contents by detecting signs such as road signs on a road.
[0002]
[Prior art]
An apparatus that recognizes a road sign based on an image captured by a camera is known (see Patent Document 1). In this conventional sign recognition device, a sign is recognized by extracting a specific color of the sign from the captured image to obtain an extracted image, and performing pattern matching processing on the shape of the extracted image.
[0003]
[Patent Document 1]
Japanese Patent Laid-Open No. 9-185703
[Problems to be solved by the invention]
However, since there are cases where paint on the road is shown in the captured image, the conventional recognition apparatus extracts the paint portion on the road when the specific color of the sign is extracted from the captured image. In some cases. Therefore, pattern matching processing is also performed on a flat object such as paint on the road surface, and there is a problem that an expensive calculation device with a high calculation speed or a high calculation speed is required. .
[0005]
The present invention provides a sign recognition device that identifies a three-dimensional object in a captured image and performs processing for recognizing the content of the sign for the specified three-dimensional object.
[0006]
[Means for Solving the Problems]
The sign recognition device according to the present invention detects a position of a three-dimensional object based on a reflected signal that is sent back from a signal and reflected by an object, and detection on a captured image is performed based on the detected position of the three-dimensional object. The position of the identified three-dimensional object is specified, and processing for recognizing the content of the sign is performed on the position of the specified three-dimensional object in the image.
[0007]
【The invention's effect】
According to the sign recognition device according to the present invention, the three-dimensional object in the captured image is specified, and the processing for recognizing the contents of the sign is performed on the specified three-dimensional object. Therefore, the calculation load for recognizing the sign is reduced. Can be reduced.
[0008]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a diagram showing an embodiment in which a sign recognition device according to the present invention is mounted on a vehicle 1. The sign recognition device in one embodiment includes a camera 2, a radar 3, a reflection surface angle estimation device 4, and a processing device 5. The camera 2 is attached to the front center portion of the indoor ceiling 1a of the vehicle 1 and photographs the front of the vehicle through the front window 1b. The camera 2 is preferably a camera equipped with a CCD or CMOS sensor capable of high-sensitivity imaging. In addition, it is preferable that the optical axis of the camera 2 coincides with the straight traveling direction of the vehicle.
[0009]
The radar 3 is attached in front of the vehicle, emits laser light in front of the vehicle, and detects the distance to the target, the direction in which the reflected light returns, the reflection angle, and the reflection intensity. The distance to the target is calculated based on the time from when the laser light is emitted until the reflected light returns. FIG. 2 is a diagram showing a detailed configuration of the radar 3. The radar 3 includes a light projecting window 41, a light receiving window 42, a mirror 43, a motor 44, a light receiving element (PD) 45, a laser light emitting element (LD) 46, an amplifier circuit 47, and a laser light emitting element 46. An LD driving circuit 48 for driving, a motor driving circuit 49 for driving the motor 44, and a CPU 50 are provided.
[0010]
The laser light emitting element 46 transmits laser light in the near-infrared wavelength region based on a command from the LD drive circuit 48. The laser light transmitted from the laser light emitting element 46 is reflected by the reflection mirror 43 and emitted from the projection window 41. At this time, the motor drive circuit 49 drives the motor 44 to rotate the reflecting mirror 43 that rotates in the vertical and horizontal directions with a predetermined angular resolution, so that n beams in the horizontal direction and the vertical direction are within a predetermined angular range. M beams are sent out. The laser light emitted from the light projecting window 41 is reflected by a target such as a preceding vehicle and received by the light receiving element 45 through the light receiving window 42. The light reception signal received by the light receiving element 45 is amplified by the amplification circuit 47 and sent to the CPU 50.
[0011]
The CPU 50 controls the amplifier circuit 47, the LD drive circuit 48, and the motor drive circuit 49 so that the laser light is emitted from the laser light emitting element 45, and the intensity of the received light signal received by the light receiving element 45 is time-resolved. Record and calculate the distance, detection angle, and relative speed with the forward target. The CPU 50 is calculated based on the vehicle speed signal based on these calculation results, a vehicle speed signal output from a vehicle speed sensor (not shown), and a vehicle pitch angle calculated by the vehicle behavior estimation processing unit 20 described later. The height of the target is calculated by correcting the speed of the host vehicle and the target detection angle in the vertical direction. The CPU 50 also determines whether the detected target is a stationary object based on the speed of the host vehicle and the relative speed with the target.
[0012]
The calculation of the height of the target will be supplemented with reference to FIGS. FIG. 3 is a diagram illustrating a state in which three laser beams are transmitted in the vertical direction from the radar 3 when the vertical pitch angle of the radar 3 is zero. From this state, as shown in FIG. 4, when the radar 3 is tilted upward, the area detected by the three beams also changes. Accordingly, it is necessary to correct the height of the target detected by each beam based on the vertical inclination (vehicle pitch angle) of the radar 3, and the CPU 50 calculates the corrected height.
[0013]
The configuration of the radar 3 will be supplemented. A light receiving lens (not shown) is incorporated in the light receiving window 42, and light condensed by the light receiving lens is input to the light receiving element 45. A light projection lens (not shown) is provided in front of the laser light emitting element 45, and the laser light transmitted from the laser light emitting element 45 is spread at a predetermined angle via the light projection lens. Since a light projection lens (not shown) is also incorporated in the light projection window 41, the laser light transmitted from the laser light emitting element 45 is transmitted after being narrowed to a predetermined angle by the light projection lens of the light projection window 41. . The predetermined angle widened by the light projecting lens is determined based on the area size for scanning, the required resolution, the motor performance, the required size of the apparatus, and the like. With this structure of the radar device 3, the laser light projected from the projection window 41 can be scanned with a thick laser beam having a certain area, and a laser beam resistant to dirt and rain can be obtained. .
[0014]
FIG. 5 shows the intensity distribution of the laser beam. FIG. 5A is a diagram showing a distribution in which the above-mentioned laser beams having a certain area have the same intensity, and FIG. 5B is a cross section taken along the center line of FIG. It is a figure which shows the intensity | strength in. As shown in FIG. 5B, the central portion of the laser beam has the strongest intensity.
[0015]
The reflection surface angle estimation device 4 estimates the angle (reflection surface angle) at which the target (marker) detected by the radar 3 is facing the host vehicle. A method of estimating the reflection surface angle will be described. FIG. 6 is a diagram illustrating a state in which laser light is irradiated from the radar 3 to the target. As for the laser light irradiated to the target, scattered light is observed unless the radar 3 and the target are facing each other. Assuming that the target is a complete scattering surface, the intensity I of the observed laser light (reflected light) is expressed by the following equation (1) from Lambert's cosine law.
I = Kd × Ii × cos α (1)
Where Kd is the scattering reflectance, Ii is the intensity of the target incident light, and α is the angle formed between the normal of the target and the incident laser light, as shown in FIG. The perfect scattering surface means a surface having the same brightness when viewed from any direction when the reflected light is viewed.
[0016]
Here, consider a case where a target is detected on the right side of the radar 3 as shown in FIG. In this case, the laser light emitted from the left side of the radar 3 hits the left side of the target and is reflected back, whereas the laser light emitted from the right side is reflected and returned from the right side of the target. come. Since the target is located on the right side of the radar 3, the light reflected on the left side of the target returns faster than the light reflected on the right side of the target. In addition, since the area irradiated on the right side of the target is wider than the area irradiated on the left side, the time when the intensity of the reflected light decreases decreases the light that is reflected back on the right side of the target. Is longer.
[0017]
FIG. 7 is a diagram illustrating a temporal change in the intensity of light that is reflected back from the target. Assuming that the time required for the intensity of the reflected light to reach a maximum value from a predetermined threshold value (for example, 10% of the maximum value) is t1, and the time required for the reflected light intensity to decrease from the maximum value to the predetermined threshold value is t2. When the target is located on the right side of the radar 3, the relationship of t1 <t2 is established for the reason described above. The ratio between t1 and t2 is determined by the angle α indicating the position of the target with respect to the radar 3. Therefore, by measuring t1 and t2 and calculating the ratio between them, the reflection surface angle of the target can be calculated. The relationship between the ratio between t1 and t2 and the reflecting surface angle of the target is obtained in advance through experiments or the like.
[0018]
FIG. 8 is a diagram showing a state in which laser light is emitted from the radar 3 and reflected light is received when there are three targets. The target 1 is present at the position closest to the radar 3, and the target 3 is present at the position farthest from the radar 3. FIG. 9 is a diagram illustrating a temporal change in the intensity of the light reflected and returned by the targets 1 to 3 shown in FIG. As shown in FIG. 9, for the target 1, the above-described times t1 and t2 are represented as t1_1 and t2_1, for the target 2, t1_2 and t2_2, and for the target 3 as t1_3 and t2_3, respectively.
[0019]
As shown in FIG. 9, as the target position is further away from the radar 3, the ratio between the times t1 and t2 becomes closer to 1: 1. The sum (t1 + t2) of the times t1 and t2 depends on the spread angle of the laser light and the distance between the radar 3 and the target. Therefore, although the incident angle α of the laser beam with respect to the target 3 located far away is small, the distance from the radar 3 is long, so the size of t1_3 + t2_3 is not necessarily shorter than t1_1 + t2_1.
[0020]
The relationship between the magnitudes of the times t1 and t2 and the ratio between t1 and t2 is the same when the target is on the left side of the radar 3. Which side of the radar 3 is present is determined based on the direction in which the reflected light returns.
[0021]
FIG. 10 is a diagram illustrating a detailed configuration of the processing device 5. The processing device 5 includes an image memory 10, a vehicle behavior estimation processing unit 20, and a sign detection unit 30. The image memory 10 stores images captured by the camera 2 every predetermined time (for example, 16 msec).
[0022]
The vehicle behavior estimation processing unit 20 includes a white line detection unit 21, a vehicle behavior estimation unit 22, and a vehicle traveling direction estimation unit 23 in terms of processing functions performed internally. The white line detection unit 21 detects a white line on the road based on the image stored in the image memory 10. The detection of the white line is, for example, a method of recognizing the position of the feature pattern in the image based on the shading edge of the image, or by comparing the feature pattern in the image with the feature pattern of the white line stored in advance. A known method such as a method can be employed. As shown in FIG. 11, when the detected white line is two lane marks L1 and L2 which are road boundary lines, the white line detection unit 21 coordinates the two lines L1 and L2 on the image. Get the value.
[0023]
The vehicle behavior estimation unit 22 calculates a pitch angle with respect to the road surface of the camera 2 based on the white line detected by the white line detection unit 21. A known method can be used to calculate the pitch angle. For example, assuming that the two lane marks imaged in a state where the vehicle is stationary are those shown in FIG. 11, when the front part of the vehicle is lifted (the optical axis of the camera 2 is upward), it appears to open. The opening degree of the lane marks L1, L2 is further increased. On the contrary, when the rear part of the vehicle is lifted (the optical axis of the camera 2 is downward), the degree of opening of the two lane marks L1 and L2 shown in FIG. 11 is small (approaching parallel). Based on this principle, the pitch angle of the vehicle, that is, the pitch angle with respect to the road surface of the camera 2 can be calculated (see Japanese Patent Application Laid-Open No. 2002-163641).
[0024]
The vehicle traveling direction estimation unit 23 calculates the yaw angle of the host vehicle 1 with respect to the lane (white line) and the curvature of the road based on the white line detected by the white line detection unit 21. For example, a road model including parameters such as the yaw angle of the host vehicle 1 and the road curvature can be applied, and estimation can be performed by a known method such as using a Kalman filter or a least square method (see Japanese Patent Application Laid-Open No. 2002-236912). ). Note that the pitch angle calculated by the vehicle behavior estimation unit 22 may be calculated by the vehicle traveling direction estimation unit 23.
[0025]
The sign detection unit 30 includes a target specifying unit 31, a target coordinate estimation unit 32, and a pattern matching unit 33 in terms of processing functions performed internally. The target specifying unit 31 includes the yaw angle and road curvature estimated by the vehicle traveling direction estimation unit 23, the position and direction of the target detected by the radar 3, and the object detected by the reflection surface angle estimation device 4. Based on the reflection surface angle of the mark, a sign for the own lane is detected.
[0026]
A specific method for detecting a sign for the own lane will be described with reference to FIG. FIG. 12 shows a state in which the host vehicle 1 enters the curve, and three targets, target A, target B, and target C, are shown in the figure. Usually, the sign for the own lane is installed almost at right angles to the road, and if the road has a curvature, it is almost perpendicular to the road at that point, that is, the face of the sign is the center of the sign and the curve. It is installed so as to be almost parallel to the line connecting the two. Accordingly, when the sign surface is substantially parallel to the line segment connecting the sign and the center of the curve, it can be determined that the sign is for the own lane. Note that if the angle between the line segment connecting the sign and the center of the curve and the line segment indicating the face of the sign is equal to or less than a predetermined angle, it may be determined that the sign is for the own lane.
[0027]
Since the dividing line (lane) on the road is drawn parallel to the road, if the shape of the dividing line is known, the shape of the road can be estimated. Based on the yaw angle of the vehicle and the curvature of the road estimated by the vehicle traveling direction estimation unit 23, the shape of the road at the points of the targets A, B, and C is estimated, and the distance, direction, and height to the target are estimated. Based on this, the position of the target (sign) is specified, and the angle of the line connecting the center of curvature of the road and the target with respect to the host vehicle is calculated. If this angle coincides with the reflection surface angle calculated by the reflection surface angle estimation device 4, it can be determined that the target is a standard for the own lane. By such a method, it is determined that the target B and the target C among the targets A, B, and C shown in FIG. 12 are signs for the own lane.
[0028]
The target coordinate estimation unit 32 is a sign for the own lane based on the pitch angle of the vehicle 1 estimated by the vehicle behavior estimation unit 22 and the height and distance of the target detected by the radar 3. The coordinates of the determined target on the screen are obtained. Specifically, the target coordinates determined by the target specifying unit 21 as a sign for the own lane are projected onto the image memory 10 and the pattern matching processing unit 33 performs pattern matching. Ask for. Here, the projecting process is a process of calculating how the three-dimensional object on the real space coordinates detected by the radar 3 is captured by the camera 2.
[0029]
FIG. 13 is a view of the camera 2 and the target B as seen from the lateral direction. The distance between the lens 2a of the camera 2 and the imaging device 2b, that is, the focal length of the lens 2a is f, the height of the camera 2 is h, the height of the target B is H, and the lens 2a of the camera 2 to the target B Is the distance L, the pitch angle of the camera 2 is θ 1 , the angle when the target B is viewed from the position of the height h of the camera 2 is θ 2 , and the coordinate (y coordinate) projected onto the image sensor 2b is Assuming y, the following relationships (2) to (4) are established. The unit of coordinates is the number of pixels, and the focal length f is a value obtained by dividing the distance in real space by the number of pixels, that is, a value obtained by dividing the actual size by the size per pixel.
tan (θ 1 + θ 2 ) = y / f (2)
tan (θ 1 + θ 2 ) = (tan θ 1 + tan θ 2 ) / (1−tan θ 1 × tan θ 2 ) (3)
tan (θ 2 ) = (H−h) / L (4)
[0030]
When the values of θ 1 and θ 2 are close to 0, it can be approximated as 1−tan θ 1 × tan θ 2 ≈1, so when substituting Equations (2) and (4) into Equation (3), the following equation ( 5) is obtained.
tan −1 (y / f) = tan −1 ((H−h) / L) + θ 1 (5)
[0031]
FIG. 14 is a view of the camera 2 and the target B as viewed from above. In this case, the coordinate (x coordinate) x projected onto the image sensor 2b is expressed by the following equation (6).
x = f · tan (θb) (6)
Here, θb is an angle between the optical axis of the camera 2 (lens 2a) and the target B.
[0032]
The pattern matching processing unit 33 includes a portion corresponding to the coordinates calculated by the target coordinate estimation unit 32, that is, a portion determined to be a sign for the own lane in the image captured by the camera 2, and a predetermined amount. A pattern matching process is performed on the template to recognize the contents of the sign. As a pattern matching method, a method based on having a specific color combination used for a sign, or a recognition method using pattern matching focusing on the shape of the sign is used. That is, matching processing with an image is performed using the combination and shape of the sign color as a template, and the kind and character of the sign are determined. In addition, since the shape of the sign changes depending on the viewing angle, a template corrected based on the reflection surface angle calculated by the reflection surface angle estimation device 4 is used.
[0033]
The sign recognition result obtained by the pattern matching process is output to an external device such as a navigation device. For example, the driver can be alerted by displaying a sign on the navigation device. The sign display can also be used for updating navigation information and automatically controlling the vehicle.
[0034]
According to the sign recognition apparatus in the embodiment, the position of the three-dimensional object is detected based on the reflected light that is sent back from the radar 3 by being reflected from the radar 3 and returned to the target. Based on the position, the position of the three-dimensional object on the image captured by the camera 2 is specified, and a process (pattern matching process) for recognizing the contents of the sign for the part of the three-dimensional object specified on the image Do. As a result, it is not necessary to perform processing for recognizing the content of the sign on a flat object such as a paint display on the road surface, so that the calculation load can be reduced.
[0035]
Further, according to the sign recognition device in the embodiment, the road shape is estimated based on the captured image, and the angle of the reflecting surface of the three-dimensional object is calculated based on the reflected light of the laser beam transmitted from the radar 3. Then, based on the estimated road shape and the calculated reflection surface angle, a sign in the own lane direction is detected. Since the process for recognizing the contents of the sign (pattern matching process) is performed on the sign for the own lane, the process for recognizing the contents of the sign is performed on the sign for other lanes. Therefore, the calculation load can be reduced.
[0036]
The present invention is not limited to the embodiment described above. For example, in detecting a three-dimensional object, a radar that transmits laser light is used, but a radar that transmits other signals such as radio waves and ultrasonic waves may be used.
[0037]
Further, the calculation method of the pitch angle of the vehicle 1, the yaw angle of the vehicle 1 with respect to the lane (white line), and the curvature of the road is not limited to the method described above, and other methods can be used.
[0038]
The correspondence between the constituent elements of the claims and the constituent elements of the embodiment is as follows. That is, the camera 10 is an imaging unit, the radar 3 and the target specifying unit 31 are position detecting units, the target coordinate estimating unit 32 is a position specifying unit, the pattern matching processing unit 33 is a recognition unit, and the radar 3 and the reflection angle. The estimation device 4 constitutes a reflecting surface angle calculating means, and the target specifying unit 31 constitutes a own lane sign determining means. In addition, as long as the characteristic function of this invention is not impaired, each component is not limited to the said structure.
[Brief description of the drawings]
FIG. 1 is a diagram showing an embodiment in which a sign recognition device according to the present invention is mounted on a vehicle. FIG. 2 is a diagram showing a detailed configuration of a radar. FIG. FIG. 4 is a diagram showing a state in which three laser beams are transmitted from the radar in the vertical direction in some cases. FIG. 4 is a diagram illustrating a state in which the laser beam is transmitted when the radar is tilted in the vertical direction. (A) is a figure which shows the distribution which tied the part with the same intensity | strength of the laser beam which has the above-mentioned fixed area, FIG.5 (b) is the cross section cut | disconnected by the centerline of Fig.5 (a). FIG. 6 is a diagram showing the intensity of the laser beam irradiated from the radar to the target. FIG. 7 is a diagram showing the time variation of the intensity of the light reflected back from the target. Diagram showing how the laser beam is emitted from the radar and the reflected light is received when there are three targets. 9 is a diagram showing a temporal change in the intensity of light reflected by the targets 1 to 3 shown in FIG. 13; FIG. 10 is a diagram showing a detailed configuration of the processing device 5; FIG. 12 is a diagram showing how the host vehicle enters the curve. FIG. 13 is a diagram of the camera and the target B viewed from the side. FIG. View of target B from above [Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Vehicle, 1a ... Ceiling, 1b ... Front window, 2 ... Camera, 3 ... Radar, 4 ... Reflection surface angle estimation apparatus, 5 ... Processing apparatus, 10 ... Image memory, 20 ... Vehicle behavior estimation processing part, 21 ... White line Detection unit, 22 ... Vehicle behavior estimation unit, 23 ... Vehicle traveling direction estimation unit, 30 ... Sign detection unit, 31 ... Target identification unit, 32 ... Target coordinate estimation unit, 33 ... Pattern matching processing unit, 41 ... Projection Window, 42 ... Light receiving window, 43 ... Reflecting mirror, 44 ... Motor, 45 ... Light receiving element, 46 ... Laser light emitting element, 47 ... Amplifier circuit, 48 ... LD drive circuit, 49 ... Motor drive circuit, 50 ... CPU

Claims (4)

車両に搭載されて、車両周囲を撮像する撮像手段と、
信号を送出し、物体に反射して戻ってきた反射信号に基づいて、立体物の位置を検出する位置検出手段と、
前記位置検出手段により検出した立体物の位置に基づいて、前記撮像手段により撮像された画像上における前記検出された立体物の位置を特定する位置特定手段と、
画像上において前記位置特定手段により特定された立体物の位置に対応する部分に対して、標識の内容を認識するための処理を行う認識処理手段とを備えることを特徴とする標識認識装置。
An imaging means mounted on the vehicle for imaging the surroundings of the vehicle;
A position detection means for transmitting a signal and detecting the position of the three-dimensional object based on the reflected signal returned by being reflected by the object;
Position specifying means for specifying the position of the detected three-dimensional object on the image captured by the imaging means based on the position of the three-dimensional object detected by the position detecting means;
A sign recognition apparatus comprising: a recognition processing means for performing a process for recognizing the contents of the sign for a portion corresponding to the position of the three-dimensional object specified by the position specifying means on the image.
請求項1に記載の標識認識装置において、
前記撮像手段により撮像された画像に基づいて、道路形状を推定する道路形状推定手段と、
前記位置検出手段から送出された信号が物体に反射して戻ってきた反射信号に基づいて、立体物の反射面の角度を算出する反射面角度算出手段と、
前記道路形状推定手段により推定された道路形状と、前記反射面角度算出手段により算出された反射面の角度とに基づいて、前記位置検出手段により検出された立体物が自車両の走行車線向けの標識であると判定する自車線標識判定手段とをさらに備え、
前記位置特定手段は、前記自車線標識判定手段により判定された標識の位置に基づいて、前記撮像手段により撮像された画像上における前記標識の位置を特定し、
前記認識処理手段は、前記位置特定手段により特定された標識の位置の部分に対して、標識の内容を認識するための処理を行うことを特徴とする標識認識装置。
In the sign recognition device according to claim 1,
Road shape estimation means for estimating a road shape based on an image captured by the imaging means;
Reflecting surface angle calculating means for calculating the angle of the reflecting surface of the three-dimensional object based on the reflected signal returned from the object reflected from the position detecting means;
Based on the road shape estimated by the road shape estimating means and the angle of the reflecting surface calculated by the reflecting surface angle calculating means, the three-dimensional object detected by the position detecting means is for the traveling lane of the host vehicle. The vehicle further comprises own lane sign judging means for judging that it is a sign,
The position specifying means specifies the position of the sign on the image captured by the imaging means based on the position of the sign determined by the own lane sign determining means,
The sign recognition apparatus characterized in that the recognition processing means performs a process for recognizing the contents of the sign with respect to the position of the sign specified by the position specifying means.
請求項2に記載の標識認識装置において、
前記反射面角度算出手段は、前記反射信号の強度が所定のしきい値以上となってから最大値となるまでの時間と、前記反射信号の強度が最大値となってから所定のしきい値以下となるまでの時間との比に基づいて、立体物の反射面の角度を算出することを特徴とする標識認識装置。
The sign recognition apparatus according to claim 2,
The reflecting surface angle calculating means includes a time from when the intensity of the reflected signal reaches a maximum value to a maximum value, and a predetermined threshold value after the intensity of the reflected signal reaches a maximum value. A sign recognition apparatus that calculates an angle of a reflecting surface of a three-dimensional object based on a ratio to a time until the following.
請求項2または3に記載の標識認識装置において、
前記道路形状推定手段は、自車両が走行している車線の曲率中心を検出し、
前記自車線標識判定手段は、前記道路形状推定手段により検出された道路の曲率中心と立体物とを結ぶ線分と、前記反射面角度算出手段により算出された反射面の角度に基づいて求められる反射面を示す線分との成す角度が所定の角度以下の場合に、検出された立体物が自車両の走行車線向けの標識であると判定することを特徴とする標識認識装置。
In the sign recognition device according to claim 2 or 3,
The road shape estimation means detects the center of curvature of the lane in which the host vehicle is traveling,
The own lane sign determination unit is obtained based on a line segment connecting the center of curvature of the road detected by the road shape estimation unit and the three-dimensional object and the angle of the reflection surface calculated by the reflection surface angle calculation unit. A sign recognition apparatus, characterized in that, when an angle formed by a line segment indicating a reflecting surface is equal to or smaller than a predetermined angle, the detected three-dimensional object is determined as a sign for a traveling lane of the host vehicle.
JP2003190078A 2003-07-02 2003-07-02 Sign recognition device Expired - Fee Related JP4321142B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003190078A JP4321142B2 (en) 2003-07-02 2003-07-02 Sign recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003190078A JP4321142B2 (en) 2003-07-02 2003-07-02 Sign recognition device

Publications (2)

Publication Number Publication Date
JP2005025497A true JP2005025497A (en) 2005-01-27
JP4321142B2 JP4321142B2 (en) 2009-08-26

Family

ID=34188065

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003190078A Expired - Fee Related JP4321142B2 (en) 2003-07-02 2003-07-02 Sign recognition device

Country Status (1)

Country Link
JP (1) JP4321142B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009053059A (en) * 2007-08-27 2009-03-12 Mitsubishi Electric Corp Object specifying device, object specifying method, and object specifying program
US7898437B2 (en) 2006-05-17 2011-03-01 Toyota Jidosha Kabushiki Kaisha Object recognition device
JP2012098199A (en) * 2010-11-04 2012-05-24 Aisin Aw Co Ltd Reference pattern information generation device, method, and program, and general-vehicle position specification apparatus
JP2012185076A (en) * 2011-03-07 2012-09-27 Denso Corp Speed limit value notification device and speed limit value notification system
JP2012238245A (en) * 2011-05-12 2012-12-06 Fuji Heavy Ind Ltd Environment recognition device and environment recognition method
WO2016189811A1 (en) * 2015-05-22 2016-12-01 パナソニックIpマネジメント株式会社 Road information sensing device and road information sensing method
JP2017036980A (en) * 2015-08-10 2017-02-16 日産自動車株式会社 Vehicle position estimation device and vehicle position estimation method
JP2017101944A (en) * 2015-11-30 2017-06-08 パイオニア株式会社 Speed calculation device, control method, program, and storage medium
JP2017527876A (en) * 2014-07-25 2017-09-21 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH Method for operating a vehicle assistant system and assistant system
WO2017168654A1 (en) * 2016-03-30 2017-10-05 パイオニア株式会社 Measurement device, measurement method, and program
US10147006B2 (en) 2015-12-01 2018-12-04 Denso Corporation Drive support system
JPWO2018042628A1 (en) * 2016-09-02 2019-06-24 パイオニア株式会社 Speed calculation device, control method, program and storage medium
JP2019194900A (en) * 2012-09-05 2019-11-07 ウェイモ エルエルシー Construction zone detection using plural information sources

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7898437B2 (en) 2006-05-17 2011-03-01 Toyota Jidosha Kabushiki Kaisha Object recognition device
JP2009053059A (en) * 2007-08-27 2009-03-12 Mitsubishi Electric Corp Object specifying device, object specifying method, and object specifying program
JP2012098199A (en) * 2010-11-04 2012-05-24 Aisin Aw Co Ltd Reference pattern information generation device, method, and program, and general-vehicle position specification apparatus
JP2012185076A (en) * 2011-03-07 2012-09-27 Denso Corp Speed limit value notification device and speed limit value notification system
JP2012238245A (en) * 2011-05-12 2012-12-06 Fuji Heavy Ind Ltd Environment recognition device and environment recognition method
JP2019194900A (en) * 2012-09-05 2019-11-07 ウェイモ エルエルシー Construction zone detection using plural information sources
JP2017527876A (en) * 2014-07-25 2017-09-21 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH Method for operating a vehicle assistant system and assistant system
US10339803B2 (en) 2014-07-25 2019-07-02 Conti Temic Microelectronic Gmbh Method for operating an assistance system of a motor vehicle and assistance system
CN107408337A (en) * 2015-05-22 2017-11-28 松下知识产权经营株式会社 Road information detection device and road information detection method
JPWO2016189811A1 (en) * 2015-05-22 2018-03-29 パナソニックIpマネジメント株式会社 Road information detection device and road information detection method
EP3300052A4 (en) * 2015-05-22 2018-05-30 Panasonic Intellectual Property Management Co., Ltd. Road information sensing device and road information sensing method
WO2016189811A1 (en) * 2015-05-22 2016-12-01 パナソニックIpマネジメント株式会社 Road information sensing device and road information sensing method
US10551494B2 (en) 2015-05-22 2020-02-04 Panasonic Intellectual Property Management Co., Ltd. Road information detection apparatus and road information detection method
CN107408337B (en) * 2015-05-22 2020-06-16 松下知识产权经营株式会社 Road information detection device and road information detection method
JP2017036980A (en) * 2015-08-10 2017-02-16 日産自動車株式会社 Vehicle position estimation device and vehicle position estimation method
JP2017101944A (en) * 2015-11-30 2017-06-08 パイオニア株式会社 Speed calculation device, control method, program, and storage medium
US10147006B2 (en) 2015-12-01 2018-12-04 Denso Corporation Drive support system
WO2017168654A1 (en) * 2016-03-30 2017-10-05 パイオニア株式会社 Measurement device, measurement method, and program
JPWO2017168654A1 (en) * 2016-03-30 2019-02-14 パイオニア株式会社 Measuring apparatus, measuring method, and program
JPWO2018042628A1 (en) * 2016-09-02 2019-06-24 パイオニア株式会社 Speed calculation device, control method, program and storage medium
US11203349B2 (en) 2016-09-02 2021-12-21 Pioneer Corporation Velocity calculation apparatus, control method, program and storage medium

Also Published As

Publication number Publication date
JP4321142B2 (en) 2009-08-26

Similar Documents

Publication Publication Date Title
JP3822515B2 (en) Obstacle detection device and method
JP6471528B2 (en) Object recognition apparatus and object recognition method
US7859652B2 (en) Sight-line end estimation device and driving assist device
JP3123303B2 (en) Vehicle image processing device
US20120008129A1 (en) Object detection system
JP4321142B2 (en) Sign recognition device
JP2015143979A (en) Image processor, image processing method, program, and image processing system
JPH08313632A (en) Alarm generator, alarm generating method and vehicle mounting alarm generator
JP2006258497A (en) Object recognition apparatus for vehicle
KR101180621B1 (en) Apparatus and method for detecting a vehicle
JP2004205398A (en) Vehicle radar device and optical axis adjustment method of radar
JP5082923B2 (en) Vehicle obstacle detection device
JP3612970B2 (en) Tunnel detection apparatus and vehicle control apparatus using the same
JP2001195698A (en) Device for detecting pedestrian
CN108061902A (en) A kind of method and device of detecting object
JP3822417B2 (en) Vehicle periphery monitoring device
JP3070277B2 (en) Preceding vehicle detection device
JP2008056163A (en) Obstacle detecting device for vehicle
JPH04193641A (en) Obstacle detection device for vehicle
JP3988657B2 (en) Object detection device
JP2004271404A (en) Obstacle detector for vehicle
JP2006258507A (en) Apparatus for recognizing object in front
JP4033106B2 (en) Ranging performance degradation detection device for vehicles
JP4151571B2 (en) In-vehicle obstacle detection device
JPH05113482A (en) Rear end collision prevention device mounted on car

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090217

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090512

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090525

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120612

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120612

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130612

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees