JP4450532B2 - Relative position measuring device - Google Patents

Relative position measuring device Download PDF

Info

Publication number
JP4450532B2
JP4450532B2 JP2001218425A JP2001218425A JP4450532B2 JP 4450532 B2 JP4450532 B2 JP 4450532B2 JP 2001218425 A JP2001218425 A JP 2001218425A JP 2001218425 A JP2001218425 A JP 2001218425A JP 4450532 B2 JP4450532 B2 JP 4450532B2
Authority
JP
Japan
Prior art keywords
marker
image
distance
pattern
preceding vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001218425A
Other languages
Japanese (ja)
Other versions
JP2003030628A (en
Inventor
知信 ▲高▼島
大輔 上野
忠雄 尾身
幸三 馬場
寿雄 伊藤
正則 佐藤
智行 高橋
康治 田口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Toyota Motor Corp
Original Assignee
Fujitsu Ltd
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd, Toyota Motor Corp filed Critical Fujitsu Ltd
Priority to JP2001218425A priority Critical patent/JP4450532B2/en
Publication of JP2003030628A publication Critical patent/JP2003030628A/en
Application granted granted Critical
Publication of JP4450532B2 publication Critical patent/JP4450532B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は画像認識により先行車両との相対位置を計測する相対位置計測装置に関し、特に前方車が具備するマーカを撮像して相対位置を計測する相対位置計測装置に関する。
【0002】
【従来の技術】
都市の人口増加による大都市での交通渋滞などの交通問題を解消するために、様々な機関で高度道路交通システム(ITS:Intelligent Transport Systems)の研究が行われている。ITSは、道路交通の安全性、輸送効率、快適性の向上等を目的とした道路交通システムである。
【0003】
最新のITS技術の中には、IMTS(Intelligent Multi-mode Transit System)とよばれる高度中距離・中量輸送システムの技術がある。IMTSは、たとえば、バスなどの運搬車両が自動運転および隊列走行を行うシステムである。
【0004】
IMTSにおいて隊列走行を行うためには、後続車両において、先行車両との相対位置を計測し、車間を一定の距離に維持する必要がある。先行車両との相対位置の計測技術の1つに、先行車両に設置したマーカを画像で認識し、パターンマッチングにより車間の相対位置を導出する技術がある。
【0005】
パターンマッチング計測技術では、後続車両に、先行車両の後部に配置されたマーカの画像(テンプレート)を記憶させておく。そして、後続車両から先行車両後部のマーカをカメラで撮影し、撮影した画像と予め記憶していたテンプレートとのパターンマッチングを行うことで、先行車両の相対的位置を算出する。
【0006】
【発明が解決しようとする課題】
しかし、マーカパターンを画像処理にて認識する場合、正しいパターンを抽出する為に予め多数のパターンマッチング用のテンプレートが必要となる。すなわち、先行車両までの距離または回転により、画像に映し出されるマーカパターンの大きさや形状が変化する為、変化にあわせた複数のテンプレートを後続車両に記憶させておく必要があり、メモリ使用容量の増加を招く。
【0007】
また、テンプレートの数が増えれば、それだけパターンマッチングの処理回数も増加し、多くの計算処理が必要となる。その結果、相対的位置の計測に、時間がかかってしまう。
【0008】
IMTSの信頼性や安全性を確保するには、後続車両において、先行車両との相対的位置を、常に正確に認識していることが望まれる。そのためには、相対位置の計測は、少しでも短い時間で行われることが要求される。
【0009】
なお、特開2000−337871号公報に記載された技術のように、先行する車両の後部にマーカを一列に並べ、このマーカを後続車両が検出することにより相対距離を算出する方法がある。この方法によれば、相対位置の計算を短時間で行うことはできるが、先行車両がコーナで横方向を向いた場合(ヨー角が発生した場合)、距離を正確に計るのが困難である。すなわち、この技術は、カメラで捉えた画像におけるマーカ間の距離に基づいて車間距離を算出するものであるが、先行車両が横方向を向くと、車間距離が変わらなくても、画像内でのマーカ間の距離が短くなる。その結果、測定誤差が発生してしまう。
【0010】
このように、従来の画像処理技術では、先行車両との車間距離や相対角度を高精度に短時間で算出することが困難であった。
本発明はこのような点に鑑みてなされたものであり、画像認識を用いて、短時間に相対的位置の計測を正確に行うことができる相対位置計測装置を提供することを目的とする。
【0011】
【課題を解決するための手段】
本発明では上記課題を解決するために、図1に示すような相対位置計測装置2が提供される。本発明の相対位置計測装置2は、先行車両1の後部に、複数の軸方向に並べられたマーカ1a〜1eを撮像する撮像手段2aと、撮像手段2aで撮像したフレーム画像2bから、マーカ1a〜1eを表す複数のマーカ画像で構成されるマーカパターン2dを抽出する抽出手段2cと、抽出手段2cで抽出したマーカパターン2dに基づいて、少なくとも先行車両との相対距離または相対角度を算出する算出手段2eと、を有する。
【0012】
このような相対位置計測装置2によれば、先行車両の後部の複数の軸方向に配置されたマーカ1a〜1eが撮像手段2aで撮影され、フレーム画像2bが得られる。そのフレーム画像2bから抽出手段2cにより、マーカパターン2dが抽出される。そして、算出手段2eにより、マーカパターン2dに基づいて、先行車両との間の相対距離または相対角度が算出される。
【0013】
【発明の実施の形態】
以下、本発明の実施の形態を図面を参照して説明する。
図1は、本発明の原理構成図である。本発明の相対位置計測装置2は、先行車両1の後部の複数の軸方向に並べられたマーカ1a〜1eを撮像する撮像手段2aと、撮像手段2aで撮像したフレーム画像2bから、マーカ1a〜1eを表す複数のマーカ画像で構成されるマーカパターン2dを抽出する抽出手段2cと、抽出手段2cで抽出したマーカパターン2dに基づいて、先行車両との相対距離または相対角度を算出する算出手段2eと、を有する。
【0014】
このような相対位置計測装置によれば、先行車両の後部の複数の軸方向に配置されたマーカ1a〜1eが撮像手段2aで撮影され、フレーム画像2bが得られる。そのフレーム画像2bから抽出手段2cにより、マーカパターン2dが抽出される。そして、算出手段2eにより、マーカパターン2dに基づいて、先行車両との間の相対距離または相対角度が算出される。
【0015】
このように、本発明では、複数の軸方向(たとえば、縦方向と横方向)に配置されたマーカ1a〜1eから相対位置を算出するため、多数のテンプレートを記憶する必要が無くなる。その結果、メモリの使用量を削減できるとともに、処理時間を短縮することができる。しかも、マーカパターンが複数の軸方向に配置されているため、先行車両のヨー角が発生しても、縦方向に並んだマーカにより相対距離を正確に計測することができ、精度の高い計測結果を得ることができる。
【0016】
このような相対位置計測装置は、IMTSなどの技術に適用することができる。たとえば、車両の隊列走行を行う場合に、後続車両に本発明に係る相対位置計測装置を搭載すれば、信頼性の高い相対位置計測が可能である。以下、本発明をIMTSに適用した場合を例に採り、本発明の実施の形態について具体的に説明する。
【0017】
図2は、IMTSによる隊列走行の概要を示す図である。IMTSでは、複数の車両10,20,30が隊列走行を行う。車両10,20,30は、たとえば、バスのような運搬車両である。先頭の車両10を車両20が追尾し、車両20を車両30追尾することで、車両20と車両30とが自動運転で走行できる。
【0018】
車両10の後部には、マーカパネル11が取り付けられている。車両20の前には、カメラ21が取り付けられおり、車両20の後ろには、マーカパネル22が取り付けられている。同様に、車両30の前には、カメラ31が取り付けられており、車両30の後ろには、マーカパネル32が取り付けられている。
【0019】
マーカパネル11,22,32には、複数のマーカが所定のパターンで、複数の軸方向(たとえば、横方向と縦方向)に分散配置されている。車両20のカメラ21で先行する車両10のマーカパネル11を撮像することで、車両20に対する車両10の相対位置を計測することができる。また、車両30のカメラ31で先行する車両20のマーカパネル22を撮像することで、車両30に対する車両20の相対的位置関係を計測することができる。
【0020】
車両20,30は、それぞれに先行する車両との相対位置に基づいて、先行車両から一定の間距離を保って追随するように、ハンドル、アクセル、ブレーキ等が自動で制御される。
【0021】
図3は、先行する車両を後方から見た図である。先行する車両10のマーカパネル11には、5つのマーカ11a〜11eが配置されている。マーカ11a〜11eは、縦方向と横方向とに分散して配置されている。本実施の形態では、これらの5個のマーカ11a〜11eによって、マーカパターンが形成されている。
【0022】
マーカ11a〜11eの形状は長方形である。各マーカ11a〜11eは、たとえば、多数のLED(Light Emitting Diode)で構成された自己発光体である。なお、マーカ11a〜11eは、外観上周辺と区別できるものであれば、自己発光していなくてもよい。たとえば、マーカパネル11を黒色にし、マーカ11a〜11eを白色にして、区別できるようにしてもよい。
【0023】
図3の例では、5個のマーカ11a〜11eが配置されているが、複数方向に3個以上のマーカが分散配置されていれば、マーカパターンとしての認識が可能である。距離は1個のマーカでも算出可能である。
【0024】
図4は、マーカの配置を示す図である。図4(A)は、マーカパネルの正面図である。図4(B)は、図4(A)のX−X断面図である。
マーカ11aは上の左側、マーカ11bは上の右側に配置されている。マーカ11aとマーカ11bとは水平に並べられており、マーカ11aとマーカ11bとの幅はhM1である。マーカ11cは下の左側、マーカ11dは下に右側に配置されている。マーカ11cとマーカ11dとは水平に並べられており、マーカ11cとマーカ11dとの幅はhM2である。上の行のマーカ11a,11bと下の行のマーカ11c,11dとの高さの差は、VMである。
【0025】
マーカ11eは、マーカパネル11の中央の窪みの中に配置されている。マーカ11a〜11dを基準としたときのマーカ11eの奥行きは、dMである。
このように、マーカ11a〜11eは、3軸方向(縦、横、奥行き)に分散配置されている。これにより、先行する車両10と後続の車両20との相対位置を、正確に計測することが可能となる。以下、マーカ11a〜11dを周辺マーカと呼び、マーカ11eを中央マーカと呼ぶこととする。
【0026】
マーカを奥行き方向に分散配置したこと(マーカパネルに凹凸を設けたこと)で、ヨー角θyを高精度に算出することができる。
すなわち、各マーカが同一平面上に配置されていた場合、先行する車両10のヨー角の変化は、マーカパターンあるいは各マーカ画像の縦横比の変化で検出することになる。すなわち、ヨー角が大きくなれば、マーカパターンあるいは各マーカ画像が横方向に縮むため、縦横比で横方向の縮度合いを判定し、その縮み度合いでヨー角を算出することができる。
【0027】
しかし、先行する車両10がピッチ方向(車両の中心から横方向に定義される軸周りの方向)にも回転する場合、ピッチ角が大きくなると、マーカパターンあるいは各マーカが、縦方向に縮む。そのため、マーカパターンあるいは各マーカの縦横比だけでは、ヨー角を正確に算出することが困難である。
【0028】
そこで、本実施の形態では、マーカパターンに凹凸を付けることにより、ヨー角の変化が、撮像された画像(以下、フレーム画像という)内でマーカパターンを構成するマーカ画像の配置の変化に現れるようにしている。
【0029】
図5は、フレーム画像の例を示す図である。なお、図5において、フレーム画像40の横方向をx軸、縦方向をy軸とする。
フレーム画像40には、5つのマーカ11a〜11eそれぞれに対応するマーカ画像41〜45が描画されている。先行する車両10の相対ヨー角が発生することで、同一平面上にないマーカは、他のマーカと水平方向の方位角に差が生じる。この方位角の差は、ヨー角の大きさに比例して大きくなる。
【0030】
中央マーカ(マーカ11e)が周辺マーカ(マーカ11a〜11d)と同一平面にあった場合には、マーカ画像41〜44の中央の位置P0に描画されるが、本実施の形態では中央マーカ(マーカ11e)が周辺マーカ(マーカ11a〜11d)より奥にある。そのため、位置P0よりも左方向にずれてマーカ画像45が表示されている。
【0031】
マーカ画像45の位置P0からのずれ幅によって、正確なヨー角を算出することができる。たとえば、同一平面上に存在する周辺マーカ(マーカ11a〜11d)の対角線46,47の交点P1のx座標と、実際の中央マーカ(マーカ11e)のマーカ画像45のx座標との差によって、ヨー角を算出することが可能になる。
【0032】
図6は、車両の相対的位置の関係を示す図である。相対位置は、後続の車両20を基準にして計測される。相対位置は、車両間の距離d、方位角θ、およびヨー角θyによって特定される。車両間の距離dは、先行する車両10の後部から、後続の車両20の前部までの距離である。方位角θは、後続の車両20の前後方向に定義した軸101(車両20が直進する際の進行方向と平行な軸)と、先行する車両10の後部と後続の車両20の前部とを結ぶ線分102との成す角である。ヨー角θyは、後続の車両20の前後方向に定義した軸101に平行な軸103と、先行するの車両10の前後方向に定義した軸104(車両10が直進する際の進行方向と平行な軸)との成す角である。
【0033】
図7は、車両に搭載されている自動追尾機能の構成を示すブロック図である。車両20は、先行する車両10を追尾するために、カメラ21,画像処理部23,制御部24,メモリ25,センサ26,およびアクチュエータ27を有している。
【0034】
カメラ21は、光学系21aとCCD(Charge Coupled Device)21bとで構成される。光学系21aは、複数のレンズによって構成され、先行する車両10からの光をCCD21bの受光面に集光する。CCD21bは、光学系21aによって集光された光を光電変換によって、対応する画像信号に変換する。
【0035】
画像処理部23は、CCD21bから出力された画像信号に対して、例えば、輪郭抽出処理等を施すことにより、マーカ画像を抽出する。
制御部24は、画像処理部23によって抽出されたマーカ画像を用いて、車両10の相対的な位置を算出するとともに、算出された相対位置に応じてアクチュエータ27を制御する。
【0036】
メモリ25は、半導体メモリ等によって構成されており、画像処理部23によって抽出されたマーカに対応する画像を一時的に格納したり、制御部24が所定の制御を行う場合に演算途中のデータやプログラム等を一時的に格納したりする。更に、メモリ25は、不揮発性メモリも具備しており、制御部24が実行する種々のプログラムや、データ(例えば、マーカ同士の距離)等も格納している。
【0037】
センサ26は、車速、アクセルの開度、トランスミッションの状態等の情報を検出して制御部24に供給する。アクチュエータ27は、アクセルコントローラおよびブレーキコントローラ等によって構成されており、制御部24からの指令に基づいて車両20の走行状態を制御する。
【0038】
なお、図7に示す画像処理部23,制御部24およびメモリ25は、1つの制御装置として車両20に搭載される。
次に、車両20における相対位置計算処理について説明する。
【0039】
図8は、相対位置計算処理全体の処理手順を示すフローチャートである。以下に、図8に示す処理をステップ番号に沿って説明する。
[ステップS11]制御部24は、初期処理を行う。初期処理は、マーカ間の距離などの各種変数の値を初期値に設定したり、メモリ25内に作業用の記憶領域を確保したりする処理である。マーカ間の距離やマーカサイズは変更される可能性があるため、パラメータにより随時変更可能となっている。
【0040】
[ステップS12]制御部24は、マーカパターンの全探索処理を行う。全探索処理は、カメラ21で撮影されたフレーム画像内の全範囲を対象として、マーカパターンを探索する処理である。全探索処理の詳細は後述する。
【0041】
[ステップS13]制御部24は、ステップS12で探索したマーカパターンに基づいて、相対位置を算出する。
[ステップS14]制御部24は、先行する車両が検出されたか否かを判断する。先行する車両が検出された場合には、処理がステップS15に進められる。先行する車両が検出されなかった場合には、処理がステップS12に進められる。これにより、車両が検出されるまで、全探索処理が繰り返し実行される。
【0042】
[ステップS15]制御部24は、検出された車両までの距離が遠方か否かを判断する。距離が遠方か否かは、検出された車両までの距離が、予め設定された閾値より遠いかどうかで判断される。距離が遠方の場合には、処理がステップS18に進められる。距離が遠方でない場合には、処理がステップS16に進められる。
【0043】
[ステップS16]制御部24は、マーカ画像の追跡処理を行う。追跡処理は、フレーム画像内の直前にマーカ画像が検出された位置周辺をマーカ画像の探索範囲として、マーカ画像毎の追跡を行う処理である。追跡処理の詳細は後述する。
【0044】
[ステップS17]制御部24は、ステップS16で検出されたマーカパターンに基づいて、先行する車両の相対位置を算出する。その後、処理がステップS20に進められる。
【0045】
[ステップS18]制御部24は、小領域全探索処理を行う。小領域全探索処理は、マーカパターンの探索範囲を狭めたこと以外は、処理手順が全探索処理と同様である。そのため、小領域全探索における探索範囲の決定方法は後述することとし、小領域全探索の処理手順の詳細をフローチャートを用いて説明することは省略する。
【0046】
[ステップS19]制御部24は、ステップS18で探索されたマーカパターンに基づいて、先行する車両の相対位置を算出する。その後、処理がステップS20に進められる。
【0047】
[ステップS20]制御部24は、所定時間継続して車両が検出されていないかどうかを判断する。所定時間は、予め設定されている。所定時間は、たとえば、追跡処理(ステップS16)または小領域全探索処理(ステップS18)において、連続して車両を検出できなかった回数で定義することができる。その回数は、予めパラメータとして設定しておく。
【0048】
所定時間継続して車両が検出されなかった場合には、処理がステップS12に進められ、全探索処理が行われる。所定時間内に車両が検出された場合には、処理がステップS15に進められ、追跡処理(ステップS16)もしくは小領域全探索処理(ステップS18)が繰り返される。
【0049】
図9は、全探索処理の手順を示すフローチャートである。以下、図9に示す処理をステップ番号に沿って説明する。
[ステップS21]制御部24は、カメラ21から取得したフレーム画像を2値化する。2値化とは、カメラ21からの入力画像を、ある明るさより明るい部分を白、暗い部分を黒に置きなおす処理である。
【0050】
[ステップS22]制御部24は、ラベリングを行う。ラベリングとは、2値化されたフレーム画像に点在する白い部分(マーカ画像)に、識別番号を付与する処理である。すなわち、フレーム画像内の高輝度領域が、マーカ画像となる可能性のある領域である。
【0051】
[ステップS23]制御部24は、マーカ画像がマーカ条件を満たすか否かを判定し、マーカ画像を絞り込む。
第1のマーカ条件は、マーカ画像の面積が所定範囲内であることである。マーカ画像の最大面積と最小面積が予め設定されており、最小面積以上、最大面積以下であることが、マーカ条件として定められている。
【0052】
第2のマーカ条件は、マーカ画像の縦横比が所定範囲内であることである。マーカ画像の縦横比の最大値と最小値とは、パラメータで指定することができる。第3のマーカ条件は、マーカ画像の充填率に異常が無いことである。充填率とは、マーカ画像を囲う矩形の領域内の、マーカ画像(白色の部分)が占める割合である。充填率が異常に少ない場合、そのマーカ画像は、本当のマーカが映し出されたものではない(偽のマーカである)と判断される。
【0053】
第4のマーカ条件は、マーカ候補となるマーカ画像が、多すぎないことである。マーカ画像が多すぎると、画像的に信頼できないと判定し、以後の処理を行わずに、エラー終了する。許容するマーカ画像の数は、パラメータで予め指定しておくことができる。
【0054】
[ステップS24]制御部24は、マーカ画像に設定した識別番号を、マーカ画像の面積が広い順にソートする。面積でソートし、ソートされた順番に、マーカの判定を行うことにより、大きさが著しく異なるマーカによるパターン判定を行わないようにすることができ、マーカパターン検出の精度を向上させることができるとともに、処理の高速化を図ることができる。
【0055】
[ステップS25]制御部24は、マーカパターン検出処理を行う。マーカパターン検出処理の詳細は後述する。
[ステップS26]制御部24は、マーカパターン検出処理により、マーカパターンが検出されたか否かを判断する。マーカパターンが検出された場合には、処理がステップS27に進められる。マーカパターンが検出されなかった場合には、処理がステップS28に進められる。
【0056】
[ステップS27]制御部24は、検出されたマーカパターンを出力して、処理を図8のステップS13に進める。
[ステップS28]制御部24は、先行する車両が検出できないことを示すエラーメッセージを出力して、処理を図8のステップS13に進める。
【0057】
図10は、マーカパターン検出処理の手順を示すフローチャートである。以下、図10に示す処理をステップ番号に沿って説明する。
[ステップS31]制御部24は、マーカ画像の中の未処理の3点を、ソートされた識別番号の配列の前から順に取得する。このときの選択条件は、選択されたマーカ画像同士の面積が、著しく異ならないことである。
【0058】
たとえば、選択されたマーカ画像の中の最もサイズが大きいマーカ画像の面積をMS1と、最もサイズが小さいマーカ画像の面積をMS2としたときに、MS1/K≦MS2が満たされることが選択条件となる。ここで、Kは予めパラメータで設定された閾値であり、1以上の実数である。なお、1/Kの値をパラメータで設定しておいてもよい。
【0059】
これにより、サイズが著しく異なるマーカ画像同士の判定が行われなくなり、相対位置計測の精度が向上すると共に、無駄な判定が行われないことで処理が高速化される。
【0060】
[ステップS32]制御部24は、取得した3点のマーカ画像が、周辺マーカの条件を満たすか否かを判断する。
3点のマーカ画像が周辺マーカであるための第1の条件は、2点のマーカ画像が水平であることである。この場合、完全に水平でなくても、2点を通る直線の傾きが閾値以下であれば、その2点が水平であるとみなす。傾きの閾値は、パラメータで設定することができる。
【0061】
3点のマーカ画像が周辺マーカであるための第2の条件は、水平な2点間の距離(画像におけるピクセル数)と、その2点から他の1点までの画像上でのx方向やy方向の距離との比が、予め決められている比に近似することである。予め決められている比は、マーカパネル11の周辺マーカ(マーカ11a〜11d)の配置に基づいて決められている。誤差の許容範囲は、パラメータで指定することができる。
【0062】
周辺マーカの条件を満たした場合には、処理がステップS33に進められる。周辺マーカの条件を満たさない場合には、処理がステップS40に進められる。
[ステップS33]制御部24は、取得した3点のマーカ画像に基づいて、他の点の位置を推測する。他の点の位置は、マーカパネル11の各マーカ11a〜11e間の距離の比に基づいて推測される。
【0063】
[ステップS34]制御部24は、ステップS33で推測した位置近くに存在するマーカ画像を、他のマーカ画像として当てはめる。近くであるかどうかの許容範囲は、パラメータで設定することができる。
【0064】
[ステップS35]制御部24は、マーカパターンとして検出されたマーカ画像がN点以上か否かを判断する。Nは、3,4,5のいずれかの値のパラメータである。N点以上である場合には、処理がステップS36に進められ、N点未満である場合には、処理がステップS40に進められる。
【0065】
[ステップS36]制御部24は、偽のマーカ画像が含まれているか否かを判断する。たとえば、取得した全マーカ画像の平均高さをa、取得した1つのマーカ画像の上下方向の高さの差をbとした場合に、b×K1<a<b×K2(K1<K2:K1,K2は正の実数)を満たさない場合には、偽のマーカが含まれているものと判断する。なお、K1とK2とは、マーカパネル11におけるマーカ11a〜11eの配置に基づいて予め設定されるパラメータである。
【0066】
また、既知のマーカの大きさとマーカパターンの大きさとの比と、画像上でのマーカ画像とマーカパターンの大きさとの比とを比べ、その誤差が少ない場合に、偽のマーカ画像が含まれていないと判断することができる。
【0067】
偽のマーカ画像が含まれていない場合には、処理がステップS37に進められる。偽のマーカ画像が含まれている場合には、処理がステップS40に進められる。
【0068】
[ステップS37]制御部24は、取得したマーカ画像群をマーカパターンとして認識し、認識した車両台数の値に1を加算する。
[ステップS38]制御部24は、ステップS37で認識したマーカパターンが、既に認識されているどのマーカパターンよりも大きいか(最大マーカパターンか)を判断する。マーカパターンの大きさは、たとえば、マーカパターンの高さで判断する。カメラ21で撮影されたフレーム画像上、最大マーカパターンで示される車両が、最も近距離の車両と判断される。
【0069】
ステップS37で認識したマーカパターンが最大マーカパターンの場合には、処理がステップS39に進められる。ステップS37で認識したマーカパターンが最大マーカパターンではない場合には、処理がステップS40に進められる。
【0070】
[ステップS39]制御部24は、ステップS37で認識したマーカパターンを、最近車両のマーカパターンとして登録する。
[ステップS40]制御部24は、残りのマーカ画像の組み合わせがあるか否かを判断する。残りの組み合わせがある場合には、処理がステップS31に進められる。残りの組み合わせがない場合には、処理が図9に示すステップS26に進められる。
【0071】
次に、追跡処理の詳細について説明する。
図11は、追跡処理の手順を示すフローチャートである。以下、図11に示す処理をステップ番号に沿って説明する。
【0072】
[ステップS51]制御部24は、前回のマーカパターン検出で検出されたマーカパターン中のマーカ画像を1つ選択する。
[ステップS52]制御部24は、マーカ画像周囲の探索範囲を取得する。探索範囲は、マーカ予測位置を中心として、所定の範囲である。なお、マーカ位置の予測が行われない場合には、前回のマーカの位置が中心となる。
【0073】
前のマーカパターンの検出においてマーカパターンが認識されている場合、マーカパターンに含まれる各マーカ画像の大きさ×L(Lは正の実数)とM(Mは正の実数)との大きい方の値を、探索範囲の半径(あるいは探索範囲の幅と高さ)とする。
【0074】
マーカパターンが未認識の場合、マーカ画像の平均の大きさ×LとMとの大きい方の値を、探索範囲の半径(あるいは探索範囲の幅と高さ)とする。
なお、LとMとは、パラメータで設定することができる。
【0075】
[ステップS53]制御部24は、カメラ21から取得した画像の2値化、およびラベリングを行う。
[ステップS54]制御部24は、2値化した画像における探索範囲内からマーカ画像を取得する。ここで取得するマーカ画像は、探索範囲の境界の上と下との両方に接していないこと、および探索範囲の境界の右と左との両方に接していないことが条件となる。また、探索範囲内に複数のマーカ画像が検出された場合には、探索範囲の中央に最も近いマーカ画像が取得される。
【0076】
[ステップS55]制御部24は、マーカ画像が見つかったか否かを判断する。マーカ画像が見つかった場合には処理がステップS56に進められ、マーカ画像が見つからなかった場合には、処理がステップS57に進められる。
【0077】
[ステップS56]制御部24は、真正のマーカ画像としての条件を判定する。真正のマーカ画像の第1の条件は、マーカの面積が最小値以上、最大値以下であることである。真正のマーカ画像の第2の条件は、マーカの縦横比が閾値内であることである。真正のマーカ画像の第3の条件は、充填率が異常でないことである。これらの条件の1つでも満たしていないマーカ画像は、偽のマーカ画像と判断される。
【0078】
[ステップS57]制御部24は、他のマーカ画像があるか否かを判断する。他のマーカ画像がある場合には処理がステップS51に進められる。他のマーカ画像がない場合には、処理がステップS58に進められる。
【0079】
[ステップS58]制御部24は、パターン判定を行う。パターン判定では、第1の条件として、2点のマーカ画像が水平上にあることが評価される。水平であることを満たすための許容範囲は予め設定されている。
【0080】
第2の条件として、第1の条件で水平と評価された2点のマーカ画像と他のマーカ画像との位置関係が評価される。すなわち、水平な2点間の距離(画像におけるピクセル数)と、その2点から他の1点までの画像上でのx方向やy方向の距離との比が、マーカパネル11のマーカ11a〜11eの配置に基づいて予め決められている比に近似しているかどうかが評価される。誤差の許容範囲は、パラメータで指定することができる。
【0081】
第3の条件として、異なる複数のマーカの追跡において、同一のマーカ画像を検出した場合に、そのマーカ画像がどちらのマーカの追跡対象であるのかが判断される。たとえば、他のマーカ画像との位置関係から、各マーカのマーカ画像としての信頼性が評価される。具体的には、他のマーカ画像(重複して検出されたマーカ画像以外)が、前のフレーム画像における位置よりも左に移動していれば、重複して検出されたマーカ画像は、その位置よりも前のフレーム画像で右側に映し出されていたマーカのマーカ画像としての信頼性が高く評価される。そして、信頼性の低い方のマーカの追跡対象から、そのマーカ画像が除外される。
【0082】
パターン判定による条件を満たさないマーカ画像は、追跡対象のマーカ画像から除外される。
[ステップS59]制御部24は、追跡できなかったマーカについて、そのマーカ(無効マーカ)の位置を他のマーカ画像の位置から予測する。
【0083】
[ステップS60]制御部24は、次のフレーム位置を予測する。たとえば、制御部24は、前回のマーカ画像の位置と現在のマーカ画像の位置から、次のフレームでの位置を、一次補外で予測する。ただし、車両の振動が激しく、位置予測の信頼性が確保できない場合には、パラメータの設定によって、位置予測機能を停止させておくこともできる。その後、処理が図8のステップS17に進められる。
【0084】
以上のような処理を行うことにより、フレーム画像からマーカパターンが抽出され、そのマーカパターンに基づいて、先行する車両との相対位置が算出される。
【0085】
[相対位置計算]
次に、相対位置計算手法の詳細について説明する。
図12は、先行する車両の後部を写したフレーム画像の例を示す図である。フレーム画像50には、車両10(図3に示す)の後部が映し出されている。フレーム画像50内には、マーカ画像51〜55が含まれている。マーカ画像51〜55の位置は、たとえば、マーカ画像51〜55の重心に定義される。周辺マーカのマーカ画像51〜54は、台形を形成している。
【0086】
ここで、台形の上底56に配置されるマーカ画像51,52の画面上での距離(ピクセル数)をh1とする(画像の右側が正)。台形の下底57に配置されるマーカ画像53,54の画面上での距離(ピクセル数)をh2とする(画像の右側が正)。台形の上底56の中点と、台形の下底57の中点との距離(ピクセル数)を、マーカパターンの高さ(縦方向の間隔)vとする。台形の2つの対角線58,59の交点と、フレーム画像50の中心点(図12中、×印で示す)との距離(ピクセル数)をhcとする(画像の右側が正)。また、中央マーカのマーカ画像55と、フレーム画像50の中心点との距離(ピクセル数)をmcとする(画像の右側が正)。
【0087】
本実施の形態では、マーカパターンを構成する各マーカ画像51〜55の位置から、マーカまでの距離d,方位角θおよびヨー角θyを求める。マーカまでの距離dは、マーカ画像51〜55間の縦方向の間隔vから求める(横方向の間隔から求めることも可能)。方位角θはマーカ基準点(たとえば、周辺マーカのマーカ画像51〜54の対角線58,59の交点)のフレーム画像50上の位置から求める。ヨー角θyは中央マーカであるマーカ画像55の左右方向のずれ(中央マーカが見つからなかった場合は、マーカ間の縦方向の間隔vと横方向の間隔)から求める。
【0088】
本実施の形態のような5点のマーカ11a〜11eによるマーカパターンの場合、周りの4点の周辺マーカから作られる台形の上底56と下底57との長さから横方向の間隔を求める。また、上底56と下底57との中点を結ぶ線の長さから縦方向の間隔vを求める。また、カメラ21の中心座標から周辺マーカの対角線58,59の交点までの距離hcから方位角θを求める。
【0089】
なお、パラメータでの指示により、マーカ間の横方向の間隔から距離を求めることも可能である。また、前回にマーカパターンを検出し、その車間距離が近距離(画角からのマーカパターンの一部が外れて、3個未満のマーカのみが画像上に写る可能性がある)と判定している場合、マーカ2個の横方向の間隔やマーカ1個の大きさから距離を求めることも可能である。
【0090】
奥行きを持たせている中央マーカはヨー角θyを計算する際に用いられる。すなわち、周辺マーカであるマーカ画像51〜54の対角線58,59の交点と、中央マーカであるマーカ画像55までの距離mcとからヨー角θyが求められる。
【0091】
5点全てのマーカのマーカ画像が認識されていない場合には、4点、3点、2点、1点のマーカ画像に基づいて、相対位置を計算することができる。これにより、天候などの外乱によりマーカを数個ロスト(検出できないこと)しても距離や方位角などを求めることが可能となり、先行する車両の位置の検出率が向上する。
【0092】
具体的な距離の計算方式を次に示す。
i)図12に示すように5点すべてのマーカ画像が見つかった場合の計算例について説明する。まず、マーカパターンの幅hを、
【0093】
【数1】
h=(w11+w22)/c ・・・・(1)
と定義する。ここで、w1は、上底のマーカ間の実際の距離に応じてつけられる重みである。w2は、下底のマーカ間の実際の距離に応じてつけられる重みである。たとえば、
【0094】
【数2】
1:w2=hM1:hM2 ・・・・(2)
とする。
【0095】
また、cは、w1:w2とマーカパターン形状に応じてつけられる定数であり、たとえば、
【0096】
【数3】
c=w1M1+w2M2/vM ・・・・(3)
と定義する。この定数cにより、ヨー角θyが0のときに、v=hとなる。
【0097】
また、カメラ特性から決まるパラメータで、カメラから距離1mの平面上に置かれた長さvMの線の画像上でのピクセル数をCcとする。
このとき方位角θ,距離d,ヨー角θyは、以下の式で算出される。
【0098】
【数4】
θ=−tan-1(Ccc) ・・・・(4)
【0099】
【数5】
d=Cc/(vcosθ) ・・・・(5)
【0100】
【数6】
θy=−tan-1(Ccc
−sin-1((mc−hc)vMcos(−tan-1(Ccc))/(vdM))+θ・・・・(6)
ii)次に中央マーカを除く4点のマーカ画像が見つかった場合について説明する。この場合、方位角θと距離dとは、それぞれ式(4),式(5)で算出する。ヨー角θyは2組の平行なマーカ画像から次の式(7)のように求め、マーカ間長さによる重み付平均をとる。
【0101】
【数7】
θy=±cos-1(dvM(p-+p+)cosθ/ccL√(1+α2))+α・・・・(7)
ここで、p+は、平行なマーカ画像のうち、左側のマーカ画像のx座標(ピクセル)である。p-は、平行なマーカ画像のうち、右側のマーカ画像のx座標(ピクセル)である。Lは、平行なマーカ画像の実際の幅(h1またはh2)である。αは、
【0102】
【数8】
α=−(p++p‐)vM/2cc・・・・(8)
である。
【0103】
ただし、式(7)のcos-1の引数が1より大きい場合は、ヨー角θyは0とする。
iii)次に、周辺マーカの1点を除く4点が見つかった場合について説明する。
【0104】
図13は、周辺マーカの1点を除く4点が見つかった場合のフレーム画像の例を示す図である。フレーム画像60には、マーカ11b〜11eに対応するマーカ画像62〜65が含まれているが、マーカ11aに対応するマーカ画像61が見つかっていない。そこで、周辺の4つのマーカ画像のうち3つまでしか見つからなかった場合、まず見つからなかったマーカ画像61の位置を推定する。
【0105】
まず、2つのマーカ画像63,64を通る直線66の傾きを求める。そして、見つからなかったマーカ画像61の水平方向に対になるマーカ画像62から、残りの2つのマーカ画像63,64の傾きと傾きが逆の直線67を引く。
【0106】
次に、2つのマーカ画像62,64を通る直線68の傾きを求める。そして、見つからなかったマーカ画像61の垂直方向に対になるマーカ画像63から、残りの2マーカ画像62,64の傾きと傾きが逆の直線69を引く。
【0107】
直線67と直線69と交点をマーカ画像61の推定位置とする。
このように推定されたマーカ画像61を含めて、式(4),式(5),式(6)によって方位角θ,距離d,ヨー角θyを求める。
【0108】
なお、ヨー角θyが発生せずに、ロール角(車両の前後方向の軸周りの回転)が発生することが既知の場合は、以下のようにして、縦方向の間隔vを求めることができる。
【0109】
図14は、ロール角が発生するときのフレーム画像の例を示す図である。フレーム画像60aには、周辺マーカのうちの4つのマーカ画像62a,63a,64a,65aが含まれている。マーカ11aに対応するマーカ画像61aは検出されていない。
【0110】
ロール角が発生する場合、水平に存在する2点のマーカ画像63a,64aを通る直線66aと、他のマーカ画像62aとの最短距離を、縦方向の間隔vとすることができる。これは、ロール角が発生しても、ヨー角が発生しなければ、上辺、下辺が平行であることを利用している。
【0111】
iv)周辺マーカの3つのマーカ画像しか見つからなかった場合には、iii)で説明したように、検出できなかったもう1つの周辺マーカのマーカ画像の位置を推定する。そして、i)と同様に、式(4)、式(5)により、方位角θと距離dとを求め、ii)と同様に式(7)によりヨー角θyを求める。
【0112】
v)次に、周辺マーカ2つと中央マーカしか検出できなかった場合について説明する。この場合、周辺マーカのうち水平方向に対になる2つのマーカ画像が検出されたときと、周辺マーカのうち水平方向に対になる2つのマーカ画像以外が検出されたときとに分けられる。
【0113】
図15は、周辺マーカのうち水平方向に対になる2つのマーカ画像が検出された場合のフレーム画像の例を示す図である。フレーム画像70には、周辺マーカに対応する2つのマーカ画像73,74と、中央マーカに対応するマーカ画像75が含まれている。他の周辺マーカに対応するマーカ画像71,72は検出されていない。
【0114】
この場合、中央マーカのマーカ画像75から水平なマーカ画像73,74を通る直線76に下ろした垂直線77の長さをv/2とし、その2倍(中央マーカの垂直位置が台形の上底・下底のちょうど中間にある場合)を縦方向の間隔vとする。横方向の間隔hに関しては、マーカ画像の対が存在しない側に対応する重み(図15の例ではw1)を0としてi)と同様の方法で距離d,方位角θ,ヨー角θyを求める。
【0115】
図16は、周辺マーカのうち水平方向に対になる2つのマーカ画像以外が検出された場合のフレーム画像の第1の例である。このフレーム画像80には、周辺マーカに対応する2つのマーカ画像82,84と、中央マーカに対応するマーカ画像85とが含まれている。他の周辺マーカに対応するマーカ画像81,83は検出されていない。
【0116】
図16に示したような場合、周辺部の2つのマーカ画像82,84を結ぶ線分86を斜辺とする直角三角形をつくり、直角三角形の高さを縦方向の間隔vとする。また、直角三角形の幅h3に2vM/(hM2−hM1)をかけたものを、横方向の間隔hとする。これにより周辺部マーカ4点が確認できる場合のhと等価なものが得られる。これらの条件から、i)と同様の方法で距離d,方位角θ,ヨー角θyを求める。
【0117】
図17は、周辺マーカのうち水平方向に対になる2マーカ画像以外が検出された場合のフレーム画像の第2の例である。このフレーム画像90には、周辺マーカに対応する2つのマーカ画像92,93と、中央マーカに対応するマーカ画像95が含まれている。他の周辺マーカに対応するマーカ画像91,94は検出されていない。
【0118】
図17に示したような場合、周辺部の2つのマーカ画像92,93を結ぶ線分96を斜辺とする直角三角形をつくり、その高さを縦方向の間隔vとする。また、直角三角形の幅h4に2vM/(hM2+hM1)をかけたものを、横方向の間隔hとする。これにより周辺部のマーカ4点が確認できる場合のhと等価なものが得られる。これらの条件から、i)と同様の方法で距離d,方位角θ,ヨー角θyを求める。
【0119】
vi)マーカが2点しか見つからなかった場合には、前回の判定で距離が近距離であると判別されており、かつマーカ画像が横方向の2点と判別された場合であれば、その2個のマーカ画像の間隔から距離dを計算する。方位角θは2つのマーカ画像の中央から求める。
【0120】
前回の判定で距離が近距離でないと判別されている場合は、距離計算を行わない。
前回の判定が画角内のマーカが3個未満であると予想されるような近距離(例えば、3m以内の距離)の場合に限り、この検出方法を用いることにより、太陽光などの誤検出を最小限に抑える事ができる。近距離の場合には前方車両による隠蔽により太陽光の影響はほとんどない。
【0121】
vii)マーカが1点しか見つからなかった場合、前回の判定で距離が近距離であると判別されていれば、その1個のマーカの大きさ(縦のサイズ)から距離dを計算する。また、前回までの検出結果により、検出されたマーカ画像が、どのマーカのものであるかを特定し、方位角θを算出する。前回の判定で距離が近距離でないと判別されている場合、距離計算を行わない。
【0122】
前回の判定が画角内のマーカが2個未満であると予想されるような近距離(例えば、1m以内の距離)の場合に限り、この検出方法を用いることにより、太陽光などの誤検出を最小限に抑える事ができる。近距離の場合には前方車両による隠蔽により太陽光の影響はほとんどない。
【0123】
以上のように、マーカを縦方向と横方向とに分散して配置したことにより、少ないメモリ使用量で、先行する車両の位置を高精度に、かつ短時間で測定することができる。しかも、周辺マーカのうち3つのマーカ画像が検出されれば、他の1つの位置を推定して相対位置を計算できるため、刻々と変化する自然環境内での使用にも耐え得る信頼性を確保することができる。
【0124】
[重心算出]
次に、重心算出方法について説明する。本実施の形態では、重心の算出精度を高めるために、制御部24において、複数のマーカ画像の輝度分布情報をもとに重み付けを行う。そして、重み付けが行われた輝度分布情報を用いマーカ画像の重心位置を算出する。この重心位置を、マーカ画像の位置(マーカ基準位置)とする。
【0125】
図18は、マーカ画像の拡大図である。図18に示すように、先行する車両のマーカを撮影した場合、空気中の塵や埃などの影響を受け、マーカ画像の輪郭はぼやける。
【0126】
図19は、マーカ画像の輝度ヒストグラムを示す図である。図19では、横軸にX座標、縦軸に輝度値を示している。図19に示すように、マーカ画像は、中央付近の輝度値が高い値になっており、周辺に近づくに従い輝度値が低い値になっている。
【0127】
このように、マーカが長方形の場合、中心部分が明るく周辺部分がぼやける。外乱によるにじみや、マーカ自身の回転(車両のロール方向の回転)が発生することにより、さらに影響は大きくなる。特に、自然状況(雨、雪、霧など)により、一方向ににじむ可能性もある。
【0128】
ここで、マーカ基準位置の算出方法として、以下の3つの方法が考えられる。
(1)2値画像のマーカ中心位置
(X方向最大値と最小値の中点、Y方向最大値と最小値の中点)
(2)2値画像の重心算出
(3)輝度重みを付けた重心算出
きれいな長方形マーカのマーカ画像が、デジタル化された時に、きれいな長方形になるのであれば、(1)で十分である。ところが、実際には、外乱による「にじみ」の発生や回転が発生するため、デジタル画像上は長方形で表示されない。
【0129】
図20は、マーカ画像の2値化処理の例を示す図である。図20(A)は、2値化前のマーカ画像のピクセル毎の輝度値を示しており、図20(B)は、2値化後のマーカ画像のピクセル毎の輝度値を示している。
【0130】
図20の例では、閾値を20として2値化処理を行っている。すなわち、2値化前の輝度値が20未満のピクセルは、2値化後の輝度値が0となる。2値化前の輝度値が20以上のピクセルは、2値化後の輝度値が1となる。なお、図20(B)では、2値化後の輝度値が1(2値化時に閾値以上)のピクセルは、白抜きの四角で示しており、2値化後の輝度値が0(2値化時に閾値未満)のピクセルは、黒抜きの四角で示している。
【0131】
図20(A)の例では、2値化前のマーカ画像111では、中心付近に最も輝度値が高いピクセルがあり、周囲に近づくに従い輝度値が低くなっている。このマーカ画像111が2値化されると、図20(B)に示すように、2値化後のマーカ画像112は正確な長方形ではなくなる。図20(B)の例では、長方形からはみ出した位置に、輝度値が1のピクセル112aが存在することで、マーカ画像112が歪んでしまっている。
【0132】
このように、2値化を行うと、にじみなどにより発生した閾値以上の点(実際のマーカが存在しない位置において乱反射などにより発生する明るい点)に影響を受ける。そのため、マーカ基準位置の算出方法(1)の場合は、大きな誤差が発生する。高々1ピクセルのはみ出しであっても、基準位置が0.5ピクセル単位で影響を受けることになる。
【0133】
それに比べ、マーカ基準位置の算出方法(2)の重心算出の場合、算出方法(1)に比較して、図20に示したような1ピクセルの影響を少なくすることができ、確率的に精度は向上する。すなわち、重心算出を行うことにより、ピクセル単位以下の精度(サブピクセル)による基準位置の検出が可能となる。
【0134】
また、雨などにより片方向に「にじみ」が発生することも予想される。2値化時に閾値以上となった場合でも、正規のマーカ位置の輝度は高く、「にじみ」部分の輝度は低いという特性がある。この特性を利用し、マーカ基準位置の算出方法(3)では、各ピクセルに対して、重心算出時に2値化前の輝度値による重み付けをする。これにより、より正確にマーカ基準位置を求めることができる。
【0135】
すなわち、マーカ基準位置の算出方法(3)では、マーカ画像の各ピクセルに対して、カメラ21から送られた画像の輝度値に応じた重みを設定する。そして、各ピクセルに対して、重みに応じた仮想質量を与え、マーカ画像の質量中心を求める。
【0136】
図21は、輝度重みの重心計算例を示す図である。図21では、マーカ画像の輝度分布を、横軸にx座標、縦軸に輝度値を設定した輝度ヒストグラムで示している。図中、線121は、輝度重みの重心位置を示している。また、線122は、2値化結果の重心位置を示している。
【0137】
図21の例では、雨などにより片方向(図中左側)ににじみが発生し、輝度の高い領域が、広がってしまっている。そのため、2値化結果の重心位置は、線122に示すように、左側にずれてしまっている。ここで、輝度重みを付けて、重心を求めると、線121で示したように、輝度値の高い位置に重心が求められる。
【0138】
このように、ヒストグラムが図21のグラフのような場合には「両端画素の中心を求める方法」や、「2値化結果の重心を求める方法」では、重心は両端からの中間点付近になる。しかし、マーカが遠方の場合は映像上ではボケている部分があり、一番明るい部分が重心に近い値になる。そのため、「輝度重みをつけた重心」は、より実際のマーカの中心に近い位置を示す。
【0139】
[マーカ条件判定と充填率]
次に、マーカ条件の判定と充填率について説明する。本実施の形態では、マーカ重心座標位置から予め定められたマーカを認識する。
【0140】
自然環境内で車両の隊列走行を行うと、雨滴の影響で長方形マーカの形状が乱れることにより未検出のマーカが発生したり、太陽光の影響によりマーカ以外のものをマーカと誤認識したりする場合がある。この為、本実施の形態では、マーカの形状を調べる際、次のことをチェックする。
・ 高輝度領域の縦横比は実際マーカの縦横比に近いか。
・ 高輝度領域の形状は長方形(矩形)か。具体的には、高輝度領域を覆いこむ最小の長方形の面積と、高輝度領域の面積の比(面積充填率)を求め、これが予想値、指定値に近いかどうかを調べる。
・ 高輝度領域のサイズが小さすぎたり、または大きすぎたりしないか。これは、想定車間距離範囲におけるマーカサイズの最大値と最小値を予め設定しておき、高輝度領域のサイズが、予め設定された最小値以上、最大値以下であることを調べる。
【0141】
これらの評価基準を満たすものは「マーカ条件を満たす」とされ、マーカ画像候補とする。また、マーカの評価基準に重み付けを行い、マーカ画像候補を重みに応じて総合評価することで、マーカ画像とみなすか否かを判断することができる。この場合、重み付けに関しては、運用形態(走行コース・周辺環境・マーカ形状等)により設定することができる。
【0142】
例えば、近距離においては充填率の重みを強くし、遠距離時には最大面積で判定することで、距離に応じた的確な判定が可能となる。近距離においては遠距離と異なりマーカが矩形である確率が高く、遠距離においては近距離の場合と比較して、円形に近くなることが多いという特性を反映することにより、本処理が実現可能となる。
【0143】
この判定処理により、マーカ同士の位置関係が偶然に真のマーカパターンに近いような発光体群に関しても誤認識を防止することが可能となる。また、マーカ候補数を減らすことが可能となる為、最終的なマーカパターン判定が高速化するという効果もある。
【0144】
図22は、縦横比による判定処理結果の一例を示す図である。図22(A)はカメラから入力された画像を示しており、図22(B)はラベリング結果を示しており、図22(C)は形状判定後に抽出されたマーカ画像候補を示している。
【0145】
カメラ21から入力されたフレーム画像130には、高輝度の領域が複数存在する。図22(A)の例では、フレーム画像130内に、楕円形の領域、三角形の領域、および4カ所の四角形の領域が含まれる。そこで、制御部24は、ラベリングを行い、高輝度の領域に識別番号を付与する。図22(B)の例では、楕円形の領域に1、三角形の領域に2、4カ所の四角形の領域にそれぞれ、3から6の識別番号を付与している。
【0146】
ここで、制御部24が縦横比の判定を行う。実際のマーカの形状が正方形であれば、図22(B)に示す楕円形の領域のように横に長すぎる形状や、三角形の領域のように縦に長すぎる形状は、マーカ画像でない(縦横比が異常である)と判断される。その結果、図22(C)に示すように、四角形の領域のみが、マーカ画像候補として抽出され、それぞれに、1から4の識別番号が振り直される。
【0147】
図23は、充填率判定例を示す図である。充填率を判断する場合、制御部24は、マーカ画像141を囲む矩形領域142を設定する。矩形領域142のx軸方向の幅をx1、y軸方向の幅をy1、マーカ面積S(画面上のドット数)とすると、充填率Fは、
【0148】
【数9】
F=S/(x1+y1) ・・・・(9)
で算出することができる。充填率Fは最大値が1であり、マーカ画像141が矩形に近づくほど充填率Fが1に近づく。
【0149】
以下に、実際にはマーカではないが、縦横比のみで判定するとマーカと誤認識するような例を示す。
図24は、充填率の判断で異常とされる画像の例を示す図である。図24(A)は、歪んだ形状の画像の例を示し、図24(B)は、十時型の画像の例を示し、図24(C)は、三角形の画像の例を示す。
【0150】
各画像151,152,153は、縦横比では正常と判断されるが、充填率では異常と判断される。
マーカは矩形であっても、画像情報において一般的に完全な矩形としてとらえることは不可能である。しかし、撮像対象と撮像手段との間隔が近距離になるほど、マーカ画像も矩形に近くなるという特性がある(充填率が1に近くなる)。よって、充填率によりマーカ画像の判定を行うことにより、高輝度領域が存在した時に、マーカとマーカ以外の判定を的確に行うことができ、結果的に誤認識の防止に効果を発揮する。
【0151】
[追跡処理]
次に、追跡処理について説明する。追跡処理では、マーカパターンが具備する対象の動きが予め定められた範囲にある場合において、マーカおよびマーカパターンを抽出する。
【0152】
図25は、マーカの探索範囲を示す図である。図25の例では、画像160内におけるマーカ画像の探索範囲161b,162b,163b,164b,165bを前時刻のマーカ画像161a,162a,163a,164a,165aの基準位置により判断する。そして、探索範囲161b,162b,163b,164b,165b内から、現時刻のマーカ画像161〜165を検出する。
【0153】
たとえば、前時刻のマーカ画像の基準位置を(x2,y2)とした場合、(x2−p,y2−q)〜(x2+p,y2+q)の範囲を、マーカ探索範囲とする。ここで、p,qは、探索幅を示す変数であるが、p,qの値は、前時刻でのマーカの幅などの情報に基づいて算出される。
【0154】
図26は、探索幅の算出方法を説明する図である。図26(A)は、マーカ探索範囲の第1の候補を示しており、図26(B)は、マーカ探索範囲の第2の候補を示している。
【0155】
前時刻のマーカ画像161aの幅をcx、前時刻のマーカ画像161aの高さをcyとする。ここで、x3=cx/2、y3=cy/2とする。
マーカ探索範囲の第1の候補161cでは、図26(A)に示すように、前時刻のマーカ画像161aの基準位置から横方向にx3×n(nは、1以上の実数)、縦方向にy3×r(rは、1以上の実数)以内の範囲が探索範囲となる。
【0156】
マーカ探索範囲の第2の候補161dでは、図26(B)に示すように、前時刻のマーカ画像161aの基準位置から横方向にx3+m(mは、正の実数)、縦方向にy3+s(sは、正の実数)以内の範囲が探索範囲となる。
【0157】
そして、実際の探索範囲を定めるための探索幅(p,q)は、x軸、y軸それぞれの方向において、大きい方の値が採用される。
たとえば、引数の値の最大値を返す関数をmax(引数#1,引数#2,・・)と定義すると、探索幅(p,q)を以下の様に求めることができる。
【0158】
【数10】
p=max(x×n,x+m)・・・・(10)
【0159】
【数11】
q=max(y×r,y+s)・・・・(11)
これにより、マーカ画像のサイズが大きいとき(マーカが近距離)には、マーカ探索範囲の第1の候補161cで定義されるような探索範囲が決定される。また、マーカ画像のサイズが小さいとき(マーカが遠距離)には、マーカ探索範囲の第2の候補161dで定義されるような探索範囲が決定される。これにより、近距離から遠距離まで、距離に応じた探索範囲が決定される。
【0160】
マーカ探索範囲の第2の候補161dの「m」や「s」による加算処理は、カメラ21の撮像時間内の画像内のマーカパターンの移動が、一定方向の場合に有効に利用できる。たとえば、以下のような場合がある。
・ 自車両のカメラの光軸回転振動(車両振動(ヨー角、ピッチ角)、ステア機構ぶれ、 カメラ治具のぶれ)が有る場合。
・ 道路が線形(正確には角度一定ではない可能性もある)のときの前方車両位置が、画像上で移動する場合。
・ オフセットマージンを設定すべき場合。
【0161】
それに対して、マーカ探索範囲の第1の候補161cの「n」や「r」による乗算処理は、撮影間隔内での移動量が距離に反比例する場合に効果がある。たとえば、以下のような場合に効果がある。
・前方車両のマーカの位置変化量(横位置ずれ,ヨー角変化、ピッチ角変化)を考慮する場合。
・自車両の平行移動振動(横位置ずれなど)がある場合。
・係数マージンを設定すべき場合。
【0162】
実際には、いずれかの値の大きい方(余裕が必要な側)を採用(max値)する。これらを考慮すると実質的に、マーカが遠点ではマーカ探索範囲の第2の候補161dを、近点ではマーカ探索範囲の第1の候補161cを用いることとなる。
【0163】
また、n,m,s,r は、パラメータによって外部指定可能とすることにより、様々な走行コースに対応することができる。たとえば、その時点での前方コース形状を考慮し、動的に変化させる事も可能である。
【0164】
上記設定値を決定するにあたっては、
・道路線形(道路にそった車両の移動分)
・撮像手段(カメラ)のブレ
・車両の振動
・マージン(余裕分)
等を総合的に判断する必要がある。
【0165】
例えば、上記の要因に起因する縦横変化の成分を以下のように規定する。
まず、様々な要因によって引き起こされるマーカパターンの位置ずれの想定量を、道路線形(x11,y11)、カメラのブレ(x12,y12)、車両振動(x13,y13)、ロール(x14,y14)、マージン(x15,y15)とする。このとき、最大の縦横変化の成分は以下の値として設定する。
【0166】
【数12】
横変化の最大値=x11+x12+x13+x14+x15・・・・(12)
【0167】
【数13】
縦変化の最大値=y11+y12+y13+y14+y15・・・・(13)
一般的に道路線形はアップダウンよりも左右のカーブがきつく(x11>y11)、カメラ21のブレはカメラ21の水平方向への回転台を用いている場合横方向のブレが大きい(x12>y12)。そのため、横方向の探索範囲を広く設定することとなる。これにより、不要な縦方向の範囲を探索することが無くなるので、太陽光などの誤認識の防止に非常に効果がある。また、処理速度の向上も期待できる。
【0168】
[小領域全探索]
次に、小領域全探索について説明する。小領域全探索処理では、前時刻のマーカパターン座標情報から、マーカパターンが存在する座標範囲を限定・推定し、限定範囲内でマーカおよびマーカパターンを抽出する。
【0169】
図27は、小領域全探索処理の探索範囲を示す図である。画像170には、前時刻のマーカパターンを形成するマーカ画像171a,172a,173a,174a,175aの位置に応じて、探索範囲176が決定される。この探索範囲176内を全探索することにより、現時刻のマーカ画像171〜175が検出され、現時刻のマーカパターンが認識される。
【0170】
図28は、偽のマーカが存在する場合の画面例を示す図である。図28の画像180には、現時刻の小領域の探索範囲186内に、真正のマーカ画像181〜185が写っている。探索範囲186外には、偽のマーカ画像187a〜187dが写っている。
【0171】
制御部24は、前時刻のマーカパターンを構成するマーカ画像の座標(基準位置)より、マーカパターンの位置、大きさを算出する。そして、制御部24は、予想される移動範囲を加味し、マーカパターン探索範囲を決定する。制御部24は、限定したマーカパターンの探索範囲に対し、全探索処理を行うことにより、マーカ検出、パターン検出を行う。
【0172】
これにより、処理対象を限定することによる高速化が図れる。また、図28に示したような、様々な要因により発生する偽のマーカ画像(マーカ以外の高輝度領域)への誤認識を防止することができる。
【0173】
ここで、小領域全探索における探索範囲の算出方法について説明する。
図29は、小領域全探索における探索範囲の算出方法を説明する図である。直前のフレーム画像190で検出されたマーカ画像191〜195に基づいて、制御部24は、マーカ画像191〜195で構成されるマーカパターンを含む最小領域196を判断する。最小領域196のx座標とy座標との中心を、マーカパターンの中心の位置P0(x0,y0)とする。
【0174】
ここで、マーカパターンの中心の位置P0(x0,y0)を基準とし、(x0−p1,y0−q1)〜(x0p1,y0q1)の範囲を、マーカパターンの探索範囲とする。
【0175】
ここで、前時刻でのマーカパターンの幅をdx、前時刻でのマーカパターンの高さをdyとすると、x4=dx/2、y4=dy/2と表すことができる。
ここで、探索幅(p1,q1)を以下の様に求める。
【0176】
【数14】
p1=max(x4×n1,x4+m1)・・・・(14)
【0177】
【数15】
q1=max(y4×r1,y4+s1)・・・・(15)
n1,r1は1以上の実数であり、m1,s1は0以上の実数である。このように、複数の値の最大値を採るようにしたのは、近距離から遠距離をサポートするためである。
【0178】
「+m1」,「+s1」のように変数を加算する場合は、カメラ21から見て撮像間隔内の画像上のマーカパターンの移動方向が一定の場合に有効である。たとえば、以下のような場合に有効である。
・ 自車両のカメラの光軸回転振動(車両振動(ヨー角、ピッチ角)、ステア機構ぶれ、 カメラ治具のぶれ)が有る場合。
・ 道路が線形(正確には角度一定ではない可能性もある)のときの前方車両位置が、画像上で移動する場合。
・ オフセットマージンを設定すべき場合。
【0179】
それに対して、「×n」や「×r」のように変数を乗算する場合は、撮影間隔内での移動量が距離に反比例する場合に効果がある。たとえば、以下のような場合に効果がある。
・前方車両のマーカの位置変化量(横位置ずれ,ヨー角変化、ピッチ角変化)を考慮する場合。
・自車両の平行移動振動(横位置ずれなど)がある場合。
・係数マージンを設定すべき場合。
【0180】
これらの複数の値のうち余裕が必要な側を採用(max値)する。これらを考慮すると実質的に遠点では前者を近点では後者を用いることとなる。
また、n1,m1,s1,r1は、パラメータにより外部指定可能とすることにより、様々な走行コースに対応する。その時点での前方コース形状を考慮し、動的に変化させる事も可能である。
【0181】
上記設定値を決定するにあたっては、道路線形、撮像手段(カメラ)のブレ、車両の振動、マージン等を総合的に判断する必要がある。
例えば、上記の要因に起因する縦横変化の成分を以下のように規定する。
道路線形(x21,y21)
撮像手段のブレ(x22,y22)
車両振動(x23,y23)
ロール(x24,y24)
マージン(x25,y25)
このとき、最大の縦横変化の成分は以下の値として設定する。
【0182】
【数16】
横変化の最大=x21+x22+x23+x24+x25・・・・(16)
【0183】
【数17】
縦変化の最大=y21+y22+y23+y24+y25・・・・(17)
一般的に道路線形はアップダウンよりも左右のカーブがきつく(x21>y21)、撮像手段のブレはカメラの水平方向への回転台を用いている場合横方向のブレが大きい(x22>y22)ため、横方向の探索範囲を広く設定することとなる。これにより、不要な縦方向の範囲を探索することが無くなるので、太陽光などの誤認識の防止に非常に効果がある。また、処理速度の向上も期待できる。
【0184】
[追跡(位置予測)]
次に、位置の予測処理について説明する。制御部24は、過去のマーカ座標情報およびマーカパターン座標情報から、次時刻のマーカおよびマーカパターンの座標情報を推定し、抽出対象の座標範囲を限定する。
【0185】
図30は、マーカ画像の位置の予測処理を説明する図である。直前の画像でのマーカ画像211の位置から現在の画像でのマーカ画像212の位置までの移動量を算出する。移動量は、たとえば、移動ベクトル214で表すことができる。
【0186】
制御部24は、前回の位置から現在の位置までの移動量と同じだけの移動した位置に、次回のマーカ画像213が現れると予想する。たとえば、移動ベクトル214と同じ長さ、同じ方向の移動ベクトル215を想定し、現在位置から移動ベクトル215で移動した位置を、次回予想位置とする。すなわち次回のマーカ画像の探索においては、直前の2回分のマーカ画像の位置から、現在位置が予想されている。
【0187】
なお、前回のマーカ画像の位置や、現在のマーカ画像の位置は、たとえば、輝度に応じた重み付けを行ったときの重心位置の計算によって算出される。また、マーカ画像の追跡における探索範囲の基準位置を、次回のマーカ画像の予想位置とすることで、マーカ発見の確実性が向上する。
【0188】
本実施の形態については、対象物(マーカおよびマーカパターン)の等速移動の前提が守られるような場合は特に有効な手段である。位置予測処理の適用に際しては、走行コース・撮像手段・自車挙動・先行車挙動等の特性を考慮する必要がある。
【0189】
[発光素子分離対応(画素融合処理)]
複数の発光素子から構成される自己発光マーカの場合、近接時に発光素子が分離されて検出される虞がある。この場合、制御部24は、画像上の分離された画素を融合することで、マーカ候補領域を求める。
【0190】
図31は、複数の発光素子からなるマーカの近接時の画像を示す図である。図31に示すように、マーカが複数のLEDで構成される場合などには、マーカとカメラとの距離が近すぎると、1つのマーカ画像が分離し、複数の高輝度領域の集合として写る。ラベリング処理をそのまま行うと、分離した1つ1つの高輝度領域が、それぞれマーカ候補となってしまう。
【0191】
この分離を抑えるために、制御部24において、通常は領域の膨張・画像の縮小・ぼかし処理等を行うこともできるが、これでは時間がかかってしまう。
そこで、制御部24では、画像処理でなく、ラベリングの途中で隣接していないが近くに存在する高輝度画素の融合処理を行う。これによりマーカの誤認識を防止し、処理の高速化を図ることもできる。
【0192】
本実施の形態では、横方向に関しては、ラベリング途中にて出現したランを用いて画素融合処理を実施する。ランは、2値化画像の記憶容量を縮小するために、領域を水平線の集合体と見なすときに用いられる情報である。2値化後に高輝度に設定された領域の各水平線の始点(左側)と終点(右側)座標のみを記憶するとき、この水平線をランと呼ぶ。ランは2値画像が1ライン上で横方向(水平方向)に連結している数を示す情報であり、情報としては開始x座標、終了x座標、y座標を持っている。
【0193】
横方向の場合には、y座標が同じで、ランの終了x座標と次のランの開始x座標が小さい場合(パラメータで数値を指定)そのランは接続しているものとして処理する。縦方向に関しても同じように、x座標が同じで、ランの終了y座標と次のランの開始y座標が小さい場合(パラメータで数値を指定)そのランは接続しているものとして処理する。
【0194】
図32は、発光素子画像結合処理の例を示す図である。図32(A)は、発光素子の画像結合前の2値画像を示しており、図32(B)は、発光素子の画像結合の2値画像を示している。
【0195】
このように、発光素子毎の画像(高輝度領域)同士の間隔は狭いため、結合処理を行うことで、1つの高輝度領域となる。すなわち、1つのマーカ画像として扱われる。
【0196】
画素融合に関する指定間隔のパラメータ設定にあたっては、発光素子の特性や配置間隔等を考慮する必要がある。また、一般的に発光素子が分離するのは、自己発光マーカと撮像手段が近接した場合であるが、本実施の形態を適用するか否かを、状況により判断できるように設定することも重要である。例えば、近接時のみ適用、距離不明時に適用、近距離または距離不明時に適用、常時適用、常時適用なしといった指定を予め可能にしておくことにより、発光素子特性・走行コース・天候等幅広い運用形態に対応可能となる。
【0197】
[距離モード]
次に、距離モードについて説明する。制御部24は、前時刻の対象までの距離情報をもとに、各機能を切り替えることができる。たとえば、制御部24は、前回の検出結果の距離によって、状態を遠距離、中距離、近距離の3つのパターンに分け、それぞれ処理方法を切り替える。距離に応じて、最適な処理方法をダイナミックに切り替えることにより、各距離範囲でのマーカおよびマーカパターンの誤認識を防止し、単一距離設定では対応不可能な距離範囲を処理対象とすることが可能になる。
【0198】
なお、遠距離、近距離となる場合の距離の区別はそれぞれパラメータで指定する。パラメータ設定については、以下を総合的に判定し決定することにより、幅広い利用形態に適合可能となる。
・マーカおよびマーカパターンサイズ
・マーカの発光素子の特性
・道路線形(アップダウン/左右カーブ)
・車両の振動特性
・撮像装置の挙動特性等
a)遠距離
遠距離の場合、制御部24は、マーカパターンの検索方法として、小領域全探索を行う。小領域全探索は探索範囲を限定し、全探索処理を行う方法である。探索範囲を限定することで処理の高速化を図りなおかつ、マーカの高速な移動に対応できるモードである。
【0199】
マーカ毎の追跡処理では、マーカ1個毎に探索を行うため、5個マーカ全てが高速に移動する場合には適当ではない。それに対して小領域全探索では、マーカ全体が大きく移動する場合に対応ができる。このため、対象が遠距離にあり、撮像機器がぶれる場合等に十分対応できる。
【0200】
ただし、対象が近くなり、検索する範囲が大きくなると処理に時間がかかるようになるため、小領域全探索処理は、マーカ全体が小さく見える遠距離の場合の処理とする。
【0201】
b)中距離
中距離の場合、制御部24は、マーカパターンの検索方法として、マーカ1個毎に探索を行う追跡処理を行う。ある程度近い距離であるため、光学上、遠距離と比較すると、撮像機器がぶれた場合等でも影響が少ない。
【0202】
小領域全探索ではマーカパターンの探索範囲を限定するため、遠距離でない場合は探索範囲が広くなり、最終的には画像全体が探索範囲となり処理効率が悪くなる。さらに不必要に広い範囲を探索することは誤認識をまねく原因ともなってしまう。
【0203】
そこで、ある程度近い距離の場合には、マーカが大きくなるためマーカ1個ずつをそれぞれ探索する方が処理効率として向上し、総合的な探索範囲としては狭くなるので、誤認識をまねく可能性が低くなる。
【0204】
また、マーカが大きいことが判っているため、マーカ1個の検索として画像の間引きを実施してマーカを求めることが可能になる。
c)近距離
近距離の場合、制御部24は、マーカパターンの検索方法として、マーカ1個毎に探索を行う追跡処理を行う。マーカが大きく見えることが判っているため、マーカ個数が2個、1個となってもそのマーカの間隔、マーカサイズから距離を求めることを許可する。これにより2個以下のマーカのみが画角内に存在する場合にも距離算出が可能となる。近距離以外では3個以上のマーカが画角内に存在し、また太陽光などを誤検出する可能性が高くなる為、この方式を用いない事が望ましい。
【0205】
また、近距離の場合には発光素子の分離も考慮し、画素融合処理を重ねて実施する。
さらに、近距離の場合のみ、撮像手段(カメラ21)の露出を上げる。これにより、太陽光などの外乱の誤認識を最小限に抑えながら、発光阻止の分離による誤認識を防止できる。
【0206】
なお、本実施の形態においては、遠距離・中距離・近距離と3種類のパターンに分けた処理となっているが、距離に応じた設定の切替を、さらに細分化してもよい。これにより、さらに細かな距離別対応が可能となり、結果的に誤認識防止、認識率向上を実現することができる。
【0207】
[処理範囲限定]
制御部24は、対象までの距離に応じて(距離の関数として)、マーカパターンの探索範囲を変化させることもできる。
【0208】
図33は、対象が遠距離の場合に制限された探索範囲について示す図である。追尾対象の車両までの距離が遠距離の場合、カメラ21から送られた画像220には、追尾すべき車両に設置されたマーカのマーカ画像221以外にも、雲の画像222や水たまりで反射したマーカの反射画像223などが映し出される。画像220上部には、雲以外にも、太陽があり得る。これらの画像は、マーカの誤認識の要因となる。
【0209】
そこで、制御部24は、画像の上から所定の範囲と、下から所定の範囲をマーカパターンの探索範囲から除外する。従って、探索範囲224は、画像220の上下を除いた中央部となる。これにより、誤認識要因を除去し、誤検出を防止することができる。
【0210】
なお、コース形状(急なカーブが存在しないなど)により、マーカパターンが存在しうる範囲を横方向に限定することも可能である。
図34は、対象が近距離の場合に制限された探索範囲について示す図である。追尾対象の車両までの距離が近距離の場合、カメラ21から送られる画像230には、マーカパターンを構成するマーカ画像231が大きく映し出される。この場合、直前の検出結果の距離に応じて、探索範囲232を上下に広く取る。
【0211】
すなわち、探索範囲は、近距離において広く、遠距離において狭くする。これにより、近距離において、真正のマーカ画像が探索範囲から外れることがなくなる。
【0212】
[位置に応じた探索範囲制限]
IMTSでは、走行レーンに磁気レーンマーカを一定間隔で敷設し、その磁気レーンマーカを検出することで、各車両自身が、現在の位置を把握することができる。そこで、本実施の形態では、車両の現在の位置に応じて、先行する車両のマーカの探索範囲を制限する。
【0213】
図35は、位置に応じた探索範囲制限を行うための処理機能を示す機能ブロック図である。
磁気レーンマーカ検出部301は、走行レーンに敷設された磁気レーンマーカを検出する。この磁気レーンマーカ検出部301は、図7に示したセンサ26の一機能である。
【0214】
位置情報取得部302は、磁気レーンマーカ検出部301が検出した磁気レーンマーカの情報に基づいて、現在の位置情報を取得する。探索範囲抽出部303は、位置情報取得部302が取得した位置情報に基づいて、マーカ画像若しくはマーカパターンの探索範囲を抽出する。たとえば、現在の位置と、走行レーンの地図情報とにより、長い直線の途中を走行中であることが分かれば、左右を制限した探索範囲を抽出する。探索範囲抽出部303は、抽出した探索範囲をマーカ抽出部305とマーカパターン抽出部306に渡す。
【0215】
撮像部304は、先行する車両の映像を撮影し、画像を生成する。撮像部304は、図7に示すカメラ21と画像処理部23とで構成される機能である。
マーカ抽出部305は、撮像部304から撮影した画像を受け取り、その画像における探索範囲抽出部303から渡された探索範囲内から、マーカ画像を抽出する。
【0216】
マーカパターン抽出部306は、マーカ抽出部305が抽出したマーカ画像を解析し、マーカパターンを抽出する。なお、マーカパターン抽出部306は、マーカ抽出部305において、探索範囲の制限を行っていない場合には、探索範囲抽出部303から送られた探索範囲内のマーカ画像のみからマーカパターンの抽出を行う。
【0217】
相対位置算出部307は、マーカパターン抽出部306が抽出したマーカパターンにより、先行する車両の相対位置を算出する。
これにより、先行の車両を追尾する車両では、磁気レーンマーカを検出することで、自己の現在位置を把握し、その現在位置と走行レーンの地図情報とを比較することで、的確に探索範囲が決定される。そして、決定された探索範囲よりマーカパターンの検出が行われる。
【0218】
これにより、探索範囲が絞られ、処理速度が上がる。また、探索範囲の絞り込みを的確に行うことができるため、ノイズを誤ってマーカと認識することを抑制することが可能となる。
【0219】
なお、位置情報取得は、GPS(Global Positioning System)で行うこともできる。このとき、自走距離やハンドルの切り幅などにより、GPSにより得られた位置を補正することもできる。
【0220】
[撮像装置の回転制御]
上記の例では、撮像装置であるカメラ21を固定的なものとして説明したが、先行する車両との相対的位置関係に応じて、カメラ21の位置を回転させることもできる。以下、カメラ21の回転手法について説明する。
【0221】
図36は、回転機構を有するカメラの上面図である。図36に示すように、車両20の先頭には、カメラ21が回転台27aの上に設置されている。回転台27aは、モータが内蔵されており、制御部24からの信号に従ってモータが回転し、カメラ21を回転させる。すなわち、回転台27aは、アクチュエータ27の一部である。
【0222】
回転台27aの回転角は、走行レーン上の絶対位置に応じて制御することができる。そのような制御を行うときの制御方法について以下に説明する。
図37は、撮像装置の回転制御機能を示す機能ブロック図である。図37において、磁気レーンマーカ検出部301と位置情報取得部302とは、図35に示した同名の構成要素と同じである。磁気レーンマーカ検出部301と位置情報取得部302とにより、レーン上に設けられた磁気レーンマーカなどによりレーンマーカ情報が取得される。レーンマーカ情報は、予め定められた道路線形によって二次元、若しくは三次元による座標マップと対応づけられている。
【0223】
図38は、レーンマーカと座標との対応表を示す図である。各レーンマーカには、001から順番に番号が振られている。そして、各レーンマーカには、X座標、Y座標、接線に対する道路線形の絶対角度(以下、単に絶対角度という)が対応づけられている。たとえば、k(kは自然数)番目のレーンマーカのX座標はX(k)、Y座標はY(k)、絶対角度はφ(k)である。u(uは自然数)番目のレーンマーカのX座標はX(u)、Y座標はY(u)、絶対角度はφ(u)である。
【0224】
図37の説明に戻り、対象マーカ距離設定記憶部311は、先行する車両に設定されたマーカとの間に保持すべき距離が設定されている。制御部24は、設定された距離に車間を保つように、アクセルやブレーキなどを制御する。
【0225】
対象マーカ距離算出部312は、先行する車両に設定されたマーカとの距離dを算出する。
撮像装置回転角度算出部313は、位置情報取得部302からの位置情報と、対象マーカ距離設定記憶部311からの距離または、対象マーカ距離算出部312が算出した距離dに基づいて、カメラ21が設置された回転台27aの回転角度を算出する。
【0226】
このような構成による撮像装置回転角の算出方法について説明する。
図39は、隊列走行をしている車両を上から見た図である。なお、図39では、図中横方向がX軸であり、縦方向がY軸である。
【0227】
先行する車両10と追走する車両20とは、走行レーン320に沿って走行している。走行レーン320には、多数の磁気レーンマーカ330が敷設されている。図39の例では、先行する車両10は、走行レーン320のu番目のレーンマーカ332が敷設された場所を走行中である。追走する車両20は、車両10から距離dだけ離れて、走行レーン320のk番目のレーンマーカ331が敷設された場所を走行中である。
【0228】
図40は、図39の拡大図である。図40には、補助線として、車両20の位置に敷設されているk番目のレーンマーカ331における道路線形(マーカの位置を滑らかに結ぶ線)の接線341、車両20の前後方向の軸342、車両10の前後方向の軸343、カメラ21とマーカパネル11とを結ぶ直線344が示されている。
【0229】
ここで、接線341と軸342との成す角をφ1、接線341と軸343との成す角をφ2、軸342と直線344との成す角をφaとする。
自車である車両20は、k番目のレーンマーカ331を検出し、対象マーカ距離設定記憶部311、若しくは対象マーカ距離算出部312から先行の車両10までの距離dを得たとする。車の長さをd1、レーンマーカの間隔をd2とすれば、uは式(18)によって求めることができる。
【0230】
【数18】
u=k+(d+d1)/d2・・・・(18)
また、レーンマーカ間隔が不均等である場合、それぞれのレーンマーカ間距離の積分値で求めることもできる。
【0231】
撮像装置回転角度算出については、以下を考慮する必要がある。
1.道路線形の接線の絶対角度(φ1k,φ1u)
2.車両挙動による道路線形接線に対する車両のヨー角(φ2k,φ2u)
3.車両の道路に対しての横位置ズレ量(x1k,y1k)、(x1u,y1u)
4.車両内のレーンマーカセンサに対しての撮像手段位置(dxc,dyc)
5.車両内のレーンマーカセンサに対してのマーカ位置(dxm,dym)
撮像装置回転角度算出の手順は、以下の通りである。各種角度の算出には一般の幾何学原理を用いる。
【0232】
図41は、撮像回転角度算出処理の手順を示すフローチャートである。以下、図41に示す処理をステップ番号に沿って説明する。
[ステップS101]位置情報取得部302は、磁気レーンマーカより、検出されたレーンマーカの番号を取得する。そして、位置情報取得部302は、図38に示したレーンマーカと座標との対応表に基づいて、道路位置(X(k),Y(k)),(X(u),Y(u))を取得する。また、位置情報取得部302は、および車両の道路に対しての横位置ズレ量(x1k,y1k)、(x1u,y1u)を磁気レーンマーカ検出部301より取得し、車両の縦位置および横位置(レーンマーカセンサの位置が基準)を定める。
【0233】
[ステップS102]撮像装置回転角度算出部313は、道路線形の接線の絶対角度(φ1k,φ1u)と、車両挙動による道路線形接線に対する車両のヨー角(φ2k,φ2u)とにより、車両の角度を定める。
【0234】
【数19】
φ1=φ1k+φ2k ・・・・(19)
【0235】
【数20】
φ2=φ1u+φ2u ・・・・(20)
[ステップS103]撮像装置回転角度算出部313は、ステップS101,S102および車両内のレーンマーカに対しての撮像手段位置(dxc,dyc)により、全座標内での後続車の撮像手段位置(xc,yc)を算出する。
【0236】
[ステップS104]撮像装置回転角度算出部313は、ステップS101,S102および車両内のレーンマーカセンサに対してのマーカ位置(dxm,dym)により、全座標内での前方車のマーカ位置(xm,ym)を算出する。
【0237】
[ステップS105]撮像装置回転角度算出部313は、撮像手段からマーカの絶対角度を以下の式にて算出する。
【0238】
【数21】
φa=tan-1((ym−yc)/xm−xc))
・・・・(21)
[ステップS106]撮像装置回転角度算出部313は、カメラの回転角度を、
【0239】
【数22】
φc=φa−φ1・・・・(22)
として算出する。
【0240】
以上のようにして、カメラの回転角度を算出することができる。なお、さらにレーンマーカ間隔での離散的な算出処理を車輪パルス等で補間することにより、より誤差の少ない、スムーズな撮像装置の回転が可能となる。例えば、道路の曲率などを車輪パルスで線形補間することにより緩和曲線区間(カーブのきつさが距離で変化する部分)での誤差、不連続性を改善できる。
【0241】
撮像装置回転角度算出部313は、この値φcの角度情報を回転台27aに送信する。回転台27aは、受け取った角度情報をもとにカメラ21を回転する。これにより、対象マーカをカメラ21で追尾することが可能となる。
【0242】
このように、対象マーカを積極的に視野内にとらえることで、対象マーカ以外の外乱ノイズの影響を受けにくく、また望遠レンズを使用することができ、より精度の高い画像処理装置、または画像処理システムの実現が可能となる。
【0243】
またφaとφ2の差の絶対値により、マーカからカメラ21への相対角度が求まる。これにより角度の大きい場合だけ撮像手段の露出を上げることにより,太陽光などの外乱の誤認識を最小限に抑えながら、小さな半径のカーブでの検出を確保することが可能となる。
【0244】
なお、上記の実施の形態では、先行車両との相対位置の計測を、後続車両の自動運転に利用する場合について説明したが、運転の補助機能(ドライビングアシスト)として、相対位置の計測結果を利用してもよい。たとえば、車間距離が短くなったときにドライバに警告を発することができる。また、先行車両の方位角やヨー角の発生により、前方にコーナがあることをドライバにアナウンスしてもよい。
【0245】
なお、上記の処理機能は、コンピュータによって実現することができる。その場合、制御装置が有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリなどがある。磁気記録装置には、ハードディスク装置(HDD)、フレキシブルディスク(FD)、磁気テープなどがある。光ディスクには、DVD(Digital Versatile Disc)、DVD−RAM(Random Access Memory)、CD−ROM(Compact Disc Read Only Memory)、CD−R(Recordable)/RW(ReWritable)などがある。光磁気記録媒体には、MO(Magneto-Optical disc)などがある。
【0246】
プログラムを流通させる場合には、たとえば、そのプログラムが記録されたDVD、CD−ROMなどの可搬型記録媒体が販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。
【0247】
プログラムを実行するコンピュータは、たとえば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。
【0248】
(付記1) 画像解析により先行車両との相対位置を計測する相対位置計測装置において、
前記先行車両の後部の位置に複数の軸方向に並べられた複数のマーカを撮像し、フレーム画像を生成する撮像手段と、
前記撮像手段が生成した前記フレーム画像から、前記複数のマーカを表す複数のマーカ画像で構成されるマーカパターンを抽出する抽出手段と、
前記抽出手段で抽出した前記マーカパターンに基づいて、前記先行車両との相対距離および相対角度を算出する算出手段と、
を有することを特徴とする相対位置計測装置。
【0249】
(付記2) 前記算出手段は、2つのマーカ画像の前記フレーム画像内での距離に基づいて、前記先行車両との相対距離を計算することを特徴とする付記1記載の相対位置計測装置。
【0250】
(付記3) 前記算出手段は、前記複数のマーカ画像の前記フレーム画像内の位置から前記マーカパターンの基準位置を求め、当該基準位置に基づいて相対角度を算出することを特徴とする付記1記載の相対位置計測装置。
【0251】
(付記4) 前記算出手段は、前記複数のマーカ画像の前記フレーム画像内の位置から前記マーカパターンの基準位置を求め、前記複数のマーカ画像に対して奥行き方向に差のある他のマーカ画像の位置と、前記マーカパターンの基準位置との前記フレーム画像内での距離に基づいて、前記先行車両との相対ヨー角を計算することを特徴とする付記1記載の相対位置計測装置。
【0252】
(付記5) 前記算出手段は、前記マーカ画像の輝度分布情報を元に、前記マーカ画像を構成するピクセル毎の重み付けを行い、前記ピクセルで構成される前記マーカ画像の重心位置を、前記マーカ画像の位置とすることを特徴とする付記1記載の相対位置計測装置。
【0253】
(付記6) 前記抽出手段は、前記マーカ画像の候補となる高輝度領域を囲う長方形を定義し、前記長方形内の前記高輝度領域の占める割合である充填率を算出し、前記充填率が所定値以上である場合にのみ、前記高輝度領域を前記マーカ画像として抽出することを特徴とする付記1記載の相対位置計測装置。
【0254】
(付記7) 前記抽出手段は、前記マーカ画像の候補となる高輝度領域の縦横比が所定の比率以内の場合にのみ、前記高輝度領域を前記マーカ画像として抽出することを特徴とする付記1記載の相対位置計測装置。
【0255】
(付記8) 前記抽出手段は、前時刻のマーカパターンを構成する前時刻の各マーカ画像の位置に基づいて、前記フレーム画像内での現時刻の各マーカ画像の探索範囲を限定し、限定された前記探索範囲より、現時刻の前記各マーカ画像を探索することを特徴とする付記1記載の相対位置計測装置。
【0256】
(付記9) 前記抽出手段は、前時刻のマーカパターンを構成する前時刻の各マーカ画像の移動方向と移動量とに基づいて、現時刻の各マーカ画像の位置を推定し、推定された位置を基準とした範囲を前記各マーカ画像の前記探索範囲とすることを特徴とする付記8記載の相対位置計測装置。
【0257】
(付記10) 前記抽出手段は、前時刻のマーカパターンの位置に基づいて、前記フレーム画像内での現時刻のマーカパターンの探索範囲を限定し、限定された前記探索範囲より、現時刻のマーカパターンを探索することを特徴とする付記1記載の相対位置計測装置。
【0258】
(付記11) 前記抽出手段は、前記マーカが複数の自己発光体の集合体であり、前記先行車両に対する相対距離が所定値以下の場合には、接近した高輝度領域を同一の高輝度領域として認識することを特徴とする付記1記載の相対位置計測装置。
【0259】
(付記12) 前記抽出手段は、マーカ画像またはマーカパターンの探索範囲の制限機能を複数有し、前記先行車両との相対距離に応じて、前記探索範囲の制限機能を選択することを特徴とする付記1記載の相対位置計測装置。
【0260】
(付記13) 前記抽出手段は、前記先行車両との相対距離に応じて、前記マーカパターンの探索範囲を変化させることを特徴とする付記1記載の相対位置計測装置。
【0261】
(付記14) 予め決められた走行コース上での自らの絶対位置を取得する位置取得手段をさらに有し、前記絶対位置付近の走行コース形状に応じて、前記マーカパターンの探索範囲を制限することを特徴とする付記1記載の相対位置計測装置。
【0262】
(付記15) 前記算出手段が算出した相対角度に基づいて、前記撮像手段による撮影方向を前記先行車両に向けることを特徴とする撮影方向制御手段をさらに有することを特徴とする付記1記載の相対位置計測装置。
【0263】
(付記16) 画像解析により先行車両との相対位置を計測する相対位置計測方法において、
前記先行車両の後部の位置に、複数の軸方向に並べられた複数のマーカを撮像し、フレーム画像を生成し、
前記フレーム画像から、前記複数のマーカを表す複数のマーカ画像で構成されるマーカパターンを抽出し、
前記マーカパターンに基づいて、前記先行車両との相対距離および相対角度を算出する、
ことを特徴とする相対位置計測方法。
【0264】
(付記17) 画像解析により先行車両との相対位置を計測するためのプログラムにおいて、
コンピュータを、
前記先行車両の後部の位置に複数の軸方向に並べられた複数のマーカを撮像し、フレーム画像を生成する撮像手段、
前記撮像手段が生成した前記フレーム画像から、前記複数のマーカを表す複数のマーカ画像で構成されるマーカパターンを抽出する抽出手段、
前記抽出手段で抽出した前記マーカパターンに基づいて、少なくとも前記先行車両との相対距離または相対角度を算出する算出手段、
として機能させることを特徴とするプログラム。
【0265】
(付記18) 画像解析により先行車両との相対位置を計測するためのプログラムを記録したコンピュータ読み取り可能な記録媒体において、
前記コンピュータを、
前記先行車両の後部の位置に複数の軸方向に並べられた複数のマーカを撮像し、フレーム画像を生成する撮像手段、
前記撮像手段が生成した前記フレーム画像から、前記複数のマーカを表す複数のマーカ画像で構成されるマーカパターンを抽出する抽出手段、
前記抽出手段で抽出した前記マーカパターンに基づいて、少なくとも前記先行車両との相対距離または相対角度を算出する算出手段、
として機能させることを特徴とする記録媒体。
【0266】
(付記19) 先行車両との相対位置関係を保って隊列走行を行う運搬車両において、
前記先行車両の後部の位置に複数の軸方向に並べられた複数のマーカを撮像し、フレーム画像を生成するカメラと、
前記カメラが生成した前記フレーム画像から、前記複数のマーカを表す複数のマーカ画像で構成されるマーカパターンを抽出し、抽出した前記マーカパターンに基づいて、少なくとも前記先行車両との相対距離または相対角度を算出する制御装置と、
を有することを特徴とする運搬車両。
【0267】
【発明の効果】
以上説明したように本発明では、先行車両の後部の複数の軸方向に配置された複数のマーカを撮像して得られるフレーム画像からマーカパターンを検出し、そのマーカパターンに基づいて相対位置を算出するようにしたため、多数のテンプレートを記憶せずに、相対位置を高精度に算出できる。その結果、精度の高い相対位置の計算を高速に行うことができる。
【図面の簡単な説明】
【図1】本発明の原理構成図である。
【図2】IMTSによる隊列走行の概要を示す図である。
【図3】先行する車両を後方から見た図である。
【図4】マーカの配置を示す図である。図4(A)は、マーカパネルの正面図である。図4(B)は、図4(A)のX−X断面図である。
【図5】フレーム画像の例を示す図である。
【図6】車両の相対的位置の関係を示す図である。
【図7】車両に搭載されている自動追尾機能の構成を示すブロック図である。
【図8】相対位置計算処理全体の処理手順を示すフローチャートである。
【図9】全探索処理の手順を示すフローチャートである。
【図10】マーカパターン検出処理の手順を示すフローチャートである。
【図11】追跡処理の手順を示すフローチャートである。
【図12】先行する車両の後部を写したフレーム画像の例を示す図である。
【図13】周辺マーカの1点を除く4点が見つかった場合のフレーム画像の例を示す図である。
【図14】ロール角が発生するときのフレーム画像の例を示す図である。
【図15】周辺マーカのうち水平方向に対になる2つのマーカ画像が検出された場合のフレーム画像の例を示す図である。
【図16】周辺マーカのうち水平方向に対になる2つのマーカ画像以外が検出された場合のフレーム画像の第1の例である。
【図17】周辺マーカのうち水平方向に対になる2マーカ画像以外が検出された場合のフレーム画像の第2の例である。
【図18】マーカ画像の拡大図である。
【図19】マーカ画像の輝度ヒストグラムを示す図である。
【図20】マーカ画像の2値化処理の例を示す図である。図20(A)は、2値化前のマーカ画像のピクセル毎の輝度値を示しており、図20(B)は、2値化後のマーカ画像のピクセル毎の輝度値を示している。
【図21】輝度重みの重心計算例を示す図である。
【図22】縦横比による判定処理結果の一例を示す図である。図22(A)はカメラから入力された画像を示しており、図22(B)はラベリング結果を示しており、図22(C)は形状判定後に抽出されたマーカ画像候補を示している。
【図23】充填率判定例を示す図である。
【図24】充填率の判断で異常とされる画像の例を示す図である。図24(A)は、歪んだ形状の画像の例を示し、図24(B)は、十時型の画像の例を示し、図24(C)は、三角形の画像の例を示す。
【図25】マーカの探索範囲を示す図である。
【図26】探索幅の算出方法を説明する図である。図26(A)は、マーカ探索範囲の第1の候補を示しており、図26(B)は、マーカ探索範囲の第2の候補を示している。
【図27】小領域全探索処理の探索範囲を示す図である。
【図28】偽のマーカが存在する場合の画面例を示す図である。
【図29】小領域全探索における探索範囲の算出方法を説明する図である。
【図30】マーカ画像の位置の予測処理を説明する図である。
【図31】複数の発光素子からなるマーカの近接時の画像を示す図である。
【図32】 発光素子画像結合処理の例を示す図である。図32(A)は、発光素子の画像結合前の2値画像を示しており、図32(B)は、発光素子の画像結合の2値画像を示している。
【図33】対象が遠距離の場合に制限された探索範囲について示す図である。
【図34】対象が近距離の場合に制限された探索範囲について示す図である。
【図35】位置に応じた探索範囲制限を行うための処理機能を示す機能ブロック図である。
【図36】回転機構を有するカメラの上面図である。
【図37】撮像装置の回転制御機能を示す機能ブロック図である。
【図38】レーンマーカと座標との対応表を示す図である。
【図39】隊列走行をしている車両を上から見た図である。
【図40】図39の拡大図である。
【図41】撮像回転角度算出処理の手順を示すフローチャートである。
【符号の説明】
1 先行車両
1a〜1d マーカ
2 相対位置計測装置
2a 撮像手段
2b フレーム画像
2c 抽出手段
2d マーカパターン
2e 算出手段
10,20,30 車両
11,22,32 マーカパネル
11a〜11e マーカ
21,31 カメラ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a relative position measurement apparatus that measures a relative position with respect to a preceding vehicle by image recognition, and more particularly to a relative position measurement apparatus that measures a relative position by imaging a marker included in a preceding vehicle.
[0002]
[Prior art]
In order to solve traffic problems such as traffic congestion in large cities due to the increase in the population of cities, research on intelligent transport systems (ITS) is being conducted by various organizations. ITS is a road traffic system for the purpose of improving road traffic safety, transport efficiency, and comfort.
[0003]
Among the latest ITS technologies, there is an advanced medium-range / medium-volume transport system technology called IMTS (Intelligent Multi-Mode Transit System). IMTS is a system in which a transport vehicle such as a bus performs autonomous driving and platooning.
[0004]
In order to perform platooning in IMTS, it is necessary to measure the relative position of the following vehicle with the preceding vehicle and maintain a certain distance between the vehicles. One of the techniques for measuring the relative position with respect to the preceding vehicle is a technique for recognizing a marker installed on the preceding vehicle with an image and deriving the relative position between the vehicles by pattern matching.
[0005]
In the pattern matching measurement technique, an image (template) of a marker arranged in the rear part of the preceding vehicle is stored in the following vehicle. Then, a marker at the rear of the preceding vehicle is photographed by the camera from the succeeding vehicle, and the relative position of the preceding vehicle is calculated by performing pattern matching between the photographed image and a template stored in advance.
[0006]
[Problems to be solved by the invention]
However, when a marker pattern is recognized by image processing, a large number of pattern matching templates are required in advance to extract a correct pattern. In other words, since the size and shape of the marker pattern displayed in the image changes depending on the distance or rotation to the preceding vehicle, it is necessary to store a plurality of templates in accordance with the change in the following vehicle, increasing the memory usage capacity. Invite.
[0007]
Further, as the number of templates increases, the number of pattern matching processes increases, and a lot of calculation processes are required. As a result, it takes time to measure the relative position.
[0008]
In order to ensure the reliability and safety of IMTS, it is desired that the relative position of the following vehicle is always accurately recognized with respect to the preceding vehicle. For that purpose, the measurement of the relative position is required to be performed in a short time.
[0009]
Note that, as in the technique described in Japanese Patent Application Laid-Open No. 2000-337871, there is a method of calculating a relative distance by arranging markers in a line at the rear of a preceding vehicle and detecting the marker by the following vehicle. According to this method, it is possible to calculate the relative position in a short time, but it is difficult to accurately measure the distance when the preceding vehicle turns in a lateral direction at a corner (when a yaw angle occurs). . In other words, this technique calculates the inter-vehicle distance based on the distance between the markers in the image captured by the camera, but when the preceding vehicle faces in the lateral direction, the inter-vehicle distance does not change even if the inter-vehicle distance does not change. The distance between markers is shortened. As a result, a measurement error occurs.
[0010]
Thus, with the conventional image processing technology, it is difficult to calculate the inter-vehicle distance and relative angle with the preceding vehicle with high accuracy in a short time.
The present invention has been made in view of these points, and an object of the present invention is to provide a relative position measuring apparatus capable of accurately measuring a relative position in a short time using image recognition.
[0011]
[Means for Solving the Problems]
In the present invention, in order to solve the above-described problem, a relative position measuring apparatus 2 as shown in FIG. 1 is provided. The relative position measuring device 2 according to the present invention includes an imaging unit 2a for imaging markers 1a to 1e arranged in a plurality of axial directions at the rear part of the preceding vehicle 1, and a frame image 2b captured by the imaging unit 2a. Based on the extraction unit 2c that extracts a marker pattern 2d composed of a plurality of marker images representing 1 to 1e and the marker pattern 2d extracted by the extraction unit 2c, a calculation that calculates at least a relative distance or a relative angle with the preceding vehicle And means 2e.
[0012]
According to such a relative position measuring device 2, the markers 1a to 1e arranged in the plurality of axial directions on the rear portion of the preceding vehicle are photographed by the imaging means 2a, and a frame image 2b is obtained. The marker pattern 2d is extracted from the frame image 2b by the extracting means 2c. Then, the calculation means 2e calculates the relative distance or relative angle with the preceding vehicle based on the marker pattern 2d.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a principle configuration diagram of the present invention. The relative position measuring device 2 of the present invention includes an imaging unit 2a that images the markers 1a to 1e arranged in a plurality of axial directions at the rear of the preceding vehicle 1, and a frame image 2b that is captured by the imaging unit 2a. Extraction means 2c for extracting a marker pattern 2d composed of a plurality of marker images representing 1e, and calculation means 2e for calculating a relative distance or a relative angle with the preceding vehicle based on the marker pattern 2d extracted by the extraction means 2c. And having.
[0014]
According to such a relative position measuring apparatus, the markers 1a to 1e arranged in the plurality of axial directions on the rear portion of the preceding vehicle are photographed by the imaging means 2a, and a frame image 2b is obtained. The marker pattern 2d is extracted from the frame image 2b by the extracting means 2c. Then, the calculation means 2e calculates the relative distance or relative angle with the preceding vehicle based on the marker pattern 2d.
[0015]
Thus, in the present invention, since the relative position is calculated from the markers 1a to 1e arranged in a plurality of axial directions (for example, the vertical direction and the horizontal direction), it is not necessary to store a large number of templates. As a result, the memory usage can be reduced and the processing time can be shortened. Moreover, since the marker patterns are arranged in a plurality of axial directions, even if the yaw angle of the preceding vehicle occurs, the relative distance can be accurately measured by the markers arranged in the vertical direction, and the measurement result is highly accurate. Can be obtained.
[0016]
Such a relative position measuring device can be applied to a technique such as IMTS. For example, when the vehicle travels in a row, if the relative position measuring device according to the present invention is mounted on the following vehicle, the relative position measurement with high reliability is possible. Hereinafter, an embodiment of the present invention will be specifically described by taking the case where the present invention is applied to IMTS as an example.
[0017]
FIG. 2 is a diagram showing an outline of the row running by IMTS. In IMTS, a plurality of vehicles 10, 20, and 30 perform platooning. Vehicles 10, 20, and 30 are transport vehicles such as buses, for example. By tracking the leading vehicle 10 by the vehicle 20 and tracking the vehicle 20 by the vehicle 30, the vehicle 20 and the vehicle 30 can travel by automatic driving.
[0018]
A marker panel 11 is attached to the rear portion of the vehicle 10. A camera 21 is attached in front of the vehicle 20, and a marker panel 22 is attached behind the vehicle 20. Similarly, a camera 31 is attached in front of the vehicle 30, and a marker panel 32 is attached behind the vehicle 30.
[0019]
On the marker panels 11, 22, and 32, a plurality of markers are distributed in a predetermined pattern in a plurality of axial directions (for example, the horizontal direction and the vertical direction). The relative position of the vehicle 10 with respect to the vehicle 20 can be measured by imaging the marker panel 11 of the preceding vehicle 10 with the camera 21 of the vehicle 20. Moreover, the relative positional relationship of the vehicle 20 with respect to the vehicle 30 can be measured by imaging the marker panel 22 of the preceding vehicle 20 with the camera 31 of the vehicle 30.
[0020]
Based on the relative positions of the vehicles 20 and 30 with the preceding vehicles, the steering wheel, the accelerator, the brake, and the like are automatically controlled so as to follow a certain distance from the preceding vehicle.
[0021]
FIG. 3 is a view of the preceding vehicle as viewed from the rear. On the marker panel 11 of the preceding vehicle 10, five markers 11a to 11e are arranged. The markers 11a to 11e are distributed in the vertical direction and the horizontal direction. In the present embodiment, a marker pattern is formed by these five markers 11a to 11e.
[0022]
The shape of the markers 11a to 11e is a rectangle. Each marker 11a-11e is a self-luminous body comprised by many LED (Light Emitting Diode), for example. Note that the markers 11a to 11e do not have to emit light as long as they can be distinguished from the periphery in appearance. For example, the marker panel 11 may be black and the markers 11a to 11e may be white so that they can be distinguished.
[0023]
In the example of FIG. 3, five markers 11 a to 11 e are arranged. However, if three or more markers are distributed in a plurality of directions, recognition as a marker pattern is possible. The distance can be calculated even with one marker.
[0024]
FIG. 4 is a diagram illustrating the arrangement of the markers. FIG. 4A is a front view of the marker panel. FIG. 4B is a cross-sectional view taken along line XX in FIG.
The marker 11a is disposed on the upper left side, and the marker 11b is disposed on the upper right side. The marker 11a and the marker 11b are arranged horizontally, and the width of the marker 11a and the marker 11b is h. M1 It is. The marker 11c is arranged on the lower left side, and the marker 11d is arranged on the lower right side. The marker 11c and the marker 11d are arranged horizontally, and the width of the marker 11c and the marker 11d is h. M2 It is. The difference in height between the markers 11a, 11b in the upper row and the markers 11c, 11d in the lower row is V M It is.
[0025]
The marker 11e is disposed in the central depression of the marker panel 11. The depth of the marker 11e with reference to the markers 11a to 11d is d M It is.
As described above, the markers 11a to 11e are distributed in the three axial directions (vertical, horizontal, and depth). Thereby, the relative position between the preceding vehicle 10 and the succeeding vehicle 20 can be accurately measured. Hereinafter, the markers 11a to 11d are referred to as peripheral markers, and the marker 11e is referred to as a central marker.
[0026]
By arranging the markers in the depth direction (the unevenness on the marker panel), the yaw angle θ y Can be calculated with high accuracy.
That is, when each marker is arranged on the same plane, a change in the yaw angle of the preceding vehicle 10 is detected by a change in the aspect ratio of the marker pattern or each marker image. That is, as the yaw angle increases, the marker pattern or each marker image contracts in the horizontal direction, so the degree of horizontal contraction can be determined from the aspect ratio, and the yaw angle can be calculated from the degree of contraction.
[0027]
However, when the preceding vehicle 10 also rotates in the pitch direction (a direction around an axis defined laterally from the center of the vehicle), when the pitch angle increases, the marker pattern or each marker contracts in the vertical direction. Therefore, it is difficult to accurately calculate the yaw angle only with the marker pattern or the aspect ratio of each marker.
[0028]
Therefore, in the present embodiment, by adding unevenness to the marker pattern, the change in the yaw angle appears in the change in the arrangement of the marker images constituting the marker pattern in the captured image (hereinafter referred to as a frame image). I have to.
[0029]
FIG. 5 is a diagram illustrating an example of a frame image. In FIG. 5, the horizontal direction of the frame image 40 is taken as the x axis and the vertical direction is taken as the y axis.
In the frame image 40, marker images 41 to 45 corresponding to the five markers 11a to 11e are drawn. When the relative yaw angle of the preceding vehicle 10 is generated, a marker that is not on the same plane has a difference in horizontal azimuth with other markers. This difference in azimuth angle increases in proportion to the magnitude of the yaw angle.
[0030]
When the center marker (marker 11e) is in the same plane as the peripheral markers (markers 11a to 11d), the center marker (marker 11e) is drawn at the center position P0 of the marker images 41 to 44. 11e) is behind the peripheral markers (markers 11a to 11d). Therefore, the marker image 45 is displayed shifted to the left from the position P0.
[0031]
An accurate yaw angle can be calculated based on the deviation width of the marker image 45 from the position P0. For example, the difference between the x coordinate of the intersection P1 of the diagonal lines 46 and 47 of the peripheral markers (markers 11a to 11d) existing on the same plane and the x coordinate of the marker image 45 of the actual center marker (marker 11e) The angle can be calculated.
[0032]
FIG. 6 is a diagram illustrating the relationship of the relative positions of the vehicles. The relative position is measured with reference to the following vehicle 20. The relative positions are the distance d between vehicles, the azimuth angle θ, and the yaw angle θ. y Specified by. The distance d between vehicles is a distance from the rear part of the preceding vehicle 10 to the front part of the succeeding vehicle 20. The azimuth angle θ is defined by the axis 101 defined in the longitudinal direction of the following vehicle 20 (the axis parallel to the traveling direction when the vehicle 20 goes straight), the rear part of the preceding vehicle 10 and the front part of the subsequent vehicle 20. This is the angle formed by the connecting line segment 102. Yaw angle θ y Are an axis 103 parallel to the axis 101 defined in the longitudinal direction of the following vehicle 20, and an axis 104 defined in the longitudinal direction of the preceding vehicle 10 (an axis parallel to the advancing direction when the vehicle 10 goes straight). Is the angle formed by
[0033]
FIG. 7 is a block diagram showing a configuration of an automatic tracking function installed in the vehicle. The vehicle 20 includes a camera 21, an image processing unit 23, a control unit 24, a memory 25, a sensor 26, and an actuator 27 for tracking the preceding vehicle 10.
[0034]
The camera 21 includes an optical system 21a and a CCD (Charge Coupled Device) 21b. The optical system 21a is composed of a plurality of lenses, and condenses light from the preceding vehicle 10 on the light receiving surface of the CCD 21b. The CCD 21b converts the light collected by the optical system 21a into a corresponding image signal by photoelectric conversion.
[0035]
The image processing unit 23 extracts a marker image by performing, for example, contour extraction processing or the like on the image signal output from the CCD 21b.
The control unit 24 calculates the relative position of the vehicle 10 using the marker image extracted by the image processing unit 23, and controls the actuator 27 according to the calculated relative position.
[0036]
The memory 25 is configured by a semiconductor memory or the like, and temporarily stores an image corresponding to the marker extracted by the image processing unit 23, or data in the middle of calculation when the control unit 24 performs predetermined control. Store programs temporarily. Furthermore, the memory 25 also includes a nonvolatile memory, and stores various programs executed by the control unit 24, data (for example, distance between markers), and the like.
[0037]
The sensor 26 detects information such as the vehicle speed, the accelerator opening, the transmission state, and supplies the information to the control unit 24. The actuator 27 includes an accelerator controller, a brake controller, and the like, and controls the traveling state of the vehicle 20 based on a command from the control unit 24.
[0038]
Note that the image processing unit 23, the control unit 24, and the memory 25 illustrated in FIG. 7 are mounted on the vehicle 20 as one control device.
Next, the relative position calculation process in the vehicle 20 will be described.
[0039]
FIG. 8 is a flowchart showing a processing procedure of the entire relative position calculation processing. Below, the process shown in FIG. 8 is demonstrated along a step number.
[Step S11] The control unit 24 performs initial processing. The initial process is a process of setting values of various variables such as a distance between markers to initial values, and securing a working storage area in the memory 25. Since there is a possibility that the distance between the markers and the marker size may be changed, they can be changed at any time by parameters.
[0040]
[Step S12] The controller 24 performs a marker pattern full search process. The full search process is a process for searching for a marker pattern for the entire range in the frame image taken by the camera 21. Details of the full search process will be described later.
[0041]
[Step S13] The control unit 24 calculates a relative position based on the marker pattern searched in step S12.
[Step S14] The control unit 24 determines whether or not a preceding vehicle has been detected. If a preceding vehicle is detected, the process proceeds to step S15. If no preceding vehicle is detected, the process proceeds to step S12. Thus, the full search process is repeatedly executed until a vehicle is detected.
[0042]
[Step S15] The control unit 24 determines whether the detected distance to the vehicle is far. Whether or not the distance is far is determined based on whether or not the detected distance to the vehicle is greater than a preset threshold. If the distance is far, the process proceeds to step S18. If the distance is not far, the process proceeds to step S16.
[0043]
[Step S16] The control unit 24 performs a marker image tracking process. The tracking process is a process of performing tracking for each marker image using the vicinity of the position where the marker image is detected immediately before in the frame image as a search range of the marker image. Details of the tracking process will be described later.
[0044]
[Step S17] The control unit 24 calculates the relative position of the preceding vehicle based on the marker pattern detected in step S16. Thereafter, the process proceeds to step S20.
[0045]
[Step S18] The control unit 24 performs a small area full search process. The small area full search process is the same as the full search process except that the marker pattern search range is narrowed. Therefore, the determination method of the search range in the small region full search will be described later, and the details of the processing procedure of the small region full search will not be described using the flowchart.
[0046]
[Step S19] The control unit 24 calculates the relative position of the preceding vehicle based on the marker pattern searched in step S18. Thereafter, the process proceeds to step S20.
[0047]
[Step S20] The control unit 24 determines whether a vehicle is not detected continuously for a predetermined time. The predetermined time is set in advance. The predetermined time can be defined, for example, by the number of times that the vehicle cannot be detected continuously in the tracking process (step S16) or the small area full search process (step S18). The number of times is set in advance as a parameter.
[0048]
If no vehicle is detected for a predetermined time, the process proceeds to step S12, and a full search process is performed. If a vehicle is detected within the predetermined time, the process proceeds to step S15, and the tracking process (step S16) or the small area full search process (step S18) is repeated.
[0049]
FIG. 9 is a flowchart showing the procedure of the full search process. In the following, the process illustrated in FIG. 9 will be described in order of step number.
[Step S21] The control unit 24 binarizes the frame image acquired from the camera 21. Binarization is a process of replacing an input image from the camera 21 with white portions brighter than a certain brightness and black portions dark.
[0050]
[Step S22] The control unit 24 performs labeling. Labeling is a process of assigning an identification number to white portions (marker images) scattered in a binarized frame image. That is, the high-luminance area in the frame image is an area that may become a marker image.
[0051]
[Step S23] The control unit 24 determines whether the marker image satisfies the marker condition, and narrows down the marker image.
The first marker condition is that the area of the marker image is within a predetermined range. The maximum area and the minimum area of the marker image are set in advance, and the marker condition is set to be not less than the minimum area and not more than the maximum area.
[0052]
The second marker condition is that the aspect ratio of the marker image is within a predetermined range. The maximum value and the minimum value of the aspect ratio of the marker image can be specified by parameters. The third marker condition is that there is no abnormality in the filling rate of the marker image. The filling rate is the ratio of the marker image (white portion) in the rectangular area surrounding the marker image. When the filling rate is abnormally small, it is determined that the marker image does not reflect a real marker (a false marker).
[0053]
The fourth marker condition is that there are not too many marker images as marker candidates. If there are too many marker images, it is determined that the image is not reliable, and the process ends with an error without performing the subsequent processing. The number of allowed marker images can be specified in advance by a parameter.
[0054]
[Step S24] The control unit 24 sorts the identification numbers set in the marker image in the order of increasing area of the marker image. By sorting by area and performing marker determination in the sorted order, it is possible to prevent pattern determination using markers with significantly different sizes, and improve the accuracy of marker pattern detection. Therefore, the processing speed can be increased.
[0055]
[Step S25] The control unit 24 performs marker pattern detection processing. Details of the marker pattern detection process will be described later.
[Step S26] The control unit 24 determines whether a marker pattern has been detected by the marker pattern detection process. If a marker pattern is detected, the process proceeds to step S27. If no marker pattern is detected, the process proceeds to step S28.
[0056]
[Step S27] The control unit 24 outputs the detected marker pattern and advances the process to step S13 in FIG.
[Step S28] The control unit 24 outputs an error message indicating that the preceding vehicle cannot be detected, and the process proceeds to step S13 in FIG.
[0057]
FIG. 10 is a flowchart illustrating a procedure of marker pattern detection processing. In the following, the process illustrated in FIG. 10 will be described in order of step number.
[Step S31] The control unit 24 sequentially acquires three unprocessed points in the marker image from the front of the sorted array of identification numbers. The selection condition at this time is that the areas of the selected marker images are not significantly different.
[0058]
For example, when the area of the marker image having the largest size among the selected marker images is MS1, and the area of the marker image having the smallest size is MS2, the selection condition is that MS1 / K ≦ MS2 is satisfied. Become. Here, K is a threshold value set in advance as a parameter, and is a real number of 1 or more. A value of 1 / K may be set as a parameter.
[0059]
As a result, determination between marker images having significantly different sizes is not performed, the accuracy of relative position measurement is improved, and processing is speeded up because unnecessary determination is not performed.
[0060]
[Step S32] The control unit 24 determines whether or not the acquired three marker images satisfy the conditions of the peripheral markers.
The first condition for the three marker images to be peripheral markers is that the two marker images are horizontal. In this case, even if the line is not completely horizontal, if the slope of the straight line passing through the two points is less than or equal to the threshold value, the two points are regarded as horizontal. The threshold of inclination can be set with a parameter.
[0061]
The second condition for the three marker images to be peripheral markers is the distance between two horizontal points (number of pixels in the image), the x direction on the image from the two points to the other point, The ratio with the distance in the y direction approximates a predetermined ratio. The predetermined ratio is determined based on the arrangement of the peripheral markers (markers 11a to 11d) on the marker panel 11. The allowable range of error can be specified by a parameter.
[0062]
If the peripheral marker condition is satisfied, the process proceeds to step S33. If the peripheral marker condition is not satisfied, the process proceeds to step S40.
[Step S33] The control unit 24 estimates the positions of other points based on the acquired three marker images. The positions of other points are estimated based on the ratio of the distances between the markers 11a to 11e of the marker panel 11.
[0063]
[Step S34] The control unit 24 applies the marker image existing near the position estimated in step S33 as another marker image. The allowable range of whether or not it is close can be set by a parameter.
[0064]
[Step S35] The control unit 24 determines whether the marker image detected as the marker pattern is N points or more. N is a parameter having a value of 3, 4, or 5. If it is N points or more, the process proceeds to step S36, and if it is less than N points, the process proceeds to step S40.
[0065]
[Step S36] The control unit 24 determines whether or not a false marker image is included. For example, when the average height of all acquired marker images is a and the height difference of one acquired marker image is b, b × K1 <a <b × K2 (K1 <K2: K1 , K2 is a positive real number), it is determined that a false marker is included. K1 and K2 are parameters set in advance based on the arrangement of the markers 11a to 11e on the marker panel 11.
[0066]
In addition, if the ratio between the size of the known marker and the size of the marker pattern is compared with the ratio of the marker image to the size of the marker pattern on the image and the error is small, a fake marker image is included. It can be judged that there is not.
[0067]
If a false marker image is not included, the process proceeds to step S37. If a false marker image is included, the process proceeds to step S40.
[0068]
[Step S37] The control unit 24 recognizes the acquired marker image group as a marker pattern, and adds 1 to the value of the recognized number of vehicles.
[Step S38] The control unit 24 determines whether the marker pattern recognized in step S37 is larger than any already recognized marker pattern (a maximum marker pattern). The size of the marker pattern is determined by the height of the marker pattern, for example. The vehicle indicated by the maximum marker pattern on the frame image photographed by the camera 21 is determined as the closest vehicle.
[0069]
If the marker pattern recognized in step S37 is the maximum marker pattern, the process proceeds to step S39. If the marker pattern recognized in step S37 is not the maximum marker pattern, the process proceeds to step S40.
[0070]
[Step S39] The control unit 24 registers the marker pattern recognized in step S37 as a marker pattern of the latest vehicle.
[Step S40] The control unit 24 determines whether there is a combination of remaining marker images. If there are remaining combinations, the process proceeds to step S31. If there are no remaining combinations, the process proceeds to step S26 shown in FIG.
[0071]
Next, details of the tracking process will be described.
FIG. 11 is a flowchart showing the procedure of the tracking process. In the following, the process illustrated in FIG. 11 will be described in order of step number.
[0072]
[Step S51] The control unit 24 selects one marker image in the marker pattern detected by the previous marker pattern detection.
[Step S52] The control unit 24 acquires a search range around the marker image. The search range is a predetermined range with the marker predicted position as the center. When the marker position is not predicted, the previous marker position is the center.
[0073]
When the marker pattern is recognized in the detection of the previous marker pattern, the larger of the size of each marker image included in the marker pattern × L (L is a positive real number) and M (M is a positive real number) The value is the radius of the search range (or the width and height of the search range).
[0074]
When the marker pattern is not recognized, the larger value of the average size of the marker image × L and M is set as the radius of the search range (or the width and height of the search range).
Note that L and M can be set by parameters.
[0075]
[Step S53] The control unit 24 binarizes and labels an image acquired from the camera 21.
[Step S54] The control unit 24 acquires a marker image from the search range in the binarized image. The condition is that the marker image acquired here is not in contact with both the upper and lower boundaries of the search range and is not in contact with both the right and left of the search range boundary. When a plurality of marker images are detected within the search range, the marker image closest to the center of the search range is acquired.
[0076]
[Step S55] The control unit 24 determines whether a marker image is found. If a marker image is found, the process proceeds to step S56. If a marker image is not found, the process proceeds to step S57.
[0077]
[Step S56] The control unit 24 determines a condition as a genuine marker image. The first condition for the authentic marker image is that the area of the marker is not less than the minimum value and not more than the maximum value. The second condition for the authentic marker image is that the aspect ratio of the marker is within the threshold value. The third condition for the authentic marker image is that the filling rate is not abnormal. A marker image that does not satisfy one of these conditions is determined to be a fake marker image.
[0078]
[Step S57] The control unit 24 determines whether there is another marker image. If there is another marker image, the process proceeds to step S51. If there is no other marker image, the process proceeds to step S58.
[0079]
[Step S58] The control unit 24 performs pattern determination. In the pattern determination, as a first condition, it is evaluated that two marker images are on the horizontal. An allowable range for satisfying the level is set in advance.
[0080]
As the second condition, the positional relationship between the two marker images evaluated as horizontal under the first condition and the other marker images is evaluated. That is, the ratio between the distance between the two horizontal points (the number of pixels in the image) and the distance in the x direction and y direction on the image from the two points to the other point is the marker 11a to 11a on the marker panel 11. It is evaluated whether the ratio approximates to a predetermined ratio based on the arrangement of 11e. The allowable range of error can be specified by a parameter.
[0081]
As a third condition, when the same marker image is detected in tracking a plurality of different markers, it is determined which marker is the tracking target of the marker image. For example, the reliability of each marker as a marker image is evaluated from the positional relationship with other marker images. Specifically, if another marker image (other than the marker image detected redundantly) has moved to the left of the position in the previous frame image, the marker image detected redundantly is The reliability of the marker displayed on the right side in the previous frame image as the marker image is highly evaluated. Then, the marker image is excluded from the tracking target of the marker having the lower reliability.
[0082]
Marker images that do not satisfy the conditions for pattern determination are excluded from the marker images to be tracked.
[Step S59] The control unit 24 predicts the position of the marker (invalid marker) from the position of another marker image for the marker that could not be tracked.
[0083]
[Step S60] The control unit 24 predicts the next frame position. For example, the control unit 24 predicts the position in the next frame by primary extrapolation from the position of the previous marker image and the position of the current marker image. However, if the vehicle vibration is strong and the reliability of position prediction cannot be ensured, the position prediction function can be stopped by setting parameters. Thereafter, the process proceeds to step S17 in FIG.
[0084]
By performing the processing as described above, a marker pattern is extracted from the frame image, and the relative position with the preceding vehicle is calculated based on the marker pattern.
[0085]
[Relative position calculation]
Next, details of the relative position calculation method will be described.
FIG. 12 is a diagram illustrating an example of a frame image in which a rear portion of a preceding vehicle is copied. In the frame image 50, the rear portion of the vehicle 10 (shown in FIG. 3) is projected. The frame image 50 includes marker images 51 to 55. The positions of the marker images 51 to 55 are defined at the center of gravity of the marker images 51 to 55, for example. The marker images 51 to 54 of the peripheral markers form a trapezoid.
[0086]
Here, the distance (number of pixels) on the screen of the marker images 51 and 52 arranged on the upper base 56 of the trapezoid is represented by h. 1 (The right side of the image is positive). The distance (number of pixels) on the screen of the marker images 53 and 54 arranged on the lower base 57 of the trapezoid is represented by h. 2 (The right side of the image is positive). The distance (number of pixels) between the midpoint of the trapezoid upper base 56 and the midpoint of the trapezoid lower base 57 is the height (vertical interval) v of the marker pattern. The distance (number of pixels) between the intersection of the two trapezoidal diagonal lines 58 and 59 and the center point of the frame image 50 (indicated by x in FIG. 12) is h. c (The right side of the image is positive). The distance (number of pixels) between the marker image 55 of the center marker and the center point of the frame image 50 is m. c (The right side of the image is positive).
[0087]
In the present embodiment, the distance d, the azimuth angle θ, and the yaw angle θ from the position of each marker image 51 to 55 constituting the marker pattern to the marker. y Ask for. The distance d to the marker is obtained from the vertical interval v between the marker images 51 to 55 (it can also be obtained from the horizontal interval). The azimuth angle θ is obtained from the position on the frame image 50 of the marker reference point (for example, the intersection of diagonal lines 58 and 59 of the marker images 51 to 54 of the peripheral markers). Yaw angle θ y Is obtained from the horizontal displacement of the marker image 55, which is the central marker (when the central marker is not found, the vertical interval v and the horizontal interval between the markers).
[0088]
In the case of a marker pattern using five markers 11a to 11e as in the present embodiment, the horizontal interval is obtained from the lengths of the upper base 56 and the lower base 57 of the trapezoid formed from the peripheral markers at the four surrounding points. . Also, the vertical interval v is obtained from the length of the line connecting the midpoints of the upper base 56 and the lower base 57. Further, the distance h from the center coordinate of the camera 21 to the intersection of the diagonal lines 58 and 59 of the peripheral markers c To determine the azimuth angle θ.
[0089]
It is also possible to obtain the distance from the distance between the markers in the horizontal direction by an instruction with a parameter. In addition, the marker pattern is detected last time, and the distance between the vehicles is determined to be a short distance (a part of the marker pattern from the angle of view may be removed and only less than three markers may appear on the image). If there is a distance, the distance can also be obtained from the horizontal interval between the two markers or the size of one marker.
[0090]
The central marker giving depth is the yaw angle θ y Used when calculating. That is, the distance m from the intersection of the diagonal lines 58 and 59 of the marker images 51 to 54 that are the peripheral markers and the marker image 55 that is the center marker. c And yaw angle θ y Is required.
[0091]
When the marker images of all the five markers are not recognized, the relative position can be calculated based on the four-point, three-point, two-point, and one-point marker images. As a result, even if several markers are lost (cannot be detected) due to disturbance such as weather, the distance, azimuth angle, and the like can be obtained, and the detection rate of the position of the preceding vehicle is improved.
[0092]
A specific distance calculation method is shown below.
i) A calculation example when all five marker images are found as shown in FIG. 12 will be described. First, the width h of the marker pattern is
[0093]
[Expression 1]
h = (w 1 h 1 + W 2 h 2 ) / C (1)
It is defined as Where w 1 Is a weight given according to the actual distance between the markers on the upper base. w 2 Is a weight given according to the actual distance between the markers at the bottom. For example,
[0094]
[Expression 2]
w 1 : W 2 = H M1 : H M2 (2)
And
[0095]
C is w 1 : W 2 Is a constant given according to the marker pattern shape, for example,
[0096]
[Equation 3]
c = w 1 h M1 + W 2 h M2 / V M .... (3)
It is defined as By this constant c, the yaw angle θ y When is 0, v = h.
[0097]
In addition, this is a parameter determined by the camera characteristics. M The number of pixels on the line image of C c And
At this time, azimuth angle θ, distance d, yaw angle θ y Is calculated by the following equation.
[0098]
[Expression 4]
θ = −tan -1 (C c h c (4)
[0099]
[Equation 5]
d = C c / (Vcosθ) (5)
[0100]
[Formula 6]
θ y = -Tan -1 (C c m c )
−sin -1 ((M c -H c ) V M cos (−tan -1 (C c m c )) / (Vd M )) + Θ ··· (6)
ii) Next, a case where four marker images excluding the center marker are found will be described. In this case, the azimuth angle θ and the distance d are calculated by the equations (4) and (5), respectively. Yaw angle θ y Is obtained from two sets of parallel marker images as shown in the following equation (7), and a weighted average based on the length between the markers is taken.
[0101]
[Expression 7]
θ y = ± cos -1 (Dv M (P - + P + ) Cosθ / c c L√ (1 + α 2 )) + Α (7)
Where p + Is the x coordinate (pixel) of the left marker image among the parallel marker images. p - Is the x coordinate (pixel) of the marker image on the right side of the parallel marker images. L is the actual width of the parallel marker image (h 1 Or h 2 ). α is
[0102]
[Equation 8]
α = − (p + + P-) v M / 2c c .... (8)
It is.
[0103]
Where cos in equation (7) -1 If the argument is greater than 1, the yaw angle θ y Is 0.
iii) Next, a case where four points excluding one point of the peripheral marker are found will be described.
[0104]
FIG. 13 is a diagram illustrating an example of a frame image when four points excluding one point of the peripheral marker are found. The frame image 60 includes marker images 62 to 65 corresponding to the markers 11b to 11e, but no marker image 61 corresponding to the marker 11a is found. Therefore, when only three of the surrounding four marker images are found, first, the position of the marker image 61 that has not been found is estimated.
[0105]
First, the inclination of the straight line 66 passing through the two marker images 63 and 64 is obtained. Then, from the marker image 62 that is paired in the horizontal direction of the marker image 61 that has not been found, a straight line 67 having the opposite inclinations of the remaining two marker images 63 and 64 is drawn.
[0106]
Next, the inclination of a straight line 68 passing through the two marker images 62 and 64 is obtained. Then, from the marker image 63 paired in the vertical direction of the marker image 61 that was not found, a straight line 69 having the opposite inclinations of the remaining two marker images 62 and 64 is drawn.
[0107]
The intersection of the straight line 67 and the straight line 69 is set as the estimated position of the marker image 61.
Including the marker image 61 estimated in this way, the azimuth angle θ, the distance d, and the yaw angle θ according to the equations (4), (5), and (6). y Ask for.
[0108]
The yaw angle θ y When it is known that a roll angle (rotation around the axis in the front-rear direction of the vehicle) occurs without occurrence of the above, the vertical interval v can be obtained as follows.
[0109]
FIG. 14 is a diagram illustrating an example of a frame image when a roll angle is generated. The frame image 60a includes four marker images 62a, 63a, 64a, and 65a among the peripheral markers. The marker image 61a corresponding to the marker 11a is not detected.
[0110]
When the roll angle is generated, the shortest distance between the straight line 66a passing through the two marker images 63a and 64a present horizontally and the other marker image 62a can be set as the vertical interval v. This utilizes the fact that the upper side and the lower side are parallel if the roll angle does not occur but the yaw angle does not occur.
[0111]
iv) If only three marker images of peripheral markers are found, as described in iii), the position of the marker image of another peripheral marker that could not be detected is estimated. Then, similarly to i), the azimuth angle θ and the distance d are obtained from the equations (4) and (5), and the yaw angle θ is obtained from the equation (7) as in ii). y Ask for.
[0112]
v) Next, a case where only two peripheral markers and a center marker can be detected will be described. In this case, it is divided into a case where two marker images paired in the horizontal direction among the peripheral markers are detected, and a case other than two marker images paired in the horizontal direction among the peripheral markers are detected.
[0113]
FIG. 15 is a diagram illustrating an example of a frame image when two marker images that are paired in the horizontal direction among the peripheral markers are detected. The frame image 70 includes two marker images 73 and 74 corresponding to the peripheral markers and a marker image 75 corresponding to the center marker. Marker images 71 and 72 corresponding to other peripheral markers are not detected.
[0114]
In this case, the length of the vertical line 77 drawn from the marker image 75 of the center marker to the straight line 76 passing through the horizontal marker images 73 and 74 is v / 2, twice that length (the vertical position of the center marker is the upper base of the trapezoid)・ If it is just in the middle of the bottom, let v be the vertical interval v. Regarding the horizontal interval h, the weight corresponding to the side where the marker image pair does not exist (w in the example of FIG. 15). 1 ) Is set to 0, the distance d, the azimuth angle θ, and the yaw angle θ in the same manner as in i) y Ask for.
[0115]
FIG. 16 is a first example of a frame image when a peripheral marker other than the two marker images paired in the horizontal direction is detected. The frame image 80 includes two marker images 82 and 84 corresponding to the peripheral markers and a marker image 85 corresponding to the center marker. Marker images 81 and 83 corresponding to other peripheral markers are not detected.
[0116]
In the case as shown in FIG. 16, a right triangle having a line segment 86 connecting two marker images 82 and 84 in the peripheral portion as a hypotenuse is formed, and the height of the right triangle is defined as a vertical interval v. The width h of the right triangle Three 2v M / (H M2 -H M1 ) Is defined as a horizontal interval h. As a result, an equivalent to h when four peripheral markers can be confirmed is obtained. From these conditions, the distance d, the azimuth angle θ, and the yaw angle θ are the same as in i). y Ask for.
[0117]
FIG. 17 is a second example of a frame image when a peripheral marker other than the two marker images paired in the horizontal direction is detected. The frame image 90 includes two marker images 92 and 93 corresponding to the peripheral markers and a marker image 95 corresponding to the center marker. Marker images 91 and 94 corresponding to other peripheral markers are not detected.
[0118]
In the case as shown in FIG. 17, a right triangle having a line segment 96 connecting the two marker images 92 and 93 in the peripheral portion as a hypotenuse is formed, and the height is set as a vertical interval v. The width h of the right triangle Four 2v M / (H M2 + H M1 ) Is defined as a horizontal interval h. As a result, an equivalent of h when four peripheral markers can be confirmed is obtained. From these conditions, the distance d, the azimuth angle θ, and the yaw angle θ are the same as in i). y Ask for.
[0119]
vi) If only two markers are found, the distance is determined to be a short distance in the previous determination, and if the marker image is determined to be two points in the horizontal direction, 2 The distance d is calculated from the interval between the marker images. The azimuth angle θ is obtained from the center of the two marker images.
[0120]
If it is determined in the previous determination that the distance is not a short distance, the distance calculation is not performed.
By using this detection method only when the previous determination is a short distance (for example, a distance of 3 m or less) where the number of markers in the angle of view is expected to be less than 3, erroneous detection of sunlight or the like Can be minimized. In the case of a short distance, there is almost no influence of sunlight due to concealment by the vehicle ahead.
[0121]
vii) When only one marker is found, if it is determined that the distance is a short distance in the previous determination, the distance d is calculated from the size (vertical size) of the one marker. In addition, it is determined which marker the detected marker image is based on the previous detection results, and the azimuth angle θ is calculated. If it is determined in the previous determination that the distance is not a short distance, the distance calculation is not performed.
[0122]
By using this detection method only when the previous determination is a short distance (for example, a distance within 1 m) where the number of markers in the angle of view is expected to be less than 2, erroneous detection of sunlight or the like Can be minimized. In the case of a short distance, there is almost no influence of sunlight due to concealment by the vehicle ahead.
[0123]
As described above, by arranging the markers in the vertical direction and the horizontal direction, the position of the preceding vehicle can be measured with high accuracy and in a short time with a small amount of memory usage. In addition, if three marker images are detected from the surrounding markers, the other position can be estimated and the relative position can be calculated, ensuring reliability that can withstand use in the ever-changing natural environment. can do.
[0124]
[Calculation of center of gravity]
Next, the center of gravity calculation method will be described. In the present embodiment, in order to increase the calculation accuracy of the center of gravity, the control unit 24 performs weighting based on the luminance distribution information of a plurality of marker images. Then, the gravity center position of the marker image is calculated using the weighted luminance distribution information. This barycentric position is set as the position of the marker image (marker reference position).
[0125]
FIG. 18 is an enlarged view of the marker image. As shown in FIG. 18, when a marker of a preceding vehicle is photographed, the contour of the marker image is blurred due to the influence of dust and dirt in the air.
[0126]
FIG. 19 is a diagram illustrating a luminance histogram of a marker image. In FIG. 19, the horizontal axis indicates the X coordinate, and the vertical axis indicates the luminance value. As shown in FIG. 19, the marker image has a high luminance value near the center, and the luminance value decreases as it approaches the periphery.
[0127]
Thus, when the marker is rectangular, the central portion is bright and the peripheral portion is blurred. The influence is further increased by the occurrence of blur due to disturbance and rotation of the marker itself (rotation in the roll direction of the vehicle). In particular, it may bleed in one direction due to natural conditions (rain, snow, fog, etc.).
[0128]
Here, as a method for calculating the marker reference position, the following three methods can be considered.
(1) Marker center position of binary image
(Midpoint of maximum value and minimum value in X direction, midpoint of maximum value and minimum value in Y direction)
(2) Calculating the center of gravity of a binary image
(3) Center of gravity calculation with luminance weight
If the marker image of a clean rectangular marker becomes a clean rectangle when digitized, (1) is sufficient. However, in practice, “bleeding” and rotation due to disturbance occur, and the digital image is not displayed in a rectangle.
[0129]
FIG. 20 is a diagram illustrating an example of the binarization processing of the marker image. 20A shows the luminance value for each pixel of the marker image before binarization, and FIG. 20B shows the luminance value for each pixel of the marker image after binarization.
[0130]
In the example of FIG. 20, binarization processing is performed with a threshold value of 20. That is, a pixel whose luminance value before binarization is less than 20 has a luminance value after binarization of 0. A pixel having a luminance value before binarization of 20 or more has a luminance value after binarization of 1. In FIG. 20B, pixels whose luminance value after binarization is 1 (a threshold value or more at the time of binarization) are indicated by white squares, and the luminance value after binarization is 0 (2 Pixels that are less than the threshold at the time of value conversion are indicated by black squares.
[0131]
In the example of FIG. 20A, in the marker image 111 before binarization, there is a pixel having the highest luminance value in the vicinity of the center, and the luminance value decreases as it approaches the periphery. When the marker image 111 is binarized, the binarized marker image 112 is not an accurate rectangle as shown in FIG. In the example of FIG. 20B, the marker image 112 is distorted by the presence of the pixel 112a having a luminance value of 1 at a position protruding from the rectangle.
[0132]
In this way, when binarization is performed, it is affected by a point that is greater than or equal to a threshold value generated by blurring or the like (a bright point generated by irregular reflection or the like at a position where no actual marker exists). Therefore, in the case of the marker reference position calculation method (1), a large error occurs. Even if the protrusion is at most 1 pixel, the reference position is affected in units of 0.5 pixels.
[0133]
In contrast, when calculating the center of gravity of the marker reference position calculation method (2), the influence of one pixel as shown in FIG. 20 can be reduced compared to the calculation method (1), and the accuracy is stochastically accurate. Will improve. That is, by calculating the center of gravity, it is possible to detect the reference position with an accuracy (sub-pixel) equal to or less than the pixel unit.
[0134]
It is also expected that “smudge” will occur in one direction due to rain or the like. Even when the threshold value is exceeded during binarization, the luminance of the normal marker position is high and the luminance of the “smear” portion is low. Using this characteristic, in the marker reference position calculation method (3), each pixel is weighted by the luminance value before binarization when calculating the center of gravity. Thereby, the marker reference position can be obtained more accurately.
[0135]
That is, in the marker reference position calculation method (3), a weight corresponding to the luminance value of the image sent from the camera 21 is set for each pixel of the marker image. And the virtual mass according to a weight is given with respect to each pixel, and the mass center of a marker image is calculated | required.
[0136]
FIG. 21 is a diagram illustrating an example of calculating the center of gravity of the luminance weight. In FIG. 21, the brightness distribution of the marker image is shown as a brightness histogram in which the x-axis is set on the horizontal axis and the brightness value is set on the vertical axis. In the figure, a line 121 indicates the barycentric position of the luminance weight. A line 122 indicates the barycentric position of the binarization result.
[0137]
In the example of FIG. 21, bleeding occurs in one direction (left side in the figure) due to rain or the like, and the high luminance area spreads. Therefore, the barycentric position of the binarization result is shifted to the left as indicated by the line 122. Here, when the weight is obtained by assigning a luminance weight, the center of gravity is obtained at a position having a high luminance value as indicated by a line 121.
[0138]
In this way, when the histogram is like the graph of FIG. 21, the centroid is near the midpoint from both ends in the “method for obtaining the center of the pixel at both ends” and the “method for obtaining the centroid of the binarized result”. . However, when the marker is far away, there is a blurred part on the video, and the brightest part is close to the center of gravity. Therefore, the “center of gravity with luminance weight” indicates a position closer to the center of the actual marker.
[0139]
[Marker condition judgment and filling rate]
Next, the determination of the marker condition and the filling rate will be described. In the present embodiment, a predetermined marker is recognized from the marker barycentric coordinate position.
[0140]
When running a vehicle in a natural environment, an undetected marker may be generated due to the shape of the rectangular marker being disturbed due to raindrops, or a marker other than the marker may be misrecognized as a marker due to sunlight. There is a case. For this reason, in this embodiment, the following is checked when examining the shape of the marker.
• Is the aspect ratio of the high brightness area close to the aspect ratio of the actual marker?
• Is the shape of the high brightness area rectangular (rectangular)? Specifically, the ratio (area filling factor) of the area of the minimum rectangle that covers the high-luminance area and the area of the high-luminance area is obtained, and it is checked whether this is close to the expected value or the specified value.
・ Is the size of the high brightness area too small or too large? In this case, the maximum value and the minimum value of the marker size in the assumed inter-vehicle distance range are set in advance, and it is checked that the size of the high luminance area is not less than the preset minimum value and not more than the maximum value.
[0141]
Those satisfying these evaluation criteria are considered to satisfy the “marker condition” and are set as marker image candidates. Moreover, it is possible to determine whether or not to consider the marker image by weighting the evaluation criterion of the marker and comprehensively evaluating the marker image candidate according to the weight. In this case, weighting can be set according to the operation mode (running course, surrounding environment, marker shape, etc.).
[0142]
For example, the weight of the filling rate is increased at a short distance, and the maximum area is determined at a long distance, so that an accurate determination according to the distance is possible. Unlike short distances, markers are rectangular at short distances. probability This processing can be realized by reflecting the characteristic that the distance is higher in the long distance and is often close to a circle compared to the short distance.
[0143]
By this determination processing, it is possible to prevent erroneous recognition even with respect to a light emitter group in which the positional relationship between the markers is close to a true marker pattern. In addition, since the number of marker candidates can be reduced, there is an effect that the final marker pattern determination is speeded up.
[0144]
FIG. 22 is a diagram illustrating an example of a determination processing result based on an aspect ratio. 22A shows an image input from the camera, FIG. 22B shows a labeling result, and FIG. 22C shows a marker image candidate extracted after shape determination.
[0145]
The frame image 130 input from the camera 21 includes a plurality of high brightness areas. In the example of FIG. 22A, the frame image 130 includes an elliptical area, a triangular area, and four rectangular areas. Therefore, the control unit 24 performs labeling and assigns an identification number to the high-luminance area. In the example of FIG. 22B, 1 is assigned to the elliptical area, 2 is assigned to the triangular area, and 3 to 6 identification numbers are assigned to the four rectangular areas.
[0146]
Here, the control unit 24 determines the aspect ratio. If the actual marker shape is a square, a shape that is too long horizontally such as the elliptical region shown in FIG. 22B or a shape that is too long vertically such as the triangular region is not a marker image (vertical and horizontal). The ratio is abnormal). As a result, as shown in FIG. 22C, only the rectangular area is extracted as a marker image candidate, and identification numbers 1 to 4 are reassigned to each.
[0147]
FIG. 23 is a diagram illustrating a filling rate determination example. When determining the filling rate, the control unit 24 sets a rectangular area 142 surrounding the marker image 141. When the width in the x-axis direction of the rectangular region 142 is x1, the width in the y-axis direction is y1, and the marker area S (the number of dots on the screen), the filling rate F is
[0148]
[Equation 9]
F = S / (x1 + y1) (9)
Can be calculated. The maximum value of the filling rate F is 1, and the filling rate F approaches 1 as the marker image 141 approaches a rectangle.
[0149]
In the following, an example is shown that is not actually a marker, but is erroneously recognized as a marker when determined only by the aspect ratio.
FIG. 24 is a diagram illustrating an example of an image that is abnormal in the determination of the filling rate. FIG. 24A shows an example of a distorted shape image, FIG. 24B shows an example of a ten-hour image, and FIG. 24C shows an example of a triangular image.
[0150]
Each of the images 151, 152, and 153 is determined to be normal in the aspect ratio, but is determined to be abnormal in the filling rate.
Even if the marker is rectangular, it cannot be generally regarded as a complete rectangle in the image information. However, there is a characteristic that the closer the distance between the imaging target and the imaging means, the closer the marker image is to a rectangle (the filling rate is close to 1). Therefore, by determining the marker image based on the filling rate, when there is a high-luminance region, it is possible to accurately determine other than the marker and the marker, and as a result, it is effective in preventing erroneous recognition.
[0151]
[Tracking process]
Next, the tracking process will be described. In the tracking process, the marker and the marker pattern are extracted when the movement of the target included in the marker pattern is within a predetermined range.
[0152]
FIG. 25 is a diagram showing a marker search range. In the example of FIG. 25, the search range 161b, 162b, 163b, 164b, 165b of the marker image in the image 160 is determined based on the reference position of the marker image 161a, 162a, 163a, 164a, 165a at the previous time. Then, marker images 161 to 165 at the current time are detected from the search ranges 161b, 162b, 163b, 164b, and 165b.
[0153]
For example, when the reference position of the marker image at the previous time is (x2, y2), the range from (x2-p, y2-q) to (x2 + p, y2 + q) is set as the marker search range. Here, p and q are variables indicating the search width, but the values of p and q are calculated based on information such as the marker width at the previous time.
[0154]
FIG. 26 is a diagram illustrating a search width calculation method. FIG. 26A shows a first candidate for the marker search range, and FIG. 26B shows a second candidate for the marker search range.
[0155]
Let cx be the width of the marker image 161a at the previous time, and cy be the height of the marker image 161a at the previous time. Here, it is assumed that x3 = cx / 2 and y3 = cy / 2.
In the first candidate 161c for the marker search range, as shown in FIG. 26 (A), x3 × n (n is a real number of 1 or more) in the horizontal direction from the reference position of the marker image 161a at the previous time, and in the vertical direction. The range within y3 × r (r is a real number of 1 or more) is the search range.
[0156]
In the second candidate 161d for the marker search range, as shown in FIG. 26B, x3 + m (m is a positive real number) in the horizontal direction and y3 + s (s in the vertical direction from the reference position of the marker image 161a at the previous time. Is a range within a positive real number).
[0157]
As the search width (p, q) for determining the actual search range, the larger value is adopted in each of the x-axis and y-axis directions.
For example, if a function that returns the maximum value of arguments is defined as max (argument # 1, argument # 2,...), The search width (p, q) can be obtained as follows.
[0158]
[Expression 10]
p = max (x × n, x + m) (10)
[0159]
## EQU11 ##
q = max (y × r, y + s) (11)
Thereby, when the size of the marker image is large (the marker is a short distance), the search range defined by the first candidate 161c of the marker search range is determined. In addition, when the size of the marker image is small (the marker is a long distance), a search range as defined by the second candidate 161d for the marker search range is determined. Thereby, the search range according to the distance is determined from a short distance to a long distance.
[0160]
The addition processing by “m” or “s” of the second candidate 161d of the marker search range can be effectively used when the movement of the marker pattern in the image within the imaging time of the camera 21 is in a certain direction. For example, there are the following cases.
・ When there is optical axis rotation vibration of the vehicle's camera (vehicle vibration (yaw angle, pitch angle), steering mechanism shake, camera jig shake).
-The forward vehicle position moves on the image when the road is linear (it may not be exactly the same angle).
・ When an offset margin should be set.
[0161]
On the other hand, the multiplication process by “n” or “r” of the first candidate 161c in the marker search range is effective when the movement amount within the photographing interval is inversely proportional to the distance. For example, it is effective in the following cases.
• When considering the amount of change in the position of the marker on the vehicle ahead (lateral position deviation, yaw angle change, pitch angle change).
・ When there is parallel movement vibration (lateral position deviation, etc.) of the host vehicle.
・ When coefficient margin should be set.
[0162]
Actually, the larger one of the values (the side that needs a margin) is adopted (max value). Considering these factors, the marker search range second candidate 161d is substantially used when the marker is at a far point, and the marker search range first candidate 161c is used at a near point.
[0163]
In addition, n, m, s, and r can be externally specified by parameters, so that they can correspond to various traveling courses. For example, it is possible to dynamically change the shape of the front course at that time.
[0164]
In determining the above settings,
・ Road alignment (vehicle movement along the road)
・ Blur of imaging means (camera)
・ Vehicle vibration
・ Margin
It is necessary to judge comprehensively.
[0165]
For example, the component of the vertical / horizontal change resulting from the above factors is defined as follows.
First, the estimated amount of misalignment of the marker pattern caused by various factors is calculated as road alignment (x11, y11), camera shake (x12, y12), vehicle vibration (x13, y13), roll (x14, y14), A margin (x15, y15) is assumed. At this time, the maximum vertical / horizontal change component is set as the following value.
[0166]
[Expression 12]
Maximum lateral change = x11 + x12 + x13 + x14 + x15 (12)
[0167]
[Formula 13]
Maximum value of longitudinal change = y11 + y12 + y13 + y14 + y15 (13)
In general, the road alignment has a tighter left / right curve than the up / down (x11> y11), and the camera 21 has a large lateral blur (x12> y12 when the horizontal turntable of the camera 21 is used). ). Therefore, a wide search range in the horizontal direction is set. This eliminates the need to search for an unnecessary vertical range, which is very effective in preventing misrecognition of sunlight and the like. In addition, an improvement in processing speed can be expected.
[0168]
[Small region search]
Next, the small area full search will be described. In the small area full search process, the coordinate range in which the marker pattern exists is limited / estimated from the marker pattern coordinate information at the previous time, and the marker and the marker pattern are extracted within the limited range.
[0169]
FIG. 27 is a diagram illustrating a search range of the small region full search process. In the image 170, the search range 176 is determined according to the positions of the marker images 171a, 172a, 173a, 174a, and 175a that form the marker pattern of the previous time. By performing a full search in the search range 176, the marker images 171 to 175 at the current time are detected, and the marker pattern at the current time is recognized.
[0170]
FIG. 28 is a diagram illustrating an example of a screen when a fake marker exists. In the image 180 of FIG. 28, genuine marker images 181 to 185 are shown in the search range 186 of the small region at the current time. Outside the search range 186, fake marker images 187a to 187d are shown.
[0171]
The control unit 24 calculates the position and size of the marker pattern from the coordinates (reference position) of the marker image constituting the marker pattern at the previous time. Then, the control unit 24 determines the marker pattern search range in consideration of the expected movement range. The control unit 24 performs marker detection and pattern detection by performing full search processing on the limited marker pattern search range.
[0172]
Thereby, it is possible to increase the speed by limiting the processing target. In addition, it is possible to prevent false recognition of a false marker image (a high-intensity region other than the marker) generated due to various factors as shown in FIG.
[0173]
Here, a calculation method of the search range in the small area full search will be described.
FIG. 29 is a diagram for explaining a search range calculation method in the small region full search. Based on the marker images 191 to 195 detected in the immediately preceding frame image 190, the control unit 24 determines the minimum area 196 that includes the marker pattern formed by the marker images 191 to 195. The center between the x coordinate and the y coordinate of the minimum area 196 is set as a center position P0 (x0, y0) of the marker pattern.
[0174]
Here, with reference to the center position P0 (x0, y0) of the marker pattern, (x0-p1, y0-q1) to (x0) + p1, y0 + The range of q1) is set as the marker pattern search range.
[0175]
Here, if the width of the marker pattern at the previous time is dx and the height of the marker pattern at the previous time is dy, it can be expressed as x4 = dx / 2 and y4 = dy / 2.
Here, the search width (p1, q1) is obtained as follows.
[0176]
[Expression 14]
p1 = max (x4 × n1, x4 + m1) (14)
[0177]
[Expression 15]
q1 = max (y4 × r1, y4 + s1) (15)
n1 and r1 are real numbers of 1 or more, and m1 and s1 are real numbers of 0 or more. The reason for taking the maximum value of the plurality of values in this way is to support a long distance from a short distance.
[0178]
The addition of variables such as “+ m1” and “+ s1” is effective when the movement direction of the marker pattern on the image within the imaging interval as viewed from the camera 21 is constant. For example, this is effective in the following cases.
・ When there is optical axis rotation vibration of the vehicle's camera (vehicle vibration (yaw angle, pitch angle), steering mechanism shake, camera jig shake).
-The forward vehicle position moves on the image when the road is linear (it may not be exactly the same angle).
・ When an offset margin should be set.
[0179]
On the other hand, multiplying variables such as “× n” and “× r” is effective when the amount of movement within the photographing interval is inversely proportional to the distance. For example, it is effective in the following cases.
• When considering the amount of change in the position of the marker on the vehicle ahead (lateral position deviation, yaw angle change, pitch angle change).
・ When there is parallel movement vibration (lateral position deviation, etc.) of the host vehicle.
・ When coefficient margin should be set.
[0180]
Among these multiple values, the side that requires a margin is adopted (max value). Considering these, the former is used substantially at the far point and the latter at the near point.
Moreover, n1, m1, s1, and r1 correspond to various traveling courses by enabling external designation by parameters. It is also possible to change dynamically considering the shape of the front course at that time.
[0181]
In determining the set value, it is necessary to comprehensively determine road alignment, imaging means (camera) blurring, vehicle vibration, margin, and the like.
For example, the component of the vertical / horizontal change resulting from the above factors is defined as follows.
Road alignment (x21, y21)
Image blur (x22, y22)
Vehicle vibration (x23, y23)
Roll (x24, y24)
Margin (x25, y25)
At this time, the maximum vertical / horizontal change component is set as the following value.
[0182]
[Expression 16]
Maximum lateral change = x21 + x22 + x23 + x24 + x25 (16)
[0183]
[Expression 17]
Maximum longitudinal change = y21 + y22 + y23 + y24 + y25 (17)
In general, the road alignment has a tighter left / right curve than the up / down (x21> y21), and the blur of the imaging means is large in the lateral direction when using the horizontal turntable of the camera (x22> y22). Therefore, a wide search range in the horizontal direction is set. This eliminates the need to search for an unnecessary vertical range, which is very effective in preventing misrecognition of sunlight and the like. In addition, an improvement in processing speed can be expected.
[0184]
[Tracking (position prediction)]
Next, the position prediction process will be described. The control unit 24 estimates the coordinate information of the marker and marker pattern at the next time from the past marker coordinate information and marker pattern coordinate information, and limits the coordinate range to be extracted.
[0185]
FIG. 30 is a diagram for explaining the process of predicting the position of the marker image. The amount of movement from the position of the marker image 211 in the previous image to the position of the marker image 212 in the current image is calculated. The amount of movement can be represented by a movement vector 214, for example.
[0186]
The control unit 24 predicts that the next marker image 213 will appear at the moved position that is the same as the movement amount from the previous position to the current position. For example, assuming a movement vector 215 having the same length and the same direction as the movement vector 214, the position moved by the movement vector 215 from the current position is set as the next predicted position. That is, in the next search for the marker image, the current position is predicted from the positions of the previous two marker images.
[0187]
The previous marker image position and the current marker image position are calculated, for example, by calculating the center of gravity when weighting is performed according to the luminance. Further, the certainty of marker discovery is improved by setting the reference position of the search range in tracking the marker image as the predicted position of the next marker image.
[0188]
The present embodiment is a particularly effective means when the premise of constant speed movement of the object (marker and marker pattern) is observed. When applying the position prediction processing, it is necessary to consider characteristics such as a traveling course, imaging means, own vehicle behavior, and preceding vehicle behavior.
[0189]
[Supports separation of light emitting elements (pixel fusion processing)]
In the case of a self-light emitting marker composed of a plurality of light emitting elements, there is a possibility that the light emitting elements are separated and detected when approaching. In this case, the control unit 24 obtains a marker candidate region by fusing the separated pixels on the image.
[0190]
FIG. 31 is a diagram illustrating an image when a marker including a plurality of light emitting elements is in proximity. As shown in FIG. 31, when the marker is composed of a plurality of LEDs, if the distance between the marker and the camera is too close, one marker image is separated and appears as a set of a plurality of high brightness areas. If the labeling process is performed as it is, each separated high-intensity region becomes a marker candidate.
[0191]
In order to suppress this separation, the control unit 24 can normally perform area expansion, image reduction, blurring processing, and the like, but this takes time.
Therefore, the control unit 24 performs not the image processing but the fusion processing of the high luminance pixels that are not adjacent to each other during the labeling but are present nearby. Thereby, erroneous recognition of the marker can be prevented and the processing speed can be increased.
[0192]
In the present embodiment, in the horizontal direction, pixel fusion processing is performed using a run that appears in the middle of labeling. A run is information used when an area is regarded as a collection of horizontal lines in order to reduce the storage capacity of a binarized image. When only the coordinates of the start point (left side) and end point (right side) of each horizontal line in an area set to high luminance after binarization are stored, this horizontal line is called a run. The run is information indicating the number of binary images connected in the horizontal direction (horizontal direction) on one line. The information includes a start x coordinate, an end x coordinate, and ay coordinate.
[0193]
In the case of the horizontal direction, if the y coordinate is the same and the end x coordinate of the run and the start x coordinate of the next run are small (a numerical value is specified by a parameter), the run is processed as being connected. Similarly, in the vertical direction, if the x coordinate is the same and the end y coordinate of the run and the start y coordinate of the next run are small (a numerical value is specified by a parameter), the run is processed as being connected.
[0194]
FIG. 32 is a diagram illustrating an example of the light emitting element image combining process. FIG. 32A shows a binary image before image combination of light emitting elements, and FIG. 32B shows image combination of light emitting elements. rear The binary image is shown.
[0195]
As described above, since the interval between the images (high luminance regions) for each light emitting element is narrow, the combination processing is performed to form one high luminance region. That is, it is handled as one marker image.
[0196]
In setting the parameter of the designated interval regarding pixel fusion, it is necessary to consider the characteristics of the light emitting elements, the arrangement interval, and the like. In general, the light emitting elements are separated when the self-light emitting marker and the imaging means are close to each other. However, it is important to set whether or not to apply this embodiment so that it can be determined depending on the situation. It is. For example, it can be applied only when close, applied when distance is unknown, applied when close or unknown distance, always applied, not always applied, so that it can be used in a wide range of operation modes such as light emitting element characteristics, driving course, weather etc. It becomes possible to respond.
[0197]
[Distance mode]
Next, the distance mode will be described. The control unit 24 can switch each function based on the distance information to the target at the previous time. For example, the control unit 24 divides the state into three patterns of long distance, medium distance, and short distance according to the distance of the previous detection result, and switches the processing method. By dynamically switching the optimal processing method according to the distance, it is possible to prevent erroneous recognition of markers and marker patterns in each distance range, and to treat distance ranges that cannot be handled with a single distance setting. It becomes possible.
[0198]
The distinction between distances for long distances and short distances is specified by parameters. The parameter setting can be adapted to a wide variety of usage forms by comprehensively determining and determining the following.
Marker and marker pattern size
・ Characteristics of light emitting element of marker
・ Road alignment (up / down / left / right curve)
・ Vehicle vibration characteristics
・ Behavior characteristics of imaging devices
a) Long distance
In the case of a long distance, the control unit 24 performs a small area full search as a marker pattern search method. The small area full search is a method of limiting the search range and performing a full search process. In this mode, the search range is limited, the processing speed can be increased, and the marker can be moved at a high speed.
[0199]
In the tracking process for each marker, a search is performed for each marker, and therefore it is not appropriate when all five markers move at high speed. On the other hand, the small area full search can cope with a case where the entire marker moves greatly. For this reason, it is possible to cope with a case where the target is at a long distance and the imaging device is blurred.
[0200]
However, since the processing takes time when the target is close and the search range is large, the small area full search process is a process in the case of a long distance where the entire marker appears small.
[0201]
b) Medium distance
In the case of a medium distance, the control unit 24 performs a tracking process for searching for each marker as a marker pattern search method. Since the distance is close to a certain extent, there is little influence even when the imaging device is shaken compared to a long distance optically.
[0202]
Since the search range of the marker pattern is limited in the small area full search, the search range is widened when the distance is not a long distance, and finally the entire image becomes the search range, resulting in poor processing efficiency. Furthermore, searching for an unnecessarily wide range also causes misrecognition.
[0203]
Therefore, in the case of a distance close to a certain degree, since the marker becomes large, it is more efficient to search for each marker, and the overall search range becomes narrower. Therefore, the possibility of erroneous recognition is low. Become.
[0204]
In addition, since it is known that the marker is large, it is possible to obtain a marker by performing image thinning as a search for one marker.
c) Short distance
In the case of a short distance, the control unit 24 performs a tracking process for searching for each marker as a marker pattern search method. Since it is known that the marker looks large, even if the number of markers is two or one, it is permitted to obtain the distance from the marker interval and the marker size. This makes it possible to calculate the distance even when only two or less markers are present within the angle of view. It is desirable not to use this method because three or more markers exist within the angle of view at a distance other than a short distance and the possibility of erroneous detection of sunlight or the like increases.
[0205]
Further, in the case of a short distance, the pixel fusion processing is performed repeatedly in consideration of separation of light emitting elements.
Furthermore, the exposure of the imaging means (camera 21) is increased only in the case of a short distance. Thereby, misrecognition by separation of light emission prevention can be prevented while minimizing misrecognition of disturbances such as sunlight.
[0206]
In the present embodiment, the processing is divided into three types of patterns: long distance, medium distance, and short distance. However, setting switching according to distance may be further subdivided. As a result, it is possible to further cope with each distance, and as a result, it is possible to prevent erroneous recognition and improve the recognition rate.
[0207]
[Limited processing range]
The control unit 24 can also change the search range of the marker pattern according to the distance to the target (as a function of the distance).
[0208]
FIG. 33 is a diagram illustrating a search range limited when the target is a long distance. When the distance to the tracking target vehicle is a long distance, the image 220 sent from the camera 21 is reflected by a cloud image 222 or a puddle other than the marker image 221 of the marker installed on the vehicle to be tracked. A reflected image 223 of the marker is displayed. In addition to the clouds, the sun can be present at the top of the image 220. These images cause misrecognition of the marker.
[0209]
Therefore, the control unit 24 excludes the predetermined range from the top and the predetermined range from the bottom of the marker pattern search range. Therefore, the search range 224 is the central portion excluding the top and bottom of the image 220. Thereby, a misrecognition factor can be removed and a misdetection can be prevented.
[0210]
It should be noted that the range in which the marker pattern can exist can be limited to the horizontal direction by the course shape (such as no steep curve).
FIG. 34 is a diagram illustrating a search range limited when the target is a short distance. When the distance to the vehicle to be tracked is a short distance, the marker image 231 constituting the marker pattern is greatly projected on the image 230 sent from the camera 21. In this case, the search range 232 is widened vertically depending on the distance of the previous detection result.
[0211]
That is, the search range is wide at a short distance and narrow at a long distance. As a result, the authentic marker image does not deviate from the search range at a short distance.
[0212]
[Limit search range according to position]
In IMTS, each vehicle itself can grasp the current position by laying magnetic lane markers at regular intervals in the traveling lane and detecting the magnetic lane markers. Therefore, in the present embodiment, the search range for the marker of the preceding vehicle is limited according to the current position of the vehicle.
[0213]
FIG. 35 is a functional block diagram illustrating a processing function for performing a search range restriction according to a position.
The magnetic lane marker detection unit 301 detects a magnetic lane marker laid on the traveling lane. The magnetic lane marker detection unit 301 is a function of the sensor 26 shown in FIG.
[0214]
The position information acquisition unit 302 acquires current position information based on the magnetic lane marker information detected by the magnetic lane marker detection unit 301. The search range extraction unit 303 extracts a search range for a marker image or a marker pattern based on the position information acquired by the position information acquisition unit 302. For example, if the current position and the map information of the travel lane indicate that the vehicle is traveling in the middle of a long straight line, the search range limited to the left and right is extracted. The search range extraction unit 303 passes the extracted search range to the marker extraction unit 305 and the marker pattern extraction unit 306.
[0215]
The imaging unit 304 captures a video of the preceding vehicle and generates an image. The imaging unit 304 is a function configured by the camera 21 and the image processing unit 23 illustrated in FIG.
The marker extraction unit 305 receives an image captured from the imaging unit 304 and extracts a marker image from the search range passed from the search range extraction unit 303 in the image.
[0216]
The marker pattern extraction unit 306 analyzes the marker image extracted by the marker extraction unit 305 and extracts a marker pattern. The marker pattern extraction unit 306 extracts a marker pattern only from the marker image within the search range sent from the search range extraction unit 303 when the marker extraction unit 305 does not limit the search range. .
[0217]
The relative position calculation unit 307 calculates the relative position of the preceding vehicle based on the marker pattern extracted by the marker pattern extraction unit 306.
As a result, a vehicle that tracks the preceding vehicle detects the magnetic lane marker, grasps its current position, and compares the current position with the map information of the travel lane, thereby accurately determining the search range. Is done. Then, a marker pattern is detected from the determined search range.
[0218]
This narrows the search range and increases the processing speed. In addition, since the search range can be narrowed down accurately, it is possible to prevent noise from being mistakenly recognized as a marker.
[0219]
In addition, position information acquisition can also be performed by GPS (Global Positioning System). At this time, the position obtained by the GPS can be corrected by the self-propelled distance or the cutting width of the steering wheel.
[0220]
[Rotation control of imaging device]
In the above example, the camera 21 as the imaging device has been described as being fixed, but the position of the camera 21 can be rotated according to the relative positional relationship with the preceding vehicle. Hereinafter, the rotation method of the camera 21 will be described.
[0221]
FIG. 36 is a top view of a camera having a rotation mechanism. As shown in FIG. 36, at the head of the vehicle 20, the camera 21 is installed on the turntable 27a. The turntable 27 a has a built-in motor, and the motor rotates according to a signal from the control unit 24 to rotate the camera 21. That is, the turntable 27 a is a part of the actuator 27.
[0222]
The rotation angle of the turntable 27a can be controlled according to the absolute position on the travel lane. A control method for performing such control will be described below.
FIG. 37 is a functional block diagram illustrating a rotation control function of the imaging apparatus. In FIG. 37, the magnetic lane marker detection unit 301 and the position information acquisition unit 302 are the same as the components having the same names shown in FIG. The magnetic lane marker detection unit 301 and the position information acquisition unit 302 acquire lane marker information using a magnetic lane marker provided on the lane. The lane marker information is associated with a two-dimensional or three-dimensional coordinate map by a predetermined road alignment.
[0223]
FIG. 38 is a diagram showing a correspondence table between lane markers and coordinates. Each lane marker is numbered sequentially from 001. Each lane marker is associated with an X-coordinate, a Y-coordinate, and a road linear absolute angle (hereinafter simply referred to as an absolute angle) with respect to the tangent. For example, the X coordinate of the kth (k is a natural number) lane marker is X (k), the Y coordinate is Y (k), and the absolute angle is φ (k). The X coordinate of the u (u is a natural number) lane marker is X (u), the Y coordinate is Y (u), and the absolute angle is φ (u).
[0224]
Returning to the description of FIG. 37, the target marker distance setting storage unit 311 sets a distance to be held between the marker set in the preceding vehicle. The control unit 24 controls an accelerator, a brake, and the like so as to keep a distance between the vehicles at a set distance.
[0225]
The target marker distance calculation unit 312 calculates the distance d from the marker set in the preceding vehicle.
The imaging device rotation angle calculation unit 313 uses the position information from the position information acquisition unit 302 and the distance from the target marker distance setting storage unit 311 or the distance d calculated by the target marker distance calculation unit 312. The rotation angle of the installed turntable 27a is calculated.
[0226]
A method for calculating the rotation angle of the imaging device having such a configuration will be described.
FIG. 39 is a view of a vehicle traveling in a row as viewed from above. In FIG. 39, the horizontal direction in the figure is the X axis, and the vertical direction is the Y axis.
[0227]
The preceding vehicle 10 and the following vehicle 20 are traveling along the traveling lane 320. A number of magnetic lane markers 330 are laid on the traveling lane 320. In the example of FIG. 39, the preceding vehicle 10 is traveling in a place where the u-th lane marker 332 of the traveling lane 320 is laid. The following vehicle 20 is traveling away from the vehicle 10 by a distance d in a place where the kth lane marker 331 of the traveling lane 320 is laid.
[0228]
FIG. 40 is an enlarged view of FIG. In FIG. 40, as an auxiliary line, a tangent line 341 of a road alignment (a line that smoothly connects the marker positions) in the k-th lane marker 331 laid at the position of the vehicle 20, an axis 342 in the front-rear direction of the vehicle 20, 10, a longitudinal axis 343 and a straight line 344 connecting the camera 21 and the marker panel 11 are shown.
[0229]
Here, the angle formed by the tangent line 341 and the axis 342 is φ1, the angle formed by the tangent line 341 and the axis 343 is φ2, and the axis 342 is a straight line. 344 Is defined as φa.
Assume that the vehicle 20 that is the host vehicle detects the k-th lane marker 331 and obtains a distance d from the target marker distance setting storage unit 311 or the target marker distance calculation unit 312 to the preceding vehicle 10. If the length of the car is d1 and the distance between the lane markers is d2, u can be obtained by equation (18).
[0230]
[Formula 18]
u = k + (d + d1) / d2 (18)
Further, when the lane marker interval is not uniform, it can also be obtained by an integral value of the distance between the lane markers.
[0231]
In calculating the rotation angle of the imaging device, it is necessary to consider the following.
1. Absolute angle of road line tangent (φ1k, φ1u)
2. Vehicle yaw angle (φ2k, φ2u) with respect to road linear tangent due to vehicle behavior
3. Amount of lateral displacement of the vehicle with respect to the road (x1k, y1k), (x1u, y1u)
4). Image pickup means position (dxc, dyc) with respect to the lane marker sensor in the vehicle
5). Marker position (dxm, dym) with respect to the lane marker sensor in the vehicle
The procedure for calculating the rotation angle of the imaging apparatus is as follows. A general geometric principle is used for calculation of various angles.
[0232]
FIG. 41 is a flowchart illustrating a procedure of imaging rotation angle calculation processing. In the following, the process illustrated in FIG. 41 will be described in order of step number.
[Step S101] The position information acquisition unit 302 acquires the detected lane marker number from the magnetic lane marker. Then, the position information acquisition unit 302 is based on the correspondence table between lane markers and coordinates shown in FIG. 38, and the road position (X (k), Y (k)), (X (u), Y (u)). To get. Further, the position information acquisition unit 302 acquires the lateral position shift amounts (x1k, y1k) and (x1u, y1u) with respect to the road of the vehicle from the magnetic lane marker detection unit 301, and the vertical position and the horizontal position ( The position of the lane marker sensor is a standard).
[0233]
[Step S102] The imaging device rotation angle calculation unit 313 calculates the vehicle angle from the absolute angle (φ1k, φ1u) of the road linear tangent and the vehicle yaw angle (φ2k, φ2u) with respect to the road linear tangent due to vehicle behavior. Determine.
[0234]
[Equation 19]
φ1 = φ1k + φ2k (19)
[0235]
[Expression 20]
φ2 = φ1u + φ2u (20)
[Step S103] The imaging device rotation angle calculator 313 uses the imaging means position (dxc, dyc) for the lane marker in the vehicle and the imaging means position (xc, yc) is calculated.
[0236]
[Step S104] The imaging device rotation angle calculation unit 313 uses the marker positions (dxm, dym) with respect to the lane marker sensors in the vehicle and steps S101, S102 and the marker position (xm, ym) is calculated.
[0237]
[Step S105] The imaging device rotation angle calculation unit 313 calculates the absolute angle of the marker from the imaging unit using the following equation.
[0238]
[Expression 21]
φa = tan -1 ((Ym-yc) / ( xm-xc))
.... (21)
[Step S106] The imaging device rotation angle calculation unit 313 calculates the rotation angle of the camera.
[0239]
[Expression 22]
φc = φa-φ1 (22)
Calculate as
[0240]
As described above, the rotation angle of the camera can be calculated. In addition, by further interpolating the discrete calculation processing at the lane marker interval with wheel pulses or the like, it is possible to rotate the imaging apparatus with less errors and smoothly. For example, by linearly interpolating the curvature of the road with wheel pulses, the error and discontinuity in the relaxation curve section (the part where the tightness of the curve changes with distance) can be improved.
[0241]
The imaging device rotation angle calculation unit 313 transmits the angle information of the value φc to the turntable 27a. The turntable 27a rotates the camera 21 based on the received angle information. As a result, the target marker can be tracked by the camera 21.
[0242]
In this way, by actively capturing the target marker in the field of view, it is difficult to be affected by disturbance noise other than the target marker, and a telephoto lens can be used. A system can be realized.
[0243]
Further, the relative angle from the marker to the camera 21 can be obtained from the absolute value of the difference between φa and φ2. As a result, by increasing the exposure of the imaging means only when the angle is large, it is possible to ensure detection with a small radius curve while minimizing misrecognition of disturbances such as sunlight.
[0244]
In the above embodiment, the case where the measurement of the relative position with respect to the preceding vehicle is used for automatic driving of the following vehicle has been described. However, the measurement result of the relative position is used as a driving assist function (driving assist). May be. For example, a warning can be issued to the driver when the inter-vehicle distance becomes short. Further, it may be announced to the driver that there is a corner ahead by the occurrence of the azimuth angle and yaw angle of the preceding vehicle.
[0245]
The above processing functions can be realized by a computer. In this case, a program describing the processing contents of the functions that the control device should have is provided. By executing the program on a computer, the above processing functions are realized on the computer. The program describing the processing contents can be recorded on a computer-readable recording medium. Examples of the computer-readable recording medium include a magnetic recording device, an optical disk, a magneto-optical recording medium, and a semiconductor memory. Examples of the magnetic recording device include a hard disk device (HDD), a flexible disk (FD), and a magnetic tape. Examples of the optical disc include a DVD (Digital Versatile Disc), a DVD-RAM (Random Access Memory), a CD-ROM (Compact Disc Read Only Memory), and a CD-R (Recordable) / RW (ReWritable). Magneto-optical recording media include MO (Magneto-Optical disc).
[0246]
When distributing the program, for example, portable recording media such as a DVD and a CD-ROM in which the program is recorded are sold. It is also possible to store the program in a storage device of a server computer and transfer the program from the server computer to another computer via a network.
[0247]
The computer that executes the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes processing according to the program. The computer can also read the program directly from the portable recording medium and execute processing according to the program.
[0248]
(Supplementary Note 1) In a relative position measurement device that measures a relative position with a preceding vehicle by image analysis,
Imaging means for imaging a plurality of markers arranged in a plurality of axial directions at a rear position of the preceding vehicle, and generating a frame image;
Extracting means for extracting a marker pattern composed of a plurality of marker images representing the plurality of markers from the frame image generated by the imaging means;
Calculation means for calculating a relative distance and a relative angle with the preceding vehicle based on the marker pattern extracted by the extraction means;
A relative position measuring device comprising:
[0249]
(Additional remark 2) The said calculation means calculates the relative distance with the said preceding vehicle based on the distance in the said frame image of two marker images, The relative position measuring apparatus of Additional remark 1 characterized by the above-mentioned.
[0250]
(Additional remark 3) The said calculation means calculates | requires the reference position of the said marker pattern from the position in the said frame image of these marker images, and calculates a relative angle based on the said reference position. Relative position measuring device.
[0251]
(Additional remark 4) The said calculation means calculates | requires the reference position of the said marker pattern from the position in the said frame image of the said several marker image, The other marker image which has a difference in a depth direction with respect to the said several marker image The relative position measuring device according to claim 1, wherein a relative yaw angle with respect to the preceding vehicle is calculated based on a distance in the frame image between a position and a reference position of the marker pattern.
[0252]
(Additional remark 5) The said calculation means performs weighting for every pixel which comprises the said marker image based on the luminance distribution information of the said marker image, The gravity center position of the said marker image comprised by the said pixel is said marker image The relative position measuring device according to supplementary note 1, wherein
[0253]
(Additional remark 6) The said extraction means defines the rectangle which encloses the high-intensity area | region used as the said marker image candidate, calculates the filling rate which is the ratio which the said high-intensity area | region in the said rectangle occupies, and the said filling rate is predetermined The relative position measurement apparatus according to appendix 1, wherein the high brightness area is extracted as the marker image only when the value is equal to or greater than a value.
[0254]
(Additional remark 7) The said extraction means extracts the said high-intensity area | region as said marker image, only when the aspect ratio of the high-intensity area | region used as the said marker image candidate is within a predetermined ratio. The relative position measuring device described.
[0255]
(Additional remark 8) The said extraction means limits the search range of each marker image of the present time in the said frame image based on the position of each marker image of the previous time which comprises the marker pattern of the previous time, and is limited. The relative position measuring device according to claim 1, wherein the marker image at the current time is searched from the search range.
[0256]
(Additional remark 9) The said extraction means estimates the position of each marker image of the present time based on the moving direction and moving amount of each marker image of the previous time which comprises the marker pattern of the previous time, and estimated position The relative position measurement device according to claim 8, wherein a range based on the reference image is set as the search range of each marker image.
[0257]
(Additional remark 10) The said extraction means limits the search range of the marker pattern of the present time in the said frame image based on the position of the marker pattern of the previous time, and the marker of the present time from the limited said search range. The relative position measuring apparatus according to appendix 1, wherein a pattern is searched.
[0258]
(Additional remark 11) As for the said extraction means, when the said marker is an aggregate | assembly of several self-light-emitting body and the relative distance with respect to the said preceding vehicle is below a predetermined value, the approaching high-intensity area | region is made into the same high-intensity area | region. The relative position measuring device according to supplementary note 1, wherein the relative position measuring device is recognized.
[0259]
(Additional remark 12) The said extraction means has multiple restriction | limiting functions of the search range of a marker image or a marker pattern, and selects the said search range restriction | limiting function according to the relative distance with the said preceding vehicle, It is characterized by the above-mentioned. The relative position measuring device according to appendix 1.
[0260]
(Additional remark 13) The said extraction means changes the search range of the said marker pattern according to the relative distance with the said preceding vehicle, The relative position measuring apparatus of Additional remark 1 characterized by the above-mentioned.
[0261]
(Additional remark 14) It further has a position acquisition means to acquire its own absolute position on a predetermined traveling course, and limits the search range of the marker pattern according to the traveling course shape near the absolute position. The relative position measuring device according to appendix 1, characterized by:
[0262]
(Supplementary note 15) The relative according to Supplementary note 1, further comprising photographing direction control means for directing the photographing direction of the imaging means toward the preceding vehicle based on the relative angle calculated by the calculating means. Position measuring device.
[0263]
(Supplementary Note 16) In a relative position measurement method for measuring a relative position with a preceding vehicle by image analysis,
Image a plurality of markers arranged in a plurality of axial directions at the position of the rear part of the preceding vehicle, and generate a frame image,
Extracting a marker pattern composed of a plurality of marker images representing the plurality of markers from the frame image,
Based on the marker pattern, a relative distance and a relative angle with the preceding vehicle are calculated.
A relative position measuring method characterized by the above.
[0264]
(Supplementary Note 17) In a program for measuring a relative position with a preceding vehicle by image analysis,
Computer
Imaging means for imaging a plurality of markers arranged in a plurality of axial directions at the position of the rear portion of the preceding vehicle, and generating a frame image;
Extraction means for extracting a marker pattern composed of a plurality of marker images representing the plurality of markers from the frame image generated by the imaging means;
Calculation means for calculating a relative distance or a relative angle with at least the preceding vehicle based on the marker pattern extracted by the extraction means;
A program characterized by functioning as
[0265]
(Supplementary note 18) In a computer-readable recording medium in which a program for measuring a relative position with respect to a preceding vehicle is recorded by image analysis,
The computer,
Imaging means for imaging a plurality of markers arranged in a plurality of axial directions at the position of the rear portion of the preceding vehicle, and generating a frame image;
Extraction means for extracting a marker pattern composed of a plurality of marker images representing the plurality of markers from the frame image generated by the imaging means;
Calculation means for calculating a relative distance or a relative angle with at least the preceding vehicle based on the marker pattern extracted by the extraction means;
A recording medium characterized by functioning as a recording medium.
[0266]
(Supplementary Note 19) In a transport vehicle that travels in a row while maintaining a relative positional relationship with a preceding vehicle,
A camera that captures a plurality of markers arranged in a plurality of axial directions at a rear position of the preceding vehicle, and generates a frame image;
A marker pattern composed of a plurality of marker images representing the plurality of markers is extracted from the frame image generated by the camera, and at least a relative distance or a relative angle with the preceding vehicle based on the extracted marker pattern A control device for calculating
A transport vehicle characterized by comprising:
[0267]
【The invention's effect】
As described above, in the present invention, a marker pattern is detected from a frame image obtained by imaging a plurality of markers arranged in a plurality of axial directions at the rear of a preceding vehicle, and a relative position is calculated based on the marker pattern. Therefore, the relative position can be calculated with high accuracy without storing a large number of templates. As a result, the relative position with high accuracy can be calculated at high speed.
[Brief description of the drawings]
FIG. 1 is a principle configuration diagram of the present invention.
FIG. 2 is a diagram showing an outline of platooning by IMTS.
FIG. 3 is a view of a preceding vehicle as viewed from the rear.
FIG. 4 is a diagram showing the arrangement of markers. FIG. 4A is a front view of the marker panel. FIG. 4B is a cross-sectional view taken along line XX in FIG.
FIG. 5 is a diagram illustrating an example of a frame image.
FIG. 6 is a diagram showing a relationship of relative positions of vehicles.
FIG. 7 is a block diagram showing a configuration of an automatic tracking function installed in a vehicle.
FIG. 8 is a flowchart showing a processing procedure of the entire relative position calculation processing.
FIG. 9 is a flowchart illustrating a procedure of a full search process.
FIG. 10 is a flowchart illustrating a procedure of marker pattern detection processing.
FIG. 11 is a flowchart showing a procedure of tracking processing.
FIG. 12 is a diagram showing an example of a frame image showing a rear part of a preceding vehicle.
FIG. 13 is a diagram illustrating an example of a frame image when four points excluding one point of a peripheral marker are found.
FIG. 14 is a diagram illustrating an example of a frame image when a roll angle occurs.
FIG. 15 is a diagram illustrating an example of a frame image when two marker images that are paired in the horizontal direction among peripheral markers are detected.
FIG. 16 is a first example of a frame image when a peripheral marker other than two marker images paired in the horizontal direction is detected.
FIG. 17 is a second example of a frame image when a peripheral marker other than the two marker images paired in the horizontal direction is detected.
FIG. 18 is an enlarged view of a marker image.
FIG. 19 is a diagram illustrating a luminance histogram of a marker image.
FIG. 20 is a diagram illustrating an example of a binarization process of a marker image. 20A shows the luminance value for each pixel of the marker image before binarization, and FIG. 20B shows the luminance value for each pixel of the marker image after binarization.
FIG. 21 is a diagram illustrating a calculation example of the center of gravity of the luminance weight.
FIG. 22 is a diagram illustrating an example of a determination processing result based on an aspect ratio. 22A shows an image input from the camera, FIG. 22B shows a labeling result, and FIG. 22C shows a marker image candidate extracted after shape determination.
FIG. 23 is a diagram illustrating an example of filling rate determination.
FIG. 24 is a diagram illustrating an example of an image that is abnormal in determination of a filling rate. FIG. 24A shows an example of a distorted shape image, FIG. 24B shows an example of a ten-hour image, and FIG. 24C shows an example of a triangular image.
FIG. 25 is a diagram illustrating a marker search range.
FIG. 26 is a diagram for explaining a search width calculation method; FIG. 26A shows a first candidate for the marker search range, and FIG. 26B shows a second candidate for the marker search range.
FIG. 27 is a diagram illustrating a search range of a small region full search process;
FIG. 28 is a diagram illustrating an example of a screen when a fake marker exists.
FIG. 29 is a diagram for explaining a search range calculation method in a small area full search;
FIG. 30 is a diagram illustrating a process for predicting the position of a marker image.
FIG. 31 is a diagram illustrating an image when a marker including a plurality of light emitting elements is in proximity.
FIG. 32 is a diagram illustrating an example of a light emitting element image combining process. FIG. 32A shows a binary image before image combination of light emitting elements, and FIG. 32B shows image combination of light emitting elements. rear The binary image is shown.
FIG. 33 is a diagram illustrating a search range limited when the target is a long distance.
FIG. 34 is a diagram showing a search range limited when the target is a short distance.
FIG. 35 is a functional block diagram showing a processing function for performing a search range restriction according to a position.
FIG. 36 is a top view of a camera having a rotation mechanism.
FIG. 37 is a functional block diagram illustrating a rotation control function of the imaging apparatus.
FIG. 38 is a diagram showing a correspondence table between lane markers and coordinates.
FIG. 39 is a top view of a vehicle traveling in a row.
40 is an enlarged view of FIG. 39. FIG.
FIG. 41 is a flowchart illustrating a procedure of imaging rotation angle calculation processing.
[Explanation of symbols]
1 preceding vehicle
1a to 1d marker
2 Relative position measuring device
2a Imaging means
2b frame image
2c Extraction means
2d marker pattern
2e calculation means
10, 20, 30 Vehicle
11, 22, 32 Marker panel
11a-11e Marker
21,31 camera

Claims (9)

画像解析により先行車両との相対位置を計測する相対位置計測装置において、
前記先行車両の後部の位置に奥行き方向の軸を含む複数の軸方向に並べられた複数のマーカを撮像し、フレーム画像を生成する撮像手段と、
前記撮像手段が生成した前記フレーム画像から、前記複数のマーカを表す複数のマーカ画像で構成されるマーカパターンを抽出する抽出手段と、
前記抽出手段で抽出した前記マーカパターンに基づいて、前記複数のマーカ画像の前記フレーム画像内の位置から前記マーカパターンの基準位置を求め、前記複数のマーカ画像に対して奥行き方向に差のある他のマーカ画像の位置と、前記マーカパターンの基準位置との前記フレーム画像内での距離に基づいて、前記先行車両との相対ヨー角を算出する算出手段と、
を有することを特徴とする相対位置計測装置。
In the relative position measurement device that measures the relative position with the preceding vehicle by image analysis,
Imaging means for imaging a plurality of markers arranged in a plurality of axial directions including an axis in the depth direction at a rear position of the preceding vehicle, and generating a frame image;
Extracting means for extracting a marker pattern composed of a plurality of marker images representing the plurality of markers from the frame image generated by the imaging means;
Based on the marker pattern extracted by the extracting means, the reference position of the marker pattern is obtained from the position in the frame image of the plurality of marker images, and there is a difference in the depth direction with respect to the plurality of marker images. Calculating means for calculating a relative yaw angle with respect to the preceding vehicle based on a distance in the frame image between a position of the marker image and a reference position of the marker pattern ;
A relative position measuring device comprising:
前記算出手段は、前記マーカ画像の輝度分布情報を元に、前記マーカ画像を構成するピクセル毎の重み付けを行い、前記ピクセルで構成される前記マーカ画像の重心位置を、前記マーカ画像の位置とすることを特徴とする請求項1記載の相対位置計測装置。 Said calculation means, based on the brightness distribution information of the marker image, performs weighting of each pixel constituting the marker image, the center of gravity of the marker image composed of the pixels, the position of the marker image The relative position measuring apparatus according to claim 1. 前記抽出手段は、前記マーカ画像の候補となる高輝度領域を囲う長方形を定義し、前記長方形内の前記高輝度領域の占める割合である充填率を算出し、前記充填率が所定値以上である場合にのみ、前記高輝度領域を前記マーカ画像として抽出することを特徴とする請求項1記載の相対位置計測装置。 The extraction unit defines a rectangle surrounding a high-luminance region that is a candidate for the marker image, calculates a filling rate that is a ratio of the high-luminance region in the rectangle, and the filling rate is equal to or greater than a predetermined value. 2. The relative position measuring apparatus according to claim 1 , wherein the high luminance region is extracted as the marker image only in the case . 前記抽出手段は、前記マーカ画像の候補となる高輝度領域の縦横比が所定の比率以内の場合にのみ、前記高輝度領域を前記マーカ画像として抽出することを特徴とする請求項1記載の相対位置計測装置。The relative means according to claim 1, wherein the extraction unit extracts the high-luminance region as the marker image only when an aspect ratio of the high-luminance region that is a candidate for the marker image is within a predetermined ratio. Position measuring device. 前記抽出手段は、前記マーカが複数の自己発光体の集合体であり、前記先行車両に対する相対距離が所定値以下の場合には、接近した高輝度領域を同一の高輝度領域として認識することを特徴とする請求項1記載の相対位置計測装置。The extraction means recognizes the approaching high-intensity region as the same high-intensity region when the marker is an aggregate of a plurality of self-luminous bodies and the relative distance to the preceding vehicle is a predetermined value or less. The relative position measuring apparatus according to claim 1, wherein: 前記算出手段は、さらに、前記抽出手段で抽出した前記マーカパターンに基づいて、前記先行車両との相対距離を算出し、
前記抽出手段は、マーカ画像またはマーカパターンの探索範囲の制限機能を複数有し、前記先行車両との前記相対距離に応じて、前記探索範囲の制限機能を選択することを特徴とする請求項1記載の相対位置計測装置。
The calculation means further calculates a relative distance from the preceding vehicle based on the marker pattern extracted by the extraction means,
The extraction means has a plurality of marker image or marker pattern search range limiting functions, and selects the search range limiting function according to the relative distance to the preceding vehicle. The relative position measuring device described.
前記算出手段は、さらに、前記抽出手段で抽出した前記マーカパターンに基づいて、前記先行車両との相対距離を算出し、
前記抽出手段は、前記先行車両との前記相対距離に応じて、前記マーカパターンの探索範囲を変化させることを特徴とする請求項1記載の相対位置計測装置。
The calculation means further calculates a relative distance from the preceding vehicle based on the marker pattern extracted by the extraction means,
The relative position measuring apparatus according to claim 1 , wherein the extraction unit changes a search range of the marker pattern according to the relative distance to the preceding vehicle .
予め決められた走行コース上での自らの絶対位置を取得する位置取得手段をさらに有し、
前記抽出手段は、前記絶対位置付近の走行コース形状に応じて、前記マーカパターンの探索範囲を制限することを特徴とする請求項1記載の相対位置計測装置。
It further has a position acquisition means for acquiring its absolute position on a predetermined traveling course,
The relative position measuring device according to claim 1 , wherein the extraction unit limits a search range of the marker pattern according to a travel course shape near the absolute position .
前記算出手段は、さらに、前記撮像手段が搭載された車両の前後方向の軸と、前記撮像手段と前記マーカとを結ぶ直線との成す角を算出し、
前記算出手段が算出した前記軸と前記直線との成す角に基づいて、前記撮像手段による撮影方向を前記先行車両に向けることを特徴とする撮影方向制御手段をさらに有することを特徴とする請求項1記載の相対位置計測装置。
The calculating means further calculates an angle formed by a longitudinal axis of a vehicle on which the imaging means is mounted and a straight line connecting the imaging means and the marker,
Claims wherein the calculating means based on the angle formed between the straight line and the axis calculated, characterized in that it further have a photographing direction control means, characterized in that direct the imaging direction of the imaging means to the preceding vehicle Item 2. The relative position measuring device according to Item 1.
JP2001218425A 2001-07-18 2001-07-18 Relative position measuring device Expired - Fee Related JP4450532B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001218425A JP4450532B2 (en) 2001-07-18 2001-07-18 Relative position measuring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001218425A JP4450532B2 (en) 2001-07-18 2001-07-18 Relative position measuring device

Publications (2)

Publication Number Publication Date
JP2003030628A JP2003030628A (en) 2003-01-31
JP4450532B2 true JP4450532B2 (en) 2010-04-14

Family

ID=19052604

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001218425A Expired - Fee Related JP4450532B2 (en) 2001-07-18 2001-07-18 Relative position measuring device

Country Status (1)

Country Link
JP (1) JP4450532B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11294090B2 (en) * 2017-03-28 2022-04-05 Aichi Steel Corporation Marker detection system and marker detection method
US20220215669A1 (en) * 2019-05-21 2022-07-07 Nippon Telegraph And Telephone Corporation Position measuring method, driving control method, driving control system, and marker

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7307736B2 (en) * 2004-03-31 2007-12-11 Mitutoyo Corporation Scale for use with a translation and orientation sensing system
JPWO2005106639A1 (en) * 2004-04-30 2008-03-21 株式会社ディー・ディー・エス Operation input device and operation input program
JP4244887B2 (en) * 2004-08-31 2009-03-25 日産自動車株式会社 Moving position prediction apparatus, moving position prediction method, collision determination apparatus, and collision determination method
JP4455294B2 (en) * 2004-11-25 2010-04-21 オリンパス株式会社 Image information processing apparatus, determination method, and computer program
JP4771399B2 (en) * 2005-02-23 2011-09-14 本田技研工業株式会社 Vehicle recognition device
JP4548725B2 (en) * 2005-03-22 2010-09-22 本田技研工業株式会社 Recognized device for motorcycles
JP2007143748A (en) * 2005-11-25 2007-06-14 Sharp Corp Image recognition device, fitness aid device, fitness aid system, fitness aid method, control program and readable recording medium
JP4817854B2 (en) * 2006-01-27 2011-11-16 アルパイン株式会社 Peripheral object tracking device and peripheral object position prediction method
JP2008176663A (en) * 2007-01-19 2008-07-31 Toyota Central R&D Labs Inc Vehicle detector, light emitting device for vehicle detection, and vehicle detection system
JP2009266155A (en) * 2008-04-30 2009-11-12 Toshiba Corp Apparatus and method for mobile object tracking
JP5294995B2 (en) * 2009-06-03 2013-09-18 パナソニック株式会社 Distance measuring device and distance measuring method
JP2011069797A (en) * 2009-09-28 2011-04-07 Saxa Inc Displacement measuring device and displacement measuring method
SG182021A1 (en) * 2010-12-21 2012-07-30 Singapore Technologies Dynamics Pte Ltd System and method for tracking a lead object
JP5989443B2 (en) * 2012-07-31 2016-09-07 公立大学法人公立はこだて未来大学 Semiconductor integrated circuit and object distance measuring device
JP6488697B2 (en) * 2014-12-25 2019-03-27 株式会社リコー Optical flow calculation device, optical flow calculation method, and program
JP6217696B2 (en) * 2015-06-10 2017-10-25 ソニー株式会社 Information processing apparatus, information processing method, and program
JP6642882B2 (en) * 2015-08-10 2020-02-12 東海旅客鉄道株式会社 Structural position fluctuation measurement device
JP6358629B2 (en) * 2016-06-28 2018-07-18 三菱ロジスネクスト株式会社 forklift
WO2018173192A1 (en) * 2017-03-23 2018-09-27 株式会社Fuji Articulated robot parallelism determination method and articulated robot inclination adjustment device
JP6898873B2 (en) * 2018-02-06 2021-07-07 日立Astemo株式会社 Formation control device, formation control system, formation control method
JP7122845B2 (en) * 2018-03-28 2022-08-22 ヤンマーパワーテクノロジー株式会社 Automatic traveling device for work vehicle
JP7302839B2 (en) * 2018-06-14 2023-07-04 国立大学法人 筑波大学 automatic driving system
JP6958522B2 (en) * 2018-09-18 2021-11-02 株式会社デンソーウェーブ Laser radar device, laser radar system and rain detection method
JP6757380B2 (en) * 2018-09-19 2020-09-16 株式会社福田組 Excavator position measurement system and operation analysis system
JP2020086491A (en) * 2018-11-15 2020-06-04 株式会社リコー Information processing apparatus, information processing system and information processing method
JP6690843B1 (en) * 2019-02-22 2020-04-28 東芝エレベータ株式会社 Elevator system
JP7198149B2 (en) * 2019-04-24 2022-12-28 株式会社ソニー・インタラクティブエンタテインメント Information processing device and device information derivation method
JP7196781B2 (en) * 2019-06-14 2022-12-27 株式会社デンソー Information processing device and driving support system
JP6823690B2 (en) * 2019-06-18 2021-02-03 朝日航洋株式会社 Position adjustment method, position adjustment device, and position adjustment program
US20220269280A1 (en) * 2019-07-17 2022-08-25 Murata Machinery, Ltd. Traveling vehicle, traveling vehicle system, and traveling vehicle detection method
JP7414772B2 (en) * 2021-06-04 2024-01-16 プライムプラネットエナジー&ソリューションズ株式会社 Method and device for measuring displacement of object
JP2023117800A (en) * 2022-02-14 2023-08-24 株式会社ソニー・インタラクティブエンタテインメント Information processing device and representative coordinate derivation method
JP2023117801A (en) * 2022-02-14 2023-08-24 株式会社ソニー・インタラクティブエンタテインメント Information processing device and representative coordinate derivation method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11294090B2 (en) * 2017-03-28 2022-04-05 Aichi Steel Corporation Marker detection system and marker detection method
US20220215669A1 (en) * 2019-05-21 2022-07-07 Nippon Telegraph And Telephone Corporation Position measuring method, driving control method, driving control system, and marker

Also Published As

Publication number Publication date
JP2003030628A (en) 2003-01-31

Similar Documents

Publication Publication Date Title
JP4450532B2 (en) Relative position measuring device
US11763571B2 (en) Monocular cued detection of three-dimensional structures from depth images
US8611585B2 (en) Clear path detection using patch approach
US8605947B2 (en) Method for detecting a clear path of travel for a vehicle enhanced by object detection
US9852357B2 (en) Clear path detection using an example-based approach
US8421859B2 (en) Clear path detection using a hierachical approach
US8670592B2 (en) Clear path detection using segmentation-based method
US9652980B2 (en) Enhanced clear path detection in the presence of traffic infrastructure indicator
RU2668459C1 (en) Position evaluation device and method
JP4533065B2 (en) Artificial beacon generation method, mobile robot self-position and azimuth estimation method, mobile robot self-position and azimuth estimation device, mobile robot, and estimation program
US8452053B2 (en) Pixel-based texture-rich clear path detection
US8428305B2 (en) Method for detecting a clear path through topographical variation analysis
US8634593B2 (en) Pixel-based texture-less clear path detection
US8332134B2 (en) Three-dimensional LIDAR-based clear path detection
JP7077910B2 (en) Bound line detection device and lane marking method
JP6150164B2 (en) Information detection apparatus, mobile device control system, mobile object, and information detection program
CN112455430A (en) Method for detecting inclined parking spaces without parking space lines, parking method and parking system
JP4539388B2 (en) Obstacle detection device
JP3589293B2 (en) Road white line detection method
JP2020077293A (en) Lane line detection device and lane line detection method
JPH10187974A (en) Physical distribution measuring instrument
JP3517999B2 (en) Vehicle recognition device
CN114141055B (en) Parking space detection device and method of intelligent parking system
US20230266469A1 (en) System and method for detecting road intersection on point cloud height map
JP2020077297A (en) Position and posture estimation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090804

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091005

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100126

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100126

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130205

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130205

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140205

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees