JP3606853B2 - 車両周囲状況表示装置 - Google Patents
車両周囲状況表示装置 Download PDFInfo
- Publication number
- JP3606853B2 JP3606853B2 JP2002241144A JP2002241144A JP3606853B2 JP 3606853 B2 JP3606853 B2 JP 3606853B2 JP 2002241144 A JP2002241144 A JP 2002241144A JP 2002241144 A JP2002241144 A JP 2002241144A JP 3606853 B2 JP3606853 B2 JP 3606853B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- vehicle
- obstacle
- edge
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Description
【発明の属する技術分野】
本発明は、車両の周囲状況を画像で表示する車両周囲状況表示装置に関するものであり、特に、利用者が車両の周囲状況を容易にかつ的確に把握でき、より安全な運転操作を可能にする技術に属する。
【0002】
【従来の技術】
従来の一般的な車両周囲状況表示装置では、車両の周囲を1台または数台のカメラで撮影し、その画像を変換して、車両周囲の状況を1枚の画像にして表示する。例えば第1の従来例(特許1405462号公報)では、自動車に複数台のカメラを設置し、その映像出力を平面座標に変換し、前記自動車を中心とする座標に変換し、1つの映像として合成することによって、運転者が車体周辺の状況を一目で分かるようにする。
【0003】
さらに、第2の従来例(特開平7−223488号公報)では、車両周囲の状況を利用者に提示する際に、周囲の対象物を予め検出し、車両の周囲状況を示す基本画像の遠近表示レベルを設定するとともに、対象物毎に、データベースに蓄えられた図37に示すような模式的な絵表示を、危険度強調情報を付加して表示する。これにより、利用者は車両の周囲状況を簡単に把握することができる。
【0004】
【発明が解決しようとする課題】
このような車両周囲状況表示装置において、カメラなどで取得された画像データから透視変換を用いて視点変換画像を生成する際には、透視変換を行うための平面を与えなければならない。第1の従来例では、車両周辺には高さ成分を持った立体物は存在しないという仮定を用いて、路面を透視投影面として用いている。このような路面を仮定した透視変換のことを、路面投影と呼ぶ。しかしながら、車両周辺に障害物など高さ成分を持った立体物が存在すると、この仮定との矛盾が生じ、路面投影の結果、画像に歪みが生じる。
【0005】
図38は自車1に設置された8台のカメラ(カメラ0〜7)の配置の例と、各カメラ0〜7から取得された画像の例を示す図である。また、図39は図38の場合における車両周辺状況を示す画像、図40は図38に示す8枚のカメラ画像を用いて路面投影を行なった結果の画像である。なお、自車1の映像自体は図38のカメラ画像からはほとんど求まらないので、図40では便宜上、自車1のイラストを張り込んでいる。
【0006】
図40を図39と比較すると分かるように、高さ成分を持った物体(例えば他の車両2)の画像は自車1と反対方向に大きく歪み、あたかも、実際には何も存在しない路面上に何かが存在しているように見えてしまう。このような実際の周辺状況と合成画像とのミスマッチは、利用者の誤解を招くおそれがあり、安全な運転に支障をきたす可能性がある。
【0007】
このような画像の歪みをなくすために、レーザレーダ等の測距センサを利用する方法が考えられる。これは、周辺車両のように高さ成分がある立体物について、その距離データを予め測距センサによって求め、求めた距離データから得られた立体形状を投影面として透視変換を行うものである。
【0008】
この方法では、路面投影のような画像の歪みは生じない。しかしながら、この場合でも、カメラの手前にある物体に隠蔽される領域(オクルージョン領域)が生じてしまうという問題が生じる。
【0009】
例えば図38において、カメラ1,2の画像から自車1の右側方に乗用車が停まっていることは分かるものの、その乗用車の右半分は左半分の画像に隠蔽されてしまい、いずれのカメラにも映っていない。この部分は、周囲状況画像において、カメラによって画像データが得られていない画像欠落領域に相当する。このため、仮に周辺の距離データがすべて得られたとしても、この乗用車については、画像欠落領域にある右半分の画像は合成できず、カメラに映っている右側面しか合成画像に表示されない。このようなシステムでは、通常、カメラは車両に搭載されており、また、カメラの個数もコストなどの制約から限られるため、同様のことが車両周辺のほぼすべての立体物について生じる。
【0010】
図41は車両周辺の物体の距離データが全て既知の場合の合成画像である。図41から分かるように、自車1の周辺に存在する各車両について、自車側の距離データは全てわかっているものの、自車1からみて反対側の領域は画像欠落領域となっている。このため、各車両については、自車側の画像しか生成することができない。
【0011】
また第2の従来例では、対象物毎に模式的な絵表示を行うため、画像の一部のみが表示されることはないものの、利用者が直接目で見た物と異なる画像が表示されるので、違和感を与えてしまう。さらに、模式的な絵表示では、対象物の正確な位置を示すことはほとんど不可能である。
【0012】
図42は自車1の左後方に他の車両3が存在する状況を上方から見た様子を示す図である。図42において、安全な駐車動作のためには、他の車両3の自車1側の領域AR1の位置を正確に認識することが重要になる。
【0013】
図43は図42の状況において、実際の車両3よりも小さな絵3Aを表示した例である。この場合、実際には車両3が存在するにも拘わらず、利用者には表示されない領域AR2〜AR4が生じてしまう。特に領域AR2は、駐車の際に重要な自車1側の縁の領域であり、好ましくない。
【0014】
一方、図44は図42の状況において、実際の車両3よりも大きな絵3Bを表示した例である。この場合、実際には車両3が存在しないにも拘わらず、利用者には車両3があるように表示される領域AR5〜AR7が生じてしまう。特に領域AR5,AR7は、駐車の際に重要な自車1側の縁の領域であり、好ましくない。
【0015】
前記の問題に鑑み、本発明は、車両周囲状況表示装置において、運転操作において重要となる周辺障害物の位置を利用者が正確に認識でき、かつ、オクルージョン領域の画像が表示できないことによる利用者の違和感をなくすことを課題とする。
【0016】
【課題を解決するための手段】
上述のオクルージョン領域は、カメラから見えない領域である。しかしながら、駐車などの運転操作の場合、重要なのは、周辺障害物の自車側の縁位置である。そこで、オクルージョン領域については、正しい画像を正確な位置に表示する必要は必ずしもなく、利用者が違和感をいだかない程度に表示するだけで十分であると考えられる。すなわち、図42において、自車1から見えるのは自車側の領域AR1だけであり、それ以外の領域は、カメラ同様、目視によっても見ることができないが、運転操作に特に支障は生じない。
【0017】
これに対して、隠蔽されない領域は、正確な位置に提示する必要がある。また利用者は、画像と目視の両方を併用しながら運転操作を行うため、実際とあまり相違しない画像を表示する方が好ましい。
【0018】
そこで、本発明は、「隠蔽されない領域」は、その画像を用いて正確な位置に提示する一方、「オクルージョン領域」に関しては、利用者に違和感を与えないような画像を提示するものである。
【0019】
具体的には、本発明は、車両周囲状況表示装置として、車両の周囲を映すカメラと、前記車両の周囲の障害物を検出する障害物検出手段と、前記カメラの撮影画像から前記車両の周囲の状況を表す周囲状況画像を生成する画像処理部と、前記障害物検出手段によって障害物が検出されたとき、前記周囲状況画像上で、この障害物の存在に起因して前記カメラによる画像データが得られない画像欠落領域を検出する画像欠落領域検出手段とを備え、前記画像欠落領域検出手段は、前記障害物の前記車両側の縁の位置を検出する障害物位置検出手段を備え、検出された縁位置を用いて前記画像欠落領域を特定するものであり、前記画像処理部は、前記画像欠落領域が検出されたとき、この画像欠落領域の少なくとも一部について、前記障害物の、前記車両側の縁部分を少なくとも含む画像である縁画像を利用して生成した代替画像データを埋めるものである。
【0020】
本発明によると、車両周囲の障害物が障害物検出手段によって検出されると、この障害物の存在に起因してカメラによる画像データが得られない画像欠落領域が、画像欠落領域検出手段によって検出される。そして、画像処理部によって、この画像欠落領域の少なくとも一部について、代替画像データが埋められる。このため、画像処理部によって生成された周囲状況画像は、例えば上述の「オクルージョン領域」に対応する画像欠落領域については、代替画像データによって利用者に対する違和感が軽減され、かつ、「隠蔽されない領域」に対応する,画像欠落領域以外の部分については、カメラ画像データが用いられる。これにより、利用者は、周囲状況画像にさほど違和感を感じることなく、かつ、車両周辺の障害物の位置を正確に認識することができ、従来よりも確実かつ快適に、安全な運転操作を行うことができる。
【0021】
さらに、障害物の自車側の縁部分を含む縁画像が、画像欠落領域を埋める代替画像データの生成のために利用されるので、運転操作にとって重要な、障害物の自車側の縁位置の正確な画像を、利用者に提示することが可能になる。
【0022】
さらに、前記画像処理部は、前記周囲状況画像において、前記障害物位置検出手段によって検出された縁位置に合わせて前記縁画像を配置し、前記周囲状況画像において、前記縁位置に合わせて前記障害物が占める領域を推定し、推定した障害物領域内の前記縁画像以外の部分について、前記縁画像の画素データを用いた画素補間によって、前記代替画像データを生成するのが好ましい。これにより、縁画像が、正確な縁位置に配置され、かつ、縁画像の画素データを用いた画素補間によって、縁画像以外の障害物の画像が生成されるので、利用者にとって重要な、障害物の自車側の縁位置は正確であり、かつ、利用者に違和感を与えないような周囲状況画像を生成することが可能となる。
【0023】
さらに、前記画像処理部は、前記障害物が線対称の物体であるとき、前記周辺状況画像において、前記障害物の対称軸を仮定し、前記縁画像を前記対称軸について反転し、反転縁画像として配置し、前記障害物領域内の前記縁画像と前記反転縁画像との間の画像を、前記縁画像の画素データを用いた画素補間によって生成するのが好ましい。これにより、車両などの障害物の線対称性を利用して、オクルージョン領域の合成画像を違和感なく生成することが可能となる。
【0024】
また、前記本発明に係る車両周囲状況表示装置における障害物位置検出手段は、前記障害物が他の車両であるとき、前記カメラ画像から前記他の車両のタイヤと路面との接点を前記縁位置として検出するのが好ましい。
【0025】
この発明によると、障害物が車両の場合、タイヤの存在を利用することによって、正確な縁位置を検出することが可能となる。
【0026】
また、前記本発明に係る車両周囲状況表示装置における障害物位置検出手段は、前記障害物が他の車両であるとき、前記カメラ画像から、前記他の車両のナンバープレートが存在する平面と路面との接線を前記縁位置として検出するのが好ましい。
【0027】
また、前記本発明に係る車両周囲状況表示装置における画像処理部は、前記障害物が他の車両であるとき、前記他の車両のタイヤおよびナンバープレートの検出状態に基づき、代替画像データを埋める処理を切り替えるのが好ましい。
【0028】
【発明の実施の形態】
以下、本発明の実施の形態について、図面を参照して説明する。
【0029】
まず最初に、本発明におけるオクルージョン領域と画像欠落領域との関係について、説明する。
【0030】
図45は自車両1の後方に他の車両2が停まっている様子を示す図である。自車両1には後方を撮影するカメラ11が設けられており、このカメラ11の撮影画像を用いて、仮想カメラVCからみた合成画像を生成するものとする。(a)は側方から見た図、(b)は上方から見た図、RSは路面である。図45から分かるように、他の車両2の存在によって、その前端部の陰に隠れたオクルージョン領域が生じている。
【0031】
仮想カメラVCから見た合成画像では、このオクルージョン領域に対応する部分(他の車両2のボンネット、フロントガラス、屋根の部分)についても画像を表示する必要がある。ところが、この部分についてはカメラ11によって画像データが得られておらず、したがって、画像欠落領域となる。このように、表示すべき画像上で、例えば他の車両2のような物体または障害物の存在に起因して、カメラによる画像データが得られていない領域が、画像欠落領域になる。なお、カメラの視野範囲に元々入っていない部分については、当然、カメラによる画像データが得られておらず、これも画像欠落領域となり得る。
【0032】
(第1の実施形態)
図1は本発明の第1の実施形態に係る車両周囲状況表示装置の基本構成を概念的に示すブロック図である。図1の車両周囲状況表示装置は、基本構成として、車両の周囲を映すカメラ11と、車両の周囲の障害物を検出する障害物検出手段12と、障害物の車両側の縁の位置を検出する障害物位置検出手段13と、カメラ11の撮影画像を入力とし、このカメラ画像から車両の周囲の状況を表す画像を生成する画像処理部14とを備えている。
【0033】
カメラ11は、典型的には車両に取り付けられており、車両周囲の状況を撮影する。また、道路上や信号機、建物などのインフラに取り付けられたカメラを利用してもよいし、自車の周辺に他の車両がある場合は、この他の車両に取り付けられたカメラの画像を受信し、自車のカメラ画像と併せて、または単独で、用いてもよい。
【0034】
障害物検出手段12は、車両の周辺の障害物を検出する。障害物検出の手法としては、カメラ11によって得られた画像から路面色抽出を行う方法や、複数の画像から視差を求めて利用するモーションステレオや空間ステレオ等の手法によって高さ成分がある領域を抽出し、この領域を障害物領域として検出する手法などがある。また、レーザ、超音波、赤外線、ミリ波などの各種障害物検出アクティブセンサを用いることも可能である。
【0035】
路面色抽出を用いた障害物領域の抽出について説明する。カメラが水平方向よりも下向きに配置されているものとすると、カメラ画像において最も広い領域を占めるのは、路面であると考えられる。そこで、画像の色のヒストグラムを求め、最も頻度が高い色を抽出することによって、路面の代表色を求める。一般に、舗装された路面では、路面の色はアスファルトの色である灰色であり、舗装されていない道路では、路面の色は茶色である。カメラ画像において、この抽出された代表色から大きく外れた色の領域を求めることによって、路面以外の領域すなわち障害物領域を抽出することができる。
【0036】
また、複数画像から視差を求めて利用する方法としては、例えば文献1(“Performance Analysis of a Low-Cost Solution to Vision-Based Obstacle Detection”,Massimo他,International Conference on Intelligent Transportation Systems,pp.350-355 )に示されたものがある。
【0037】
障害物位置検出手段13は、障害物検出手段12によって検出された障害物領域の自車両側の縁、すなわち障害物の自車に最も近い境界領域の位置を検出する。この検出は例えば、アクティブセンサを、自車側面に対して水平方向にラスタスキャンさせることで実現できる。または、レンジファインダを用いて、次のように行う。まず、レンジファインダを路面に対して垂直方向にスキャンさせる。垂直方向スキャンにより求められた距離の中で、最も自車に近い位置を求める。検出された障害物に対して、この垂直方向スキャンを水平方向扇状に行い、自車に最も近い位置を水平方向に結んだ線を障害物の自車両側の縁とする。
【0038】
図2は自車両1の側方に他の車両2が停まっている様子を示す図である。障害物位置検出手段13としてのアクティブセンサをスキャンさせることによって、他の車両2の自車両1側の縁となる側面形状E1を求めることができる。
【0039】
ここで、課題の項で述べたように、いわゆるオクルージョン領域の問題が生じる。すなわち、カメラが車両のみに配置されている場合はもちろんのこと、インフラに取り付けられたカメラを併せて用いたとしても、車両周辺の障害物の画像を、隠蔽される領域なしに撮影することは、きわめて困難である。なぜなら、障害物の形状は多岐にわたり、かつ、その存在位置は時と場合によって様々であるので、その画像を常に隠蔽される領域なしに確実に撮影するためには、膨大な数のカメラが必要になるからである。これは、経済的な面からみて好ましくない。もちろん駐車場などの場合には、車両上方の建物にカメラを取り付けて、その画像を利用者に提示することは可能であるが、この場合でも、カメラが常時車両の真上に位置するようにはできないので、やはり、オクルージョン領域が存在してしまう。
【0040】
このため、障害物検出手段12を用いて障害物領域を求めたとしても、オクルージョン領域が存在するために、利用者に提示される周囲状況画像では、画像欠落領域が存在することになり、全体として非常に違和感のある画像となってしまう。
【0041】
本実施形態では、このような問題を解決するために、障害物検出手段12によって障害物が検出されたとき、障害物位置検出手段13によって当該障害物の車両側の縁位置を検出する。そして、画像処理部14が、検出された縁位置を用いて画像欠落領域を特定し、この画像欠落領域の少なくとも一部について、代替画像データを埋めることによって、利用者に違和感を与えないような周辺状況画像を生成する。障害物位置検出手段13と、縁位置を用いて画像欠落領域を特定する手段とによって、画像欠落領域検出手段が構成されている。
【0042】
まず、障害物検出手段12によって検出された障害物領域以外の領域に、路面投影や透視投影変換を行った車両周囲状況画像を生成する。次に、障害物検出手段12によって検出された障害物領域の画像を処理して、違和感がないようにその領域の画像を合成し直し、障害物位置検出手段13によって検出された縁位置が正確に表示されるように画像上に配置し、車両周囲状況画像を生成する。そして、この車両周囲状況画像を液晶ディスプレイやヘッドマウントディスプレイ等の表示装置に表示して、利用者に提示する。
【0043】
ここで重要なのは、車両周囲状況画像に障害物領域の画像を配置する際、その自車側の縁を正確な位置に配置することである。これは、車両周囲状況画像において、例えば障害物が自車両からみて実際の位置よりも遠くに表示されると、場合によっては、自車との接触を引き起こすおそれがあるからである。そこで、重要な働きをするのが、障害物位置検出手段13である。
【0044】
<第1の例>
画像の一部に何もない領域が表示された場合の大きな問題の1つは、利用者が、その領域に注意を惹かれてしまい、本来運転に必要である路面領域への注意がおろそかになってしまうことである。そこでこの例では、画像処理部14は、障害物領域については画像を表示するのではなく、黒などの背景色で塗りつぶすことにする。すなわち、利用者には、路面領域だけが表示された車両周囲状況画像を提示する。
【0045】
ただしこの場合、障害物の自車側の縁の位置を、障害物位置検出手段13で求めた位置に正確に合成する。これにより、自車と障害物との接触の可能性を未然に回避することができる。一方、障害物の自車と反対側の縁はオクルージョン領域となるが、上述したようにこの領域は運転操作にはさほど重要ではないので、塗りつぶしても問題はない。
【0046】
図3は図41の合成画像に対してこのような処理を行った例である。図3の合成画像では、自車両1の周囲の各障害物領域OB1〜OB5がそれぞれ黒色で塗りつぶされている。図3では、障害物領域OB1〜OB5の画像が表示されていないので、利用者に対して目視確認を促すことにもなり、歪みによる合成画像と実際の周辺状況とのミスマッチに起因する問題を回避できる。なお、検出に誤差が生じる場合を考慮して、検出された障害物領域よりも少し広めに塗りつぶしてもかまわない。また、背景色で塗りつぶす代わりに、路面外であると検出された検出精度に応じて、精度を落す、またはマスキングするなどの処理によって、利用者の注意を惹かないようにしてもかまわない。
【0047】
なお、図3において、自車1の映像は図38のカメラ画像からはほとんど求まらない。しかしながら、自車1の位置は、周辺障害物との位置関係を把握するためには非常に重要である。そこで、自車1の位置にイラストを貼り付けている。もちろん、実際の自車1の画像を蓄えておき、これを貼り付けてもかまわない。
【0048】
<第2の例>
また、障害物検出手段12において障害物の大きさを検出し、この大きさに応じた単純な矩形や箱型の立体物を障害物領域に合成してもよい。これにより、利用者に対して「何かがある」という注意を喚起し、目視確認を促すことも可能である。
【0049】
図4は図41における自車1付近の画像を拡大したものである。図4に示す車両周辺障害物の自車に面した縁EDGの長さLは、障害物検出手段12によって求めることができる。そこで、長さLを一辺とする矩形RTGを生成し、その一辺が縁EDGに一致するように、重畳表示する。この際、矩形RTGの他の辺の長さWは任意に決定できるが、ここではLの半分の長さとした。これは、上述したように、自車からみて反対側の領域OARは、利用者にとってあまり重要でない領域であり、実際の周辺状況と合成画像の間にずれが生じたとしても影響が少ないと考えられるためである。もちろん、長さWは、障害物位置検出手段13によって求められた障害物側面形状の傾きによって決定することも可能である。これは、障害物側面形状の傾きが長さLに対してなだらかであれば、WはLに対して長いと考えられるためである。
【0050】
図5は図41に示す合成画像にこの処理を行った例である。図5では、各障害物領域に、矩形RTG1,RTG2が生成されている。
【0051】
なお、生成する矩形の色は、障害物の代表色を用いればよいが、利用者の注意を引く配色にしてもかまわない。また、矩形の代わりに、立体的形状例えば直方体を表示してもよい。さらに、例えば、縁EDGが曲線であるときは、その曲線に接する楕円形状のものを重畳させてもかまわない。さらには、その領域に、イラストや文字を注意を喚起させるように重畳させてもよい。
【0052】
<第3の例>
図6は障害物領域RTG1を矩形で示し、かつ、記号を重畳表示させた例である。図6では、利用者を注意を促すべく、記号として「!」を表示している。各矩形の自車に面した縁は、障害物位置検出手段13によって求められた周辺障害物の正確な位置に合成されている。このため、単純にイラストを張り込む第2の従来例と異なり、自車と周辺障害物との接触を未然に防ぐことができる。もちろん、「!」の代わりに、利用者の注意を喚起するような他の文字やイラストを表示してもよい。
【0053】
(第2の実施形態)
本発明の第2の実施形態に係る車両周囲状況表示装置は、第1の実施形態と同様に、図1に示すような基本構成を有する。すなわち、カメラ11、障害物検出手段12、障害物位置検出手段13および画像処理部14を主たる構成要素とする。
【0054】
第1の実施形態との相違は、画像処理部14の機能にある。本実施形態では、障害物検出手段12によって障害物が検出されたとき、画像処理部14は、障害物位置検出手段13によって検出された車両側の縁部分を少なくとも含む画像である縁画像を、画像欠落領域を埋めるための代替画像データの生成のために利用し、利用者に違和感なく、正確な位置に提示する。
【0055】
ここで、車両周辺の障害物は、自動車のようにほぼ線対称の物体であることが多い。そこで、この線対称性を利用して、代替画像データとしての障害物領域画像の合成を行う一例を説明する。
【0056】
図7(a)は自車1の右側方に他の車両2が存在しているとき、自車両1の上方から見た画像を模式的に示す図である。また図7(b)は図7(a)の場合において、自車1に搭載されたカメラ11によって撮影された他の車両2の画像2Aと自車両1との位置関係を模式的に示す図である。
【0057】
図8は図7に示す状況において、特願2000−613188に示された路面投影によって作成した合成画像である。図8では、障害物位置検出手段13によって求めた他の車両2の自車側の縁EDGが示されている。課題の項で述べたように、路面投影は、画像中の物体がすべて路面上にあるものと仮定して投影を行うので、高さ成分を持つ周辺車両2の画像は、図8に示すように歪みが生じ、また投影される位置も実際とは大きく異なってしまう。そこで、この周辺車両2の画像を、縁EDGに合わせていかに合成するかが問題となる。
【0058】
<第1の例>
図9は本実施形態の第1の例に係る画像処理部14の動作を示すフローチャートである。
【0059】
まずステップS11において、障害物検出手段12および障害物位置検出手段13によって、障害物の自車側の縁位置とその長さLを求める。ここでは、障害物の自車側の縁が直線となる場合、すなわち、自車側方に存在する他の車両を真横から眺めたような場合を想定する。
【0060】
次にステップS12において、障害物の奥行方向(自車側の縁と直交方向)の長さWを任意に決定するが、ここでは自車側の縁の長さLの半分とするものとする。これは、上述したように障害物にとって重要なのは自車側の縁の位置であるため、奥行方向の長さは利用者にとってあまり重要ではなく、実際の周辺状況と合成画像との間にずれがあっても、影響が少ないと考えられるためである。
【0061】
次にステップS13において、障害物位置検出手段13によって、検出された障害物の障害物側面形状(例えば図2におけるE1)を求め、これを周辺障害物の投影面とする。
【0062】
そしてステップS14において、カメラ11で得た障害物画像をこの周辺障害物投影面に投影し、その後、視点変換を行うことによって、障害物の一部の投影画像、すなわち縁画像を得る。
【0063】
図10を用いて、縁画像生成処理S14を詳述する。図10において、2Aはカメラ11によって撮影されたカメラ画像、E1は障害物位置検出手段13によって求められた障害物側面形状である。カメラ画像2A中の障害物画像を障害物側面形状E1に透視投影変換し、さらに上方から見下ろす視点に視点変換することによって、障害物縁画像EDIを得ることができる。ただし、この障害物縁画像EDIは、オクルージョン領域である,屋根や前方側面、後方側面、および自車と反対側の側面の情報を有しないので、図10に示すように、障害物の一部分のみを含み、側面が壁のように立っている幅の薄い画像となる。
【0064】
次にステップS15において、周辺障害物の反転縁画像の生成・合成を行う。図11(a)は周囲状況画像の障害物領域に配置された縁画像EDIを模式的に示す図である。ここで、図11(b)に示すように、周辺障害物がほぼ線対称であると仮定して、対象障害物の幅がステップS12で求めた幅Wと等しくなるように、幅W/2の位置に対称軸AXを仮定する。その仮定した対称軸AXに対して縁画像EDIを反転して得た反転縁画像OEDIを、障害物領域における自車側からみて反対側の縁位置(幅Wの位置)に合わせて配置する。
【0065】
図11(b)を見ると、縁画像EDIと反転縁画像OEDIとの間に空白の領域VARがあるため、まだ違和感がある。そこでステップS16において、空白領域VARを、縁画像EDIと反転縁画像OEDIの画素を用いて補間することによって埋め、周辺障害物の合成画像を生成する。
【0066】
図12を用いて、画素補間処理S16を説明する。図12は図11(b)を拡大した図である。図12では、障害物の自車側の縁方向にx軸を、これに直交する奥行方向にy軸を設定している。空白領域VAR内の最左端と最右端のx座標をそれぞれX0,X1、縁画像EDIと反転縁画像OEDIの中で最も空白領域VARに近いy座標をそれぞれY1,Y2とすると、空白領域VAR内の画素G(x,y)(X0<x<X1,Y1<y<Y2)は、次の式によって求まる。
【数1】
【0067】
図13はこのようにして生成された周囲状況画像を模式的に示す図であり、2Bは合成された周辺障害物としての他の車両の画像である。なお、空白領域VARの画素の補間には、縁画像EDIのテクスチャや、平均輝度、代表色などを用いることも可能である。
【0068】
また、障害物の自車側の縁が、直線ではなく、L字状に求まる場合がある。このような場合の処理を、図14を用いて詳述する。
【0069】
図14(a)に示すように、車両のような矩形の障害物がカメラ視線方向に対して斜めに位置していると、縁画像EDILはL字状に求まる。この場合、まず、短辺の中央を通り、長辺と平行になる対称軸AXを仮定し、図14(b)に示すように、対称軸AXに対して縁画像EDILを180度回転させ、反転縁画像OEDILとして配置する。この際、縁画像EDILと反転縁画像OEDILとが重なる領域については、縁画像EDILの方を優先する。これは、縁画像EDILの方が、実際の周辺状況に対して正確な画像であるからである。また対称軸AXは、上述した例と同様に、長軸の長さを基にして決定してもよい。
【0070】
次に、L字型の長辺方向にx軸を、短辺方向にy軸を設定して、上述した例と同様に画素の補間処理を行う。もちろん、x軸およびy軸の設定は、例えば、短辺方向にx軸を、長辺方向にy軸を設定してもよいし、カメラ視線方向に近い辺の方向をy軸としてもよく、カメラ画像に応じて適応的に切り替えてもかまわない。
【0071】
図15はこのようにして生成された周囲状況画像を模式的に示す図であり、2Cは周辺障害物としての他の車両2の合成画像である。
【0072】
また、縁位置が曲線として求まった場合は、最小自乗法などを用いて直線近似し、その直線方向にx軸を設定し、このx軸を平行移動した位置に仮想の対称軸を仮定し、同様の処理を行うことも可能である。もちろん、曲線をL字状に近似して、それぞれの辺方向にx軸およびy軸を設定して同様の処理を行ってもかまわない。
【0073】
図16は図41の合成画像に対して本例に係る処理を行った図である。図16では、各障害物領域に、反転縁画像と補間を用いて生成した障害物画像OIM1が合成されている。
【0074】
<第2の例>
第1の例では、周辺障害物をほぼ線対称の物体と仮定して反転縁画像を用いたが、反転縁画像を用いないで、単純に障害物の自車側の縁画像から画素の補間処理のみを行い、画像欠落領域を埋める代替画像データとしての障害物画像を合成することも可能である。これは、例えば自車が周辺車両と縦列に並んでおり、カメラに周辺車両の前部や後部のみが映っている場合など、線対称性が利用できない場合に効果的である。
【0075】
図17は本実施形態の第2の例に係る画像処理部14の動作を示すフローチャートである。ステップS21〜S24の処理は、図9に示す第1の例のフローにおけるステップS11〜S14と同様である。そこで、ステップS25の画素の補間処理を、図面を参照して説明する。
【0076】
図18は自車の後方に他の車両が縦列に並んでいる場合の合成画像を、模式的に示す図である。図18では、自車1の後方に、他の車両の縁画像EDI2が合成されている。
【0077】
図19は図18を拡大した図である。図19では、合成画像上の自車に対して、横方向にx軸を、奥行方向にy軸を設定している。前述のように、周辺障害物の奥行方向の長さWは任意に決めても問題がないと考えられるので、障害物領域(x,y)は、X0<x<X1,Y0<y<Y1として、推定することができる。
【0078】
障害物領域中で合成画像が求まっていない領域VAR1と縁画像EDI2との接線fを、xの関数としてf=Y2(x)とする。領域VAR1内の画素G(x,y)(X0<x<X1,Y2(x)<y<Y1)は、先の式(1)において、G(x,Y2(x))として求まる。
【0079】
図20はこのようにして生成された周囲状況画像を模式的に示す図であり、2Dは合成された周辺障害物としての他の車両2の画像である。
【0080】
図21は図41に示す合成画像に対して本例に係る処理を行った図である。図21では、各障害物領域に、縁画像の補間を用いて生成した障害物画像OIM2が合成されている。
【0081】
<補間処理の切り替え>
また、画像処理部14に、第1の例に係る縁画像、反転縁画像および補間処理を用いる手法と、第2の例に係る縁画像と補間処理を用いる手法とを切り替える処理を組み込み、両者の処理を障害物毎に切り替えて実行することも可能である。
【0082】
例えば、周辺障害物が車両であると仮定すると、車両の向きを求めることによって、処理を切り替えることができる。すなわち、周辺車両が自車に対して横列にあるときは、第1の例に係る処理を行い、縦列にあるときは、第2の例に係る処理を行う。
【0083】
車両の向きは、障害物検出手段12によって検出された障害物領域内のナンバープレートとタイヤを検出することによって、求めることができる。カメラ画像からナンバープレートの位置を検出する手法としては、ナンバープレートの大きさが一定であることを利用する方法や、特開平10−302074のような手法が知られている。これは、画像から小領域を切り出し、エッジ強調、サイズの拡縮をした後、ニューラルネットワークへ入力し、その出力が最大となる小領域をナンバープレート位置と判定するものである。また、タイヤを検出する手法としては、テンプレートマッチングやHough変換を用いる方法が知られている。
【0084】
そして、ナンバープレートは検出されるがタイヤが検出されない場合は、周辺車両は縦列に位置し、タイヤは検出されるがナンバープレートが検出されない場合は、横列に位置し、両者がともに検出される場合は、周辺車両は自車に対してある角度をもって位置していると判定する。また、ナンバープレートとタイヤがともに検出される場合は、縁位置のタイヤを含む直線をx軸、縁位置のナンバープレートを含む直線をy軸として設定して、第2の例に係る処理を行うことが可能である。
【0085】
図22は補間処理の切り替えを用いた合成画像の例である。図22では、第1の例に係る反転縁画像を用いた手法によって得られた障害物画像OIMAと、第2の例に係る縁画像の補間を用いた手法によって得られた障害物画像OIMBとが、それぞれ、合成されている。
【0086】
本実施形態では、障害物の例として、線対称の形状を有する車両を用いて説明を行ったが、障害物が線対称の物体でない場合であっても、本実施形態は有効である。なぜなら、本実施形態に係る処理では、障害物の縁画像は必ず正確な位置に合成されるため、線対称でない障害物について、オクルージョン領域の正確な画像は必ずしも提示できないものの、運転の際に重要となる自車側の縁位置は必ず正確な位置に提示されるからである。
【0087】
(第3の実施形態)
図23は本発明の第3の実施形態に係る車両周囲状況表示装置の基本構成例を示すブロック図である。図23に示すように、本実施形態に係る車両周囲表示装置は、カメラ11、障害物検出手段12、障害物位置検出手段13および画像処理部14Aに加え、障害物となり得る物の画像データを格納する障害物画像データベース31を備えている。
【0088】
画像処理部14Aの動作は、第1または第2の実施形態とは異なる。すなわち、障害物検出手段12で検出された障害物の種類を判別し、判別した種類の画像データを障害物画像データベース31から読み出し、読み出した画像データを、画像欠落領域を埋める代替画像データとして、周囲状況画像において、障害物位置検出手段13によって検出された縁位置に合わせて配置する。
【0089】
以下、障害物の種類の判別処理について、詳細に説明する。
【0090】
障害物画像データベース31には、例えば車両に関しては、車両のアスペクト比、車両側面形状、車種データなどのデータが格納されている。
【0091】
図24において、(a)は車両を上方から見下ろした図、(b)は車両を正面から見た図である。「車両のアスペクト比」とは、図24(a)における長さLと幅Wとの比である。車両左右のタイヤ間の距離は、車両の幅Wにほぼ等しいので、これを求めることによって、車両の幅Wを求めることができる。また、「車両側面形状」とは、図24(b)における車両のシルエット立体形状CSFのことであり、縁画像になりうる領域である。
【0092】
また図25は車種データの一例を示す図である。図25に示すように、車種データは、車種判別のために用いる車種判別用データ、その車種の販売された色を表す色データ、および、画像表示の際に用いる表示用データを有する。
【0093】
「車種判別データ」は、例えば車種判別をカメラ画像のエッジや特徴点から行う場合は、エッジまたは特徴点が存在する画素は“1”、存在しない画素は“0”というような2値化画像である。このとき、各2値化画像のサイズは、同一になるように正規化されている。
【0094】
また「色データ」として、市場に出回っているその車種のすべての色を蓄えておくことによって、輝度を用いた車種判別や、後述する障害物画像の配置処理に利用することができる。ここでは、色データはRGB各256階調で表現されている。すなわち、赤は(255,0,0)、緑は(0,255,0)、青は(0,0,255)と表現される。また「表示用データ」は、後述する障害物画像の配置処理において利用される。
【0095】
なお、自車周辺に存在する車両はどの方向を向いているかわからないので、車種判別用データや表示用データは、いかなる視点からのデータにも変換可能なように保持することが望ましい。これは、車両の3次元形状データを蓄えることによって、実現できる。
【0096】
次に、画像処理部14Aの動作について詳述する。画像処理部14Aは、障害物検出手段12によって検出された障害物について、これが自動車か、または2輪車かといった大まかな種類判別を行い、この判別結果に基づいて、例えば車両であれば、さらにその車種の判別を行う。
【0097】
図26は本実施形態における画像処理部14Aの動作を示すフローチャートである。まず、障害物検出手段12によって障害物が検出されると(ステップS31)、その障害物について、自動車であるか否か(ステップS32)、2輪車であるか否か(ステップS33)などの大まかな種類の判別を行う。ステップS32において障害物が自動車であると判別されると、ステップS34においてその車種の判別が行われる。一方、障害物は自動車でないと判別されると(S32でNO)ステップS33にすすみ、障害物が2輪車であるか否かの判別を行う。ステップS33において2輪車であると判別されると、ステップS35においてその2輪車の車種の判別が行われる。一方、2輪車でないと判別されると(S33でNO)、例えばその障害物は人物であるか否かの判別処理などへ進む。
【0098】
障害物の種類判別ステップS32,S33は、ニューラルネットワーク等を用いて実現できる。ニューラルネットワークは、予め学習させておいたパターンのうち、入力されたものに最も近いものを出力することが可能である。そこで、様々な自動車の大量のデータを「自動車パターン」、様々な2輪車の大量のデータを「2輪車パターン」として学習させることによって、検出された障害物のデータが自動車か2輪車かを判別することができる。もちろん、障害物画像データベース31に蓄えられた車種判別用データや表示用データを学習パターンとして用いることも可能である。すなわち、判別ステップS32,S33は、単一の処理として行うことも可能である。
【0099】
ステップS34,S35において車種が判別されると、判別した車種の画像データを障害物画像データベース31から読み出し、読み出した画像データを、周囲状況画像において、障害物位置検出手段13によって検出された縁位置に合わせて配置する(S36)。
【0100】
次に、車種判別の方法について説明する。図27は本実施形態に係る車種判別処理を示すフローチャートである。
【0101】
まずステップS401において、2個の変数M0,M1に0を与え、初期化する。次にステップS402において、障害物検出手段12によって検出された障害物領域について、代表色、エッジおよび特徴点を抽出する。代表色は、障害物領域内の全ての画素に対してヒストグラムを求めることによって抽出することができる。また、エッジや特徴点は、Sobel演算子との畳み込みを用いることによって抽出可能である。そして、エッジまたは特徴点が検出された画素は“1”とし、検出されなかった画素は“0”として、エッジ・特徴点2値化画像を生成する。
【0102】
そしてステップS403において、障害物画像データベース31に格納された車種データの中から、ある車種を一つ選択し、その車種の車種判別用データと色データとを取り出す。そしてステップS404以降によって、ステップS403で選択した車種と、検出された障害物との整合性を調べる。
【0103】
まずステップS404において、検出された障害物の代表色に近い色が、その車種の色データに含まれるか否かを調べる。色の近さは、代表色とその車種の色データとのRGB3次元における距離を測ることによって、判定可能である。そして、代表色に十分近い色が色データに存在する場合はステップS405にすすみ、エッジ、特徴点の比較を行う。一方、代表色に十分近い色が存在しない場合は、検出された障害物はステップS403で選択した車種とは異なるものと判断し、ステップS408にすすみ、他の車種の車種データとの比較を行う(S403)。
【0104】
そしてステップS405では、障害物のエッジ・特徴点と、ステップS403で選択した車種の車種判別用データとの整合度M1を求める。これは、すでに求められた障害物のエッジ・特徴点2値化画像と、選択した車種のエッジ・特徴点2値化画像とを比較することによって求められる。
【0105】
すなわち、障害物のエッジ・特徴点2値化画像を車種データのエッジ・特徴点2値化画像の大きさに正規化した画像をf(u,v)とし、選択した車種データのエッジ・特徴点2値化画像をg(u,v)とすると、整合度M1は次式で求められる。ただし、u,vは、車種データのエッジ・特徴点2値化画像の大きさを表している。
【数2】
上式の分子は、障害物と車種データとにおいて同一位置にあるエッジ、特徴点の総数であり、分母は、障害物と車種データ中に存在するエッジ、特徴点の総数である。すなわち、M1の値が大きいほど、2つのエッジ・特徴点2値化画像は類似しており、M1の値が小さいほど、2つの画像は異なっていることになる。
【0106】
次にステップS406において、この整合度M1が変数M0の値よりも大きいか否かを比較する。もしM1の方が小さいときは、障害物と選択された車種とは異なるものと判断し、ステップS408にすすみ、他の車種の車種データとの比較を行う(S403)。
【0107】
一方、M1の方が大きいときは、ステップS407において、変数M0の値をM1に置き換えるとともに、選択された車種の車種番号を変数M2に与え、車種候補として保持する。そしてステップS408にすすみ、他の車種の車種データとの比較を行う(S403)。すなわち、変数M0には、これまで比較された車種の中で最も確からしい車種候補の整合度の値が保持される。このため、障害物画像データベース31に格納された全ての車種について比較処理を行うことによって、検出された障害物と最も類似した車種を判別することができる。
【0108】
全ての車種について比較が終わったとき(S408でYes)、ステップS409にすすみ、車種判別候補が障害物と十分に類似しているか否かを判定する。これは、最も類似していると判断された車種M2の整合度M0が、所定値よりも大きいか否かによって判定することができる。M0が所定値よりも大きいときは、障害物は車種M2と十分に類似していると判断し、「検出された障害物の車種はM2」として処理を終了する(S410)。一方、M0が所定値よりも小さいときは、十分には類似していないと判定し、「検出された障害物の車種は判別できず」として処理を終了する(S411)。
【0109】
もちろん、各車種データとの整合度を求める処理は、上述したような逐次処理を行わないで、各車種データとの整合度を並列に求めて、処理時間を短縮することも可能である。
【0110】
また、2輪車の車種判別についても、障害物画像データベース31に格納された2輪車の車種データを用いて、図27と同様の処理を行えばよい。
【0111】
もちろん、大まかな種類判別を行わないで、障害物画像データベース31に格納された自動車車種データおよび2輪車車種データをすべて障害物データとして用いることによって、障害物の判別を一括して行うことも可能である。
【0112】
また、自動車車種データとして、乗用車、バン、軽トラック、トラックといった大まかなデータを用いて処理を行うことも可能である。
【0113】
また、障害物画像データベース31は、車種データを更新する手段を備えているのが好ましい。例えば、本車両周囲状況表示装置が、常に最新の車種データを蓄えたデータベースに定期的にアクセスし、障害物画像データベース31の車種データを更新するようにすればよい。また車種データの更新は、CDやDVDなどの記憶媒体を介して行ってもよいし、最新の車種データを有する他の車両周囲状況表示装置に車車間通信によってアクセスし、その車種データを受け取るようにしてもよい。
【0114】
また、画像を用いた障害物識別の方法としては、文献2(「一般道路映像中の対象物のオンライン識別」,長谷川修他,第7回画像センシングシンポジウム講演論文集,pp.221−226)に示されたものがある。また、画像を用いた車種判別の方法としては、この文献の他にも例えば特開2001−101405号公報に示されたものがある。この方法では、各車種データを大量に集めてグループ化し、これを学習画像として用いることによって、車種判別を実現可能にしている。
【0115】
また、障害物として認識した他の車両と、車車間通信を行うことによって、車種情報を直接得ることも可能である。さらに、障害物として認識した他の車両のナンバープレート認識を用いて、車種情報を得ることも可能である。
【0116】
次に、障害物画像の配置処理S36について説明する。このステップS36は、障害物検出手段12で検出された障害物を、利用者に違和感なく、正確な位置に提示するためのデータを周囲状況画像に配置するものである。
【0117】
図28は障害物画像の配置処理S36を示すフローチャートである。ここでは図26のフローにおいて、障害物が自動車であると判定され、ステップS34で車種が判別されたものとする。
【0118】
まず、判別された車種の画像データを障害物画像データベース31から読み出し、利用者に提示する周辺障害物画像を決定する(ステップS51)。ここで得られた画像は、障害物位置検出手段13で検出された縁位置に合うように、視点変換がなされたものである。周囲状況画像として、車両上方に視点がある画像を利用者に提示する場合には、周辺障害物画像は図7(a)に示すような上方から眺めた画像となる。この周辺障害物画像は、イラストを用いても、実際の車両の画像データを用いてもかまわない。
【0119】
次に、周囲状況画像に、読み出した周辺障害物画像を、障害物位置検出手段13で検出された自車側の縁位置に合うように配置する(ステップS52)。このとき、障害物が車両であることはすでに分かっているので、障害物の自車側の縁位置は、後述するように、画像から車両のタイヤと路面との接点を求めることによっても検出可能である。
【0120】
図29は図7(b)の画像から、特願2000−613188に示された路面投影によって作成した合成画像である。課題の項で述べたように、路面投影は、画像中の物体がすべて路面上にあるものと仮定して投影を行うので、高さ成分を持つ周辺車両の画像は、図29に示すように歪みが生じ、また投影される位置も実際とは大きく異なってしまう。しかしながら、路面に接しているタイヤの領域TAR1,TAR2は、高さ成分を持たないため正確な位置に投影される。
【0121】
そこで、このタイヤと路面との接点の位置を基準に用いることによって、位置関係が正確な合成画像を生成することが可能である。タイヤと路面との接点の位置を求める処理を、図面を用いて説明する。
【0122】
図30は障害物検出手段12によって障害物として検出された領域の画像である。障害物位置検出手段13は、この画像から、上述のSobel演算子を用いてエッジを抽出し、そのエッジ抽出結果から、図31に示すようなタイヤの下端と同様の円弧パターンCP1に一致するエッジ部分を求める。この処理は、テンプレートマッチングやHough変換などを用いて行うことも可能である。
【0123】
図32は図30の画像に対するエッジ抽出の結果を示す図である。図32において、MAR1,MAR2は円弧パターンCP1に一致するエッジ部分である整合領域である。車両の場合、タイヤは前後2個ずつが必ずペアになって存在する。そこで、この整合領域が2つ並んで求められたとき、これを、タイヤと路面との接点の位置とする。すなわち、図32の例では、整合領域MAR1,MAR2がタイヤと路面との接点位置として求められる。また、例えば、タイヤは必ず非障害物領域と接している、ということを検出の条件として用いてもよい。
【0124】
その後、画像処理部14Aは、求められたタイヤと路面との接点の位置MAR1,MAR2に、障害物画像データベース31から読み出した画像データを合成することによって、周辺車両合成画像を生成する。すなわち、読み出した画像データを、2つの接点MAR1,MAR2を結ぶ直線に前後2つのタイヤが乗るように回転させる。そして、回転させた画像データを、前後2つのタイヤの位置が接点位置MAR1,MAR2に合うように拡大縮小し、合成する。図33はこのようにして得られた合成画像である。
【0125】
また図29において、自車1の後方にある車両3のように、周辺車両が自車に対して縦列に並んでいるとき、周辺車両のタイヤはバンパーに隠蔽されてしまい、自車1のカメラには映らない。このため、上述したようなタイヤを用いた縁位置の検出手法が利用できない場合がある。このような場合には、例えば、ナンバープレートを用いて、縁位置を検出することができる。この処理を図34を用いて説明する。
【0126】
図34において、41は自車両、42は路面、43は自車41に配置された車載カメラ、45はカメラ43に映った周辺車両、45aは周辺車両45のナンバープレートである。図34に示すように、実世界における任意の点の座標を(Xw,Yw,Zw)と定める。すなわち、平面Xw−Zwは路面と平行な平面であり、Zw方向は自車両の前後方向、Xw方向は自車両の左右方向、Ywは路面に対して垂直方向とする。また、カメラの光軸方向をZe軸としたカメラ座標系(Xe,Ye,Ze)、カメラに撮影された画像座標系(Xi,Yi)を図34のように定める。これらの座標系は、下式のような関係を有する。
【数3】
【数4】
ただし、f,rはカメラ43の内部パラメータと設置位置によって決まる定数であり、既知である。
【0127】
次に、カメラ画像中のナンバープレート45aの位置を検出する。カメラ画像からナンバープレートの位置を検出する手法としては、例えば特開平10−302074号公報に開示されたものがある。これは、画像から小領域を切り出し、エッジ強調やサイズの拡縮を行った後にニューラルネットワークに入力し、その出力が最大となる小領域をナンバープレート位置と判定するものである。
【0128】
カメラ画像において検出されたナンバープレート45aの4隅の座標を、それぞれ、
Pi(Xi0,Yi0),Qi(Xi1,Yi1),Ri(Xi2,Yi2),Si(Xi3,Yi3)
とし、その実世界における座標を、それぞれ、
Pw(Xw0,Yw0,Zw0),Qw(Xw1,Yw1,Zw1),Rw(Xw2,Yw2,Zw2),Sw(Xw3,Yw3,Zw3)
とする。ナンバープレートの大きさが規格化されていること、および、ナンバープレートは路面に対して垂直であるという仮定を用いることによって、4隅の実世界での座標は、下式の関係を持つ。
【数5】
ただし、a,bはそれぞれナンバープレート45aの幅および高さであり、既知である。カメラ画像を用いたナンバープレートの位置検出処理を行うことによって、Pi,Qi,Ri,Siは既知となるので、この値を(数3)、(数4)に代入し、(数5)を拘束条件として最小自乗法などで解くことによって、実世界におけるナンバープレート45aの位置Pw,Qw,Rw,Swを求めることができる。
【0129】
そして、ナンバープレート45aは、周辺車両の自車側の縁の位置にあると考えられるので、ナンバープレート45aの実世界における位置から、自車側の縁位置を推定することが可能である。
【0130】
また、ステップS34において車種まで判別できなかった場合には、ステップS36における障害物画像の配置は次のように行う。この場合、障害物画像データは得られないが、障害物は車両であることは分かっている。そこで、自車側の縁位置をアクティブセンサやタイヤ、ナンバープレートの認識などから求め、その位置に合うように、車であることを示すイラストや文字、記号を第1の実施形態のように表示する。また、第2の実施形態のように、反転縁画像や縁画像と画素の補間処理を行うようにしてもよい。
【0131】
また、車車間通信などによって直接的に周辺車両の判別を行っている場合、通信の際に、同時に、画像データ自体も受信することも可能である。
【0132】
図35は本実施形態に係る合成画像の例を示す図である。図35の画像は、図38のように得られたカメラ画像を基にして、本実施形態で説明したような画像合成手法を行ったものである。
【0133】
また、図36は図41の合成画像に、車両がある領域を矩形で示し、かつ、文字を重畳させた例である。図36では、利用者の注意を喚起するように「車」の文字を提示している。矩形領域の自車側の縁は、障害物位置検出手段13によって検出された周辺障害物の縁位置に合わされている。このため、単純にイラストを張り込む第2の従来例と異なり、他の車両との接触を未然に回避することができる。もちろん、「車」の文字の代わりに、車両があることの注意を促す他の文字や記号、イラストを合成してもかまわない。
【0134】
また、ここでは障害物として自動車と2輪車を例にとって説明したが、本実施形態の手法は、他の種類の障害物についても有効である。
【0135】
例えば、対象物が人である場合、足元と路面との接点を求めることによって、対象人物の正確な位置を求めることができる。また、人物側面形状を予め求めておくことによって、対象人物領域を頭部、上半身部、下半身部などに分割することができる。すなわち、障害物画像データベースに、頭部データ、上半身データおよび下半身データを含む人物データを蓄えておく。頭部データは様々な髪型データを、上半身データは半袖、長袖などの上半身服装データを、下半身データはジーンズ、スカートなどの下半身服装データを有しており、検出されたそれぞれの領域ごとに、それぞれのデータを用いて、対象人物を作画することが可能である。
【0136】
また、画像を用いた人物部位の検出の方法には、例えば文献3(“W4: Who, When, Where, What: A Real Time System for Detecting and Tracking People”,Haritaoglu他,Third Face and Gesture Recognition Conference,pp.222−227)に示されるものがある。この手法によると、ステレオ法を用いて、人物の頭、手、足、胴といった部位を別々に識別することが可能である。
【0137】
(第4の実施形態)
図46は本発明の第4の実施形態に係る車両周囲状況表示装置の基本構成を概念的に示すブロック図である。図46の車両周囲表示装置は、基本構成として、車両の周囲を映すカメラ11と、車両の周囲の障害物の有無を検出する障害物検出手段12と、カメラ11の撮影画像を入力とし、このカメラ画像から車両の周囲の状況を表す画像を生成する画像処理部14と、障害物検出手段12によって障害物が検出されたとき、周囲状況画像上で、この障害物の存在に起因してカメラ11による画像データが得られていない画像欠落領域を検出する画像欠落領域検出手段41を備えている。
【0138】
第1の実施形態との相違は、画像欠落領域検出手段41である。障害物検出手段12によって障害物が検出されたとき、画像欠落領域検出手段41は、カメラ11では画像データを取得できていない画像欠落領域を検出し、画像処理部14は、画像欠落領域の少なくとも一部について、上述の各実施形態と同様に、補間や合成処理を行い、代替画像データを埋めることによって、車両周囲状況画像を生成する。
【0139】
画像欠落領域検出手段41は、障害物の大まかな形状を近似した仮想障害物形状という任意の3次元形状モデルを保持している。図47は仮想障害物形状の一例である。もちろん、仮想障害物形状は図47に示すものに限られることはなく、立方体や任意の多面体であっても、または実際の障害物をモデル化したものであってもかまわない。また、仮想障害物形状の大きさは任意に定めてよいが、例えば障害物が車両と仮定できる場合、通常の車両の大きさに合わせて、例えば短軸W1.7mx長軸L4.2mx高さH1.4mにすればよい。また、複数の仮想障害物形状を保持しておき、第3の実施形態で説明した障害物の種類判別処理を行い、その結果に基づいて、仮想障害物形状を選択してもよい。
【0140】
そして、障害物として認識された領域に、この仮想障害物形状をフィッティングし、その形状にカメラ画像を投影する。その際、仮想障害物形状において画像が投影されなかった領域は画像欠落領域であると考えられるので、画像処理部14はこの画像欠落領域を埋めるべく、上述の補間・合成処理を用いて画像合成することによって、周囲状況画像を生成する。すなわち、仮想障害物形状を用いることによって、画像投影面と画像欠落領域を同時に推定することが可能である。
【0141】
図48は本実施形態における処理の流れを示すフローチャートである。まず第1の実施形態と同様に、図49に示すように、障害物検出手段12によって障害物領域を検出し、その長さL1を計測する(S61)。障害物領域は、面として求まる。
【0142】
次に、求めた障害物領域と仮想障害物形状とのフィッティングを行う(S62)。仮想障害物形状としては、車両の形状、大きさをもとにモデル化した図47に示すものを用いる。そして、計測された障害物領域の長さL1が、長軸Lに近く、短軸Wよりも十分に長いときは、図50のように、仮想障害物形状の長軸が障害物領域と合うように配置する。一方、障害物領域の長さL1が、短軸Wに近く、長軸Lよりも十分に短いときは、仮想障害物形状の短軸が障害物領域と合うように配置する。
【0143】
そして、フィッティングした仮想障害物形状において、図51に示したように、自車に接した領域を画像投影面とし、カメラから得られた障害物画像をこの画像投影面に投影する(S63)。すると、フィッティングした仮想障害物形状において、画像投影面以外の領域は画像欠落領域と考えられるので(S64)、この画像欠落領域について上述の補間・合成処理を行うことによって、合成画像を生成する(S65)。
【0144】
図52および図53は仮想障害物形状のフィッティング結果を概念的に示す図であり、図45に示すような自車1の後方に他の車両2が存在する状況におけるものである。図52は側方から見た図、図53は上方から見た図である。
【0145】
<車両以外への適用例>
なお、本発明の適用領域は車両に限定したものではない。例えば、室内や屋外の監視システムや移動ロボットの視覚システムにおいても適用できる。
【0146】
一例として、室内監視システムへの適用例を説明する。映像提示システムとしての室内監視システムにおいて、監視領域を広げるために複数のカメラを設置し、仮想視点合成の技術を応用して、複数のカメラ画像を1枚の画像としてモニタする方法が考えられる。図54は2台のカメラ11A,11Bが室内を撮影している監視システムの概念図である。図54において、室内には、テーブルTBと2脚の椅子CH1,CH2が置かれている。ここで、2台のカメラ11A,11Bの撮影画像を合成して、仮想カメラVCから見た仮想視点画像を合成するものとする。
【0147】
この場合、テーブルTB中央の領域は、いわゆるオクルージョン領域ではないが、カメラ11A,11Bのどちらにも撮影されないために、画像データを取得することができない。そのため、この領域は仮想視点画像上で画像欠落領域となってしまう。もし、テーブルTBが室内に置かれていない場合には、このような画像データの欠落は生じない。言い換えると、この場合の画像欠落領域はオクルージョンによるものではないが、物体としてのテーブルTBの存在に起因して画像データが得られない領域ということになる。
【0148】
そこで、監視範囲(映像提示範囲)における物体を検出する検出手段と、検出手段によって物体が検出されたとき、監視画像(提示画像)上で、画像欠落領域を検出する画像欠落領域検出手段を設ける。そして、画像欠落領域が検出されたとき、画像処理部が、この画像欠落領域について、上述した補間処理やデータベース画像を用いた方法などを利用して、代替画像データを埋めるようにする。これにより、監視画像は、画像欠落領域については、代替画像データによって利用者に対する違和感が軽減され、かつ、画像欠落領域以外の部分については、カメラ画像データが用いられる。これにより、利用者は、監視画像にさほど違和感を感じることなく、かつ、監視範囲の状況を正確に認識することができる。
【0149】
また、最近、多視点映像を用いて共通の実空間を記録し、新しい映像として提示する研究が盛んに行なわれている(例えば、文献“多視点映像による現実シーンの仮想化 −カメラ間の射影的関係の利用による中間視点映像生成―”,斎藤英雄 他,情報処理学会研究報告会 2002−CVIM−131,pp.53-60)が、このような、例えばサッカー・野球・アメフトなどのスポーツのTV中継のようなアミューズメントの分野にも、本発明は適用できる。このような研究は、カメラが存在しない視点からの画像を複数のカメラ画像の補間画像として生成するものである。しかし、視点が実際のカメラ位置から大きくずれてしまう場合、上述したようなオクルージョン領域が生じ、画像欠落領域が存在してしまう。このような画像欠落領域の画像を生成するためにも、本発明は有効である。
【0150】
なお、各実施形態において、画像合成の際の仮想視点の位置は、車両の上方にあるものとしたが、これ以外の位置の仮想視点を用いた場合でも、本発明は適用可能である。また、仮想視点変換以外の手法によって、車両周囲状況画像を生成する場合でも、本発明の技術的思想は、有効である。
【0151】
以上のように本発明によると、車両周囲状況表示装置において、運転操作のために重要となる自車両に面した領域を正確に表示し、かつ、さほど正確さを必要としない領域については、精度はあまりないがそれらしい画像を表示する。これにより、利用者に違和感を与えることを回避しつつ、相対的な位置関係が正確な画像を提示することができる。
【0152】
【発明の効果】
以上のように、本発明に係る車両周囲状況表示装置によると、利用者は、周囲状況画像にさほど違和感を感じることなく、かつ、車両周辺の障害物の位置を正確に認識することができ、従来よりも確実かつ快適に、安全な運転操作を行うことができる。
【図面の簡単な説明】
【図1】本発明の第1および第2の実施形態に係る車両周囲状況表示装置の基本構成を示すブロック図である。
【図2】障害物の自車両側の縁について説明するための図である。
【図3】本発明の第1の実施形態に係る合成画像の第1の例である。
【図4】透視投影変換における合成画像の拡大図であり、第1の実施形態における第2の例を説明するための図である。
【図5】本発明の第1の実施形態に係る合成画像の第2の例である。
【図6】本発明の第1の実施形態に係る合成画像の第3の例である。
【図7】自車両の側方に障害物としての他の車両が存在する状況を示す図である。
【図8】図7の状況で路面投影によって作成した画像である。
【図9】本発明の第2の実施形態における画像処理部の、反転縁画像を用いた画像合成の流れを示すフローチャートである。
【図10】縁画像の生成処理を説明するための図である。
【図11】反転縁画像の生成・合成処理を説明するための図である。
【図12】画素補間処理を説明するための図である。
【図13】本発明の第2の実施形態において生成された周囲状況画像を模式的に示す図である。
【図14】障害物の自車側の縁がL字状に求まったときの処理を説明するための図である。
【図15】本発明の第2の実施形態において生成された周囲状況画像を模式的に示す図である。
【図16】本発明の第2の実施形態に係る合成画像の第1の例である。
【図17】本発明の第2の実施形態における画像処理部の、縁画像と画素の補間処理を用いた画像合成の流れを示すフローチャートである。
【図18】自車の後方に周辺車両が縦列に並んでいる場合に得られる合成画像を模式的に示す図である。
【図19】図18を拡大した図である。
【図20】本発明の第2の実施形態において生成された周囲状況画像を模式的に示す図である。
【図21】本発明の第2の実施形態に係る合成画像の第2の例である。
【図22】本発明の第2の実施形態に係る合成画像の第3の例である。
【図23】本発明の第3の実施形態に係る車両周囲状況表示装置の基本構成例を示すブロック図である。
【図24】車両のアスペクト比と、車両側面形状を説明するための図である。
【図25】障害物画像データベースに格納された車種データの例を示す図である。
【図26】本発明の第3の実施形態における画像処理部の動作を示すフローチャートである。
【図27】車種判別処理の詳細を示すフローチャートである。
【図28】障害物画像の配置処理の詳細を示すフローチャートである。
【図29】路面投影によって作成した合成画像である。
【図30】図29の画像の中の、障害物領域の画像である。
【図31】タイヤの下端に一致する円弧パターンである。
【図32】図30の画像に対するエッジ抽出の結果を示す図である。
【図33】本発明の第3の実施形態において得られた合成画像の第1の例である。
【図34】ナンバープレートを用いた障害物の縁位置検出を説明するための図である。
【図35】本発明の第3の実施形態において得られた合成画像の第2の例である。
【図36】本発明の第3の実施形態において得られた合成画像の第3の例である。
【図37】第2の従来例における模式的な絵表示の例である。
【図38】本発明の実施例におけるカメラ配置と各カメラの撮像画像の例を示す図である。
【図39】図38における車両周辺状況を示す図である。
【図40】路面投影による合成画像の一例である。
【図41】距離データを用いた透視投影変換による合成画像の一例である。
【図42】自車の右後方に他の車両が存在する状況を上方から見た図である。
【図43】図42の状況において、実際の車両よりも小さな絵を表示した例である。
【図44】図42の状況において、実際の車両よりも大きな絵を表示した例である。
【図45】画像欠落領域を説明するための図であり、自車両の後方に他の車両が停まっている様子を示す図である。
【図46】本発明の第4の実施形態に係る車両周囲状況表示装置の基本構成を概念的に示すブロック図である。
【図47】仮想障害物形状の一例である。
【図48】本発明の第4の実施形態における処理の流れを示すフローチャートである。
【図49】検出された障害物領域である。
【図50】仮想障害物形状のフィッティングの例である。
【図51】仮想障害物形状への画像投影の例である。
【図52】仮想障害物形状のフィッティング結果を概念的に示す図である。
【図53】仮想障害物形状のフィッティング結果を概念的に示す図である。
【図54】室内の監視システムの概念図である。
【符号の説明】
11,11A,11B カメラ
12 障害物検出手段
13 障害物位置検出手段
14,14A 画像処理部
31 障害物画像データベース
41 画像欠落領域検出手段
Claims (6)
- 車両の周囲を映すカメラと、
前記車両の周囲の障害物を検出する障害物検出手段と、
前記カメラの撮影画像から、前記車両の周囲の状況を表す周囲状況画像を生成する画像処理部と、
前記障害物検出手段によって障害物が検出されたとき、前記周囲状況画像上で、この障害物の存在に起因して前記カメラによる画像データが得られない画像欠落領域を、検出する画像欠落領域検出手段とを備え、
前記画像欠落領域検出手段は、
前記障害物の、前記車両側の縁の位置を検出する障害物位置検出手段を備え、 検出された縁位置を用いて、前記画像欠落領域を特定するものであり、
前記画像処理部は、
前記画像欠落領域が検出されたとき、この画像欠落領域の少なくとも一部について、前記障害物の、前記車両側の縁部分を少なくとも含む画像である縁画像を利用して生成した代替画像データを埋めるものである
ことを特徴とする車両周囲状況表示装置。 - 請求項1記載の車両周辺状況表示装置において、
前記画像処理部は、
前記周囲状況画像において、前記障害物位置検出手段によって検出された縁位置に合わせて、前記縁画像を配置し、
前記周囲状況画像において、前記縁位置に合わせて、前記障害物が占める領域を推定し、
推定した障害物領域内の前記縁画像以外の部分について、前記縁画像の画素データを用いた画素補間によって、前記代替画像データを生成するものである
ことを特徴とする車両周囲状況装置。 - 請求項2記載の車両周辺状況表示装置において、
前記画像処理部は、前記障害物が線対称の物体であるとき、
前記周辺状況画像において、前記障害物の対称軸を仮定し、
前記縁画像を前記対称軸について反転し、反転縁画像として配置し、
前記障害物領域内の前記縁画像と前記反転縁画像との間の画像を、前記縁画像の画素データを用いた画素補間によって、生成するものである
ことを特徴とする車両周囲状況表示装置。 - 請求項1記載の車両周囲状況表示装置において、
前記障害物位置検出手段は、前記障害物が他の車両であるとき、
前記カメラ画像から、前記他の車両のタイヤと路面との接点を、前記縁位置として検出するものである
ことを特徴とする車両周囲状況表示装置。 - 請求項1記載の車両周囲状況表示装置において、
前記障害物位置検出手段は、前記障害物が他の車両であるとき、
前記カメラ画像から、前記他の車両のナンバープレートが存在する平面と路面との接線を、前記縁位置として検出するものである
ことを特徴とする車両周囲状況表示装置。 - 請求項1記載の車両周囲状況表示装置において、
前記画像処理部は、前記障害物が他の車両であるとき、
前記他の車両のタイヤおよびナンバープレートの検出状態に基づき、代替画像データを埋める処理を切り替えるものである
ことを特徴とする車両周囲状況表示装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002241144A JP3606853B2 (ja) | 2001-09-07 | 2002-08-21 | 車両周囲状況表示装置 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001-272518 | 2001-09-07 | ||
JP2001272518 | 2001-09-07 | ||
JP2002241144A JP3606853B2 (ja) | 2001-09-07 | 2002-08-21 | 車両周囲状況表示装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003189293A JP2003189293A (ja) | 2003-07-04 |
JP3606853B2 true JP3606853B2 (ja) | 2005-01-05 |
Family
ID=27615151
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002241144A Expired - Lifetime JP3606853B2 (ja) | 2001-09-07 | 2002-08-21 | 車両周囲状況表示装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3606853B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140114373A (ko) * | 2012-01-19 | 2014-09-26 | 로베르트 보쉬 게엠베하 | 차량 주변 환경을 시각화하는 방법과 장치 |
JP2020126639A (ja) * | 2019-01-31 | 2020-08-20 | 株式会社ストラドビジョンStradvision,Inc. | 安全な自律走行を支援する学習方法、そしてこれを利用した学習装置、テスト方法、及びテスト装置 |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4092479B2 (ja) * | 2003-01-07 | 2008-05-28 | 日産自動車株式会社 | 車両用運転支援装置 |
JP4526868B2 (ja) * | 2004-05-12 | 2010-08-18 | アルパイン株式会社 | トップビュー画像生成装置及びトップビュー画像表示方法 |
JP4339178B2 (ja) * | 2004-05-12 | 2009-10-07 | アルパイン株式会社 | 駐車場空きスペース案内装置及び駐車場空きスペース案内方法 |
JP2006160192A (ja) * | 2004-12-10 | 2006-06-22 | Alpine Electronics Inc | 車両運転支援装置 |
JP2006341641A (ja) * | 2005-06-07 | 2006-12-21 | Nissan Motor Co Ltd | 映像表示装置及び映像表示方法 |
JP4687411B2 (ja) * | 2005-11-15 | 2011-05-25 | 株式会社デンソー | 車両周辺画像処理装置及びプログラム |
JP2007172501A (ja) * | 2005-12-26 | 2007-07-05 | Alpine Electronics Inc | 車両運転支援装置 |
JP4908274B2 (ja) * | 2007-03-15 | 2012-04-04 | 株式会社日立製作所 | 車載撮像装置 |
JP5165631B2 (ja) * | 2009-04-14 | 2013-03-21 | 現代自動車株式会社 | 車両周囲画像表示システム |
KR101117969B1 (ko) | 2009-09-04 | 2012-03-05 | 현대자동차일본기술연구소 | 차량 주위 노면 정보 제공 장치 |
JP5491235B2 (ja) * | 2010-03-02 | 2014-05-14 | 東芝アルパイン・オートモティブテクノロジー株式会社 | カメラキャリブレーション装置 |
JP5724570B2 (ja) * | 2011-04-18 | 2015-05-27 | 日産自動車株式会社 | 走行支援装置及び走行支援方法 |
CN103609100B (zh) * | 2011-06-09 | 2017-09-29 | 爱信精机株式会社 | 图像生成装置 |
JP5516997B2 (ja) * | 2011-06-09 | 2014-06-11 | アイシン精機株式会社 | 画像生成装置 |
JP5516998B2 (ja) * | 2011-06-09 | 2014-06-11 | アイシン精機株式会社 | 画像生成装置 |
JP5799631B2 (ja) * | 2011-07-20 | 2015-10-28 | 日産自動車株式会社 | 車両用画像生成装置及び車両用画像生成方法 |
JP5408198B2 (ja) * | 2011-08-01 | 2014-02-05 | 日産自動車株式会社 | 映像表示装置及び映像表示方法 |
JP6291866B2 (ja) * | 2014-01-27 | 2018-03-14 | 株式会社デンソー | 運転支援装置、および運転支援方法 |
JP6365238B2 (ja) * | 2014-10-29 | 2018-08-01 | 株式会社デンソー | 駐車支援装置 |
JP6496619B2 (ja) * | 2015-06-22 | 2019-04-03 | クラリオン株式会社 | 車両用駐車支援装置 |
JP6816386B2 (ja) * | 2016-06-06 | 2021-01-20 | 株式会社Ihi | 識別装置 |
DE102016114693A1 (de) * | 2016-08-09 | 2018-02-15 | Connaught Electronics Ltd. | Verfahren zum Unterstützen eines Fahrers eines Kraftfahrzeugs beim Führen des Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug |
WO2018197984A1 (ja) * | 2017-04-28 | 2018-11-01 | 株式会社半導体エネルギー研究所 | 表示システムおよび移動体 |
JP2019068312A (ja) * | 2017-10-03 | 2019-04-25 | Kyb株式会社 | 画像監視装置および画像監視システム |
WO2019150918A1 (ja) * | 2018-02-02 | 2019-08-08 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム、及び移動体 |
CN111819122B (zh) * | 2018-03-12 | 2023-09-19 | 日立安斯泰莫株式会社 | 车辆控制装置 |
WO2021074660A1 (ja) * | 2019-10-18 | 2021-04-22 | 日産自動車株式会社 | 物体認識方法及び物体認識装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7161616B1 (en) * | 1999-04-16 | 2007-01-09 | Matsushita Electric Industrial Co., Ltd. | Image processing device and monitoring system |
JP4312883B2 (ja) * | 1999-06-29 | 2009-08-12 | 富士通テン株式会社 | 車両の駐車支援装置 |
JP3494434B2 (ja) * | 1999-10-21 | 2004-02-09 | 松下電器産業株式会社 | 駐車支援装置 |
-
2002
- 2002-08-21 JP JP2002241144A patent/JP3606853B2/ja not_active Expired - Lifetime
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140114373A (ko) * | 2012-01-19 | 2014-09-26 | 로베르트 보쉬 게엠베하 | 차량 주변 환경을 시각화하는 방법과 장치 |
KR102034189B1 (ko) * | 2012-01-19 | 2019-10-18 | 로베르트 보쉬 게엠베하 | 차량 주변 환경을 시각화하는 방법과 장치 |
JP2020126639A (ja) * | 2019-01-31 | 2020-08-20 | 株式会社ストラドビジョンStradvision,Inc. | 安全な自律走行を支援する学習方法、そしてこれを利用した学習装置、テスト方法、及びテスト装置 |
Also Published As
Publication number | Publication date |
---|---|
JP2003189293A (ja) | 2003-07-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3606853B2 (ja) | 車両周囲状況表示装置 | |
EP1291668B1 (en) | Vehicle surroundings display device and image providing system | |
EP3418943B1 (en) | Object detecting apparatus, object detecting method, and computer-readable medium | |
JP3895238B2 (ja) | 障害物検出装置及びその方法 | |
US7307655B1 (en) | Method and apparatus for displaying a synthesized image viewed from a virtual point of view | |
EP1671216B1 (en) | Moving object detection using low illumination depth capable computer vision | |
CN110555407B (zh) | 路面车辆空间识别方法及电子设备 | |
KR960042482A (ko) | 물체 관측 방법 및 그 방법을 이용한 물체 관측 장치와, 이 장치를 이용한 교통 흐름 계측 장치 및 주차장 관측 장치 | |
JP2004056763A (ja) | 監視装置、監視方法および監視用プログラム | |
JP6743171B2 (ja) | 自動車両の道路付近の物体を検出するための方法、コンピュータデバイス、運転者支援システム、及び、自動車両 | |
JP2019200781A (ja) | サラウンドビューシステム、そのシステムを備える車両、サラウンドビュー生成方法、およびその方法を実行するためのプログラム製品 | |
JP4344860B2 (ja) | ステレオ画像を用いた道路平面領域並びに障害物検出方法 | |
CN108021899A (zh) | 基于双目相机的车载智能前车防撞预警方法 | |
US20220414917A1 (en) | Method and apparatus for obtaining 3d information of vehicle | |
JP2003132349A (ja) | 描画装置 | |
CN109895697B (zh) | 一种行车辅助提示系统及方法 | |
JPH09218937A (ja) | 区画線検出装置 | |
CN116935281A (zh) | 基于雷达和视频的机动车道异常行为在线监测方法及设备 | |
JP4106163B2 (ja) | 障害物検出装置及びその方法 | |
CN116958195A (zh) | 物件追踪整合方法及整合装置 | |
EP4148375A1 (en) | Ranging method and apparatus | |
JP6179249B2 (ja) | 車両検出装置 | |
JP2002352249A (ja) | 画像処理装置及びその方法 | |
KR102602319B1 (ko) | 인공지능 영상 딥러닝 모델을 이용한 다중 객체 추적기반 교통 정보 수집 시스템 및 방법 | |
Kimachi et al. | A vehicle recognition method robust against vehicles' overlapping based on stereo vision |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040706 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040831 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040928 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20041005 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 3606853 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20071015 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081015 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091015 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091015 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101015 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111015 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121015 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131015 Year of fee payment: 9 |
|
EXPY | Cancellation because of completion of term |