JP5208203B2 - 死角表示装置 - Google Patents

死角表示装置 Download PDF

Info

Publication number
JP5208203B2
JP5208203B2 JP2010505364A JP2010505364A JP5208203B2 JP 5208203 B2 JP5208203 B2 JP 5208203B2 JP 2010505364 A JP2010505364 A JP 2010505364A JP 2010505364 A JP2010505364 A JP 2010505364A JP 5208203 B2 JP5208203 B2 JP 5208203B2
Authority
JP
Japan
Prior art keywords
blind spot
image
vehicle
omnidirectional
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010505364A
Other languages
English (en)
Other versions
JPWO2009119110A1 (ja
Inventor
正人 湯田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2010505364A priority Critical patent/JP5208203B2/ja
Publication of JPWO2009119110A1 publication Critical patent/JPWO2009119110A1/ja
Application granted granted Critical
Publication of JP5208203B2 publication Critical patent/JP5208203B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/58Means for changing the camera field of view without moving the camera body, e.g. nutating or panning of optics or image sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Description

本発明は、カメラで取得した画像を用いる技術とコンピュータグラフィックスの技術とを組み合わせた技術の画像処理装置であり、特に交差点において自車両からは見えない死角領域をディスプレイ上に表示する装置に関するものである。
国土交通省が推進する高度道路交通システム(ITS:Intelligent Transport Systems)の取り組み内容の1つとして、運転中の注意喚起や警報支援を行うドライバ向けサービスが検討されている。特に、出会い頭での事故が多発する交差点における衝突防止支援サービスは、今後重要な取り組みであり、現在は路面センサや画像センサを用いて運転者からの死角となる交差点の状況を伝えるものが考えられている。また、カメラなどの画像センサは将来ますます小型化・安価になるものと考えられており、現在は高速道路や主要道路に設置されているだけだが、将来的にはあらゆる道路に設置されることが予想される。
死角領域の状況をドライバに提示する従来方法として、死角となる道路を車載カメラで撮影し、その撮影された映像を後方の車に配信して、配信された映像に基づいて、ドライバ視点の映像を後方の車がディスプレイに表示する、というものが考えられる。例えば特許文献1に開示された装置がある。
特許文献1の装置は、自車両の進行方向の画像を取得する撮像部と、該撮像部により取得した自車両の進行方向の画像を、運転者から見た視点の画像に補正する自車両画像補正部と、前方車両が取得した進行方向の画像を、前方車両から受信する前方車両画像受信部と、前記前方車両画像受信部により受信した画像の撮像位置までの距離を算出する距離算出部と、前記距離算出部により算出した前方車両との距離に基づいて、前記前方車両画像受信部によって受信した画像を、運転者から見た視点の画像に補正する前方車両画像補正部と、前記自車両画像補正部により補正された画像における前記前方車両によって死角領域となっている部分に、前記前方車両補正部により補正された画像を重ね合せることで、前記前方車両を透過した合成画像を生成する画像合成部とを備えている。
また、交差点に複数のカメラを設置し、複数カメラ画像を2次元射影変換して、交差点上方から見たような仮想的な鳥瞰画像を作成するものが非特許文献1に開示されている。
特許第3972722号公報
「複数の道路監視カメラを用いた交差点における俯瞰映像作成」筑波大学、2006年12月6日
しかしながら、特許文献1の方法では、ドライバからの視線方向以外の画像は作ることができないため、交差点により生じる死角領域の映像は作ることができない。特許文献1のように車にカメラを設置するのではなく、交差点にカメラを設置した場合でも、多数のカメラが必要となる。さらに車には、位置情報をセンシングするためのGPS(Global Position System)受信装置が必要となるが、たとえ装着していたとしても精度が低く高さ情報も取得できないため、ドライバ視点とは程遠い視点からの映像に変換されてしまうという課題がある。また、非特許文献1の方法では、交差点上方から見た俯瞰画像しか生成することができず、交差点情報からの画像ではどちらの方向から交差点に車や歩行者が進入してくるかを一見しただけで直感的に判断するのは難しい、という課題がある。
本発明は、かかる問題点を解消するためになされたものであり、GPS非装着車両であっても本来ドライバからは見えないはずの交差点死角領域を、ドライバ視点で表示することができる死角表示装置を提供することを目的とする。
以上のような課題を解決するために、本発明の死角表示装置は、次の構成を採用した。本発明の死角表示装置は、車両の死角にある対象物を表示する死角表示装置であって、撮像位置が異なる複数のカメラから取得した、前記車両の死角にある対象物と前記車両とが写されている複数の全周囲画像を記憶する記憶手段と、前記複数の全周囲画像に写されている各対象物の座標位置のずれを用いて、前記複数のカメラのうち所定のカメラから見た前記対象物の座標位置を算出する、対象物モデル生成手段と、前記複数の全周囲画像に写されている各車両の座標位置のずれを用いて、前記所定のカメラから見た前記車両の座標位置を算出する、車両モデル生成手段と、前記算出した対象物の座標位置と前記車両の座標位置とを用いて、前記車両から見た共通の対象物を画面に表示する表示手段と、を備える死角表示装置である。この死角表示装置は、例えば、前記車両モデル生成手段は、所定の前記全周囲画像に写されている車両に対応する第1の点と、前記第1の点と対応しており、前記所定の全周囲画像とは異なる全周囲画像に写されている車両に対応する第2の点と、の位置のずれから、前記所定のカメラから見た前記車両の座標位置を算出してもよい。
また、本発明の死角表示装置は、車両に設けられて、当該車両からは見えない死角の情報を表示する死角表示装置であって、互いに異なる位置から撮像された複数の撮像画像を格納する画像格納手段と、前記複数の撮像画像に映り込んでいる、対象物の各映り込み画像に基づいて、当該各映り込み画像の箇所を特定して、特定される各箇所にそれぞれ映り込みをさせる位置を当該対象物の位置として算出する対象物モデル生成手段と、前記複数の撮像画像に映り込んでいる、前記車両の各映り込み画像に基づいて、当該各映り込み画像の箇所を特定しての箇所を特定し、特定される各箇所に映り込みをさせる位置を前記車両の位置として算出する車両モデル生成手段と、前記対象物モデル生成手段により計算された前記対象物の位置を、前記車両モデル生成手段により計算された前記車両の位置に対する相対的なディスプレイ座標に変換する車両視点座標変換手段と、前記対象物を示す情報を前記ディスプレイ座標を用いて表示する表示手段とを備えることを特徴とする死角表示装置である。
そして、この死角表示装置においては、例えば、格納される前記複数の撮像画像は、当該車両と、当該車両からは見えない死角との両方を撮像する位置にそれぞれが設けられた複数の画像生成部により撮像された複数の撮像画像であり、前記対象物モデル生成手段および前記車両モデル生成手段は、それぞれ、当該死角表示装置の外部から当該死角表示装置に転送された前記複数の撮像画像を取得し、取得された当該複数の撮像画像を利用する。
この死角表示装置によれば、車両の位置と、対象物の位置とが、互いに異なるデータから算出されるのではない。すなわち、何れの位置も、格納される複数の撮像画像という同じデータから算出される。このため、多くのデータを扱う複雑な構成が必須ではなくなり、簡単な構成により死角表示装置が構成できる。
なお、この死角表示装置は、各映り込み画像を映り込こませた対象物が、上記死角にある対象物か否かを判断する判断部を備えてもよい。他方、この死角表示装置は、このような判断部を備えず、対象物が死角にあるか否かを判断せずに、対象物についての上記表示を行ってもよい。
また、本発明の死角表示装置は、例えば、全周囲画像を取得する全周囲画像生成手段が異なる3次元位置座標に複数設置された交差点において、複数の全周囲画像生成手段から、自車両及び自車両から見えない死角領域が撮影範囲内にある全周囲画像生成手段のうち2つを選択し、生成した2つの全周囲画像もしくは全周囲画像の一部領域を全周囲画像格納手段にネットワークを介し転送する選択手段と、全周囲画像格納手段の持つ2つの全周囲画像もしくは全周囲画像の一部領域に映り込んでいる死角領域内の同一対象物を検索し画像上の死角領域対応点とする死角領域対応点検索手段と、死角領域対応点のピクセル位置のずれから死角領域内の対象物の3次元位置座標を計算する死角領域位置座標算出手段と、全周囲画像格納手段の持つ前記2つの全周囲画像もしくは全周囲画像の一部領域に映り込んでいる自車両を検索し画像上の自車両対応点とする自車両対応点検索手段と、2つの全周囲画像を生成した全周囲画像生成手段の3次元位置座標と自車両対応点のピクセル位置のずれから自車両の3次元位置座標を計算する自車両位置座標算出手段と、自車両の3次元位置座標をもとに死角領域内の対象物の3次元位置座標をディスプレイ座標に変換する自車両視点座標変換手段と、座標変換後の奥行き値に応じてディスプレイ座標に死角領域対応点のピクセル色を割り付ける表示手段とを備え、GPS等の位置センシング手段を持たない車両であっても交差点の死角領域の状況をドライバ視点から違和感なく見ることができる死角表示装置であってもよい。
また、あるいは、本発明の死角表示装置は、本来ドライバから見えない交差点死角領域を2つの全周囲画像生成手段で生成した全周囲画像からドライバから見たような画像に3次元変換するとともに、2つの当該全周囲画像を使ってGPSよりも高精度のドライバ視点位置を算出する死角表示装置であってもよい。
本発明の死角表示装置によれば、本来ドライバから見えない交差点死角領域を2つの全周囲画像生成手段で生成した全周囲画像からドライバから見たような画像に3次元変換するとともに、当該全周囲画像を使ってGPSよりも高精度のドライバ視点位置を算出することにより、交差点の死角領域の状況をドライバ視点で直感的に見ることができ、危険検出が容易となる。
図1は、実施の形態1による死角表示装置の構成を示すブロック図である。 図2は、図1に示した全周囲画像生成部が生成する全周囲画像の一例を示す図である。 図3は、図1に示した選択部の具体例を説明する図である。 図4は、図1に示した死角領域対応点検索部の死角領域対応点を説明する図である。 図5は、図1に示した死角領域対応点検索部の死角領域対応点を説明する図である。 図6は、図1に示した死角領域位置座標算出部を説明する図である。 図7は、図1に示した死角領域位置座標算出部を説明する図である。 図8は、図1に示した自車両対応点検索部の自車両対応点を説明する図である。 図9は、図1に示した自車両対応点検索部の自車両対応点を説明する図である。 図10は、実施の形態1に全周囲画像保持部、全周囲差分画像生成部を追加した場合の死角表示装置の構成を示すブロック図である。 図11は、図1に示した自車両位置座標算出部を説明する図である。 図12は、実施の形態1に自車両視点画像生成部を追加した場合の死角表示装置の構成を示すブロック図である。 図13は、実施の形態2による死角表示装置の構成を示すブロック図である。 図14は、図13に示した選択部を説明する図である。 図15は、実施の形態3による死角表示装置の構成を示すブロック図である。 図16は、実施の形態4による死角表示装置の構成を示すブロック図である。 図17は、自車両から死角方向を見たときのイメージ図である。 図18は、自車両から死角方向を見たときのイメージ図である。 図19は、死角表示装置の車両側の構成を示すブロック図である。 図20は、死角表示装置の車両側の構成を示すブロック図である。 図21は、実施の形態1による死角表示装置において水平視野角に応じて表示範囲が変化することを説明する図である。 図22は、交差点と、全周囲画像の左上領域四分の一、左下領域四分の一、右下領域四分の一、右上領域四分の一とを示す図である。 図23は、表示部と自車両視点画像生成部とを示す図である。 図24は、死角表示装置の処理のフローチャートである。 図25は、図10の死角表示装置(図15の死角表示装置)の処理のフローチャートである。 図26は、図12の死角表示装置の処理のフローチャートである。 図27は、図13の死角表示装置の処理のフローチャートである。 図28は、図16の死角表示装置の処理のフローチャートである。 図29は、映り込み物の位置が算出される処理のフローチャートである。
以下、図面を参照しながら、本発明を実施するための実施の形態を説明する。
(実施の形態1)
図1は、本発明の実施の形態1による死角表示装置1の構成を示すブロック図である。
死角表示装置1は、交差点側1aの部分と、車両側1bとの部分とを備える。車両側1bは、死角表示装置1が備える、複数の車両にそれぞれ備えられる複数の車両側1bの部分のうちの1つであってもよい。そして、死角表示装置1は、全周囲画像を取得する全周囲画像生成部100が異なる3次元位置座標に複数設置された交差点(図3等参照)において、交差点側1aは選択部101を備え、各車両側1bは全周囲画像格納部102、死角領域対応点検索部103、死角領域位置座標算出部104、自車両対応点検索部105、自車両位置座標算出部106、自車両視点座標変換部107、表示部108を備える。なお、死角表示装置1は、死角領域モデル生成部109と、自車両モデル生成部110とを備え、死角領域モデル生成部109は、上述の死角領域対応点検索部103と死角領域位置座標算出部104とを備え、自車両モデル生成部110は、上述の自車両対応点検索部105と自車両位置座標算出部106とを備える(図19参照)。なお、交差点側1aは、選択部101の機能ブロックの機能を実現するために、例えば、インフラストラクチャコンピュータ101cを備え(図3参照)、このインフラストラクチャコンピュータ101cによってソフトウェアを実行することにより、選択部101の機能ブロックの機能を実現する。
図2は、全周囲画像生成部100の一例を示す図である。
全周囲画像生成部100は、設置された3次元位置座標を中心とする全周囲画像を生成する。全周囲画像生成部100は全周囲カメラ、全方位カメラ、全天周カメラ、360度カメラなどと呼ばれるものであり、これら全周囲カメラ等で撮影するものとして実現される。全周囲を撮影する代表的な実現方式として、凹鏡方式、特殊レンズ方式、複数カメラ方式がある。図2は全周囲画像生成部100が生成する全周囲画像の一例を示す。凸鏡方式は、標準カメラ100a(図2)に凸型の鏡面100b(図2)を取り付けて撮影するものであり、周囲360度の風景が図2の201のようなドーナツ型の画像にマッピングされた画像を生成する。ドーナツ型の画像に対して透視投影変換を例えば選択部101(図1)等が適用することで、図2の202のような、任意方向を見たときの画像(透視投影画像)に、ドーナツ型の画像を変換することができる。凸型方式では撮像装置(全周囲画像生成部100)を中心とした画像を取得できるため、対象物の距離や方向を正確に計測できることが特徴である。
なお、特殊レンズ方式は、標準カメラに魚眼レンズを取り付けて撮影するものであり、周囲360度の風景が円形画像にマッピングされた画像を生成する。生成された画像(円形画像)に対してレンズ歪み補正や平面展開変換を適用することで、任意方向を見たときの画像に変換することができるが、レンズ歪みは完全には除去できないのが、この特殊レンズ方式の難点である。他方、複数カメラ方式は、それぞれ異なる方向を撮影する複数のカメラを画像生成部が備えており、それら複数のカメラにより撮影された複数の画像を、うまくつなぎ合わせて1つのパノラマ画像にするものである。この複数カメラ方式によれば、複数画像のつなぎ合わせを制御するキャリブレーションが煩雑であるが、高解像度で歪みのない画像を生成ことができる。
そして、本特許では、特に全周囲画像生成部100の具体的な構成の方式は、限定しないが、説明の都合上、本明細書では、上記の凸鏡方式により全周囲画像生成部100は全周囲画像を生成するものとして説明する。
図1に戻って、交差点側1aにおける選択部101は、交差点に複数設置された全周囲画像生成部のうち、交差点に進入する自車両からは見えない死角領域と自車両とが同時に映り込むような位置にある全周囲画像生成部を2つ選択し、ネットワークを介して、選択される2つの全周囲画像生成部の画像を、全周囲画像格納部102(図1)へ転送する。
図3は、複数の全周囲画像生成部が交差点にそれぞれ設置され、かつ、それらが設置された交差点が十字交差点の場合において、東西南北どの方向から車両が進入してきても本特許が実施できるように、4つの全周囲画像生成部を配置した様子を示す図である。図3では、東西南北どの方向から車両が進入してきても、当該車両から見えない領域及び自車両が、撮影される画像に映り込むように全周囲画像生成部が設置されており、例えば、選択部101は、南から交差点に進入する自車両301に対しては、全周囲画像生成部302、303を選択してもよいし、全周囲画像生成部302と304を選択してもよい。
図3の場合、4つの全周囲画像生成部302、全周囲画像生成部303、全周囲画像生成部304、全周囲画像生成部305が、2つの道路が十字に(直角に)交差する十字交差点が有する4つの角に、それぞれ設置されている。
なお、このようにして、全周囲画像を生成する全周囲画像生成部100が用いられることにより、交差点のより広い死角領域が的確に撮像される。
また、選択部101で選択される2つの全周囲画像は、死角領域対応点検索部103(図1)で使用する第1の2つの全周囲画像と、自車両対応点検索部105で使用する第2の2つの全周囲画像とが含まれ、第1の2つの全周囲画像の少なくとも一方は、第2の2つの全周囲画像に含まれる全周囲画像の一方又は両方に対して、互いに異なる全周囲画像生成部で生成されたものであっても構わない。図3の例でいえば、選択部101は、例えば、死角領域対応点検索部103には、全周囲画像生成部302、304を選択して、全周囲画像306、308(図3)を転送し、自車両対応点検索部105には、全周囲画像生成部302、303を選択し、つまり、全周囲画像306、307を選択して、選択した全周囲画像306、307を転送しても構わない。
また、選択部101は、交差点に複数設置された全周囲画像生成部のうち、交差点に進入する自車両からは見えない死角領域と自車両とが同時に映り込むような位置にある全周囲画像生成部を2つ選択し、選択された2つの全周囲画像のそれぞれの一部領域を、全周囲画像格納部102に転送しても構わない。例えば、図3のような十字交差点において、自車両301に対して全周囲画像生成部302、303を選択部101が選択した場合、自車両301の進行方向に対して左側の死角領域が映り込むのは、全周囲画像生成部302の生成した全周囲画像306の左上領域四分の一と、全周囲画像生成部303の生成した全周囲画像307の左上領域四分の一である。また、自車両進行方向に対して右側の死角領域が映り込むのは全周囲画像生成部302の生成した全周囲画像306の右上領域四分の一と、全周囲画像生成部303の生成した全周囲画像307の右上領域四分の一である。死角領域対応点検索部103は、上述した4つの全周囲画像の一部領域があれば死角領域対応点検索は可能である。同様に、自車両が映り込むのは全周囲画像生成部302の生成した全周囲画像306の右下領域四分の一と、全周囲画像生成部303の生成した全周囲画像307の左下領域四分の一であり、自車両対応点検索部105は上述した2つの全周囲画像の一部領域があれば自車両対応点検索は可能である。上述の例では交差点形状が十字の場合を挙げて説明しているが、十字交差点に限らずとも選択部101において交差点形状に応じた領域分割を行い、全周囲画像格納部102には全周囲画像全体ではなく分割した領域単位で転送しても構わない。
図22は、全周囲画像201の左上領域四分の一、左下領域四分の一、右下領域四分の一、右上領域四分の一と、全周囲画像201を撮像した全周囲画像生成部100のある交差点2000とを示す図である。全周囲画像生成部100は、例えば、図3に示される全周囲画像生成部302等のうちの1つである。図22に示される全周囲画像201の左上領域四分の一201a、左下領域四分の一201b、右下領域四分の一201c、右上領域四分の一201dは、それぞれ、交差点2000における全周囲画像生成部100の左上四分の一2000a、左下四分の一2000b、右下四分の一2000c、右上四分の一2000dが撮像されたものである。
なお、上述した、自車両301の進行方向に対する左側の死角領域とは、例えば、自車両が交差点を左折した場所にある死角領域であり、自車両301の進行方向に対する右側の死角領域とは、例えば、自車両が交差点を右折した場所にある死角領域である。
さらに、選択部101は、各全周囲画像に映り込んだ自車両の画像内での位置と領域とを検索し、領域が最大となる全周囲画像を生成した全周囲画像生成部のうち2つを選択することで、自車両対応点検索部105の検索精度を向上することができる。つまり、選択部101は、例えば、映り込み物(自車両)の各全周囲画像における各映り込み物の領域の大きさをそれぞれ算出し、算出される大きさが最も大きい全周囲画像と、2番目に大きい全周囲画像との2つの全周囲画像を選択する。自車両301の画像内での領域が最大となるのは、自車両との距離が最も近い全周囲画像生成部が生成した全周囲画像、ということにほかならない。すなわち、自車両から最も近い2つの全周囲画像生成部を選択することにより、自車両対応点検索部105における検索誤差を小さくすることができる。図3では、自車両301に対しては全周囲画像上自車両領域が最大となる全周囲画像生成部302、303を選択すれば、全周囲画像生成部302、304を選択するよりも、自車両対応点検索部105による自車両対応点検索が、高精度になる。
また、選択部101は、全周囲画像格納部102に必ずしも、全周囲画像もしくは全周囲画像の一部領域を転送する必要はない。例えば、当該交差点と自車両との距離が非常に離れている場合には、当該交差点の死角領域を表示してもほとんど意味がない情報であり、死角領域を自車両視点で表示する必要性が低い。よって、選択部101が、各全周囲画像に映り込んだ自車両の画像内での位置と領域を検索し、自車両の領域の大きさがある一定以上になったときのみ、全周囲画像格納部102へ、選択した全周囲画像もしくは全周囲画像の一部領域を転送しても問題はない。
なお、選択部101は、一例としては、次のようにして実現できる。この一例に係る選択部101を有する死角表示装置1においては、交差点側1aは、交差点に接続する各道路に、それぞれ、その道路に自車両301があるか否かを検知する自車両検知部があるものとする。そして、死角表示装置1は、交差点に接続する各道路に対して、その道路の撮像に比較的適する全周囲画像生成部100を対応付ける対応関係を保持する道路対応保持部を備えるものとする。そして、選択部101は、自車両301が自車両検知部により検知された道路に対して道路対応保持部の対応関係が対応付ける全周囲画像生成部100が撮像した全周囲画像を選択する。ここで、道路対応保持部は、車両側1bが用いるのに適する2個の全周囲画像生成部100を1つの道路に対応付ける対応関係を記憶し、選択部101は、対応付けられたそれらの全周囲画像生成部100の全周囲画像201を選択する。こうすれば、保持される対応関係に基づいて、自車両301が検知された道路と対応関係を有する適切な全周囲画像生成部100が選択され、簡単な構成で、選択部101を実現できる。なお、道路対応保持部は、死角領域モデル生成部109が用いる全周囲画像の対応関係を保持する第1の道路対応保持部と、他方の自車両モデル生成部110が用いる全周囲画像の対応関係を保持する第2の道路対応保持部とを備えるものとしてもよい。
全周囲画像格納部102は、ネットワークを介して、当該車両側1bに交差点側1aから送られてきた全周囲画像あるいは全周囲画像の一部領域を格納し、必要に応じて死角領域対応点検索部103及び自車両対応点検索部105に転送する。
死角領域対応点検索部103は、全周囲画像格納部102にある、選択部101で選択した2つの全周囲画像生成部が生成した全周囲画像に映り込んでいる死角領域内の同一対象物を検索し、画像上の死角領域対応点とする。互いに異なる位置座標を中心として生成された2つの全周囲画像には、交差点の死角領域が映り込んでおり、死角領域内に存在するある対象物が2つの全周囲画像上のどこに映り込んでいるかを死角領域対応点検索部103は検索する。
死角領域対応点検索部103は、全周囲画像のままではなく、死角領域の方向を自車両301から見た画像に透視投影変換を行ったあとの透視投影画像に対して、画像マッチングによる死角領域対応点検索を行っても構わない。透視投影画像は、ドーナツ型の全周囲画像を、死角方向を見たときの画像に変換したものであり、一般的なカメラで死角方向を撮影したような平面矩形画像と同じ画像が得られる。
図4〜図5は、死角領域対応点検索部103が行う死角領域対応点の検索を説明するものである。
すなわち、死角領域対応点検索部103は、具体的には、図4のように一方の全周囲画像402上のピクセルP0(X0,Y0)に映り込んだ対象物401(図5)が、もう一方の全周囲画像403のどのピクセルに対応しているかを、画像マッチングにより検索し、検索した結果P1(X1,Y1)(ピクセルP1)に対応していれば、P0、P1を対象物401の死角領域対応点とする。死角領域対応点検索部103は、死角領域対応点の検索を、全周囲画像内のすべての対象物に対してそれぞれ行う。
ここで、図4下部のグラフは、死角領域対応点検索部103が行う画像マッチングの検索での2つの点の間の画素ずれの大きさを横軸にとり、その画素ずれでのマッチングの誤差を縦軸にとっている。死角領域対応点検索部103は、誤差が最小値をとる2つの点を、死角領域対応点として特定する。
ここで、平面矩形画像では、全周囲画像生成部から死角領域までの距離が大きくなればなるほど、死角領域内に存在する物体間の距離は画像上では小さくなる。このため、自車両の進行方向に対して左側の死角領域に存在する物体が、2つの透視投影画像上に映り込んだ場合、左側の死角領域により近い位置で生成された全周囲画像に対応する透視投影画像上の対応点のX座標は、もう一方の透視投影画像上の対応点のX座標と等しいか大きくなる。また、自車両の進行方向に対して右側の死角領域に存在する物体が2つの透視投影画像上に映り込んだ場合、右側の死角領域に対して、より近い位置で生成された全周囲画像に対応する透視投影画像上の対応点のX座標は、もう一方の透視投影画像上の対応点のX座標と等しいか小さくなる。この性質を利用すると、マッチング処理を効率的に行うことが可能となる。すなわち、自車両の進行方向に対して左側の死角領域の死角領域対応点検索は、左側の死角領域に近い位置で生成された全周囲画像に対応する透視投影画像上のピクセルを基準として、もう一方の透視投影画像を、画像における左側のピクセルから順に、右方向へとマッチング処理を行う。あるいは、自車両の進行方向に対して右側の死角領域の死角領域対応点検索は、右側の死角領域に対してより近い位置で生成された全周囲画像に対応する透視投影画像上のピクセルを基準として、もう一方の透視投影画像を画像右側ピクセルから順に、左方向へマッチング処理を行う。
なお、上記のようにして、基準とする方を、互いに対応する2つの死角領域対応点のうちで、精度よく撮像されて大きく撮像された方、つまり拡大された方にしてマッチング処理をすることにより、例えば、より確実に正しくマッチング処理をできるなどして、よりマッチング処理を良好に行うことができる。
死角領域位置座標算出部104は、死角領域対応点検索部103で求めた死角領域対応点のピクセル位置のずれ量から、死角領域内の対象物の3次元位置座標を計算する。3次元位置座標の要素のうち、自車両301から見て水平方向をX座標軸(図5における横方向)、垂直方向をY座標軸(図5の紙面に対する垂線方向)、奥行き方向(図5における縦方向)をZ座標軸とそれぞれ定義する。
図6〜図7は、十字交差点での死角表示装置1においての死角領域位置座標算出部104を説明するものである。具体的には、複数の全周囲画像生成部のうち選択部101は501と502(図7)を選択し、全周囲画像503、504(図7)を死角領域位置座標算出部104が使用し、死角領域対応点505、506に対応する対象物507(図7)の3次元位置座標を算出する過程を説明する図が図6〜図7である。
1つの例として、全周囲画像上の死角領域対応点から、対応する死角領域内に存在する対象物の3次元位置座標を計算する方法を以下に記す。2つの全周囲画像生成部間の距離B、全周囲画像の中心と死角領域対応点を結ぶ線分が2つの全周囲画像生成部間を結ぶ線分となす角度をα、βとすると、全周囲画像生成部からの相対的な奥行き距離Dは、
D=B*tan(α)*tan(β)/(tan(α)−tan(β))
で算出することができ、Dは死角領域対応点に対応する対象物のZ座標となる。また、死角領域対応点検索部103が死角領域の方向に対して透視投影変換を行っている場合、透視投影画像上の死角領域対応点から、対応する3次元位置座標を計算するのは以下のように行えばよい。すなわち、2つの全周囲画像生成部間の距離B、全周囲画像生成部の焦点距離f、対応点の画像中心からのずれ量V0、V1とすると、全周囲画像生成部からの相対的な奥行き距離Dは、
D=B*(f+V1)*(f−V0)/(2*f*(V1+V0))
で算出することができ、Dは死角領域対応点に対応する対象物のZ座標となる。全周囲画像の中心と死角領域対応点のなす角度αにより、死角領域対応点に対応する対象物のX座標は、
D/tan(α)
で算出することができる。さらにY座標は、全周囲画像の中心から死角領域対応点までの画像上の距離から算出することが可能であり、死角領域対応点を透視投影変換して得られた変換後座標のY座標に等しくなる。
図8〜図9は、自車両対応点検索部105の処理を示す図である。
自車両対応点検索部105は、全周囲画像格納部102にある全周囲画像に対して、選択部101で選択した2つの全周囲画像生成部が生成した全周囲画像に映り込んでいる自車両を検索し、画像上の自車両対応点とする。異なる位置座標を中心として生成された2つの全周囲画像には自車両が映り込んでおり、自車両が2つの全周囲画像上のどこに映り込んでいるかを検索する。図8〜図9は、自車両対応点検索部105が検索する自車両対応点を具体的に説明するものである。一方の全周囲画像602(図8)上のピクセルP2(X2,Y2)に映り込んだ自車両301が、もう一方の全周囲画像603のどのピクセルに対応しているかを、画像マッチングにより自車両対応点検索部105が検索する。検索した結果、P3(X3,Y3)に対応していれば、P2、P3を自車両対応点と自車両対応点検索部105が特定する。なお、ここではピクセル単位での検索を行っているが、自車両を構成する複数のピクセルを1単位として自車両対応点検索部105が検索を行っても構わない。
ここで、図8下部のグラフは、自車両対応点検索部105が行う画像マッチングの検索での、2つの点の間の画素ずれの大きさを横軸にとり、その画素ずれでのマッチングの誤差を縦軸にとっている。自車両対応点検索部105は、誤差が最小値をとる2つの点を、自車両対応点と特定する。
図10は、変形例の死角表示装置1Aを示す図である。
ここで、死角表示装置1の変形例を説明する。図10は全周囲画像保持部701、全周囲差分画像生成部702を追加した場合の死角表示装置1(以下、死角表示装置1A)の構成を示すブロック図である。自車両が映っていないときの全周囲画像を保持する全周囲画像保持部701と、全周囲画像保持部701が保持する全周囲画像と全周囲画像生成部100が生成した全周囲画像との差分画像を生成する全周囲差分画像生成部702とを有する構成の、この死角表示装置1Aであれば、自車両の画像マッチングによる検索をする必要はなく、差分画像が背景差分法により抽出された自車両対応点と等価となる。
なお、全周囲画像保持部701及び全周囲差分画像生成部702は、例えば、選択部101と同様に、図3に示されたインフラストラクチャコンピュータ101cによって実現されるものとしてもよい。
図11は、自車両位置座標算出部106(図1)の処理を示す図である。
変形例の説明を終わって、次に、図1における自車両位置座標算出部106は、自車両対応点検索部105で求めた自車両対応点のピクセル位置のずれ量から、自車両の3次元位置座標を計算する。3次元位置座標の要素のうち、自車両301から見て水平方向をX座標軸、垂直方向をY座標軸、奥行き方向をZ座標軸と定義する。図11は、十字交差点での死角表示装置において、複数の全周囲画像生成部のうち選択部101は801と802を全周囲画像生成部として選択し、全周囲画像803、804を自車両対応点検索部105が使用して、自車両対応点に対応する自車両301の3次元位置座標を算出する過程を説明する図である。2つの全周囲画像生成部間の距離Bx、全周囲画像の中心と自車両対応点を結ぶ線分が、2つの全周囲画像生成部間を結ぶ線分となす角度をα1、β1とすると、全周囲画像生成部からの相対的な奥行き距離D1は、
D1=Bx*tan(α1)*tan(β1)/(tan(α1)+tan(β1))
で算出することができ、D1は自車両対応点に対応する自車両のZ座標(奥行き距離)となる。死角領域対応点に対応する対象物のX座標は、
D1/tan(α1)
で算出することができる。さらにY座標は、全周囲画像の中心から死角領域対応点までの画像上の距離から算出することが可能であり、死角領域対応点を透視投影変換して得られた変換後座標のY座標に等しくなる。
同様に、選択部101が801と805を全周囲画像生成部として選択し、自車両対応点検索部105が全周囲画像803、806を使用し、自車両対応点に対応する自車両の3次元位置座標を算出する場合には、2つの全周囲画像生成部間の距離Bx、By、全周囲画像の中心と自車両対応点を結ぶ線分が2つの全周囲画像生成部間を結ぶ線分となす角度をα1、γ1とすると、全周囲画像生成部からの相対的な奥行き距離D1は、
D1=Bx−By*tan(α1)/(tan(α1)+tan(γ1))
で算出することができ、D1は自車両対応点に対応する自車両のZ座標(奥行き距離)となる。死角領域対応点に対応する対象物のX座標は、
D1/tan(α1)
で算出することができる。
このように算出した自車両の3次元位置をそのまま利用するだけでなく、GPSなどの位置取得センサや加速度センサなどにより、精度の低い位置情報を、自車両位置座標算出部106は補正してもよい。すなわち、自車両位置座標算出部106は、この補正をするために、これらのセンサより取得される情報を用いても構わない。このように、他のセンサによる情報に基づいた補正の技術と組み合わせることで、ある程度の精度が保証された自車両位置座標を求めることができる。
自車両視点座標変換部107は、自車両位置座標算出部106で求めた自車両の3次元位置座標をもとに、死角領域位置座標算出部104で求めた死角領域内の対象物の3次元位置座標をディスプレイ座標に変換する。対象物の3次元位置座標を2次元のディスプレイ座標に変換するためには、カメラ変換、射影変換、ビューポート変換の処理を、2次元のディスプレイ座標に変換する処理に適用する必要がある。
なお、ここで、カメラ変換は、視点である自車両301の3次元位置座標、視線対象の3次元位置座標、視点の傾きをもとに作られたカメラ変換行列を、対象物の3次元位置座標に掛け合わせることで行う。また、射影変換は、視点である自車両301から見た視野の広さ(水平視野角)、アスペクト比、座標変換対象となる奥行き範囲をもとに作られた射影変換行列を、カメラ変換後の3次元位置座標に掛け合わせることで行う。また、ビューポート変換は、表示するディスプレイのサイズをもとに作られたビューポート行列を、射影変換後の3次元位置座標に掛け合わせることで行う。なお、3次元グラフィックスの汎用的なAPIであるOpenGL(OpenGLES)1.0以降では、カメラ変換、射影変換、ビューポート変換をそれぞれgluLookAt、glFrustum、glViewportというAPIでサポートしている。自車両視点座標変換部107の機能は、例えば、このOpenGLのAPIを用いて実現されてもよい。
図21は、死角領域が圧縮される例を示す図である。
また、自車両視点座標変換部107(図1)は、全周囲画像格納部102が、全周囲画像全体ではなく死角領域ごとの分割領域(後述する図14の交差点死角領域1110、交差点死角領域1111を参照)を保持している場合において、死角領域内の対象物の3次元位置座標を実際の水平視野角よりも広い水平視野角でディスプレイ座標に変換し広範囲の死角領域を圧縮するようにディスプレイ座標への変換を行っても構わない。図21は、上記射影行列で使用する水平視野角に応じて死角領域の範囲が変わる様子を表すものである。交差点1700において自車両から見える実景色1701では、壁の向こうが死角となってしまう。自車両から見たときの実際の水平視野角と同じ角度1702を射影行列に自車両視点座標変換部107が設定し、本発明を適用した場合には、本来あるべき範囲の死角領域が座標変換対象となり、画像1703を生成し、生成された画像1703と実景色1701との重畳表示により、自車両からは重畳表示画像1704のように見える。重畳表示画像1704では、本来の範囲の死角領域が表示される。一方で、自車両301から見たときの実際の水平視野角の角度1702よりも大きい角度1705を射影行列に設定した場合には、本来あるべき範囲よりも広範囲の領域を、同じ表示サイズにマッピングすることになる。これにより、水平方向に圧縮されるかのごとく座標変換され、画像1706を生成して、生成された画像1706と実景色1701との重畳表示により、自車両301からは重畳表示画像1707のように自車両301の運転者に見える。3次元モデルである死角領域だけ圧縮されて、自車両301から見た実景色よりも縮小されて、表示が広範囲にされるものとなされて、結果としてより広範囲の死角領域の安全性を確認できる。
そして、図21においては、交差点1700における大きい角度1705の範囲には、人物1700a及び車1700bが含まれているが、交差点1700における小さい角度1702の範囲には人物1700aだけが含まれ、車1700bは含まれないものとなっている場合について示している。このため、大きい角度1705が設定された場合における図21右の画像1706、重畳表示画像1707(画像1707)には、人物1700aに対応する画像と車1700bに対応する画像との両者が含まれる一方で、小さい角度1702が設定された場合における、図21左の画像1703、1704には、人物1700aに対応する画像は含まれるが、車1700bに対応する画像は含まれない。こうして、図21右の画像1706では、死角領域だけ圧縮された表示がされて、人物1700a、車1700bの両者が表示され、死角領域の十分広い範囲が表示される。
表示部108は、座標変換後の奥行き値に応じてディスプレイ座標に死角領域対応点のピクセル色を割り付ける。座標変換後のディスプレイ座標(X,Y)が一致する場合、死角領域に存在する対象物を、自車両301の視点から見たときには、同じ方向に見えていることを意味する。そのため、奥行き値が最も小さくなる、すなわち自車両301から、最も近い対象物の色を割り付けることで、自然な自車両視点の死角領域画像を生成することができる。
図17〜図18は、実施の形態1における自車両301(図3等)を運転する運転者から見たときの表示イメージを示す図である。
通常表示では、図17のようになっており、走行中の道路の壁1400に遮られ死角ができてしまう。実施の形態1における運転者から見たときの表示は、図18のようになり、表示画面範囲1402内においては本来死角になって見えない歩行者1403や車両1404を違和感なく見ることができる。
ここで、ディスプレイは、光学シースルーHMD等でもよいし、ビデオシースルーHMDや不透明ディスプレイであってもよい。
ここで、図17〜図18は、一例として、ディスプレイが、光学シースルーHMDである場合を例示している。表示するディスプレイ108aが、光学シースルーHMDなどのように実風景が透けているものの場合には、ユーザは、実風景が見える。この場合、表示部108は、死角にある対象物である歩行者1403や車両1404を、ディスプレイ108aに表示させることによって、ユーザが見る実風景である走行中の道路の壁1400等(図17参照)に、表示させるそれら歩行者1403や車両1404を重畳表示させる。
次に、ディスプレイがビデオシースルーHMDや不透明ディスプレイの場合における変形例を説明する。
図12は、変形例の死角表示装置1Bを示す図である。
上述した図17〜図18における、表示するディスプレイ108aが、光学シースルーHMDなどのように実風景が透けている場合には、ピクセル色をそのままディスプレイに表示すればよいが、ディスプレイがビデオシースルーHMDや不透明ディスプレイの場合、ピクセル色をそのまま表示すると実風景が見えなくなる。図12は自車両視点画像生成部909を追加した場合の死角表示装置1(以下、死角表示装置1Bと呼ぶ)の構成を示すブロック図である。図12のように、実施の形態1の構成に自車両視点からの映像を撮影する自車両視点画像生成部909を加えたときに、表示部908が、ディスプレイ座標に割り付ける死角領域対応点のピクセル色と、自車両視点画像生成部909が生成する画像内の前記ディスプレイ座標に対応するピクセル色とを半透過合成してディスプレイ上に表示するようにしても構わない。自車両301に設置した前方を撮影するカメラが自車両視点画像生成部909の一例である。すなわち、自車両から前方を撮影した通常のカメラ映像に、座標変換で生成した死角領域の対象物のピクセル色を半透明合成することにより、死角を構成する交差点の状況と死角で見えない領域の状況とを一目で直感的に把握することができる。
図23は、ビデオシースルーHMDや、不透明ディスプレイであるディスプレイ108Faが表示した表示画面1402Fを示す図である。この場合、表示部108は、死角にある対象物である歩行者1403Fや車両1404Fをディスプレイ108Faに表示させると共に、自車両視点画像生成部909(図17〜図18)により撮影された自車両視点からの映像もディスプレイ108Faに表示させる。図23では、そのような、表示部108が表示させる自車両視点画像生成部909の映像の一部である壁1400F、画像生成部1401Fを図示している。表示部108は、こうして、死角にある対象物である歩行者1403Fや車両1404Fと共に、自車両視点画像生成部909により撮影された壁1400F等もディスプレイ108Faに表示させる。これにより、確実に正しく、表示される歩行者1403F等の対象物を運転者が把握でき、より高い安全性を実現することができる。
なお、不透明ディスプレイとしては、自車両301のフロントガラス上に表示をするものを用いてもよい。
また、実施の形態1に自車両視点画像生成部909を加えた構成の場合(図12の場合)には、表示部908は自車両301と交差点との距離に応じて死角領域の透過度を変化させても構わない。すなわち、例えば、全周囲画像に映り込んだ自車両301の画像内での位置と領域を検索し、死角領域対応点のディスプレイ座標に割り付けるピクセル色と、自車両視点画像生成部909が生成した画像内の前記ディスプレイ座標に対応するピクセル色とを半透過する際の透過度を、自車両の領域の大きさに応じて変えてもよい。さらに、実施の形態1に自車両視点画像生成部909を加えた構成の場合には、表示部908は、他車両、歩行者と交差点の距離に応じて死角領域の透過度を変化させても構わない。すなわち、全周囲画像に映り込んだ自車両以外の車両、歩行者等の画像内での位置と領域を検索し、死角領域対応点のディスプレイ座標に割り付けるピクセル色と自車両視点画像生成部909が生成した画像内の前記ディスプレイ座標に対応するピクセル色とを半透過する際の透過度を自車両以外の車両、歩行者等の大きさに応じて変えても構わない。
図24は、死角表示装置1が行う処理の流れを示すフローチャートである。死角表示装置1は、このフローチャートにより各工程が示される死角表示方法を実行する。また、死角表示装置1の全周囲画像生成部100や選択部101などの各部は、このフローチャートにより示される流れの順序で働く。図24のフローチャートを参照して、各機能が働く順序、各機能の間の関係を詳しく説明する。
ステップS1では、複数の全周囲画像生成部100が、互いに異なる位置から全周囲画像201を撮像する。
ステップS2では、選択部101が、ステップS1で各全周囲画像生成部100により撮像された全周囲画像201のうちから、車両側1bに利用させる全周囲画像201を選択し、換言すれば、利用をさせる全周囲画像201の全周囲画像生成部100を選択する。ここで、選択部101は、複数の全周囲画像201を選択し、したがって複数の全周囲画像生成部100を選択する。
ステップS3では、全周囲画像格納部102が、ステップS2で選択部101により選択された複数の全周囲画像201を選択部101から取得し、取得した複数の全周囲画像201を格納する。
ステップS4及びステップS5では、死角領域モデル生成部109が、ステップS2で全周囲画像格納部102に格納された全周囲画像201に基づいて、交差点の死角領域にある対象物の3次元座標位置を計算する。ここで、死角領域モデル生成部109は、複数の全周囲画像201のなかに、その対象物が映り込んだ各映り込み画像に基づいて、その対象物の3次元座標位置を計算する。
ステップS4では、死角領域モデル生成部109における死角領域対応点検索部103が、全周囲画像201のうちの、死角領域対応点を特定する(図4、図5参照)。
ステップS5では、死角領域モデル生成部109における死角領域位置座標算出部104が、先にステップS4で死角領域対応点検索部103により特定された死角領域対応点に基づいて、その死角領域対応点を有する対象物の3次元位置座標を計算する(図6、図7参照)。
つまり、死角領域モデル生成部109は、死角領域対応点検索部103により死角領域対応点を特定すると共に(ステップS4)、特定された死角領域対応点に基づいて対象物の3次元位置座標を、死角領域位置座標算出部104により計算する(ステップS5)。
ステップS6、ステップS7では、自車両モデル生成部110が、全周囲画像格納部102に格納された複数の全周囲画像201に基づいて、自車両301の3次元座標位置を計算する。ここで、自車両モデル生成部110は、自車両301が複数の全周囲画像201に映り込んだ各映り込み画像に基づいて、この計算を行う。
ステップS6では、自車両モデル生成部110における自車両対応点検索部105が、全周囲画像201のうちの、自車両対応点を特定する(図8、図9参照)。
ステップS7では、自車両モデル生成部110における自車両位置座標算出部106が、先にステップS6で自車両対応点検索部105により特定された自車両対応点に基づいて、自車両の3次元座標位置を計算する(図11参照)。
つまり、自車両モデル生成部110は、自車両対応点検索部105により、自車両対応点を特定すると共に(ステップS6)、自車両位置座標算出部106により、特定された自車両対応点に基いた自車両301の3次元座標位置を計算する。
なお、これら、ステップS6およびステップS7の処理が実行される実行順序は、図24に図示される順序でなくともよい。すなわち、ステップS6およびステップS7の実行順序は、例えば、ステップS4およびステップS5の実行順序の後でなくてもよく、ステップS4およびステップS5の実行順序の前、つまり、ステップS3とステップS4との間における実行順序で実行されてもよい。また、ステップS6およびステップS7の処理の一部又は全部は、ステップS4およびステップS5の処理の一部又は全部に対して、同時に行われてもよい。例えば、ステップS6およびステップS7の処理の一部等は、ステップS4およびステップS5の処理の一部等に対して並列に行われたり、並行に行われたりしてもよい。
ステップS8では、自車両視点座標変換部107が、先にステップS5で死角領域モデル生成部109により計算された対象物の3次元座標位置を、ステップS7で自車両位置座標算出部106により算出された自車両301の3次元座標位置からその対象物の3次元座標位置を見た際におけるディスプレイ座標に変換する。ここで、変換されたディスプレイ座標は、具体的には、自車両301の3次元座標位置からの相対的な座標により、対象物の3次元座標位置を特定する相対座標である。
ステップS9では、表示部108が、死角領域にある対象物の表示を行い、先にステップS8で自車両視点座標変換部107がした変換により生成されたディスプレイ座標を用いて図17〜図18(ないし図23)の表示を行う。
こうして、自車両301に設けられて、自車両301からは見えない死角の情報を表示する死角表示装置1であって、互いに異なる3次元座標位置から撮像された複数の全周囲画像201(図2)を格納する全周囲画像格納部102と、複数の全周囲画像に映り込んでいる、死角にある対象物の各映り込み画像(図4の全周囲画像402、403に映り込んだ対象物401の各映り込み画像、及び、図6における全周囲画像503、504に映り込んだ対象物507(図6)の各映り込み画像を参照)に基づいて、当該対象物の3次元座標位置を計算する死角領域モデル生成部109(図1、図19)と、複数の全周囲画像に映り込んでいる、自車両301の各映り込み画像(図8の全周囲画像602、603に映り込んだ、自車両301の各映り込み画像、及び、図11における全周囲画像803、804、806に映り込んだ自車両301の各映り込み画像参照)に基づいて、自車両301の3次元座標位置を計算する自車両モデル生成部110と、死角領域モデル生成部109により計算された前記対象物の位置を、自車両モデル生成部110により計算された自車両301の位置に対する相対的なディスプレイ座標に変換する自車両視点座標変換部107と、前記対象物を示す情報を前記ディスプレイ座標を用いて表示する表示部108とを備える死角表示装置1が実現できる。
以上のように、本発明の実施の形態1による死角表示装置1によれば、本来ドライバから見えない交差点死角領域を2つの全周囲画像生成部で生成した全周囲画像からドライバから見たような画像に3次元変換するとともに、当該全周囲画像を使ってGPSよりも高精度のドライバ視点位置を算出することにより、交差点の死角領域の状況をドライバ視点から違和感なく見ることができる。
なお、この死角表示装置1によれば、死角にある対象物の3次元位置座標が計算されるもととなる全周囲画像201に基づいて、自車両301の3次元座標位置も計算され、全周囲画像201を複数の計算に併用する簡単な構成にできる。これにより、簡単な構成で、高精度のドライバ視点位置を算出でき、ひいては、交差点の死角領域の状況を簡単な構成でドライバ視点から違和感なく見ることができる。
(実施の形態2)
図13は、本発明の実施の形態2による死角表示装置1Cの構成を示すブロック図である。死角表示装置1Cは、全周囲画像を取得する全周囲画像生成部100が異なる3次元位置座標に複数設置された交差点において、交差点側1Caは選択部1001を備え、各車両側1Cbは全周囲画像格納部102、死角領域対応点検索部1003、左側死角領域対応点検索部1004、右側死角領域対応点検索部1005、死角領域位置座標算出部104、自車両対応点検索部105、自車両位置座標算出部106、自車両視点座標変換部107、表示部108をそれぞれ備える。なお、このうち、全周囲画像生成部100、全周囲画像格納部102、死角領域位置座標算出部104、自車両対応点検索部105、自車両位置座標算出部106、自車両視点座標変換部107、表示部108は、実施の形態1の振る舞いと同等である。
死角領域対応点検索部1003の構成要素である左側死角領域対応点検索部1004は、全周囲画像格納部102にある2つの全周囲画像あるいは全周囲画像の一部領域に対して自車両301の進行方向に対して左側の死角領域内の同一対象点を検索し、画像上の死角領域対応点とする。
死角領域対応点検索部1003の構成要素である右側死角領域対応点検索部1005は、全周囲画像格納部102にある2つの全周囲画像あるいは全周囲画像の一部領域に対して自車両301の進行方向に対して右側の死角領域内の同一対象点を検索し、画像上の死角領域対応点とする。
選択部1001は、交差点に複数設置された全周囲画像生成部のうちで、交差点に進入する自車両301からは見えない死角領域と自車両301とが同時に映り込むような位置にある全周囲画像生成部を2つ選択し2つの全周囲画像あるいは全周囲画像の一部領域を全周囲画像格納部102にネットワークを介して転送する。
なお、左側死角領域対応点検索部1004、右側死角領域対応点検索部1005、自車両対応点検索部105で使用する2つの全周囲画像は、他方の全周囲画像の2つの全周囲画像とは異なる2つの全周囲画像であっても構わない。
図14は、図13に示した選択部1001を説明する図である。
左側死角領域対応点検索部1004(図13)には、全周囲画像生成部1102、1104を選択して、全周囲画像1106、1108を全周囲画像格納部102(図13)から取得し、右側死角領域対応点検索部1005は、全周囲画像生成部1103、1105を選択して、全周囲画像1107、1109を全周囲画像格納部102から取得し、自車両対応点検索部105は、全周囲画像生成部1102、1103を選択し、全周囲画像1106、1107を全周囲画像格納部102から取得しても構わない。
また、自車両301から、死角となる領域(交差点死角領域1110、交差点死角領域1111)が交差点中心から離れている場合、例えば自車両301から見て左側に位置する交差点死角領域1110の対応点検索における精度は、その死角領域により近い全周囲画像生成部1102、1104を選択する方が、全周囲画像生成部1102、1103を選択するよりも高くなり、最終的により歪みの少ない画像を生成できる。これは、全周囲画像生成部1104の方が、全周囲画像生成部1103より左側に位置する死角領域が大きく映り込んでいるためである。同様に、自車両301から見て右側に位置する交差点死角領域1111の対応点検索の精度も、全周囲画像生成部1103、1105を選択するのが最も高くなる。すなわち、選択部1001が、交差点から距離が離れている左側の死角領域に関する左側死角領域対応点検索部1004には自車両の進行方向Aに対して左側に存在する2つの全周囲画像生成部を選択し、交差点から距離が離れている右側の死角領域に関する右側死角領域対応点検索部1005には自車両の進行方向Aに対して右側に存在する2つの全周囲画像生成部を選択しても構わない。
以上のように、本発明の実施の形態2による死角表示装置1Cによれば、本来ドライバから見えない交差点死角領域のうち自車両の進行方向Aに対して左側の交差点死角領域と右側の交差点死角領域をそれぞれ異なる2つの全周囲画像を用いてドライバ視点画像に3次元変換するとともに、当該全周囲画像を使ってGPSよりも高精度のドライバ視点位置を算出することにより、歪みの少ないドライバ視点画像を生成することができ、交差点の死角領域の状況をドライバ視点から違和感なく見ることができる。
なお、このような、死角表示装置1Cであれば、より歪みの少ない全周囲画像が車両側1Cbに利用されるようにできる。
なお、左側に位置する交差点死角領域1110は、自車両301が交差点を左折した場所の死角領域である。また、右側に位置する交差点死角領域1111は、自車両301が交差点を右折した場所にある死角領域である。
(実施の形態3)
図15は、本発明の実施の形態3による死角表示装置1Dの構成を示すブロック図である。死角表示装置1Dは、全周囲画像を取得する全周囲画像生成部100が異なる3次元位置座標に複数設置された交差点において、交差点側1Daは全周囲画像保持部1201、全周囲差分画像生成部1202、選択部1203を備え、各車両側1Dbは、全周囲画像格納部102、死角領域対応点検索部1205、左側死角領域対応点検索部1206、右側死角領域対応点検索部1207、死角領域位置座標算出部104、自車両対応点検索部105、自車両位置座標算出部106、自車両視点座標変換部107、表示部108を各々備える。このうち、全周囲画像生成部100、全周囲画像格納部102、死角領域位置座標算出部104、自車両対応点検索部105、自車両位置座標算出部106、自車両視点座標変換部107、表示部108は実施の形態1の振る舞いと同等である。
全周囲画像保持部1201は、全周囲画像生成部100が生成した全周囲画像を保持する。全周囲画像保持部1201は、保持するタイミングに関しては特に制限を持たない。つまり、全周囲画像生成部100が全周囲画像を生成するたびに更新するのか、本発明の死角表示装置1Dの設置時にだけ更新するのかは問わない。
全周囲差分画像生成部1202は、全周囲画像保持部1201が保持する全周囲画像と、全周囲画像生成部100が生成する全周囲画像との差分画像を生成する。全周囲画像保持部1201に移動体などが映り込んでいない状態の全周囲画像が保持されているとすれば、当該差分画像により移動体の存在及び移動体の移動速度を検出することができる。
選択部1203は、全周囲差分画像生成部1202が生成した差分画像から自車両301以外の車両や歩行者といった移動体を検出し、検出結果に基づいて実施の形態1のように選択した2つの全周囲画像もしくは複数の全周囲画像の一部領域を全周囲画像格納部102に転送するか否かを決定する。例えば、自車両301以外の移動体を検出した場合のみ転送するようにしても構わない。また、自車両301以外の移動体を検出し、かつ当該移動体がある一定以上の速度で移動している場合のみ転送するようにしても構わない。また、自車両301以外の移動体を検出した場合、当該移動体が交差点に向かって進入してくる方向に関する交差点死角領域(図14の交差点死角領域1110、交差点死角領域1111)を判定し、自車両301の進行方向に対して左側から進入してくるのであれば左側死角領域対応点検索部1206及び自車両対応点検索部105だけが全周囲画像格納部102から取得するようにし、自車両301の進行方向に対して右側から進入してくるのであれば右側死角領域対応点検索部1207及び自車両対応点検索部105だけが全周囲画像格納部102から取得するようにしても構わない。
以上のように、本発明の実施の形態3による死角表示装置1Dによれば、自車両301以外の移動体を検出するための差分画像を用いることで、交差点付近に移動体が存在していたり交差点に移動体が高速に進入してくるなどの危険な状況の場合のみ、本来ドライバからは見えない交差点死角領域を2つの全周囲画像を用いてドライバ視点画像に3次元変換するとともに当該全周囲画像を使ってGPSよりも高精度のドライバ視点位置を算出することにより、交差点の死角領域の状況をドライバ視点から違和感なく見ることができ、危険状況をドライバに直感的に知らせることができる。
(実施の形態4)
図16は、本発明の実施の形態4による死角表示装置1Eの構成を示すブロック図である。死角表示装置1Eは、全周囲画像を取得する全周囲画像生成部1300が異なる3次元位置座標に複数設置された交差点において、各車両側1Ebはそれぞれ、全周囲画像格納部1301、選択部1302、死角領域対応点検索部1303、死角領域位置座標算出部104、自車両対応点検索部1305、自車両位置座標算出部106、自車両視点座標変換部107、表示部108を備える(図20参照)。このうち、死角領域位置座標算出部104、自車両位置座標算出部106、自車両視点座標変換部107、表示部108は、実施の形態1の振る舞いと同等である。
全周囲画像生成部1300は、設置された3次元位置座標を中心とする全周囲画像を生成し、ネットワークを介し、全周囲画像格納部1301へ転送する。
全周囲画像格納部1301は、ネットワークを介し送られてきた全周囲画像を格納し、必要に応じて選択部1302に転送する。
選択部1302は、交差点に複数設置された全周囲画像生成部1300のうち、交差点に進入する自車両301からは見えない死角領域と自車両301とが同時に映り込むような位置にある全周囲画像生成部を2つ選択し、死角領域対応点検索部1303と自車両対応点検索部1305へ転送する。
死角領域対応点検索部1303は、選択部1302で選択した2つの全周囲画像生成部1300が生成した全周囲画像に映り込んでいる死角領域内の同一対象物を検索し、画像上の死角領域対応点とする。
自車両対応点検索部1305は、選択部1302で選択した2つの全周囲画像生成部1300が生成した全周囲画像に映り込んでいる自車両301を検索し、画像上の自車両対応点とする。
以上のように、本発明の実施の形態4による死角表示装置1Eによれば、本来ドライバから見えない交差点死角領域を3次元生成する際にどの全周囲画像から計算するかを車両側1Ebに持たせることにより、インフラ側である交差点側に設置する装置のコストを低減することができる。言うまでもないことだが、実施の形態2、3の構成と組み合わせることは可能である。
なお、次のような形態をとってもよい。そして、上述した各実施の形態は、それぞれ、以下で示す他の形態の一部又は全部を付け加えてもよい。
(A)共通領域が撮像された部分が少なくとも一部に含まれ、当該共通領域の少なくとも一部には道路がある、複数の画像生成部により互いに異なる位置から撮像された複数の撮像画像を取得する全周囲画像格納部と、
前記複数の撮像画像に、当該死角表示装置が設けられた自車両が映り込んだ各映り込み画像(図8のピクセルP2、ピクセルP3)をそれぞれ特定する自車両映り込み画像特定部と、
前記複数の撮像画像に、当該自車両からは見えない死角にある対象物が映り込んだ各映り込み画像(図6の死角領域対応点505及び死角領域対応点506、図4のピクセルP0及びピクセルP1参照)をそれぞれ特定する対象物映り込み画像特定部と、
当該複数の撮像画像に映り込んだ映り込み物の位置を、当該映り込み物が当該複数の撮像画像に映り込んだ各映り込み画像に基づいて特定する位置特定部と、
前記自車両映り込み画像特定部により特定された、自車両の前記各映り込み画像に基づいて、前記位置特定部を用いて、当該自車両の位置を計算する自車両モデル生成部と、
前記対象物映り込み画像特定部により特定された、前記対象物の各映り込み画像に基づいて、前記位置特定部を用いて、当該対象物の位置を計算する死角領域モデル生成部と、
前記死角領域モデル生成部により計算された前記対象物の位置を、前記自車両モデル生成部により計算された前記自車両の位置に対する相対的なディスプレイ座標に変換する自車両視点座標変換部と、
前記対象物を示す情報を前記ディスプレイ座標を用いて表示する表示部とを備える死角表示装置、の形態をとってもよい。
なお、自車両映り込み画像特定部は、自車両モデル生成部(上述した各実施の形態における各自車両モデル生成部110等)が備えてもよい。また、対象物映り込み画像特定部は、死角領域モデル生成部(上述した各実施の形態における死角領域モデル生成部109等)が備えるものとしてもよい。また、位置特定部は、自車両モデル生成部が備える、自車両の位置を特定するための第1の位置特定部と、死角領域モデル生成部が備える、対象物の位置を特定するための第2の位置特定部とが含まれるものとしてもよい。
自車両から見えない死角は、例えば、より具体的には、自車両にいるユーザ(運転者)から見えない死角である。
(B)前記自車両映り込み画像特定部は、
自車両の外観を記憶する自車両外観記憶部と、
当該自車両外観記憶部に記憶された前記外観が撮像画像に現れる領域の画像を、前記自車両の映り込み画像として特定する特定部とを備えるものとしてもよい。
また、前記自車両映り込み画像特定部は、
自車両がある位置が含まれる範囲と、当該範囲に対応する撮像画像の領域とを対応付ける対応関係を記憶する記憶部と、
当該自車両が有するGPS装置から、前記位置特定部により特定される位置よりも大まかに当該自車両の位置を特定することにより、自車両がある位置が含まれる範囲を特定する範囲情報を取得する範囲情報取得部と、
前記範囲情報取得部により取得された範囲情報が特定する範囲に前記対応関係が対応付ける撮像画像の領域の画像(又は当該画像の予め定められた部分)を、前記自車両の画像として特定する特定部とを備えるものとしてもよい。
(C)前記対象物映り込み画像特定部は、前記撮像画像のうちで前記自車両映り込み画像特定部により特定された自車両の映り込み画像の内容と、当該自車両の映り込み画像以外の当該撮像画像の内容とを画像解析して、例えば当該自車両から当該死角を見えなくする障害物の映り込み画像を特定してもよい。そして、前記対象物映り込み画像特定部は、特定された当該障害物の映り込み画像と、自車両の映り込み画像とに対応する死角の映り込み画像を特定し、特定される当該死角の映り込み画像に含まれる映り込み物の映り込み画像を特定して、当該撮像画像に映り込んだ前記対象物の映り込み画像を特定するものとしてもよい。
(D)前記対象物映り込み画像特定部は、自車両の位置と、当該位置の自車両から見た死角が撮像画像に映り込む領域とを対応付ける対応関係を記憶する記憶部を備え、前記自車両モデル生成部が前記計算で前記位置特定部に特定させるなどした、当該自車両位置特定部により特定された自車両の位置に当該対応関係が対応付ける領域にある映り込み画像を、前記対象物の映り込み画像と特定するものとしてもよい。
また、前記対象物映り込み画像特定部は、自車両の位置が含まれる範囲と、当該範囲にある自車両から見た死角が撮像画像に写り込む領域とを対応付ける対応関係を記憶する記憶部を備え、当該自車両が有するGPS装置から取得するなどした範囲情報が特定する範囲に当該対応関係が対応させる領域にある映り込み画像を、前記対象物の映り込み画像と特定するものとしてもよい。
(E)前記位置特定部は、
前記複数の撮像画像における、映り込み物が映り込んだ各映り込み画像の箇所と、当該各箇所に各映り込み画像を映り込ませた当該映り込み物の位置とを対応付ける対応関係を保持する保持部と、
前記対象物映り込み画像特定部により特定された対象物の各映り込み画像が映り込んだ各箇所に対して、前記対応関係が対応付ける位置を、当該対象物の位置として特定する処理部とを備えるものとしてもよい。
なお、撮像画像における箇所と、当該映り込み物の位置とを対応付ける前記対応関係は、例えば、映り込み物が映り込んだ前記複数の撮像画像が撮像された前記複数の画像生成部の各位置が含まれてもよい。この場合、処理部は、例えば、当該対応関係が対応付ける位置を特定することによって、それらの各位置から撮像画像が撮像された場合に、当該各箇所に映り込み画像を写り込ませる位置を、当該各映り込み画像を映り込ませた映り込み物の位置と特定するものとしてもよい。前記対応関係は、各画像生成部により撮像画像が撮像された各撮像方向が含まれてもよいし、複数の画像生成部の位置の間の相対的な位置関係が含まれるものとしてもよいし、前述した各撮像方向の間の相対的な角度などの、相対的な関係が含まれるものとしてもよい。
(F)前記表示部は、車両視点画像生成手段により撮影された、自車両の視点からの自車両視点画像における、当該ディスプレイ座標により特定される前記対象物の箇所に、当該対象物を示す情報を加えた情報付加画像を自車両の運転者に表示するものとしてもよい。前記表示部は、この表示により、ディスプレイ座標をユーザに表示するものとしてもよい。
また、前記表示部は、例えばホログラムや光学シースルーHMDなどの実画像中描画手段を用いることによって、運転者が見る自車両の視点からの実画像のなかに、前記ディスプレイ座標が示す当該実画像における箇所において、前記対象物を示す情報を表示させるものとしてもよい。
以上(A)〜(F)で説明した他の形態における一部又は全部を上記各実施の形態に付け加えて、それぞれ、各実施の形態を実施してもよい。なお、自車両映り込み画像特定部を構成する要素のうちの一部のみを付け加えるなどしてもよく、例えば、自車両映り込み画像特定部の機能の一部のみを付け加えてもよい。
また、続けて、以下の説明が行われる。以下の説明においては、すでに上記で説明された内容については、適宜説明が省略される。
図25は、差分画像の処理をする図10の死角表示装置1A(図15の死角表示装置1D)が行う処理のフローチャートである。
先述のように、死角表示装置1Aは、複数の全周囲画像保持部701(図15における複数の全周囲画像保持部1201)と、複数の全周囲差分画像生成部702(図15における複数の全周囲差分画像生成部1202)と、選択部101とを備える。
そして、複数の全周囲画像保持部701は、それぞれ、対応する全周囲画像生成部100により撮像される全周囲画像に背景差分法の処理をするための全周囲画像を保持する。
そして、複数の全周囲差分画像生成部702は、それぞれ、対応する全周囲画像生成部100により撮像される全周囲画像と、対応する全周囲画像保持部701に保持される全周囲画像とについて、背景差分法の処理を行う。すなわち、全周囲差分画像生成部702は、撮像された全周囲画像と、全周囲画像保持部701に保持される全周囲画像との差分画像を生成する。
そして、選択部101は、複数の全周囲差分画像生成部1202により生成された各差分画像から、死角領域モデル生成部109により処理される各画像を選択する。また、選択部101は、生成された各差分画像から、自車両モデル生成部110により処理される各画像を選択する。選択部101は、選択された死角領域モデル生成部109の各画像(差分画像)と、自車両モデル生成部110の各画像を車両側1Abへと転送して、全周囲画像格納部102に格納させる。
ステップS251〜ステップS255の処理は、図24におけるステップS1〜ステップS3の処理に対応する処理である。そして、死角表示装置1Aは、図25のステップS251〜ステップS255の処理の後に、図24のステップS4〜S9の処理と同様の処理を行う。なお、この点は、図25では、詳しい図示が省略される。
ステップS251では、複数の全周囲画像生成部100がそれぞれ全周囲画像を撮像する。
ステップS252では、複数の全周囲差分画像生成部702が、それぞれ、対応する全周囲画像保持部701に保持される全周囲画像を、その全周囲画像保持部701から読み出す。
ステップS253では、複数の全周囲差分画像生成部702が、それぞれ、対応する全周囲画像生成部100によりステップS251で生成された全周囲画像と、対応する全周囲画像保持部701からステップS252で読み出された全周囲画像とから、それら2つの全周囲画像の差分画像を生成する。
ステップS254では、選択部101が、ステップS253で生成された各差分画像のうちからの画像の選択を行う。
ステップS255では、選択部101が、ステップS254で選択した各画像を車両側1Abに転送し、転送する各画像を全周囲画像格納部102に格納させる。
図26は、図12の死角表示装置1Bが行う処理のフローチャートである。
先述のように、死角表示装置1Bは、自車両視点画像生成部909と、表示部908とを備える。
そして、自車両視点画像生成部909は、自車両視点座標変換部107により変換されたディスプレイ座標(図24のステップS1〜S8参照)の位置を自車両301から見た自車両視点画像を生成する。具体的には、自車両視点画像生成部909は、例えば、自車両301の位置から、ディスプレイ座標の位置の方向を撮像するカメラである。なお、自車両視点画像生成部909は、単に、自車両301の前方を撮像するものであってもよい。つまり、自車両視点画像生成部909は、自車両301の前方にディスプレイ座標の位置が含まれる場合にのみ、自車両視点画像を撮像し、自車両301の前方にディスプレイ座標の位置が含まれない場合には、単なる前方の画像を撮像するに過ぎないものとしてもよい。
そして、表示部908は、自車両視点画像生成部909により生成された自車両視点画像における、自車両視点座標変換部107により算出された上記ディスプレイ座標の箇所に、予め定められた表示を挿入した画像を生成し、生成された画像を表示する。ここで、その箇所に挿入される上記表示は、上記ディスプレイ座標が算出された際に、死角領域対応点検索部103により対応点が特定された対象物の位置を示す。つまり、付加される表示は、その位置に、その対象物があることを示す。
図23により、自車両視点画像生成部909を有する図12の死角表示装置1Bの表示部108Fが表示させる表示画面1402Fが示される。
表示部108Fは、例えば、表示画面1402Fが表示されるディスプレイ108Faを含む。ディスプレイ108Faは、例えば、液晶ディスプレイ装置であってもよい。
表示画面1402Fは、歩行者1403F、車両1404F、壁1400Fおよび画像生成部1401Fを含む。歩行者1403Fおよび車両1404Fは、それぞれ、上記される、対象物を示す、挿入された表示である。他方、壁1400Fおよび画像生成部1401Fは、挿入された表示ではなく、予め定められた表示が挿入される前から自車両視点画像に含まれる画像である。つまり、壁1400F等は、実際にユーザにより自車両301から見られる画像と同じ内容の画像である。
ステップS261(図26)では、死角表示装置1Bは、図24のステップS1〜S8の処理を行う。これにより、死角表示装置1Bが有する自車両視点座標変換部107が、対象物のディスプレイ座標を算出する。
ステップS262では、自車両視点画像生成部909が、自車両視点画像を生成する。
ステップS263では、表示部108Fが、ステップS262で生成された自車両視点画像における、ステップS261で算出されたディスプレイ座標の箇所に、上記される、対象物の表示を挿入する。
ステップS264では、表示部108Fが、ステップS263で対象物の表示が挿入された後の画像を、ディスプレイ108Faに表示させる。
図27は、死角領域対応点検索部1003が、左側死角領域および右側死角領域に各々対応する2つの互いに異なる部分を有する図13の死角表示装置1C(図15の死角表示装置1D)の処理のフローチャートである。
先述のように、死角表示装置1Cは、選択部1001(選択部1203)と、死角領域対応点検索部1003(死角領域対応点検索部1205)とを備える。そして、死角領域対応点検索部1003は、左側死角領域対応点検索部1004(左側死角領域対応点検索部1206)と、右側死角領域対応点検索部1005(右側死角領域対応点検索部1207)とを備える。
選択部1001は、自車両301からその進行方向を見た際の、進行方向よりも左側の死角領域(図14における左側の交差点死角領域1110)の対象物の処理に適する各全周囲画像を選択し、選択された各全周囲画像を、全周囲画像格納部102に格納させる。また、選択部1001は、右側の死角領域の対象物の処理に適する各全周囲画像も選択して、全周囲画像格納部102に格納させる。
左側死角領域対応点検索部1004は、全周囲画像格納部102から、選択部1001により選択された、左側の死角(図14における右側の交差点死角領域1111)の各全周囲画像を取得する。そして、左側死角領域対応点検索部1004は、取得された、左側の死角の各全周囲画像の死角領域対応点をそれぞれ特定する。
右側死角領域対応点検索部1005は、全周囲画像格納部102から、右側の死角の各全周囲画像を取得し、取得された右側の死角の各全周囲画像の死角領域対応点をそれぞれ特定する。
死角領域対応点検索部1003は、こうして、左側死角領域対応点検索部1004および右側死角領域対応点検索部1005により、左側の死角および右側の死角の死角領域対応点を特定する。
死角領域位置座標算出部104は、特定された左側の死角および右側の死角の死角領域対応点に基づいて、処理を行う。
ステップS271(図27)と、ステップS272a及びステップS272bと、ステップS273とは、それぞれ、図24におけるステップS2と、ステップS4と、ステップS5とで行われる。死角表示装置1Cは、図27の処理を行うのに際して、図24のステップS1,ステップS3などの処理と同様の処理もそれぞれ行う。図27では、これらステップS1に対応する処理等のステップの図示は省略される。
ステップS271では、選択部1001が、先に図1のステップS1に対応する処理で撮像された各全周囲画像のうちから、左側の死角の各全周囲画像、右側の死角の各全周囲画像をそれぞれ選択し、全周囲画像格納部102に格納させる。
ステップS272aでは、左側死角領域対応点検索部1004が、ステップS271で選択された左側の死角の各全周囲画像を全周囲画像格納部102から取得する。そして、左側死角領域対応点検索部1004は、取得された左側の死角の各全周囲画像から、死角領域対応点を特定する。
ステップS272bでは、右側死角領域対応点検索部1005が、ステップS271で選択された右側の死角領域の各全周囲画像を全周囲画像格納部102から取得して、死角領域対応点を特定する。
ステップS273では、死角領域位置座標算出部104が、ステップS272aで特定された死角領域対応点、および、ステップS272bで特定された死角領域対応点から、左側の死角および右側の死角の各対象物の3次元位置座標をそれぞれ計算する。
図28は、車両側1Ebに選択部1302が設けられた図16の死角表示装置1Eの処理を示すフローチャートである。
先述の通り、死角表示装置1Eは、全周囲画像格納部1301と、選択部1302とを備える。
そして、複数の全周囲画像生成部1300は、それぞれ、撮像した全周囲画像を、車両側1Ebが備える全周囲画像格納部1301に格納させる。
そして、選択部1302は、全周囲画像格納部1301に格納された各全周囲画像のうちから、死角領域モデル生成部109に利用させる各全周囲画像を選択する。また、選択部1302は、格納された各全周囲画像から、自車両モデル生成部110に利用させる各全周囲画像を選択する。
死角領域モデル生成部109は、選択部1302により当該死角領域モデル生成部109のために選択された各全周囲画像に基づいて処理を行う。
自車両モデル生成部110も、選択部1302により当該自車両モデル生成部110のために選択された各全周囲画像に基づいて処理を行う。
ステップS281(図28)では、交差点側1Eaの複数の全周囲画像生成部1300が、それぞれ、全周囲画像を生成する(図18の左図参照)。
ステップS28A1では、複数の全周囲画像生成部1300が、それぞれ、ステップS281で生成された全周囲画像を、車両側1Ebの全周囲画像格納部1301に格納させる。
ステップS28A2では、車両側1Ebの全周囲画像格納部1301が、交差点側1Eaの複数の全周囲画像生成部1300がステップS28A1で格納させる各全周囲画像をそれぞれ、それら複数の全周囲画像生成部1300から取得する(図18の右図参照)。
ステップS282では、全周囲画像格納部1301が、ステップS28A2で取得された各全周囲画像を当該全周囲画像格納部1301に格納する。
ステップS283では、選択部1302が、ステップS282で格納された各全周囲画像からの全周囲画像の選択を行う。
ステップS28Xでは、死角表示装置1Eは、ステップS283での選択の結果に基づいて、図24のステップS4〜ステップS9の処理を行い、対象物の情報を表示する。
図29は、複数の全周囲画像から、それら複数の全周囲画像にそれぞれ映り込み画像を映り込ませた映り込み物(例えば、図5に示される、死角にある対象物401、又は自車両301)の位置が算出される処理のフローチャートである。
死角表示装置1等は、図24のステップS4およびステップS6の処理を行うのに際して、それぞれ、具体的には、例えば、図24におけるステップS291〜S294の処理を行う。
ステップS291では、当該死角表示装置は、複数の全周囲画像のそれぞれにおける、その全周囲画像に映り込んだ映り込み画像(図4(a)のピクセルP0、ピクセルP1、図6の死角領域対応点505、死角領域対応点506、図8のピクセルP2、ピクセルP3)の箇所を特定する。
なお、ここで、映り込み画像は、1つの画素よりなる画像であってもよいし、例えば正方形に含まれる複数の画素などの複数の画素によりなるものとしてもよい。そして、映り込み画像は、例えば、対象物を表す複数の画素の全てよりなるものとしてもよい。
ステップS292では、当該死角表示装置は、ステップS291で特定された、映り込み物が移り込んだ各映り込み画像の箇所の間のズレ量を算出する。
ステップS293では、当該死角表示装置は、ステップS292で算出されるズレ量と、映り込み物の位置との対応関係を特定する関係データを、予め定められた記憶装置から読み出す。
ここで、この記憶装置は、例えば、当該死角表示装置自身であってもよいし、当該死角表示装置に設けられた予め定められた記憶装置であってもよいし、他の記憶装置であってもよい。
読み出される対応関係は、例えば、複数の全周囲画像生成部(例えば図1の各全周囲画像生成部100)の位置が含まれてもよい。また、この対応関係は、例えば、図6に示される距離Bなどの他の適切なデータが含まれてもよい。
ステップS294では、当該死角表示装置は、ステップS292で算出されたズレ量に対して、ステップS293で読み出された関係データの対応関係が対応付ける位置を特定する。これにより、当該死角表示装置は、ステップS291で映り込んだ箇所が特定された映り込み物の位置を特定する。
そして、具体的には、当該死角表示装置は、この図29の処理を行うことにより、対象物の位置を算出する。また、当該死角表示装置は、具体的には、この図29の処理を行うことにより、自車両301の位置を算出する。
そして、具体的には、図29のステップS291の処理は、例えば、死角表示装置1等における死角領域対応点検索部103、および自車両対応点検索部105などにより行われる。また、図29のステップS292〜S294の処理は、例えば、死角領域位置座標算出部104、および自車両位置座標算出部106などにより行われる。
以上説明された実施形態のようにして、車両(自車両301)に設けられて、当該車両からは見えない死角の情報を表示する死角表示装置(死角表示装置1、死角表示装置1の車両側1b、死角表示装置1A等)であって、互いに異なる位置から撮像された複数の撮像画像を格納する画像格納部(例えば、全周囲画像格納部102)と、前記複数の撮像画像に映り込んでいる、対象物(死角にある対象物)の各映り込み画像に基づいて、当該各映り込み画像の箇所を特定して、特定される各箇所にそれぞれ映り込みをさせる位置を当該対象物の位置として算出する対象物モデル生成部(死角領域モデル生成部109)と、前記複数の撮像画像に映り込んでいる、前記車両の各映り込み画像に基づいて、当該各映り込み画像の箇所を特定して、特定される各箇所に映り込みをさせる位置を前記車両の位置として算出する車両モデル生成部(自車両モデル生成部110)と、前記対象物モデル生成部により計算された前記対象物の位置を、前記車両モデル生成部により計算された前記車両の位置に対する相対的なディスプレイ座標に変換する車両視点座標変換部(自車両視点座標変換部107)と、前記対象物を示す情報を前記ディスプレイ座標を用いて表示する表示部(表示部108)とを備える死角表示装置が構成される。
この死角表示装置であれば、対象物の位置の計算のための複数の撮像画像と、自車両の位置の計算のための複数の撮像画像との2組の複数の撮像画像が必須ということが回避される。すなわち、1組の撮像画像のみから、簡単に、対象物の位置と、自車両の位置とが計算される。これにより、死角表示装置の構成を簡単にできる。
しかも、この表示装置であれば、例えば役所に設置された公共の撮像装置などの、容易に利用できる撮像装置の撮像画像を利用して、死角表示装置が構成できる。このため、より容易に、死角表示装置が構成できる。
そして、この死角表示装置は、例えば、映り込み物(自車両301、対象物)の各映り込み画像の箇所と、その映り込み物が現実世界で存在する位置との対応関係を記憶する記憶部を備えてもよい。そして、対象物モデル生成部等は、特定される各箇所に対して、記憶される対応関係が対応させる位置を算出して、算出される位置を、その映り込み物の位置と特定するものであってもよい。ここで、記憶される対応関係は、例えば、複数の撮像画像が撮像された位置、方向、撮像された範囲などの情報が含まれてもよい。
そして、この死角表示装置においては、具体的には、例えば、前記対象物モデル生成部は、2つの前記全周囲画像にそれぞれ映り込んでいる、前記対象物の対応する2点(図6の死角領域対応点505及び死角領域対応点506、図4のピクセルP0及びピクセルP1参照)を検索して、検索された2点を当該2つの全周囲画像上の対象物対応点と特定する対象物対応点検索部(死角領域対応点検索部103)と(図29のステップS291参照)、対象物対応点と特定された2点のピクセル位置のずれから前記対象物の位置を計算する対象物位置座標算出部(死角領域位置座標算出部104)と(ステップS292〜S294参照)を備え、前記車両モデル生成部は、2つの前記全周囲画像にそれぞれ映り込んでいる、前記車両の対応する2点を検索して、検索された2点を当該2つの全周囲画像上の車両対応点と特定する車両対応点検索部(自車両対応点検索部105)と(ステップS291参照)、車両対応点と特定された2点のピクセル位置のずれから前記車両の位置を計算する車両位置座標算出部(自車両位置座標算出部106)と(ステップS292〜S294参照)を備えるものとしてもよい。
これにより、例えば、対象物モデル生成部および車両モデル生成部が互いに似た構成にできる。これにより、例えば、対象物モデル生成部の機能の一部を利用して、他方の車両モデル生成部の機能が構成されるなどにより、対象物モデル生成部および車両モデル生成部が簡単な構成にできる。これにより、ひいては、死角表示装置が一層簡単な構成にできる。
また、死角表示装置1等は、例えば、各映り込み画像を映り込こませた対象物が、上記死角にある対象物か否かを判断する判断部を備えてもよい。また、死角表示装置1等は、このような判断部を備えず、対象物が死角にあるか否かを判断せずに、対象物についての上記表示を行うものであってもよい。そして、表示が行われる対象物が、死角にある場合に、結果として、死角にある対象物の表示を行うことになるものであってもよい。
本発明は、主に車載ナビゲーションシステム、歩行者向けナビゲーションシステムにおける安全支援、危険通知機能として有用である。さらに、本発明は、画像処理の部分をプログラムによって実現したアプリケーションとして、あるいはハードウェアによって実現したLSIとして有用である。
1、1A、1B、1C、1D、1E 死角表示装置
1a、1Aa、1Ba、1Ca、1Da、1Ea 交差点側
1b、1Ab、1Bb、1Cb、1Db、1Eb 車両側
20 軸
100、302〜305、501、502、801、802、805、1102〜1105、1300 全周囲画像生成部
100a 標準カメラ
100b 凸型の鏡面
101、1001、1203、1302 選択部
102、1301 全周囲画像格納部
103、1003、1205、1303 死角領域対応点検索部
104 死角領域位置座標算出部
105、1305 自車両対応点検索部
106 自車両位置座標算出部
107 自車両視点座標変換部
108、108F 表示部
108a、108Fa ディスプレイ
109、1009、1209 死角領域モデル生成部
110 自車両モデル生成部
201 全周囲画像
201a 全周囲画像の左上領域四分の一
201b 全周囲画像の左下領域四分の一
201c 全周囲画像の右下領域四分の一
201d 全周囲画像の右上領域四分の一
202 透視投影画像
301 自車両
306〜309 302〜305が生成した全周囲画像
401、507 死角領域内の対象物
402、403、503、504 死角領域が映り込んだ全周囲画像
505、506 死角領域対応点
602、603、803、804、806 自車両が映り込んだ全周囲画像
701、1201 全周囲画像保持部
702、1202 全周囲差分画像生成部
909 自車両視点画像生成部
1004 左側死角領域対応点検索部
1005 右側死角領域対応点検索部
1106〜1109 1102〜1105が生成した全周囲画像
1110 交差点から遠い左側死角領域
1111 交差点から遠い右側死角領域
1206 左側死角領域対応点検索部
1207 右側死角領域対応点検索部
1400 死角を生成する道路の壁
1400F 壁
1401F 画像生成部
1402 表示画面範囲
1402F 表示画面
1403、1403F 歩行者
1404、1404F 車両
1700、2000 交差点
1701 交差点を自車両から見た場合の実景色
1702、1705 水平視野角
1703 実際と同じ水平視野角を使用した場合の生成画像
1704、1707 実景色と生成画像の重畳表示画像
1706 実際よりも広い水平視野角を使用した場合の生成画像
2000a 全周囲画像生成部の左上四分の一
2000b 全周囲画像生成部の左下四分の一
2000c 全周囲画像生成部の右下四分の一
2000d 全周囲画像生成部の右上四分の一

Claims (21)

  1. 車両の死角にある対象物を表示する死角表示装置であって、
    撮像位置が異なる複数のカメラから取得した、前記車両の死角にある対象物と前記車両とが写されている複数の全周囲画像を記憶する記憶手段と、
    前記複数の全周囲画像に写されている各対象物の座標位置のずれを用いて、前記複数のカメラのうち所定のカメラから見た前記対象物の座標位置を算出する、対象物モデル生成手段と、
    前記複数の全周囲画像に写されている各車両の座標位置のずれを用いて、前記所定のカメラから見た前記車両の座標位置を算出する、車両モデル生成手段と、
    前記算出した対象物の座標位置と前記車両の座標位置とを用いて、前記車両から見た共通の対象物を画面に表示する表示手段と、
    を備える死角表示装置。
  2. 前記車両モデル生成手段は、所定の全周囲画像に写されている車両に対応する第1の点と、前記第1の点と対応しており、前記所定の全周囲画像とは異なる全周囲画像に写されている車両に対応する第2の点と、の位置のずれから、前記所定のカメラから見た前記車両の座標位置を算出する、
    ことを特徴とする請求項1記載の死角表示装置。
  3. 前記対象物モデル生成手段は、所定の全周囲画像に写されている対象物に対応する第1の点と、前記第1の点と対応しており、前記所定の全周囲画像とは異なる全周囲画像に写されている対象物に対応する第2の点と、の位置のずれから、前記所定のカメラから見た前記対象物の座標位置を算出し、
    前記複数の全周囲画像は、1つの交差点の近傍の互いに異なる位置に設置された前記複数のカメラによりそれぞれ撮像された複数の撮像画像であり、
    それぞれの全周囲画像は、その全周囲画像が撮像された前記カメラが設置された位置を中心とした全周囲画像であり、
    前記複数の全周囲画像のうちから、前記車両及び前記対象物が撮像された2つの全周囲画像を選択し、前記対象物モデル生成手段及び前記車両モデル生成手段に利用させる選択手段をさらに備える
    ことを特徴とする請求項2記載の死角表示装置。
  4. 前記表示手段は、前記対象物モデル生成手段により算出された前記対象物の座標位置までの、前記車両モデル生成手段により算出された前記車両の座標位置からの奥行き値に対応する予め定められたピクセル色を、前記対象物の色として前記画面に表示する
    ことを特徴とする請求項1記載の死角表示装置。
  5. 前記対象物モデル生成手段は、
    前記車両の進入方向に対して左側死角領域内の前記対象物における、対応する2点を検索して、検索された2点を当該対象物の対象物対応点とする左側死角領域対応点検索手段と、
    前記車両の進入方向に対して右側死角領域内の前記対象物における、対応する2点を検索して、検索された2点を当該対象物の対象物対応点とする右側死角領域対応点検索手段とを備える
    ことを特徴とする請求項3記載の死角表示装置。
  6. 前記選択手段は、転送を行う前記全周囲画像を、前記交差点の形状に対応する予め定められた2以上の一部領域に分割して、分割した各一部領域のうちの1つの前記一部領域のみを転送する
    ことを特徴とする請求項3記載の死角表示装置。
  7. 前記選択手段は、同一の前記全周囲画像の互いに異なる前記一部領域を、前記対象物モデル生成手段及び前記車両モデル生成手段に転送し、
    前記対象物モデル生成手段は、前記選択手段が当該対象物モデル生成手段に転送する前記一部領域を用い、
    前記車両モデル生成手段は、前記選択手段が当該車両モデル生成手段に転送する前記一部領域を用いる
    ことを特徴とする請求項6記載の死角表示装置。
  8. 前記交差点は、十字交差点であり、
    前記全周囲画像のそれぞれは、当該全周囲画像が撮像された前記カメラが設置された位置を中心とする周囲の4分の1毎の場所に対応する、4つの4分の1画像領域が集まってなり、
    前記選択手段は、
    前記全周囲画像のうちで、前記交差点の右側死角領域が映り込んでいる前記4分の1画像領域を前記右側死角領域対応点検索手段のために選択し、
    前記全周囲画像のうちで、前記交差点の左側死角領域が映り込んでいる前記4分の1画像領域を前記左側死角領域対応点検索手段のために選択する
    ことを特徴とする請求項5記載の死角表示装置。
  9. 前記交差点は、十字交差点であり、
    前記全周囲画像のそれぞれは、当該全周囲画像が撮像された前記カメラが設置された位置を中心とする周囲の4分の1毎の場所に対応する、4つの4分の1画像領域が集まってなり、
    前記選択手段は、2つの前記全周囲画像のうち、一方の全周囲画像のなかで車両が映り込んでいる4分の1画像領域、及び、他方の全周囲画像のなかで車両が映り込んでいる4分の1画像領域の2つの4分の1画像領域を前記車両モデル生成手段のために選択する
    ことを特徴とする請求項3記載の死角表示装置。
  10. 前記選択手段は、全周囲画像に映り込んだ前記車両の映り込み画像を検索して、前記車両及び前記死角が撮像された各全周囲画像のうちで、検索された前記車両の映り込み画像が最も大きい全周囲画像と、2番目に大きい全周囲画像とを選択する
    ことを特徴とする請求項3記載の死角表示装置。
  11. 前記交差点は、2つの道路が十字に交差する十字交差点であり、
    前記複数の全周囲画像は、2つの前記道路が交差して作る4つの角にそれぞれ設置された4個の前記カメラによりそれぞれ撮像された4個の撮像画像であり、
    前記選択手段は、前記対象物が、前記車両が前記交差点へと進入する道路よりも当該車両から見た左側にある左側死角領域の対象物の場合には、進入する当該道路の左側にある2つの角の前記カメラを前記左側死角領域対応点検索手段のため選択すると共に、前記車両が前記交差点へと進入する前記道路よりも当該車両から見た右側にある右側死角領域の対象物の場合には、進入する当該道路の右側にある2つの角の前記カメラを前記右側死角領域対応点検索手段のため選択する
    ことを特徴とする請求項5記載の死角表示装置。
  12. 前記左側死角領域対応点検索手段は、前記選択手段に選択された2つの全周囲画像が透視投影画像に変換された2つの透視投影画像のうちで、前記左側死角領域に近い位置で撮像がされた方の全周囲画像に対応する透視投影画像を基準にして、他方の透視投影画像に対してピクセルの左から右へのマッチング処理を行い、
    前記右側死角領域対応点検索手段は、前記選択手段に選択された2つの全周囲画像が透視投影画像に変換された2つの透視投影画像のうちで、前記右側死角領域に近い位置で撮像がされた方の全周囲画像に対応する透視投影画像を基準にして、他方の透視投影画像に対して、ピクセルの右から左へマッチング処理を行う
    ことを特徴とする請求項5記載の死角表示装置。
  13. 車両視点からの画像を撮影する車両視点画像生成手段と、
    前記対象物モデル生成手段により計算された前記対象物の前記座標位置を、前記車両視点から見たディスプレイ座標に変換する車両視点座標変換手段とを備え、
    前記表示手段は、前記車両視点画像生成手段により撮影された画像を表示すると共に、表示される当該画像における当該ディスプレイ座標の箇所に、前記対象物を示す表示を行う
    ことを特徴とする請求項1記載の死角表示装置。
  14. 前記表示手段は、前記対象物を示す前記表示における各ピクセルを、それぞれ、前記車両視点画像生成手段により撮影された前記画像における当該ピクセルの位置のピクセル色に対して、前記対象物の表示の当該ピクセルのピクセル色を半透過合成した半透過合成ピクセル色によって表示する
    ことを特徴とする請求項13記載の死角表示装置。
  15. 前記車両視点座標変換手段は、前記車両視点画像生成手段により前記画像が撮影される第1視野角よりも広い予め定められた第2視野角を前記車両視点から見た各位置を、狭い前記第1視野角の位置に対応する前記ディスプレイ座標に変換し、
    前記表示手段は、狭い前記第1視野角の位置に対応するディスプレイ座標の範囲に、広い前記第2視野角の位置の前記対象物の表示を表示する
    ことを特徴とする請求項14記載の死角表示装置。
  16. 前記表示手段は、全周囲画像における前記車両の映り込み画像の大きさを特定し、特定された大きさが小さいほど、当該対象物を示す表示の透過度を高くする
    ことを特徴とする請求項14記載の死角表示装置。
  17. 前記選択手段は、1つの前記カメラにより撮像された複数の前記全周囲画像より、前記対象物の速度を特定して、特定される速度が予め定められた速度以上の場合のみ、当該各全周囲画像を前記対象物モデル生成手段及び前記車両モデル生成手段に転送する
    ことを特徴とする請求項3記載の死角表示装置。
  18. 車両の死角にある対象物を表示する死角表示方法であって、
    撮像位置が異なる複数のカメラから取得した、前記車両の死角にある対象物と前記車両とが写されている複数の全周囲画像を記憶する記憶工程と、
    前記複数の全周囲画像に写されている各対象物の座標位置のずれを用いて、前記複数のカメラのうち所定のカメラから見た前記対象物の座標位置を算出する、対象物モデル生成工程と、
    前記複数の全周囲画像に写されている各車両の座標位置のずれを用いて、前記所定のカメラから見た前記車両の座標位置を算出する、車両モデル生成工程と、
    前記算出した対象物の座標位置と前記車両の座標位置とを用いて、前記車両から見た共通の対象物を画面に表示する表示工程と、
    を含む死角表示方法。
  19. コンピュータを用いて、車両の死角にある対象物を表示させるためのコンピュータプログラムであって、
    撮像位置が異なる複数のカメラから取得した、前記車両の死角にある対象物と前記車両とが写されている複数の全周囲画像を記憶する記憶工程と、
    前記複数の全周囲画像に写されている各対象物の座標位置のずれを用いて、前記複数のカメラのうち所定のカメラから見た前記対象物の座標位置を算出する、対象物モデル生成工程と、
    前記複数の全周囲画像に写されている各車両の座標位置のずれを用いて、前記所定のカメラから見た前記車両の座標位置を算出する、車両モデル生成工程と、
    前記算出した対象物の座標位置と前記車両の座標位置とを用いて、前記車両から見た共通の対象物を画面に表示する表示工程と、
    を前記コンピュータに実行させるための、コンピュータ読み取り可能な記録媒体に記録されたコンピュータプログラム。
  20. 請求項19記載のコンピュータプログラムが記録されたコンピュータ読み取り可能な記録媒体。
  21. 前記複数の全周囲画像は、当該車両と、当該車両からは見えない死角との両方を撮像する位置にそれぞれが設けられた複数の前記カメラにより撮像された複数の撮像画像であり、
    前記対象物モデル生成手段および前記車両モデル生成手段は、それぞれ、当該死角表示装置の外部から当該死角表示装置に転送された前記複数の全周囲画像を取得し、取得された当該複数の全周囲画像を利用する
    ことを特徴とする請求項1記載の死角表示装置。
JP2010505364A 2008-03-27 2009-03-27 死角表示装置 Expired - Fee Related JP5208203B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010505364A JP5208203B2 (ja) 2008-03-27 2009-03-27 死角表示装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2008084536 2008-03-27
JP2008084536 2008-03-27
JP2010505364A JP5208203B2 (ja) 2008-03-27 2009-03-27 死角表示装置
PCT/JP2009/001392 WO2009119110A1 (ja) 2008-03-27 2009-03-27 死角表示装置

Publications (2)

Publication Number Publication Date
JPWO2009119110A1 JPWO2009119110A1 (ja) 2011-07-21
JP5208203B2 true JP5208203B2 (ja) 2013-06-12

Family

ID=41113321

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010505364A Expired - Fee Related JP5208203B2 (ja) 2008-03-27 2009-03-27 死角表示装置

Country Status (4)

Country Link
US (1) US8395490B2 (ja)
JP (1) JP5208203B2 (ja)
CN (1) CN101925930A (ja)
WO (1) WO2009119110A1 (ja)

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101334780A (zh) * 2007-06-25 2008-12-31 英特维数位科技股份有限公司 人物影像的搜寻方法、系统及存储影像元数据的记录媒体
US8525728B2 (en) * 2008-06-25 2013-09-03 Autoliv Development Ab Method of detecting object in the vicinity of a vehicle
DE102009024062A1 (de) * 2009-06-05 2010-12-09 Valeo Schalter Und Sensoren Gmbh Vorrichtung und Verfahren zur Anzeige von Objekten in einer Fahrzeugumgebung
US9479768B2 (en) * 2009-06-09 2016-10-25 Bartholomew Garibaldi Yukich Systems and methods for creating three-dimensional image media
JP5678324B2 (ja) * 2011-02-10 2015-03-04 パナソニックIpマネジメント株式会社 表示装置、コンピュータプログラム、及び表示方法
US20140195141A1 (en) * 2011-08-10 2014-07-10 Toyota Jidosha Kabushiki Kaisha Driving assistance device
KR20130084720A (ko) * 2012-01-18 2013-07-26 삼성전기주식회사 영상 처리 장치 및 방법
US9180882B1 (en) 2012-06-20 2015-11-10 Google Inc. Avoiding blind spots of other vehicles
JP5853926B2 (ja) * 2012-10-05 2016-02-09 トヨタ自動車株式会社 車両の交差点通過時のための運転支援装置
KR101896715B1 (ko) * 2012-10-31 2018-09-07 현대자동차주식회사 주변차량 위치 추적 장치 및 방법
DE102012223588A1 (de) * 2012-12-18 2014-06-18 Robert Bosch Gmbh Vorrichtung zur erweiterten Darstellung eines Umgebungsbereichs eines Fahrzeugs
CN103879351B (zh) * 2012-12-20 2016-05-11 财团法人金属工业研究发展中心 车用影像监视系统
US9064420B2 (en) * 2013-03-14 2015-06-23 Honda Motor Co., Ltd. Augmented reality heads up display (HUD) for yield to pedestrian safety cues
TWI552897B (zh) * 2013-05-17 2016-10-11 財團法人工業技術研究院 影像動態融合方法與裝置
US9639968B2 (en) * 2014-02-18 2017-05-02 Harman International Industries, Inc. Generating an augmented view of a location of interest
US9931985B1 (en) 2015-05-07 2018-04-03 Ambarella, Inc. Blind-spot monitoring using machine vision and precise FOV information
JP6444835B2 (ja) * 2015-09-07 2018-12-26 株式会社東芝 画像処理装置、画像処理プログラムおよび画像処理システム
US9888174B2 (en) * 2015-10-15 2018-02-06 Microsoft Technology Licensing, Llc Omnidirectional camera with movement detection
JP6629040B2 (ja) * 2015-10-27 2020-01-15 株式会社日立製作所 交通情報提供装置及びシステム及び方法
US10277858B2 (en) 2015-10-29 2019-04-30 Microsoft Technology Licensing, Llc Tracking object of interest in an omnidirectional video
DE102015015437A1 (de) * 2015-12-02 2017-06-08 Conti Temic Microelectronic Gmbh Steuergerät und Verfahren für ein Fahrerassistenzsystem eines Fahrzeugs
JP6657937B2 (ja) * 2015-12-25 2020-03-04 トヨタ自動車株式会社 車両用表示装置
US10328949B2 (en) * 2016-01-28 2019-06-25 Toyota Motor Engineering & Manufacturing North America, Inc. Sensor blind spot indication for vehicles
WO2017206042A1 (zh) * 2016-05-31 2017-12-07 中国科学院深圳先进技术研究院 基于智能眼镜的遮挡物透视方法及装置
JP6159455B1 (ja) * 2016-09-02 2017-07-05 株式会社コロプラ 仮想空間を提供する方法、プログラム、および記録媒体
US10496890B2 (en) 2016-10-28 2019-12-03 International Business Machines Corporation Vehicular collaboration for vehicular blind spot detection
US10552690B2 (en) * 2016-11-04 2020-02-04 X Development Llc Intuitive occluded object indicator
JP6916609B2 (ja) * 2016-11-21 2021-08-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 交差点情報配信装置及び交差点情報配信方法
US10558264B1 (en) 2016-12-21 2020-02-11 X Development Llc Multi-view display with viewer detection
CN106886759A (zh) * 2017-01-22 2017-06-23 西安科技大学 一种应用于大型卡车的去盲区安全驾驶系统及方法
US11219422B2 (en) * 2017-03-14 2022-01-11 Canon Medical Systems Corporation Image displaying system, image processing apparatus and x-ray imaging system
JP6272592B1 (ja) * 2017-05-22 2018-01-31 三菱電機株式会社 位置推定装置、位置推定方法及び位置推定プログラム
US10850732B2 (en) * 2017-09-05 2020-12-01 Aptiv Technologies Limited Automated speed control system
US10511842B2 (en) * 2017-10-06 2019-12-17 Qualcomm Incorporated System and method for foveated compression of image frames in a system on a chip
CN108454553A (zh) * 2017-12-20 2018-08-28 安徽云森物联网科技有限公司 一种基于人眼视觉识别技术实现障碍物检测技术
CN111788544A (zh) * 2018-02-19 2020-10-16 株式会社村上开明堂 操作检测装置和操作检测方法
JP7077726B2 (ja) * 2018-04-02 2022-05-31 株式会社デンソー 車両システム、空間領域推測方法及び空間領域推測装置
US10943485B2 (en) * 2018-04-03 2021-03-09 Baidu Usa Llc Perception assistant for autonomous driving vehicles (ADVs)
US11282385B2 (en) * 2018-04-24 2022-03-22 Qualcomm Incorproated System and method of object-based navigation
JP6838027B2 (ja) * 2018-10-31 2021-03-03 ファナック株式会社 ロボットシステム
JP7147527B2 (ja) * 2018-12-10 2022-10-05 トヨタ自動車株式会社 支援装置、支援方法およびプログラム
EP3876215A4 (en) * 2018-12-20 2022-07-13 OMRON Corporation DETECTION DEVICE, MOVABLE BODY SYSTEM, AND DETECTION METHOD
US10817733B2 (en) * 2019-02-13 2020-10-27 Sap Se Blind spot implementation in neural networks
US11265487B2 (en) * 2019-06-05 2022-03-01 Mediatek Inc. Camera view synthesis on head-mounted display for virtual reality and augmented reality
RU2769921C2 (ru) 2019-11-21 2022-04-08 Общество с ограниченной ответственностью "Яндекс Беспилотные Технологии" Способы и системы для автоматизированного определения присутствия объектов
JP2022053398A (ja) * 2020-09-24 2022-04-05 株式会社トプコン 情報表示システム、情報表示システムの制御方法、情報表示システムの制御プログラム
JP7552484B2 (ja) * 2021-04-08 2024-09-18 トヨタ自動車株式会社 表示制御システム、表示制御方法及びプログラム

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08306000A (ja) * 1995-04-28 1996-11-22 Suzuki Motor Corp 交差点における危険度判定方法
JP2002063596A (ja) * 2000-06-05 2002-02-28 Namco Ltd ゲームシステム、プログラム及び情報記憶媒体
JP2003319383A (ja) * 2002-04-24 2003-11-07 Equos Research Co Ltd 車載画像処理装置
JP2004056486A (ja) * 2002-07-19 2004-02-19 Auto Network Gijutsu Kenkyusho:Kk 車両周辺監視装置
JP2005094048A (ja) * 2003-08-13 2005-04-07 Topcon Corp 画像補正機能付撮影装置及び方法、並びに撮影装置及び方法
JP2005167397A (ja) * 2003-11-28 2005-06-23 Canon Inc サーバ装置及びその制御方法及び記憶媒体
JP2005250560A (ja) * 2004-03-01 2005-09-15 Mitsubishi Electric Corp 景観表示装置
WO2005088970A1 (ja) * 2004-03-11 2005-09-22 Olympus Corporation 画像生成装置、画像生成方法、および画像生成プログラム
JP2007037011A (ja) * 2005-07-29 2007-02-08 Toyota Motor Corp 画像処理装置
JP2007316856A (ja) * 2006-05-24 2007-12-06 Sumitomo Electric Ind Ltd 移動体検出装置、コンピュータプログラム及び移動体検出方法
JP2008041058A (ja) * 2006-08-10 2008-02-21 Sumitomo Electric Ind Ltd 死角移動体を報知するための報知システム、画像処理装置、車載装置及び報知方法
JP2008046744A (ja) * 2006-08-11 2008-02-28 Sumitomo Electric Ind Ltd 接近移動体表示装置、システム及び方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1179958B1 (en) * 1999-04-16 2012-08-08 Panasonic Corporation Image processing device and monitoring system
US6828969B2 (en) * 2000-06-05 2004-12-07 Namco Ltd. Game system, program and image generating method
JP2002334322A (ja) * 2001-05-10 2002-11-22 Sharp Corp 透視投影画像生成システム、透視投影画像生成方法、透視投影画像生成プログラムおよび透視投影画像生成プログラムを記憶した記憶媒体
JP4752486B2 (ja) * 2005-12-15 2011-08-17 株式会社日立製作所 撮像装置、映像信号の選択装置、運転支援装置、自動車

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08306000A (ja) * 1995-04-28 1996-11-22 Suzuki Motor Corp 交差点における危険度判定方法
JP2002063596A (ja) * 2000-06-05 2002-02-28 Namco Ltd ゲームシステム、プログラム及び情報記憶媒体
JP2003319383A (ja) * 2002-04-24 2003-11-07 Equos Research Co Ltd 車載画像処理装置
JP2004056486A (ja) * 2002-07-19 2004-02-19 Auto Network Gijutsu Kenkyusho:Kk 車両周辺監視装置
JP2005094048A (ja) * 2003-08-13 2005-04-07 Topcon Corp 画像補正機能付撮影装置及び方法、並びに撮影装置及び方法
JP2005167397A (ja) * 2003-11-28 2005-06-23 Canon Inc サーバ装置及びその制御方法及び記憶媒体
JP2005250560A (ja) * 2004-03-01 2005-09-15 Mitsubishi Electric Corp 景観表示装置
WO2005088970A1 (ja) * 2004-03-11 2005-09-22 Olympus Corporation 画像生成装置、画像生成方法、および画像生成プログラム
JP2007037011A (ja) * 2005-07-29 2007-02-08 Toyota Motor Corp 画像処理装置
JP2007316856A (ja) * 2006-05-24 2007-12-06 Sumitomo Electric Ind Ltd 移動体検出装置、コンピュータプログラム及び移動体検出方法
JP2008041058A (ja) * 2006-08-10 2008-02-21 Sumitomo Electric Ind Ltd 死角移動体を報知するための報知システム、画像処理装置、車載装置及び報知方法
JP2008046744A (ja) * 2006-08-11 2008-02-28 Sumitomo Electric Ind Ltd 接近移動体表示装置、システム及び方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CSNG200701123019; 大津寛之, 外3名: '"道路監視カメラを用いた交差点における短縮法を適用した空瞰映像の生成"' 電子情報通信学会技術研究報告 第107巻, 第115号, 20070621, p.111-116, 社団法人電子情報通信学会 *
CSNJ200710053171; 大津寛之, 外3名: '"複数の道路監視カメラを用いた交差点俯瞰映像の生成"' 電子情報通信学会2007年総合大会講演論文集 情報・システム2 , 20070307, p.171, 社団法人電子情報通信学会 *
JPN6009020275; 大津寛之, 外3名: '"道路監視カメラを用いた交差点における短縮法を適用した空瞰映像の生成"' 電子情報通信学会技術研究報告 第107巻, 第115号, 20070621, p.111-116, 社団法人電子情報通信学会 *
JPN6009020276; 大津寛之, 外3名: '"複数の道路監視カメラを用いた交差点俯瞰映像の生成"' 電子情報通信学会2007年総合大会講演論文集 情報・システム2 , 20070307, p.171, 社団法人電子情報通信学会 *

Also Published As

Publication number Publication date
US20100315215A1 (en) 2010-12-16
CN101925930A (zh) 2010-12-22
WO2009119110A1 (ja) 2009-10-01
US8395490B2 (en) 2013-03-12
JPWO2009119110A1 (ja) 2011-07-21

Similar Documents

Publication Publication Date Title
JP5208203B2 (ja) 死角表示装置
JP6311020B2 (ja) 映像合成システムとそのための映像合成装置及び映像合成方法
US9633266B2 (en) Image processing apparatus and method that synthesizes an all-round image of a vehicle's surroundings
US8000895B2 (en) Navigation and inspection system
JP5013773B2 (ja) 車載画像処理装置及びその視点変換情報生成方法
JP4248570B2 (ja) 画像処理装置並びに視界支援装置及び方法
CN104859538A (zh) 车辆图像显示系统中基于视觉的物体感测和突出显示
CN102555905B (zh) 产生车辆周围环境中至少一个物体的影像的方法和设备
KR102200299B1 (ko) 3d-vr 멀티센서 시스템 기반의 도로 시설물 관리 솔루션을 구현하는 시스템 및 그 방법
WO2002080557A1 (en) Drive supporting device
WO2005088971A1 (ja) 画像生成装置、画像生成方法、および画像生成プログラム
JP2009129001A (ja) 運転支援システム、車両、立体物領域推定方法
JP2013207637A (ja) 画像処理装置及び方法、並びにコンピュータプログラム
JP2018110328A (ja) 画像処理装置および画像処理方法
US20210327113A1 (en) Method and arrangement for producing a surroundings map of a vehicle, textured with image information, and vehicle comprising such an arrangement
JP2004265396A (ja) 映像生成システム及び映像生成方法
Kinzig et al. Real-time seamless image stitching in autonomous driving
JP2019185520A (ja) 画像処理装置および方法
WO2008082423A1 (en) Navigation and inspection system
JP2009077022A (ja) 運転支援システム及び車両
EP4310768B1 (en) Driver assistance system
CN118270035A (zh) 一种用于车辆的预警系统、预警方法及车辆

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130219

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160301

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5208203

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees