JP2004328240A - Peripheral image display equipment - Google Patents
Peripheral image display equipment Download PDFInfo
- Publication number
- JP2004328240A JP2004328240A JP2003118610A JP2003118610A JP2004328240A JP 2004328240 A JP2004328240 A JP 2004328240A JP 2003118610 A JP2003118610 A JP 2003118610A JP 2003118610 A JP2003118610 A JP 2003118610A JP 2004328240 A JP2004328240 A JP 2004328240A
- Authority
- JP
- Japan
- Prior art keywords
- slit light
- dimensional object
- display device
- image
- image display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000002093 peripheral effect Effects 0.000 title claims description 15
- 240000004050 Pentaglottis sempervirens Species 0.000 claims description 12
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 claims description 12
- 238000003384 imaging method Methods 0.000 claims description 10
- 230000001678 irradiating effect Effects 0.000 claims description 4
- 239000007787 solid Substances 0.000 abstract 4
- 238000010586 diagram Methods 0.000 description 10
- 238000000034 method Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 229910052736 halogen Inorganic materials 0.000 description 1
- 150000002367 halogens Chemical class 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、車両など移動体に搭載され、その周辺を撮影して表示手段に表示するようにした周辺画像表示装置に関する。
【0002】
【従来の技術】
例えば、自動車の後方をカメラで撮影して運転席部に設けたモニタにより後方を確認することができるようにした装置がある。これは後方が確認しにくい車両や、慣れない運転者にとってモニタに後方の画像が映し出されるのを見て確認することができるので、使い勝手に優れるものである。
【0003】
このようなものとして、例えば、図9の左側の画像で示すように、カメラにより撮影した画像をそのまま表示することに加えて、同図右側の画像で示すように、真上から見た画像つまり鳥瞰図に変換して表示させることで、自車の位置を把握しやすくしたものが提供されつつある(例えば、特許文献1〜4参照)。
【0004】
【特許文献1】
特開2002−087160号公報
【0005】
【特許文献2】
特開2002−262280号公報
【0006】
【特許文献3】
特開2002−262281号公報
【0007】
【特許文献4】
特開2002−283913号公報
【0008】
【発明が解決しようとする課題】
上記した従来技術のものでは、車両後部に取り付けたカメラにより撮影された画像を基にして真上から見た画像に変換して鳥瞰図として示すようにしたのであるが、このときカメラにより撮影された後方の画面には他の車両や障害物などの立体物が存在する。これらの立体物は、鳥瞰図に示す場合に平面上のパターンとして貼り付けられるので、図9に示したように、鳥瞰図としての画像の歪みが大きくなると共に、立体物を認識するのに自車との位置関係を見誤ってしまうこともあった。
【0009】
本発明は上記事情に鑑みてなされたものであり、その目的は、撮像手段により撮影した画像中に立体物が存在している場合に、これを立体物として推定することで、画像から使用者が立体物の把握をし易い表示を行うことができるようにした周辺画像表示装置を提供することにある。
【0010】
【課題を解決するための手段】
請求項1の発明によれば、撮像手段は、投光手段により撮影エリアにスリット光を照射したときのスリット光照射画像と未照射のときのスリット光未照射画像とを撮影し、制御手段は、両者の画像の画素成分の差分を演算して差分画像データを作成する。上記した差分のデータは、スリット光の照射の有無の違いに相当するので、スリット光のみのデータを得ることができる。
【0011】
このスリット光の画像パターンが、撮影エリア内に立体物が存在しない状態のパターンと比較して異なるパターンとなっているときに、その部分に立体物が存在することを推定することができる。制御手段は、このようにして立体物の存在を推定した結果を、表示手段に表示させる。これにより、撮像手段により撮影した撮影エリア内の画像について、立体物の存在を同時に表示させることができるので、撮影対象となる領域の画像に歪みが生ずるような場合でも、その画像内の立体物を確実に認識することができるようになる。
【0012】
請求項2の発明によれば、上記発明において、制御手段により、撮像手段により撮影された撮影エリアの画像を鳥瞰図に変換して推定した立体物と共に表示手段に表示させるようにしたので、特に遠方に位置する立体物の撮影画像が小さく且つ歪んだ状態の画像として得られている場合でも、鳥瞰図に変換したときに歪みに起因して見誤ることなく確実に立体物を認識することができるようになる。
【0013】
請求項3の発明によれば、上記各発明において、投光手段を、スリット光として赤外線のスリット光を照射する構成としているので、スリット光を照射して撮影する際に、使用者が違和感をを感ずることなく立体物の推定処理を行うことができるようになる。
【0014】
請求項4の発明によれば、上記各発明において、制御手段を、撮影エリア内に立体物が存在しないときの投光手段が照射するスリット光の投影領域をマスクエリアとして設定し、差分画像データについてマスクエリアに沿ってスリット光の存在の有無を判定して立体物の存在の推定を行うようにしたので、マスクエリア近傍の画素データについて簡単な画像処理を行うことで迅速に立体物の存在の推定処理を行うことができるようになる。
【0015】
請求項5の発明によれば、上記請求項4の発明において、移動体の移動に伴ってスリット光照射画像とスリット光未照射画像とが異なる位置での画像となったとき、制御手段により、差分画像データのうちの差分値が大きいところで且つマスクエリアの差分値が小さいところに立体物が存在することを推定するようにしたので、マスクエリア内での差分値のデータ判断を簡単且つ迅速に行うことができるようになる。
【0016】
請求項6の発明によれば、側方撮像手段および側方投光手段を設けて側方の撮影エリア内に存在する立体物を推定することができるので、車両などの移動体においては、走行時に側方に存在する障害物などを表示手段を視認することで確実に認識することができるようになる。これにより、側方についても不用意に移動して衝突するなどの事故を未然に防止することができるようになる。
【0017】
【発明の実施の形態】
(第1の実施形態)
以下、本発明を自動車のバックビューモニタに適用した場合の第1の実施形態について図1ないし図7を参照して説明する。
図1は、本装置を自動車1に搭載した状態を概略的に示すもので、制御装置2、モニタ3、カメラ4、赤外線投光器5a,5bから構成されている。表示手段としてのモニタ3は、液晶などの表示装置を用いたもので、自動車1のダッシュボード上などに設けられ、運転者が見ることができるように設置されている。
【0018】
撮像手段としてのカメラ4は、可視光から赤外線領域までの光を撮影可能なもので、自動車1の後部に配設され、後方の撮影エリアAを撮影する。赤外線投光器5a,5bは、例えば、自動車1のテールランプ部分に設けられ、後述するようにして撮影エリアA内にスリット光Lを放射状に投光する。
【0019】
制御手段としての制御装置2は、後述するように撮影した画像を処理してモニタ2に表示させるためのもので、自動車1の座席下などに配設されている。この制御装置2は、図2に概略的なブロック構成を示すように、制御回路6、投光制御回路7、同期回路8、メモリ9などから構成されている。
【0020】
制御回路6は、CPUおよびROM、RAMなどを主体として構成されるもので、表示制御プログラムにより後述する表示動作を行うように構成されている。投光制御回路7は、赤外線投光器5a,5bに対して投光動作の制御を行うもので、スリット光Lを撮影エリアAに対して投光させる。これにより、図1に示したように、各赤外線投光器5a,5bから放射状にスリット光Lが投光されるようになる。
【0021】
同期回路8は、投光制御回路7とカメラ4とを同期させて動作させるためのもので、後述するように赤外線投光器5a,5bによりスリット光Lを投光した状態でカメラ4により撮影するスリット光照射画像と、スリット光Lを投光しない状態でカメラ4により撮影するスリット光未照射画像とを得るために両者のタイミングを制御するものである。
【0022】
次に、本実施形態の作用について図3ないし図7も参照して説明する。
図3は、この装置により立体物を推定するための原理を示したもので、カメラ4の位置から撮影したことを仮定して示した図である。赤外線投光器5a,5bからは、同図(b)に示すようにスリット光Lが撮影エリアA内に照射されることで、エリア内に立体物が存在しない場合にはスリット光Lにより地面にはラインSのように直線が投影される。
【0023】
一方、スリット光Lを横切るように立体物Pが存在する場合には、スリット光Lにより形成される投影像はラインSpのように立体物Pに沿った形状に曲げられたものとなる。これをカメラ4で撮影すると、図示のように折れ線ラインSpが撮影されるようになる。
【0024】
したがって、立体物Pが存在しない場合に得られるべきラインSの画像に対して、実際に撮影して得られた画像のラインSpとを比較することで、重ならない部分に立体物Pが存在していることを推定することができるようになる。
【0025】
さて、この実施形態においては、スリット光Lは赤外線として投光するようにしており、カメラ4は赤外線領域の波長も撮影可能なものとして設けられている。これは、可視光のスリット光を投光する場合の違和感をなくすためにしたもので、赤外線を用いる必然的理由はない。
【0026】
そして、赤外線投光器5a,5bにより照射された投影画像を得るのに、スリット光Lを照射したときのスリット光照射画像と、スリット光Lを照射しないときのスリット光未照射画像との差を演算して差分画像データとして得るようにしている。
【0027】
次に、実際に撮影エリアA内の立体物Pを推定する処理動作について図4,5,6を参照して説明する。いま、例えば、自動車1を駐車場の駐車スペースPAに入庫して駐車を行う場合を想定して説明する。この駐車スペースPAには、輪止めのブロックP1,P2が配置してあり、これが立体物Pとして推定するべきものとなる。駐車スペースPAには、自動車1を整列した状態で1台ずつ駐車するために、その目安となる区画をコンクリートの床面に対して認識しやすいように白いラインWLで表示している。
【0028】
図4は、自動車1を運転者がバックで駐車スペースPAに入庫させる場合の画像を示しており、この例では自動車1はこの位置で停止した状態で撮影をした場合で示している。制御装置2は、同期回路8、投光制御回路7を制御することにより、赤外線投光器5a,5bに投光動作を行わせると共にカメラ4による撮影を行わせる。
【0029】
同図(a)はスリット光照射画像を示しており、同図(b)はスリット光未照射画像を示している。なお、ここでは、簡単のために、赤外線投光器5aのスリット光Lのみを照射した画像として示しているが、実際には赤外線投光器5bのスリット光Lも照射することで撮影エリアAの領域をカバーする物である。また、制御装置2は、このようなスリット光照射画像とスリット光未照射画像とを交互に得るように同期回路8を制御している。
【0030】
同図(a)に示すように、輪止めP1、P2の部分でスリット光Lは屈曲しており、床面に投影されたスリット光LのラインSは折れ線Spとして画面に撮影されることになる。輪止めP1,P2が存在しない場合には、破線で示すように直線で放射状をなすラインSとして撮影されるものである。
【0031】
制御装置2は、得られた2つの画像についてこれらの差分を演算して同図(c)に示すような差分画像データを得るようになる。この差分画像データでは、駐車スペースPAの画像は相殺されて赤外線投光器5aから照射されたスリット光LのラインS、Spのみが残ることになる。
【0032】
制御装置2は、得られた差分画像データから、折れ線となっているラインSpを認識するとその部分に立体物Pが存在することを推定するようになる。この場合、制御装置2は、図5(b)に示すように、立体物Pが存在しない場合に得られるスリット光Lの投影画像であるラインSの領域を、同図(a)に示すようにマスクエリアMAとして設定し、このマスクエリアMAに沿って差分値が大きいか否かをチェックする。そして、差分値が小さいところつまりラインSが屈曲していてラインSpとなる部分では、マスクエリアMA内にラインSの画像が存在しないことから、この部分に立体物Pが存在していることを推定することができる。
【0033】
次に制御装置2は、カメラ4で撮影した画像を上方から見た画像すなわち鳥瞰図に変換し、これに上記推定した立体物Pの推定領域PEを合成して図6に示すような画像として表示させるようになる。これにより、使用者(運転者)は、モニタ3に表示された駐車スペースPAと自車1の位置とを鳥瞰図として見ながら、所定の位置に入庫するようにバックさせることができるようになる。このとき、画像には立体物Pとして推定領域PEが表示されるので、注意しながらハンドル操作をすることができるようになる。
【0034】
次に、自動車1が移動している状態で上記した推定の動作を行う場合について簡単に説明する。この場合には、カメラ4が移動しながらスリット光照射画像とスリット光未照射画像を撮影することから、両者の差分を演算する際に若干のずれが生ずる。
【0035】
ここで、例えば自動車1をバックで車庫入れする場合を想定すると、移動速度は時速10km程度と仮定することができる。また、画像の撮影速度は、1画像を1/30秒毎程度で撮影するのが一般的である。この結果、移動中の画像間の変位距離は10cm程度となる。そして、この程度の移動では、画像上で大きな変化はなく、スリット光の位置は移動に関係なく一定である。
【0036】
図7は、前述した図5のスリット光照射画像、スリット光未照射画像、差分画像データのそれぞれに対応する画像を示したものである。ここで、同図(a)のスリット光照射画像に対して、同図(b)のスリット光未照射画像はカメラ4の位置が上述したように少し移動しており、差分画像データにはスリット光LのラインS、Spに加えて白いラインWLなどの境界線付近において差分の大きな領域Swが発生する。
【0037】
しかし、この程度のずれは、停止している場合の算出過程と同様にして、差分を演算すると、スリット光Lおよび白いラインWLの境界付近の差分が大きく発生するが、立体物Pが存在する部分では、逆に差分が小さくなるので検出することができるようになる。また、移動しながらの判定では、物体の境界付近で多少の誤差を生ずるが、同じテクスチャを持つ領域を立体物Pとして抽出することでほぼ確実に立体物Pを推定することができるようになる。
【0038】
このような第1の実施形態によれば、赤外線投光器5a,5bからのスリット光Lの照射の有無に対応した画像をカメラ4で撮影し、それらの差分画像データを作成して立体物Pの存在を推定するようにしたので、カメラ4で撮影した画像のみでは認識しにくい立体物の存在を合成してモニタ3に表示することができるようになる。これにより、例えば鳥瞰図に変換して表示する場合には見誤るのを極力防止して確実に認識することができるようになる。
【0039】
(第2の実施形態)
図8は本発明の第2の実施形態を示すもので、第1の実施形態の構成に加えて、側方の立体物も推定することができるようにしたものである。
前述したように、鳥瞰図に変換する際には隣に駐車されている自動車1aも床面の模様として処理されるので、実際の距離よりも遠くに存在しているように見えてしまう。これにより、使用者は距離感を失って、錯覚を起こして接触事故などを起こしたりすることも有り得るのである。
【0040】
この実施形態においては、このような場合にも対応できるように、後方について設けられたカメラ4、赤外線投光器5a,5bに相当する構成を両側部にも設ける構成としている。ここでは、側方の撮像手段としてのカメラ10,11をそれぞれ設けると共に、側方投光手段としての赤外線投光器12a,12bおよび13a,13bを設けた構成としている。これらは、制御装置2に接続され、その処理結果である推定される立体物Pの存在領域がモニタ3に表示されるようになっている。
【0041】
これにより、例えば、自動車1を駐車スペースPAに駐車するときには存在していなかった自動車1aが出発時には駐車されているような場合でも、カメラ10,11により左右の撮影エリアAL,ARを撮影して、立体物の存在の推定処理をすることで、出発前に認識して立体物としてモニタ3に表示することができるようになる。
【0042】
なお、この実施形態においては、左右の撮影エリアAL,ARについて認識する構成としたが、運転席と反対側の側の見難い側のみを検出するように設ける構成とすることもできる。
【0043】
(他の実施形態)
本発明は上記しかつ図面に示した実施形態に限定されるものではなく、次のように変形することが出来る。
上記実施形態では、カメラ4に対して左右にそれぞれ赤外線投光器5a,5bを設ける構成としたが、1個だけ設ける構成とすることもできるし、検出する領域に対応して3個以上設ける構成とすることもできる。
撮影エリアAの立体物を推定するのに複数台のカメラを設ける構成とすることもできる。
【0044】
投光手段として、赤外線投光器5a,5bを用いたが、可視光や紫外線などをを照射する投光器を用いることもできる。投光手段として、例えばハロゲンランプ、通常のランプあるいはLED,レーザーなどを用いることもできる。この場合、ランプを使用する場合には、カメラと同期してスリット光を照射するために、メカニカルシャッターを使用したり、ストロボを用いることになる。また、レーザ光を使用する場合には、スキャン機構などを用いることで、放射線状のスリット光を実現することができる。
【0045】
投光手段は、自動車1のテールランプ内に設ける以外に他の部分に専用に設ける構成とすることもできる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態を示す概略的な構成図
【図2】電気的なブロック構成図
【図3】立体物の推定原理を示す作用説明図
【図4】停止時の撮影画像の表示例を示す図
【図5】マスクエリアを説明する図
【図6】鳥瞰図の表示例を示す図
【図7】移動時に対応した図4相当図
【図8】本発明の第2の実施形態を示す図1相当図
【図9】従来技術の表示画面の例を示す図
【符号の説明】
1は自動車(車両)、2は制御装置(制御手段)、3はモニタ(表示手段)、4はカメラ(撮像手段)、5a,5bは赤外線投光器(投光手段)、6は制御回路、7は投光制御回路、8は同期回路、9はメモリ、10,11はカメラ(側方撮像手段)、12a,12b,13a,13bは赤外線投光器(側方投光手段)、Lはスリット光、Aは撮影エリア、AL,ARは側方の撮影エリア、Pは立体物、WLは白いライン、PAは駐車スペース、P1,P2は輪止め(立体物)である。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a peripheral image display device that is mounted on a moving body such as a vehicle, captures the surroundings, and displays the images on a display unit.
[0002]
[Prior art]
For example, there is a device that can photograph the rear of a car with a camera and check the rear with a monitor provided in a driver's seat. This is excellent in usability because it is possible for a vehicle that is difficult to see behind or an unfamiliar driver to see by seeing the image of the back on the monitor.
[0003]
As such, for example, in addition to displaying the image taken by the camera as it is, as shown in the image on the left side of FIG. 9, an image viewed from directly above as shown in the image on the right side of FIG. What has been provided which is easy to grasp the position of the own vehicle by being converted into a bird's-eye view and displayed (for example, see
[0004]
[Patent Document 1]
JP-A-2002-087160
[Patent Document 2]
JP 2002-262280 A
[Patent Document 3]
JP-A-2002-262281
[Patent Document 4]
JP-A-2002-283913
[Problems to be solved by the invention]
In the above-mentioned prior art, the image taken by the camera attached to the rear of the vehicle was converted into an image viewed from directly above based on the image taken as a bird's-eye view. On the rear screen, there are three-dimensional objects such as other vehicles and obstacles. Since these three-dimensional objects are pasted as a pattern on a plane when shown in the bird's-eye view, the distortion of the image as a bird's-eye view increases as shown in FIG. Sometimes misunderstood the positional relationship.
[0009]
The present invention has been made in view of the above circumstances, and an object of the present invention is to estimate a three-dimensional object as a three-dimensional object in an image captured by an imaging unit, and thereby to determine a user from the image. It is an object of the present invention to provide a peripheral image display device capable of performing display in which a three-dimensional object can be easily grasped.
[0010]
[Means for Solving the Problems]
According to the first aspect of the present invention, the imaging unit captures a slit light irradiation image when the projection area irradiates the slit light with the slit light and a slit light non-irradiation image when the irradiation area is not irradiated. Then, a difference between pixel components of both images is calculated to create difference image data. Since the difference data described above corresponds to the difference in the presence or absence of slit light irradiation, data of only the slit light can be obtained.
[0011]
When the image pattern of the slit light is different from the pattern in a state where no three-dimensional object exists in the photographing area, it can be estimated that a three-dimensional object exists in that part. The control means causes the display means to display the result of estimating the presence of the three-dimensional object in this manner. This makes it possible to simultaneously display the presence of a three-dimensional object with respect to the image in the imaging area captured by the imaging unit, so that even if the image of the area to be captured is distorted, the three-dimensional object Can be surely recognized.
[0012]
According to the second aspect of the present invention, in the above invention, the control unit converts the image of the photographing area photographed by the imaging unit into a bird's-eye view and displays it on the display unit together with the estimated three-dimensional object. Even if the captured image of the three-dimensional object located at is obtained as a small and distorted image, the three-dimensional object can be reliably recognized without being mistaken due to the distortion when converted to a bird's-eye view. become.
[0013]
According to the third aspect of the present invention, in each of the above inventions, the projection unit is configured to irradiate infrared slit light as slit light. It is possible to perform a three-dimensional object estimation process without feeling the effect.
[0014]
According to the fourth aspect of the present invention, in each of the above aspects, the control means sets the projection area of the slit light emitted by the light projection means when the three-dimensional object does not exist in the photographing area as a mask area, and sets difference image data. The presence of a three-dimensional object is determined by determining the presence or absence of slit light along the mask area, so the presence of a three-dimensional object can be quickly performed by performing simple image processing on pixel data near the mask area. Can be estimated.
[0015]
According to the invention of
[0016]
According to the sixth aspect of the present invention, since the three-dimensional object existing in the side photographing area can be estimated by providing the side image capturing means and the side light projecting means, in a moving object such as a vehicle, Sometimes, an obstacle or the like present on the side can be reliably recognized by visually recognizing the display means. This makes it possible to prevent accidents such as accidentally moving and colliding sideways.
[0017]
BEST MODE FOR CARRYING OUT THE INVENTION
(1st Embodiment)
Hereinafter, a first embodiment in which the present invention is applied to a back view monitor of an automobile will be described with reference to FIGS.
FIG. 1 schematically shows a state where the present apparatus is mounted on an
[0018]
The camera 4 as an imaging means is capable of photographing light in a range from visible light to infrared light. The camera 4 is disposed at the rear of the
[0019]
The
[0020]
The
[0021]
The synchronizing circuit 8 is for synchronizing and operating the light emitting
[0022]
Next, the operation of the present embodiment will be described with reference to FIGS.
FIG. 3 shows a principle for estimating a three-dimensional object by this device, and is a diagram showing an assumption that an image is taken from the position of the camera 4. The
[0023]
On the other hand, when the three-dimensional object P exists so as to cross the slit light L, the projected image formed by the slit light L is bent into a shape along the three-dimensional object P as a line Sp. When this is photographed by the camera 4, a polygonal line Sp is photographed as shown in the figure.
[0024]
Therefore, by comparing the image of the line S that should be obtained when the three-dimensional object P does not exist with the line Sp of the image obtained by actually photographing, the three-dimensional object P exists in a non-overlapping part. Can be estimated.
[0025]
By the way, in this embodiment, the slit light L is projected as infrared rays, and the camera 4 is provided so as to be able to photograph wavelengths in the infrared region. This is to eliminate a sense of incongruity when projecting visible slit light, and there is no inevitable reason to use infrared light.
[0026]
Then, in order to obtain projection images irradiated by the
[0027]
Next, a processing operation for actually estimating the three-dimensional object P in the photographing area A will be described with reference to FIGS. Now, for example, a description will be given on the assumption that the
[0028]
FIG. 4 shows an image when the driver puts the
[0029]
FIG. 7A shows a slit light irradiation image, and FIG. 7B shows a slit light non-irradiation image. Here, for the sake of simplicity, an image obtained by irradiating only the slit light L of the
[0030]
As shown in FIG. 3A, the slit light L is bent at the wheel stoppers P1 and P2, and the line S of the slit light L projected on the floor is photographed on the screen as a broken line Sp. Become. When the wheel stoppers P1 and P2 do not exist, the image is captured as a straight line S which is radial as shown by a broken line.
[0031]
The
[0032]
When recognizing the line Sp that is a polygonal line from the obtained difference image data, the
[0033]
Next, the
[0034]
Next, the case where the above-described estimation operation is performed while the
[0035]
Here, for example, assuming that the
[0036]
FIG. 7 shows images corresponding to the slit light irradiation image, the slit light non-irradiation image, and the difference image data of FIG. 5 described above. Here, the position of the camera 4 in the slit light non-irradiated image in FIG. 7B is slightly moved as described above with respect to the slit light irradiated image in FIG. In addition to the lines S and Sp of the light L, a region Sw having a large difference occurs near a boundary such as a white line WL.
[0037]
However, when this difference is calculated in the same manner as in the calculation process in the case of stopping, a large difference occurs near the boundary between the slit light L and the white line WL, but the three-dimensional object P exists. On the other hand, the difference can be reduced because the difference is small. In addition, in the determination while moving, a slight error occurs near the boundary of the object, but by extracting a region having the same texture as the three-dimensional object P, the three-dimensional object P can be almost reliably estimated. .
[0038]
According to the first embodiment, an image corresponding to the presence or absence of the slit light L from the
[0039]
(Second embodiment)
FIG. 8 shows a second embodiment of the present invention, in which a three-dimensional object on the side can be estimated in addition to the configuration of the first embodiment.
As described above, when converted to a bird's-eye view, the car 1a parked next to it is also processed as a floor pattern, so that it appears that the car 1a is located farther than the actual distance. As a result, the user may lose the sense of distance, cause an illusion, and cause a contact accident or the like.
[0040]
In this embodiment, in order to cope with such a case, the configuration corresponding to the camera 4 and the
[0041]
Thus, for example, even when the car 1a that did not exist when the
[0042]
In this embodiment, the left and right photographing areas AL and AR are recognized. However, the left and right photographing areas AL and AR may be configured to detect only the hard-to-see side opposite to the driver's seat.
[0043]
(Other embodiments)
The present invention is not limited to the embodiment described above and shown in the drawings, but can be modified as follows.
In the above-described embodiment, the
A configuration in which a plurality of cameras are provided for estimating a three-dimensional object in the shooting area A may be employed.
[0044]
Although the
[0045]
In addition to being provided in the tail lamp of the
[Brief description of the drawings]
FIG. 1 is a schematic configuration diagram showing a first embodiment of the present invention. FIG. 2 is an electrical block configuration diagram. FIG. 3 is an operation explanatory diagram showing a principle of estimating a three-dimensional object. FIG. 5 is a diagram illustrating a display example of a captured image. FIG. 5 is a diagram illustrating a mask area. FIG. 6 is a diagram illustrating a display example of a bird's-eye view. FIG. 7 is a diagram corresponding to FIG. FIG. 9 is a diagram showing an embodiment of the present invention. FIG. 9 is a diagram showing an example of a display screen according to the related art.
1 is an automobile (vehicle), 2 is a control device (control means), 3 is a monitor (display means), 4 is a camera (imaging means), 5a and 5b are infrared light emitters (light emitting means), 6 is a control circuit, 7 Is a light emission control circuit, 8 is a synchronization circuit, 9 is a memory, 10 and 11 are cameras (side image pickup means), 12a, 12b, 13a and 13b are infrared light projectors (side light emission means), L is slit light, A is a shooting area, AL and AR are side shooting areas, P is a three-dimensional object, WL is a white line, PA is a parking space, and P1 and P2 are wheel stoppers (three-dimensional objects).
Claims (6)
撮影エリアにスリット光を照射する投光手段と、
前記投光手段に前記スリット光を照射させたときのスリット光照射画像と前記スリット光を未照射のときのスリット光未照射画像とを取り込んでそれらの画素成分の差分を演算した差分画像データを作成すると共に、その差分画像データから立体物を推定して前記表示手段に表示させる制御手段とを備えたことを特徴とする周辺画像表示装置。In a peripheral image display device mounted on a moving body, the periphery of which is photographed by an imaging unit and displayed on a display unit,
Light emitting means for irradiating a slit light to a shooting area;
The difference image data obtained by capturing the slit light irradiation image when the slit light is irradiated to the light projecting means and the slit light non-irradiation image when the slit light is not irradiated and calculating the difference between the pixel components is obtained. A peripheral image display device comprising: a control unit that generates the three-dimensional object from the difference image data and causes the display unit to display the three-dimensional object.
前記制御手段は、前記撮像手段により撮影された撮影エリアの画像を鳥瞰図に変換して前記推定した立体物と共に前記表示手段に表示させることを特徴とする周辺画像表示装置。The peripheral image display device according to claim 1,
A peripheral image display device, wherein the control means converts an image of a photographing area photographed by the imaging means into a bird's-eye view and displays the image together with the estimated three-dimensional object on the display means.
前記投光手段は、前記スリット光として赤外線のスリット光を照射するように構成されていることを特徴とする周辺画像表示装置。The peripheral image display device according to claim 1 or 2,
The peripheral image display device, wherein the light projecting unit is configured to irradiate infrared slit light as the slit light.
前記制御手段は、前記撮影エリア内に立体物が存在しないときの前記投光手段が照射するスリット光の投影部分をマスクエリアとして設定し、前記差分画像データについて前記マスクエリアに沿って前記スリット光の存在の有無を判定して前記立体物の推定を行うように構成されていることを特徴とする周辺画像表示装置。The peripheral image display device according to any one of claims 1 to 3,
The control means sets, as a mask area, a projection portion of the slit light emitted by the light projecting means when the three-dimensional object does not exist in the shooting area, and sets the slit light along the mask area for the difference image data. A peripheral image display device configured to judge the presence or absence of the three-dimensional object by determining the presence or absence of the three-dimensional object.
前記移動体の移動に伴って前記スリット光照射画像とスリット光未照射画像とが異なる位置での画像となったとき、
前記制御手段は、前記差分画像データのうちの差分値が大きいところで且つ前記マスクエリアの差分値が小さいところに立体物が存在することを推定することを特徴とする周辺画像表示装置。The peripheral image display device according to claim 4,
When the slit light irradiation image and the slit light non-irradiation image become images at different positions with the movement of the moving body,
The peripheral image display device, wherein the control unit estimates that a three-dimensional object exists at a place where the difference value of the difference image data is large and a place where the difference value of the mask area is small.
前記移動体の移動方向に対して側方を撮影エリアとして設定された側方撮像手段を備えると共に、
その側方の撮影エリア内にスリット光を照射する側方投光手段を備え、
前記制御手段は、側方の撮影エリアについても立体物の存在の推定を行うように構成されていることを特徴とする周辺画像表示装置。The peripheral image display device according to any one of claims 1 to 5,
Along with a side imaging unit set as a shooting area on the side with respect to the moving direction of the moving body,
Equipped with a side light projecting means for irradiating slit light in the side photographing area,
The peripheral image display device, wherein the control unit is configured to estimate the presence of a three-dimensional object also in a side shooting area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003118610A JP3997945B2 (en) | 2003-04-23 | 2003-04-23 | Peripheral image display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003118610A JP3997945B2 (en) | 2003-04-23 | 2003-04-23 | Peripheral image display device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004328240A true JP2004328240A (en) | 2004-11-18 |
JP3997945B2 JP3997945B2 (en) | 2007-10-24 |
Family
ID=33498107
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003118610A Expired - Fee Related JP3997945B2 (en) | 2003-04-23 | 2003-04-23 | Peripheral image display device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3997945B2 (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006303858A (en) * | 2005-04-20 | 2006-11-02 | Auto Network Gijutsu Kenkyusho:Kk | In-vehicle ambient monitoring system |
JP2008217267A (en) * | 2007-03-01 | 2008-09-18 | Denso Corp | Road shape recognition apparatus |
JP2009262736A (en) * | 2008-04-24 | 2009-11-12 | Daihatsu Motor Co Ltd | Obstacle recognition device |
JP2010096515A (en) * | 2008-10-14 | 2010-04-30 | Toshiba Corp | Automatic analyzer, and method for reading discrimination information attached to container in the automatic analyzer |
JP2010123012A (en) * | 2008-11-21 | 2010-06-03 | Suzuki Motor Corp | Wheel stop detection device and rearward image display apparatus |
JP2012114636A (en) * | 2010-11-24 | 2012-06-14 | Suzuki Motor Corp | Sprag detection device and sprag detection area setting method |
WO2012144053A1 (en) * | 2011-04-21 | 2012-10-26 | トヨタ自動車株式会社 | Vehicle periphery obstacle display device and vehicle periphery obstacle display method |
JP2015182670A (en) * | 2014-03-25 | 2015-10-22 | ダイハツ工業株式会社 | Drive support device |
WO2017195477A1 (en) * | 2016-05-10 | 2017-11-16 | 三菱電機株式会社 | Obstacle detection device, driving assistance system, and obstacle detection method |
KR20180062820A (en) * | 2016-12-01 | 2018-06-11 | 주식회사 와이즈오토모티브 | Apparatus and method for supporting driving of vehicle |
JP2021517635A (en) * | 2019-03-14 | 2021-07-26 | ハスコ ビジョン テクノロジー カンパニー リミテッド | Road surface monitoring systems and methods using infrared rays, automobiles |
-
2003
- 2003-04-23 JP JP2003118610A patent/JP3997945B2/en not_active Expired - Fee Related
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006303858A (en) * | 2005-04-20 | 2006-11-02 | Auto Network Gijutsu Kenkyusho:Kk | In-vehicle ambient monitoring system |
JP2008217267A (en) * | 2007-03-01 | 2008-09-18 | Denso Corp | Road shape recognition apparatus |
JP2009262736A (en) * | 2008-04-24 | 2009-11-12 | Daihatsu Motor Co Ltd | Obstacle recognition device |
JP2010096515A (en) * | 2008-10-14 | 2010-04-30 | Toshiba Corp | Automatic analyzer, and method for reading discrimination information attached to container in the automatic analyzer |
JP2010123012A (en) * | 2008-11-21 | 2010-06-03 | Suzuki Motor Corp | Wheel stop detection device and rearward image display apparatus |
JP2012114636A (en) * | 2010-11-24 | 2012-06-14 | Suzuki Motor Corp | Sprag detection device and sprag detection area setting method |
WO2012144053A1 (en) * | 2011-04-21 | 2012-10-26 | トヨタ自動車株式会社 | Vehicle periphery obstacle display device and vehicle periphery obstacle display method |
JP2015182670A (en) * | 2014-03-25 | 2015-10-22 | ダイハツ工業株式会社 | Drive support device |
WO2017195477A1 (en) * | 2016-05-10 | 2017-11-16 | 三菱電機株式会社 | Obstacle detection device, driving assistance system, and obstacle detection method |
JPWO2017195477A1 (en) * | 2016-05-10 | 2018-10-04 | 三菱電機株式会社 | Obstacle detection device, driving support system, and obstacle detection method |
KR20180062820A (en) * | 2016-12-01 | 2018-06-11 | 주식회사 와이즈오토모티브 | Apparatus and method for supporting driving of vehicle |
JP2021517635A (en) * | 2019-03-14 | 2021-07-26 | ハスコ ビジョン テクノロジー カンパニー リミテッド | Road surface monitoring systems and methods using infrared rays, automobiles |
US11340063B2 (en) | 2019-03-14 | 2022-05-24 | Hasco Vision Technology Co., Ltd. | Infrared-based road surface monitoring system and method, and automobile |
Also Published As
Publication number | Publication date |
---|---|
JP3997945B2 (en) | 2007-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2006118076A1 (en) | System for monitoring periphery of vehicle | |
US8009977B2 (en) | On-vehicle lighting apparatus | |
US9683861B2 (en) | Estimated route presentation apparatus and estimated route presentation method | |
JP5213063B2 (en) | Vehicle display device and display method | |
JP2008007079A (en) | Device and method for road surface projection | |
JP2017013784A (en) | On-board display system for vehicles such as commercial vehicles | |
JP2003002138A (en) | Method and device for on-vehicle rear monitoring | |
JP4927647B2 (en) | Vehicle periphery monitoring device | |
JP2004328240A (en) | Peripheral image display equipment | |
JP2013078151A (en) | Display device for vehicle | |
JP2005236540A (en) | On-vehicle camera device | |
JP2007331506A (en) | Rear window display device | |
JP4730589B2 (en) | Vehicle perimeter monitoring system | |
JP2010221808A (en) | Safety device and surrounding ground level detection device operated by detecting surrounding ground level of vehicle | |
JP2004182121A (en) | Drive assist system | |
JP2009073250A (en) | Vehicle backsight display device | |
KR101190789B1 (en) | Apparatus and method for measurementing distance of vehicle | |
KR20120012183A (en) | Parking assistance system | |
JP2004221871A (en) | Device for monitoring periphery of vehicle | |
WO2020175144A1 (en) | Control device and photographing system | |
CN110476420B (en) | Image display device for vehicle and image processing method | |
JP2008129676A (en) | Surrounding monitoring device | |
JP2004051063A (en) | Device for visual recognition around vehicle | |
JP2010064646A (en) | Device and method for monitoring vehicle periphery | |
JP3947362B2 (en) | Vehicle rearward confirmation support device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050602 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070417 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070424 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070625 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070717 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070730 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 3997945 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100817 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100817 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110817 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120817 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130817 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |