JP6179249B2 - Vehicle detection device - Google Patents
Vehicle detection device Download PDFInfo
- Publication number
- JP6179249B2 JP6179249B2 JP2013160168A JP2013160168A JP6179249B2 JP 6179249 B2 JP6179249 B2 JP 6179249B2 JP 2013160168 A JP2013160168 A JP 2013160168A JP 2013160168 A JP2013160168 A JP 2013160168A JP 6179249 B2 JP6179249 B2 JP 6179249B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- dimensional object
- image
- bird
- eye view
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 228
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 claims description 75
- 240000004050 Pentaglottis sempervirens Species 0.000 claims description 72
- 238000003384 imaging method Methods 0.000 claims description 23
- 239000007787 solid Substances 0.000 claims description 15
- 238000006243 chemical reaction Methods 0.000 claims description 8
- 238000009826 distribution Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 13
- 238000013459 approach Methods 0.000 description 7
- 239000013256 coordination polymer Substances 0.000 description 7
- 238000000034 method Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 239000002131 composite material Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000004069 differentiation Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
Description
本発明は、車両検出装置に関するものである。 The present invention relates to a vehicle detection device.
180度以上の画角を有した4つの車載カメラを車両に配置し、これら車載カメラで撮影した撮影画像から、車両の位置の略中央の真上位置を仮想視点とした合成画像を生成して、当該合成画像をディスプレイに表示する。そして、当該車載カメラのうちバックカメラの撮影画像から接近車両を検出し、接近車両が車両に近づくにつれて前記仮想視点の高さを上昇させる画像表示システムが開示されている(特許文献1)。 Four in-vehicle cameras with an angle of view of 180 degrees or more are arranged in the vehicle, and a composite image is generated from the captured image captured by these in-vehicle cameras with a virtual viewpoint at a position just above the center of the vehicle. The composite image is displayed on the display. And the image display system which detects an approaching vehicle from the image | photographed image of a back camera among the said vehicle-mounted cameras, and raises the height of the said virtual viewpoint as an approaching vehicle approaches a vehicle is disclosed (patent document 1).
しかしながら、上記の画像表示システムでは、車両の検出の際に用いた画像が、180度以上の広い画角をもつカメラで撮像されており、自車両の後方の遠い領域では、当該カメラの広画角の部分で撮像されてしまうため、車両の検出精度が低い、という問題があった。 However, in the above image display system, the image used for detecting the vehicle is captured by a camera having a wide angle of view of 180 degrees or more, and in the far region behind the host vehicle, the wide image of the camera is captured. Since the image is taken at the corner, there is a problem that the vehicle detection accuracy is low.
本発明が解決しようとする課題は、車両の後方からの接近車を、高い精度で検出する車両検出装置を提供することである。 The problem to be solved by the present invention is to provide a vehicle detection device that detects an approaching vehicle from the rear of the vehicle with high accuracy.
本発明は、第1撮像画像を鳥瞰視画像に視点変換し、鳥瞰視画像に写る立体物の倒れ込みから前記立体物を検出し、当該第1撮像画像よりも遠方を撮像した第2撮像画像に基づき他車両を検出し、検出された立体物及び他車両に基づき、接近車の有無を判定するものであり、前記他車両が遠方検出領域から近傍検出領域に入るタイミングを算出し、異なる時刻の鳥瞰視画像に基づき近傍検出領域内における立体物を検出し、タイミングに対応して撮像された1つのフレーム分の第1撮像画像を、現時刻の鳥瞰視画像として視点変換し、現時刻の鳥瞰視画像に写る立体物の倒れ込みから立体物を検出することによって上記課題を解決する。
The present invention converts the first captured image into a bird's-eye view image, detects the three-dimensional object from the fall of the three-dimensional object appearing in the bird's-eye view image, and converts the first captured image into a second captured image obtained by capturing a distance from the first captured image. Based on the detected three-dimensional object and the other vehicle, the presence or absence of an approaching vehicle is determined based on the detected three-dimensional object and the other vehicle . A three-dimensional object in the vicinity detection area is detected based on the bird's-eye view image, and the first captured image for one frame imaged in accordance with the timing is converted as a bird's-eye view image at the current time, and the bird's-eye view at the current time is converted. The said subject is solved by detecting a solid object from the fall of the solid object reflected in a visual image .
本発明は、立体物の検出の際に精度が低くなる領域における他車両を、車両後方の遠方を撮像した画像に基づき検出した上で、自車両の近傍を表す鳥瞰視画像から他車両に対応する立体物を検出しているため、他車両の検出精度を高めることができる。 The present invention detects another vehicle in a region where accuracy is low when detecting a three-dimensional object based on an image obtained by imaging a distant rear of the vehicle, and then corresponds to the other vehicle from a bird's-eye view image representing the vicinity of the own vehicle. Since the three-dimensional object to be detected is detected, the detection accuracy of other vehicles can be increased.
以下、本発明の実施形態を図面に基づいて説明する。
《第1実施形態》
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<< First Embodiment >>
図1は、本発明の実施形態に係る車両検出装置のブロック図である。本例の車両検出装置は、車両に搭載され、自車両の後方から接近する他車両を検出するための装置である。 FIG. 1 is a block diagram of a vehicle detection apparatus according to an embodiment of the present invention. The vehicle detection device of this example is a device that is mounted on a vehicle and detects another vehicle approaching from behind the host vehicle.
また本例は、車両駆動装置の構成の一部となるカメラ、及び、他のカメラを用いて、自車両の後方及び自車両の周囲を撮影し、ディスプレイに表示することで、自車両の後方又は周囲の情報を、乗員に提示している。従来は、車室内又は車室外にミラーを設置し、乗員がミラーを直接みることで、自車両の後方又は周囲の情報を取得していたが、ミラーの視野角が狭い点や、ミラーにボディーのピラーが写ることで死角が生じる等の問題があった。そのため、本例は、ミラーを車両に設けずに、カメラとディスプレイを用いることで、これらの問題を解決している。 In addition, this example uses a camera that is a part of the configuration of the vehicle drive device and another camera to capture the back of the host vehicle and the surroundings of the host vehicle, and display the result on the display. Or the surrounding information is presented to the passenger. In the past, mirrors were installed in the vehicle interior or exterior, and passengers directly viewed the mirrors to obtain information about the rear or surroundings of the vehicle. There was a problem that a blind spot was generated by the pillars of. Therefore, this example solves these problems by using a camera and a display without providing a mirror in the vehicle.
図1に示すように、本実施形態に係る車両検出装置は、右サイドカメラ1a、左サイドカメラ1b、リアカメラ1c、バックカメラ1d、右ディスプレイ2a、左ディスプレイ2b、中央ディスプレイ2c、報知部3及びコントローラ10を備えている。これらの各装置はCAN(Controller Area Network)その他の車載LANによって接続され、情報の送信又は受信を行うことができる。
As shown in FIG. 1, the vehicle detection apparatus according to the present embodiment includes a
右サイドカメラ1a、左サイドカメラ1b、及びリアカメラ1cは、自車両の後方の情報を取得するために、自車両の後方を撮像するカメラである。バックカメラ1dは、自車両の後方の周囲(自車両の近傍)の情報を取得するために、自車両の後方の周囲を撮像するカメラである。カメラ1a〜1dは、車両の外部の異なる位置に各々設置されている。図2及び図3にカメラ1a〜1dの配置例を示す。図2は自車両の平面図を、図3は自車両の側面図を示す。
The
たとえば、図2に示すように、右サイドカメラ1aは、車両右側方の所定の位置に設置され、従来、右ドアミラー(右サイドミラー)を設置していた場所に設けられている。右サイドカメラ1aは、車両の右後方を撮像する。左サイドカメラ1bは、車両左側方の所定の位置に設置され、従来、左ドアミラー(左サイドミラー)を設置していた場所に設けられている。左サイドカメラ1bは、車両の左後方を撮像する。
For example, as shown in FIG. 2, the
リアカメラ1cは、後部ドア(バックドア)の高いところに設けられている。後部ドアにハイマウントストップランプが設けられている場合には、リアカメラ1cは、当該ハイマウントストップランプの付近に設置されている。リアカメラ1cは、車両の後方を撮像するように設置され、右サイドカメラ1aで映す部分と、左サイドカメラ1bで映す部分の間を撮像するように設けられている。リアカメラ1cはバックドアの外側(車室外)に設けもよく、あるいは、バックドアの内側(車室内)に設けもよい。
The
バックカメラ1dは、リアガラスの下部などの車両後方の所定位置に設置され、車両の後方を撮像する。図3に示すように、リアカメラ1cは、バックカメラ1dよりも、地表に対して高い位置に設けられている。また、リアカメラ1c及びバックカメラ1dは共に車両の後方を撮像しているが、リアカメラ1cは自車両の遠方を撮像し、バックカメラ1dは自車両の近傍を撮像している。また、リアカメラ1cの画角は、バックカメラ1dの画角よりも広い。すなわち、バックカメラ1dは、リアカメラ1cの撮像範囲よりも近傍を撮像している。
The
右ディスプレイ2a、左ディスプレイ2b、及び中央ディスプレイ2cは、カメラ1a〜1dで撮像される自車両の後方の画像を、表示する表示装置である。図4に、ディスプレイ2a〜2cの配置例を示す。図4は、自車両のインストゥメンタルパネルの周囲を示す図である。
The
例えば、図4に示すように、右ディスプレイ2aは、インストゥメンタルパネル20の右側に設置されている。右ディスプレイ2aは、右サイドカメラ1aで撮像された画像を表示するディスプレイである。左ディスプレイ2bは、インストゥメンタルパネル20の左側に設置されている。左ディスプレイ2bは、左サイドカメラ1bで撮像された画像を表示するディスプレイである。中央ディスプレイ2cは、インストゥメンタルパネル20の中央に設置されている。中央ディスプレイ2cは、リアカメラ1c及びバックカメラ1dで撮像された画像を表示するディスプレイである。
For example, as shown in FIG. 4, the
図1に戻り、報知部3は、車室内に設けられたスピーカである。報知部3は、自車両に接近する接近車の存在を、ドライバーに報知するために、コントローラ10の制御に基づいて、警報音を発する。なお、接近車の警報は、報知部3による音に限らず、例えば中央ディスプレイ2cで表示してもよい。
Returning to FIG. 1, the alerting | reporting part 3 is a speaker provided in the vehicle interior. The notification unit 3 generates an alarm sound based on the control of the
コントローラ10は、各カメラ1a〜1dから撮像画像の情報を取得して、各ディスプレイ2a〜2cで表示される表示画像を生成して、各ディスプレイ2a〜2cに出力することで、乗員に対して、自車両の後方及び周辺の様子を、電子画像により視覚的に提示する制御装置である。また、コントローラ10は、カメラ1c〜1dの撮像画像から、自車両の後方を走行する他車両を検出し、他車両の接近に応じて警報を発するために制御装置でもある。
The
コントローラ10は、各種プログラムが格納されたROM(Read Only Memory)、このROMに格納されたプログラムを実行する動作回路としてのCPU(Central Processing Unit)、アクセス可能な記憶装置として機能するRAM(Random Access Memory)等により構成されている。そして、コントローラ10は、各制御機能を発揮するための機能ブロックとして、後側方画像制御部11、鳥瞰視画像生成部13、後方画像制御部13、立体物検出部14、車両検出部15、及び接近車判定部16を有している。
The
後側方画像制御部11は、右サイドカメラ1aで撮像した撮像画像から、車両の右側の後側方の部分を表示するための表示画像を生成する。このとき、後側方画像制御部11は、右サイドカメラ1aの撮像画像のうち、車両の右側の後側方の部分と対応する画像を抽出する。そして、後側方画像制御部11は、抽出した画像を補正することで表示画像を生成し、右ディスプレイ2aに出力する。
The rear side
右サイドミラー1aの位置に設定されていた、従前のミラーの視野角と、本例の右サイドミラー1aの画角は異なっている。そのため、撮像画像を補正せずに右ディスプレイ2aに表示した場合には、ディスプレイに表示する際の被写体の大きさが、ミラーで映したときの被写体の大きさと相違する。後側方画像制御部11は、被写体の大きさの相違を修正するために、抽出した画像を補正する。これにより、ユーザが右ディスプレイ2aの表示画像をみた際に、ユーザが被写体までの距離感を見誤らないようにしている。
The viewing angle of the previous mirror set at the position of the
また、後側方画像制御部11は、左サイドカメラ1bで撮像した撮像画像のうち、車両の左側の後側方の部分と対応する画像を抽出する。そして、後側方画像制御部11は、抽出した画像を補正しつつ表示画像を生成し、生成した画像を左ディスプレイ2bに出力することで、車両の左側の後側方の部分を表示する。
In addition, the rear side
後方画像制御部12は、リアカメラ1cで撮像した撮像画像から、車両の後方(車両の真後ろ)の部分を表示するための表示画像を生成する。
The rear
具体的には、後方画像制御部12は、リアカメラ1cで撮像した画像を、自車両の車室内の所定の位置を視点とする画像に視点変換する。また、後方画像制御部12は、視点変化した画像を補正することで表示画像を生成する。図2に示すように、リアカメラ1cの設置された位置とルームミラーの位置は異なり、車両の後方の被写体に対して、リアカメラ1cの位置の方が近くなる。そのため、設置位置の違いに基づく被写体までの撮像距離を修正するために、後方画像制御部12は視点変換を行う。また、後側方画像制御部12と同様に、ミラーとカメラによる画角の違いを修正するために、後方画像制御部12は画像を補正している。
Specifically, the rear
そして、後方画像制御部12は、生成した画像を中央ディスプレイ2cに出力することで、車両の後方の部分を表示する。
Then, the rear
鳥瞰視画像生成部13は、リアカメラ1c及びバックカメラ1dから撮像画像を取得し、自車両上方の仮想視点から自車両および自車両周囲を見下ろした鳥瞰視画像に視点変換する。撮像画像と鳥瞰視画像との間の変換は、撮像画像の画素アドレスと鳥瞰視画像における画素アドレスとの対応関係を示すテーブルにより表されている。そして、鳥瞰視画像生成部13は、返還後の鳥瞰視画像を立体物検出部14に出力する。
The bird's-eye view
立体物検出部14は、鳥瞰視画像生成部13から鳥瞰視画像を取得し、鳥瞰視画像に写る立体物の倒れ込みから、車両の後方の立体物を検出する。また立体物検出部14は、取得した鳥瞰視画像に基づき、検出した立体物の移動距離又は当該立体物の速度などの立体物の情報を検出する。
The three-dimensional
立体物検出部14は、立体物の状態を検出する際には、まず取得した異なる時刻の鳥瞰視画像に基づき、鳥瞰視画像の位置を鳥瞰視上でそれぞれ位置合わせする。立体物検出部14は、位置合わせた鳥瞰視画像の差分画像上において、鳥瞰視画像を視点変換した際に立体物が倒れ込む方向に沿って、差分画像上において所定の差分を示す画素数をカウントして度数分布化する。そして、立体物検出部14は、同数分化することで生成された差分波形情報に基づいて、立体物の状態を検出する。
When detecting the state of the three-dimensional object, the three-dimensional
立体物検出部14は、立体物の検出結果を接近車判定部16に出力する。なお、立体物検出部14による立体物の検出制御の詳細については、後述する。
The three-dimensional
車両検出部15は、リアカメラ1cの撮像画像に基づき、自車両の後方を走行する他車両を検出する。車両検出部15には、車両を形取ったテンプレートが予め記録されている。そして、車両検出部15は、取得したリアカメラ1cの撮像画像と、テンプレートを比較することで、撮像画像に写る他車両を特定する。撮像画像内には、検出した他車両の走行車線である路面が写っている。そのため、車両検出部15は、撮像画像内において、路面に対する他車両の大きさを計測することで、自車両から他車両までの距離を検出できる。さらに、リアカメラ1cは、所定の周期で、車両の後方を撮像しているため、車両検出部15は、撮像画像に写る他車両の大きさの変化と当該周期から、自車両に対する他車両の相対距離も検出できる。そして、車両検出部15は検出結果を接近車判定部16に出力する。
The
接近車判定部16は、立体物検出部14の検出結果及び車両検出部15の検出結果に基づき、自車両に接近する接近車の有無を判定する。車両検出部15は自車両に対して遠方部分を検出領域(以下、遠方検出領域と称す。)とし、立体物検出部14は、車両検出部15の検出領域よりも近傍部分を検出領域(以下、近傍検出領域と称する)としている。そして、接近車判定部16は、車両検出部15により、遠方検出領域において他車両の存在を検出すると、立体物検出部14の検出結果に基づき、当該他車両に対応する立体物を近傍検出領域内で検出されたか否かを判定する。そして、他車両に対応する立体物を近傍検出領域内で検出した場合には、接近車判定部16は、検出した他車両を接近車として判定する。
The approaching
また接近車判定部16は、上記の判定により、接近車が近傍検出領域に進入した時に、報知部3を制御することでドライバーに対して、車両の接近を警報する。
In addition, the approaching
次に、他車両の検出領域とカメラ1c、1dの画角との関係について、図5及び図6を用いて説明する。図5は、近傍検出領域及び遠方検出領域を説明するための図であり、車両及び走行車線の平面図である。図6は、近傍検出領域を説明するための図である、車両の側面図である。
Next, the relationship between the detection area of the other vehicle and the angles of view of the
バックカメラ1dの画角aは、自車両の走行車線に加えて、当該走行車線の左右の隣接車線についても撮影可能な画角に設定されている。立体物検出部14の検出領域である近傍検出領域は、自車両の走行車線に対して左右に隣接する車線上であり、自車両の後方に設定されている。近傍検出領域は、バックカメラ1dの撮像範囲を含む範囲であって、自車両に対して近い部分、例えば自車両の後方で1.5m〜8.0m程度に設定されている。
The angle of view a of the
遠方検出領域は、自車両の走行車線に対して左右に隣接する車線上であり、自車両の後方に設定されている。また、遠方検出領域は、自車両の後方で、近傍検出領域よりも遠い位置に設定されており、例えば、自車両の後方で8.0m以上の範囲に設定されている。図5において、領域(A1、A2)が近傍検出領域を表し、領域(B1、B2)が遠方検出領域を表す。 The far detection area is on the lane adjacent to the left and right of the traveling lane of the host vehicle, and is set behind the host vehicle. Further, the far detection area is set at a position far behind the vicinity detection area behind the host vehicle, and is set to a range of 8.0 m or more behind the host vehicle, for example. In FIG. 5, regions (A 1 , A 2 ) represent proximity detection regions, and regions (B 1 , B 2 ) represent distant detection regions.
バックカメラ1dの画角は広いため、近傍検出領域のうち、車両に近い側の領域が、バックカメラ1dの撮像範囲に含まれる。一方、リアカメラ1cの画角は狭いため、車両の近い部分を撮像することができないが、近傍検出領域のうち車両に遠い側の領域、及び、遠方検出領域が、バックカメラ1cの撮像画像に含まれる。
Since the angle of view of the
すなわち、図6に示すように、近傍検出領域のうち車両に対して遠い側の領域では、リアカメラ1cの撮像範囲とバックカメラ1dの撮像範囲が重なっている。
That is, as shown in FIG. 6, the imaging range of the
バックカメラ1dの撮像範囲において、車両に対して遠い部分の光は、バックカメラ1dのレンズのエッジの部分を通って収束する。そして、バックカメラ1dは広画角に設定されているため、エッジ部分の歪みが大きい。一方、リアカメラ1cは狭い画角に設定されているため、レンズのエッジ部分でも歪みが小さい。
In the imaging range of the
そのため、本例において、立体物検出部14は、近傍検出領域(A1、A2)のうち、リアカメラ1cの撮像範囲(X)とバックカメラ1dの撮像範囲(Y)との重複部分では、リアカメラ1cの撮像画像に基づいて、立体物を検出する。例えば、地表からリアカメラ1cまでの位置までの高さをhとし、リアカメラ1cの垂直画角を40度(レンズの光軸は水平方向)とする。そして、立体物を検出する際に用いる画像の切り替えの境界線を、自車両からの距離d(水面上における距離)とすると、1.5/d=tan(20度)が成立し、dは4.12mとなる。
Therefore, in this example, the three-dimensional
すなわち、リアカメラ1cの位置、車両の高さ、及びリアカメラ1cの画角に応じて、画像の切り替えの境界線が設定される。そして、立体物検出部14は、車両から距離が4.12m未満まではバックカメラ1dの撮像画像に基づき立体物を検出し、車両から距離が4.12m以上8.0m以下ではリアカメラ1cの撮像画像に基づき立体物を検出する。これにより、歪みの少ない画像を鳥瞰視画像に変換した上で、立体物を検出できるため、本例は立体物の検出精度を向上できる。
That is, an image switching boundary line is set according to the position of the
以下、立体物検出部14による立体物の検出制御について説明する。立体物検出部14により取得される鳥瞰視画像の特性として、撮像画像データを鳥瞰視画像データに視点変換することで、立体物に特有の鉛直エッジは鳥瞰視画像において特定の定点を通る直線群に変換されるという原理をもっている。そのため、立体物検出部14は、この原理を利用して平面物と立体物とを識別している。
Hereinafter, detection control of the three-dimensional object by the three-dimensional
鳥瞰視画像生成部13は、リアカメラ1cの撮像画像から、近傍検出領域のうち自車両に対して遠方部分に相当する部分の画像を抽出し、バックカメラ1dの撮像画像から、近傍検出領域のうち自車両に対して近傍部分に相当する部分の画像を抽出する。鳥瞰視画像生成部13は、抽出した各画像の画素アドレスを対応させつつ、画像を合成する。そして、鳥瞰視画像生成部13は、合成した画像を鳥瞰視画像に変換し、変換した鳥瞰視画像のデータを立体物検出部14に出力する。
The bird's-eye view
立体物検出部14は、鳥瞰視画像生成部12の視点変換により得られた鳥瞰視画像データを順次取得し、取得した異なる時刻の鳥瞰視画像データの位置を合わせる。図7は、立体物検出部14による位置合わせの処理の概要を説明するための図であり、(a)は自車両Vの移動状態を示す平面図、(b)は位置合わせの概要を示す画像である。
The three-dimensional
図7(a)に示すように、現時刻の自車両VがV1に位置し、一時刻前の自車両VがV2に位置していたとする。また、自車両Vの後側方向に他車両VXが位置して自車両Vと並走状態にあり、現時刻の他車両VXがV3に位置し、一時刻前の他車両VXがV4に位置していたとする。さらに、自車両Vは、一時刻で距離d移動したものとする。なお、一時刻前とは、現時刻から予め定められた時間(例えば1制御周期)だけ過去の時刻であってもよいし、任意の時間だけ過去の時刻であってもよい。 As shown in FIG. 7A, it is assumed that the host vehicle V at the current time is located at V1, and the host vehicle V one hour before is located at V2. Further, the other vehicle VX is located in the rear direction of the own vehicle V and is in parallel with the own vehicle V, the other vehicle VX at the current time is located at V3, and the other vehicle VX one hour before is located at V4. Suppose you were. Furthermore, it is assumed that the host vehicle V has moved a distance d at one time. Note that “one hour before” may be a past time for a predetermined time (for example, one control cycle) from the current time, or may be a past time for an arbitrary time.
このような状態において、現時刻における鳥瞰視画像PBtは図7(b)に示すようになる。この鳥瞰視画像PBtでは、路面上に描かれる白線については矩形状となり、比較的正確に平面視された状態となるが、位置V3にある他車両VXの位置については倒れ込みが発生する。また、一時刻前における鳥瞰視画像PBt−1についても同様に、路面上に描かれる白線については矩形状となり、比較的正確に平面視された状態となるが、位置V4にある他車両VXについては倒れ込みが発生する。立体物の鉛直エッジ(厳密な意味の鉛直エッジ以外にも路面から三次元空間に立ち上がったエッジを含む)は、鳥瞰視画像データへの視点変換処理によって倒れ込み方向に沿った直線群として現れるのに対し、路面上の平面画像は鉛直エッジを含まないので、視点変換してもそのような倒れ込みが生じないからである。 In this state, the bird's-eye view image PB t at the current time is as shown in FIG. 7 (b). In the bird's-eye view image PB t, becomes a rectangular shape for the white line drawn on the road surface, but a relatively accurate is a plan view state, tilting occurs about the position of another vehicle VX at position V3. Similarly, for the bird's-eye view image PB t-1 one hour before, the white line drawn on the road surface has a rectangular shape and is relatively accurately viewed in plan, but the other vehicle VX at the position V4. The fall will occur. The vertical edges of solid objects (including the edges rising from the road surface to the three-dimensional space in addition to the vertical edges in the strict sense) appear as a group of straight lines along the collapse direction by the viewpoint conversion processing to bird's-eye view image data. On the other hand, since the planar image on the road surface does not include a vertical edge, such a fall does not occur even if the viewpoint is changed.
立体物検出部14は、上記のような鳥瞰視画像PBt,PBt−1の位置合わせをデータ上で実行する。この際、立体物検出部14は、一時刻前における鳥瞰視画像PBt−1をオフセットさせ、現時刻における鳥瞰視画像PBtと位置を一致させる。図7(b)の左側の画像と中央の画像は、移動距離d’だけオフセットした状態を示す。このオフセット量d’は、図7(a)に示した自車両Vの実際の移動距離dに対応する鳥瞰視画像データ上の移動量であり、車速センサ(図示しない)からの信号と一時刻前から現時刻までの時間に基づいて決定される。
The three-dimensional
また、位置合わせ後において立体物検出部14は、鳥瞰視画像PBt,PBt−1の差分をとり、差分画像PDtのデータを生成する。ここで、差分画像PDtの画素値は、鳥瞰視画像PBt,PBt−1の画素値の差を絶対値化したものでもよいし、照度環境の変化に対応するために当該絶対値が所定の閾値pを超えたときに「1」とし、超えないときに「0」としてもよい。図7(b)の右側の画像が、差分画像PDtである。
In addition, after alignment, the three-dimensional
立体物検出部14は、図7(b)に示す差分画像PDtのデータに基づいて立体物を検出する。この際、本例の立体物検出部14は、実空間上における立体物の移動距離についても算出する。立体物の検出及び移動距離の算出にあたり、立体物検出部14は、まず差分波形を生成する。なお、立体物の時間あたりの移動距離は、立体物の移動速度の算出に用いられる。
The three-dimensional
差分波形の生成にあたって本実施形態の立体物検出部14は、差分画像PDtにおいて検出領域を設定する。検出領域は、図5及び図6に示す近傍検出領域(A1、A2)である。検出領域A1、A2は、自車両Vに対する相対位置から設定してもよいし、白線の位置を基準に設定してもよい。白線の位置を基準に設定する場合には、例えば既存の白線認識技術等を利用するとよい。
Three-dimensional
また、立体物検出部14は、設定した検出領域A1,A2の自車両V側における辺(走行方向に沿う辺)を接地線L1、L2(図5を参照)として認識する。一般に接地線は立体物が地面に接触する線を意味するが、本実施形態では地面に接触する線でなく上記の如くに設定される。なおこの場合であっても、経験上、本実施形態に係る接地線と、本来の他車両VXの位置から求められる接地線との差は大きくなり過ぎず、実用上は問題が無い。
Further, the three-dimensional
図8は、立体物検出部14による差分波形の生成の様子を示す概略図である。図8に示すように、立体物検出部14は、上記のように算出した差分画像PDt(図7(b)の右図)のうち検出領域A1,A2に相当する部分から、差分波形DWtを生成する。この際、立体物検出部14は、視点変換により立体物が倒れ込む方向に沿って、差分波形DWtを生成する。なお、図8に示す例では、便宜上検出領域A1のみを用いて説明するが、検出領域A2についても同様の手順で差分波形DWtを生成する。
FIG. 8 is a schematic diagram illustrating how the three-dimensional
具体的に説明すると、立体物検出部14は、差分画像DWtのデータ上において立体物が倒れ込む方向上の線Laを定義する。そして、立体物検出部14は、線La上において所定の差分を示す差分画素DPの数をカウントする。ここで、所定の差分を示す差分画素DPは、差分画像DWtの画素値が鳥瞰視画像PBt,PBt−1の画素値の差を絶対値化したものである場合は、所定の閾値を超える画素であり、差分画像DWtの画素値が「0」「1」で表現されている場合は、「1」を示す画素である。
More specifically, the three-dimensional
立体物検出部14は、差分画素DPの数をカウントした後、線Laと接地線L1との交点CPを求める。そして、立体物検出部14は、交点CPとカウント数とを対応付け、交点CPの位置に基づいて横軸位置、すなわち図8右図の上下方向軸における位置を決定するとともに、カウント数から縦軸位置、すなわち図8右図の左右方向軸における位置を決定し、交点CPにおけるカウント数としてプロットする。
The three-dimensional
以下同様に、立体物検出部14は、立体物が倒れ込む方向上の線Lb,Lc…を定義して、差分画素DPの数をカウントし、各交点CPの位置に基づいて横軸位置を決定し、カウント数(差分画素DPの数)から縦軸位置を決定しプロットする。立体物検出部14は、上記を順次繰り返して度数分布化することで、図8右図に示すように差分波形DWtを生成する。
Similarly, the three-dimensional
なお、図8左図に示すように、立体物が倒れ込む方向上の線Laと線Lbとは検出領域A1と重複する距離が異なっている。このため、検出領域A1が差分画素DPで満たされているとすると、線Lb上よりも線La上の方が差分画素DPの数が多くなる。このため、立体物検出部14は、差分画素DPのカウント数から縦軸位置を決定する場合に、立体物が倒れ込む方向上の線La,Lbと検出領域A1とが重複する距離に基づいて正規化する。具体例を挙げると、図8左図において線La上の差分画素DPは6つあり、線Lb上の差分画素DPは5つである。このため、図8においてカウント数から縦軸位置を決定するにあたり、立体物検出部14は、カウント数を重複距離で除算するなどして正規化する。これにより、差分波形DWtに示すように、立体物が倒れ込む方向上の線La,Lbに対応する差分波形DWtの値はほぼ同じとなっている。
As shown in the left diagram of FIG. 8, the distance La and the line Lb in the direction in which the three-dimensional object falls are different from each other in the overlapping distance with the detection region A1. For this reason, if the detection area A1 is filled with the difference pixels DP, the number of difference pixels DP is larger on the line La than on the line Lb. For this reason, when the three-dimensional
次に、立体物検出部14は、近傍検出領域内の立体物を検出するために、差分波形DWtのピーク値と所定の閾値とを比較する。所定の閾値は、予め設定されている閾値であって、立体物を判定するための閾値である。そして、差分波形DWtのピーク値が所定の閾値以上である場合には、立体物検出部14は、近傍検出領域内に立体物が存在すると判定する。一方、差分波形DWtのピーク値が所定の閾値未満である場合には、立体物検出部14は、近傍検出領域内に立体物が存在しないと判定する。
Next, the three-dimensional
立体物検出部14は、近傍検出領域内に立体物が存在すると判定した場合には、検出した立体物の移動速度を算出するために、以下の処理を行う。
When the three-dimensional
差分波形DWtの生成後、立体物検出部14は一時刻前の差分波形DWt−1との対比により移動距離を算出する。すなわち、立体物検出部14は、差分波形DWt,DWt−1の時間変化から移動距離を算出する。
After the generation of the differential waveform DW t , the three-dimensional
詳細に説明すると、立体物検出部14は、図9に示すように差分波形DWtを複数の小領域DWt1〜DWtn(nは2以上の任意の整数)に分割する。図9は、立体物検出部14によって分割される小領域DWt1〜DWtnを示す図である。小領域DWt1〜DWtnは、例えば図9に示すように、互いに重複するようにして分割される。例えば小領域DWt1と小領域DWt2とは重複し、小領域DWt2と小領域DWt3とは重複する。
More specifically, the three-dimensional
次いで、立体物検出部14は、小領域DWt1〜DWtn毎にオフセット量(差分波形の横軸方向(図9の上下方向)の移動量)を求める。ここで、オフセット量は、一時刻前における差分波形DWt−1と現時刻における差分波形DWtとの差(横軸方向の距離)から求められる。この際、立体物検出部14は、小領域DWt1〜DWtn毎に、一時刻前における差分波形DWt−1を横軸方向に移動させた際に、現時刻における差分波形DWtとの誤差が最小となる位置(横軸方向の位置)を判定し、差分波形DWt−1の元の位置と誤差が最小となる位置との横軸方向の移動量をオフセット量として求める。そして、立体物検出部14は、小領域DWt1〜DWtn毎に求めたオフセット量をカウントしてヒストグラム化する。
Next, the three-dimensional
図10は、立体物検出部14により得られるヒストグラムの一例を示す図である。図10に示すように、各小領域DWt1〜DWtnと一時刻前における差分波形DWt−1との誤差が最小となる移動量であるオフセット量には、多少のバラつきが生じる。このため、立体物検出部14は、バラつきを含んだオフセット量をヒストグラム化し、ヒストグラムから移動距離を算出する。この際、立体物検出部14は、ヒストグラムの極大値から立体物の移動距離を算出する。すなわち、図10に示す例において立体物検出部14は、ヒストグラムの極大値を示すオフセット量を移動距離τ*と算出する。なおこの移動距離τ*は、自車両Vに対する他車両VXの相対移動距離である。このため、立体物検出部14は、絶対移動距離を算出する場合には、得られた移動距離τ*と車速センサ20からの信号とに基づいて、絶対移動距離を算出することとなる。
FIG. 10 is a diagram illustrating an example of a histogram obtained by the three-dimensional
なお、ヒストグラム化にあたり立体物検出部14は、複数の小領域DWt1〜DWtn毎に重み付けをし、小領域DWt1〜DWtn毎に求めたオフセット量を重みに応じてカウントしてヒストグラム化してもよい。
Incidentally, the three-dimensional
立体物検出部14は、異なる時刻の鳥瞰視画像の差分をとった上で、近傍検出領域内における立体物(他車両)の相対移動距離を算出している。そのため、立体物検出部14のみで、立体物の相対移動距離を算出することにより、近傍検出領域内における他車両の検出及び当該他車両の接近を検出する場合には、立体物検出部14は、少なくとも2フレーム分の撮像画像を必要する。
The three-dimensional
本例においては、車両検出部15が遠方検出領域内で他車両の接近を検出している。そして、立体物検出部14は、撮像画像を鳥瞰視画像に変換した際の倒れ込みを検出することで、他車両が近傍検出領域に入ったときの1フレーム目の撮像画像から、立体物を検出できる。また、車両検出部15による他車両の接近を検出することで、検出した他車両が遠方検出領域から近傍検出領域に入るタイミングも把握することができる。
In this example, the
すなわち、接近車判定部16は、車両検出部15の検出結果から他車両の存在を検出しつつ、他車両が遠方検出領域から近傍検出領域に入るタイミングを算出する。接近車判定部16は、他車両が遠方検出領域から近傍検出領域に入るタイミングに合わせて、立体物検出部14に対して、鳥瞰視画像の差分ではなく、現時刻における鳥瞰視画像の倒れ込みから立体物を検出する旨に信号を出力する。立体物検出部14は、当該信号を受信したときには、鳥瞰視画像の差分に基づく検出結果のみではなく、現時刻の鳥瞰視画像に基づく検出結果を、接近車判定部16に出力する。
That is, the approaching
立体物検出部14は、現時刻の鳥瞰視画像に基づき立体物を検出する際には、上記と同様に、現時刻の鳥瞰視画像から倒れ込む方向上の線を特定して、特定した線上の画素数をカウントした上で、カウント数と対応する交点CPの位置を決定する。立体物検出部14は、交点CPの位置を横軸に、交点CPに対応するカウント数を縦軸にとり、カウント数のピーク値と所定の閾値とを比較する。そして、ピーク値が所定の閾値より高い場合には、立体物検出部14は、現時刻の鳥瞰視画像内において立体物の存在を検出し、検出結果を接近車判定部16に出力する。
When detecting the three-dimensional object based on the bird's-eye view image at the current time, the three-dimensional
接近車判定部16は、立体物検出部15の検出結果から、他車両の遠方検出領域から近傍検出領域に入るタイミングに合わせて、当該他車両に対応する立体物を検出した場合に、当該他車両を接近車として判定する。そして、接近車判定部16は、報知部6を制御して、接近車の存在を乗員に警告する。
When the approaching
これにより、本例は、立体物検出部15において、他車両が近傍検出領域に入ったときの1フレーム目の撮像画像から立体物を検出できる。そして、鳥瞰視画像の差分から立体物を検出する場合の検出時間と比較して、検出時間をより短くできる。また、遠方検出領域から近傍検出領域への切り替わりのポイントでも、他車両をシームレスで検出できる。
Thereby, in this example, the three-dimensional
また近傍検出領域において、鳥瞰視画像に基づき立体物を検出する際には、近傍検出領域のエッジ部分(自車両から遠い部分)では、検出精度が低くなる場合があった。しかしながら、本例では、車両検出部15により、近傍検出領域に入る前に、他車両の存在を検出している。そのため、当該他車両が近傍検出領域に入った際の、鳥瞰視画像の変化(倒れ込み画像の有無)を検出できれば、近傍検出領域に入る他車両の接近を検出できる。その結果として、他車両の検出精度を高めることができる。
When detecting a three-dimensional object based on a bird's-eye view image in the vicinity detection area, the detection accuracy may be low at the edge part (the part far from the host vehicle) of the vicinity detection area. However, in this example, the
上記のように、本例は、車両検出部15において、リアカメラ1cの撮像画像に基づき遠方検出領域における他車両を検出し、立体物検出部14において、バックカメラ1dの撮像画像に基づき近傍検出領域における立体物を検出し、車両検出部15により他車両の存在を検出した後に、立体物検出部14により他車両に対応する立体物を検出した場合には、他車両を接近車として判定する。これにより、本例は、車両後方の遠方を撮像した画像に基づき他車両を検出した上で、自車両の近傍を表す鳥瞰視画像から他車両に対応する立体物を検出しているため、他車両の検出精度を高めることができる。
As described above, in this example, the
また本例において、立体物検出部15は、他車両が近傍検出領域内に入ったときに最初に撮像された撮像画像に基づき、立体物を検出する。これにより、接近車の検出時間を短縮できる。
In this example, the three-dimensional
また本例において、立体物検出部15は、近傍検出領域のうち、リアカメラ1cの撮像範囲内の立体物を、リアカメラ1cの撮像画像に基づいて検出する。これにより、歪みの少ない撮像画像を用いて立体物を検出できるため、立体物の検出精度を高めることができる。
In this example, the three-dimensional
また本例において、立体物検出部15は、バックカメラ1d又はリアカメラ1cにより異なる時刻に撮像された撮像画像を鳥瞰視画像に視点変換し、鳥瞰視画像の位置を鳥瞰視上で位置合わせし、当該位置合わせされた鳥瞰視画像の差分画像上において、鳥瞰視画像を視点変換した際に立体物が倒れ込む方向に沿って、差分画像上において所定の差分を示す画素数をカウントして度数分布化することで差分波形情報を生成し、差分波形情報に基づいて、立体物の状態を検出する。これにより、自車両の後方の近傍部分の接近車の状態を、高い精度で検出できる。
In this example, the three-dimensional
また本例において、リアカメラ1cの位置を、地表に対してバックカメラ1dの位置より高い位置に設置し、リアカメラ1cの画角を、バックカメラ1dの画角より狭い画角にしている。これにより、自車両の遠方部分の他車両を、高い解像度で検出できる。
In this example, the position of the
なお、本例において、車両検出部15は、バックカメラ1dの撮像画像に基づき車両を検出したが、右サイドカメラ1aの撮像画像又は左サイドカメラ1bの撮像画像に基づき、車両を検出してもよい。
In this example, the
また、立体物検出部14は、バックカメラ1dの撮像画像のみに基づいて立体物を検出してもよい。
Further, the three-dimensional
また、車両検出部15は、右サイドカメラ1aの撮像画像、左サイドカメラ1bの撮像画像、及びリアカメラ1cの撮像画像のうち、少なくとも二つの撮像画像に基づいて、ステレオカメラの原理を利用して、他車両の検出、及び他車両までの距離を検出してもよい。
Further, the
また遠方検出領域は、自車両の走行車線と隣接する車線上に限らず、自車両の走行車線上に設定されてもよい。 Further, the far detection area is not limited to the lane adjacent to the traveling lane of the host vehicle, but may be set on the traveling lane of the host vehicle.
上記のバックカメラ1dが本発明の「第1撮像手段」に相当し、リアカメラ1cが本発明の「第2撮像手段」に相当し、立体物検出部14が本発明の「立体物検出手段」に相当し、鳥瞰視画像生成部13及び立体物検出部14が本発明の「立体物検出手段」に相当し、接近車判定部16が本発明の「接近車判定手段」に相当する。
The
1a…右サイドカメラ
1b…左サイドカメラ
1c…フロントカメラ
1d…バックカメラ
1e…リアカメラ
2a…右ディスプレイ
2b…左ディスプレイ
2c…中央ディスプレイ
3…報知部
10…コントローラ
11…後側方画像制御部
12…後方画像制御部
13…鳥瞰視画像生成部
14…立体物検出部
15…車両検出部
16…接近車判定部
DESCRIPTION OF
Claims (5)
前記車両の後方を撮像する第1撮像手段と、
前記車両の後方で、前記第1撮像手段よりも遠方を撮像する第2撮像手段と、
前記第1撮像手段により撮像された第1撮像画像を鳥瞰視画像に視点変換し、前記鳥瞰視画像に写る立体物の倒れ込みから前記立体物を検出する立体物検出手段と、
前記第2撮像手段により撮像された第2撮像画像に基づき他車両を検出する車両検出手段と、
前記立体物検出手段及び前記車両検出手段の検出結果に基づき、自車両に接近する接近車の有無を判定する接近車判定手段とを備え、
前記接近車判定手段は、
前記車両検出手段の検出結果に基づき、前記他車両が遠方検出領域から近傍検出領域に入るタイミングを算出し、
前記立体物検出手段は、
異なる時刻の前記鳥瞰視画像に基づき、近傍検出領域内における前記立体物を検出し、
前記タイミングに対応して撮像された1つのフレーム分の前記第1撮像画像を、現時刻の鳥瞰視画像として視点変換し、前記現時刻の鳥瞰視画像に写る立体物の倒れ込みから前記立体物を検出する
ことを特徴とする車両検出装置。 In a vehicle detection device mounted on a vehicle,
First imaging means for imaging the rear of the vehicle;
Second imaging means for imaging far behind the first imaging means behind the vehicle;
A three-dimensional object detection means for converting the first captured image captured by the first imaging means into a bird's-eye view image, and detecting the three-dimensional object from the fall of the three-dimensional object shown in the bird's-eye view image;
Vehicle detection means for detecting another vehicle based on the second captured image captured by the second imaging means;
Based on the detection results of the three-dimensional object detection means and the vehicle detection means, an approaching vehicle determination means for determining whether there is an approaching vehicle approaching the host vehicle,
The approaching vehicle determination means includes
Based on the detection result of the vehicle detection means, the timing when the other vehicle enters the proximity detection area from the far detection area,
The three-dimensional object detection means includes:
Based on the bird's-eye view images at different times, detect the three-dimensional object in the proximity detection region,
The first captured image for one frame imaged corresponding to the timing is subjected to viewpoint conversion as a bird's-eye view image at the current time, and the three-dimensional object is taken from the fall of the three-dimensional object reflected in the bird's-eye view image at the current time. vehicle detection apparatus according to claim <br/> be detected.
前記立体物検出手段は、
前記他車両が前記立体物の検出領域内に入ったときに最初に撮像された前記第1撮像画像に基づき、前記立体物を検出する
ことを特徴とする車両検出装置。 The vehicle detection device according to claim 1,
The three-dimensional object detection means includes:
The other vehicle on the basis of the initially captured the first captured image upon entering the detection area of the three-dimensional object, the vehicle detection device and detects the three-dimensional object.
前記立体物検出手段は、
前記車両の後方に設定された検出領域のうち前記第2撮像手段の撮像範囲内の立体物を、前記第2撮像画像に基づいて検出する
ことを特徴とする車両検出装置。 In the vehicle detection device according to claim 1 or 2,
The three-dimensional object detection means includes:
A vehicle detection apparatus that detects a three-dimensional object within an imaging range of the second imaging means in a detection area set behind the vehicle based on the second captured image.
前記立体物検出手段は、
前記第1撮像手段により異なる時刻に撮像された前記第1撮像画像を鳥瞰視画像に視点変換し、鳥瞰視画像の位置を鳥瞰視上で位置合わせし、当該位置合わせされた鳥瞰視画像の差分画像上において、前記鳥瞰視画像を視点変換した際に立体物が倒れ込む方向に沿って、前記差分画像上において所定の差分を示す画素数をカウントして度数分布化することで差分波形情報を生成し、当該差分波形情報に基づいて、前記立体物の状態を検出する
ことを特徴とする車両検出装置。 In the vehicle detection device according to any one of claims 1 to 3,
The three-dimensional object detection means includes:
The first captured image captured at different times by the first imaging unit is converted into a bird's-eye view image, the position of the bird's-eye view image is aligned on the bird's-eye view, and the difference between the aligned bird's-eye view images On the image, differential waveform information is generated by counting the number of pixels indicating a predetermined difference on the difference image and performing frequency distribution along the direction in which the three-dimensional object falls when the bird's-eye view image is subjected to viewpoint conversion. And the state of the said solid object is detected based on the said difference waveform information, The vehicle detection apparatus characterized by the above-mentioned.
前記第2撮像手段は、
地表に対して前記第1撮像手段よりも高い位置に設けられ、前記第1撮像手段の画角よりも狭い画角である。
ことを特徴とする車両検出装置。 In the vehicle detection device according to any one of claims 1 to 4,
The second imaging means includes
The angle of view is provided at a position higher than the first image pickup unit with respect to the ground surface and is narrower than the angle of view of the first image pickup unit.
The vehicle detection apparatus characterized by the above-mentioned.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013160168A JP6179249B2 (en) | 2013-08-01 | 2013-08-01 | Vehicle detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013160168A JP6179249B2 (en) | 2013-08-01 | 2013-08-01 | Vehicle detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015032082A JP2015032082A (en) | 2015-02-16 |
JP6179249B2 true JP6179249B2 (en) | 2017-08-16 |
Family
ID=52517361
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013160168A Active JP6179249B2 (en) | 2013-08-01 | 2013-08-01 | Vehicle detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6179249B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7193942B2 (en) * | 2018-07-27 | 2022-12-21 | フォルシアクラリオン・エレクトロニクス株式会社 | vehicle detector |
US11676397B2 (en) * | 2020-10-15 | 2023-06-13 | Denso International America, Inc. | System and method for detecting an object collision |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008222153A (en) * | 2007-03-15 | 2008-09-25 | Aisin Aw Co Ltd | Merging support device |
JP5146330B2 (en) * | 2009-01-15 | 2013-02-20 | 日産自動車株式会社 | Vehicle road sign recognition device |
JP5476960B2 (en) * | 2009-12-08 | 2014-04-23 | トヨタ自動車株式会社 | Vehicle forward monitoring device |
JP5251927B2 (en) * | 2010-06-21 | 2013-07-31 | 日産自動車株式会社 | Moving distance detection device and moving distance detection method |
JP5704902B2 (en) * | 2010-11-26 | 2015-04-22 | 東芝アルパイン・オートモティブテクノロジー株式会社 | Driving support device and driving support method |
-
2013
- 2013-08-01 JP JP2013160168A patent/JP6179249B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015032082A (en) | 2015-02-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6091586B1 (en) | VEHICLE IMAGE PROCESSING DEVICE AND VEHICLE IMAGE PROCESSING SYSTEM | |
JP5615441B2 (en) | Image processing apparatus and image processing method | |
KR100936558B1 (en) | Perimeter monitoring apparatus and image display method for vehicle | |
WO2020172842A1 (en) | Vehicle intelligent driving control method and apparatus, electronic device and storage medium | |
US7557691B2 (en) | Obstacle detector for vehicle | |
JP6257989B2 (en) | Driving assistance device | |
EP2544449B1 (en) | Vehicle perimeter monitoring device | |
EP1961613B1 (en) | Driving support method and driving support device | |
JP5922866B2 (en) | System and method for providing guidance information to a vehicle driver | |
US20150109444A1 (en) | Vision-based object sensing and highlighting in vehicle image display systems | |
WO2011043006A1 (en) | Control device and vehicle surrounding monitoring device | |
JP2009118415A (en) | Method and apparatus for generating bird's-eye view image | |
CN102303563B (en) | System and method for prewarning front vehicle collision | |
KR20120077309A (en) | Apparatus and method for displaying rear image of vehicle | |
JP6032034B2 (en) | Object detection device | |
JP2013053962A (en) | Camera system, collision prediction system, and parking guide system | |
US9818033B2 (en) | Monitoring method and apparatus using a camera | |
TW201526638A (en) | Obstacle detection and display system for vehicle | |
JP2012198857A (en) | Approaching object detector and approaching object detection method | |
JP2014235639A (en) | Vehicle display device | |
JP2014130429A (en) | Photographing device and three-dimensional object area detection program | |
JP6179249B2 (en) | Vehicle detection device | |
JP2014235640A (en) | Vehicle display device | |
US20180186287A1 (en) | Image processing device and image processing method | |
JP2006160193A (en) | Vehicular drive supporting device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160325 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170131 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170131 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170329 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170620 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170703 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6179249 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |