JP2011161935A - Drive support device - Google Patents
Drive support device Download PDFInfo
- Publication number
- JP2011161935A JP2011161935A JP2008143786A JP2008143786A JP2011161935A JP 2011161935 A JP2011161935 A JP 2011161935A JP 2008143786 A JP2008143786 A JP 2008143786A JP 2008143786 A JP2008143786 A JP 2008143786A JP 2011161935 A JP2011161935 A JP 2011161935A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- unit
- obstacle
- bird
- eye view
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、運転支援技術に関し、特に車両に設置された撮像装置によって撮像した画像をもとに、運転を支援する運転支援装置に関する。 The present invention relates to driving support technology, and more particularly to a driving support device that supports driving based on an image captured by an imaging device installed in a vehicle.
車両のリア部分に車載カメラを設置し、車載カメラによって撮像した画像を運転者に提示することによって、車両後方の様子を運転者に知らしめるための運転支援装置が開発されている。さらに、運転支援装置は、画像を提示するだけではなく、障害物に接近した場合に、その旨を運転手に警告する。その際、障害物の検出は、予め基準画像を撮像し、後退する際に撮像した画像と基準画像とを比較することによってなされる(例えば、特許文献1参照)。
運転者が駐車を実行する際、車両後方だけではなく車両前方や側方にも、障害物は存在する場合がある。そのため、車両の後方における障害物だけではなく、車両の周囲に対する障害物が検出される方が好ましい。また、駐車する際の障害物として、静体と動体とが存在する。静体とは、壁や他の駐車車両などの駐車を実行する際に移動しない物体である。一方、動体とは、ボールや人物などの駐車を実行する際に移動する物体である。前者に対して、高速な検出速度よりも高い検出精度がより要求され、後者に対して、高速な検出精度も要求される。 When the driver performs parking, an obstacle may exist not only in the rear of the vehicle but also in the front and side of the vehicle. For this reason, it is preferable to detect not only an obstacle behind the vehicle but also an obstacle around the vehicle. There are still and moving objects as obstacles when parking. A static body is an object that does not move when parking, such as a wall or another parked vehicle. On the other hand, a moving body is an object that moves when parking a ball or a person. The former requires higher detection accuracy than the high-speed detection speed, and the latter requires high-speed detection accuracy.
本発明者はこうした状況を認識して本発明をなしたものであり、その目的は、駐車の際における障害物の警告を高精度に実行する技術を提供することである。 The inventor has realized the present invention by recognizing such a situation, and an object of the present invention is to provide a technology for executing an obstacle warning at the time of parking with high accuracy.
上記課題を解決するために、本発明のある態様の運転支援装置は、車両に設置された少なくともひとつの撮像装置によって撮像された画像をもとに、車両周辺の鳥瞰図画像を生成する画像生成部と、画像生成部において生成した鳥瞰図画像に対応すべき車両の予想軌跡であって、車両のハンドルを操作して車両を移動させる場合の予想軌跡を記憶する記憶部と、記憶部において記憶した予想軌跡を画像生成部において生成した鳥瞰図画像に重畳して表示する表示部と、表示部において表示される鳥瞰図画像に対して、予想軌跡をもとに障害物の検出領域を設定する設定部と、設定部において設定した検出領域内の障害物を検出した場合に、その旨を警告する警告部と、を備える。 In order to solve the above problems, a driving support device according to an aspect of the present invention is an image generation unit that generates a bird's-eye view image around a vehicle based on an image captured by at least one imaging device installed in the vehicle. A predicted trajectory of the vehicle that should correspond to the bird's eye view image generated by the image generating unit, the predicted trajectory when the vehicle is moved by operating the steering wheel of the vehicle, and the predicted stored in the storage unit A display unit that superimposes and displays the locus on the bird's-eye view image generated by the image generation unit; a setting unit that sets an obstacle detection area based on the expected locus for the bird's-eye view image displayed on the display unit; And a warning unit that warns that when an obstacle in the detection area set by the setting unit is detected.
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。 It should be noted that any combination of the above-described constituent elements and a conversion of the expression of the present invention between a method, an apparatus, a system, a recording medium, a computer program, etc. are also effective as an aspect of the present invention.
本発明によれば、駐車の際における障害物の警告を高精度に実行できる。 ADVANTAGE OF THE INVENTION According to this invention, the warning of the obstruction in the case of parking can be performed with high precision.
本発明を具体的に説明する前に、概要を述べる。本発明の実施例は、車載カメラにて撮像した画像を表示するとともに、駐車する際の予想軌跡も表示し、さらに障害物との接近を運転者に警告する運転支援装置に関する。車両の周囲に対する障害物を検出するとともに、障害物として静体と動体とのそれぞれを高精度に検出するために、本実施例に係る運転支援装置は以下の処理を実行する。車両には、後方だけではなく前方にも、車載カメラが設置される。例えば、車両のフロント部分の左右およびリア部分の左右に、合計4つの車載カメラが設置される。運転支援装置は、複数の車載カメラのそれぞれにおいて撮像した画像を取得し、全周鳥瞰図画像を生成する。 Before describing the present invention in detail, an outline will be described. Embodiments of the present invention relate to a driving support apparatus that displays an image captured by a vehicle-mounted camera, displays an expected trajectory when parking, and warns the driver of an approach to an obstacle. In order to detect an obstacle with respect to the surroundings of the vehicle and detect each of a stationary body and a moving body with high accuracy as the obstacle, the driving support device according to the present embodiment executes the following processing. In-vehicle cameras are installed not only on the rear but also on the front of the vehicle. For example, a total of four in-vehicle cameras are installed on the left and right of the front part of the vehicle and on the left and right of the rear part. The driving support device acquires images captured by each of the plurality of in-vehicle cameras, and generates an all-around bird's-eye view image.
また、運転支援装置は、所定のハンドル舵角に対応した予想軌跡を予め記憶する。ここで、予想軌跡は、全周鳥瞰図画像に対応するので、後輪だけではなく前輪に対する軌跡も含まれている。運転支援装置は、予想軌跡上あるいは予想軌跡から一定の幅を有したエリア上(以下、これらを「第1エリア」という)において、静体を検出する。静体の検出には、例えば、平面投影ステレオ法が使用される。一方、運転支援装置は、車両100が通過するエリア(以下、「第2エリア」という)において、動体を検出する。動体の検出には、例えば、オプティカルフローが使用される。このように、全周鳥瞰図画像を使用することによって、後方だけでなく前方や側方の障害物を検出できる。また、静体と動体とを別々に検出するので、それぞれに適した検出方法を使用できる。
In addition, the driving support device stores in advance an expected trajectory corresponding to a predetermined steering angle. Here, since the expected trajectory corresponds to the all-around bird's-eye view image, the trajectory includes not only the rear wheel but also the front wheel. The driving support device detects a still body on an expected trajectory or on an area having a certain width from the expected trajectory (hereinafter referred to as “first area”). For the detection of a stationary body, for example, a planar projection stereo method is used. On the other hand, the driving assistance device detects a moving object in an area (hereinafter referred to as “second area”) through which the
図1は、本発明の実施例に係る車両100の構成を示す。車両100は、運転支援装置10、撮像装置12と総称される第1撮像装置12a、第2撮像装置12b、第3撮像装置12c、第4撮像装置12d、表示装置14を含む。なお、車両100には、エンジン、シャーシ、ハンドル、ブレーキ等のような、車両100の本来の動作を実現するための構成要素が含まれている。しかしながら、図を明瞭にするために、図1は、運転を支援するための画像を表示するためや、障害物を検出した場合に警告するために必要な構成要素以外を省略する。また、図1に示された車両100の左側が前方に相当する。
FIG. 1 shows a configuration of a
撮像装置12は、画像を連続的に撮像し、撮像した画像を運転支援装置10へ出力する。ここでは、画像そのものあるいは画像のデータを区別せずに「画像」という。第1撮像装置12aと第2撮像装置12bは、車両100のフロント部分に設置され、第3撮像装置12cと第4撮像装置12dは、車両100のリア部分に設置されている。ここで、第1撮像装置12aから第4撮像装置12dは、任意の組合せにてステレオカメラを形成する。ステレオカメラとは、対象物を複数の異なる方向から同時に撮影することにより、その奥行き方向の情報も記録できるようにしたカメラのことである。なお、撮像装置12の数は「4」に限定されない。
The
運転支援装置10は、各撮像装置12からの画像を入力する。運転支援装置10は、入力した画像を鳥瞰図画像に変換し、さらに複数の撮像装置12のそれぞれに対応した鳥瞰図画像を合成することによって、全周鳥瞰図画像を生成する。運転支援装置10は、予想軌跡を記憶しており、生成した全周鳥瞰図画像に複数種類の予想軌跡を重ねる。ここでは、予想軌跡が重ねられた全周鳥瞰図画像を「合成画像」という。運転支援装置10は、表示装置14へ合成画像を出力する。
The
表示装置14は、運転支援装置10からの合成画像を受けつける。また、表示装置14は、モニタを備えており、モニタに合成画像を表示する。さらに、運転支援装置10は、予想軌跡をもとに、前述の第1エリアと第2エリアとを設定する。運転支援装置10は、第1エリアにおいて静体を検出するとともに、第2エリアにおいて動体を検出する。運転支援装置10は、静体や動体を検出した場合に、運転者に警告を出力する。なお、運転支援装置10と表示装置14とが一体的に構成されていてもよい。
The
図2は、運転支援装置10の構成を示す。運転支援装置10は、フレームバッファ20と総称される第1フレームバッファ20a、第2フレームバッファ20b、第3フレームバッファ20c、第4フレームバッファ20d、生成部22、変換テーブル記憶部24、制御部26、操作部28、予想軌跡記憶部30、合成部32、監視部34、警告部36を含む。また、監視部34は、設定部38、静体検知部40、動体検知部42を含む。
FIG. 2 shows the configuration of the
操作部28は、ボタン等を含むように構成されており、運転者からの指示を受けつける。操作部28によって受けつけられる指示の一例は、合成画像の表示や監視処理の開始に関する指示である。操作部28は、受けつけた指示を制御部26へ出力する。制御部26は、運転支援装置10全体の動作を制御する。また、制御部26は、操作部28から入力した指示に応じて、後述の生成部22、変換テーブル記憶部24、予想軌跡記憶部30、合成部32、監視部34、警告部36を制御する。ここでは、制御部26によって制御される運転支援装置10の状態として、(1)停車前、(2)後退前、(3)後退中が規定されている。
The
フレームバッファ20は、図示しない各撮像装置12に対応づけられて配置されている。例えば、第1フレームバッファ20aから第4フレームバッファ20dは、第1撮像装置12aから第4撮像装置12dにそれぞれ対応づけられている。フレームバッファ20は、撮像装置12からの画像を記憶し、生成部22へ画像を出力する。生成部22は、複数のフレームバッファ20から画像を受けつけ、各画像を鳥瞰図画像へ変換する。このような変換には、公知の技術、例えば特開2008−48345号公報に開示された技術を使用すればよいので、ここでは説明を省略する。
The
変換テーブル記憶部24は、画像から全周鳥瞰図画像への変換の際に使用される変換式を記憶しており、生成部22は、制御部26を介して、変換テーブル記憶部24に記憶された変換式を参照することによって、鳥瞰図画像を生成する。また、生成部22は、鳥瞰図画像を合成することによって、全周鳥瞰図画像を生成する。なお、全周鳥瞰図画像の生成にも、特開2008−48345号公報に開示された技術が使用されればよい。このような全周鳥瞰図画像は、車両100周辺の鳥瞰図画像ともいえる。ここで、生成部22は、各フレームバッファ20から連続的に画像を入力するので、全周鳥瞰図画像を連続的に生成する。生成部22は、全周鳥瞰図画像を合成部32へ出力する。生成部22は、全周鳥瞰図画像の生成とは別に、フレームバッファ20から受けつけた画像を監視部34へ出力する。
The conversion
予想軌跡記憶部30は、生成部22において生成した全周鳥瞰図画像に対応すべき車両100の予想軌跡を記憶する。ここで、予想軌跡は、車両100のタイヤが通過すると予想される経路であり、車両100のハンドルを操作して車両100を後退させる場合の経路に相当する。例えば、予想軌跡は、ハンドルを末切りまで回転させたときの経路として予め設定されている。なお、予想軌跡記憶部30は、ハンドルを末切りまで回転させたときの予想軌跡以外の別の予想軌跡も記憶してもよい。その際、運転者から指示によって、使用される予想軌跡が選択される。また、操作部28は、運転者からの指示を受けつけ、制御部26は、指示に応じた設定を予想軌跡記憶部30に登録する。
The predicted
合成部32は、生成部22から全周鳥瞰図画像を入力し、予想軌跡記憶部30から予想軌跡を入力する。合成部32は、予想軌跡を全周鳥瞰図画像に重畳することによって、合成画像を生成する。その際、合成部32は、全周鳥瞰図画像上の車両100の座標と、予想軌跡の座標とを対応づける。つまり、予想軌跡の起点が車両100となるように合成画像が生成される。なお、合成画像の詳細は後述する。ここでは、合成部32の処理を前述の(1)から(3)に沿って説明する。
The synthesizing
(1)停車前において、運転者が車両100を運転して駐車スペースの近傍に到着したとき、操作部28は、合成画像を表示すべき旨の指示を運転者から受けつける。これは、運転者がボタン押下することによって実現される。なお、ボタンが押し下げられるまで、表示装置14には、合成画像が表示されておらず、例えば、ナビゲーション画面等が表示されている。そのため、駐車前にボタン押下によって、表示装置14の表示が切りかえられるともいえる。なお、操作部28は、ボタンによって指示を受けつけずに、例えば、タッチパネル、音声認識などによって指示を受けつけてもよい。前述のごとく、操作部28は、受けつけた指示を制御部26へ出力する。
(1) Before the vehicle stops, when the driver drives the
制御部26は、操作部28からの指示を受けつけると、合成画像が生成されるように、生成部22、合成部32の動作を制御する。合成部32は、予想軌跡記憶部30から予想軌跡を抽出する。ここで、予想軌跡は、初期のハンドル舵角αに対応する。なお、駐車支援を必要とする場面では、一般的に、ハンドルは末切りまで回転されるので、予想軌跡に対するハンドル舵角は、末切り状態に対応する。合成部32は、合成画像を図示しない表示装置14へ出力することによって、表示装置14に合成画像を表示させる。その結果、運転者は、表示装置14に表示された合成画像を確認しながら、ハンドルを操作することによって、前後方の障害物に接触することなく、駐車スペースに収まるような停車位置への誘導が可能になる。
Upon receiving an instruction from the
(2)後退前において、運転者が表示装置14に表示された合成画像を見ながら、駐車の開始となる位置に車両100を停止させたとき、つまり車両100の後退を開始させる前、操作部28は、運転者によるボタンの押し下げを検出する。操作部28は、検出結果を制御部26へ出力する。制御部26は、操作部28からの検出結果を受けつけると、図示しないスピーカから、「ハンドルをxx回左に切ってください」のような音声ガイダンス等を出力する。ここで、ガイダンスの内容は、予想軌跡に対するハンドル舵角に対応するように予め設定されている。
(2) Before the reverse, when the driver stops the
(3)後退中において、制御部26は、操作部28からの検出結果を受けつけた後、タイマーを開始させることによって、操作部28からの検出結果を受けつけてからの期間を計測する。予め定めた期間が経過された後、つまりスピーカから音声ガイダンスが出力されてから、一定の期間が経過した後、制御部26は、合成部32に対して、予想軌跡の重畳を中止させる。その結果、合成部32は、全周鳥瞰図画像に車幅延長線のみを重畳することによって、合成画像を生成し、表示装置14へ合成画像を出力する。車幅延長線とは、ハンドルを切らずに車両100がまっすぐ後退した場合の軌跡である。
(3) During retreat, the
なお、制御部26は、図示しないシフト位置センサと接続されており、シフトが後退に入った旨をシフト位置センサから受けつける。その後、制御部26は、シフトが別の位置に入った旨をシフト位置センサから受けつけたときに、合成部32に対して、予想軌跡の重畳を中止させてもよい。あるいは、運転手によるボタンの再押下を操作部28が検出し、制御部26は、操作部28における検出がなされたときに、合成部32に対して、予想軌跡の重畳を中止させてもよい。
The
図3(a)−(e)は、合成部32において後退駐車の際に生成される合成画像を示す。これらは、表示装置14に表示される合成画像ともいえる。図3(a)は、車両100が駐車場に進入した場合の合成画像である。合成画像の中央付近に車両100が示されている。また、合成画像の下部に駐車スペース70が示されている。以下では、車両100が駐車スペース70に駐車する場合を想定する。なお、この段階において、合成画像は表示装置14に表示されていなくてもよい。運転手は、このような状態において、ボタンを押し下げることによって、運転支援装置10は、前述の(1)停車前の状態になる。
FIGS. 3A to 3E show a combined image generated when the combining
図3(b)は、(1)停車前の状態における合成画像を示す。図示のごとく、予想軌跡50と総称される第1予想軌跡50a、第2予想軌跡50b、第3予想軌跡50cが示される。また、車幅延長線58と総称される第1車幅延長線58a、第2車幅延長線58bも示される。予想軌跡50は、ハンドルを末切りまで回転させた場合の予想軌跡に相当する。また、第1予想軌跡50aは、右側後輪の予想軌跡に相当し、第2予想軌跡50bは、左側後輪の予想軌跡に相当し、第3予想軌跡50cは、前輪の予想軌跡に相当する。図3(b)の状態において、第1予想軌跡50aおよび第2予想軌跡50bは、駐車スペース70に隣接したスペースに駐車された車両(以下、「隣接車両」という)に重なっている。
FIG. 3B shows a composite image in a state before (1) stopping. As illustrated, a first predicted
つまり、図3(b)の停車位置から、ハンドル舵角が末切りの状態のまま、車両100が後退すると、車両100が隣接車両に衝突してしまうおそれがある。そのため、運転者は、表示装置14に表示された合成画像を確認しながら、予想軌跡50が隣接車両に重ならないような位置へ車両100を移動させる。これは、予想軌跡50上の障害物が存在しない停車位置が模索されることに相当する。
That is, if the
図3(c)は、図3(b)に続く状態であり、予想軌跡50が隣接車両に重ならないような位置に車両100が存在する。図3(c)の停車位置から、ハンドル舵角が末切りの状態のまま、車両100が後退しても、車両100が隣接車両に衝突しない。そのため、図3(c)では、停車位置が決定されたといえ、前述の(2)後退前の状態になったといえる。運転手は、このような状態において、ボタンを押し下げると、「ハンドルを末切りまで左に切ってください」との音声ガイダンスが出力される。図3(d)は、図3(c)に続く状態であり、前述の(3)後退中の状態である。図示のごとく、予想軌跡50が消去され、車幅延長線58のみが表示されている。運転者は、車両100をまっすぐに後退させる。その結果、図3(e)のごとく、車両100は駐車スペース70内にて停止する。
FIG. 3C is a state following FIG. 3B, and the
図4(a)−(c)は、合成部32において前進駐車から発進する際に生成される合成画像を示す。ここでは、初期状態において、車両100は、駐車スペース70に停止されており、後退しながら駐車スペース70から出て行く場合を想定する。図4(a)は、前述の(1)停車前の状態に相当しており、予想軌跡50および車幅延長線58が表示されている。また、第3予想軌跡50cが隣接車両と重なっている。つまり、図4(a)の停止位置から、ハンドル舵角が末切りの状態のまま、車両100が後退すると、車両100が隣接車両に衝突してしまうおそれがある。そのため、運転者は、表示装置14に表示された合成画像を確認しながら、予想軌跡50が隣接車両に重ならないような位置へ車両100を移動させる。
FIGS. 4A to 4C show composite images generated when the combining
図4(b)は、図4(a)に続く状態であり、車両100がまっすぐに後退した場合である。この位置では、第3予想軌跡50cが隣接車両に重ならない。そのため、図4(b)では、停車位置が決定されたといえ、前述の(2)後退前の状態になったといえる。運転手は、このような状態において、ボタンを押し下げると、「ハンドルを末切りまで左に切ってください」との音声ガイダンスが出力される。図4(c)は、図4(b)に続く状態であり、前述の(3)後退中の状態である。ここでは、予想軌跡50が表示されているが、この後、予想軌跡50が消去され、車幅延長線58のみが表示される。その結果、車両100による駐車スペース70から抜け出しが完了される。
FIG. 4B is a state following FIG. 4A, and is a case where the
図2に戻る。設定部38は、図示しない表示装置14において表示される合成画像、つまり合成部32において生成された合成画像に対して、予想軌跡をもとに障害物の検出領域を設定する。ここで、設定部38は、静止した障害物である静体の検出領域と、動作する障害物である動体の検出領域とを独立に設定する。前者が第1エリアに相当し、後者が第2エリアに相当する。ここでは、図面を使用しながら、第1エリアと第2エリアとを説明する。
Returning to FIG. The setting
図5は、警告部36における監視処理の概要を示す。これは、図3(b)等と同様の合成画像であり、車両100および駐車スペース70が示されている。また、第1予想軌跡50aから第3予想軌跡50cも示されている。第1エリアは、予想軌跡50上あるいは予想軌跡50から一定の幅を有したエリア上であると規定される。しかしながら、説明を容易にするために、以下では、第1エリアが予想軌跡50上であるとする。そのため、図5では、第1予想軌跡50a、第2予想軌跡50b、第3予想軌跡50cが第1エリアに相当する。一方、第2エリアは、車両100が通過するエリアと規定されている。図5では、第1予想軌跡50aと第2予想軌跡50bとの間のエリアである第1検出エリア60aと、車両100と第3予想軌跡50cとの間のエリアである第2検出エリア60bとが第2エリアに相当する。予想軌跡50は、全周鳥瞰図画像における第1エリアの位置、例えば座標を静体検知部40へ出力し、全周鳥瞰図画像における第2エリアの領域、例えば座標を動体検知部42へ出力する。
FIG. 5 shows an overview of the monitoring process in the
静体検知部40は、生成部22から、複数の画像を受けつけるとともに、設定部38から、第1エリアの座標を受けつける。静体検知部40は、複数の画像に対して、平面投影ステレオ法を使用することによって、画像に含まれた物体の高さを特定する。平面投影ステレオ法は、視点の異なる複数の撮像装置12によって撮像した複数の撮影画像をひとつの基準平面上に投影し、それらの画像の差分から高さのある物体の領域を求めるという手法である。
The still
平面投影ステレオ法として、例えば、特開2003−232867号公報に記載された技術が使用されればよいので、ここでは説明を省略する。静体検知部40は、第1エリア上における物体の高さがしきい値より高い場合に、静体を検出したとする。静体検知部40は、静体を検出した場合にその旨を警告部36へ出力する。その際、静体検知部40は、検出した静体の位置を出力してもよい。ここで、障害物の検知は、例えば、ブレーキが踏まれている状態や停止している場合になされる。そのために、静体検知部40は、図示しないブレーキセンサや速度センサからの情報を入力してもよい。
As the planar projection stereo method, for example, the technique described in Japanese Patent Application Laid-Open No. 2003-232867 may be used, and the description thereof is omitted here. It is assumed that the still
動体検知部42は、合成部32から、合成画像を連続的に受けつけるとともに、設定部38から、第2エリアの座標を受けつける。動体検知部42は、連続的に受けつけた合成画像をもとに、第2エリア内における動体の存在を検出する。動体の検出には、オプティカルフローが使用される。オプティカルフローとは、動物体解析の手法のひとつであり、全周鳥瞰図画像中の輝度情報から動きを解析し、速度ベクトルによって動体の運動を表す技術である。このようなオプティカルフローには、公知の技術が使用されればよいので、ここでは説明を省略する。動体検知部42は、動体を検出した場合にその旨を警告部36へ出力する。ここで、障害物の検知は、例えば、ある一定の速度以下で走行している場合や停止している場合になされる。走行速度は、地面特徴点の動きベクトルの大きさにより判別されてもよいし、図示しない速度センサから速度情報を入手してもよい。また、動体検知部42での障害物の検知は、例えば、静体検知部40での障害物の検知と同様に、ブレーキが踏まれている状態や停止している場合になされる。そのために、動体検知部42も、図示しないブレーキセンサや速度センサからの情報を入力してもよい。
The moving
警告部36は、静体検知部40が第1エリア内の静体を検出した場合、あるいは動体検知部42が第2エリア内の動体を検出した場合、その旨を警告する。つまり、警告部36は、車両100の前後方の予想軌跡付近に障害物を検知したら、それを運転者に警告する。警告の具体例は、後述する。図5では、車両100の前方には接触する危険がないが、後方に進入してきたボールに接触する危険があるので、運転者への警告がなされる。
The
図6(a)−(f)は、警告部36における警告処理の概要を示す。図6(a)では、障害物が存在する場合と存在しない場合とにおいて、予想軌跡50を表示する際の色を変える。例えば、障害物が存在する場合、予想軌跡50が赤色で示され、障害物が存在しない場合、予想軌跡50が青色で示される。図6(b)では、障害物が存在する場合と存在しない場合とにおいて、予想軌跡50の表示方法を変える。例えば、障害物が存在する場合、予想軌跡50が点滅で示され、障害物が存在しない場合、予想軌跡50が点灯で示される。
6A to 6F show an overview of warning processing in the
図6(c)は、障害物が存在する場合に着色部分80を表示し、障害物が存在しない場合に着色部分80を表示しない。着色部分80は、例えば、赤色に着色される。図6(d)は、障害物が存在する場合にフラッシュ部分82を表示し、障害物が存在しない場合にフラッシュ部分82を表示しない。フラッシュ部分82は、例えば、点滅にて示される。図6(e)は、図6(c)と同様に着色部分80を表示するが、障害物の部分ではなく、車両100上に着色部分80を表示する。図6(f)は、図6(d)と同様にフラッシュ部分82を表示するが、障害物の部分ではなく、車両100上にフラッシュ部分82を表示する。
FIG. 6C displays the
図7(a)−(c)は、警告部36における警告処理の別の概要を示す。図7(a)は、図6(c)と同様に、障害物が存在する場合に着色部分80を表示するが、障害物である隣接車両との距離に応じて、第1着色部分80aから第3着色部分80cを表示する。第3着色部分80cが隣接車両に最も近く、第1着色部分80aが隣接車両から最も離れている。ここで、第1着色部分80aから第3着色部分80cのそれぞれは、異なった色で示される。
FIGS. 7A to 7C show another outline of warning processing in the
図7(b)は、図6(d)と同様に、障害物が存在する場合にフラッシュ部分82を表示するが、障害物である隣接車両との距離に応じて、第1フラッシュ部分82aから第3フラッシュ部分82cを表示する。第3フラッシュ部分82cが隣接車両に最も近く、第1フラッシュ部分82aが隣接車両から最も離れている。ここで、第1フラッシュ部分82aから第3フラッシュ部分82cのそれぞれは、異なった間隔で点滅される。図7(c)は、図6(c)の変形例であり、図6(c)の着色部分80の代わりに、第1着色部分80aを示す。また、第3予想軌跡50cに重なるように第2着色部分80bが示される。ここで、第1着色部分80aと第2着色部分80bとは、異なった色で示される。なお、図6(a)−(f)や図7(a)−(c)に示した警告の表示とは別にあるいは共に、音声にて警告が出力されてもよい。
FIG. 7B displays the
この構成は、ハードウエア的には、任意のコンピュータのCPU、メモリ、その他のLSIで実現でき、ソフトウエア的にはメモリにロードされたプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウエアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現できることは、当業者には理解されるところである。 This configuration can be realized in terms of hardware by a CPU, memory, or other LSI of any computer, and in terms of software, it can be realized by a program loaded in the memory, but here it is realized by their cooperation. Draw functional blocks. Accordingly, those skilled in the art will understand that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.
以上の構成による運転支援装置10の動作を説明する。図8は、運転支援装置10における表示手順を示すフローチャートである。操作部28は、ボタンの押し下げを検出する(S10)。合成部32は、全周鳥瞰図画像および複数の予想軌跡をもとに合成画像を生成し、合成画像を表示装置14に表示させる(S12)。静体検知部40および動体検知部42は、障害物検知処理を実行する(S14)。障害物を検出すれば(S16のY)、警告部36は、警告を出力する(S18)。一方、障害物を検出しなければ(S16のN)、ステップ18をスキップする。
The operation of the driving
操作部28がボタンの押し下げを検出しなければ(S20のN)、ステップ14に戻る。一方、操作部28がボタンの押し下げを検出すれば(S20のY)、制御部26は、ハンドルの舵角のガイダンスをスピーカから出力する(S22)。一定期間経過していなければ(S24のN)、合成部32は、同様の合成画像を生成し続ける。一方、一定期間経過すれば(S24のY)、合成部32は、予想軌跡50の表示を消去し(S26)、車幅延長線58の表示を残す。
If the
本発明の実施例によれば、全周鳥瞰図画像を使用するので、車両の後方だけでなく、前方外周における予想軌跡を表示できる。また、前方外周における予想軌跡も表示するので、運転者に対して、駐車開始を実行する際の位置合わせの精度を向上させるための情報を提供できる。また、全周鳥瞰図画像を使用するので、車両の後方だけでなく、前方の障害物、駐車車両に対する安全も考慮できる。また、車両の後方だけでなく、前方の障害物、駐車車両に対する安全も考慮するので、より最適な停車位置に誘導できる。また、車両の後方だけでなく、前方の障害物、駐車車両に対する安全も考慮するので、駐車の際における障害物の警告を高精度に実行できる。また、静体と動体のそれぞれを別々に検出するので、それぞれに適した検出アルゴリズムを使用できる。 According to the embodiment of the present invention, since the all-around bird's-eye view image is used, it is possible to display the expected trajectory on the front outer periphery as well as the rear of the vehicle. In addition, since an expected trajectory on the front outer periphery is also displayed, information for improving the alignment accuracy when parking is started can be provided to the driver. Further, since the all-around bird's-eye view image is used, not only the rear of the vehicle but also the safety for obstacles in front and parked vehicles can be considered. Moreover, since safety not only to the rear of the vehicle but also to obstacles in front and parked vehicles is taken into consideration, the vehicle can be guided to a more optimal stop position. Moreover, since the safety with respect to obstacles and parked vehicles as well as the rear of the vehicle is taken into consideration, the warning of obstacles during parking can be executed with high accuracy. Further, since each of the static and moving objects is detected separately, a detection algorithm suitable for each can be used.
また、静体と動体のそれぞれに適した検出アルゴリズムを使用するので、駐車の際における障害物の警告を高精度に実行できる。また、静体を検出するために、第2エリアよりも狭い第1エリアを使用するので、処理量を削減しながらも高精度な検出を実現できる。また、静体を検出するために静体の高さを考慮するので、静体の検出精度を向上できる。また、動体を検出するために、第1エリアよりも広い第2エリアを使用するので、動体の検出精度を向上できる。また、前後方の予想軌跡上にある障害物を検知して警告するので、運転者が表示装置を注視することなく、安全な最適停車位置まで移動させることができる。 In addition, since a detection algorithm suitable for each of a stationary body and a moving body is used, an obstacle warning during parking can be executed with high accuracy. In addition, since the first area that is narrower than the second area is used to detect the still body, highly accurate detection can be realized while reducing the processing amount. In addition, since the height of the stationary body is taken into account in order to detect the stationary body, the detection accuracy of the stationary body can be improved. Further, since the second area wider than the first area is used to detect the moving object, the detection accuracy of the moving object can be improved. In addition, since an obstacle on the front-rear expected trajectory is detected and warned, the driver can move to a safe optimum stop position without gazing at the display device.
以上、本発明を実施例をもとに説明した。この実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。 In the above, this invention was demonstrated based on the Example. This embodiment is an exemplification, and it will be understood by those skilled in the art that various modifications can be made to the combination of each component and each processing process, and such modifications are also within the scope of the present invention. .
本発明の実施例において、合成部32は、予想軌跡として、タイヤが通過すべき経路を表示装置14に表示させる。しかしながらこれに限らず例えば、合成部32は、予想軌跡として、車両100が走行する走行面を表示装置14に表示させてもよい。具体的に説明すると、図3において、第1予想軌跡50aと第2予想軌跡50bとの間にも着色することによって、走行面が表示される。本変形例によれば、車両100が通過する部分を運転手に容易に認識させることができる。
In the Example of this invention, the synthetic |
本変形例に加えて、操作部28は、予想軌跡の色、予想軌跡として経路の表示あるいは走行面の表示の切りかえに関する指示を受けつけてもよい。制御部26は、操作部28において受けつけた指示に応じて、合成部32での設定を変更してもよい。本変形例によれば、運転者にとって情報を認識しやすい画面を提供できる。
In addition to this modification, the
10 運転支援装置、 12 撮像装置、 14 表示装置、 20 フレームバッファ、 22 生成部、 24 変換テーブル記憶部、 26 制御部、 28 操作部、 30 予想軌跡記憶部、 32 合成部、 34 監視部、 36 警告部、 38 設定部、 40 静体検知部、 42 動体検知部、 100 車両。
DESCRIPTION OF
Claims (2)
前記画像生成部において生成した鳥瞰図画像に対応すべき車両の予想軌跡であって、車両のハンドルを操作して車両を移動させる場合の予想軌跡を記憶する記憶部と、
前記記憶部において記憶した予想軌跡を前記画像生成部において生成した鳥瞰図画像に重畳して表示する表示部と、
前記表示部において表示される鳥瞰図画像に対して、予想軌跡をもとに障害物の検出領域を設定する設定部と、
前記設定部において設定した検出領域内の障害物を検出した場合に、その旨を警告する警告部と、
を備えることを特徴とする運転支援装置。 An image generation unit that generates a bird's-eye view image around the vehicle based on an image captured by at least one imaging device installed in the vehicle;
A storage unit that stores an expected trajectory of a vehicle that should correspond to the bird's-eye view image generated in the image generation unit and that moves the vehicle by operating a handle of the vehicle;
A display unit that superimposes and displays the predicted trajectory stored in the storage unit on the bird's eye view image generated in the image generation unit;
For the bird's eye view image displayed on the display unit, a setting unit that sets an obstacle detection area based on an expected trajectory;
When an obstacle in the detection area set in the setting unit is detected, a warning unit that warns that effect,
A driving support apparatus comprising:
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008143786A JP2011161935A (en) | 2008-05-30 | 2008-05-30 | Drive support device |
PCT/JP2009/002233 WO2009144893A1 (en) | 2008-05-30 | 2009-05-21 | Vehicle drive support device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008143786A JP2011161935A (en) | 2008-05-30 | 2008-05-30 | Drive support device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011161935A true JP2011161935A (en) | 2011-08-25 |
Family
ID=44593139
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008143786A Pending JP2011161935A (en) | 2008-05-30 | 2008-05-30 | Drive support device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011161935A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150217690A1 (en) * | 2012-09-21 | 2015-08-06 | Komatsu Ltd. | Working vehicle periphery monitoring system and working vehicle |
JP2016175549A (en) * | 2015-03-20 | 2016-10-06 | 株式会社デンソー | Safety confirmation support device, safety confirmation support method |
JP2017188761A (en) * | 2016-04-05 | 2017-10-12 | アルパイン株式会社 | Vehicle periphery display device and vehicle periphery display method |
-
2008
- 2008-05-30 JP JP2008143786A patent/JP2011161935A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150217690A1 (en) * | 2012-09-21 | 2015-08-06 | Komatsu Ltd. | Working vehicle periphery monitoring system and working vehicle |
US9796330B2 (en) * | 2012-09-21 | 2017-10-24 | Komatsu Ltd. | Working vehicle periphery monitoring system and working vehicle |
JP2016175549A (en) * | 2015-03-20 | 2016-10-06 | 株式会社デンソー | Safety confirmation support device, safety confirmation support method |
JP2017188761A (en) * | 2016-04-05 | 2017-10-12 | アルパイン株式会社 | Vehicle periphery display device and vehicle periphery display method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6747369B2 (en) | Display control device, display control method, and program | |
JP5088074B2 (en) | Parking support apparatus and method | |
JP5477515B2 (en) | Parking assistance device | |
JP5104171B2 (en) | Parking assistance device and parking assistance method | |
JP7069548B2 (en) | Peripheral monitoring device | |
JP2011035729A (en) | Apparatus and method for displaying vehicle-surrounding image | |
JP5380926B2 (en) | Parking assistance device and parking assistance method | |
JP2005290813A (en) | Parking guidance robot | |
WO2009144893A1 (en) | Vehicle drive support device | |
JP2012030771A (en) | Parking assistance apparatus | |
JP2005078414A (en) | Vehicle travel support device | |
KR102205144B1 (en) | Parking assistance method and parking assistance device | |
EP2003021A2 (en) | Parking assistance device | |
JP2009298179A (en) | Parking assistant device and parking assistant method | |
JP2019186853A (en) | Vehicle display control device, vehicle display system, vehicle display control method, and program | |
CN109291919B (en) | Travel assist device and travel assist method | |
JP2010205078A (en) | Parking support device | |
JP2018034659A (en) | Parking support device | |
JP2010079454A (en) | Driving support device | |
JP5009205B2 (en) | Parking assistance device | |
JP6656359B2 (en) | Parking assist display control device and parking assist display control method | |
JP2018118593A (en) | Parking support device | |
JP2012023505A (en) | Driving support device | |
JP2011161935A (en) | Drive support device | |
JP6559083B2 (en) | Parking assistance device and parking assistance method |