JP2006298258A - Parking supporting method and parking supporting device - Google Patents
Parking supporting method and parking supporting device Download PDFInfo
- Publication number
- JP2006298258A JP2006298258A JP2005125440A JP2005125440A JP2006298258A JP 2006298258 A JP2006298258 A JP 2006298258A JP 2005125440 A JP2005125440 A JP 2005125440A JP 2005125440 A JP2005125440 A JP 2005125440A JP 2006298258 A JP2006298258 A JP 2006298258A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- vehicle
- display
- image
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、駐車支援方法及び駐車支援装置に関する。 The present invention relates to a parking assistance method and a parking assistance device.
従来より、自動車を駐車させる際の運転操作を支援する装置として、車両の後端に取り付けられたカメラにより、周辺視界を撮像し、その撮像データを車室内に配設されたディスプレイに出力する装置が知られている(例えば、特許文献1参照)。このような後方カメラは、車両の後端の略中央において取付けられ、その光軸は、下方に所定角度傾けた状態で固定されている。そして、この後方カメラは、車両の後端から後方数メートルを撮像可能になっている。
ところが、上記した駐車支援装置は、車両がバック走行しながら駐車枠に進入開始した時点では、駐車枠を示す白線や輪止めがディスプレイに表示されるが、車両が白線の終端や輪止めに接近するに従って、画面から駐車枠がはみ出し、最終的には白線や輪止めが全く表示されなくなってしまう。このため、運転者は、駐車枠に進入するに従って、車両と駐車目標領域との相対位置及び相対方向、ずれ量を把握し難くなる。その結果、タイヤと輪止めとの接触による衝撃が大きくなったり、白線に対して斜めに駐車したり、車両が駐車枠からはみ出てしまうことがある。 However, when the vehicle starts to enter the parking frame while traveling backward, the parking assist device described above displays a white line and a wheel stopper indicating the parking frame on the display, but the vehicle approaches the end of the white line and the wheel stopper. As a result, the parking frame protrudes from the screen, and eventually the white line and the wheel stopper are not displayed at all. For this reason, as the driver enters the parking frame, it becomes difficult for the driver to grasp the relative position, the relative direction, and the deviation amount between the vehicle and the parking target area. As a result, the impact caused by the contact between the tire and the wheel stopper may increase, the vehicle may be parked obliquely with respect to the white line, or the vehicle may protrude from the parking frame.
本発明は、上記問題点に鑑みてなされたものであり、その目的は、駐車目標領域に車両が進入した後も、駐車目標領域内に車両を誘導することができる駐車支援方法及び駐車支援装置を提供することにある。 The present invention has been made in view of the above problems, and its purpose is to provide a parking support method and a parking support apparatus that can guide a vehicle into the parking target area even after the vehicle enters the parking target area. Is to provide.
また、本発明の目的は、駐車目標領域に車両を誘導する際に、車両周辺への注意を促すことができる駐車支援方法及び駐車支援装置を提供することにある。 Moreover, the objective of this invention is providing the parking assistance method and parking assistance apparatus which can call attention to a vehicle periphery, when guiding a vehicle to a parking target area | region.
上記問題点を解決するために、請求項1に記載の発明は、画像データを表示する表示手段と、制御手段とを用い、駐車操作を支援する駐車支援方法であって、前記制御手段が、車両に設けられた撮像装置から、前記車両の周辺を撮像した画像データを各撮像地点で取得し、取得した前記画像データを画像データ記憶手段に格納し、前記車両の現在地点で撮像された最新の画像データと、前記画像データ記憶手段に格納された過去の前記画像データとを、前記表示手段に表示し、過去の前記画像データが前記表示手段に表示されていることを報知することを要旨とする。 In order to solve the above problem, the invention according to claim 1 is a parking support method for supporting a parking operation using a display unit that displays image data and a control unit, and the control unit includes: Image data obtained by imaging the periphery of the vehicle is acquired at each imaging point from an imaging device provided in the vehicle, the acquired image data is stored in image data storage means, and the latest imaged at the current location of the vehicle And displaying the past image data stored in the image data storage means on the display means and notifying that the past image data is being displayed on the display means. And
請求項2に記載の発明は、画像データを表示する表示手段と、前記車両に設けられた撮像装置から、車両の周辺を撮像した画像データを、各撮像地点で取得する画像取得手段と、前記各撮像地点で撮像した前記画像データを格納する画像データ記憶手段と、最新の画像データと、前記画像データ記憶手段に格納された過去の前記画像データとを、前記表示手段に表示する表示制御手段と、過去の前記画像データが前記表示手段に表示されていることを報知する報知手段とを備えたことを要旨とする。 The invention described in claim 2 is a display unit that displays image data, an image acquisition unit that acquires image data obtained by imaging the periphery of the vehicle at each imaging point from an imaging device provided in the vehicle, and Display control means for displaying on the display means the image data storage means for storing the image data taken at each imaging point, the latest image data, and the past image data stored in the image data storage means. And a notifying means for notifying that the past image data is displayed on the display means.
請求項3に記載の発明は、請求項2に記載の駐車支援装置において、前記表示制御手段は、最新の前記画像データと、過去の前記画像データとを合成した画像合成データを生成
する画像合成手段を有し、前記画像合成データを前記表示手段に表示することを要旨とする。
According to a third aspect of the present invention, in the parking assist device according to the second aspect, the display control means generates image composition data by combining the latest image data and the past image data. And a means for displaying the image composite data on the display means.
請求項4に記載の発明は、請求項2又は3に記載の駐車支援装置において、前記報知手段は、最新の前記画像データに基づく画像と、過去の前記画像データに基づく画像とが、視認によって判別可能となるように、前記各画像データのうち少なくとも一方を加工して、前記表示手段に出力することを要旨とする。 According to a fourth aspect of the present invention, in the parking assist device according to the second or third aspect, the notifying unit visually recognizes an image based on the latest image data and an image based on the past image data. The gist is that at least one of the image data is processed and output to the display means so as to be discriminated.
請求項5に記載の発明は、請求項4に記載の駐車支援装置において、前記報知手段は、過去の前記画像データの色調、模様及び明度のうち、少なくとも1つを、最新の前記画像データと異なるように加工して前記表示手段に出力することを要旨とする。 According to a fifth aspect of the present invention, in the parking assist device according to the fourth aspect, the informing means selects at least one of the past color tone, pattern, and brightness of the image data as the latest image data. The gist is to process it differently and output it to the display means.
請求項6に記載の発明は、請求項2〜4のいずれか1項に記載の駐車支援装置において、前記報知手段は、過去の前記画像データが前記表示手段に表示されていることを示唆する案内表示を、前記表示手段に出力することを要旨とする。
The invention according to
請求項7に記載の発明は、請求項2〜5のいずれか1項に記載の駐車支援装置において、前記報知手段は、前記表示手段の画面において、最新の前記画像データ又は過去の前記画像データの表示領域を区画する表示を出力することを要旨とする。 A seventh aspect of the present invention is the parking assist apparatus according to any one of the second to fifth aspects, wherein the informing means is the latest image data or past image data on the screen of the display means. The gist is to output a display that divides the display area.
請求項8に記載の発明は、請求項2〜6のいずれか1項に記載の駐車支援装置において、前記報知手段は、スピーカから、過去の前記画像データが前記表示手段に表示されていることを示唆する案内音又は案内音声を出力することを要旨とする。 According to an eighth aspect of the present invention, in the parking assist device according to any one of the second to sixth aspects, the notification means displays the past image data from a speaker on the display means. The gist of the present invention is to output a guidance sound or guidance voice that suggests.
請求項1に記載の発明によれば、制御手段は、各撮像地点で取得した画像データを画像データ記憶手段に格納し、最新の画像データを、画像データ記憶手段に格納され、異なる地点であって、過去の画像データと合わせて表示手段に表示する。そして、表示手段に過去の画像データが表示されていることを報知する。従って、運転者は、表示手段の画面の一部が、過去の画像であることを認識することができるため、その過去画像に相当する場所を実際に目視する等、注意を払い、障害物との衝突等の事故を未然に防ぐことができる。 According to the first aspect of the present invention, the control means stores the image data acquired at each imaging point in the image data storage means, and the latest image data is stored in the image data storage means so as to be at different points. The past image data is displayed on the display means. Then, the display means notifies that past image data is displayed. Therefore, the driver can recognize that a part of the screen of the display means is a past image. Therefore, the driver pays attention such as actually observing a place corresponding to the past image, Accidents such as collisions can be prevented.
請求項2に記載の発明によれば、各撮像地点で画像データを取得する画像取得手段と、画像データを画像データ記憶手段に格納する画像データ記憶手段と、最新の画像データを、画像データ記憶手段に格納され、異なる地点であって、過去の画像データと合わせて表示手段に表示する表示制御手段とを備える。また、過去の画像データが表示手段に表示されていることを報知する報知手段を備える。従って、運転者は、表示手段の画面の一部が、過去の画像であることを認識することができるため、その過去画像に対応する領域を目視する等、注意を払い、障害物との衝突等の事故を未然に防ぐことができる。 According to the second aspect of the present invention, the image acquisition means for acquiring the image data at each imaging point, the image data storage means for storing the image data in the image data storage means, and the latest image data are stored in the image data storage. The display control means is stored in the means and is displayed at different points and displayed on the display means together with past image data. Also provided is a notifying means for notifying that the past image data is displayed on the display means. Therefore, the driver can recognize that a part of the screen of the display means is a past image, so pay attention, such as viewing an area corresponding to the past image, and collide with an obstacle. Accidents such as can be prevented in advance.
請求項3に記載の発明によれば、表示制御手段は、画像合成手段を有し、最新の前記画像データと、過去の前記画像データとを合成した画像合成データを生成するので、連続性のある画像を表示手段に表示できる。 According to the third aspect of the present invention, the display control means includes the image composition means, and generates the image composition data obtained by compositing the latest image data and the past image data. A certain image can be displayed on the display means.
請求項4に記載の発明によれば、報知手段は、最新の画像データに基づく画像と、過去の画像データに基づく画像とを、視認によって判別可能となるように、各画像データのうち少なくとも一方を加工する。このため、最新又は過去の画像データに基づく画像が、画面のうち、どの範囲に相当するのかを区別することができるので、過去画像の領域に注意を払いやすい。 According to the fourth aspect of the present invention, the notifying means can determine at least one of the image data so that the image based on the latest image data and the image based on the past image data can be discriminated by visual recognition. Is processed. For this reason, since it is possible to distinguish which range of the screen corresponds to the image based on the latest or past image data, it is easy to pay attention to the area of the past image.
請求項5に記載の発明によれば、過去の画像データの色調、模様及び明度のうち、少なくともいずれか1つを、最新の前記画像データと異なるように加工して表示手段に出力する。このため、過去の画像データと、最新の画像データとが表示手段に表示された際に、目視によって、各画像データの表示領域を容易に判別することができる。 According to the fifth aspect of the present invention, at least one of the color tone, pattern, and brightness of the past image data is processed so as to be different from the latest image data, and is output to the display means. For this reason, when the past image data and the latest image data are displayed on the display means, the display area of each image data can be easily determined visually.
請求項6に記載の発明によれば、報知手段は、過去の画像データが表示されていることを示唆する案内表示を表示手段に出力する。このため、運転者は、表示手段の画面を視認することにより、過去の画像データが表示されていることを認識することができる。
According to the invention described in
請求項7に記載の発明によれば、報知手段は、表示手段の画面において、最新の画像データ又は過去の画像データの表示領域を示す表示を出力する。このため、最新又は過去の画像データに基づく画像が、全画面のうち、どの範囲であるのかを区別することができるので、注意を払うべき領域を判断しやすくすることができる。 According to the seventh aspect of the invention, the notification means outputs a display indicating the display area of the latest image data or past image data on the screen of the display means. For this reason, since it is possible to distinguish which range of the entire screen the image based on the latest or past image data can be distinguished, it is possible to easily determine the area to which attention should be paid.
請求項8に記載の発明によれば、報知手段は、スピーカから、過去の画像データが表示されていることを示唆する案内音又は案内音声を出力する。このため、運転者は、表示手段から目を離しているとき等にも、過去の画像データが表示手段に表示されていることを知ることができる。
According to the invention described in
以下、本発明の駐車支援装置を、自動車(車両)に搭載され、経路案内を行うナビゲーション装置に具体化した実施形態を図1〜図20に従って説明する。図1は、ナビゲーション装置1の構成を説明するブロック図である。 Hereinafter, an embodiment in which the parking assist device of the present invention is embodied in a navigation device that is mounted on an automobile (vehicle) and performs route guidance will be described with reference to FIGS. FIG. 1 is a block diagram illustrating the configuration of the navigation device 1.
図1に示すように、ナビゲーション装置1は、制御手段としての制御装置2を備えている。この制御装置2は、主制御を行う制御部3、画像データ記憶手段としてのRAM4、ROM5を備えている。制御部3は、ROM5に格納された経路案内プログラム、画像データ保存プログラム、合成データ出力プログラム、駐車案内プログラム等、各種プログラムに従って、各種処理を行う。尚、制御部3は、特許請求の範囲に記載の画像取得手段、表示制御手段、報知手段を構成する。
As shown in FIG. 1, the navigation device 1 includes a control device 2 as a control means. The control device 2 includes a
また、ROM5には、輪郭描画データ5aが格納されている。輪郭描画データ5aは、車両Cの輪郭をディスプレイ12に表示するためのデータである。また、輪郭描画データ5aは、車両Cの大きさに応じて設定され、車両Cが小型車である場合には、画面に応じた小型車の大きさの輪郭を描画するようになっている。
The
また、制御装置2は、GPS受信部6及び自車位置検出部7を備えている。GPS受信部6は、GPS衛星からの電波を受信する。自車位置検出部7は、GPS受信部6から受信した検出データに基づいて、自車位置の絶対位置を示す緯度・経度・高度等の測位データを定期的に算出する。
In addition, the control device 2 includes a
さらに、制御装置2は、センサインターフェース(I/F部8)を備えている。制御部3は、このI/F部8を介して、車両Cに配設された車速センサ20及びジャイロセンサ21から、車両Cの速度及び相対方位を取得し、これらを自車位置検出部7に送信する。自車位置検出部7は、GPS受信部6による測位データにより算出した基準自車位置をもとに、車速及び相対方位に基づき、自律航法による自車位置データを生成する。このとき、自車位置検出部7は、図3に示すように、車両Cの後輪C1の車軸C2の中心点25を自車位置データとして算出する。そして、GPS受信部6から測位データを逐次取得しながら、自律航法による自車位置を補正し、自車位置を決定する。
Furthermore, the control device 2 includes a sensor interface (I / F unit 8). The
また、制御装置2は、地図データ記憶部9を備えている。地図データ記憶部9には、地図データとしての経路データ9a及び地図描画データ9bが格納されている。経路データ9aは、各道路の交差点や曲点を示すノードを示すノードデータや、各ノードを接続するリンクを示すリンクデータ等を格納しており、制御部3は、目的地までの経路案内処理を行う際に、この経路データ9a及びROM5に格納された経路案内プログラムに従って経路を探索する。また、制御部3は、上記したように算出した自車位置データと、走行軌跡、経路データ9aを照合して、自車位置座標を適切な道路上に位置決めし、自車位置データをさらに補正する。地図描画データ9bは、広範囲から狭範囲の地図を表示するためのデータであって、経路データ9aと関連付けられている。
The control device 2 includes a map
また、制御装置2は、画像取得手段を構成する撮像データ取得部10を備えている。撮像データ取得部10は、車両Cに設けられた撮像装置としての後方カメラ22から撮像データを、車両Cの所定移動量ごとに、或いは所定時間ごとに取得する。
In addition, the control device 2 includes an imaging
後方カメラ22は、図2に示すように、車両Cのバックドア等、車両Cの後端の略中央に、光軸Aを下方に向けて取り付けられている。この後方カメラ22は、広角レンズ、ミラー等から構成される光学機構と、CCD撮像素子(いずれも図示せず)とを備えている。図3に示すように、後方カメラ22は、例えば左右140度の後方視野を有し、車両Cの後端を含む、後方約3mの撮像範囲S(周辺視界)を撮像可能になっている。また、制御部3は、自車位置検出部7から取得した自車位置データに基づいて、後方カメラ22の撮像範囲Sを、車両C用のXY座標系(以下、車両座標系という)の座標として演算可能になっている。この車両座標系は、路面と平行な水平面の座標である。
As shown in FIG. 2, the
後方カメラ22によって生成された撮像データは、アナログ/デジタル変換されたデジタルデータであって、撮像データ取得部10は、各種補正や合成等の画像処理が可能な画像データGとして、制御部3に送信する。制御部3は、その画像データGを取得すると、図4に示すように、画像データG(撮像データ)を生成した地点の自車位置データ16と関連付けて、画像データGをRAM4に一時格納する。また、このとき、画像データGに、自車位置データ16に基づいて算出した撮像範囲Sの座標を示す撮像範囲データ17を関連付けて格納してもよい。これらの自車位置データ16及び撮像範囲データ17は、車両座標系の座標で示されている。また、画像データGは、後方カメラ22が広角レンズを用いているため、ナビゲーション装置1が具備する表示手段としてのディスプレイ12に表示した際に、画面周辺の画像が縮む、いわゆる歪曲収差が生じている。
The imaging data generated by the
さらに、図1に示すように、制御装置2は、I/F部8を介して、車両Cに設けられたステアリングセンサ23、シフトセンサ24と接続されている。制御部3は、ステアリングセンサ23,シフトセンサ24から舵角検出信号及びシフトポジション信号を取得する。そして、制御部3は、シフトポジション信号に基づいて、変速機のシフトポジションがリバース状態であるか否かを判断する。シフトポジションがリバースであって、車両Cの後方の画像を単に表示する場合には、制御部3は、ROM5に格納された駐車案内プログラムに従って、RAM4に一時格納された現在地点の画像データGを読出し、図5に示す周辺視界画面としての後方視界画面40をディスプレイ12に表示する。また、車幅延長線42と、舵角検出信号に基づいた予想軌跡線41とを、公知の方法で、後方視界画面40に重ねて描画する。予想軌跡線41は、車両Cの舵角及び車幅に応じた進行軌跡を示す。車幅延長線42は、車両Cの車幅を後方に延長した指標である。従って、運転者は、駐車する際に、予想軌跡線41と、車幅延長線42とのずれ量に応じて操舵を行う。
Furthermore, as shown in FIG. 1, the control device 2 is connected to a
また、ナビゲーション装置1のディスプレイ12は、タッチパネルであって、制御部3から送信された画像データGや、画像データGを合成した画像合成データを所定のタイミ
ングで出力する。さらに、ディスプレイ12は、変速機のシフトポジションがリバースになっていない場合には、制御部3から送信された地図描画データ9bを出力して、自車位置周辺の地図画面12a(図1参照)を自車位置マーク等と併せて表示する。
The display 12 of the navigation device 1 is a touch panel, and outputs the image data G transmitted from the
さらに、制御装置2は、入力信号取得部13を備え、この入力信号取得部13により、ディスプレイ12のタッチパネル操作によって入力された入力信号、ナビゲーション装置1に配設された操作ボタン14を押釦することによって入力された入力信号を取得して、制御部3に送信する。この操作ボタン14の中には、目標設定ボタン14aが備えられている。
Further, the control device 2 includes an input
目標設定ボタン14aは、駐車操作を行う際に、駐車目標領域を設定するために行う。この目標設定ボタン14aを、例えば、図13に示すように、路面に標示された白線43によって区画された駐車領域Rが、車両Cの後方になるような地点で操作すると、図14に示すような目標設定画面44がディスプレイ12に表示される。目標設定画面44には、背景画像45と、背景画像45に重ねられた、略台形状の駐車目標枠(以下、目標枠46という)が表示されている。駐車目標領域及び設定指標としての目標枠46は、駐車の目標となる領域を設定するための指標であって、初期画面では、予め定められた形状及び大きさになっている。そして、目標設定画面44に表示された拡大ボタン47、縮小ボタン48を入力操作すると、目標枠46が拡大又は縮小され、図15の目標設定画面44に示すように、目標枠46の大きさ(形状)を、背景画像45内の白線49に沿うように変化することができる。また、タッチパネル操作等により、目標枠46をスライドさせ、目標枠46の位置を設定できるようになっている。そして、設定ボタン56を操作することにより、目標枠46の大きさ(形状)、位置が確定される。
The
また、図1に示すように、ナビゲーション装置1は、スピーカ15を備えている。スピーカ15は、制御部3から送信された音声出力信号に基づき、各種案内音声や案内音を出力する。
As shown in FIG. 1, the navigation device 1 includes a speaker 15. The speaker 15 outputs various guidance voices and guidance sounds based on the voice output signal transmitted from the
また、制御装置2は、図1に示すように、画像合成手段及び報知手段を構成する画像処理部11を備えている。画像処理部11は、RAM4から画像データGを取得して、画像データGの補正や、画像合成データの生成等を行う。画像データGの補正では、画像処理部11は、各画像データGに生じた、広角レンズによる歪曲収差を補正する。
Further, as shown in FIG. 1, the control device 2 includes an
また、画像処理部11は、図6に示すように、自車位置Aの後方カメラ22の撮像画面30のxy座標系(以下、画面座標系という)上に設定された座標点、即ち画素点の座標を示す画素座標31を、自車位置Bの撮像画面30内の座標に変換する。このとき、例えば、制御部3により、自車位置Aから自車位置Bまでの車両Cの移動量及び移動方向を求める。そして、画像処理部11により、その移動距離及び移動方位に基づいて、自車位置A内の画素座標31を、平行移動、回転移動等させ、自車位置Bの撮像画面30内の画素座標33に変換する。
Further, as shown in FIG. 6, the
或いは、例えば、後方カメラ22の光軸Aの角度及び撮像範囲S等に基づき、画面座標系(xy座標系)と車両座標系(XY座標系)との関係式を予め求め、その関係式に基づいて、画素座標31を、車両座標系の座標に変換する。そして、このとき、車両座標系の自車位置を示す中心点25の座標を加味することにより、特定の自車位置(自車位置A)での撮像画面30内の画素座標31を、車両座標系の座標点32に変換する。さらに、車両系座標の座標点32を、上記した関係式により自車位置Bの撮像画面30内の画素座標33に変換する。これにより、自車位置Aで生成した画像データGを、自車位置Bの後方カメラ22のカメラ視点で撮像した画像データGのように変換することができる。
Alternatively, for example, based on the angle of the optical axis A of the
また、画像処理部11は、図14に示す目標設定画面44で目標枠46が設定されると、その目標枠46の画面座標系の座標を取得する。具体的には、画像処理部11は、制御部3を介して入力信号取得部13から入力信号を受信して、図7に示すように、ディスプレイ12の撮像画面30内で、目標枠46の角部の4点にあたる画素座標31a〜31dの座標を取得する。尚、ディスプレイ12の表示領域は、画面座標系内の領域とする。
Further, when the
また、画像処理部11は、制御部3から、車両Cの基準位置からの移動距離及び移動方位等の移動量を取得して、その移動量に基づき、画素座標31a〜31dを変位させる。例えば、車両Cが、初期位置から駐車領域Rに接近する方向に平行移動した場合には、図7の一方の鎖線で示すように、画素座標31a〜31dをそれぞれ異なる方向に平行移動させて、目標枠46を拡大する。また、車両Cが初期位置から旋回した場合には、図7の他方の鎖線で示すように、画素座標31a〜31dを回転移動させて、目標枠46の形状及び位置を変更する。
In addition, the
また、画像処理部11は、RAM4に蓄積された画像データGのうち、現在の自車位置(以下、現在地点と言う)での画像データG1と、その画像データG1よりも過去に生成及び蓄積された過去画像データG2とを合成する。まず、画像処理部11は、上記したように、車両Cの移動距離及び移動方位に応じて目標枠46を変更し、変更した目標枠46が、画面座標系の撮像画面30(ディスプレイ12の表示領域)内に収容されるか否かを判断する。そして、図8に示すように、目標枠46が、撮像画面30からはみ出すと判断した場合には、そのはみ出し部分46aを含む、補完部分としての画面外領域51の座標を取得する。また、図14に示すように、後方カメラ22は、車両Cの後方バンパーB(図2参照)等の車体の後端部分を撮像しているので、この車両後端画像54にあたる、車両後端範囲55の座標を取得し、画面外領域51に含めるようにする。尚、この車両後端範囲55は、常に一定のデータ領域である。
In addition, the
さらに、その画面外領域51の各画素座標を、上記したように、画面座標系の各画素座標から車両座標系の各座標点に座標変換する。そして、車両座標系の各座標点のデータを制御部3に送信する。制御部3は、その車両座標系の各座標点を撮像範囲データ17内に含む画像データGを、RAM4に蓄積された画像データG内において検索する。該当する過去画像データG2を検出した場合には、その過去画像データG2を読み出す。このとき、その各座標点をそれぞれ部分的に含む、複数の画像データGを読み出してもよい。
Furthermore, each pixel coordinate of the off-
画像処理部11は、制御部3を介して、現在地点での実際の画像データG1をRAM4から取得する。さらに、図8に示す目標枠46を、図9に示すように撮像画面30内に収まるように縮小する。そして、そのときの縮小率に基づいて、現在地点での画像データG1を図9に示す縮小範囲52まで縮小し、縮小画像データG1aを生成する。
The
そして、例えば、1つの過去画像データG2を用いる場合には、図10に模式的に示すように、この縮小画像データG1aを、図9に占めす縮小範囲52と撮像画面30との相対位置に基づいて、過去に生成した過去画像データG2に重ね、画像合成データGAを生成する。これにより、図9の撮像画面30のうち、縮小範囲52以外の領域を、過去画像データG2によって合成する。つまり、過去画像データG2により、図8の画面外領域51に対応する補完範囲53(図9参照)が補完されて、目標枠46を撮像画面30内に収容可能な画像合成データGAが生成される。また、複数の過去画像データG2を用いて画像合成データGAを生成する場合には、複数の過去画像データG2によって、補完範囲53の異なる領域をそれぞれ補完する。
For example, when one piece of past image data G2 is used, the reduced image data G1a is placed at a relative position between the reduced
次に、本実施形態の処理手順について、図11及び図12に従って説明する。図11は、画像データ保存処理の手順を示し、図12は、画像合成データ出力処理の手順を示す。
尚、制御装置2は、この画像データ保存処理及び画像合成データ出力処理を並行して行う。
Next, the processing procedure of this embodiment is demonstrated according to FIG.11 and FIG.12. FIG. 11 shows the procedure of the image data storage process, and FIG. 12 shows the procedure of the image synthesis data output process.
The control device 2 performs the image data storage process and the image composite data output process in parallel.
図11に示す画像データ保存処理は、制御装置2が、ROM5に格納した画像データ保存プログラムに従って行う処理である。まず、制御部3は、変速機のシフトポジションがリバースであるか否かを判断する(ステップS1−1)。具体的には、制御部3が、I/F部8を介して、シフトセンサ24からシフトポジション信号を取得することにより判断する。
The image data saving process shown in FIG. 11 is a process performed by the control device 2 according to the image data saving program stored in the
シフトポジションがリバースでない場合には(ステップS1−1においてNO)、ステップS1−1の判断処理を繰り返す。シフトポジションがリバースであると判断した場合には(ステップS1−1においてYES)、制御部3は、自車位置検出部7から自車位置データ16を取得する(ステップS1−2)。自車位置データ16を取得すると、制御部3は、撮像データ取得部10から画像データGを取得する(ステップS1−3)。そして、現在地点の撮像範囲Sの座標を示す撮像範囲データ17を算出し、自車位置データ16及び撮像範囲データ17と、取得した画像データGとを関連付けて、RAM4に格納する(ステップS1−4)。
If the shift position is not reverse (NO in step S1-1), the determination process in step S1-1 is repeated. When it is determined that the shift position is reverse (YES in step S1-1), the
そして、制御部3は、I/F部8及び入力信号取得部13が終了トリガがあるか否かを判断し(ステップS1−5)、予め設定した終了トリガがある場合には(ステップS1−5においてYES)、処理を終了する。具体的には、I/F部8を介して、パーキング又はドライブを示すシフトポジション信号の受信や、図示しない車両ECUからのイグニッションモジュールのオフ信号の受信があった場合に処理を終了する。又は、入力信号取得部13を介して、目標設定ボタン14aの入力操作信号を受信した場合に処理を終了する。終了トリガがない場合には(ステップS1−5においてNO)、ステップS1−2に戻って上記した処理を繰り返す。
Then, the
このようなステップS1−2〜ステップS1−5の処理は、自車位置が数十mm移動した撮像地点、又は数十ミリ秒〜1秒が経過した時点の撮像地点ごとに繰り返し行われる。このため、車両Cがバック走行する際には、RAM4には、互いに連続性のある各画像データGが蓄積されていく。この画像データGは、画像データGの合成だけでなく、図5に示す後方視界画面40をディスプレイ12に表示する際にも使用される。
Such processing of step S1-2 to step S1-5 is repeatedly performed for each imaging point where the vehicle position has moved by several tens of mm or when several tens of milliseconds to one second have elapsed. For this reason, when the vehicle C travels backward, the
次に、図12に従って、画像合成データ出力処理について説明する。この画像データ合成処理は、制御装置2が、ROM5に格納した合成データ出力プログラムに従って行う処理である。
Next, the image synthesis data output process will be described with reference to FIG. This image data synthesis process is a process performed by the control device 2 in accordance with a synthesis data output program stored in the
まず、制御部3は、画像データ保存処理と同様に、シフトポジションがリバースであるか否かを判断する(ステップS2−1)。シフトポジションがリバースである場合には(ステップS2−1においてYES)、目標枠46の設定を待つ(ステップS2−2)。詳述すると、制御部3は、目標設定ボタン14aの入力操作を待つ。そして、入力信号を入力信号取得部13から取得した場合に、図14に示す目標設定画面44をディスプレイ12に表示する。さらに、目標設定画面44で、目標枠46が縮小又は拡大され、設定ボタン56が入力操作されると(ステップS2−2においてYES)、上記したように画面座標系での目標枠46の座標を取得し、ステップS2−3に進む。
First, similarly to the image data storage process, the
目標設定ボタン14aの操作が行われなかったり、目標枠46の設定が完了していない間は(ステップS2−2においてNO)、図5に示す、後方視界画面40や目標設定画面44をディスプレイ12に表示しながら、ステップS2−2の目標設定画面44での目標枠46の設定を待つ。
While the
ステップS2−3では、制御部3は、自車位置データ16を取得する。目標枠46が設定されたときの自車位置データ16は、初期位置として設定される。例えば、図13に示す車両Cの位置で目標枠46が設定されると、その位置を初期位置とする。
In step S <b> 2-3, the
そして、制御部3は、車両Cの移動量を演算する(ステップS2−4)。このとき、制御部3は、例えば、初期位置からの移動量(移動距離及び移動方位)を算出する。
さらに、制御部3は、移動量を画像処理部11に送信し、上記したように、目標枠46の座標を車両Cの移動量に応じて更新させる(ステップS2−5)。このとき、移動量が所定値以下である場合には、画像処理部11は目標枠46を更新しないようにしてもよい。
And the
Further, the
そして、制御部3は、画像処理部11に基づいて、更新した目標枠46の座標が図8に示すように、撮像画面30からはみ出すか否かを判断する(ステップS2−6)。
目標枠46が撮像画面30内に収容されていると判断した場合には(ステップS2−6においてNO)、現在地点の画像データGをRAM4から読出し、車両Cの後方を表示した後方視界画面40を表示しながら、ステップS2−13に進み、終了トリガがあるか否かを判断する。この終了トリガの判断では、画像データ保存処理と同様に、パーキング又はドライブを示すシフトポジション信号、図示しない車両ECUからのイグニッションモジュールのオフ信号、目標設定ボタン14aの操作による入力操作信号の受信の有無に基づく。終了トリガが無い場合には(ステップS2−13においてNO)、ステップS2−3に戻る。
Then, based on the
When it is determined that the
目標枠46が撮像画面30からはみ出すと判断した場合には(ステップS2−6においてYES)、制御部3及び画像処理部11は、はみ出し量に基づき、必要な画像データGを推測する(ステップS2−7)。上記したように、画像処理部11は、目標枠46のはみ出し部分46a、後方バンパーB等の画像にあたる車両後端範囲55を含む画面外領域51の各座標を取得し、その各座標を、車両座標系に座標変換する。そして、その座標のデータを制御部3に送信し、制御部3は、その座標データを撮像範囲データ17内に含む画像データGを検索する。即ち、制御部3は、目標枠46のはみ出し部分46a等を補完するために、その領域を撮像した画像データGを検索する。
When it is determined that the
各画像データGの中から、該当する過去画像データG2を検出すると、制御部3は、その過去画像データG2を読み出す(ステップS2−8)。このとき、制御部3は、例えば、図16に示すような撮像範囲Sを撮像した過去画像データG2を一つ読出す。この過去画像データG2は、画面外領域51に相当する撮像範囲を全て含んでいる。また、その過去画像データG2に関連付けられた、自車位置データ16及び撮像範囲データ17も読出す。
When the corresponding past image data G2 is detected from each image data G, the
そして、制御部3は、その過去画像データG2、自車位置データ16及び撮像範囲データ17を画像処理部11に送り、画像処理部11により、その過去画像データG2を補正させる(ステップS2−9)。画像処理部11は、まず過去画像データG2の歪曲収差を補正する。そして、画像処理部11は、上記したような方法で、図6に示すように、過去画像データG2に対応する自車位置(自車位置A)での画素座標31を、現在地点(自車位置B)での撮像画面30内の座標に変換する。これにより、他の地点で生成した過去画像データG2を、現在地点の後方カメラ22のカメラ視点で撮像したように変換することができる。
Then, the
さらに、画像処理部11は、過去画像データG2に対し、色調補正、増減色等の画像加工を行い、現在地点の画像データG1の色調等と異ならせる。これにより、ディスプレイ
12に表示された際に、過去画像データG2の画像と、現在地点の画像データG1の画像とを視認により区別できる。
Further, the
また、画像処理部11は、現在地点の画像データG1を補正する(ステップS2−10)。詳述すると、画像処理部11は、図8のように撮像画面30からはみ出した目標枠46を、図9に示すように撮像画面30内に収まるように縮小する。そして、そのときの縮小率に基づいて、現在地点での画像データG1を図9に示すような縮小範囲52まで縮小し、縮小画像データG1aを生成する。
In addition, the
そして、画像処理部11は、縮小画像データG1a、過去画像データG2を合成する(ステップS2−11)。例えば、1つの過去画像データG2を用いる場合には、画像処理部11は、図10に示すように、過去画像データG2に、現在地点の縮小画像データG1aを重ね、縮小画像データG1aを表示される側にする。このとき、過去画像データG2は、補完範囲53を補完するように、縮小画像データG1aと重ねられる。その結果、画像合成データGAが生成される。複数の過去画像データG2を用いる場合には、補完範囲53を、複数の過去画像データG2で補完するように、縮小画像データG1aと重ね合わせる。
Then, the
画像合成データGAを生成すると、制御部3は、その画像合成データGA及び他の指標をディスプレイ12に表示する(ステップS2−12)。画像合成データGAのみを出力した状態では、図17に表示されるような合成画面58がディスプレイ12に表示される。合成画面58には、現在の縮小画像データG1aに基づく現在画像59と、過去画像データG2によって補完された補完画像60と、縮小された目標枠46とが重ねられて表示されている。補完画像60は、過去画像データG2を加工しているため、視認によって現在画像59と識別可能になっている。従って、現在画像59が、現在撮像されている画像だと認識することができるので、現在地点の後方カメラ22の撮像範囲S内に、障害物62(図17参照)が進入してきても、現在画像59によって、それが現時点で進入した障害物であると判断できる。また、補完画像60が、過去の画像であると認識できるので、その補完画像60に対応する実際の場所を目視する等、その領域内の障害物等に特に注意を払うことができる。
When the image composition data GA is generated, the
画像処理部11は、実際には、ROM5に格納された輪郭描画データ5a(図1参照)を用いて、図17の合成画面58のうち車体の下方にあたる領域に、図18に示すように、車両位置指標としての車両輪郭線61を重ねて描画する。
As shown in FIG. 18, the
輪郭描画データ5aによって描画された車両輪郭線61は、撮像画面30のうち、自車位置に応じた位置に、必要な部分だけ描画される。図18に示す合成画面58aでは、車体の下方にあたる領域、つまり補完画像60によって補完される領域が比較的小さいため、車体の後方(例えば、バンパー、バックドア、トランクのあたり)に相当する車両輪郭線61を、補完画像60(過去画像データG2)の部分に重ねて描画する。これにより、車体の下方にあたる補完画像60が、車体を透過してディスプレイ12に表示されているように見える。運転者は、車両輪郭線61と、目標枠46全体とを視認して、目標枠46との相対位置やずれ量を把握したり、車両Cと障害物62との相対距離を把握する。
The
また、制御部3は、ステアリングセンサ23から舵角検出信号を受信して、画像合成データGAに、予想軌跡線41及び車幅延長線42を表示する。ここでは、操舵が行われていないため、予想軌跡線41上に車幅延長線42が重なって表示されている。
Further, the
次に、制御部3は、終了トリガがあるか否かを判断する(ステップS2−13)。終了トリガがあると(ステップS2−13においてYES)、そのまま処理を終了する。終了
トリガが無いと判断すると(ステップS2−13においてNO)、ステップS2−3に戻る。そして、上記した処理を繰り返す。
Next, the
上記した処理を何回か繰り返し、車体の約半分が駐車領域Rに進入すると、図19に示すような合成画面63が表示される(ステップS2−12)。合成画面63は、現在画像64、補完画像65、車両輪郭線61が表示されている。この合成画面63において、車両輪郭線61は、車体の外形を示す外郭描画線66、各後輪を示す後輪描画線67とから構成されている。即ち、車両Cが駐車領域Rに向かってバック走行するに従って、撮像画面30のうち、補完画像65の割合が多くなり、現時点の画像である現在画像59の表示範囲(縮小範囲52)が狭められて行く。そして、補完画像65の表示範囲(補完範囲53)の割合が増えると同時に、車両輪郭線61が示す車体の描画範囲が、図中y矢印方向(車両Cの進行方向)に向かって拡大し、車体の全体が車両輪郭線61によって徐々に表示されていく。尚、実際の合成画面63では、予想軌跡線41、車幅延長線42も表示されているが、ここでは図示を省略する。
When the above process is repeated several times and about half of the vehicle body enters the parking area R, a
さらに、車体全体が駐車領域R(目標枠46)内に進入すると、図20に示すような合成画面68がディスプレイ12に表示される(ステップS2−12)。合成画面68では、現在画像69、補完画像70、車両輪郭線61が表示されている。車両輪郭線61としては、外郭描画線66、後輪描画線67の他、前輪描画線71が表示されている。このため、この車両輪郭線61によって、車体が目標枠46に沿って真っ直ぐであるかどうかを確認できる。このように、車両輪郭線61が目標枠46に収められると、運転者は、シフトチェンジ、エンジンの停止、目標設定ボタン14aの操作を行い、制御部3は終了トリガがあると判断し(ステップS2−13)、画像合成データ出力処理を終了する。
Furthermore, when the entire vehicle body enters the parking area R (target frame 46), a
上記実施形態によれば、以下のような効果を得ることができる。
(1)上記実施形態では、ナビゲーション装置1の制御装置2は、車両Cの後方カメラ22により生成された画像データGを、各撮像地点で取得するようにした。また、制御装置2の制御部3は、取得した画像データGを、自車位置検出部7から取得した自車位置データ16、撮像範囲データ17と関連付けてRAM4に格納するようにした。また、制御部3及び画像処理部11により、目標設定画面44で予め設定された駐車領域R(目標枠46)の座標を、現在地点の車両の位置に応じて変換するようにした。さらに、画像処理部11により、車両Cの位置に応じて変換された目標枠46が、撮像画面30からはみ出すか否かを判断し、はみ出すと判断した場合に、補完が必要な領域(画面外領域51)の座標を演算するようにした。また、画像処理部11及び制御部3により、RAM4に格納された各画像データGのうち、画面外領域51の座標と関連付けられた過去画像データG2を読み出し、過去画像データG2により現在地点で生成した画像データG1を補完させることにより、目標枠46が撮像画面30内に含まれた画像合成データGAを生成するようにした。そして、制御部3により、画像合成データGAをディスプレイ12に表示するようにした。
According to the above embodiment, the following effects can be obtained.
(1) In the above embodiment, the control device 2 of the navigation device 1 acquires the image data G generated by the
従って、例えば車両Cが駐車領域R内に進入し、後方カメラ22により駐車領域Rの全体を撮像できなくなっても、目標枠46が画面からはみ出す部分にあたる画像を、過去画像データG2で補完することにより、目標枠46全体をディスプレイ12に表示できる。従って、運転者は、車両Cが駐車領域R内に進入し、駐車領域Rが車体の下方に位置するようになっても、駐車領域Rの全体(目標枠46全体)をディスプレイ12で視認することができる。このため、車体が、その駐車領域Rからずれたり、曲がったりすることのないように、車両Cを駐車させることができる。
Therefore, for example, even when the vehicle C enters the parking area R and the
(2)上記実施形態では、画像合成データGAがディスプレイ12に表示された際に、現在地点で生成された画像データG1に基づく画像と、過去画像データG2に基づく画像
が視認によって判別可能となるように画像加工し、過去の画像が表示されていることを報知(警告)するようにした。このため、合成画面58a,63,68のうち、補完した領域と、現在地点での画像の領域とを判別できるので、運転者に、例えば、車両Cの側方等、過去の画像に相当する場所に対する注意を促すことができる。従って、運転者は、過去の画像に相当する場所を実際に目視して、注意を払い、障害物と車両Cとの衝突等の事故を未然に防ぐことができる。
(2) In the above embodiment, when the image composite data GA is displayed on the display 12, an image based on the image data G1 generated at the current location and an image based on the past image data G2 can be discriminated by visual recognition. Thus, the image is processed to notify (warn) that the past image is displayed. For this reason, it is possible to distinguish between the supplemented area and the area of the image at the current point in the combined
(3)上記実施形態では、制御部3及び画像処理部11は、ディスプレイ12に、駐車領域Rを設定するための目標枠46を目標設定画面44上に表示するようにした。さらに、運転者による、目標枠46の位置又は形状又は大きさを指定する入力操作に基づいて、駐車領域R(目標枠46)の画面座標系の座標を決定するようにした。このため、運転者は、画面の任意の場所に駐車領域Rを設定することができる。
(3) In the embodiment described above, the
(4)上記実施形態では、制御部3及び画像処理部11は、画像合成データGAと重ねて、現在地点の自車位置に応じた車両輪郭線61を合成画面58a,63,68に表示するようにした。このため、車両Cの位置と、駐車領域R(目標枠46)とのずれ量を把握し易くすることができるので、車両Cを駐車領域R内に、より確実に誘導することができる。
(4) In the above embodiment, the
(5)上記実施形態では、画像処理部11は、目標枠46の縮小率や、過去画像データG2が補完する補完範囲53に応じて、現在地点で生成した画像データG1を縮小し、過去画像データG2の補完範囲53以外の領域に重ねて合成するようにした。このため、ディスプレイ12に合成画面58a,63,68を表示した際に、画像の連続性を良好にすることができる。
(5) In the above embodiment, the
(6)上記実施形態では、撮像データ取得部10は、車両Cの後端部に設けられた後方カメラ22から、車両Cの後方の撮像範囲Sを撮像した画像データGを取得するようにした。このため、車両Cが駐車領域Rに向ってバックした際に、車両C後方を撮像した画像データGを用いて画像合成データGAを生成して、運転操作が難しい場合に駐車支援を行うため、特に効果を発揮できる。
(6) In the above embodiment, the imaging
(7)上記実施形態では、画像処理部11は、各画像データGの歪曲収差を補正するようにした。このため各画像データGを合成し、ディスプレイ12に表示した際に、画像の連続性を良好にすることができるので、ユーザに違和感を与えないようにすることができる。
(7) In the above embodiment, the
(8)上記実施形態では、RAM4から読出した各過去画像データG2を、現在地点での撮像画面30の画面座標系に変換するようにした。このため、異なるカメラ視点で撮像して生成した画像データを、現在地点のカメラ視点で撮像した画像データG1のように変換できるので、合成画面58a,63,68として表示した際に、画像の連続性をより良好にすることができる。
(8) In the above embodiment, each past image data G2 read from the
(9)上記実施形態では、駐車支援装置を、自車位置検出部7を備えるナビゲーション装置1に具体化したので、精度の高い自車位置検出機能を利用して、画像データGの保存及びその画像データGの合成を行うことができる。このため、自車位置データ16を有効利用して、画像連続性の良好な合成画面58a,63,68をディスプレイ12に表示することができる。
(9) In the above embodiment, since the parking assistance device is embodied in the navigation device 1 including the own vehicle
尚、上記各実施形態は以下のように変更してもよい。
・上記実施形態では、車両Cが並列駐車する場合についてのみ説明したが、縦列駐車す
る場合に、目標枠46が撮像画面30からはみ出した場合に、過去画像データG2を用いて、現在の画像データG1を補完してもよい。
In addition, you may change each said embodiment as follows.
In the above embodiment, only the case where the vehicle C is parked in parallel has been described. However, when the
・上記実施形態の目標設定ボタン14aは、シフトポジションがリバースになった際に、ディスプレイ12上に表示される操作ボタンでもよい。
・上記実施形態では、制御装置2は、画像データ保存処理及び画像合成データ出力処理の際に、目標設定ボタン14aの入力操作信号の受信、又はシフトポジションがリバースになった初期位置を基準点(ゼロ地点)として、車速及び方位のみによって基準点からの相対位置を自車位置として検出するようにしてもよい。
The
In the above embodiment, the control device 2 receives the input operation signal of the
・上記実施形態では、初期状態の目標枠46を縮小又は拡大することで、駐車目標領域を設定するようにしたが、目標設定画面44上で、任意の4点を決定することで目標枠46を生成するようにしてもよい。
In the above embodiment, the parking target area is set by reducing or enlarging the
・上記実施形態では、目標枠46によって駐車目標領域を設定したが、画像データGの画像処理、又は白線43を検知するセンサを用いて、路面の白線43を検出し、制御装置2が、検出された白線43から所定の距離(例えば、内側15cm)までを自動的に駐車目標領域として設定してもよい。
In the above embodiment, the parking target area is set by the
・上記実施形態では、目標設定画面44で設定された目標枠46を、車両Cの移動量に基づき、目標枠46の画素座標を変更して、変更した目標枠46が、画面座標系の撮像画面30(ディスプレイ12の表示領域)内に収容されるか否かを判断した。これ以外に、所定のタイミング、例えば、車両Cが所定距離移動する毎、又は所定時間毎に、路面の白線43を検出して目標枠46を設定し、設定された目標枠46の画素座標が画面座標系の撮像画面30(ディスプレイ12の表示領域)内に収容されるか否かを判断してもよい。この場合、移動量に基づく座標変換処理を不要とすることができる。
In the above embodiment, the
・上記実施形態では、車両Cが後退する際に、目標枠46をディスプレイ12の画面に表示するようにしたが、目標枠46をディスプレイ12に表示せず、予め取得した目標枠46の座標が撮像画面30からはみ出すか否かを判断するようにしてもよい。このとき、目標枠46を、目標設定画面44のみに表示して、その位置等をユーザにより設定可能とし、車両Cが後退を始めたり、所定距離だけ移動した際に、画面に目標枠46を表示しないようにしてもよい。また、上記したように、制御装置2が、白線43を検出し、自動的に目標枠46を設定するようにしてもよい。このようにすると、画面に、車幅延長線42、予想軌跡線41、車両輪郭線61等の各種指標を表示する場合に、画面が煩雑になるのを抑制し、画面を見やすくすることができる。
In the above embodiment, when the vehicle C moves backward, the
・上記実施形態では、自車位置データ16に基づいて撮像範囲データ17を予め算出し、その撮像範囲データ17を画像データGに関連付けてRAM4に格納したが、撮像範囲データ17は予め算出せず、画像データGには少なくとも自車位置データ16が関連付けられていればよい。そして、合成する過去の過去画像データG2を読み出す際に、自車位置データ16に基づいて、目標枠46のはみ出し部分のデータを含む画像データGであるかどうかを算出するようにしてもよい。
In the above embodiment, the
・上記実施形態では、図4に示すようなデータ構成で画像データGをRAM4に格納するのではなく、画像データGの識別子と、自車位置データ16とからなる属性データを格納したテーブルを生成し、そのテーブルをRAM4に格納するようにしてもよい。
In the above embodiment, the image data G is not stored in the
・上記実施形態では、目標枠46内に、車両輪郭線61等の車体の大きさを示す描画線全てが収容された時に、制御部3又は画像処理部11により終了トリガがある(ステップ
S2−13においてYES)と判断してもよい。
In the above embodiment, when all the drawing lines indicating the size of the vehicle body such as the
・上記実施形態では、車両位置指標としては、車両輪郭線61以外に、画面内で車両Cの占める領域を示す車両占有領域や、後車軸の中心点や重心点等、車両の所定の位置を示す点でもよい。
In the above embodiment, as the vehicle position index, in addition to the
・上記実施形態では、画像処理部11は、歪曲収差の補正を省略するようにしてもよい。
・上記実施形態では、自車位置は、後車軸の中心点25としたが、重心位置等、その他の車両Cの所定の位置でよい。
In the above embodiment, the
In the above embodiment, the vehicle position is the
・上記実施形態では、現在地点と異なる地点で生成された画像データGを、現在地点の撮像画面30の画面座標系の座標に変換する座標変換を省略してもよい。このようにすると、制御装置2の負担を軽減できる。
In the above embodiment, the coordinate conversion for converting the image data G generated at a point different from the current point to the coordinates of the screen coordinate system of the
・上記実施形態では、現在地点で生成された画像データG1に基づく画像と、過去画像データG2に基づく画像が視認によって判別可能となるように、過去画像データG2を加工するようにした。これ以外に、過去画像データG2に基づく過去の画像がディスプレイ12に表示されていることを示唆する報知(警告)として、過去画像が表示されていることを示す、案内表示としての文字表示や、案内表示としてのアイコンを合成画面58に重ねて表示するようにしてもよい。また、現在画像59と補完画像60との境目を示す、表示としての境界線等を表示するようにしてもよい。この場合、現在画像59と補完画像60の表示領域が区別できるため、運転者は、補完画像60に注意を払うことができる。さらに、ディスプレイ12に、過去の画像が表示されていることを示唆する案内音又は案内音声をスピーカ15から出力するようにしてもよい。この場合、運転者は、ディスプレイ12から目を離しているときや、アイコン等に気付かないときでも、補完画像60が表示されていることに気付くことができる。
In the above embodiment, the past image data G2 is processed so that an image based on the image data G1 generated at the current point and an image based on the past image data G2 can be discriminated by visual recognition. In addition to this, as a notification (warning) indicating that a past image based on the past image data G2 is displayed on the display 12, a character display as a guidance display indicating that the past image is displayed, An icon as a guidance display may be displayed on the
・上記実施形態では、車両Cの移動に伴い、その座標が変換された目標枠46が、撮像画面30(ディスプレイ12の表示領域)からはみ出す場合に、過去画像データG2により、目標枠46のはみ出す部分を補完して、画像合成データGAを生成した。これ以外に、車両Cが所定距離だけ移動した際に、その車体のフロアの下方にあたる領域を有する過去画像データを、現在の画像データと平行に並べた、画像合成データを生成するようにしてもよい。そして、このような画像合成データが出力された画面において、過去画像データに基づく過去画像が表示されていることを示唆する報知(警告)を行うようにしてもよい。この報知(警告)は、過去画像データの色調、模様及び明度のうち少なくとも1つを現在の画像データと異なるように加工したり、アイコン、過去画像と現在画像の境界を示す線の画面表示や、案内音又は音声等をスピーカ15から出力することにより行われる。また、合成画面63のうち、補完画像65に重ねられた車両輪郭線61の解像度を下げ、車両輪郭線をぼかすように表示してもよい。
In the above embodiment, when the
・後方カメラ22は、車両Cの車体後端のいずれの位置に設けてもよい。また、後方カメラ22は、車両Cの前端、側端、車室内に取り付けられてもよい。この場合にも、このカメラによって生成された画像データGを使用して、車体の下方の領域を表示することができるため、車両C前方の見えにくい障害物を視認しやすくすることができる。また、車両周辺を撮像するカメラは、1つではなく、複数でもよい。
The
・上記実施形態では、駐車支援装置を経路案内を行うナビゲーション装置1に具体化したが、経路案内を省略した装置としてもよい。この場合、地図データ記憶部9、スピーカ15が省略される。
In the above embodiment, the parking assistance device is embodied as the navigation device 1 that performs route guidance, but may be a device that omits route guidance. In this case, the map
1…駐車支援装置としてのナビゲーション装置、3…画像取得手段、表示制御手段及び報知手段としての制御部、4…画像データ記憶手段としてのRAM、10…画像取得手段を構成する撮像データ取得部、11…画像合成手段及び報知手段を構成する画像処理部、12…表示手段としてのディスプレイ、15…スピーカ、22…撮像装置としての後方カメラ、C…車両、G,G1,G2…画像データ、G2…過去画像データ、GA…画像合成データ。
DESCRIPTION OF SYMBOLS 1 ... Navigation apparatus as parking assistance apparatus, 3 ... Image acquisition means, control part as display control means and notification means, 4 ... RAM as image data storage means, 10 ... Imaging data acquisition part which comprises image acquisition means, DESCRIPTION OF
Claims (8)
前記制御手段が、
車両に設けられた撮像装置から、前記車両の周辺を撮像した画像データを各撮像地点で取得し、
取得した前記画像データを画像データ記憶手段に格納し、
前記車両の現在地点で撮像された最新の画像データと、前記画像データ記憶手段に格納された過去の前記画像データとを、前記表示手段に表示し、
過去の前記画像データが前記表示手段に表示されていることを報知することを特徴とする駐車支援方法。 A parking support method for supporting a parking operation using display means for displaying image data and a control means,
The control means is
From the imaging device provided in the vehicle, obtain image data obtained by imaging the periphery of the vehicle at each imaging point,
The acquired image data is stored in image data storage means,
The latest image data captured at the current location of the vehicle and the past image data stored in the image data storage means are displayed on the display means,
A parking assistance method characterized by notifying that the past image data is displayed on the display means.
車両に設けられた撮像装置から、前記車両の周辺を撮像した画像データを、各撮像地点で取得する画像取得手段と、
前記各撮像地点で撮像した前記画像データを格納する画像データ記憶手段と、
最新の画像データと、前記画像データ記憶手段に格納された過去の前記画像データとを、前記表示手段に表示する表示制御手段と、
過去の前記画像データが前記表示手段に表示されていることを報知する報知手段と
を備えたことを特徴とする駐車支援装置。 Display means for displaying image data;
Image acquisition means for acquiring image data obtained by imaging the periphery of the vehicle at each imaging point from an imaging device provided in the vehicle;
Image data storage means for storing the image data captured at each imaging point;
Display control means for displaying the latest image data and the past image data stored in the image data storage means on the display means;
A parking assistance device comprising: an informing means for informing that the past image data is displayed on the display means.
前記表示制御手段は、最新の前記画像データと、過去の前記画像データとを合成した画像合成データを生成する画像合成手段を有し、前記画像合成データを前記表示手段に表示することを特徴とする駐車支援装置。 In the parking assistance device according to claim 2,
The display control means includes image composition means for generating image composition data obtained by combining the latest image data and the past image data, and displays the image composition data on the display means. Parking assistance device.
前記報知手段は、
最新の前記画像データに基づく画像と、過去の前記画像データに基づく画像とが、視認によって判別可能となるように、前記各画像データのうち少なくとも一方を加工して、前記表示手段に出力することを特徴とする駐車支援装置。 In the parking assistance device according to claim 2 or 3,
The notification means includes
Processing at least one of the image data so that an image based on the latest image data and an image based on the past image data can be discriminated by visual recognition, and outputting to the display means A parking assistance device characterized by the above.
前記報知手段は、過去の前記画像データの色調、模様及び明度のうち、少なくとも1つを、最新の前記画像データと異なるように加工して前記表示手段に出力することを特徴とする駐車支援装置。 In the parking assistance device according to claim 4,
The informing means processes at least one of the color tone, pattern, and brightness of the past image data so as to be different from the latest image data, and outputs the processed data to the display means. .
前記報知手段は、
過去の前記画像データが前記表示手段に表示されていることを示唆する案内表示を、前記表示手段に出力することを特徴とする駐車支援装置。 In the parking assistance device according to any one of claims 2 to 5,
The notification means includes
A parking assistance device, characterized in that a guidance display suggesting that the past image data is displayed on the display means is output to the display means.
前記報知手段は、
前記表示手段の画面において、最新の前記画像データ又は過去の前記画像データの表示領域を区画する表示を出力することを特徴とする駐車支援装置。 In the parking assistance device according to any one of claims 2 to 6,
The notification means includes
A parking assistance device, characterized in that on the screen of the display means, a display for partitioning a display area of the latest image data or past image data is output.
前記報知手段は、
スピーカから、過去の前記画像データが前記表示手段に表示されていることを示唆する案内音又は案内音声を出力することを特徴とする駐車支援装置。 In the parking assistance device according to any one of claims 2 to 7,
The notification means includes
A parking assistance device, characterized in that a guidance sound or guidance voice suggesting that the past image data is displayed on the display means is output from a speaker.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005125440A JP2006298258A (en) | 2005-04-22 | 2005-04-22 | Parking supporting method and parking supporting device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005125440A JP2006298258A (en) | 2005-04-22 | 2005-04-22 | Parking supporting method and parking supporting device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006298258A true JP2006298258A (en) | 2006-11-02 |
Family
ID=37466827
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005125440A Pending JP2006298258A (en) | 2005-04-22 | 2005-04-22 | Parking supporting method and parking supporting device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006298258A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012232610A (en) * | 2011-04-28 | 2012-11-29 | Toshiba Alpine Automotive Technology Corp | Parking support system |
JP2014069723A (en) * | 2012-09-28 | 2014-04-21 | Aisin Seiki Co Ltd | Parking support device and control method |
JP2015074257A (en) * | 2013-10-04 | 2015-04-20 | アイシン精機株式会社 | Parking support device |
CN107672601A (en) * | 2017-09-29 | 2018-02-09 | 重庆长安汽车股份有限公司 | The automatic parking triggering system and method for Voice command |
WO2019093378A1 (en) * | 2017-11-10 | 2019-05-16 | 株式会社デンソー | Display processing device |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004222195A (en) * | 2003-01-17 | 2004-08-05 | Denso Corp | Device for displaying image around vehicle |
JP2004260694A (en) * | 2003-02-27 | 2004-09-16 | Nippon Soken Inc | Vehicle surrounding image processing system |
-
2005
- 2005-04-22 JP JP2005125440A patent/JP2006298258A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004222195A (en) * | 2003-01-17 | 2004-08-05 | Denso Corp | Device for displaying image around vehicle |
JP2004260694A (en) * | 2003-02-27 | 2004-09-16 | Nippon Soken Inc | Vehicle surrounding image processing system |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012232610A (en) * | 2011-04-28 | 2012-11-29 | Toshiba Alpine Automotive Technology Corp | Parking support system |
JP2014069723A (en) * | 2012-09-28 | 2014-04-21 | Aisin Seiki Co Ltd | Parking support device and control method |
JP2015074257A (en) * | 2013-10-04 | 2015-04-20 | アイシン精機株式会社 | Parking support device |
CN107672601A (en) * | 2017-09-29 | 2018-02-09 | 重庆长安汽车股份有限公司 | The automatic parking triggering system and method for Voice command |
WO2019093378A1 (en) * | 2017-11-10 | 2019-05-16 | 株式会社デンソー | Display processing device |
JP2019087980A (en) * | 2017-11-10 | 2019-06-06 | 株式会社デンソー | Display processing device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7680570B2 (en) | Parking assist devices, methods, and programs | |
JP4561479B2 (en) | Parking support method and parking support device | |
JP4595649B2 (en) | Parking support method and parking support device | |
US7088262B2 (en) | Method of operating a display system in a vehicle for finding a parking place | |
JP2007114020A (en) | Vehicle moving distance detecting method and device, and current vehicle position detecting method and device | |
US20070147664A1 (en) | Driving assist method and driving assist apparatus | |
JP2007099261A (en) | Parking assistance method and parking assistance device | |
JP5723106B2 (en) | Vehicle display device and vehicle display method | |
JP2006298115A (en) | Driving-support method and driving-support device | |
JP4904997B2 (en) | Parking support method and parking support device | |
JP4696691B2 (en) | Parking support method and parking support device | |
CN103140377A (en) | Method for displaying images on a display device and driver assistance system | |
JP2010184607A (en) | Vehicle periphery displaying device | |
CN104620076A (en) | Driving assistance device | |
JP5549235B2 (en) | Driving assistance device | |
JP2008099201A (en) | Method and device for supporting driving | |
JP2007226300A (en) | Driving support method and driving support device | |
JP2003319383A (en) | On-vehicle image processing apparatus | |
JP2006298258A (en) | Parking supporting method and parking supporting device | |
JP2014199677A (en) | Driving supporting device | |
JP4561470B2 (en) | Parking assistance device | |
JP4561512B2 (en) | Parking support method and parking support device | |
JP4670460B2 (en) | Parking support method and parking support device | |
JP4946045B2 (en) | Image display method and driving support device | |
JP2006306241A (en) | Parking assisting method and parking assisting device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080212 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100302 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100706 |