JP2006298258A - Parking supporting method and parking supporting device - Google Patents

Parking supporting method and parking supporting device Download PDF

Info

Publication number
JP2006298258A
JP2006298258A JP2005125440A JP2005125440A JP2006298258A JP 2006298258 A JP2006298258 A JP 2006298258A JP 2005125440 A JP2005125440 A JP 2005125440A JP 2005125440 A JP2005125440 A JP 2005125440A JP 2006298258 A JP2006298258 A JP 2006298258A
Authority
JP
Japan
Prior art keywords
image data
vehicle
display
image
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005125440A
Other languages
Japanese (ja)
Inventor
Toshihiro Mori
俊宏 森
Seiji Sakakibara
聖治 榊原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2005125440A priority Critical patent/JP2006298258A/en
Publication of JP2006298258A publication Critical patent/JP2006298258A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a parking supporting method capable of guiding a vehicle to a parking target area even after the vehicle enters the parking target area and capable of urging attention to a periphery of the vehicle in guiding the vehicle to the parking target area and a parking supporting device. <P>SOLUTION: A navigation device 1 acquires a picture image data G picking up a rear view field of the vehicle from a rear camera 22 provided on the vehicle, and the picture image data G is stored in an RAM 4 in association with a position of the vehicle at each of the picking up points. Additionally, the latest data G is composed free to visually judge with the past picture image data G including a run-off part when the previously set target frame runs off the edge of a screen and it is displayed on a display 12. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、駐車支援方法及び駐車支援装置に関する。   The present invention relates to a parking assistance method and a parking assistance device.

従来より、自動車を駐車させる際の運転操作を支援する装置として、車両の後端に取り付けられたカメラにより、周辺視界を撮像し、その撮像データを車室内に配設されたディスプレイに出力する装置が知られている(例えば、特許文献1参照)。このような後方カメラは、車両の後端の略中央において取付けられ、その光軸は、下方に所定角度傾けた状態で固定されている。そして、この後方カメラは、車両の後端から後方数メートルを撮像可能になっている。
特開2000−280823号公報
2. Description of the Related Art Conventionally, as a device for assisting a driving operation when a car is parked, a device attached to the rear end of a vehicle is used to image a peripheral field of view and output the imaged data to a display disposed in a vehicle interior Is known (see, for example, Patent Document 1). Such a rear camera is mounted substantially at the center of the rear end of the vehicle, and its optical axis is fixed in a state where it is inclined downward by a predetermined angle. And this rear camera can image several meters behind from the rear end of the vehicle.
JP 2000-280823 A

ところが、上記した駐車支援装置は、車両がバック走行しながら駐車枠に進入開始した時点では、駐車枠を示す白線や輪止めがディスプレイに表示されるが、車両が白線の終端や輪止めに接近するに従って、画面から駐車枠がはみ出し、最終的には白線や輪止めが全く表示されなくなってしまう。このため、運転者は、駐車枠に進入するに従って、車両と駐車目標領域との相対位置及び相対方向、ずれ量を把握し難くなる。その結果、タイヤと輪止めとの接触による衝撃が大きくなったり、白線に対して斜めに駐車したり、車両が駐車枠からはみ出てしまうことがある。   However, when the vehicle starts to enter the parking frame while traveling backward, the parking assist device described above displays a white line and a wheel stopper indicating the parking frame on the display, but the vehicle approaches the end of the white line and the wheel stopper. As a result, the parking frame protrudes from the screen, and eventually the white line and the wheel stopper are not displayed at all. For this reason, as the driver enters the parking frame, it becomes difficult for the driver to grasp the relative position, the relative direction, and the deviation amount between the vehicle and the parking target area. As a result, the impact caused by the contact between the tire and the wheel stopper may increase, the vehicle may be parked obliquely with respect to the white line, or the vehicle may protrude from the parking frame.

本発明は、上記問題点に鑑みてなされたものであり、その目的は、駐車目標領域に車両が進入した後も、駐車目標領域内に車両を誘導することができる駐車支援方法及び駐車支援装置を提供することにある。   The present invention has been made in view of the above problems, and its purpose is to provide a parking support method and a parking support apparatus that can guide a vehicle into the parking target area even after the vehicle enters the parking target area. Is to provide.

また、本発明の目的は、駐車目標領域に車両を誘導する際に、車両周辺への注意を促すことができる駐車支援方法及び駐車支援装置を提供することにある。   Moreover, the objective of this invention is providing the parking assistance method and parking assistance apparatus which can call attention to a vehicle periphery, when guiding a vehicle to a parking target area | region.

上記問題点を解決するために、請求項1に記載の発明は、画像データを表示する表示手段と、制御手段とを用い、駐車操作を支援する駐車支援方法であって、前記制御手段が、車両に設けられた撮像装置から、前記車両の周辺を撮像した画像データを各撮像地点で取得し、取得した前記画像データを画像データ記憶手段に格納し、前記車両の現在地点で撮像された最新の画像データと、前記画像データ記憶手段に格納された過去の前記画像データとを、前記表示手段に表示し、過去の前記画像データが前記表示手段に表示されていることを報知することを要旨とする。   In order to solve the above problem, the invention according to claim 1 is a parking support method for supporting a parking operation using a display unit that displays image data and a control unit, and the control unit includes: Image data obtained by imaging the periphery of the vehicle is acquired at each imaging point from an imaging device provided in the vehicle, the acquired image data is stored in image data storage means, and the latest imaged at the current location of the vehicle And displaying the past image data stored in the image data storage means on the display means and notifying that the past image data is being displayed on the display means. And

請求項2に記載の発明は、画像データを表示する表示手段と、前記車両に設けられた撮像装置から、車両の周辺を撮像した画像データを、各撮像地点で取得する画像取得手段と、前記各撮像地点で撮像した前記画像データを格納する画像データ記憶手段と、最新の画像データと、前記画像データ記憶手段に格納された過去の前記画像データとを、前記表示手段に表示する表示制御手段と、過去の前記画像データが前記表示手段に表示されていることを報知する報知手段とを備えたことを要旨とする。   The invention described in claim 2 is a display unit that displays image data, an image acquisition unit that acquires image data obtained by imaging the periphery of the vehicle at each imaging point from an imaging device provided in the vehicle, and Display control means for displaying on the display means the image data storage means for storing the image data taken at each imaging point, the latest image data, and the past image data stored in the image data storage means. And a notifying means for notifying that the past image data is displayed on the display means.

請求項3に記載の発明は、請求項2に記載の駐車支援装置において、前記表示制御手段は、最新の前記画像データと、過去の前記画像データとを合成した画像合成データを生成
する画像合成手段を有し、前記画像合成データを前記表示手段に表示することを要旨とする。
According to a third aspect of the present invention, in the parking assist device according to the second aspect, the display control means generates image composition data by combining the latest image data and the past image data. And a means for displaying the image composite data on the display means.

請求項4に記載の発明は、請求項2又は3に記載の駐車支援装置において、前記報知手段は、最新の前記画像データに基づく画像と、過去の前記画像データに基づく画像とが、視認によって判別可能となるように、前記各画像データのうち少なくとも一方を加工して、前記表示手段に出力することを要旨とする。   According to a fourth aspect of the present invention, in the parking assist device according to the second or third aspect, the notifying unit visually recognizes an image based on the latest image data and an image based on the past image data. The gist is that at least one of the image data is processed and output to the display means so as to be discriminated.

請求項5に記載の発明は、請求項4に記載の駐車支援装置において、前記報知手段は、過去の前記画像データの色調、模様及び明度のうち、少なくとも1つを、最新の前記画像データと異なるように加工して前記表示手段に出力することを要旨とする。   According to a fifth aspect of the present invention, in the parking assist device according to the fourth aspect, the informing means selects at least one of the past color tone, pattern, and brightness of the image data as the latest image data. The gist is to process it differently and output it to the display means.

請求項6に記載の発明は、請求項2〜4のいずれか1項に記載の駐車支援装置において、前記報知手段は、過去の前記画像データが前記表示手段に表示されていることを示唆する案内表示を、前記表示手段に出力することを要旨とする。   The invention according to claim 6 is the parking assist device according to any one of claims 2 to 4, wherein the notification means suggests that the past image data is displayed on the display means. The gist is to output the guidance display to the display means.

請求項7に記載の発明は、請求項2〜5のいずれか1項に記載の駐車支援装置において、前記報知手段は、前記表示手段の画面において、最新の前記画像データ又は過去の前記画像データの表示領域を区画する表示を出力することを要旨とする。   A seventh aspect of the present invention is the parking assist apparatus according to any one of the second to fifth aspects, wherein the informing means is the latest image data or past image data on the screen of the display means. The gist is to output a display that divides the display area.

請求項8に記載の発明は、請求項2〜6のいずれか1項に記載の駐車支援装置において、前記報知手段は、スピーカから、過去の前記画像データが前記表示手段に表示されていることを示唆する案内音又は案内音声を出力することを要旨とする。   According to an eighth aspect of the present invention, in the parking assist device according to any one of the second to sixth aspects, the notification means displays the past image data from a speaker on the display means. The gist of the present invention is to output a guidance sound or guidance voice that suggests.

請求項1に記載の発明によれば、制御手段は、各撮像地点で取得した画像データを画像データ記憶手段に格納し、最新の画像データを、画像データ記憶手段に格納され、異なる地点であって、過去の画像データと合わせて表示手段に表示する。そして、表示手段に過去の画像データが表示されていることを報知する。従って、運転者は、表示手段の画面の一部が、過去の画像であることを認識することができるため、その過去画像に相当する場所を実際に目視する等、注意を払い、障害物との衝突等の事故を未然に防ぐことができる。   According to the first aspect of the present invention, the control means stores the image data acquired at each imaging point in the image data storage means, and the latest image data is stored in the image data storage means so as to be at different points. The past image data is displayed on the display means. Then, the display means notifies that past image data is displayed. Therefore, the driver can recognize that a part of the screen of the display means is a past image. Therefore, the driver pays attention such as actually observing a place corresponding to the past image, Accidents such as collisions can be prevented.

請求項2に記載の発明によれば、各撮像地点で画像データを取得する画像取得手段と、画像データを画像データ記憶手段に格納する画像データ記憶手段と、最新の画像データを、画像データ記憶手段に格納され、異なる地点であって、過去の画像データと合わせて表示手段に表示する表示制御手段とを備える。また、過去の画像データが表示手段に表示されていることを報知する報知手段を備える。従って、運転者は、表示手段の画面の一部が、過去の画像であることを認識することができるため、その過去画像に対応する領域を目視する等、注意を払い、障害物との衝突等の事故を未然に防ぐことができる。   According to the second aspect of the present invention, the image acquisition means for acquiring the image data at each imaging point, the image data storage means for storing the image data in the image data storage means, and the latest image data are stored in the image data storage. The display control means is stored in the means and is displayed at different points and displayed on the display means together with past image data. Also provided is a notifying means for notifying that the past image data is displayed on the display means. Therefore, the driver can recognize that a part of the screen of the display means is a past image, so pay attention, such as viewing an area corresponding to the past image, and collide with an obstacle. Accidents such as can be prevented in advance.

請求項3に記載の発明によれば、表示制御手段は、画像合成手段を有し、最新の前記画像データと、過去の前記画像データとを合成した画像合成データを生成するので、連続性のある画像を表示手段に表示できる。   According to the third aspect of the present invention, the display control means includes the image composition means, and generates the image composition data obtained by compositing the latest image data and the past image data. A certain image can be displayed on the display means.

請求項4に記載の発明によれば、報知手段は、最新の画像データに基づく画像と、過去の画像データに基づく画像とを、視認によって判別可能となるように、各画像データのうち少なくとも一方を加工する。このため、最新又は過去の画像データに基づく画像が、画面のうち、どの範囲に相当するのかを区別することができるので、過去画像の領域に注意を払いやすい。   According to the fourth aspect of the present invention, the notifying means can determine at least one of the image data so that the image based on the latest image data and the image based on the past image data can be discriminated by visual recognition. Is processed. For this reason, since it is possible to distinguish which range of the screen corresponds to the image based on the latest or past image data, it is easy to pay attention to the area of the past image.

請求項5に記載の発明によれば、過去の画像データの色調、模様及び明度のうち、少なくともいずれか1つを、最新の前記画像データと異なるように加工して表示手段に出力する。このため、過去の画像データと、最新の画像データとが表示手段に表示された際に、目視によって、各画像データの表示領域を容易に判別することができる。   According to the fifth aspect of the present invention, at least one of the color tone, pattern, and brightness of the past image data is processed so as to be different from the latest image data, and is output to the display means. For this reason, when the past image data and the latest image data are displayed on the display means, the display area of each image data can be easily determined visually.

請求項6に記載の発明によれば、報知手段は、過去の画像データが表示されていることを示唆する案内表示を表示手段に出力する。このため、運転者は、表示手段の画面を視認することにより、過去の画像データが表示されていることを認識することができる。   According to the invention described in claim 6, the notifying means outputs a guidance display indicating that past image data is displayed to the display means. For this reason, the driver | operator can recognize that the past image data is displayed by visually recognizing the screen of a display means.

請求項7に記載の発明によれば、報知手段は、表示手段の画面において、最新の画像データ又は過去の画像データの表示領域を示す表示を出力する。このため、最新又は過去の画像データに基づく画像が、全画面のうち、どの範囲であるのかを区別することができるので、注意を払うべき領域を判断しやすくすることができる。   According to the seventh aspect of the invention, the notification means outputs a display indicating the display area of the latest image data or past image data on the screen of the display means. For this reason, since it is possible to distinguish which range of the entire screen the image based on the latest or past image data can be distinguished, it is possible to easily determine the area to which attention should be paid.

請求項8に記載の発明によれば、報知手段は、スピーカから、過去の画像データが表示されていることを示唆する案内音又は案内音声を出力する。このため、運転者は、表示手段から目を離しているとき等にも、過去の画像データが表示手段に表示されていることを知ることができる。   According to the invention described in claim 8, the notifying means outputs a guide sound or a guide voice suggesting that past image data is displayed from the speaker. For this reason, the driver can know that the past image data is displayed on the display means even when he / she keeps an eye on the display means.

以下、本発明の駐車支援装置を、自動車(車両)に搭載され、経路案内を行うナビゲーション装置に具体化した実施形態を図1〜図20に従って説明する。図1は、ナビゲーション装置1の構成を説明するブロック図である。   Hereinafter, an embodiment in which the parking assist device of the present invention is embodied in a navigation device that is mounted on an automobile (vehicle) and performs route guidance will be described with reference to FIGS. FIG. 1 is a block diagram illustrating the configuration of the navigation device 1.

図1に示すように、ナビゲーション装置1は、制御手段としての制御装置2を備えている。この制御装置2は、主制御を行う制御部3、画像データ記憶手段としてのRAM4、ROM5を備えている。制御部3は、ROM5に格納された経路案内プログラム、画像データ保存プログラム、合成データ出力プログラム、駐車案内プログラム等、各種プログラムに従って、各種処理を行う。尚、制御部3は、特許請求の範囲に記載の画像取得手段、表示制御手段、報知手段を構成する。   As shown in FIG. 1, the navigation device 1 includes a control device 2 as a control means. The control device 2 includes a control unit 3 that performs main control, a RAM 4 as an image data storage unit, and a ROM 5. The control unit 3 performs various processes according to various programs such as a route guidance program, an image data storage program, a composite data output program, and a parking guidance program stored in the ROM 5. The control unit 3 constitutes an image acquisition unit, a display control unit, and a notification unit described in the claims.

また、ROM5には、輪郭描画データ5aが格納されている。輪郭描画データ5aは、車両Cの輪郭をディスプレイ12に表示するためのデータである。また、輪郭描画データ5aは、車両Cの大きさに応じて設定され、車両Cが小型車である場合には、画面に応じた小型車の大きさの輪郭を描画するようになっている。   The ROM 5 stores contour drawing data 5a. The contour drawing data 5 a is data for displaying the contour of the vehicle C on the display 12. The contour drawing data 5a is set according to the size of the vehicle C, and when the vehicle C is a small vehicle, the contour of the size of the small vehicle according to the screen is drawn.

また、制御装置2は、GPS受信部6及び自車位置検出部7を備えている。GPS受信部6は、GPS衛星からの電波を受信する。自車位置検出部7は、GPS受信部6から受信した検出データに基づいて、自車位置の絶対位置を示す緯度・経度・高度等の測位データを定期的に算出する。   In addition, the control device 2 includes a GPS receiver 6 and a vehicle position detector 7. The GPS receiver 6 receives radio waves from GPS satellites. Based on the detection data received from the GPS receiving unit 6, the own vehicle position detection unit 7 periodically calculates positioning data such as latitude, longitude, altitude indicating the absolute position of the own vehicle position.

さらに、制御装置2は、センサインターフェース(I/F部8)を備えている。制御部3は、このI/F部8を介して、車両Cに配設された車速センサ20及びジャイロセンサ21から、車両Cの速度及び相対方位を取得し、これらを自車位置検出部7に送信する。自車位置検出部7は、GPS受信部6による測位データにより算出した基準自車位置をもとに、車速及び相対方位に基づき、自律航法による自車位置データを生成する。このとき、自車位置検出部7は、図3に示すように、車両Cの後輪C1の車軸C2の中心点25を自車位置データとして算出する。そして、GPS受信部6から測位データを逐次取得しながら、自律航法による自車位置を補正し、自車位置を決定する。   Furthermore, the control device 2 includes a sensor interface (I / F unit 8). The control unit 3 acquires the speed and relative direction of the vehicle C from the vehicle speed sensor 20 and the gyro sensor 21 disposed in the vehicle C via the I / F unit 8, and uses these to detect the vehicle position detection unit 7. Send to. The own vehicle position detection unit 7 generates own vehicle position data by autonomous navigation based on the vehicle speed and the relative direction based on the reference own vehicle position calculated from the positioning data by the GPS receiving unit 6. At this time, the host vehicle position detection unit 7 calculates the center point 25 of the axle C2 of the rear wheel C1 of the vehicle C as host vehicle position data, as shown in FIG. And while acquiring positioning data from GPS receiving part 6 sequentially, the own vehicle position by autonomous navigation is corrected and the own vehicle position is determined.

また、制御装置2は、地図データ記憶部9を備えている。地図データ記憶部9には、地図データとしての経路データ9a及び地図描画データ9bが格納されている。経路データ9aは、各道路の交差点や曲点を示すノードを示すノードデータや、各ノードを接続するリンクを示すリンクデータ等を格納しており、制御部3は、目的地までの経路案内処理を行う際に、この経路データ9a及びROM5に格納された経路案内プログラムに従って経路を探索する。また、制御部3は、上記したように算出した自車位置データと、走行軌跡、経路データ9aを照合して、自車位置座標を適切な道路上に位置決めし、自車位置データをさらに補正する。地図描画データ9bは、広範囲から狭範囲の地図を表示するためのデータであって、経路データ9aと関連付けられている。   The control device 2 includes a map data storage unit 9. The map data storage unit 9 stores route data 9a and map drawing data 9b as map data. The route data 9a stores node data indicating nodes indicating intersections and turning points of roads, link data indicating links connecting the nodes, and the like. The control unit 3 performs route guidance processing to a destination. When performing the above, the route is searched according to the route data 9a and the route guidance program stored in the ROM 5. Further, the control unit 3 collates the vehicle position data calculated as described above with the travel locus and the route data 9a, positions the vehicle position coordinates on an appropriate road, and further corrects the vehicle position data. To do. The map drawing data 9b is data for displaying a map from a wide range to a narrow range, and is associated with the route data 9a.

また、制御装置2は、画像取得手段を構成する撮像データ取得部10を備えている。撮像データ取得部10は、車両Cに設けられた撮像装置としての後方カメラ22から撮像データを、車両Cの所定移動量ごとに、或いは所定時間ごとに取得する。   In addition, the control device 2 includes an imaging data acquisition unit 10 that constitutes an image acquisition unit. The imaging data acquisition unit 10 acquires imaging data from the rear camera 22 as an imaging device provided in the vehicle C for each predetermined movement amount of the vehicle C or for each predetermined time.

後方カメラ22は、図2に示すように、車両Cのバックドア等、車両Cの後端の略中央に、光軸Aを下方に向けて取り付けられている。この後方カメラ22は、広角レンズ、ミラー等から構成される光学機構と、CCD撮像素子(いずれも図示せず)とを備えている。図3に示すように、後方カメラ22は、例えば左右140度の後方視野を有し、車両Cの後端を含む、後方約3mの撮像範囲S(周辺視界)を撮像可能になっている。また、制御部3は、自車位置検出部7から取得した自車位置データに基づいて、後方カメラ22の撮像範囲Sを、車両C用のXY座標系(以下、車両座標系という)の座標として演算可能になっている。この車両座標系は、路面と平行な水平面の座標である。   As shown in FIG. 2, the rear camera 22 is attached to the approximate center of the rear end of the vehicle C, such as a back door of the vehicle C, with the optical axis A facing downward. The rear camera 22 includes an optical mechanism including a wide-angle lens, a mirror, and the like, and a CCD image pickup device (none of which is shown). As shown in FIG. 3, the rear camera 22 has a rear visual field of, for example, 140 degrees to the left and right, and can capture an imaging range S (peripheral field of view) about 3 m rearward including the rear end of the vehicle C. Further, the control unit 3 determines the imaging range S of the rear camera 22 based on the own vehicle position data acquired from the own vehicle position detection unit 7 in the XY coordinate system (hereinafter referred to as a vehicle coordinate system) for the vehicle C. Can be computed as This vehicle coordinate system is a coordinate of a horizontal plane parallel to the road surface.

後方カメラ22によって生成された撮像データは、アナログ/デジタル変換されたデジタルデータであって、撮像データ取得部10は、各種補正や合成等の画像処理が可能な画像データGとして、制御部3に送信する。制御部3は、その画像データGを取得すると、図4に示すように、画像データG(撮像データ)を生成した地点の自車位置データ16と関連付けて、画像データGをRAM4に一時格納する。また、このとき、画像データGに、自車位置データ16に基づいて算出した撮像範囲Sの座標を示す撮像範囲データ17を関連付けて格納してもよい。これらの自車位置データ16及び撮像範囲データ17は、車両座標系の座標で示されている。また、画像データGは、後方カメラ22が広角レンズを用いているため、ナビゲーション装置1が具備する表示手段としてのディスプレイ12に表示した際に、画面周辺の画像が縮む、いわゆる歪曲収差が生じている。   The imaging data generated by the rear camera 22 is analog / digital converted digital data, and the imaging data acquisition unit 10 provides the control unit 3 as image data G that can be subjected to image processing such as various corrections and synthesis. Send. When the control unit 3 acquires the image data G, as shown in FIG. 4, the control unit 3 temporarily stores the image data G in the RAM 4 in association with the vehicle position data 16 of the point where the image data G (imaging data) is generated. . At this time, the image data G may be stored in association with the imaging range data 17 indicating the coordinates of the imaging range S calculated based on the vehicle position data 16. The own vehicle position data 16 and the imaging range data 17 are indicated by coordinates in the vehicle coordinate system. Further, since the rear camera 22 uses a wide-angle lens, when the image data G is displayed on the display 12 serving as a display unit included in the navigation device 1, so-called distortion aberration occurs in which an image around the screen is shrunk. Yes.

さらに、図1に示すように、制御装置2は、I/F部8を介して、車両Cに設けられたステアリングセンサ23、シフトセンサ24と接続されている。制御部3は、ステアリングセンサ23,シフトセンサ24から舵角検出信号及びシフトポジション信号を取得する。そして、制御部3は、シフトポジション信号に基づいて、変速機のシフトポジションがリバース状態であるか否かを判断する。シフトポジションがリバースであって、車両Cの後方の画像を単に表示する場合には、制御部3は、ROM5に格納された駐車案内プログラムに従って、RAM4に一時格納された現在地点の画像データGを読出し、図5に示す周辺視界画面としての後方視界画面40をディスプレイ12に表示する。また、車幅延長線42と、舵角検出信号に基づいた予想軌跡線41とを、公知の方法で、後方視界画面40に重ねて描画する。予想軌跡線41は、車両Cの舵角及び車幅に応じた進行軌跡を示す。車幅延長線42は、車両Cの車幅を後方に延長した指標である。従って、運転者は、駐車する際に、予想軌跡線41と、車幅延長線42とのずれ量に応じて操舵を行う。   Furthermore, as shown in FIG. 1, the control device 2 is connected to a steering sensor 23 and a shift sensor 24 provided in the vehicle C via the I / F unit 8. The control unit 3 acquires a steering angle detection signal and a shift position signal from the steering sensor 23 and the shift sensor 24. Then, the control unit 3 determines whether or not the shift position of the transmission is in the reverse state based on the shift position signal. When the shift position is reverse and the image behind the vehicle C is simply displayed, the control unit 3 displays the image data G of the current location temporarily stored in the RAM 4 according to the parking guidance program stored in the ROM 5. The rear view screen 40 as the peripheral view screen shown in FIG. 5 is read and displayed on the display 12. Further, the vehicle width extension line 42 and the expected trajectory line 41 based on the steering angle detection signal are drawn on the rear view screen 40 in a known manner. The expected trajectory line 41 indicates a travel trajectory according to the steering angle and the vehicle width of the vehicle C. The vehicle width extension line 42 is an index obtained by extending the vehicle width of the vehicle C rearward. Therefore, the driver steers according to the amount of deviation between the predicted trajectory line 41 and the vehicle width extension line 42 when parking.

また、ナビゲーション装置1のディスプレイ12は、タッチパネルであって、制御部3から送信された画像データGや、画像データGを合成した画像合成データを所定のタイミ
ングで出力する。さらに、ディスプレイ12は、変速機のシフトポジションがリバースになっていない場合には、制御部3から送信された地図描画データ9bを出力して、自車位置周辺の地図画面12a(図1参照)を自車位置マーク等と併せて表示する。
The display 12 of the navigation device 1 is a touch panel, and outputs the image data G transmitted from the control unit 3 and image composite data obtained by combining the image data G at a predetermined timing. Further, when the shift position of the transmission is not reverse, the display 12 outputs the map drawing data 9b transmitted from the control unit 3, and the map screen 12a around the own vehicle position (see FIG. 1). Is displayed along with the vehicle position mark.

さらに、制御装置2は、入力信号取得部13を備え、この入力信号取得部13により、ディスプレイ12のタッチパネル操作によって入力された入力信号、ナビゲーション装置1に配設された操作ボタン14を押釦することによって入力された入力信号を取得して、制御部3に送信する。この操作ボタン14の中には、目標設定ボタン14aが備えられている。   Further, the control device 2 includes an input signal acquisition unit 13, and the input signal acquisition unit 13 pushes the input signal input by the touch panel operation of the display 12 and the operation button 14 provided in the navigation device 1. The input signal input by is acquired and transmitted to the control unit 3. In this operation button 14, a target setting button 14a is provided.

目標設定ボタン14aは、駐車操作を行う際に、駐車目標領域を設定するために行う。この目標設定ボタン14aを、例えば、図13に示すように、路面に標示された白線43によって区画された駐車領域Rが、車両Cの後方になるような地点で操作すると、図14に示すような目標設定画面44がディスプレイ12に表示される。目標設定画面44には、背景画像45と、背景画像45に重ねられた、略台形状の駐車目標枠(以下、目標枠46という)が表示されている。駐車目標領域及び設定指標としての目標枠46は、駐車の目標となる領域を設定するための指標であって、初期画面では、予め定められた形状及び大きさになっている。そして、目標設定画面44に表示された拡大ボタン47、縮小ボタン48を入力操作すると、目標枠46が拡大又は縮小され、図15の目標設定画面44に示すように、目標枠46の大きさ(形状)を、背景画像45内の白線49に沿うように変化することができる。また、タッチパネル操作等により、目標枠46をスライドさせ、目標枠46の位置を設定できるようになっている。そして、設定ボタン56を操作することにより、目標枠46の大きさ(形状)、位置が確定される。   The target setting button 14a is used to set a parking target area when performing a parking operation. When the target setting button 14a is operated at a point where the parking area R defined by the white line 43 marked on the road surface is behind the vehicle C as shown in FIG. 13, for example, as shown in FIG. A target setting screen 44 is displayed on the display 12. On the target setting screen 44, a background image 45 and a substantially trapezoidal parking target frame (hereinafter referred to as a target frame 46) superimposed on the background image 45 are displayed. A target frame 46 as a parking target area and a setting index is an index for setting a parking target area, and has a predetermined shape and size on the initial screen. When the enlargement button 47 and the reduction button 48 displayed on the target setting screen 44 are input, the target frame 46 is enlarged or reduced. As shown in the target setting screen 44 of FIG. (Shape) can be changed along the white line 49 in the background image 45. Further, the target frame 46 can be slid and the position of the target frame 46 can be set by a touch panel operation or the like. Then, by operating the setting button 56, the size (shape) and position of the target frame 46 are determined.

また、図1に示すように、ナビゲーション装置1は、スピーカ15を備えている。スピーカ15は、制御部3から送信された音声出力信号に基づき、各種案内音声や案内音を出力する。   As shown in FIG. 1, the navigation device 1 includes a speaker 15. The speaker 15 outputs various guidance voices and guidance sounds based on the voice output signal transmitted from the control unit 3.

また、制御装置2は、図1に示すように、画像合成手段及び報知手段を構成する画像処理部11を備えている。画像処理部11は、RAM4から画像データGを取得して、画像データGの補正や、画像合成データの生成等を行う。画像データGの補正では、画像処理部11は、各画像データGに生じた、広角レンズによる歪曲収差を補正する。   Further, as shown in FIG. 1, the control device 2 includes an image processing unit 11 that constitutes an image synthesis unit and a notification unit. The image processing unit 11 acquires the image data G from the RAM 4 and corrects the image data G, generates image synthesis data, and the like. In the correction of the image data G, the image processing unit 11 corrects distortion aberration caused by the wide-angle lens that has occurred in each image data G.

また、画像処理部11は、図6に示すように、自車位置Aの後方カメラ22の撮像画面30のxy座標系(以下、画面座標系という)上に設定された座標点、即ち画素点の座標を示す画素座標31を、自車位置Bの撮像画面30内の座標に変換する。このとき、例えば、制御部3により、自車位置Aから自車位置Bまでの車両Cの移動量及び移動方向を求める。そして、画像処理部11により、その移動距離及び移動方位に基づいて、自車位置A内の画素座標31を、平行移動、回転移動等させ、自車位置Bの撮像画面30内の画素座標33に変換する。   Further, as shown in FIG. 6, the image processing unit 11 has coordinate points set on an xy coordinate system (hereinafter referred to as a screen coordinate system) of the imaging screen 30 of the rear camera 22 at the vehicle position A, that is, pixel points. Pixel coordinates 31 indicating the coordinates of the vehicle position B are converted into coordinates in the imaging screen 30 of the vehicle position B. At this time, for example, the control unit 3 obtains the moving amount and moving direction of the vehicle C from the own vehicle position A to the own vehicle position B. Then, the image processing unit 11 causes the pixel coordinates 31 in the own vehicle position A to be translated, rotationally moved, and the like based on the moving distance and moving direction, so that the pixel coordinates 33 in the imaging screen 30 of the own vehicle position B are obtained. Convert to

或いは、例えば、後方カメラ22の光軸Aの角度及び撮像範囲S等に基づき、画面座標系(xy座標系)と車両座標系(XY座標系)との関係式を予め求め、その関係式に基づいて、画素座標31を、車両座標系の座標に変換する。そして、このとき、車両座標系の自車位置を示す中心点25の座標を加味することにより、特定の自車位置(自車位置A)での撮像画面30内の画素座標31を、車両座標系の座標点32に変換する。さらに、車両系座標の座標点32を、上記した関係式により自車位置Bの撮像画面30内の画素座標33に変換する。これにより、自車位置Aで生成した画像データGを、自車位置Bの後方カメラ22のカメラ視点で撮像した画像データGのように変換することができる。   Alternatively, for example, based on the angle of the optical axis A of the rear camera 22 and the imaging range S, a relational expression between the screen coordinate system (xy coordinate system) and the vehicle coordinate system (XY coordinate system) is obtained in advance. Based on this, the pixel coordinates 31 are converted into coordinates in the vehicle coordinate system. At this time, by adding the coordinates of the center point 25 indicating the vehicle position of the vehicle coordinate system, the pixel coordinates 31 in the imaging screen 30 at the specific vehicle position (own vehicle position A) are converted into the vehicle coordinates. Convert to system coordinate point 32. Further, the coordinate point 32 of the vehicle system coordinate is converted into the pixel coordinate 33 in the imaging screen 30 of the vehicle position B by the above relational expression. As a result, the image data G generated at the vehicle position A can be converted as image data G captured from the camera viewpoint of the rear camera 22 at the vehicle position B.

また、画像処理部11は、図14に示す目標設定画面44で目標枠46が設定されると、その目標枠46の画面座標系の座標を取得する。具体的には、画像処理部11は、制御部3を介して入力信号取得部13から入力信号を受信して、図7に示すように、ディスプレイ12の撮像画面30内で、目標枠46の角部の4点にあたる画素座標31a〜31dの座標を取得する。尚、ディスプレイ12の表示領域は、画面座標系内の領域とする。   Further, when the target frame 46 is set on the target setting screen 44 illustrated in FIG. 14, the image processing unit 11 acquires the coordinates of the screen coordinate system of the target frame 46. Specifically, the image processing unit 11 receives an input signal from the input signal acquisition unit 13 via the control unit 3, and the target frame 46 of the target frame 46 is displayed within the imaging screen 30 of the display 12 as illustrated in FIG. 7. The coordinates of pixel coordinates 31a to 31d corresponding to the four points at the corners are acquired. The display area of the display 12 is an area in the screen coordinate system.

また、画像処理部11は、制御部3から、車両Cの基準位置からの移動距離及び移動方位等の移動量を取得して、その移動量に基づき、画素座標31a〜31dを変位させる。例えば、車両Cが、初期位置から駐車領域Rに接近する方向に平行移動した場合には、図7の一方の鎖線で示すように、画素座標31a〜31dをそれぞれ異なる方向に平行移動させて、目標枠46を拡大する。また、車両Cが初期位置から旋回した場合には、図7の他方の鎖線で示すように、画素座標31a〜31dを回転移動させて、目標枠46の形状及び位置を変更する。   In addition, the image processing unit 11 acquires a movement amount such as a movement distance and a movement direction from the reference position of the vehicle C from the control unit 3, and displaces the pixel coordinates 31a to 31d based on the movement amount. For example, when the vehicle C is translated from the initial position in a direction approaching the parking area R, the pixel coordinates 31a to 31d are translated in different directions as shown by one chain line in FIG. The target frame 46 is expanded. Further, when the vehicle C turns from the initial position, as shown by the other chain line in FIG. 7, the pixel coordinates 31 a to 31 d are rotated and the shape and position of the target frame 46 are changed.

また、画像処理部11は、RAM4に蓄積された画像データGのうち、現在の自車位置(以下、現在地点と言う)での画像データG1と、その画像データG1よりも過去に生成及び蓄積された過去画像データG2とを合成する。まず、画像処理部11は、上記したように、車両Cの移動距離及び移動方位に応じて目標枠46を変更し、変更した目標枠46が、画面座標系の撮像画面30(ディスプレイ12の表示領域)内に収容されるか否かを判断する。そして、図8に示すように、目標枠46が、撮像画面30からはみ出すと判断した場合には、そのはみ出し部分46aを含む、補完部分としての画面外領域51の座標を取得する。また、図14に示すように、後方カメラ22は、車両Cの後方バンパーB(図2参照)等の車体の後端部分を撮像しているので、この車両後端画像54にあたる、車両後端範囲55の座標を取得し、画面外領域51に含めるようにする。尚、この車両後端範囲55は、常に一定のデータ領域である。   In addition, the image processing unit 11 generates and accumulates image data G1 at the current vehicle position (hereinafter referred to as the current location) out of the image data G accumulated in the RAM 4 and the image data G1 in the past. The past image data G2 thus synthesized is synthesized. First, as described above, the image processing unit 11 changes the target frame 46 according to the moving distance and moving direction of the vehicle C, and the changed target frame 46 is displayed on the imaging screen 30 (display 12 on the display 12) of the screen coordinate system. It is determined whether it is accommodated in (region). Then, as shown in FIG. 8, when it is determined that the target frame 46 protrudes from the imaging screen 30, the coordinates of the outside-screen region 51 as the complement portion including the protruding portion 46 a are acquired. Further, as shown in FIG. 14, the rear camera 22 images the rear end portion of the vehicle body such as the rear bumper B (see FIG. 2) of the vehicle C, and therefore the rear end of the vehicle corresponding to the rear end image 54 of the vehicle. The coordinates of the range 55 are acquired and included in the off-screen area 51. The vehicle rear end range 55 is always a constant data area.

さらに、その画面外領域51の各画素座標を、上記したように、画面座標系の各画素座標から車両座標系の各座標点に座標変換する。そして、車両座標系の各座標点のデータを制御部3に送信する。制御部3は、その車両座標系の各座標点を撮像範囲データ17内に含む画像データGを、RAM4に蓄積された画像データG内において検索する。該当する過去画像データG2を検出した場合には、その過去画像データG2を読み出す。このとき、その各座標点をそれぞれ部分的に含む、複数の画像データGを読み出してもよい。   Furthermore, each pixel coordinate of the off-screen area 51 is coordinate-converted from each pixel coordinate in the screen coordinate system to each coordinate point in the vehicle coordinate system, as described above. Then, data of each coordinate point in the vehicle coordinate system is transmitted to the control unit 3. The control unit 3 searches the image data G stored in the RAM 4 for image data G that includes the coordinate points of the vehicle coordinate system in the imaging range data 17. When the corresponding past image data G2 is detected, the past image data G2 is read out. At this time, a plurality of image data G partially including the respective coordinate points may be read out.

画像処理部11は、制御部3を介して、現在地点での実際の画像データG1をRAM4から取得する。さらに、図8に示す目標枠46を、図9に示すように撮像画面30内に収まるように縮小する。そして、そのときの縮小率に基づいて、現在地点での画像データG1を図9に示す縮小範囲52まで縮小し、縮小画像データG1aを生成する。   The image processing unit 11 acquires the actual image data G1 at the current location from the RAM 4 via the control unit 3. Further, the target frame 46 shown in FIG. 8 is reduced to fit within the imaging screen 30 as shown in FIG. Then, based on the reduction rate at that time, the image data G1 at the current point is reduced to the reduction range 52 shown in FIG. 9, and reduced image data G1a is generated.

そして、例えば、1つの過去画像データG2を用いる場合には、図10に模式的に示すように、この縮小画像データG1aを、図9に占めす縮小範囲52と撮像画面30との相対位置に基づいて、過去に生成した過去画像データG2に重ね、画像合成データGAを生成する。これにより、図9の撮像画面30のうち、縮小範囲52以外の領域を、過去画像データG2によって合成する。つまり、過去画像データG2により、図8の画面外領域51に対応する補完範囲53(図9参照)が補完されて、目標枠46を撮像画面30内に収容可能な画像合成データGAが生成される。また、複数の過去画像データG2を用いて画像合成データGAを生成する場合には、複数の過去画像データG2によって、補完範囲53の異なる領域をそれぞれ補完する。   For example, when one piece of past image data G2 is used, the reduced image data G1a is placed at a relative position between the reduced range 52 and the imaging screen 30 shown in FIG. Based on the past image data G2 generated in the past, the image synthesis data GA is generated. Thereby, the area other than the reduction range 52 in the imaging screen 30 of FIG. 9 is synthesized with the past image data G2. That is, the past image data G2 supplements the complement range 53 (see FIG. 9) corresponding to the off-screen region 51 in FIG. 8, and the image composite data GA that can accommodate the target frame 46 in the imaging screen 30 is generated. The Further, when the image composite data GA is generated using a plurality of past image data G2, different areas of the complement range 53 are complemented by the plurality of past image data G2, respectively.

次に、本実施形態の処理手順について、図11及び図12に従って説明する。図11は、画像データ保存処理の手順を示し、図12は、画像合成データ出力処理の手順を示す。
尚、制御装置2は、この画像データ保存処理及び画像合成データ出力処理を並行して行う。
Next, the processing procedure of this embodiment is demonstrated according to FIG.11 and FIG.12. FIG. 11 shows the procedure of the image data storage process, and FIG. 12 shows the procedure of the image synthesis data output process.
The control device 2 performs the image data storage process and the image composite data output process in parallel.

図11に示す画像データ保存処理は、制御装置2が、ROM5に格納した画像データ保存プログラムに従って行う処理である。まず、制御部3は、変速機のシフトポジションがリバースであるか否かを判断する(ステップS1−1)。具体的には、制御部3が、I/F部8を介して、シフトセンサ24からシフトポジション信号を取得することにより判断する。   The image data saving process shown in FIG. 11 is a process performed by the control device 2 according to the image data saving program stored in the ROM 5. First, the control unit 3 determines whether or not the shift position of the transmission is reverse (step S1-1). Specifically, the control unit 3 makes a determination by acquiring a shift position signal from the shift sensor 24 via the I / F unit 8.

シフトポジションがリバースでない場合には(ステップS1−1においてNO)、ステップS1−1の判断処理を繰り返す。シフトポジションがリバースであると判断した場合には(ステップS1−1においてYES)、制御部3は、自車位置検出部7から自車位置データ16を取得する(ステップS1−2)。自車位置データ16を取得すると、制御部3は、撮像データ取得部10から画像データGを取得する(ステップS1−3)。そして、現在地点の撮像範囲Sの座標を示す撮像範囲データ17を算出し、自車位置データ16及び撮像範囲データ17と、取得した画像データGとを関連付けて、RAM4に格納する(ステップS1−4)。   If the shift position is not reverse (NO in step S1-1), the determination process in step S1-1 is repeated. When it is determined that the shift position is reverse (YES in step S1-1), the control unit 3 acquires the vehicle position data 16 from the vehicle position detection unit 7 (step S1-2). When the own vehicle position data 16 is acquired, the control unit 3 acquires the image data G from the imaging data acquisition unit 10 (step S1-3). And the imaging range data 17 which shows the coordinate of the imaging range S of the present location is calculated, the own vehicle position data 16 and the imaging range data 17, and the acquired image data G are linked | related, and it stores in RAM4 (step S1-). 4).

そして、制御部3は、I/F部8及び入力信号取得部13が終了トリガがあるか否かを判断し(ステップS1−5)、予め設定した終了トリガがある場合には(ステップS1−5においてYES)、処理を終了する。具体的には、I/F部8を介して、パーキング又はドライブを示すシフトポジション信号の受信や、図示しない車両ECUからのイグニッションモジュールのオフ信号の受信があった場合に処理を終了する。又は、入力信号取得部13を介して、目標設定ボタン14aの入力操作信号を受信した場合に処理を終了する。終了トリガがない場合には(ステップS1−5においてNO)、ステップS1−2に戻って上記した処理を繰り返す。   Then, the control unit 3 determines whether the I / F unit 8 and the input signal acquisition unit 13 have an end trigger (step S1-5), and when there is a preset end trigger (step S1- 5), the process is terminated. Specifically, the process ends when a shift position signal indicating parking or driving or an ignition module off signal from a vehicle ECU (not shown) is received via the I / F unit 8. Alternatively, when the input operation signal of the target setting button 14a is received via the input signal acquisition unit 13, the process is terminated. If there is no end trigger (NO in step S1-5), the process returns to step S1-2 and the above-described processing is repeated.

このようなステップS1−2〜ステップS1−5の処理は、自車位置が数十mm移動した撮像地点、又は数十ミリ秒〜1秒が経過した時点の撮像地点ごとに繰り返し行われる。このため、車両Cがバック走行する際には、RAM4には、互いに連続性のある各画像データGが蓄積されていく。この画像データGは、画像データGの合成だけでなく、図5に示す後方視界画面40をディスプレイ12に表示する際にも使用される。   Such processing of step S1-2 to step S1-5 is repeatedly performed for each imaging point where the vehicle position has moved by several tens of mm or when several tens of milliseconds to one second have elapsed. For this reason, when the vehicle C travels backward, the RAM 4 accumulates the image data G that are continuous with each other. The image data G is used not only for the synthesis of the image data G but also when the rear view screen 40 shown in FIG.

次に、図12に従って、画像合成データ出力処理について説明する。この画像データ合成処理は、制御装置2が、ROM5に格納した合成データ出力プログラムに従って行う処理である。   Next, the image synthesis data output process will be described with reference to FIG. This image data synthesis process is a process performed by the control device 2 in accordance with a synthesis data output program stored in the ROM 5.

まず、制御部3は、画像データ保存処理と同様に、シフトポジションがリバースであるか否かを判断する(ステップS2−1)。シフトポジションがリバースである場合には(ステップS2−1においてYES)、目標枠46の設定を待つ(ステップS2−2)。詳述すると、制御部3は、目標設定ボタン14aの入力操作を待つ。そして、入力信号を入力信号取得部13から取得した場合に、図14に示す目標設定画面44をディスプレイ12に表示する。さらに、目標設定画面44で、目標枠46が縮小又は拡大され、設定ボタン56が入力操作されると(ステップS2−2においてYES)、上記したように画面座標系での目標枠46の座標を取得し、ステップS2−3に進む。   First, similarly to the image data storage process, the control unit 3 determines whether or not the shift position is reverse (step S2-1). If the shift position is reverse (YES in step S2-1), the process waits for setting of the target frame 46 (step S2-2). Specifically, the control unit 3 waits for an input operation of the target setting button 14a. When the input signal is acquired from the input signal acquisition unit 13, the target setting screen 44 shown in FIG. 14 is displayed on the display 12. Furthermore, when the target frame 46 is reduced or enlarged on the target setting screen 44 and the setting button 56 is input (YES in step S2-2), the coordinates of the target frame 46 in the screen coordinate system are changed as described above. Acquire and go to step S2-3.

目標設定ボタン14aの操作が行われなかったり、目標枠46の設定が完了していない間は(ステップS2−2においてNO)、図5に示す、後方視界画面40や目標設定画面44をディスプレイ12に表示しながら、ステップS2−2の目標設定画面44での目標枠46の設定を待つ。   While the target setting button 14a is not operated or the setting of the target frame 46 is not completed (NO in step S2-2), the rear view screen 40 and the target setting screen 44 shown in FIG. While waiting for the setting of the target frame 46 on the target setting screen 44 in step S2-2.

ステップS2−3では、制御部3は、自車位置データ16を取得する。目標枠46が設定されたときの自車位置データ16は、初期位置として設定される。例えば、図13に示す車両Cの位置で目標枠46が設定されると、その位置を初期位置とする。   In step S <b> 2-3, the control unit 3 acquires the vehicle position data 16. The own vehicle position data 16 when the target frame 46 is set is set as an initial position. For example, when the target frame 46 is set at the position of the vehicle C shown in FIG. 13, that position is set as the initial position.

そして、制御部3は、車両Cの移動量を演算する(ステップS2−4)。このとき、制御部3は、例えば、初期位置からの移動量(移動距離及び移動方位)を算出する。
さらに、制御部3は、移動量を画像処理部11に送信し、上記したように、目標枠46の座標を車両Cの移動量に応じて更新させる(ステップS2−5)。このとき、移動量が所定値以下である場合には、画像処理部11は目標枠46を更新しないようにしてもよい。
And the control part 3 calculates the moving amount | distance of the vehicle C (step S2-4). At this time, for example, the control unit 3 calculates a movement amount (movement distance and movement direction) from the initial position.
Further, the control unit 3 transmits the movement amount to the image processing unit 11, and updates the coordinates of the target frame 46 according to the movement amount of the vehicle C as described above (step S2-5). At this time, if the movement amount is equal to or less than the predetermined value, the image processing unit 11 may not update the target frame 46.

そして、制御部3は、画像処理部11に基づいて、更新した目標枠46の座標が図8に示すように、撮像画面30からはみ出すか否かを判断する(ステップS2−6)。
目標枠46が撮像画面30内に収容されていると判断した場合には(ステップS2−6においてNO)、現在地点の画像データGをRAM4から読出し、車両Cの後方を表示した後方視界画面40を表示しながら、ステップS2−13に進み、終了トリガがあるか否かを判断する。この終了トリガの判断では、画像データ保存処理と同様に、パーキング又はドライブを示すシフトポジション信号、図示しない車両ECUからのイグニッションモジュールのオフ信号、目標設定ボタン14aの操作による入力操作信号の受信の有無に基づく。終了トリガが無い場合には(ステップS2−13においてNO)、ステップS2−3に戻る。
Then, based on the image processing unit 11, the control unit 3 determines whether or not the updated coordinates of the target frame 46 protrude from the imaging screen 30 as shown in FIG. 8 (step S2-6).
When it is determined that the target frame 46 is accommodated in the imaging screen 30 (NO in step S2-6), the image data G at the current location is read from the RAM 4, and the rear view screen 40 displaying the rear of the vehicle C is displayed. , The process proceeds to step S2-13 to determine whether there is an end trigger. In the determination of the end trigger, as in the image data storage process, whether or not a shift position signal indicating parking or driving, an off signal of an ignition module from a vehicle ECU (not shown), or whether or not an input operation signal is received by operating the target setting button 14a based on. If there is no end trigger (NO in step S2-13), the process returns to step S2-3.

目標枠46が撮像画面30からはみ出すと判断した場合には(ステップS2−6においてYES)、制御部3及び画像処理部11は、はみ出し量に基づき、必要な画像データGを推測する(ステップS2−7)。上記したように、画像処理部11は、目標枠46のはみ出し部分46a、後方バンパーB等の画像にあたる車両後端範囲55を含む画面外領域51の各座標を取得し、その各座標を、車両座標系に座標変換する。そして、その座標のデータを制御部3に送信し、制御部3は、その座標データを撮像範囲データ17内に含む画像データGを検索する。即ち、制御部3は、目標枠46のはみ出し部分46a等を補完するために、その領域を撮像した画像データGを検索する。   When it is determined that the target frame 46 protrudes from the imaging screen 30 (YES in step S2-6), the control unit 3 and the image processing unit 11 estimate necessary image data G based on the amount of protrusion (step S2). -7). As described above, the image processing unit 11 acquires the coordinates of the off-screen region 51 including the vehicle rear end range 55 corresponding to the image of the protruding portion 46a of the target frame 46, the rear bumper B, and the like. Convert coordinates to coordinate system. Then, the coordinate data is transmitted to the control unit 3, and the control unit 3 searches the image data G including the coordinate data in the imaging range data 17. That is, the control unit 3 searches the image data G obtained by imaging the area in order to complement the protruding portion 46a of the target frame 46 and the like.

各画像データGの中から、該当する過去画像データG2を検出すると、制御部3は、その過去画像データG2を読み出す(ステップS2−8)。このとき、制御部3は、例えば、図16に示すような撮像範囲Sを撮像した過去画像データG2を一つ読出す。この過去画像データG2は、画面外領域51に相当する撮像範囲を全て含んでいる。また、その過去画像データG2に関連付けられた、自車位置データ16及び撮像範囲データ17も読出す。   When the corresponding past image data G2 is detected from each image data G, the control unit 3 reads the past image data G2 (step S2-8). At this time, for example, the control unit 3 reads one piece of past image data G2 obtained by imaging the imaging range S as shown in FIG. The past image data G2 includes the entire imaging range corresponding to the out-of-screen area 51. Also, the vehicle position data 16 and the imaging range data 17 associated with the past image data G2 are read out.

そして、制御部3は、その過去画像データG2、自車位置データ16及び撮像範囲データ17を画像処理部11に送り、画像処理部11により、その過去画像データG2を補正させる(ステップS2−9)。画像処理部11は、まず過去画像データG2の歪曲収差を補正する。そして、画像処理部11は、上記したような方法で、図6に示すように、過去画像データG2に対応する自車位置(自車位置A)での画素座標31を、現在地点(自車位置B)での撮像画面30内の座標に変換する。これにより、他の地点で生成した過去画像データG2を、現在地点の後方カメラ22のカメラ視点で撮像したように変換することができる。   Then, the control unit 3 sends the past image data G2, the own vehicle position data 16 and the imaging range data 17 to the image processing unit 11, and the image processing unit 11 corrects the past image data G2 (step S2-9). ). The image processing unit 11 first corrects the distortion aberration of the past image data G2. Then, as shown in FIG. 6, the image processing unit 11 converts the pixel coordinates 31 at the own vehicle position (own vehicle position A) corresponding to the past image data G2 to the current location (own vehicle) by the method described above. The coordinates are converted into coordinates in the imaging screen 30 at position B). Thereby, it is possible to convert the past image data G2 generated at another point as if it was captured from the camera viewpoint of the rear camera 22 at the current point.

さらに、画像処理部11は、過去画像データG2に対し、色調補正、増減色等の画像加工を行い、現在地点の画像データG1の色調等と異ならせる。これにより、ディスプレイ
12に表示された際に、過去画像データG2の画像と、現在地点の画像データG1の画像とを視認により区別できる。
Further, the image processing unit 11 performs image processing such as color tone correction and increase / decrease color on the past image data G2 to make it different from the color tone of the image data G1 at the current location. Thereby, when displayed on the display 12, the image of the past image data G2 and the image of the image data G1 at the current location can be distinguished by visual recognition.

また、画像処理部11は、現在地点の画像データG1を補正する(ステップS2−10)。詳述すると、画像処理部11は、図8のように撮像画面30からはみ出した目標枠46を、図9に示すように撮像画面30内に収まるように縮小する。そして、そのときの縮小率に基づいて、現在地点での画像データG1を図9に示すような縮小範囲52まで縮小し、縮小画像データG1aを生成する。   In addition, the image processing unit 11 corrects the image data G1 at the current location (step S2-10). More specifically, the image processing unit 11 reduces the target frame 46 that protrudes from the imaging screen 30 as shown in FIG. 8 so as to fit within the imaging screen 30 as shown in FIG. Then, based on the reduction rate at that time, the image data G1 at the current point is reduced to the reduction range 52 as shown in FIG. 9, and reduced image data G1a is generated.

そして、画像処理部11は、縮小画像データG1a、過去画像データG2を合成する(ステップS2−11)。例えば、1つの過去画像データG2を用いる場合には、画像処理部11は、図10に示すように、過去画像データG2に、現在地点の縮小画像データG1aを重ね、縮小画像データG1aを表示される側にする。このとき、過去画像データG2は、補完範囲53を補完するように、縮小画像データG1aと重ねられる。その結果、画像合成データGAが生成される。複数の過去画像データG2を用いる場合には、補完範囲53を、複数の過去画像データG2で補完するように、縮小画像データG1aと重ね合わせる。   Then, the image processing unit 11 combines the reduced image data G1a and the past image data G2 (step S2-11). For example, when one piece of past image data G2 is used, the image processing unit 11 displays the reduced image data G1a by superimposing the reduced image data G1a at the current location on the past image data G2, as shown in FIG. On the other side. At this time, the past image data G2 is overlapped with the reduced image data G1a so as to complement the complement range 53. As a result, image synthesis data GA is generated. When a plurality of past image data G2 is used, the complement range 53 is overlapped with the reduced image data G1a so as to be complemented by the plurality of past image data G2.

画像合成データGAを生成すると、制御部3は、その画像合成データGA及び他の指標をディスプレイ12に表示する(ステップS2−12)。画像合成データGAのみを出力した状態では、図17に表示されるような合成画面58がディスプレイ12に表示される。合成画面58には、現在の縮小画像データG1aに基づく現在画像59と、過去画像データG2によって補完された補完画像60と、縮小された目標枠46とが重ねられて表示されている。補完画像60は、過去画像データG2を加工しているため、視認によって現在画像59と識別可能になっている。従って、現在画像59が、現在撮像されている画像だと認識することができるので、現在地点の後方カメラ22の撮像範囲S内に、障害物62(図17参照)が進入してきても、現在画像59によって、それが現時点で進入した障害物であると判断できる。また、補完画像60が、過去の画像であると認識できるので、その補完画像60に対応する実際の場所を目視する等、その領域内の障害物等に特に注意を払うことができる。   When the image composition data GA is generated, the control unit 3 displays the image composition data GA and other indexes on the display 12 (step S2-12). In a state where only the image synthesis data GA is output, a synthesis screen 58 as shown in FIG. 17 is displayed on the display 12. On the composite screen 58, a current image 59 based on the current reduced image data G1a, a complementary image 60 supplemented with the past image data G2, and a reduced target frame 46 are displayed in an overlapping manner. Since the complementary image 60 is obtained by processing the past image data G2, it can be distinguished from the current image 59 by visual recognition. Therefore, since the current image 59 can be recognized as the image currently captured, even if an obstacle 62 (see FIG. 17) enters the imaging range S of the rear camera 22 at the current location, From the image 59, it can be determined that the obstacle has entered at the present time. Further, since the complementary image 60 can be recognized as a past image, it is possible to pay particular attention to obstacles in the region, such as by visually observing the actual location corresponding to the complementary image 60.

画像処理部11は、実際には、ROM5に格納された輪郭描画データ5a(図1参照)を用いて、図17の合成画面58のうち車体の下方にあたる領域に、図18に示すように、車両位置指標としての車両輪郭線61を重ねて描画する。   As shown in FIG. 18, the image processing unit 11 actually uses the contour drawing data 5a (see FIG. 1) stored in the ROM 5 in a region below the vehicle body in the composite screen 58 in FIG. A vehicle outline 61 as a vehicle position index is drawn in an overlapping manner.

輪郭描画データ5aによって描画された車両輪郭線61は、撮像画面30のうち、自車位置に応じた位置に、必要な部分だけ描画される。図18に示す合成画面58aでは、車体の下方にあたる領域、つまり補完画像60によって補完される領域が比較的小さいため、車体の後方(例えば、バンパー、バックドア、トランクのあたり)に相当する車両輪郭線61を、補完画像60(過去画像データG2)の部分に重ねて描画する。これにより、車体の下方にあたる補完画像60が、車体を透過してディスプレイ12に表示されているように見える。運転者は、車両輪郭線61と、目標枠46全体とを視認して、目標枠46との相対位置やずれ量を把握したり、車両Cと障害物62との相対距離を把握する。   The vehicle outline 61 drawn by the outline drawing data 5a is drawn only in a necessary portion at a position corresponding to the vehicle position in the imaging screen 30. In the composite screen 58a shown in FIG. 18, since the region below the vehicle body, that is, the region supplemented by the complementary image 60 is relatively small, the vehicle contour corresponding to the rear of the vehicle body (for example, around the bumper, back door, and trunk). The line 61 is drawn so as to overlap the portion of the complementary image 60 (past image data G2). As a result, the complementary image 60 below the vehicle body appears to be displayed on the display 12 through the vehicle body. The driver visually recognizes the vehicle outline 61 and the entire target frame 46 to grasp the relative position and displacement amount with respect to the target frame 46 and grasp the relative distance between the vehicle C and the obstacle 62.

また、制御部3は、ステアリングセンサ23から舵角検出信号を受信して、画像合成データGAに、予想軌跡線41及び車幅延長線42を表示する。ここでは、操舵が行われていないため、予想軌跡線41上に車幅延長線42が重なって表示されている。   Further, the control unit 3 receives the steering angle detection signal from the steering sensor 23, and displays the expected trajectory line 41 and the vehicle width extension line 42 in the image composition data GA. Here, since steering is not performed, the vehicle width extension line 42 is displayed so as to overlap the expected trajectory line 41.

次に、制御部3は、終了トリガがあるか否かを判断する(ステップS2−13)。終了トリガがあると(ステップS2−13においてYES)、そのまま処理を終了する。終了
トリガが無いと判断すると(ステップS2−13においてNO)、ステップS2−3に戻る。そして、上記した処理を繰り返す。
Next, the control unit 3 determines whether or not there is an end trigger (step S2-13). If there is an end trigger (YES in step S2-13), the process ends as it is. If it is determined that there is no end trigger (NO in step S2-13), the process returns to step S2-3. Then, the above process is repeated.

上記した処理を何回か繰り返し、車体の約半分が駐車領域Rに進入すると、図19に示すような合成画面63が表示される(ステップS2−12)。合成画面63は、現在画像64、補完画像65、車両輪郭線61が表示されている。この合成画面63において、車両輪郭線61は、車体の外形を示す外郭描画線66、各後輪を示す後輪描画線67とから構成されている。即ち、車両Cが駐車領域Rに向かってバック走行するに従って、撮像画面30のうち、補完画像65の割合が多くなり、現時点の画像である現在画像59の表示範囲(縮小範囲52)が狭められて行く。そして、補完画像65の表示範囲(補完範囲53)の割合が増えると同時に、車両輪郭線61が示す車体の描画範囲が、図中y矢印方向(車両Cの進行方向)に向かって拡大し、車体の全体が車両輪郭線61によって徐々に表示されていく。尚、実際の合成画面63では、予想軌跡線41、車幅延長線42も表示されているが、ここでは図示を省略する。   When the above process is repeated several times and about half of the vehicle body enters the parking area R, a composite screen 63 as shown in FIG. 19 is displayed (step S2-12). The composition screen 63 displays a current image 64, a complementary image 65, and a vehicle outline 61. In the composite screen 63, the vehicle outline 61 is composed of an outline drawing line 66 indicating the outer shape of the vehicle body and a rear wheel drawing line 67 indicating each rear wheel. That is, as the vehicle C travels back toward the parking area R, the ratio of the complementary image 65 increases in the imaging screen 30, and the display range (reduction range 52) of the current image 59 that is the current image is narrowed. Go. And the ratio of the display range (complementary range 53) of the complementary image 65 increases, and at the same time, the drawing range of the vehicle body indicated by the vehicle outline 61 expands in the direction of the arrow y (the traveling direction of the vehicle C) in the figure, The entire vehicle body is gradually displayed by the vehicle outline 61. In the actual synthesis screen 63, an expected trajectory line 41 and a vehicle width extension line 42 are also displayed, but are not shown here.

さらに、車体全体が駐車領域R(目標枠46)内に進入すると、図20に示すような合成画面68がディスプレイ12に表示される(ステップS2−12)。合成画面68では、現在画像69、補完画像70、車両輪郭線61が表示されている。車両輪郭線61としては、外郭描画線66、後輪描画線67の他、前輪描画線71が表示されている。このため、この車両輪郭線61によって、車体が目標枠46に沿って真っ直ぐであるかどうかを確認できる。このように、車両輪郭線61が目標枠46に収められると、運転者は、シフトチェンジ、エンジンの停止、目標設定ボタン14aの操作を行い、制御部3は終了トリガがあると判断し(ステップS2−13)、画像合成データ出力処理を終了する。   Furthermore, when the entire vehicle body enters the parking area R (target frame 46), a composite screen 68 as shown in FIG. 20 is displayed on the display 12 (step S2-12). On the composite screen 68, a current image 69, a complementary image 70, and a vehicle outline 61 are displayed. As the vehicle outline 61, a front wheel drawing line 71 is displayed in addition to the outer drawing line 66 and the rear wheel drawing line 67. For this reason, it can be confirmed by this vehicle outline 61 whether the vehicle body is straight along the target frame 46. Thus, when the vehicle outline 61 is stored in the target frame 46, the driver performs a shift change, engine stop, and operation of the target setting button 14a, and the control unit 3 determines that there is an end trigger (step) S2-13) The image synthesis data output process is terminated.

上記実施形態によれば、以下のような効果を得ることができる。
(1)上記実施形態では、ナビゲーション装置1の制御装置2は、車両Cの後方カメラ22により生成された画像データGを、各撮像地点で取得するようにした。また、制御装置2の制御部3は、取得した画像データGを、自車位置検出部7から取得した自車位置データ16、撮像範囲データ17と関連付けてRAM4に格納するようにした。また、制御部3及び画像処理部11により、目標設定画面44で予め設定された駐車領域R(目標枠46)の座標を、現在地点の車両の位置に応じて変換するようにした。さらに、画像処理部11により、車両Cの位置に応じて変換された目標枠46が、撮像画面30からはみ出すか否かを判断し、はみ出すと判断した場合に、補完が必要な領域(画面外領域51)の座標を演算するようにした。また、画像処理部11及び制御部3により、RAM4に格納された各画像データGのうち、画面外領域51の座標と関連付けられた過去画像データG2を読み出し、過去画像データG2により現在地点で生成した画像データG1を補完させることにより、目標枠46が撮像画面30内に含まれた画像合成データGAを生成するようにした。そして、制御部3により、画像合成データGAをディスプレイ12に表示するようにした。
According to the above embodiment, the following effects can be obtained.
(1) In the above embodiment, the control device 2 of the navigation device 1 acquires the image data G generated by the rear camera 22 of the vehicle C at each imaging point. Further, the control unit 3 of the control device 2 stores the acquired image data G in the RAM 4 in association with the own vehicle position data 16 and the imaging range data 17 acquired from the own vehicle position detection unit 7. Further, the coordinates of the parking area R (target frame 46) set in advance on the target setting screen 44 are converted by the control unit 3 and the image processing unit 11 in accordance with the position of the vehicle at the current location. Further, the image processing unit 11 determines whether or not the target frame 46 converted according to the position of the vehicle C protrudes from the imaging screen 30. The coordinates of the area 51) are calculated. In addition, the image processing unit 11 and the control unit 3 read out the past image data G2 associated with the coordinates of the off-screen area 51 out of the image data G stored in the RAM 4, and generate the current image at the current point using the past image data G2. By complementing the image data G <b> 1, the image composition data GA in which the target frame 46 is included in the imaging screen 30 is generated. The control unit 3 displays the image composition data GA on the display 12.

従って、例えば車両Cが駐車領域R内に進入し、後方カメラ22により駐車領域Rの全体を撮像できなくなっても、目標枠46が画面からはみ出す部分にあたる画像を、過去画像データG2で補完することにより、目標枠46全体をディスプレイ12に表示できる。従って、運転者は、車両Cが駐車領域R内に進入し、駐車領域Rが車体の下方に位置するようになっても、駐車領域Rの全体(目標枠46全体)をディスプレイ12で視認することができる。このため、車体が、その駐車領域Rからずれたり、曲がったりすることのないように、車両Cを駐車させることができる。   Therefore, for example, even when the vehicle C enters the parking area R and the rear camera 22 cannot capture the entire parking area R, the past image data G2 supplements the image corresponding to the portion where the target frame 46 protrudes from the screen. Thus, the entire target frame 46 can be displayed on the display 12. Accordingly, the driver visually recognizes the entire parking area R (the entire target frame 46) on the display 12 even when the vehicle C enters the parking area R and the parking area R is positioned below the vehicle body. be able to. For this reason, the vehicle C can be parked so that the vehicle body does not deviate or bend from the parking area R.

(2)上記実施形態では、画像合成データGAがディスプレイ12に表示された際に、現在地点で生成された画像データG1に基づく画像と、過去画像データG2に基づく画像
が視認によって判別可能となるように画像加工し、過去の画像が表示されていることを報知(警告)するようにした。このため、合成画面58a,63,68のうち、補完した領域と、現在地点での画像の領域とを判別できるので、運転者に、例えば、車両Cの側方等、過去の画像に相当する場所に対する注意を促すことができる。従って、運転者は、過去の画像に相当する場所を実際に目視して、注意を払い、障害物と車両Cとの衝突等の事故を未然に防ぐことができる。
(2) In the above embodiment, when the image composite data GA is displayed on the display 12, an image based on the image data G1 generated at the current location and an image based on the past image data G2 can be discriminated by visual recognition. Thus, the image is processed to notify (warn) that the past image is displayed. For this reason, it is possible to distinguish between the supplemented area and the area of the image at the current point in the combined screens 58a, 63, and 68, which corresponds to the driver, for example, a past image such as the side of the vehicle C. You can call attention to the place. Therefore, the driver can visually observe the place corresponding to the past image, pay attention, and prevent an accident such as a collision between the obstacle and the vehicle C in advance.

(3)上記実施形態では、制御部3及び画像処理部11は、ディスプレイ12に、駐車領域Rを設定するための目標枠46を目標設定画面44上に表示するようにした。さらに、運転者による、目標枠46の位置又は形状又は大きさを指定する入力操作に基づいて、駐車領域R(目標枠46)の画面座標系の座標を決定するようにした。このため、運転者は、画面の任意の場所に駐車領域Rを設定することができる。   (3) In the embodiment described above, the control unit 3 and the image processing unit 11 display the target frame 46 for setting the parking area R on the target setting screen 44 on the display 12. Furthermore, the coordinates of the screen coordinate system of the parking area R (target frame 46) are determined based on an input operation for designating the position, shape, or size of the target frame 46 by the driver. For this reason, the driver can set the parking area R at any place on the screen.

(4)上記実施形態では、制御部3及び画像処理部11は、画像合成データGAと重ねて、現在地点の自車位置に応じた車両輪郭線61を合成画面58a,63,68に表示するようにした。このため、車両Cの位置と、駐車領域R(目標枠46)とのずれ量を把握し易くすることができるので、車両Cを駐車領域R内に、より確実に誘導することができる。   (4) In the above embodiment, the control unit 3 and the image processing unit 11 superimpose the image composition data GA on the composition screens 58a, 63, and 68 in accordance with the vehicle contour line 61 corresponding to the current vehicle position. I did it. For this reason, since it is possible to easily grasp the amount of deviation between the position of the vehicle C and the parking area R (target frame 46), the vehicle C can be more reliably guided into the parking area R.

(5)上記実施形態では、画像処理部11は、目標枠46の縮小率や、過去画像データG2が補完する補完範囲53に応じて、現在地点で生成した画像データG1を縮小し、過去画像データG2の補完範囲53以外の領域に重ねて合成するようにした。このため、ディスプレイ12に合成画面58a,63,68を表示した際に、画像の連続性を良好にすることができる。   (5) In the above embodiment, the image processing unit 11 reduces the image data G1 generated at the current point according to the reduction rate of the target frame 46 and the complement range 53 that the past image data G2 complements, and the past image The data G2 is combined with an area other than the complementary range 53. For this reason, when the composite screens 58a, 63, and 68 are displayed on the display 12, the continuity of images can be improved.

(6)上記実施形態では、撮像データ取得部10は、車両Cの後端部に設けられた後方カメラ22から、車両Cの後方の撮像範囲Sを撮像した画像データGを取得するようにした。このため、車両Cが駐車領域Rに向ってバックした際に、車両C後方を撮像した画像データGを用いて画像合成データGAを生成して、運転操作が難しい場合に駐車支援を行うため、特に効果を発揮できる。   (6) In the above embodiment, the imaging data acquisition unit 10 acquires the image data G obtained by imaging the imaging range S behind the vehicle C from the rear camera 22 provided at the rear end of the vehicle C. . For this reason, when the vehicle C backs toward the parking area R, the image synthesis data GA is generated using the image data G obtained by imaging the rear of the vehicle C, and parking assistance is performed when the driving operation is difficult. Especially effective.

(7)上記実施形態では、画像処理部11は、各画像データGの歪曲収差を補正するようにした。このため各画像データGを合成し、ディスプレイ12に表示した際に、画像の連続性を良好にすることができるので、ユーザに違和感を与えないようにすることができる。   (7) In the above embodiment, the image processing unit 11 corrects the distortion aberration of each image data G. For this reason, when the image data G are combined and displayed on the display 12, the continuity of the images can be improved, and the user can be prevented from feeling uncomfortable.

(8)上記実施形態では、RAM4から読出した各過去画像データG2を、現在地点での撮像画面30の画面座標系に変換するようにした。このため、異なるカメラ視点で撮像して生成した画像データを、現在地点のカメラ視点で撮像した画像データG1のように変換できるので、合成画面58a,63,68として表示した際に、画像の連続性をより良好にすることができる。   (8) In the above embodiment, each past image data G2 read from the RAM 4 is converted into the screen coordinate system of the imaging screen 30 at the current location. For this reason, image data generated by imaging from different camera viewpoints can be converted as image data G1 imaged from the camera viewpoint at the current location, so that when displayed as the composite screen 58a, 63, 68, continuous images are displayed. The property can be made better.

(9)上記実施形態では、駐車支援装置を、自車位置検出部7を備えるナビゲーション装置1に具体化したので、精度の高い自車位置検出機能を利用して、画像データGの保存及びその画像データGの合成を行うことができる。このため、自車位置データ16を有効利用して、画像連続性の良好な合成画面58a,63,68をディスプレイ12に表示することができる。   (9) In the above embodiment, since the parking assistance device is embodied in the navigation device 1 including the own vehicle position detection unit 7, the image data G can be stored and its data can be stored using a highly accurate own vehicle position detection function. The image data G can be synthesized. For this reason, it is possible to display the composite screens 58a, 63, and 68 with good image continuity on the display 12 by effectively using the vehicle position data 16.

尚、上記各実施形態は以下のように変更してもよい。
・上記実施形態では、車両Cが並列駐車する場合についてのみ説明したが、縦列駐車す
る場合に、目標枠46が撮像画面30からはみ出した場合に、過去画像データG2を用いて、現在の画像データG1を補完してもよい。
In addition, you may change each said embodiment as follows.
In the above embodiment, only the case where the vehicle C is parked in parallel has been described. However, when the target frame 46 protrudes from the imaging screen 30 in the case of parallel parking, the current image data is used using the past image data G2. G1 may be complemented.

・上記実施形態の目標設定ボタン14aは、シフトポジションがリバースになった際に、ディスプレイ12上に表示される操作ボタンでもよい。
・上記実施形態では、制御装置2は、画像データ保存処理及び画像合成データ出力処理の際に、目標設定ボタン14aの入力操作信号の受信、又はシフトポジションがリバースになった初期位置を基準点(ゼロ地点)として、車速及び方位のみによって基準点からの相対位置を自車位置として検出するようにしてもよい。
The target setting button 14a of the above embodiment may be an operation button displayed on the display 12 when the shift position is reversed.
In the above embodiment, the control device 2 receives the input operation signal of the target setting button 14a or the initial position where the shift position is reversed during the image data storage process and the image synthesis data output process. As a zero point), the relative position from the reference point may be detected as the vehicle position only by the vehicle speed and direction.

・上記実施形態では、初期状態の目標枠46を縮小又は拡大することで、駐車目標領域を設定するようにしたが、目標設定画面44上で、任意の4点を決定することで目標枠46を生成するようにしてもよい。   In the above embodiment, the parking target area is set by reducing or enlarging the target frame 46 in the initial state, but the target frame 46 is determined by determining any four points on the target setting screen 44. May be generated.

・上記実施形態では、目標枠46によって駐車目標領域を設定したが、画像データGの画像処理、又は白線43を検知するセンサを用いて、路面の白線43を検出し、制御装置2が、検出された白線43から所定の距離(例えば、内側15cm)までを自動的に駐車目標領域として設定してもよい。   In the above embodiment, the parking target area is set by the target frame 46, but the white line 43 on the road surface is detected using the image processing of the image data G or a sensor that detects the white line 43, and the control device 2 detects A predetermined distance (for example, 15 cm on the inner side) from the white line 43 may be automatically set as the parking target area.

・上記実施形態では、目標設定画面44で設定された目標枠46を、車両Cの移動量に基づき、目標枠46の画素座標を変更して、変更した目標枠46が、画面座標系の撮像画面30(ディスプレイ12の表示領域)内に収容されるか否かを判断した。これ以外に、所定のタイミング、例えば、車両Cが所定距離移動する毎、又は所定時間毎に、路面の白線43を検出して目標枠46を設定し、設定された目標枠46の画素座標が画面座標系の撮像画面30(ディスプレイ12の表示領域)内に収容されるか否かを判断してもよい。この場合、移動量に基づく座標変換処理を不要とすることができる。   In the above embodiment, the target frame 46 set on the target setting screen 44 is changed in the pixel coordinates of the target frame 46 based on the movement amount of the vehicle C, and the changed target frame 46 is captured in the screen coordinate system. It was determined whether or not it was accommodated in the screen 30 (display area of the display 12). In addition to this, every time the vehicle C moves a predetermined distance or every predetermined time, the white line 43 on the road surface is detected and the target frame 46 is set, and the pixel coordinates of the set target frame 46 are It may be determined whether or not it is accommodated in the imaging screen 30 (display area of the display 12) in the screen coordinate system. In this case, coordinate conversion processing based on the movement amount can be made unnecessary.

・上記実施形態では、車両Cが後退する際に、目標枠46をディスプレイ12の画面に表示するようにしたが、目標枠46をディスプレイ12に表示せず、予め取得した目標枠46の座標が撮像画面30からはみ出すか否かを判断するようにしてもよい。このとき、目標枠46を、目標設定画面44のみに表示して、その位置等をユーザにより設定可能とし、車両Cが後退を始めたり、所定距離だけ移動した際に、画面に目標枠46を表示しないようにしてもよい。また、上記したように、制御装置2が、白線43を検出し、自動的に目標枠46を設定するようにしてもよい。このようにすると、画面に、車幅延長線42、予想軌跡線41、車両輪郭線61等の各種指標を表示する場合に、画面が煩雑になるのを抑制し、画面を見やすくすることができる。   In the above embodiment, when the vehicle C moves backward, the target frame 46 is displayed on the screen of the display 12. However, the target frame 46 is not displayed on the display 12, and the coordinates of the target frame 46 acquired in advance are You may make it judge whether it protrudes from the imaging screen 30. FIG. At this time, the target frame 46 is displayed only on the target setting screen 44 and its position and the like can be set by the user. When the vehicle C starts to move backward or moves a predetermined distance, the target frame 46 is displayed on the screen. You may make it not display. Further, as described above, the control device 2 may detect the white line 43 and automatically set the target frame 46. In this way, when various indicators such as the vehicle width extension line 42, the predicted trajectory line 41, and the vehicle contour line 61 are displayed on the screen, it is possible to suppress the screen from becoming complicated and make the screen easier to see. .

・上記実施形態では、自車位置データ16に基づいて撮像範囲データ17を予め算出し、その撮像範囲データ17を画像データGに関連付けてRAM4に格納したが、撮像範囲データ17は予め算出せず、画像データGには少なくとも自車位置データ16が関連付けられていればよい。そして、合成する過去の過去画像データG2を読み出す際に、自車位置データ16に基づいて、目標枠46のはみ出し部分のデータを含む画像データGであるかどうかを算出するようにしてもよい。   In the above embodiment, the imaging range data 17 is calculated in advance based on the vehicle position data 16, and the imaging range data 17 is stored in the RAM 4 in association with the image data G. However, the imaging range data 17 is not calculated in advance. The image data G only needs to be associated with at least the vehicle position data 16. Then, when reading past past image data G2 to be synthesized, based on the own vehicle position data 16, it may be calculated whether the image data G includes the data of the protruding portion of the target frame 46.

・上記実施形態では、図4に示すようなデータ構成で画像データGをRAM4に格納するのではなく、画像データGの識別子と、自車位置データ16とからなる属性データを格納したテーブルを生成し、そのテーブルをRAM4に格納するようにしてもよい。   In the above embodiment, the image data G is not stored in the RAM 4 with the data structure as shown in FIG. 4, but a table storing attribute data including the identifier of the image data G and the vehicle position data 16 is generated. The table may be stored in the RAM 4.

・上記実施形態では、目標枠46内に、車両輪郭線61等の車体の大きさを示す描画線全てが収容された時に、制御部3又は画像処理部11により終了トリガがある(ステップ
S2−13においてYES)と判断してもよい。
In the above embodiment, when all the drawing lines indicating the size of the vehicle body such as the vehicle outline 61 are accommodated in the target frame 46, the control unit 3 or the image processing unit 11 has an end trigger (step S2- 13 may be determined as YES).

・上記実施形態では、車両位置指標としては、車両輪郭線61以外に、画面内で車両Cの占める領域を示す車両占有領域や、後車軸の中心点や重心点等、車両の所定の位置を示す点でもよい。   In the above embodiment, as the vehicle position index, in addition to the vehicle contour line 61, a vehicle occupation area indicating an area occupied by the vehicle C in the screen, a center position of the rear axle, a center point of the center of the vehicle, and the like are used. It may be a point to show.

・上記実施形態では、画像処理部11は、歪曲収差の補正を省略するようにしてもよい。
・上記実施形態では、自車位置は、後車軸の中心点25としたが、重心位置等、その他の車両Cの所定の位置でよい。
In the above embodiment, the image processing unit 11 may omit correction of distortion.
In the above embodiment, the vehicle position is the center point 25 of the rear axle, but may be a predetermined position of the other vehicle C such as the center of gravity position.

・上記実施形態では、現在地点と異なる地点で生成された画像データGを、現在地点の撮像画面30の画面座標系の座標に変換する座標変換を省略してもよい。このようにすると、制御装置2の負担を軽減できる。   In the above embodiment, the coordinate conversion for converting the image data G generated at a point different from the current point to the coordinates of the screen coordinate system of the imaging screen 30 at the current point may be omitted. In this way, the burden on the control device 2 can be reduced.

・上記実施形態では、現在地点で生成された画像データG1に基づく画像と、過去画像データG2に基づく画像が視認によって判別可能となるように、過去画像データG2を加工するようにした。これ以外に、過去画像データG2に基づく過去の画像がディスプレイ12に表示されていることを示唆する報知(警告)として、過去画像が表示されていることを示す、案内表示としての文字表示や、案内表示としてのアイコンを合成画面58に重ねて表示するようにしてもよい。また、現在画像59と補完画像60との境目を示す、表示としての境界線等を表示するようにしてもよい。この場合、現在画像59と補完画像60の表示領域が区別できるため、運転者は、補完画像60に注意を払うことができる。さらに、ディスプレイ12に、過去の画像が表示されていることを示唆する案内音又は案内音声をスピーカ15から出力するようにしてもよい。この場合、運転者は、ディスプレイ12から目を離しているときや、アイコン等に気付かないときでも、補完画像60が表示されていることに気付くことができる。   In the above embodiment, the past image data G2 is processed so that an image based on the image data G1 generated at the current point and an image based on the past image data G2 can be discriminated by visual recognition. In addition to this, as a notification (warning) indicating that a past image based on the past image data G2 is displayed on the display 12, a character display as a guidance display indicating that the past image is displayed, An icon as a guidance display may be displayed on the composite screen 58 in an overlapping manner. Further, a boundary line as a display indicating the boundary between the current image 59 and the complementary image 60 may be displayed. In this case, since the display area of the current image 59 and the complementary image 60 can be distinguished, the driver can pay attention to the complementary image 60. Further, a guidance sound or guidance sound suggesting that a past image is displayed on the display 12 may be output from the speaker 15. In this case, the driver can notice that the complementary image 60 is displayed even when the user is looking away from the display 12 or not aware of the icon or the like.

・上記実施形態では、車両Cの移動に伴い、その座標が変換された目標枠46が、撮像画面30(ディスプレイ12の表示領域)からはみ出す場合に、過去画像データG2により、目標枠46のはみ出す部分を補完して、画像合成データGAを生成した。これ以外に、車両Cが所定距離だけ移動した際に、その車体のフロアの下方にあたる領域を有する過去画像データを、現在の画像データと平行に並べた、画像合成データを生成するようにしてもよい。そして、このような画像合成データが出力された画面において、過去画像データに基づく過去画像が表示されていることを示唆する報知(警告)を行うようにしてもよい。この報知(警告)は、過去画像データの色調、模様及び明度のうち少なくとも1つを現在の画像データと異なるように加工したり、アイコン、過去画像と現在画像の境界を示す線の画面表示や、案内音又は音声等をスピーカ15から出力することにより行われる。また、合成画面63のうち、補完画像65に重ねられた車両輪郭線61の解像度を下げ、車両輪郭線をぼかすように表示してもよい。   In the above embodiment, when the target frame 46 whose coordinates have been converted with the movement of the vehicle C protrudes from the imaging screen 30 (display area of the display 12), the target frame 46 protrudes from the past image data G2. The image synthesis data GA was generated by complementing the portion. In addition to this, when the vehicle C moves a predetermined distance, image composite data in which past image data having an area below the floor of the vehicle body is arranged in parallel with the current image data may be generated. Good. Then, a notification (warning) suggesting that the past image based on the past image data is displayed on the screen on which such image composition data is output may be performed. This notification (warning) is performed by processing at least one of the color tone, pattern, and brightness of past image data so as to be different from the current image data, or by displaying an icon, a screen display of a line indicating the boundary between the past image and the current image, This is performed by outputting a guidance sound or voice from the speaker 15. Moreover, the resolution of the vehicle outline 61 superimposed on the complementary image 65 in the composite screen 63 may be lowered and displayed so as to blur the vehicle outline.

・後方カメラ22は、車両Cの車体後端のいずれの位置に設けてもよい。また、後方カメラ22は、車両Cの前端、側端、車室内に取り付けられてもよい。この場合にも、このカメラによって生成された画像データGを使用して、車体の下方の領域を表示することができるため、車両C前方の見えにくい障害物を視認しやすくすることができる。また、車両周辺を撮像するカメラは、1つではなく、複数でもよい。   The rear camera 22 may be provided at any position on the rear end of the vehicle C. Further, the rear camera 22 may be attached to the front end, the side end, or the passenger compartment of the vehicle C. Also in this case, since the area below the vehicle body can be displayed using the image data G generated by this camera, it is possible to make it easier to visually recognize an obstacle that is difficult to see in front of the vehicle C. In addition, the number of cameras that capture the periphery of the vehicle is not limited to one.

・上記実施形態では、駐車支援装置を経路案内を行うナビゲーション装置1に具体化したが、経路案内を省略した装置としてもよい。この場合、地図データ記憶部9、スピーカ15が省略される。   In the above embodiment, the parking assistance device is embodied as the navigation device 1 that performs route guidance, but may be a device that omits route guidance. In this case, the map data storage unit 9 and the speaker 15 are omitted.

本実施形態のナビゲーション装置の構成を説明するブロック図。The block diagram explaining the structure of the navigation apparatus of this embodiment. 車両に配設された後方カメラの取付位置を説明する説明図。Explanatory drawing explaining the attachment position of the rear camera arrange | positioned at the vehicle. 同後方カメラの撮像範囲を説明する説明図。Explanatory drawing explaining the imaging range of the back camera. RAMに蓄積される画像データのデータ構成を説明する説明図。Explanatory drawing explaining the data structure of the image data accumulate | stored in RAM. 同ナビゲーション装置のディスプレイに表示される画面の説明図。Explanatory drawing of the screen displayed on the display of the navigation apparatus. 本実施形態の座標変換処理の説明図。Explanatory drawing of the coordinate transformation process of this embodiment. 本実施形態の目標枠の更新処理の説明図。Explanatory drawing of the update process of the target frame of this embodiment. 更新された目標枠と撮像画面との関係を説明する説明図。Explanatory drawing explaining the relationship between the updated target frame and an imaging screen. 縮小された目標枠、撮像画面、補完される範囲の関係を説明する説明図。Explanatory drawing explaining the relationship between the reduced target frame, an imaging screen, and the range complemented. 縮小画像データと過去画像データとの合成の概念図。The conceptual diagram of a synthesis | combination with reduced image data and past image data. 本実施形態の画像データ保存処理の処理手順の説明図。Explanatory drawing of the process sequence of the image data preservation | save process of this embodiment. 本実施形態の画像合成データ出力処理の処理手順の説明図。Explanatory drawing of the process sequence of the image synthetic data output process of this embodiment. 撮像又は目標設定を行う車両位置を説明する説明図。Explanatory drawing explaining the vehicle position which performs an imaging or target setting. 目標設定画面の初期状態の説明図。Explanatory drawing of the initial state of a target setting screen. 目標設定画面の設定時の説明図。Explanatory drawing at the time of the setting of a target setting screen. 画面外領域を含む過去画像データの説明図。Explanatory drawing of the past image data containing an area outside a screen. 縮小画像データと過去画像データとを単に重ねた状態の合成画面の説明図。Explanatory drawing of the synthetic | combination screen of the state which just overlapped the reduced image data and the past image data. ディスプレイに表示される合成画面の説明図。Explanatory drawing of the composite screen displayed on a display. 駐車目標領域への進入開始時点における合成画面の説明図。Explanatory drawing of the synthetic | combination screen at the time of the approach start to a parking target area | region. 駐車目標領域への進入終了時点における合成画面の説明図。Explanatory drawing of the synthetic | combination screen at the time of the completion of approach to a parking target area | region.

符号の説明Explanation of symbols

1…駐車支援装置としてのナビゲーション装置、3…画像取得手段、表示制御手段及び報知手段としての制御部、4…画像データ記憶手段としてのRAM、10…画像取得手段を構成する撮像データ取得部、11…画像合成手段及び報知手段を構成する画像処理部、12…表示手段としてのディスプレイ、15…スピーカ、22…撮像装置としての後方カメラ、C…車両、G,G1,G2…画像データ、G2…過去画像データ、GA…画像合成データ。   DESCRIPTION OF SYMBOLS 1 ... Navigation apparatus as parking assistance apparatus, 3 ... Image acquisition means, control part as display control means and notification means, 4 ... RAM as image data storage means, 10 ... Imaging data acquisition part which comprises image acquisition means, DESCRIPTION OF SYMBOLS 11 ... Image processing part which comprises an image synthetic | combination means and alerting | reporting means, 12 ... Display as display means, 15 ... Speaker, 22 ... Rear camera as an imaging device, C ... Vehicle, G, G1, G2 ... Image data, G2 ... past image data, GA ... image composition data.

Claims (8)

画像データを表示する表示手段と、制御手段とを用い、駐車操作を支援する駐車支援方法であって、
前記制御手段が、
車両に設けられた撮像装置から、前記車両の周辺を撮像した画像データを各撮像地点で取得し、
取得した前記画像データを画像データ記憶手段に格納し、
前記車両の現在地点で撮像された最新の画像データと、前記画像データ記憶手段に格納された過去の前記画像データとを、前記表示手段に表示し、
過去の前記画像データが前記表示手段に表示されていることを報知することを特徴とする駐車支援方法。
A parking support method for supporting a parking operation using display means for displaying image data and a control means,
The control means is
From the imaging device provided in the vehicle, obtain image data obtained by imaging the periphery of the vehicle at each imaging point,
The acquired image data is stored in image data storage means,
The latest image data captured at the current location of the vehicle and the past image data stored in the image data storage means are displayed on the display means,
A parking assistance method characterized by notifying that the past image data is displayed on the display means.
画像データを表示する表示手段と、
車両に設けられた撮像装置から、前記車両の周辺を撮像した画像データを、各撮像地点で取得する画像取得手段と、
前記各撮像地点で撮像した前記画像データを格納する画像データ記憶手段と、
最新の画像データと、前記画像データ記憶手段に格納された過去の前記画像データとを、前記表示手段に表示する表示制御手段と、
過去の前記画像データが前記表示手段に表示されていることを報知する報知手段と
を備えたことを特徴とする駐車支援装置。
Display means for displaying image data;
Image acquisition means for acquiring image data obtained by imaging the periphery of the vehicle at each imaging point from an imaging device provided in the vehicle;
Image data storage means for storing the image data captured at each imaging point;
Display control means for displaying the latest image data and the past image data stored in the image data storage means on the display means;
A parking assistance device comprising: an informing means for informing that the past image data is displayed on the display means.
請求項2に記載の駐車支援装置において、
前記表示制御手段は、最新の前記画像データと、過去の前記画像データとを合成した画像合成データを生成する画像合成手段を有し、前記画像合成データを前記表示手段に表示することを特徴とする駐車支援装置。
In the parking assistance device according to claim 2,
The display control means includes image composition means for generating image composition data obtained by combining the latest image data and the past image data, and displays the image composition data on the display means. Parking assistance device.
請求項2又は3に記載の駐車支援装置において、
前記報知手段は、
最新の前記画像データに基づく画像と、過去の前記画像データに基づく画像とが、視認によって判別可能となるように、前記各画像データのうち少なくとも一方を加工して、前記表示手段に出力することを特徴とする駐車支援装置。
In the parking assistance device according to claim 2 or 3,
The notification means includes
Processing at least one of the image data so that an image based on the latest image data and an image based on the past image data can be discriminated by visual recognition, and outputting to the display means A parking assistance device characterized by the above.
請求項4に記載の駐車支援装置において、
前記報知手段は、過去の前記画像データの色調、模様及び明度のうち、少なくとも1つを、最新の前記画像データと異なるように加工して前記表示手段に出力することを特徴とする駐車支援装置。
In the parking assistance device according to claim 4,
The informing means processes at least one of the color tone, pattern, and brightness of the past image data so as to be different from the latest image data, and outputs the processed data to the display means. .
請求項2〜5のいずれか1項に記載の駐車支援装置において、
前記報知手段は、
過去の前記画像データが前記表示手段に表示されていることを示唆する案内表示を、前記表示手段に出力することを特徴とする駐車支援装置。
In the parking assistance device according to any one of claims 2 to 5,
The notification means includes
A parking assistance device, characterized in that a guidance display suggesting that the past image data is displayed on the display means is output to the display means.
請求項2〜6のいずれか1項に記載の駐車支援装置において、
前記報知手段は、
前記表示手段の画面において、最新の前記画像データ又は過去の前記画像データの表示領域を区画する表示を出力することを特徴とする駐車支援装置。
In the parking assistance device according to any one of claims 2 to 6,
The notification means includes
A parking assistance device, characterized in that on the screen of the display means, a display for partitioning a display area of the latest image data or past image data is output.
請求項2〜7のいずれか1項に記載の駐車支援装置において、
前記報知手段は、
スピーカから、過去の前記画像データが前記表示手段に表示されていることを示唆する案内音又は案内音声を出力することを特徴とする駐車支援装置。
In the parking assistance device according to any one of claims 2 to 7,
The notification means includes
A parking assistance device, characterized in that a guidance sound or guidance voice suggesting that the past image data is displayed on the display means is output from a speaker.
JP2005125440A 2005-04-22 2005-04-22 Parking supporting method and parking supporting device Pending JP2006298258A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005125440A JP2006298258A (en) 2005-04-22 2005-04-22 Parking supporting method and parking supporting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005125440A JP2006298258A (en) 2005-04-22 2005-04-22 Parking supporting method and parking supporting device

Publications (1)

Publication Number Publication Date
JP2006298258A true JP2006298258A (en) 2006-11-02

Family

ID=37466827

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005125440A Pending JP2006298258A (en) 2005-04-22 2005-04-22 Parking supporting method and parking supporting device

Country Status (1)

Country Link
JP (1) JP2006298258A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012232610A (en) * 2011-04-28 2012-11-29 Toshiba Alpine Automotive Technology Corp Parking support system
JP2014069723A (en) * 2012-09-28 2014-04-21 Aisin Seiki Co Ltd Parking support device and control method
JP2015074257A (en) * 2013-10-04 2015-04-20 アイシン精機株式会社 Parking support device
CN107672601A (en) * 2017-09-29 2018-02-09 重庆长安汽车股份有限公司 The automatic parking triggering system and method for Voice command
WO2019093378A1 (en) * 2017-11-10 2019-05-16 株式会社デンソー Display processing device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004222195A (en) * 2003-01-17 2004-08-05 Denso Corp Device for displaying image around vehicle
JP2004260694A (en) * 2003-02-27 2004-09-16 Nippon Soken Inc Vehicle surrounding image processing system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004222195A (en) * 2003-01-17 2004-08-05 Denso Corp Device for displaying image around vehicle
JP2004260694A (en) * 2003-02-27 2004-09-16 Nippon Soken Inc Vehicle surrounding image processing system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012232610A (en) * 2011-04-28 2012-11-29 Toshiba Alpine Automotive Technology Corp Parking support system
JP2014069723A (en) * 2012-09-28 2014-04-21 Aisin Seiki Co Ltd Parking support device and control method
JP2015074257A (en) * 2013-10-04 2015-04-20 アイシン精機株式会社 Parking support device
CN107672601A (en) * 2017-09-29 2018-02-09 重庆长安汽车股份有限公司 The automatic parking triggering system and method for Voice command
WO2019093378A1 (en) * 2017-11-10 2019-05-16 株式会社デンソー Display processing device
JP2019087980A (en) * 2017-11-10 2019-06-06 株式会社デンソー Display processing device

Similar Documents

Publication Publication Date Title
US7680570B2 (en) Parking assist devices, methods, and programs
JP4561479B2 (en) Parking support method and parking support device
JP4595649B2 (en) Parking support method and parking support device
US7088262B2 (en) Method of operating a display system in a vehicle for finding a parking place
JP2007114020A (en) Vehicle moving distance detecting method and device, and current vehicle position detecting method and device
US20070147664A1 (en) Driving assist method and driving assist apparatus
JP2007099261A (en) Parking assistance method and parking assistance device
JP5723106B2 (en) Vehicle display device and vehicle display method
JP2006298115A (en) Driving-support method and driving-support device
JP4904997B2 (en) Parking support method and parking support device
JP4696691B2 (en) Parking support method and parking support device
CN103140377A (en) Method for displaying images on a display device and driver assistance system
JP2010184607A (en) Vehicle periphery displaying device
CN104620076A (en) Driving assistance device
JP5549235B2 (en) Driving assistance device
JP2008099201A (en) Method and device for supporting driving
JP2007226300A (en) Driving support method and driving support device
JP2003319383A (en) On-vehicle image processing apparatus
JP2006298258A (en) Parking supporting method and parking supporting device
JP2014199677A (en) Driving supporting device
JP4561470B2 (en) Parking assistance device
JP4561512B2 (en) Parking support method and parking support device
JP4670460B2 (en) Parking support method and parking support device
JP4946045B2 (en) Image display method and driving support device
JP2006306241A (en) Parking assisting method and parking assisting device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100302

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100706