JP5924053B2 - Parking assistance device - Google Patents

Parking assistance device Download PDF

Info

Publication number
JP5924053B2
JP5924053B2 JP2012062028A JP2012062028A JP5924053B2 JP 5924053 B2 JP5924053 B2 JP 5924053B2 JP 2012062028 A JP2012062028 A JP 2012062028A JP 2012062028 A JP2012062028 A JP 2012062028A JP 5924053 B2 JP5924053 B2 JP 5924053B2
Authority
JP
Japan
Prior art keywords
vehicle
hough space
voting
parking frame
memory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012062028A
Other languages
Japanese (ja)
Other versions
JP2013193545A (en
Inventor
和寿 石丸
和寿 石丸
勝之 今西
勝之 今西
博彦 柳川
博彦 柳川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Soken Inc
Original Assignee
Denso Corp
Nippon Soken Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Nippon Soken Inc filed Critical Denso Corp
Priority to JP2012062028A priority Critical patent/JP5924053B2/en
Publication of JP2013193545A publication Critical patent/JP2013193545A/en
Application granted granted Critical
Publication of JP5924053B2 publication Critical patent/JP5924053B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、運転者の駐車操作を支援する駐車支援装置に関するものである。   The present invention relates to a parking assistance device that supports a driver's parking operation.

従来、駐車支援装置において、右側方カメラおよび左側方カメラにより目標駐車場を撮像するとともに、前方カメラおよび後方カメラにより車両の周囲を撮像し、車両周囲の映像の中で車体の死角になって映像が欠落している範囲の映像を目標駐車場の映像から切り出し、車両周囲の映像を補完して表示するものがある(特許文献1参照)。   Conventionally, in a parking assist device, the target parking lot is imaged by the right side camera and the left side camera, and the surroundings of the vehicle are imaged by the front camera and the rear camera. In some cases, a video in a range where the “” is missing is cut out from the video of the target parking lot, and the video around the vehicle is complemented and displayed (see Patent Document 1).

このものにおいて、カメラの死角による映像欠落部分の少ない車両周囲の映像を表示することにより、駐車範囲を区分する駐車枠の白線などがはっきりと映し出すことができる。このため、運転者による駐車するための操作を良好に支援することができる。   In this case, by displaying an image around the vehicle with few image missing portions due to the blind spot of the camera, the white line of the parking frame that divides the parking range can be clearly displayed. For this reason, the operation for parking by the driver can be favorably supported.

特開2002−29314号公報JP 2002-29314 A

上述の車載画像処理装置では、車両周囲の映像の中で車体の死角になる範囲の映像を目標駐車場の映像から切り出し、車両周囲の映像を補完して表示することにより、駐車範囲を区分する駐車枠がはっきりと映し出すことができるものの、車両周囲の映像に加えて目標駐車場の映像をもメモリに記憶させることが必要になる。このため、メモリの使用容量の増大化を招くことになる。   In the above-mentioned in-vehicle image processing device, the image of the range that becomes the blind spot of the vehicle body in the image around the vehicle is cut out from the image of the target parking lot, and the image around the vehicle is complemented and displayed to classify the parking range Although the parking frame can be clearly displayed, it is necessary to store the image of the target parking lot in the memory in addition to the image around the vehicle. For this reason, the use capacity of the memory is increased.

本発明は上記点に鑑みて、運転者の駐車操作を支援する駐車支援装置において、メモリの使用容量の増大化を抑えることを目的とする。   The present invention has been made in view of the above points, and it is an object of the present invention to suppress an increase in memory usage capacity in a parking assistance device that assists a driver's parking operation.

上記目的を達成するため、請求項1に記載の発明では、自車が駐車枠の付近を走行する際に駐車枠側の景色を繰り返し撮影するためのカメラ(10)の撮影画像から駐車枠を検出して、この検出された駐車枠に基づいて運転者の駐車操作を支援する駐車支援装置であって、
駐車枠の付近に自車が到達したか否かを判定する第1判定手段(S110)と、
駐車枠付近を自車が通過したか否かを判定する第2判定手段(S190)と、
カメラ(10)が撮影する毎に自車の位置情報を取得する取得手段(S130)と、
自車が前進しているときに、駐車枠の付近に自車が到達したと第1判定手段が判定したときから、駐車枠付近を自車が通過したと第2判定手段が判定するとき迄、カメラの撮影毎の位置情報に基づいて撮影画像中のエッジ点の座標を撮影毎の位置情報に対応付けるように撮影画像中のエッジ点の座標を撮影毎に変換し、この変換毎に変換された座標上のエッジ点を共通のハフ空間に投票して、この投票毎に投票の履歴をメモリ(20)に記憶させる投票手段(S160、S170、S180)と、
自車が後退し始めたか否かを判定する第3判定手段(S200)と、
自車が後退し始めたと第3判定手段が判定したときに、メモリに記憶される投票毎の履歴から駐車枠を示す直線を検出する検出手段(S210)と、を備えることを特徴とする。
In order to achieve the above object, according to the first aspect of the present invention, when the vehicle travels in the vicinity of the parking frame, the parking frame is extracted from the captured image of the camera (10) for repeatedly capturing the scenery on the parking frame side. A parking assist device that detects and assists the driver's parking operation based on the detected parking frame,
First determination means (S110) for determining whether or not the vehicle has arrived in the vicinity of the parking frame;
The vicinity of the parking space second determination means for determining whether the vehicle has passed the (S190),
Acquisition means (S130) for acquiring position information of the own vehicle every time the camera (10) takes a picture;
When the vehicle is moving forward, since the vehicle near the parking space it is determined that the first determination means has reached, when the vicinity of the parking frame and the vehicle has passed the second determination means determines Until now, the coordinates of the edge point in the photographed image are converted for each photographing so that the coordinates of the edge point in the photographed image are associated with the positional information for each photographing based on the positional information for each photographing of the camera. Voting means (S160, S170, S180) for voting edge points on the coordinated coordinates to a common Hough space and storing the voting history in the memory (20) for each voting;
Third determination means (S200) for determining whether or not the vehicle has started to reverse;
It is characterized by comprising detection means (S210) for detecting a straight line indicating a parking frame from the history of each vote stored in the memory when the third determination means determines that the host vehicle has started to move backward.

以上説明した、請求項1に記載の発明によれば、自車が駐車枠の付近を走行する際にカメラの撮影毎に投票手段が、前記座標上のエッジ点を共通のハフ空間に投票して、この投票毎に投票の履歴をメモリに記憶させる。このことにより、駐車枠を示す直線を検出するためにメモリには、投票毎の投票の履歴が記憶される。このため、撮影画像が繰り返しメモリに記憶される場合に比べて、メモリの使用容量を減らすことができる。以上により、駐車支援装置におけるメモリの使用容量の増大化を抑えることができる。   According to the first aspect of the present invention described above, the voting means votes the edge points on the coordinates to a common Hough space every time when the vehicle travels in the vicinity of the parking frame. The voting history is stored in the memory for each vote. Thus, the history of voting for each vote is stored in the memory in order to detect a straight line indicating the parking frame. For this reason, compared with the case where a picked-up image is repeatedly memorize | stored in memory, the use capacity of memory can be reduced. As described above, an increase in the use capacity of the memory in the parking assistance device can be suppressed.

エッジ点とは、カメラにより撮影された画像のうち輝度の変化を示す点のことである。   An edge point is a point that shows a change in luminance in an image taken by a camera.

ハフ空間とは、直線を表す第1、第2のパラメータ、およびエッジ点の投票数をそれぞれ座標軸とする三次元空間のことである。   The Hough space is a three-dimensional space having first and second parameters representing a straight line and the number of votes of edge points as coordinate axes.

請求項2に記載の発明では、自車が駐車枠の付近を走行する際に駐車枠側の景色を繰り返し撮影するためのカメラ(10)の撮影画像から駐車枠を検出して、この検出された駐車枠に基づいて運転者の駐車操作を支援する駐車支援装置であって、
カメラが撮影する毎に自車の位置情報を取得する取得手段(S130)と、
自車が一定距離以上走行したか否かを繰り返し判定する距離判定手段(S220)と、
自車が前進しているときに、自車が一定距離以上走行したかと距離判定手段が判定する毎に、自車の位置に対応するカメラの撮影領域を対象とするハフ空間を設定する設定手段(S230)と、
自車の走行距離が一定距離以上であると距離判定手段が判定した判定回数がN−1回である場合には、カメラの撮影毎の位置情報に基づいて撮影画像中のエッジ点の座標を撮影毎の位置情報に対応付けるように撮影画像中のエッジ点の座標を撮影毎に変換し、この変換毎に変換されたエッジ点を少なくともN番目のハフ空間に対して投票する投票手段(S160、S170A、S170B)と、
投票手段の投票毎に投票の履歴をメモリ(20)に記憶させる制御手段(S180、S250)と、
自車が後退し始めたか否かを判定する第3判定手段(S200)と、
自車が後退し始めたと第3判定手段が判定したときに、メモリに記憶されるハフ空間毎の投票の履歴から駐車枠を含む直線を検出する検出手段(S210、S260)と、
メモリにおいて写像毎の履歴が記憶される容量が所定値以上であるか否かを判定する容量判定手段(S240)と、を備え、
メモリにおいて写像毎の履歴が記憶される容量が所定値以上であると容量判定手段が判定したときには、制御手段は、メモリに記憶される投票毎の履歴のうち最も古いタイミングで投票されたハフ空間の履歴に代えて最も新しいタイミングで投票されたハフ空間の履歴をメモリに記憶させるようになっていることを特徴とする。
In the invention according to claim 2, when the vehicle travels in the vicinity of the parking frame, the parking frame is detected from the captured image of the camera (10) for repeatedly photographing the scenery on the parking frame side, and this is detected. A parking assistance device for assisting a driver's parking operation based on the parking frame,
Acquisition means (S130) for acquiring the position information of the vehicle every time the camera takes a picture;
Distance determining means (S220) for repeatedly determining whether or not the vehicle has traveled a certain distance or more;
Setting means for setting a Hough space for the imaging region of the camera corresponding to the position of the own vehicle each time the distance determining means determines whether the own vehicle has traveled a certain distance or more when the own vehicle is moving forward (S230),
When the number of determinations determined by the distance determination means that the traveling distance of the vehicle is equal to or greater than a certain distance is N−1, the coordinates of the edge points in the captured image are determined based on the position information for each shooting of the camera. Voting means (S160, voting means) for converting the coordinates of the edge points in the captured image for each photographing so as to be associated with the positional information for each photographing, and voting the edge points converted for each conversion to at least the Nth Hough space S170A, S170B),
Control means (S180, S250) for storing a history of voting in the memory (20) for each vote of the voting means;
Third determination means (S200) for determining whether or not the vehicle has started to reverse;
Detecting means (S210, S260) for detecting a straight line including a parking frame from a history of voting for each Hough space stored in the memory when the third determining means determines that the host vehicle has started to reverse;
Capacity determination means (S240) for determining whether or not the capacity for storing the history of each mapping in the memory is greater than or equal to a predetermined value,
When the capacity determination means determines that the capacity for storing the history for each mapping in the memory is greater than or equal to a predetermined value, the control means determines the Hough space voted at the oldest time among the history for each vote stored in the memory. Instead of this history, the history of the Hough space voted at the latest timing is stored in the memory.

請求項2に記載の発明では、制御手段によってメモリのうち写像毎の履歴が記憶される容量が制限される。このため、撮影画像が繰り返しメモリに記憶される場合に比べて、メモリの使用容量を減らすことができる。以上により、請求項1に記載の発明と同様に、駐車支援装置におけるメモリの使用容量の増大化を抑えることができる。なお、Nは1以上の整数である。   In the invention described in claim 2, the capacity for storing the history for each mapping in the memory is limited by the control means. For this reason, compared with the case where a picked-up image is repeatedly memorize | stored in memory, the use capacity of memory can be reduced. As described above, similarly to the first aspect of the invention, it is possible to suppress an increase in the use capacity of the memory in the parking assistance device. N is an integer of 1 or more.

請求項3に記載の発明では、前記検出手段は、前記メモリに記憶される前記ハフ空間毎の投票の履歴を1つのハフ空間の投票の履歴に統合して、この統合された1つのハフ空間の投票の履歴から前記駐車枠を含む前記直線を検出することを特徴とする。   According to a third aspect of the present invention, the detection means integrates the voting history for each Hough space stored in the memory into the voting history of one Hough space, and the integrated one Hough space. The straight line including the parking frame is detected from the history of voting.

ここで、N番目のハフ空間は、設定手段によってN番目に設定されるハフ空間である。N+1番目のハフ空間は、設定手段によってN+1番目に設定されるハフ空間である。N+2番目のハフ空間は、設定手段によってN+2番目に設定されるハフ空間である。   Here, the Nth Hough space is the Nth Hough space set by the setting means. The (N + 1) th Hough space is the H + 1 space set by the setting unit. The (N + 2) th Hough space is a Hough space set to the (N + 2) th by the setting unit.

請求項4に記載の発明では、前記自車の走行距離が一定距離以上であると前記距離判定手段が判定した判定回数がN−1回であるときには、前記投票手段は、前記カメラの撮影毎に、前記座標上のエッジ点をN番目の前記ハフ空間とN+1番目の前記ハフ空間とに対して投票し、前記判定回数がN回であるときには、前記投票手段は、前記カメラの撮影毎に前記座標上のエッジ点を前記N+1番目の前記ハフ空間とN+2番目の前記ハフ空間とに対して投票することを特徴とする。   According to a fourth aspect of the present invention, when the number of times that the distance determining means determines that the traveling distance of the host vehicle is equal to or greater than a certain distance is N-1 times, the voting means In addition, when the edge point on the coordinates is voted for the Nth Hough space and the N + 1th Hough space, and the number of determinations is N, the voting means The edge point on the coordinates is voted for the (N + 1) th Hough space and the (N + 2) th Hough space.

請求項4に記載の発明によれば、判定回数がN−1回である場合と、判定回数がN回である場合とのいずれのときにも、投票手段は、カメラの撮影毎にN+1番目のハフ空間に座標上のエッジ点を投票する。このため、判定回数がN−1回であるときに投票手段がN番目のハフ空間だけに投票し、かつ判定回数がN回であるときに投票手段がN+1番目のハフ空間だけに投票する場合に比べて、N+1番目のハフ空間に投票される投票数を増やすことができる。よって、N+1番目のハフ空間において、直線を表す第1パラメータおよび第2パラメータが投票数によって明確に表されることになる。これにより、直線の検出を容易に行うことができる。   According to the fourth aspect of the present invention, the voting means performs the (N + 1) th time every time the camera shoots both when the number of determinations is N-1 and when the number of determinations is N. Vote for the edge point on the coordinates in the Hough space. Therefore, when the number of determinations is N-1 times, the voting means votes only for the Nth Hough space, and when the number of determinations is N times, the voting means votes only for the N + 1th Hough space. The number of votes voted for the (N + 1) th Hough space can be increased. Therefore, in the (N + 1) th Hough space, the first parameter and the second parameter representing a straight line are clearly represented by the number of votes. Thereby, a straight line can be easily detected.

請求項5に記載の発明では、前記設定手段によって設定される複数のハフ空間のうち隣接する2つのハフ空間は、互いに前記カメラの撮影領域がオーバーラップするように設定されていることを特徴とする。   The invention according to claim 5 is characterized in that two adjacent Hough spaces among the plurality of Hough spaces set by the setting means are set so that the shooting areas of the camera overlap each other. To do.

請求項5に記載の発明によれば、隣接する2つのハフ空間の間においてハフ空間の対象から外れてしまった撮影領域が生じることを避けることができる。   According to the fifth aspect of the present invention, it is possible to avoid the occurrence of an imaging region that is excluded from the target of the Hough space between two adjacent Hough spaces.

請求項6に記載の発明では、前記投票手段(S150、S160、S170)は、前記カメラの撮影毎に前記撮影画像からエッジ点を抽出し、この抽出したエッジ点を前記カメラの撮影毎に車両上側から視た鳥瞰座標上のエッジ点に座標変換し、この座標変換毎に前記カメラの撮影毎の前記位置情報に基づいて前記座標変換されたエッジ点の座標を前記撮影毎の前記位置情報に対応付けるように座標変換し、かつこの座標変換された鳥瞰座標上のエッジ点を前記ハフ空間に前記カメラの撮影毎に投票することを特徴とする。   In the invention according to claim 6, the voting means (S150, S160, S170) extracts an edge point from the photographed image every time the camera is photographed, and the extracted edge point is detected every time the camera is photographed. The coordinates are converted into edge points on the bird's eye coordinates viewed from above, and the coordinates of the edge points that are coordinate-converted based on the position information for each photographing of the camera are converted into the position information for each photographing. The coordinates are transformed so as to be associated with each other, and the edge points on the bird's-eye coordinates obtained by the coordinate transformation are voted on the Hough space every time the camera is photographed.

なお、この欄および特許請求の範囲で記載した各手段の括弧内の符号は、後述する実施形態に記載の具体的手段との対応関係を示すものである。   In addition, the code | symbol in the bracket | parenthesis of each means described in this column and the claim shows the correspondence with the specific means as described in embodiment mentioned later.

本発明の第1実施形態における駐車支援装置の概略構成を示す図である。It is a figure which shows schematic structure of the parking assistance apparatus in 1st Embodiment of this invention. 第1実施形態の具体例を説明するための図である。It is a figure for demonstrating the specific example of 1st Embodiment. 第1実施形態の具体例を説明するためCCDカメラの撮影画像およびその鳥瞰画像を示す図である。It is a figure which shows the picked-up image of a CCD camera, and its bird's-eye view image in order to demonstrate the specific example of 1st Embodiment. 第1実施形態の駐車枠検出処理を示すフローチャートである。It is a flowchart which shows the parking frame detection process of 1st Embodiment. 駐車枠検出処理の実行で検出される駐車枠を示す図である。It is a figure which shows the parking frame detected by execution of a parking frame detection process. 本発明の第2実施形態の駐車枠検出処理を示すフローチャートである。It is a flowchart which shows the parking frame detection process of 2nd Embodiment of this invention. 第2実施形態で用いる複数のハフ空間を示す図である。It is a figure which shows the several Hough space used in 2nd Embodiment.

以下、本発明の実施形態について図に基づいて説明する。なお、以下の各実施形態相互において、互いに同一もしくは均等である部分には、説明の簡略化を図るべく、図中、同一符号を付してある。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following embodiments, parts that are the same or equivalent to each other are given the same reference numerals in the drawings in order to simplify the description.

(第1実施形態)
図1に本発明の駐車支援装置1の概略構成を示す。駐車支援装置1は、CCDカメラ10、メモリ20、およびマイクロコンピュータ30から構成されている。
(First embodiment)
FIG. 1 shows a schematic configuration of a parking assistance apparatus 1 of the present invention. The parking assist device 1 includes a CCD camera 10, a memory 20, and a microcomputer 30.

CCDカメラ10は、自車の後方に配置されて、自車の後方の景色を撮影する。自車とは、駐車支援装置1が搭載されている自動車のことである。メモリ20は、マイクロコンピュータ30のコンピュータプログラムを記憶するとともに、マイクロコンピュータ30がコンピュータプログラムを実行する際に生じるデータを保存するバッファとして機能する。   The CCD camera 10 is arranged behind the host vehicle and photographs the scenery behind the host vehicle. The own vehicle is a vehicle on which the parking assistance device 1 is mounted. The memory 20 stores a computer program of the microcomputer 30 and functions as a buffer for storing data generated when the microcomputer 30 executes the computer program.

マイクロコンピュータ30は、測距センサ40、操舵角センサ41、車速センサ42、および駐車開始スイッチ43、および自動変速機44のそれぞれの出力信号を用いて、CCDカメラ10の撮影画像からハフ変換を用いて駐車枠を検出する駐車枠検出処理を実行する。   The microcomputer 30 uses the Hough transform from the captured image of the CCD camera 10 using the output signals of the distance measuring sensor 40, the steering angle sensor 41, the vehicle speed sensor 42, the parking start switch 43, and the automatic transmission 44. The parking frame detection process for detecting the parking frame is executed.

測距センサ40は、自車とその周辺の障害物との間の距離を測定するためのセンサである。本実施形態の測距センサ40として、例えば、超音波センサが用いられている。超音波センサは、超音波信号を送信してから、障害物表面で反射して戻ってきた反射波を受信するまでに要する伝搬時間tsを計測して、この伝搬時間tsを距離に換算して、超音波センサから障害物までの間の距離L{=(ts/2)×Vs(音速)}を測定する。   The distance measuring sensor 40 is a sensor for measuring a distance between the own vehicle and an obstacle around the vehicle. For example, an ultrasonic sensor is used as the distance measuring sensor 40 of the present embodiment. The ultrasonic sensor measures the propagation time ts required to receive the reflected wave that has been reflected and returned from the obstacle surface after transmitting the ultrasonic signal, and converts this propagation time ts into a distance. Then, a distance L {= (ts / 2) × Vs (sound speed)} between the ultrasonic sensor and the obstacle is measured.

操舵角センサ41は、自車の前輪の操舵角を検出するセンサである。車速センサ42は、自車の速度を検出するセンサである。駐車開始スイッチ43は、駐車枠検出処理の実行開始を指示する際に乗員によって操作されるスイッチである。自動変速機44は、車速、エンジンの回転速度、運転者の操作などに応じて変速レンジを切り替えるものである。自動変速機44は、設定されている変速レンジを示す出力信号を出力する。   The steering angle sensor 41 is a sensor that detects the steering angle of the front wheel of the host vehicle. The vehicle speed sensor 42 is a sensor that detects the speed of the host vehicle. The parking start switch 43 is a switch operated by an occupant when instructing the start of the parking frame detection process. The automatic transmission 44 switches the shift range according to the vehicle speed, engine rotation speed, driver's operation, and the like. The automatic transmission 44 outputs an output signal indicating the set shift range.

次に、本実施形態の作動の具体例として、図2の自車40が駐車場50の付近をA点からB点に向けて前進する際にCCDカメラ10の撮影画像から路上の駐車枠51を検出する例について説明する。駐車枠51は、路上において平行に配置される二本の直線状の白線からなるものであって、車両の駐車領域を示すものである。図2は、自車40がA点→B点→C点→D点の順に移動して自動車41、42の間の駐車枠51に駐車する例を示している。   Next, as a specific example of the operation of the present embodiment, when the own vehicle 40 in FIG. 2 moves forward in the vicinity of the parking lot 50 from the point A to the point B, the parking frame 51 on the road from the captured image of the CCD camera 10. An example of detecting the will be described. The parking frame 51 is composed of two straight white lines arranged in parallel on the road, and indicates a parking area of the vehicle. FIG. 2 shows an example in which the host vehicle 40 moves in the order of point A → B point → C point → D point and parks in the parking frame 51 between the automobiles 41 and 42.

図3(a)、(c)、(e)、(g)は、CCDカメラ10の撮影画像、図3(b)、(d)、(f)、(h)は撮影画像を鳥瞰変換した鳥瞰画像である。図3(a)はA点の撮影画像、図3(b)はA点の撮影画像の鳥瞰画像、図3(c)はB点の撮影画像、図3(d)はB点の撮影画像の鳥瞰画像、図3(e)はC点の撮影画像、図3(f)はC点の撮影画像の鳥瞰画像、図3(g)はD点の撮影画像、図3(h)はD点の撮影画像の鳥瞰画像である。   3 (a), (c), (e), and (g) are images captured by the CCD camera 10, and FIGS. 3 (b), (d), (f), and (h) are bird's-eye conversions of the captured images. It is a bird's-eye view image. 3A is a captured image of point A, FIG. 3B is a bird's-eye image of the captured image of point A, FIG. 3C is a captured image of point B, and FIG. 3D is a captured image of point B. 3E is a captured image of point C, FIG. 3F is a bird's-eye image of the captured image of point C, FIG. 3G is a captured image of point D, and FIG. It is a bird's-eye view image of a pointed image.

マイクロコンピュータ30は、図4のフローチャートにしたがって、駐車枠検出処理を実行する。駐車枠検出処理の実行は、駐車開始スイッチ43をオンしたときに開始される。   The microcomputer 30 executes the parking frame detection process according to the flowchart of FIG. The execution of the parking frame detection process is started when the parking start switch 43 is turned on.

まず、ステップS100において、測距センサ40の作動を開始する。これにより、測距センサ40が障害物との間の距離Lを繰り返し測定する。   First, in step S100, the operation of the distance measuring sensor 40 is started. Thereby, the distance measuring sensor 40 repeatedly measures the distance L between the obstacle.

例えば、自車40が自動車41付近に位置するときには、測距センサ40からの超音波信号が障害物としての自動車41によって反射されているので、測距センサ40の測定距離Lは所定値未満になる。   For example, when the host vehicle 40 is located in the vicinity of the automobile 41, the ultrasonic signal from the distance measuring sensor 40 is reflected by the automobile 41 as an obstacle, so that the measurement distance L of the distance measuring sensor 40 is less than a predetermined value. Become.

次に、ステップS110において、測距センサ40の測定距離Lに基づいて、駐車枠51に隣接する車両(具体的には、自動車41)のうち駐車枠51側の端点41aを検出したか否かを判定する。   Next, whether or not the end point 41a on the parking frame 51 side of the vehicle (specifically, the automobile 41) adjacent to the parking frame 51 is detected based on the measurement distance L of the distance measuring sensor 40 in step S110. Determine.

例えば、自動車41によって反射される反射波に基づいて測距センサ40が算出した測定距離Lは所定値未満になる一方、自車40が駐車枠51付近に到達したときには、測距センサ40からの超音波信号が駐車枠51から遠方に位置する障害物に反射されるので、測定距離Lは所定値以上になる。   For example, while the measurement distance L calculated by the distance measuring sensor 40 based on the reflected wave reflected by the automobile 41 is less than a predetermined value, when the host vehicle 40 reaches the vicinity of the parking frame 51, the distance from the distance measuring sensor 40 is Since the ultrasonic signal is reflected by an obstacle located far from the parking frame 51, the measurement distance L becomes a predetermined value or more.

そこで、測距センサ40の前回の測定距離Lと今回の測定距離Lがそれぞれ所定値未満であるときには、自動車41との間の距離Lを測定して自動車41の駐車枠51側端点41aを検出していないとしてステップS110でNOと判定する。このため、ステップS110の判定を繰り返すことになる。   Therefore, when the previous measurement distance L and the current measurement distance L of the distance measuring sensor 40 are each less than a predetermined value, the distance L to the automobile 41 is measured to detect the end point 41a on the parking frame 51 side of the automobile 41. If it is not, NO is determined in step S110. For this reason, the determination of step S110 is repeated.

一方、測距センサ40の前回の測定距離Lが所定値未満であり、かつ測距センサ40の今回の測定距離Lが所定値以上である場合には、前回の測定距離Lとして、自動車41の駐車枠51側端点41aと測距センサ40との間の距離を測定したと判定する。つまり、自車40がA点から前進してから駐車枠51付近に到達したとしてステップS110でYESと判定することになる。   On the other hand, when the previous measurement distance L of the distance measuring sensor 40 is less than the predetermined value and the current measurement distance L of the distance measuring sensor 40 is greater than or equal to the predetermined value, the previous measurement distance L is set as the vehicle 41. It is determined that the distance between the parking frame 51 side end point 41a and the distance measuring sensor 40 has been measured. That is, it is determined that the vehicle 40 has advanced from the point A and has reached the vicinity of the parking frame 51 in step S110.

次に、ステップS120において、CCDカメラ10を制御して後方の景色を撮影させる。このとき、図4(a)に示すように、CCDカメラ10が、自車40の真後ろの景色、右後方の景色、および左後方の景色を含む後方画像を撮影することになる。   Next, in step S120, the CCD camera 10 is controlled to photograph the rear scenery. At this time, as shown in FIG. 4A, the CCD camera 10 captures a rear image including the scenery directly behind the vehicle 40, the right rear scenery, and the left rear scenery.

次に、ステップS130において、操舵角センサ41の出力信号および車速センサ42の出力信号に基づいて、自車40の位置情報(すなわち、CCDカメラ10の撮影位置)を算出する。   Next, in step S130, based on the output signal of the steering angle sensor 41 and the output signal of the vehicle speed sensor 42, the position information of the own vehicle 40 (that is, the photographing position of the CCD camera 10) is calculated.

次に、ステップS140において、CCDカメラ10の撮影画像からエッジ点を抽出する。本実施形態のエッジ点とは、CCDカメラ10の撮影画像のうち輝度の変化を示す点である。このように撮影画像から抽出された複数のエッジ点に対してトップビュー変換を施す(ステップS150)。つまり、複数のエッジ点を自車40の上側から視た鳥瞰座標上の複数のエッジ点に座標変換する。つまり、撮影画像毎に複数のエッジ点を鳥瞰座標上の複数のエッジ点に座標変換することになる。   Next, in step S140, edge points are extracted from the captured image of the CCD camera 10. The edge point in the present embodiment is a point indicating a change in luminance in the captured image of the CCD camera 10. Thus, top view conversion is performed on the plurality of edge points extracted from the photographed image (step S150). That is, coordinate conversion is performed on a plurality of edge points to a plurality of edge points on the bird's-eye view coordinates viewed from above the host vehicle 40. That is, for each captured image, a plurality of edge points are coordinate-converted to a plurality of edge points on the bird's-eye view coordinates.

ここで、後述するように、駐車枠の検出には複数の撮影画像が用いられる。複数の撮影画像は、撮影画像毎にその撮影位置が異なる。これに加えて、撮影毎の鳥瞰座標はそれぞれ独立して設定されている。このため、撮影画像毎の鳥瞰座標の位置関係が定まっていない。   Here, as will be described later, a plurality of captured images are used for detecting the parking frame. The shooting positions of the plurality of shot images are different for each shot image. In addition to this, the bird's-eye coordinates for each photographing are set independently. For this reason, the positional relationship of bird's-eye coordinates for each captured image is not fixed.

そこで、次のステップS160において、自車41の位置情報(つまり、CCDカメラ10の撮影位置)を用いて上記ステップS150の鳥瞰座標をCCDカメラ10の撮影位置に対応付けるように鳥瞰座標を撮影毎に座標変換する。つまり、上記ステップS150の鳥瞰座標上の複数のエッジ点を撮影画像毎に共通の鳥瞰座標上に写像することになる。このことにより、撮影画像毎の鳥瞰座標の位置関係を撮影画像毎の位置情報を用いて設定することができる。   Therefore, in the next step S160, the bird's-eye coordinates are taken every time the position information of the own vehicle 41 (that is, the shooting position of the CCD camera 10) is used so that the bird's-eye coordinates of the step S150 are associated with the shooting position of the CCD camera 10. Convert coordinates. That is, a plurality of edge points on the bird's-eye coordinates in step S150 are mapped onto the common bird's-eye coordinates for each captured image. Thereby, the positional relationship of the bird's-eye coordinates for each captured image can be set using the positional information for each captured image.

このようにステップS160で座標変換された鳥瞰座標上の複数のエッジ点を共通のハフ空間(パラメータ空間)に投票する(ステップS170)。つまり、前記座標変換された鳥瞰座標上の複数のエッジ点を共通のハフ空間に写像することになる。ハフ空間とは、直線を表すための3次元座標のことである。具体的には、X軸をρとし、Y軸をθとし、Z軸をエッジ点の投票数とする空間である。   A plurality of edge points on the bird's eye coordinate coordinate-transformed in step S160 are voted for a common Hough space (parameter space) (step S170). That is, a plurality of edge points on the bird's-eye coordinates after the coordinate conversion are mapped to a common Hough space. The Hough space is a three-dimensional coordinate for representing a straight line. Specifically, it is a space where the X axis is ρ, the Y axis is θ, and the Z axis is the number of votes of edge points.

ここで、ρおよびθは、二次元のXY座標上の点(xi、yi)を通る直線Aを極座標表現にてρ=xi・cosθ+yi・sinθと表すために用いられるパラメータである。ρは、直線Aへ原点から下ろした垂線の長さを示す第1パラメータである。θは、X軸と垂線とがなす角度を示す第2パラメータである。本実施形態のハフ空間は、駐車枠51を含む撮影領域が対象となっている。撮影領域とはCCDカメラ10によって撮影される領域のことである。このように撮影画像中の複数のエッジ点が共通のハフ空間に投票される。このことにより、撮影画像から直線を検出するための特徴量が算出されることになる。次に、上述のように共通のハフ空間に投票された投票履歴をメモリ20に記憶させる(ステップS180)。   Here, ρ and θ are parameters used to express the straight line A passing through the point (xi, yi) on the two-dimensional XY coordinates as ρ = xi · cos θ + yi · sin θ in the polar coordinate expression. ρ is a first parameter indicating the length of a perpendicular line drawn from the origin to the straight line A. θ is a second parameter indicating the angle formed by the X axis and the perpendicular. The Hough space of the present embodiment is targeted for the shooting area including the parking frame 51. The shooting area is an area shot by the CCD camera 10. In this way, a plurality of edge points in the captured image are voted for a common Hough space. As a result, a feature amount for detecting a straight line from the captured image is calculated. Next, the voting history voted for the common Hough space as described above is stored in the memory 20 (step S180).

次に、ステップS190において、自車40の駐車枠51(つまり駐車空間)付近を通過したか否かを判定する。   Next, in step S190, it is determined whether or not the vehicle 40 has passed near the parking frame 51 (that is, the parking space).

例えば、測距センサ40の測定距離Lが所定値以上であるときには、自車40が駐車枠51付近を前進していると判定して、ステップS190でNOと判定する。   For example, when the measurement distance L of the distance measuring sensor 40 is greater than or equal to a predetermined value, it is determined that the host vehicle 40 is moving forward in the vicinity of the parking frame 51, and NO is determined in step S190.

一方、測距センサ40の測定距離Lが所定値未満になると、測定距離Lとして、自動車42の駐車枠51側端点42aと測距センサ40との間の距離を測定したと判定する。つまり、自車40が駐車枠51を通過して自動車42付近に到達したとしてステップS190でYESと判定することになる。   On the other hand, when the measurement distance L of the distance measuring sensor 40 is less than a predetermined value, it is determined that the distance between the end point 42a on the parking frame 51 side of the automobile 42 and the distance measuring sensor 40 is measured as the measurement distance L. That is, it is determined YES in step S190 that the host vehicle 40 has passed the parking frame 51 and has reached the vicinity of the vehicle 42.

例えば、ステップS190でNOと判定したときには、ステップS120に戻る。このため、自車40の駐車枠51付近を通過するまで、ステップS120のカメラ撮影処理、ステップS130の位置算出処理、ステップS140のエッジ抽出処理、ステップS150のトップビュー変換処理、ステップS160のエッジ座標変換処理、ステップS170のハフ空間投票処理、およびステップS180のメモリ保存処理を繰り返す。   For example, when it is determined NO in step S190, the process returns to step S120. For this reason, until passing the vicinity of the parking frame 51 of the own vehicle 40, the camera photographing process of step S120, the position calculation process of step S130, the edge extraction process of step S140, the top view conversion process of step S150, the edge coordinates of step S160 The conversion process, the Hough space voting process in step S170, and the memory saving process in step S180 are repeated.

以上により、CCDカメラ10の撮影毎に撮影画像から複数のエッジ点を抽出し(ステップS140)、この抽出した複数のエッジ点に対してトップビュー変換を施し(ステップS150)、このトップビュー変換された複数のエッジ点の鳥瞰座標をCCDカメラ10の撮影位置に対応付けるように当該鳥瞰座標を撮影毎に座標変換し(ステップS160)、この座標変換された鳥瞰座標上の複数のエッジ点を共通のハフ空間に投票して(ステップS170)、この投票履歴を投票毎にメモリ20に保存する(ステップS180)。   As described above, a plurality of edge points are extracted from the captured image every time the CCD camera 10 captures the image (step S140), top view conversion is performed on the extracted plurality of edge points (step S150), and the top view is converted. The bird's-eye coordinates are converted for each image so that the bird's-eye coordinates of the plurality of edge points correspond to the shooting positions of the CCD camera 10 (step S160), and the plurality of edge points on the bird's-eye coordinates after the coordinate conversion are shared. Vote in the Hough space (step S170), and save this voting history in the memory 20 for each vote (step S180).

その後、測距センサ40の測定距離Lが所定値未満になると、測定距離Lとして、自動車42の駐車枠51側端点42aと測距センサ40との間の距離を測定したと判定する。つまり、自車40が駐車枠51を通過して自動車42付近に到達したとしてステップS190でYESと判定する。これに伴い、次のステップS200において、変速機44がリバースレンジに設定されているか否かについて変速機44の出力信号に基づいて判定する。つまり、自車40がB点に到達して後退し始めているか否かを判定することになる。   Thereafter, when the measurement distance L of the distance measuring sensor 40 becomes less than a predetermined value, it is determined that the distance between the end point 42a on the parking frame 51 side of the automobile 42 and the distance measuring sensor 40 is measured as the measurement distance L. That is, it is determined YES in step S190 because the own vehicle 40 has passed the parking frame 51 and has reached the vicinity of the automobile 42. Accordingly, in the next step S200, whether or not the transmission 44 is set to the reverse range is determined based on the output signal of the transmission 44. That is, it is determined whether or not the host vehicle 40 has reached point B and is starting to move backward.

このとき、変速機44がリバースレンジ以外のレンジに設定されているときには、ステップS200においてNOと判定して、ステップS200の判定を繰り返すことになる。   At this time, when the transmission 44 is set to a range other than the reverse range, NO is determined in step S200, and the determination in step S200 is repeated.

その後、変速機44がリバースレンジに設定されると、ステップS200においてYESと判定して、次のステップS210において、メモリ20に記憶される投票毎の投票履歴に基づいて駐車枠51を示す直線を図5に示すように検出する。図5は、XY座標上において、ステップS210で検出した駐車枠51を移動軌跡とともに示している。図5中の点線は、A点からB点まで自車40が前進する軌跡、太実線は、B点からC点を経てD点まで自車40が後退する軌跡を示している。直線の検出は、周知であるのでその説明を省略する。   Thereafter, when the transmission 44 is set to the reverse range, YES is determined in step S200, and a straight line indicating the parking frame 51 is determined based on the voting history for each vote stored in the memory 20 in the next step S210. Detection is performed as shown in FIG. FIG. 5 shows the parking frame 51 detected in step S210 along with the movement locus on the XY coordinates. A dotted line in FIG. 5 indicates a trajectory in which the host vehicle 40 moves forward from the point A to the point B, and a thick solid line indicates a trajectory in which the host vehicle 40 moves backward from the point B to the point D through the point C. Since the detection of the straight line is well known, its description is omitted.

このように検出される駐車枠51は、自動駐車制御の目標対象として用いることにより、駐車操作を支援する。自動駐車制御とは、自動的に操舵角を制御して目標対象としての駐車枠51内に自車40を駐車させる制御のことである。これに加えて、図3(c)〜(h)に示すように、駐車枠51をCCDカメラ10の撮影画像に重畳して車室内の表示ディスプレイによって運転者に向けて表示させることにより、運転者の駐車操作を支援する。   The parking frame 51 thus detected assists the parking operation by being used as a target object for automatic parking control. The automatic parking control is control that automatically controls the steering angle to park the vehicle 40 in the parking frame 51 as a target object. In addition to this, as shown in FIGS. 3C to 3H, the parking frame 51 is superimposed on the photographed image of the CCD camera 10 and displayed to the driver by the display in the passenger compartment, thereby driving the vehicle. Support the parking operation.

例えば、図3(c)、図3(d)は、自車40がB点で後退を開始するときの表示ディスプレイの表示画像である。図3(e)、図3(f)は、自車40がC点を通過するときの表示ディスプレイの表示画像である。図3(g)、図3(h)は、自車40がD点に到着したときの表示ディスプレイの表示画像である。   For example, FIG. 3C and FIG. 3D are display images on the display when the host vehicle 40 starts moving backward at point B. FIG. 3E and FIG. 3F are display images on the display when the vehicle 40 passes through the point C. FIGS. 3G and 3H are display images on the display when the host vehicle 40 arrives at point D. FIG.

なお、上述のステップS210において、駐車枠51を示す直線を検出できなかったときには、各種の車両信号を用いて駐車枠51を示す直線を推定する。   In addition, in the above-mentioned step S210, when the straight line indicating the parking frame 51 cannot be detected, the straight line indicating the parking frame 51 is estimated using various vehicle signals.

以上説明した本実施形態によれば、自車40が駐車枠51付近に到達してから自車40が駐車枠51を通過するまで、CCDカメラ10の撮影毎に、撮影画像中のエッジ点を鳥瞰座標上のエッジ点に座標変換し、この座標変換毎にCCDカメラ10の撮影毎の位置情報に基づいて前記座標変換されたエッジ点の座標を撮影毎の位置情報に対応付けるように座標変換し、かつこの座標変換された鳥瞰座標上のエッジ点を共通のハフ空間にCCDカメラ10の撮影毎に投票する。この投票毎に投票の履歴をメモリ20に記憶させる。このことにより、駐車枠51を示す直線を検出するためにメモリ20には、投票毎の投票の履歴が記憶される。このため、撮影画像が繰り返しメモリ20に記憶される場合に比べて、メモリ20の使用容量を減らすことができる。以上により、駐車支援装置1におけるメモリ20の使用容量の増大化を抑えることができる。   According to the present embodiment described above, the edge point in the captured image is determined every time the CCD camera 10 captures until the vehicle 40 passes through the parking frame 51 after the vehicle 40 reaches the vicinity of the parking frame 51. The coordinates are converted into edge points on the bird's-eye coordinates, and the coordinates of the edge points that have been coordinate-converted are correlated with the position information for each photographing based on the positional information for each photographing of the CCD camera 10 for each coordinate transformation. In addition, the edge points on the bird's-eye coordinates that have been subjected to the coordinate conversion are voted for each photographing of the CCD camera 10 in a common Hough space. The voting history is stored in the memory 20 for each vote. Thus, the voting history for each vote is stored in the memory 20 in order to detect a straight line indicating the parking frame 51. For this reason, compared with the case where a picked-up image is repeatedly memorize | stored in the memory 20, the use capacity of the memory 20 can be reduced. As described above, an increase in the used capacity of the memory 20 in the parking assistance device 1 can be suppressed.

本実施形態では、駐車枠51を検出する際に、撮影画像中の複数のエッジ点を鳥瞰変換して、この鳥瞰変換された複数のエッジ点を用いて共通のハフ空間に投票する。   In the present embodiment, when the parking frame 51 is detected, a plurality of edge points in the captured image are bird-eye-transformed, and a vote is given to a common Hough space using the plurality of edge points that have been bird-eye-transformed.

ここで、駐車枠51と駐車枠51に隣接する自動車41(或いは自動車42)との間の距離が非常に小さい場合には、撮影画像中の複数のエッジ点を鳥瞰変換することなく、複数のエッジ点をハフ空間に投票すると、駐車枠51が自動車41(或いは自動車42)の影になり、この影となった駐車枠51のエッジ点を抽出することができなくなる。このため、駐車枠51を示す複数のエッジ点をハフ空間に投票することができなくなり、駐車枠51を良好に検出することができない場合がある。   Here, when the distance between the parking frame 51 and the automobile 41 (or the automobile 42) adjacent to the parking frame 51 is very small, a plurality of edge points in the captured image are converted to a plurality of points without performing bird's-eye conversion. If the edge point is voted on the Hough space, the parking frame 51 becomes a shadow of the automobile 41 (or the automobile 42), and the edge point of the parking frame 51 that becomes the shadow cannot be extracted. For this reason, it becomes impossible to vote a plurality of edge points which show parking frame 51 to Hough space, and parking frame 51 may not be detected favorably.

これに対して、本実施形態では、上述の如く、撮影画像中の複数のエッジ点を鳥瞰変換して、この鳥瞰変換された複数のエッジ点を用いて共通のハフ空間に投票する。このため、駐車枠51のエッジ点が自動車41(或いは自動車42)の影になり難くなる。これにより、駐車枠51とそれに隣接する自動車41(或いは自動車42)との間の距離が非常に小さい場合でも、駐車枠51のエッジ点がハフ空間に投票することができるので、駐車枠51を良好に検出することができる。   On the other hand, in the present embodiment, as described above, a plurality of edge points in the photographed image are subjected to bird's-eye conversion, and the plurality of edge points subjected to bird's-eye conversion are voted on a common Hough space. For this reason, it becomes difficult for the edge point of the parking frame 51 to become a shadow of the automobile 41 (or the automobile 42). Thereby, even when the distance between the parking frame 51 and the automobile 41 (or the automobile 42) adjacent thereto is very small, the edge point of the parking frame 51 can vote for the Hough space. It can be detected well.

本実施形態では、ステップS140において、CCDカメラ10の撮影画像からエッジ点を抽出し、その後のステップS150で、この抽出された複数のエッジ点に対してトップビュー変換を実施する。このため、CCDカメラ10の撮影画像に対してトップビュー変換し、このトップビュー変換された撮影画像からエッジ点を抽出する場合に比べて、画像処理の処理量を減らすことができる。   In this embodiment, in step S140, edge points are extracted from the captured image of the CCD camera 10, and in step S150, top view conversion is performed on the extracted edge points. Therefore, it is possible to reduce the amount of image processing compared to a case where the top view conversion is performed on the captured image of the CCD camera 10 and an edge point is extracted from the top view converted captured image.

(第2実施形態)
上述の第1実施形態では、測距センサ40の測定距離Lを用いて自車40が駐車枠51付近を走行するときだけハフ空間への投票を実施してメモリ20の使用容量を減らすようにした例について説明したが、測距センサ40の測定距離Lを用いない場合にメモリ20の使用容量を減らす例について説明する。
(Second Embodiment)
In the first embodiment described above, the use of the memory 20 is reduced by voting to the Hough space only when the vehicle 40 travels in the vicinity of the parking frame 51 using the measurement distance L of the distance measuring sensor 40. The example of reducing the used capacity of the memory 20 when the measurement distance L of the distance measuring sensor 40 is not used will be described.

図6に本実施形態の駐車枠検出処理のフローチャートを示す。マイクロコンピュータ30は、図4のフローチャートに代わる図6のフローチャートにしたがって、駐車枠検出処理を実行する。   FIG. 6 shows a flowchart of the parking frame detection process of the present embodiment. The microcomputer 30 executes the parking frame detection process according to the flowchart of FIG. 6 instead of the flowchart of FIG.

まず、本実施形態の駐車枠検出処理の詳細の説明に先立って、本実施形態の駐車枠検出処理で用いるハフ空間について説明する。   First, prior to the detailed description of the parking frame detection process of the present embodiment, the Hough space used in the parking frame detection process of the present embodiment will be described.

本実施形態の駐車枠検出処理では、共通のハフ空間ではなく、複数のハフ空間が設定される。   In the parking frame detection process of the present embodiment, a plurality of hough spaces are set instead of a common hough space.

具体的には、自車40が所定距離、進行する毎に自車40の位置情報に対応する撮影領域を対象とするハフ空間を設定する。撮影領域とは、CCDカメラ10により撮影される領域のことである。このことにより、複数のハフ空間の撮影領域が、自車40の進行方向に所定距離毎に並べられることになる。複数のハフ空間の撮影領域は、それぞれ、自車40の位置から自車40の進行方向に対する直交方向に伸びる長方形状(短冊状)に設定されている。   Specifically, every time the host vehicle 40 travels a predetermined distance, a Hough space is set for the imaging region corresponding to the position information of the host vehicle 40. The shooting area is an area shot by the CCD camera 10. As a result, the imaging areas of the plurality of Hough spaces are arranged at predetermined distances in the traveling direction of the host vehicle 40. The imaging regions of the plurality of Hough spaces are each set in a rectangular shape (strip shape) extending from the position of the host vehicle 40 in a direction orthogonal to the traveling direction of the host vehicle 40.

ここで、所定距離は、ハフ空間を設定する走行距離の基準値であって、例えば、1メートルである。所定距離は短くなるほど、順次設定されるハフ空間の個数が増えるため、ハフ空間に対する投票履歴を保存するメモリ20の容量を大きくすることが必要になる。このため、使用されるメモリ20の容量に応じて、所定距離が設定される。   Here, the predetermined distance is a reference value of the travel distance for setting the Hough space, and is, for example, 1 meter. As the predetermined distance becomes shorter, the number of Hough spaces that are sequentially set increases, so it is necessary to increase the capacity of the memory 20 that stores the voting history for the Hough space. For this reason, the predetermined distance is set according to the capacity of the memory 20 to be used.

さらに、本実施形態では、複数のハフ空間のうち互いに隣接する2つのハフ空間の撮影領域は、互いにオーバーラップするように設定されている。   Further, in the present embodiment, the imaging regions of two adjacent Hough spaces among the plurality of Hough spaces are set to overlap each other.

図7では、自車40がA点からB点に向けて前進する際にハフ空間N、ハフ空間N+1、ハフ空間N+2、ハフ空間N+3を順次設定する例を示している。ハフ空間Nおよびハフ空間N+1は、互いの撮影領域がオーバーラップする。ハフ空間N+1およびハフ空間N+2は、互いの撮影領域がオーバーラップする。ハフ空間N+2およびハフ空間N+3は、互いの撮影領域がオーバーラップする。   FIG. 7 shows an example in which the Hough space N, the Hough space N + 1, the Hough space N + 2, and the Hough space N + 3 are sequentially set when the host vehicle 40 moves forward from the A point toward the B point. In the Hough space N and the Hough space N + 1, the shooting areas overlap each other. In the Hough space N + 1 and the Hough space N + 2, the shooting areas overlap each other. In the Hough space N + 2 and the Hough space N + 3, the shooting areas overlap each other.

ここで、Nは1以上の整数である。ハフ空間Nは、N番目に設定されるハフ空間を示し、ハフ空間N+1は、N+1番目に設定されるハフ空間を示し、ハフ空間N+2は、N+2番目に設定されるハフ空間を示し、ハフ空間N+3は、N+3番目に設定されるハフ空間を示している。   Here, N is an integer of 1 or more. The Hough space N indicates the Nth set Hough space, the Hough space N + 1 indicates the N + 1th set Hough space, the Hough space N + 2 indicates the N + 2 set Hough space, and the Hough space. N + 3 indicates a Hough space set as the (N + 3) th.

次に、本実施形態の駐車枠検出処理の具体例として、図7に示すように自車40が駐車枠51の付近をA点からB点に向けて前進する例について説明する。図6において、図4と同一符号は同一ステップを示し、その説明を簡略化する。駐車枠検出処理の実行は、駐車開始スイッチ43をオンしたときに開始される。   Next, as a specific example of the parking frame detection process of this embodiment, an example in which the host vehicle 40 moves forward from the point A to the point B as shown in FIG. 7 will be described. 6, the same reference numerals as those in FIG. 4 denote the same steps, and the description thereof will be simplified. The execution of the parking frame detection process is started when the parking start switch 43 is turned on.

まず、ステップS120において、CCDカメラ10によって後方の景色を撮影させる。次に、ステップS130において、操舵角センサ41の出力信号および車速センサ42の出力信号に基づいて、自車40の位置情報を算出する。次に、ステップS140において、CCDカメラ10の撮影画像からエッジ点を抽出する。次に、このように撮影画像から抽出された複数のエッジ点に対してトップビュー変換を施す(ステップS150)。   First, in step S120, the rear scene is photographed by the CCD camera 10. Next, in step S130, based on the output signal of the steering angle sensor 41 and the output signal of the vehicle speed sensor 42, position information of the host vehicle 40 is calculated. Next, in step S140, edge points are extracted from the captured image of the CCD camera 10. Next, top view conversion is performed on the plurality of edge points extracted from the captured image in this way (step S150).

その後、ステップS160において、自車41の位置情報を用いて上記ステップS150の鳥瞰座標をCCDカメラ10の撮影位置に対応付けるように鳥瞰座標を撮影毎に座標変換する。このようにステップS160で座標変換された鳥瞰座標上の複数のエッジ点をハフ空間1、およびハフ空間2のそれぞれに投票する(ステップS170A、S170B)。ハフ空間1およびハフ空間2は、ハフ空間として予め設定されるものである。ハフ空間1は、1番目に設定されるハフ空間である。ハフ空間2は、2番目に設定されるハフ空間である。このようにハフ空間1およびハフ空間2に投票された投票履歴をメモリ20に記憶させる(ステップS180)。   Thereafter, in step S160, the bird's-eye coordinates are coordinate-converted for each photographing so that the bird's-eye coordinates in step S150 are associated with the photographing position of the CCD camera 10 using the position information of the own vehicle 41. In this way, the plurality of edge points on the bird's-eye coordinates transformed in step S160 are voted to the Hough space 1 and the Hough space 2, respectively (Steps S170A and S170B). The Hough space 1 and the Hough space 2 are preset as Hough spaces. The Hough space 1 is the first set Hough space. The Hough space 2 is a Hough space set second. Thus, the voting history voted for the Hough space 1 and the Hough space 2 is stored in the memory 20 (step S180).

次に、ステップS220において、駐車開始スイッチ43がオンされてから、自車40が所定距離(例えば、1メートル)以上走行したか否かを判定する。   Next, in step S220, after the parking start switch 43 is turned on, it is determined whether or not the host vehicle 40 has traveled more than a predetermined distance (for example, 1 meter).

具体的には、操舵角センサ41の出力信号および車速センサ42の出力信号に基づいて自車40の位置情報を求め、この位置情報から自車40が走行距離を求める。そして、走行距離が所定距離未満であるときには、NOと判定して、ステップS120に戻る。   Specifically, the position information of the own vehicle 40 is obtained based on the output signal of the steering angle sensor 41 and the output signal of the vehicle speed sensor 42, and the own vehicle 40 obtains the travel distance from this position information. When the travel distance is less than the predetermined distance, it is determined as NO and the process returns to step S120.

その後、走行距離が所定距離以上になるまで、ステップS120のCCDカメラ10撮影処理、ステップS130の位置情報算出処理、ステップS140のエッジ点抽出処理、ステップS150のトップビュー変換処理、ステップS160座標変換処理、ステップS170A、S170Bの投票処理、ステップS180の投票履歴保存処理、およびステップS220のNO判定処理を繰り返す。   Thereafter, until the traveling distance becomes equal to or greater than the predetermined distance, the CCD camera 10 photographing process in step S120, the position information calculation process in step S130, the edge point extraction process in step S140, the top view conversion process in step S150, and the step S160 coordinate conversion process The voting process in steps S170A and S170B, the voting history saving process in step S180, and the NO determination process in step S220 are repeated.

このため、CCDカメラ10の撮影毎に撮影画像から複数のエッジ点を抽出し(ステップS140)、この抽出した複数のエッジ点に対してトップビュー変換を施し(ステップS150)、このトップビュー変換された複数のエッジ点の鳥瞰座標をCCDカメラ10の撮影位置に対応付けるように当該鳥瞰座標を撮影毎に座標変換し(ステップS160)、この座標変換された鳥瞰座標上の複数のエッジ点を撮影毎にハフ空間1およびハフ空間2に対して投票し(ステップS170A、S170B)、この投票毎に投票履歴をメモリ20に保存する(S180)。   Therefore, a plurality of edge points are extracted from the captured image every time the CCD camera 10 captures (step S140), top view conversion is performed on the extracted plurality of edge points (step S150), and the top view is converted. Then, the bird's-eye view coordinates of the plurality of edge points are coordinate-converted for each photographing so as to correspond to the photographing positions of the CCD camera 10 (step S160), and the plurality of edge points on the coordinate-converted bird's-eye coordinates are photographed. Next, the voting space 1 and the Hough space 2 are voted (steps S170A and S170B), and the voting history is stored in the memory 20 for each voting (S180).

その後、走行距離が所定距離以上になると、ステップS220でYESと判定する。これに伴い、ステップS230に進んで、ステップS170A、S170Bで投票対象となるハフ空間の番号をそれぞれインクリメントする。すなわち、自車40の位置に対応するハフ空間3を新たに設定することになる。このため、ステップS170Aで投票対象となるハフ空間をハフ空間2として、ステップS170Bで投票対象となるハフ空間をハフ空間3とする。このとき、ハフ空間3に対応する自車40の位置情報をメモリ20に記憶させる。   Thereafter, when the travel distance is equal to or greater than the predetermined distance, YES is determined in step S220. Accordingly, the process proceeds to step S230, and the number of the Hough space to be voted is incremented in steps S170A and S170B. That is, the Hough space 3 corresponding to the position of the own vehicle 40 is newly set. Therefore, the Hough space to be voted in step S170A is referred to as Hough space 2, and the Hough space to be voted in Step S170B is referred to as Hough space 3. At this time, the position information of the vehicle 40 corresponding to the Hough space 3 is stored in the memory 20.

その後、ステップS240において、メモリ20のうち投票履歴が記憶される記憶容量が規定容量以上か否かを判定する。このとき、メモリ20のうち投票履歴が記憶される記憶容量が規定容量未満であるときには、ステップS240でNOと判定して、次のステップS200に進む。このとき、変速機44がリバースレンジに設定されているか否かについて変速機44の出力信号に基づいて判定する。このとき、変速機44がリバースレンジ以外のレンジに設定されているときには、ステップS200においてNOと判定して、ステップS120に戻る。   Thereafter, in step S240, it is determined whether or not the storage capacity of the memory 20 in which the voting history is stored is greater than or equal to the specified capacity. At this time, when the storage capacity of the memory 20 in which the voting history is stored is less than the specified capacity, NO is determined in step S240, and the process proceeds to the next step S200. At this time, whether or not the transmission 44 is set to the reverse range is determined based on the output signal of the transmission 44. At this time, when the transmission 44 is set to a range other than the reverse range, NO is determined in step S200, and the process returns to step S120.

その後、ステップS120、S130、S140、S150、S160、S170A、S170B、S180のそれぞれの処理を実行してからステップS220に進む。このステップS220では、前回にステップS220でYESと判定してから所定距離(例えば、1メートル)以上走行したか否かを判定する。前回にステップS220でYESと判定してから自車40が走行した走行距離が所定距離未満であるときには、今回のステップS220でNOと判定して、ステップS120に戻る。   After that, each process of steps S120, S130, S140, S150, S160, S170A, S170B, and S180 is executed, and then the process proceeds to step S220. In this step S220, it is determined whether or not the vehicle has traveled more than a predetermined distance (for example, 1 meter) since it was previously determined as YES in step S220. If the travel distance traveled by the vehicle 40 is less than the predetermined distance since the previous determination in step S220 as YES, the determination in step S220 is NO and the process returns to step S120.

その後、前回にステップS220でYESと判定してから自車40が走行した走行距離が所定距離未満である限り、次回にステップS220でYESと判定されるまで、ステップS120、S130、S140、S150、S160、S170A、S170B、S180のそれぞれの処理、およびステップS220のNO判定処理を繰り返すことになる。   After that, as long as the travel distance traveled by the vehicle 40 is less than the predetermined distance from the previous determination in step S220 as YES, steps S120, S130, S140, S150, until the next determination in step S220 is YES. Each process of S160, S170A, S170B, and S180 and the NO determination process of step S220 are repeated.

このため、上記ステップS160で座標変換された鳥瞰座標上の複数のエッジ点をハフ空間2およびハフ空間3に対してCCDカメラ10の撮影毎に投票する(ステップS170A、S170B)。このようにハフ空間2およびハフ空間3に投票された投票履歴をCCDカメラ10の撮影毎にメモリ20に記憶させることになる(ステップS180)。   For this reason, a plurality of edge points on the bird's eye coordinate coordinate-transformed in step S160 are voted for the Hough space 2 and Hough space 3 every time the CCD camera 10 is photographed (Steps S170A and S170B). Thus, the voting history voted for the Hough space 2 and the Hough space 3 is stored in the memory 20 every time the CCD camera 10 is photographed (step S180).

その後、前回にステップS220でYESと判定してから自車40が走行した走行距離が所定距離以上になると、次にステップS220においてYESと判定する。   Thereafter, if the travel distance traveled by the vehicle 40 after a determination of YES in step S220 last time becomes equal to or greater than a predetermined distance, it is determined in step S220 to be YES.

次にステップS230において、ステップS170A、S170Bで投票対象となるハフ空間の番号をそれぞれインクリメントする。すなわち、自車40の位置に対応するハフ空間4を新たに設定することになる。このため、ステップS170Aで投票対象となるハフ空間をハフ空間3として、ステップS170Bで投票対象となるハフ空間をハフ空間4とする。このとき、ハフ空間4に対応する自車40の位置情報をメモリ20に記憶させる。   In step S230, the number of the Hough space to be voted is incremented in steps S170A and S170B. That is, the Hough space 4 corresponding to the position of the own vehicle 40 is newly set. For this reason, the Hough space to be voted in step S170A is referred to as Hough space 3, and the Hough space to be voted in Step S170B is referred to as Hough space 4. At this time, the position information of the vehicle 40 corresponding to the Hough space 4 is stored in the memory 20.

このことにより、ステップS220でYESと判定される回数(以下、単に判定回数という)が2回目であるときには、CCDカメラ10の撮影毎にハフ空間3およびハフ空間4に対して投票し、この投票毎にその投票履歴をメモリ20に記憶させることになる(ステップS180)。   Thus, when the number of times YES is determined in step S220 (hereinafter simply referred to as the number of times of determination) is voted for the Hough space 3 and Hough space 4 for each photographing by the CCD camera 10, this vote Every time, the voting history is stored in the memory 20 (step S180).

その後、ステップS240において、メモリ20のうち投票履歴が記憶される記憶容量が規定容量以上か否かを判定する。このとき、メモリ20のうち投票履歴が記憶される記憶容量が規定容量未満あるときには、ステップS240でNOと判定して、次のステップS200に進む。このとき、変速機44がリバースレンジ以外のレンジに設定されているときには、NOと判定して、ステップS120に戻る。   Thereafter, in step S240, it is determined whether or not the storage capacity of the memory 20 in which the voting history is stored is greater than or equal to the specified capacity. At this time, when the storage capacity of the memory 20 in which the voting history is stored is less than the prescribed capacity, NO is determined in step S240, and the process proceeds to the next step S200. At this time, when the transmission 44 is set to a range other than the reverse range, it is determined as NO, and the process returns to step S120.

このため、次にステップS220でYESと判定するまで、ステップS120、S130、S140、S150、S160、S170A、S170B、S180のそれぞれの処理、およびステップS220のNO判定処理を繰り返すことになる。このため、上記ステップS160で座標変換された鳥瞰座標上の複数のエッジ点をハフ空間3およびハフ空間4に対してCCDカメラ10の撮影毎に投票する(ステップS170A、S170B)。このようにハフ空間2およびハフ空間3に投票された投票履歴をCCDカメラ10の撮影毎にメモリ20に記憶させることになる(ステップS180)。   For this reason, the processes in steps S120, S130, S140, S150, S160, S170A, S170B, and S180 and the NO determination process in step S220 are repeated until it is determined as YES in step S220. For this reason, a plurality of edge points on the bird's eye coordinate coordinate-converted in step S160 are voted for the Hough space 3 and the Hough space 4 every time the CCD camera 10 is photographed (Steps S170A and S170B). Thus, the voting history voted for the Hough space 2 and the Hough space 3 is stored in the memory 20 every time the CCD camera 10 is photographed (step S180).

その後、3回目にステップS220でYESと判定されると、次のステップS230において、ステップS170Aで投票対象となるハフ空間をハフ空間4として、ステップS170Bで投票対象となるハフ空間をハフ空間5とする。このとき、ハフ空間5に対応する自車40の位置情報をメモリ20に記憶させる。   Thereafter, when YES is determined in step S220 for the third time, in the next step S230, the Hough space to be voted is determined to be Hough space 4 in Step S170A, and the Hough space to be voted is determined to be Hough space 5 in Step S170B. To do. At this time, the position information of the vehicle 40 corresponding to the Hough space 5 is stored in the memory 20.

その後、ステップS240において、メモリ20のうち投票履歴が記憶される記憶容量が規定容量以上か否かを判定する。このとき、メモリ20のうち投票履歴が記憶される記憶容量が規定容量以上であるときには、ステップS240でYESと判定して、ステップS250に進む。これに伴い、メモリ20において記憶される複数のハフ空間の履歴のうち最も古いタイミングで投票されるハフ空間の履歴を初期化する。例えば、メモリ20において、ハフ空間1、ハフ空間2、ハフ空間3、ハフ空間4のそれぞれの履歴が記憶されている場合には、最も古いタイミングで投票されるハフ空間1の履歴が消去される。   Thereafter, in step S240, it is determined whether or not the storage capacity of the memory 20 in which the voting history is stored is greater than or equal to the specified capacity. At this time, if the storage capacity of the memory 20 in which the voting history is stored is equal to or greater than the specified capacity, YES is determined in step S240, and the process proceeds to step S250. Accordingly, the history of the Hough space voted at the oldest timing among the history of the plurality of Hough spaces stored in the memory 20 is initialized. For example, when the histories of the Hough space 1, the Hough space 2, the Hough space 3, and the Hough space 4 are stored in the memory 20, the history of the Hough space 1 voted at the oldest timing is deleted. .

次のステップS200において、変速機44がリバースレンジ以外のレンジに設定されているとき、NOと判定してステップS120に戻る。その後、ステップS120、S130、S140、S150、S160の処理を経て、上記ステップS160で座標変換された鳥瞰座標上の複数のエッジ点をハフ空間4およびハフ空間5に対して投票する(ステップS170A、S170B)。このようにハフ空間4およびハフ空間5に投票された投票履歴をCCDカメラ10の撮影毎にメモリ20に記憶させる(ステップS180)。このとき、メモリ20においてハフ空間1の投票履歴に代えてハフ空間5の投票履歴が記憶されることになる。そして、ステップS220のNO判定処理(或いはYES判定処理)、ステップS230、ステップS240のNO判定処理(或いはステップS240のYES判定処理およびステップS250)、およびステップS200のNO判定を実施する。   In the next step S200, when the transmission 44 is set to a range other than the reverse range, NO is determined and the process returns to step S120. After that, through the processes of steps S120, S130, S140, S150, and S160, a plurality of edge points on the bird's eye coordinate coordinate-converted in step S160 are voted for the Hough space 4 and the Hough space 5 (Step S170A, S170B). Thus, the voting history voted for the Hough space 4 and the Hough space 5 is stored in the memory 20 every time the CCD camera 10 captures the image (Step S180). At this time, the voting history of the Hough space 5 is stored in the memory 20 instead of the voting history of the Hough space 1. Then, a NO determination process (or YES determination process) in step S220, a NO determination process in step S230, a step S240 (or YES determination process in step S240 and step S250), and a NO determination in step S200 are performed.

その後、変速機44がリバースレンジ以外のレンジに設定されている限り、ステップS120、S130、S140、S150、S160、S170A、S170B、S180、およびステップS220のNO判定処理(或いはYES判定処理)、ステップS230、ステップS240のNO判定処理(或いはステップS240のYES判定処理およびステップS250)、およびステップS200のNO判定を繰り返す。   Thereafter, as long as the transmission 44 is set to a range other than the reverse range, the NO determination process (or YES determination process) of steps S120, S130, S140, S150, S160, S170A, S170B, S180, and step S220, step S230, NO determination processing in step S240 (or YES determination processing in step S240 and step S250), and NO determination in step S200 are repeated.

例えば、判定回数がN−1回であるときには、CCDカメラ10の撮影毎に、上記ステップS160で座標変換された鳥瞰座標上の複数のエッジ点をハフ空間Nとおよびハフ空間N+1に投票する(ステップS170A、170B)。   For example, when the number of determinations is N−1, a plurality of edge points on the bird's-eye coordinate coordinate-converted in step S160 are voted for the Hough space N and the Hough space N + 1 every time the CCD camera 10 captures ( Steps S170A and 170B).

一方、判定回数がN回であるときには、CCDカメラ10の撮影毎に、上記ステップS160で座標変換された鳥瞰座標上の複数のエッジ点をハフ空間N+1とおよびハフ空間N+2に投票する(ステップS170A、170B)。このように投票されるハフ空間の投票履歴はメモリ20に記憶される(ステップS180)。   On the other hand, when the number of determinations is N, the plurality of edge points on the bird's eye coordinate coordinate-converted in step S160 are voted for the Hough space N + 1 and the Hough space N + 2 every time the CCD camera 10 captures the image (Step S170A). 170B). The voting history of the Hough space voted in this way is stored in the memory 20 (step S180).

例えば、メモリ20において、ハフ空間N−1、ハフ空間N、ハフ空間N+1、ハフ空間N+2のそれぞれの投票履歴が記憶されている場合において、次のステップS220でYESと判定後に、ステップS230に進むと、ステップS170Aで投票対象となるハフ空間をハフ空間N+2として、ステップS170Bで投票対象となるハフ空間をハフ空間N+3とする。このとき、ハフ空間N+3に対応する自車40の位置情報をメモリ20に記憶させる。つまり、ハフ空間が設定される毎にこの設定されるハフ空間に対応する自車40の位置情報をメモリ20に記憶させる。   For example, when the voting history of each of the Hough space N−1, Hough space N, Hough space N + 1, and Hough space N + 2 is stored in the memory 20, the process proceeds to Step S230 after determining YES in Step S220. In step S170A, the Hough space to be voted is set as Hough space N + 2, and in Step S170B, the Hough space to be voted is set as Hough space N + 3. At this time, the position information of the host vehicle 40 corresponding to the Hough space N + 3 is stored in the memory 20. That is, every time the Hough space is set, the position information of the vehicle 40 corresponding to the set Hough space is stored in the memory 20.

その後、ステップS240に移行すると、次のようにメモリ20のうち投票履歴を初期化する。すなわち、メモリ20のうち投票履歴が記憶される記憶容量が規定容量以上であるとしてステップS240でYESと判定したときには、メモリ20において、ハフ空間N−1、ハフ空間N、ハフ空間N+1、ハフ空間N+2のうち最も古いタイミングで投票されるハフ空間N−1の履歴を消去する(ステップS200)。   Thereafter, when the process proceeds to step S240, the voting history is initialized in the memory 20 as follows. That is, if the memory 20 stores the voting history in the memory 20 and the determination is YES in step S240, the memory 20 stores the Hough space N−1, the Hough space N, the Hough space N + 1, and the Hough space. The history of the Hough space N-1 voted at the oldest timing among N + 2 is deleted (step S200).

その後、ステップS200においてNOと判定した場合に、ステップS120、S130、S140、S150、S160の処理を経て、上記ステップS160で座標変換された鳥瞰座標上の複数のエッジ点をハフ空間N+2およびハフ空間N+3に対して投票する(ステップS170A、S170B)。このようにハフ空間N+2およびハフ空間N+3に投票された投票履歴をCCDカメラ10の撮影毎にメモリ20に記憶させる(ステップS180)。このとき、メモリ20においてハフ空間N−1の投票履歴に代えてハフ空間N+3の投票履歴が記憶されることになる。そして、ステップS220のNO判定処理(或いはYES判定処理)、ステップS230、ステップS240のNO判定処理(或いはステップS240のYES判定処理およびステップS250)を実施する。   After that, when it is determined as NO in step S200, a plurality of edge points on the bird's eye coordinate converted in step S160 are processed through steps S120, S130, S140, S150, and S160, and the Hough space N + 2 and the Hough space Vote for N + 3 (steps S170A, S170B). Thus, the voting history voted for the Hough space N + 2 and the Hough space N + 3 is stored in the memory 20 every time the CCD camera 10 is photographed (step S180). At this time, the voting history of the Hough space N + 3 is stored in the memory 20 instead of the voting history of the Hough space N-1. Then, the NO determination process (or YES determination process) in step S220, the NO determination process in step S230 and step S240 (or the YES determination process in step S240 and step S250) are performed.

その後、変速機44がリバースレンジに設定されると、ステップS200でYESと判定して、次のステップS260に移行する。例えば、ハフ空間N、ハフ空間N+1、ハフ空間N+2、およびハフ空間N+3のそれぞれ投票履歴がメモリ20に記憶されている場合において、メモリ20に記憶されるハフ空間N、ハフ空間N+1、ハフ空間N+2、およびハフ空間N+3に対応する自車40の位置情報を用いて、ハフ空間N、ハフ空間N+1、ハフ空間N+2、およびハフ空間N+3のそれぞれ投票履歴を共通のハフ空間に写像する。   Thereafter, when the transmission 44 is set to the reverse range, YES is determined in the step S200, and the process proceeds to the next step S260. For example, when the voting history of the Hough space N, Hough space N + 1, Hough space N + 2, and Hough space N + 3 is stored in the memory 20, the Hough space N, Hough space N + 1, and Hough space N + 2 stored in the memory 20, respectively. And the voting history of Hough space N, Hough space N + 1, Hough space N + 2, and Hough space N + 3 is mapped to a common Hough space using position information of own vehicle 40 corresponding to Hough space N + 3.

ここで、共通のハフ空間の撮影領域は、ハフ空間N、ハフ空間N+1、ハフ空間N+2、およびハフ空間N+3をそれぞれの撮影領域を全てカバーする領域である。   Here, the shooting area of the common Hough space is an area that covers all of the shooting areas of Hough space N, Hough space N + 1, Hough space N + 2, and Hough space N + 3.

このよう共通のハフ空間への写像により、ハフ空間N、ハフ空間N+1、ハフ空間N+2、およびハフ空間N+3が統合されることになる。その後、ステップS210において、上記共通のハフ空間に写像された投票履歴から駐車枠51を示す直線を検出する。   By mapping to the common Hough space, the Hough space N, Hough space N + 1, Hough space N + 2, and Hough space N + 3 are integrated. Thereafter, in step S210, a straight line indicating the parking frame 51 is detected from the voting history mapped to the common hough space.

以上説明した本実施形態によれば、メモリ20に記憶される複数のハフ空間の投票履歴のうち最も古いタイミングで投票されるハフ空間の投票履歴に代えて最も新しいタイミングで投票されたハフ空間の投票履歴が記憶される。このことにより、メモリ20において複数のハフ空間の投票履歴を記憶する際に使用される記憶容量が制限されることになる。そして、自動変速機の変速レンジがリバースレンジに設定されると、メモリ20に記憶される複数のハフ空間の投票履歴をそれぞれ共通のハフ空間に写像し、この写像された投票履歴から駐車枠51を示す直線を検出する。このため、撮影画像が繰り返しメモリに記憶される場合に比べて、メモリの使用容量を減らすことができる。以上により、上記第1実施形態と同様に、駐車支援装置1におけるメモリ20の使用容量の増大化を抑えることができる。   According to this embodiment described above, instead of the voting history of the Hough space voted at the oldest timing among the voting histories of the plurality of Hough spaces stored in the memory 20, the Hough space voted at the latest timing is used. The voting history is stored. This limits the storage capacity used when storing the voting history of a plurality of Hough spaces in the memory 20. When the shift range of the automatic transmission is set to the reverse range, the voting histories of the plurality of Hough spaces stored in the memory 20 are mapped to a common Hough space, and the parking frame 51 is determined from the mapped voting history. A straight line indicating is detected. For this reason, compared with the case where a picked-up image is repeatedly memorize | stored in memory, the use capacity of memory can be reduced. By the above, like the said 1st Embodiment, the increase in the usage capacity of the memory 20 in the parking assistance apparatus 1 can be suppressed.

本実施形態では、判定回数がN−1回であるときと、判定回数がN回であるときとのいずれのときにも、CCDカメラ10の撮影毎にN+1番目のハフ空間に鳥瞰座標上のエッジ点を投票する。このため、判定回数がN−1回であるときにハフ空間Nだけに投票し、かつ判定回数がN回であるときに投票手段がハフ空間N+1だけに投票する場合に比べて、N+1番目のハフ空間に投票される投票数を増やすことができる。   In this embodiment, when the number of determinations is N−1 times and when the number of determinations is N times, the N + 1-th Hough space is displayed on the bird's-eye coordinate system every time the CCD camera 10 captures images. Vote for edge points. For this reason, when the number of determinations is N−1, only the Hough space N is voted, and when the number of determinations is N, the voting means votes only for the Hough space N + 1. The number of votes cast in the Hough space can be increased.

ここで、ハフ空間において、投票数が多い点のρおよびθが撮影画像上の直線を表している。このため、上述の如く、N+1番目のハフ空間に投票される投票数を増やすことにより、N+1番目のハフ空間において、直線を表すρおよびθが投票数によって明確に表されることになる。これにより、直線の検出を容易に行うことができる。   Here, in the Hough space, ρ and θ at points with a large number of votes represent straight lines on the captured image. Therefore, as described above, by increasing the number of votes voted for the (N + 1) th Hough space, ρ and θ representing a straight line are clearly represented by the number of votes in the (N + 1) th Hough space. Thereby, a straight line can be easily detected.

本実施形態では、自車40の進行方向に並ぶ複数のハフ空間のうち隣接する2つのハフ空間は、互いにオーバーラップしている。このため、CCDカメラ10の撮影領域のうち、複数のハフ空間の対象から外れる領域が生じることを避けることができる。   In the present embodiment, two adjacent Hough spaces among a plurality of Hough spaces arranged in the traveling direction of the host vehicle 40 overlap each other. For this reason, it can avoid that the area | region which remove | deviates from the object of several Hough space among the imaging | photography area | regions of CCD camera 10 arises.

(他の実施形態)
上述の第1、第2実施形態では、直線を表すための第1パラメータをρとし、直線を表すための第2パラメータをθとして、X軸をρ、Y軸をθ、Z軸をエッジ点の投票数とする空間をハフ空間とする例について説明したが、これに代えて、直線を表すための第1パラメータを傾きaとし、直線を表すための第2パラメータを切片bとして、X軸を傾きa、Y軸を切片b、およびZ軸をエッジ点の投票数とする空間をハフ空間としてもよい。ここで、傾きaおよび切片bは、二次元のXY座標上の点(xi、yi)を通る直線Aをyi=a×xi+bと表すために用いられるパラメータである。
(Other embodiments)
In the first and second embodiments described above, the first parameter for representing a straight line is ρ, the second parameter for representing a straight line is θ, the X axis is ρ, the Y axis is θ, and the Z axis is an edge point. However, instead of this, the first parameter for representing a straight line is defined as a slope a, the second parameter for representing a straight line is defined as an intercept b, and the X axis May be a Hough space in which the slope is a, the Y axis is the intercept b, and the Z axis is the number of votes of edge points. Here, the inclination a and the intercept b are parameters used to express the straight line A passing through the point (xi, yi) on the two-dimensional XY coordinates as yi = a × xi + b.

上述の第1、第2実施形態では、操舵角センサ41の出力信号および車速センサ42の出力信号に基づいて、自車40の位置情報を算出した例について説明したが、これに代えて、GPSを用いて自車40の位置情報を算出してもよい。   In the first and second embodiments described above, the example in which the position information of the host vehicle 40 is calculated based on the output signal of the steering angle sensor 41 and the output signal of the vehicle speed sensor 42 has been described. The position information of the host vehicle 40 may be calculated using

上述の第1、第2実施形態では、撮影画像中のエッジ点を鳥瞰変換してこの鳥瞰変換した鳥瞰座標上のエッジ点を用いて駐車枠51を示す直線を検出する例について説明したが、これに代えて、撮影画像中のエッジ点を鳥瞰変換することなく、撮影画像中のエッジ点を用いて駐車枠51を示す直線を検出するようにしてもよい。   In the first and second embodiments described above, an example has been described in which the edge point in the photographed image is bird's-eye converted and the straight line indicating the parking frame 51 is detected using the edge point on the bird's-eye coordinate that has been bird's-eye converted. Alternatively, a straight line indicating the parking frame 51 may be detected using the edge points in the captured image without performing bird's-eye conversion on the edge points in the captured image.

例えば、第1実施形態では、CCDカメラ10の撮影毎に撮影画像から複数のエッジ点を抽出し(ステップS140)、この抽出した複数のエッジ点の座標をCCDカメラ10の撮影位置に対応付けるように当該座標を撮影毎に座標変換し(ステップS160)、この座標変換された座標上の複数のエッジ点を撮影毎に共通のハフ空間に投票し、この投票毎に投票履歴をメモリ20に保存する。   For example, in the first embodiment, a plurality of edge points are extracted from the captured image every time the CCD camera 10 captures images (step S140), and the coordinates of the extracted edge points are associated with the capturing positions of the CCD camera 10. The coordinates are converted for each shooting (step S160), a plurality of edge points on the coordinate-converted coordinates are voted for a common Hough space for each shooting, and the voting history is stored in the memory 20 for each vote. .

例えば、第2実施形態では、CCDカメラ10の撮影毎に撮影画像から複数のエッジ点を抽出し(ステップS140)、この抽出した複数のエッジ点の座標をCCDカメラ10の撮影位置に対応付けるように当該座標を撮影毎に座標変換し(ステップS160)、この座標変換された座標上の複数のエッジ点を撮影毎にハフ空間Nおよびハフ空間N+1に対して投票し、この投票毎に投票履歴をメモリ20に保存する。   For example, in the second embodiment, a plurality of edge points are extracted from the captured image every time the CCD camera 10 captures images (Step S140), and the coordinates of the extracted plurality of edge points are associated with the capturing positions of the CCD camera 10. The coordinates are converted for each shooting (step S160), and a plurality of edge points on the coordinate-converted coordinates are voted for the Hough space N and the Hough space N + 1 for each shooting, and the voting history is recorded for each vote. Save in the memory 20.

上述の第2実施形態では、判定回数がN−1回であるとき、CCDカメラ10の撮影毎に、複数のエッジ点をハフ空間Nとおよびハフ空間N+1に投票し、判定回数がN回であるときに、CCDカメラ10の撮影毎に、複数のエッジ点をハフ空間N+1とおよびハフ空間N+2に投票する例について説明したが、これに代えて、次のようにしてもよい。   In the second embodiment described above, when the number of determinations is N−1, a plurality of edge points are voted for the Hough space N and the Hough space N + 1 every time the CCD camera 10 captures, and the number of determinations is N times. Although an example has been described in which a plurality of edge points are voted for the Hough space N + 1 and the Hough space N + 2 every time the CCD camera 10 captures images, the following may be used instead.

すなわち、判定回数がN−1回であるとき、CCDカメラ10の撮影毎に、複数のエッジ点をハフ空間Nだけに投票し、判定回数がN回であるときに、CCDカメラ10の撮影毎に、複数のエッジ点をハフ空間N+1にだけに投票するようにしてもよい。   That is, when the number of determinations is N−1, a plurality of edge points are voted only on the Hough space N for each photographing of the CCD camera 10, and when the number of determinations is N, each photographing of the CCD camera 10 is performed. In addition, a plurality of edge points may be voted only on the Hough space N + 1.

上述の第1、第2実施形態では、自車の後方に配置されるCCDカメラ10を用いて、周囲の景色として駐車枠側の景色を撮影する例について説明したが、これに限らず、駐車枠側の景色を撮影することが可能ならば、自車の後方以外の箇所に配置されるCCDカメラ10を用いてもよい。   In the first and second embodiments described above, the example in which the CCD camera 10 disposed behind the host vehicle is used to photograph the scenery on the parking frame side as the surrounding scenery has been described. If it is possible to photograph the frame-side scenery, the CCD camera 10 arranged at a location other than the back of the host vehicle may be used.

上述の第1、第2の実施形態では、CCDカメラ10の撮影画像からエッジ点を抽出して、この抽出された複数のエッジ点に対してトップビュー変換を実施する例について説明したが、これに代えて、CCDカメラ10の撮影画像に対してトップビュー変換し、このトップビュー変換された撮影画像からエッジ点を抽出するようにしてもよい。   In the first and second embodiments described above, an example in which edge points are extracted from the captured image of the CCD camera 10 and top view conversion is performed on the extracted plurality of edge points has been described. Instead of this, top view conversion may be performed on the captured image of the CCD camera 10, and edge points may be extracted from the top view converted captured image.

1 駐車支援装置
10 CCDカメラ
20 メモリ
30 マイクロコンピュータ
1 Parking Assist Device 10 CCD Camera 20 Memory 30 Microcomputer

Claims (6)

自車が駐車枠の付近を走行する際に前記駐車枠側の景色を繰り返し撮影するためのカメラ(10)の撮影画像から前記駐車枠を検出して、この検出された駐車枠に基づいて運転者の駐車操作を支援する駐車支援装置であって、
前記駐車枠の付近に前記自車が到達したか否かを判定する第1判定手段(S110)と、
前記駐車枠付近を前記自車が通過したか否かを判定する第2判定手段(S190)と、
前記カメラ(10)が撮影する毎に前記自車の位置情報を取得する取得手段(S130)と、
前記自車が前進しているときに、前記駐車枠の付近に前記自車が到達したと前記第1判定手段が判定したときから、前記駐車枠付近を前記自車が通過したと前記第2判定手段が判定するとき迄、前記カメラの撮影毎の前記位置情報に基づいて前記撮影画像中のエッジ点の座標を前記撮影毎の前記位置情報に対応付けるように前記撮影画像中のエッジ点の座標を前記撮影毎に変換し、この変換毎に前記変換された座標上のエッジ点を共通のハフ空間に投票して、この投票毎に前記投票の履歴をメモリ(20)に記憶させる投票手段(S160、S170、S180)と、
前記自車が後退し始めたか否かを判定する第3判定手段(S200)と、
前記自車が後退し始めたと前記第3判定手段が判定したときに、前記メモリに記憶される前記投票毎の履歴から前記駐車枠を示す前記直線を検出する検出手段(S210)と、を備えることを特徴とする車載画像処理装置。
When the vehicle travels in the vicinity of the parking frame, the parking frame is detected from the captured image of the camera (10) for repeatedly capturing the scenery on the parking frame side, and driving is performed based on the detected parking frame. A parking assistance device for assisting a person's parking operation,
First determination means (S110) for determining whether or not the vehicle has reached the vicinity of the parking frame;
Wherein said near the parking space second determination means for determining whether the vehicle has passed (S190),
Acquisition means (S130) for acquiring the position information of the own vehicle every time the camera (10) takes an image;
When the host vehicle is moving forward, the first determining means determines that the host vehicle has reached the vicinity of the parking frame. 2 Until the determination means determines, the coordinates of the edge points in the captured image are associated with the position information for each of the captured images based on the positional information for each captured image of the camera. Voting means for converting coordinates for each photographing, voting edge points on the converted coordinates for each conversion to a common Hough space, and storing the voting history in the memory (20) for each vote (S160, S170, S180),
Third determination means (S200) for determining whether or not the vehicle has started to reverse;
Detecting means (S210) for detecting the straight line indicating the parking frame from the history for each vote stored in the memory when the third determining means determines that the host vehicle has started to move backward; An in-vehicle image processing apparatus characterized by the above.
自車が駐車枠の付近を走行する際に前記駐車枠側の景色を繰り返し撮影するためのカメラ(10)の撮影画像から前記駐車枠を検出して、この検出された駐車枠に基づいて運転者の駐車操作を支援する駐車支援装置であって、
前記カメラが撮影する毎に前記自車の位置情報を取得する取得手段(S130)と、
前記自車が一定距離以上走行したか否かを繰り返し判定する距離判定手段(S220)と、
前記自車が前進しているときに、前記自車が一定距離以上走行したかと前記距離判定手段が判定する毎に、前記自車の位置に対応する前記カメラの撮影領域を対象とするハフ空間を設定する設定手段(S230)と、
前記自車の走行距離が一定距離以上であると前記距離判定手段が判定した判定回数がN−1回である場合には、前記カメラの撮影毎の前記位置情報に基づいて前記撮影画像中のエッジ点の座標を前記撮影毎の前記位置情報に対応付けるように前記撮影画像中のエッジ点の座標を前記撮影毎に変換し、この変換毎に前記変換されたエッジ点を少なくともN番目の前記ハフ空間に対して投票する投票手段(S160、S170A、S170B)と、
前記投票手段の投票毎に前記投票の履歴をメモリ(20)に記憶させる制御手段(S180、S250)と、
前記自車が後退し始めたか否かを判定する第3判定手段(S200)と、
前記自車が後退し始めたと前記第3判定手段が判定したときに、前記メモリに記憶される前記ハフ空間毎の投票の履歴から前記駐車枠を含む前記直線を検出する検出手段(S210、S260)と、
前記メモリにおいて前記写像毎の履歴が記憶される容量が所定値以上であるか否かを判定する容量判定手段(S240)と、を備え、
前記メモリにおいて前記写像毎の履歴が記憶される容量が所定値以上であると前記容量判定手段が判定したときには、前記制御手段は、前記メモリに記憶される前記投票毎の履歴のうち最も古いタイミングで投票されたハフ空間の履歴に代えて最も新しいタイミングで投票されたハフ空間の履歴を前記メモリに記憶させるようになっていることを特徴とする車載画像処理装置。
When the vehicle travels in the vicinity of the parking frame, the parking frame is detected from the captured image of the camera (10) for repeatedly capturing the scenery on the parking frame side, and driving is performed based on the detected parking frame. A parking assistance device for assisting a person's parking operation,
Acquisition means (S130) for acquiring position information of the own vehicle every time the camera takes a picture;
Distance determining means (S220) for repeatedly determining whether or not the vehicle has traveled a certain distance or more;
When the vehicle is moving forward, each time the distance determination unit determines whether the vehicle has traveled more than a certain distance, a Hough space that targets the shooting area of the camera corresponding to the position of the vehicle Setting means (S230) for setting
When the number of determinations determined by the distance determination means that the traveling distance of the host vehicle is equal to or greater than a certain distance is N-1 times, the distance in the captured image is determined based on the position information for each image captured by the camera. The coordinates of the edge point in the photographed image are converted for each photographing so that the coordinates of the edge point are associated with the position information for each photographing, and the converted edge point is converted into at least the Nth Hough for each conversion. Voting means (S160, S170A, S170B) for voting against space;
Control means (S180, S250) for storing the voting history in the memory (20) for each vote of the voting means;
Third determination means (S200) for determining whether or not the vehicle has started to reverse;
Detection means (S210, S260) that detects the straight line including the parking frame from the voting history for each of the Hough spaces stored in the memory when the third determination means determines that the host vehicle has started to move backward. )When,
Capacity determining means (S240) for determining whether or not a capacity for storing a history for each mapping in the memory is a predetermined value or more,
When the capacity determination unit determines that the capacity for storing the history for each mapping in the memory is equal to or greater than a predetermined value, the control unit determines the oldest timing among the history for each vote stored in the memory. An in-vehicle image processing apparatus, wherein a history of the Hough space voted at the latest timing is stored in the memory instead of the history of the Hough space voted in (1).
前記検出手段は、前記メモリに記憶される前記ハフ空間毎の投票の履歴を1つのハフ空間の投票の履歴に統合して、この統合された1つのハフ空間の投票の履歴から前記駐車枠を含む前記直線を検出することを特徴とする請求項2に記載の車載画像処理装置。   The detection means integrates the voting history for each Hough space stored in the memory into a voting history for one Hough space, and determines the parking frame from the integrated voting history for one Hough space. The in-vehicle image processing apparatus according to claim 2, wherein the straight line is detected. 前記自車の走行距離が一定距離以上であると前記距離判定手段が判定した判定回数がN−1回であるときには、前記投票手段は、前記カメラの撮影毎に、前記座標上のエッジ点をN番目の前記ハフ空間とN+1番目の前記ハフ空間とに対して投票し、
前記判定回数がN回であるときには、前記投票手段は、前記カメラの撮影毎に前記座標上のエッジ点を前記N+1番目の前記ハフ空間とN+2番目の前記ハフ空間とに対して投票することを特徴とする請求項2または3に記載の車載画像処理装置。
When the number of times of determination that the distance determination means determines that the traveling distance of the host vehicle is equal to or greater than a certain distance is N-1 times, the voting means determines an edge point on the coordinates every time the camera takes a picture. Vote for the Nth Hough space and the N + 1th Hough space,
When the number of times of determination is N, the voting means votes the edge points on the coordinates for the N + 1th Hough space and the N + 2th Hough space every time the camera shoots. The in-vehicle image processing apparatus according to claim 2 or 3, wherein
前記設定手段によって設定される複数のハフ空間のうち隣接する2つのハフ空間は、互いに前記カメラの撮影領域がオーバーラップするように設定されていることを特徴とする請求項2ないし4のいずれか1つに記載の車載画像処理装置。   5. The adjacent two Hough spaces among the plurality of Hough spaces set by the setting means are set so that the shooting areas of the camera overlap each other. The vehicle-mounted image processing apparatus as described in one. 前記投票手段(S150、S160、S170)は、前記カメラの撮影毎に前記撮影画像からエッジ点を抽出し、この抽出したエッジ点を前記カメラの撮影毎に車両上側から視た鳥瞰座標上のエッジ点に座標変換し、この座標変換毎に前記カメラの撮影毎の前記位置情報に基づいて前記座標変換されたエッジ点の座標を前記撮影毎の前記位置情報に対応付けるように座標変換し、かつこの座標変換された鳥瞰座標上のエッジ点を前記ハフ空間に前記カメラの撮影毎に投票することを特徴とする請求項1ないし5のいずれか1つに記載の車載画像処理装置。   The voting means (S150, S160, S170) extracts an edge point from the photographed image every time the camera is photographed, and an edge on the bird's eye view of the extracted edge point viewed from the upper side of the vehicle every time the camera is photographed. Coordinate-transformed into points, and coordinate-transformed so that the coordinates of the edge points that have been coordinate-transformed are associated with the position information for each photographing based on the positional information for each photographing with the camera, and 6. The in-vehicle image processing apparatus according to claim 1, wherein an edge point on the bird's eye coordinates after coordinate conversion is voted in the Hough space every time the camera is photographed.
JP2012062028A 2012-03-19 2012-03-19 Parking assistance device Active JP5924053B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012062028A JP5924053B2 (en) 2012-03-19 2012-03-19 Parking assistance device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012062028A JP5924053B2 (en) 2012-03-19 2012-03-19 Parking assistance device

Publications (2)

Publication Number Publication Date
JP2013193545A JP2013193545A (en) 2013-09-30
JP5924053B2 true JP5924053B2 (en) 2016-05-25

Family

ID=49393044

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012062028A Active JP5924053B2 (en) 2012-03-19 2012-03-19 Parking assistance device

Country Status (1)

Country Link
JP (1) JP5924053B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6649738B2 (en) * 2015-10-15 2020-02-19 株式会社Soken Parking lot recognition device, parking lot recognition method

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4016180B2 (en) * 2002-03-15 2007-12-05 ソニー株式会社 Planar extraction method, apparatus thereof, program thereof, recording medium thereof, and imaging apparatus
JP2007141167A (en) * 2005-11-22 2007-06-07 Fujitsu Ten Ltd Lane detector, lane detection method, and lane detection program
JP5082637B2 (en) * 2007-07-10 2012-11-28 富士通株式会社 Image processing program, image processing method, and image processing apparatus
JP4530060B2 (en) * 2008-02-19 2010-08-25 トヨタ自動車株式会社 Parking support apparatus and method
JP4636346B2 (en) * 2009-03-31 2011-02-23 アイシン精機株式会社 Car camera calibration apparatus, method, and program
JP5397321B2 (en) * 2009-06-09 2014-01-22 株式会社デンソー Parking assistance system
WO2011065399A1 (en) * 2009-11-25 2011-06-03 日本電気株式会社 Path recognition device, vehicle, path recognition method, and path recognition program
JP2012017021A (en) * 2010-07-08 2012-01-26 Panasonic Corp Parking assistance apparatus, and vehicle
JP2013120517A (en) * 2011-12-08 2013-06-17 Ricoh Co Ltd Image processing device

Also Published As

Publication number Publication date
JP2013193545A (en) 2013-09-30

Similar Documents

Publication Publication Date Title
JP6156486B2 (en) Perimeter monitoring apparatus and program
JP5958366B2 (en) In-vehicle image processing device
EP3290301B1 (en) Parking assist device
JP7351172B2 (en) parking assist device
JP2016119570A (en) Vehicle periphery monitoring device
JP5626147B2 (en) Vehicle approaching object detection device
JP2018136695A (en) Parking support device
EP3291545B1 (en) Display control device
JP2019064431A (en) Parking support device
US11017245B2 (en) Parking assist apparatus
JP2020068515A (en) Image processing apparatus
JP2010028432A (en) Parking support system and image display method
CN107925746A (en) Periphery monitoring apparatus
JP6326869B2 (en) Vehicle periphery image display device and vehicle periphery image display method
CN112977426A (en) Parking assist system
JP5849942B2 (en) In-vehicle image processing device
JP2012166705A (en) Foreign matter attachment determining system for on-vehicle camera lens
WO2015122124A1 (en) Vehicle periphery image display apparatus and vehicle periphery image display method
JP7000383B2 (en) Image processing device and image processing method
JP2022023870A (en) Display control device
JP2007331548A (en) Parking support device
JP2015171106A (en) Vehicle peripheral image display device and vehicle peripheral image display method
JP6327115B2 (en) Vehicle periphery image display device and vehicle periphery image display method
JP7395913B2 (en) object detection device
JP5924053B2 (en) Parking assistance device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160404

R150 Certificate of patent or registration of utility model

Ref document number: 5924053

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250