JP5924053B2 - Parking assistance device - Google Patents
Parking assistance device Download PDFInfo
- Publication number
- JP5924053B2 JP5924053B2 JP2012062028A JP2012062028A JP5924053B2 JP 5924053 B2 JP5924053 B2 JP 5924053B2 JP 2012062028 A JP2012062028 A JP 2012062028A JP 2012062028 A JP2012062028 A JP 2012062028A JP 5924053 B2 JP5924053 B2 JP 5924053B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- hough space
- voting
- parking frame
- memory
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、運転者の駐車操作を支援する駐車支援装置に関するものである。 The present invention relates to a parking assistance device that supports a driver's parking operation.
従来、駐車支援装置において、右側方カメラおよび左側方カメラにより目標駐車場を撮像するとともに、前方カメラおよび後方カメラにより車両の周囲を撮像し、車両周囲の映像の中で車体の死角になって映像が欠落している範囲の映像を目標駐車場の映像から切り出し、車両周囲の映像を補完して表示するものがある(特許文献1参照)。 Conventionally, in a parking assist device, the target parking lot is imaged by the right side camera and the left side camera, and the surroundings of the vehicle are imaged by the front camera and the rear camera. In some cases, a video in a range where the “” is missing is cut out from the video of the target parking lot, and the video around the vehicle is complemented and displayed (see Patent Document 1).
このものにおいて、カメラの死角による映像欠落部分の少ない車両周囲の映像を表示することにより、駐車範囲を区分する駐車枠の白線などがはっきりと映し出すことができる。このため、運転者による駐車するための操作を良好に支援することができる。 In this case, by displaying an image around the vehicle with few image missing portions due to the blind spot of the camera, the white line of the parking frame that divides the parking range can be clearly displayed. For this reason, the operation for parking by the driver can be favorably supported.
上述の車載画像処理装置では、車両周囲の映像の中で車体の死角になる範囲の映像を目標駐車場の映像から切り出し、車両周囲の映像を補完して表示することにより、駐車範囲を区分する駐車枠がはっきりと映し出すことができるものの、車両周囲の映像に加えて目標駐車場の映像をもメモリに記憶させることが必要になる。このため、メモリの使用容量の増大化を招くことになる。 In the above-mentioned in-vehicle image processing device, the image of the range that becomes the blind spot of the vehicle body in the image around the vehicle is cut out from the image of the target parking lot, and the image around the vehicle is complemented and displayed to classify the parking range Although the parking frame can be clearly displayed, it is necessary to store the image of the target parking lot in the memory in addition to the image around the vehicle. For this reason, the use capacity of the memory is increased.
本発明は上記点に鑑みて、運転者の駐車操作を支援する駐車支援装置において、メモリの使用容量の増大化を抑えることを目的とする。 The present invention has been made in view of the above points, and it is an object of the present invention to suppress an increase in memory usage capacity in a parking assistance device that assists a driver's parking operation.
上記目的を達成するため、請求項1に記載の発明では、自車が駐車枠の付近を走行する際に駐車枠側の景色を繰り返し撮影するためのカメラ(10)の撮影画像から駐車枠を検出して、この検出された駐車枠に基づいて運転者の駐車操作を支援する駐車支援装置であって、
駐車枠の付近に自車が到達したか否かを判定する第1判定手段(S110)と、
駐車枠の付近を自車が通過したか否かを判定する第2判定手段(S190)と、
カメラ(10)が撮影する毎に自車の位置情報を取得する取得手段(S130)と、
自車が前進しているときに、駐車枠の付近に自車が到達したと第1判定手段が判定したときから、駐車枠の付近を自車が通過したと第2判定手段が判定するとき迄、カメラの撮影毎の位置情報に基づいて撮影画像中のエッジ点の座標を撮影毎の位置情報に対応付けるように撮影画像中のエッジ点の座標を撮影毎に変換し、この変換毎に変換された座標上のエッジ点を共通のハフ空間に投票して、この投票毎に投票の履歴をメモリ(20)に記憶させる投票手段(S160、S170、S180)と、
自車が後退し始めたか否かを判定する第3判定手段(S200)と、
自車が後退し始めたと第3判定手段が判定したときに、メモリに記憶される投票毎の履歴から駐車枠を示す直線を検出する検出手段(S210)と、を備えることを特徴とする。
In order to achieve the above object, according to the first aspect of the present invention, when the vehicle travels in the vicinity of the parking frame, the parking frame is extracted from the captured image of the camera (10) for repeatedly capturing the scenery on the parking frame side. A parking assist device that detects and assists the driver's parking operation based on the detected parking frame,
First determination means (S110) for determining whether or not the vehicle has arrived in the vicinity of the parking frame;
The vicinity of the parking space second determination means for determining whether the vehicle has passed the (S190),
Acquisition means (S130) for acquiring position information of the own vehicle every time the camera (10) takes a picture;
When the vehicle is moving forward, since the vehicle near the parking space it is determined that the first determination means has reached, when the vicinity of the parking frame and the vehicle has passed the second determination means determines Until now, the coordinates of the edge point in the photographed image are converted for each photographing so that the coordinates of the edge point in the photographed image are associated with the positional information for each photographing based on the positional information for each photographing of the camera. Voting means (S160, S170, S180) for voting edge points on the coordinated coordinates to a common Hough space and storing the voting history in the memory (20) for each voting;
Third determination means (S200) for determining whether or not the vehicle has started to reverse;
It is characterized by comprising detection means (S210) for detecting a straight line indicating a parking frame from the history of each vote stored in the memory when the third determination means determines that the host vehicle has started to move backward.
以上説明した、請求項1に記載の発明によれば、自車が駐車枠の付近を走行する際にカメラの撮影毎に投票手段が、前記座標上のエッジ点を共通のハフ空間に投票して、この投票毎に投票の履歴をメモリに記憶させる。このことにより、駐車枠を示す直線を検出するためにメモリには、投票毎の投票の履歴が記憶される。このため、撮影画像が繰り返しメモリに記憶される場合に比べて、メモリの使用容量を減らすことができる。以上により、駐車支援装置におけるメモリの使用容量の増大化を抑えることができる。 According to the first aspect of the present invention described above, the voting means votes the edge points on the coordinates to a common Hough space every time when the vehicle travels in the vicinity of the parking frame. The voting history is stored in the memory for each vote. Thus, the history of voting for each vote is stored in the memory in order to detect a straight line indicating the parking frame. For this reason, compared with the case where a picked-up image is repeatedly memorize | stored in memory, the use capacity of memory can be reduced. As described above, an increase in the use capacity of the memory in the parking assistance device can be suppressed.
エッジ点とは、カメラにより撮影された画像のうち輝度の変化を示す点のことである。 An edge point is a point that shows a change in luminance in an image taken by a camera.
ハフ空間とは、直線を表す第1、第2のパラメータ、およびエッジ点の投票数をそれぞれ座標軸とする三次元空間のことである。 The Hough space is a three-dimensional space having first and second parameters representing a straight line and the number of votes of edge points as coordinate axes.
請求項2に記載の発明では、自車が駐車枠の付近を走行する際に駐車枠側の景色を繰り返し撮影するためのカメラ(10)の撮影画像から駐車枠を検出して、この検出された駐車枠に基づいて運転者の駐車操作を支援する駐車支援装置であって、
カメラが撮影する毎に自車の位置情報を取得する取得手段(S130)と、
自車が一定距離以上走行したか否かを繰り返し判定する距離判定手段(S220)と、
自車が前進しているときに、自車が一定距離以上走行したかと距離判定手段が判定する毎に、自車の位置に対応するカメラの撮影領域を対象とするハフ空間を設定する設定手段(S230)と、
自車の走行距離が一定距離以上であると距離判定手段が判定した判定回数がN−1回である場合には、カメラの撮影毎の位置情報に基づいて撮影画像中のエッジ点の座標を撮影毎の位置情報に対応付けるように撮影画像中のエッジ点の座標を撮影毎に変換し、この変換毎に変換されたエッジ点を少なくともN番目のハフ空間に対して投票する投票手段(S160、S170A、S170B)と、
投票手段の投票毎に投票の履歴をメモリ(20)に記憶させる制御手段(S180、S250)と、
自車が後退し始めたか否かを判定する第3判定手段(S200)と、
自車が後退し始めたと第3判定手段が判定したときに、メモリに記憶されるハフ空間毎の投票の履歴から駐車枠を含む直線を検出する検出手段(S210、S260)と、
メモリにおいて写像毎の履歴が記憶される容量が所定値以上であるか否かを判定する容量判定手段(S240)と、を備え、
メモリにおいて写像毎の履歴が記憶される容量が所定値以上であると容量判定手段が判定したときには、制御手段は、メモリに記憶される投票毎の履歴のうち最も古いタイミングで投票されたハフ空間の履歴に代えて最も新しいタイミングで投票されたハフ空間の履歴をメモリに記憶させるようになっていることを特徴とする。
In the invention according to
Acquisition means (S130) for acquiring the position information of the vehicle every time the camera takes a picture;
Distance determining means (S220) for repeatedly determining whether or not the vehicle has traveled a certain distance or more;
Setting means for setting a Hough space for the imaging region of the camera corresponding to the position of the own vehicle each time the distance determining means determines whether the own vehicle has traveled a certain distance or more when the own vehicle is moving forward (S230),
When the number of determinations determined by the distance determination means that the traveling distance of the vehicle is equal to or greater than a certain distance is N−1, the coordinates of the edge points in the captured image are determined based on the position information for each shooting of the camera. Voting means (S160, voting means) for converting the coordinates of the edge points in the captured image for each photographing so as to be associated with the positional information for each photographing, and voting the edge points converted for each conversion to at least the Nth Hough space S170A, S170B),
Control means (S180, S250) for storing a history of voting in the memory (20) for each vote of the voting means;
Third determination means (S200) for determining whether or not the vehicle has started to reverse;
Detecting means (S210, S260) for detecting a straight line including a parking frame from a history of voting for each Hough space stored in the memory when the third determining means determines that the host vehicle has started to reverse;
Capacity determination means (S240) for determining whether or not the capacity for storing the history of each mapping in the memory is greater than or equal to a predetermined value,
When the capacity determination means determines that the capacity for storing the history for each mapping in the memory is greater than or equal to a predetermined value, the control means determines the Hough space voted at the oldest time among the history for each vote stored in the memory. Instead of this history, the history of the Hough space voted at the latest timing is stored in the memory.
請求項2に記載の発明では、制御手段によってメモリのうち写像毎の履歴が記憶される容量が制限される。このため、撮影画像が繰り返しメモリに記憶される場合に比べて、メモリの使用容量を減らすことができる。以上により、請求項1に記載の発明と同様に、駐車支援装置におけるメモリの使用容量の増大化を抑えることができる。なお、Nは1以上の整数である。
In the invention described in
請求項3に記載の発明では、前記検出手段は、前記メモリに記憶される前記ハフ空間毎の投票の履歴を1つのハフ空間の投票の履歴に統合して、この統合された1つのハフ空間の投票の履歴から前記駐車枠を含む前記直線を検出することを特徴とする。 According to a third aspect of the present invention, the detection means integrates the voting history for each Hough space stored in the memory into the voting history of one Hough space, and the integrated one Hough space. The straight line including the parking frame is detected from the history of voting.
ここで、N番目のハフ空間は、設定手段によってN番目に設定されるハフ空間である。N+1番目のハフ空間は、設定手段によってN+1番目に設定されるハフ空間である。N+2番目のハフ空間は、設定手段によってN+2番目に設定されるハフ空間である。 Here, the Nth Hough space is the Nth Hough space set by the setting means. The (N + 1) th Hough space is the H + 1 space set by the setting unit. The (N + 2) th Hough space is a Hough space set to the (N + 2) th by the setting unit.
請求項4に記載の発明では、前記自車の走行距離が一定距離以上であると前記距離判定手段が判定した判定回数がN−1回であるときには、前記投票手段は、前記カメラの撮影毎に、前記座標上のエッジ点をN番目の前記ハフ空間とN+1番目の前記ハフ空間とに対して投票し、前記判定回数がN回であるときには、前記投票手段は、前記カメラの撮影毎に前記座標上のエッジ点を前記N+1番目の前記ハフ空間とN+2番目の前記ハフ空間とに対して投票することを特徴とする。 According to a fourth aspect of the present invention, when the number of times that the distance determining means determines that the traveling distance of the host vehicle is equal to or greater than a certain distance is N-1 times, the voting means In addition, when the edge point on the coordinates is voted for the Nth Hough space and the N + 1th Hough space, and the number of determinations is N, the voting means The edge point on the coordinates is voted for the (N + 1) th Hough space and the (N + 2) th Hough space.
請求項4に記載の発明によれば、判定回数がN−1回である場合と、判定回数がN回である場合とのいずれのときにも、投票手段は、カメラの撮影毎にN+1番目のハフ空間に座標上のエッジ点を投票する。このため、判定回数がN−1回であるときに投票手段がN番目のハフ空間だけに投票し、かつ判定回数がN回であるときに投票手段がN+1番目のハフ空間だけに投票する場合に比べて、N+1番目のハフ空間に投票される投票数を増やすことができる。よって、N+1番目のハフ空間において、直線を表す第1パラメータおよび第2パラメータが投票数によって明確に表されることになる。これにより、直線の検出を容易に行うことができる。 According to the fourth aspect of the present invention, the voting means performs the (N + 1) th time every time the camera shoots both when the number of determinations is N-1 and when the number of determinations is N. Vote for the edge point on the coordinates in the Hough space. Therefore, when the number of determinations is N-1 times, the voting means votes only for the Nth Hough space, and when the number of determinations is N times, the voting means votes only for the N + 1th Hough space. The number of votes voted for the (N + 1) th Hough space can be increased. Therefore, in the (N + 1) th Hough space, the first parameter and the second parameter representing a straight line are clearly represented by the number of votes. Thereby, a straight line can be easily detected.
請求項5に記載の発明では、前記設定手段によって設定される複数のハフ空間のうち隣接する2つのハフ空間は、互いに前記カメラの撮影領域がオーバーラップするように設定されていることを特徴とする。 The invention according to claim 5 is characterized in that two adjacent Hough spaces among the plurality of Hough spaces set by the setting means are set so that the shooting areas of the camera overlap each other. To do.
請求項5に記載の発明によれば、隣接する2つのハフ空間の間においてハフ空間の対象から外れてしまった撮影領域が生じることを避けることができる。 According to the fifth aspect of the present invention, it is possible to avoid the occurrence of an imaging region that is excluded from the target of the Hough space between two adjacent Hough spaces.
請求項6に記載の発明では、前記投票手段(S150、S160、S170)は、前記カメラの撮影毎に前記撮影画像からエッジ点を抽出し、この抽出したエッジ点を前記カメラの撮影毎に車両上側から視た鳥瞰座標上のエッジ点に座標変換し、この座標変換毎に前記カメラの撮影毎の前記位置情報に基づいて前記座標変換されたエッジ点の座標を前記撮影毎の前記位置情報に対応付けるように座標変換し、かつこの座標変換された鳥瞰座標上のエッジ点を前記ハフ空間に前記カメラの撮影毎に投票することを特徴とする。 In the invention according to claim 6, the voting means (S150, S160, S170) extracts an edge point from the photographed image every time the camera is photographed, and the extracted edge point is detected every time the camera is photographed. The coordinates are converted into edge points on the bird's eye coordinates viewed from above, and the coordinates of the edge points that are coordinate-converted based on the position information for each photographing of the camera are converted into the position information for each photographing. The coordinates are transformed so as to be associated with each other, and the edge points on the bird's-eye coordinates obtained by the coordinate transformation are voted on the Hough space every time the camera is photographed.
なお、この欄および特許請求の範囲で記載した各手段の括弧内の符号は、後述する実施形態に記載の具体的手段との対応関係を示すものである。 In addition, the code | symbol in the bracket | parenthesis of each means described in this column and the claim shows the correspondence with the specific means as described in embodiment mentioned later.
以下、本発明の実施形態について図に基づいて説明する。なお、以下の各実施形態相互において、互いに同一もしくは均等である部分には、説明の簡略化を図るべく、図中、同一符号を付してある。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following embodiments, parts that are the same or equivalent to each other are given the same reference numerals in the drawings in order to simplify the description.
(第1実施形態)
図1に本発明の駐車支援装置1の概略構成を示す。駐車支援装置1は、CCDカメラ10、メモリ20、およびマイクロコンピュータ30から構成されている。
(First embodiment)
FIG. 1 shows a schematic configuration of a
CCDカメラ10は、自車の後方に配置されて、自車の後方の景色を撮影する。自車とは、駐車支援装置1が搭載されている自動車のことである。メモリ20は、マイクロコンピュータ30のコンピュータプログラムを記憶するとともに、マイクロコンピュータ30がコンピュータプログラムを実行する際に生じるデータを保存するバッファとして機能する。
The
マイクロコンピュータ30は、測距センサ40、操舵角センサ41、車速センサ42、および駐車開始スイッチ43、および自動変速機44のそれぞれの出力信号を用いて、CCDカメラ10の撮影画像からハフ変換を用いて駐車枠を検出する駐車枠検出処理を実行する。
The
測距センサ40は、自車とその周辺の障害物との間の距離を測定するためのセンサである。本実施形態の測距センサ40として、例えば、超音波センサが用いられている。超音波センサは、超音波信号を送信してから、障害物表面で反射して戻ってきた反射波を受信するまでに要する伝搬時間tsを計測して、この伝搬時間tsを距離に換算して、超音波センサから障害物までの間の距離L{=(ts/2)×Vs(音速)}を測定する。
The
操舵角センサ41は、自車の前輪の操舵角を検出するセンサである。車速センサ42は、自車の速度を検出するセンサである。駐車開始スイッチ43は、駐車枠検出処理の実行開始を指示する際に乗員によって操作されるスイッチである。自動変速機44は、車速、エンジンの回転速度、運転者の操作などに応じて変速レンジを切り替えるものである。自動変速機44は、設定されている変速レンジを示す出力信号を出力する。
The
次に、本実施形態の作動の具体例として、図2の自車40が駐車場50の付近をA点からB点に向けて前進する際にCCDカメラ10の撮影画像から路上の駐車枠51を検出する例について説明する。駐車枠51は、路上において平行に配置される二本の直線状の白線からなるものであって、車両の駐車領域を示すものである。図2は、自車40がA点→B点→C点→D点の順に移動して自動車41、42の間の駐車枠51に駐車する例を示している。
Next, as a specific example of the operation of the present embodiment, when the
図3(a)、(c)、(e)、(g)は、CCDカメラ10の撮影画像、図3(b)、(d)、(f)、(h)は撮影画像を鳥瞰変換した鳥瞰画像である。図3(a)はA点の撮影画像、図3(b)はA点の撮影画像の鳥瞰画像、図3(c)はB点の撮影画像、図3(d)はB点の撮影画像の鳥瞰画像、図3(e)はC点の撮影画像、図3(f)はC点の撮影画像の鳥瞰画像、図3(g)はD点の撮影画像、図3(h)はD点の撮影画像の鳥瞰画像である。
3 (a), (c), (e), and (g) are images captured by the
マイクロコンピュータ30は、図4のフローチャートにしたがって、駐車枠検出処理を実行する。駐車枠検出処理の実行は、駐車開始スイッチ43をオンしたときに開始される。
The
まず、ステップS100において、測距センサ40の作動を開始する。これにより、測距センサ40が障害物との間の距離Lを繰り返し測定する。
First, in step S100, the operation of the
例えば、自車40が自動車41付近に位置するときには、測距センサ40からの超音波信号が障害物としての自動車41によって反射されているので、測距センサ40の測定距離Lは所定値未満になる。
For example, when the
次に、ステップS110において、測距センサ40の測定距離Lに基づいて、駐車枠51に隣接する車両(具体的には、自動車41)のうち駐車枠51側の端点41aを検出したか否かを判定する。
Next, whether or not the
例えば、自動車41によって反射される反射波に基づいて測距センサ40が算出した測定距離Lは所定値未満になる一方、自車40が駐車枠51付近に到達したときには、測距センサ40からの超音波信号が駐車枠51から遠方に位置する障害物に反射されるので、測定距離Lは所定値以上になる。
For example, while the measurement distance L calculated by the
そこで、測距センサ40の前回の測定距離Lと今回の測定距離Lがそれぞれ所定値未満であるときには、自動車41との間の距離Lを測定して自動車41の駐車枠51側端点41aを検出していないとしてステップS110でNOと判定する。このため、ステップS110の判定を繰り返すことになる。
Therefore, when the previous measurement distance L and the current measurement distance L of the
一方、測距センサ40の前回の測定距離Lが所定値未満であり、かつ測距センサ40の今回の測定距離Lが所定値以上である場合には、前回の測定距離Lとして、自動車41の駐車枠51側端点41aと測距センサ40との間の距離を測定したと判定する。つまり、自車40がA点から前進してから駐車枠51付近に到達したとしてステップS110でYESと判定することになる。
On the other hand, when the previous measurement distance L of the
次に、ステップS120において、CCDカメラ10を制御して後方の景色を撮影させる。このとき、図4(a)に示すように、CCDカメラ10が、自車40の真後ろの景色、右後方の景色、および左後方の景色を含む後方画像を撮影することになる。
Next, in step S120, the
次に、ステップS130において、操舵角センサ41の出力信号および車速センサ42の出力信号に基づいて、自車40の位置情報(すなわち、CCDカメラ10の撮影位置)を算出する。
Next, in step S130, based on the output signal of the
次に、ステップS140において、CCDカメラ10の撮影画像からエッジ点を抽出する。本実施形態のエッジ点とは、CCDカメラ10の撮影画像のうち輝度の変化を示す点である。このように撮影画像から抽出された複数のエッジ点に対してトップビュー変換を施す(ステップS150)。つまり、複数のエッジ点を自車40の上側から視た鳥瞰座標上の複数のエッジ点に座標変換する。つまり、撮影画像毎に複数のエッジ点を鳥瞰座標上の複数のエッジ点に座標変換することになる。
Next, in step S140, edge points are extracted from the captured image of the
ここで、後述するように、駐車枠の検出には複数の撮影画像が用いられる。複数の撮影画像は、撮影画像毎にその撮影位置が異なる。これに加えて、撮影毎の鳥瞰座標はそれぞれ独立して設定されている。このため、撮影画像毎の鳥瞰座標の位置関係が定まっていない。 Here, as will be described later, a plurality of captured images are used for detecting the parking frame. The shooting positions of the plurality of shot images are different for each shot image. In addition to this, the bird's-eye coordinates for each photographing are set independently. For this reason, the positional relationship of bird's-eye coordinates for each captured image is not fixed.
そこで、次のステップS160において、自車41の位置情報(つまり、CCDカメラ10の撮影位置)を用いて上記ステップS150の鳥瞰座標をCCDカメラ10の撮影位置に対応付けるように鳥瞰座標を撮影毎に座標変換する。つまり、上記ステップS150の鳥瞰座標上の複数のエッジ点を撮影画像毎に共通の鳥瞰座標上に写像することになる。このことにより、撮影画像毎の鳥瞰座標の位置関係を撮影画像毎の位置情報を用いて設定することができる。
Therefore, in the next step S160, the bird's-eye coordinates are taken every time the position information of the own vehicle 41 (that is, the shooting position of the CCD camera 10) is used so that the bird's-eye coordinates of the step S150 are associated with the shooting position of the
このようにステップS160で座標変換された鳥瞰座標上の複数のエッジ点を共通のハフ空間(パラメータ空間)に投票する(ステップS170)。つまり、前記座標変換された鳥瞰座標上の複数のエッジ点を共通のハフ空間に写像することになる。ハフ空間とは、直線を表すための3次元座標のことである。具体的には、X軸をρとし、Y軸をθとし、Z軸をエッジ点の投票数とする空間である。 A plurality of edge points on the bird's eye coordinate coordinate-transformed in step S160 are voted for a common Hough space (parameter space) (step S170). That is, a plurality of edge points on the bird's-eye coordinates after the coordinate conversion are mapped to a common Hough space. The Hough space is a three-dimensional coordinate for representing a straight line. Specifically, it is a space where the X axis is ρ, the Y axis is θ, and the Z axis is the number of votes of edge points.
ここで、ρおよびθは、二次元のXY座標上の点(xi、yi)を通る直線Aを極座標表現にてρ=xi・cosθ+yi・sinθと表すために用いられるパラメータである。ρは、直線Aへ原点から下ろした垂線の長さを示す第1パラメータである。θは、X軸と垂線とがなす角度を示す第2パラメータである。本実施形態のハフ空間は、駐車枠51を含む撮影領域が対象となっている。撮影領域とはCCDカメラ10によって撮影される領域のことである。このように撮影画像中の複数のエッジ点が共通のハフ空間に投票される。このことにより、撮影画像から直線を検出するための特徴量が算出されることになる。次に、上述のように共通のハフ空間に投票された投票履歴をメモリ20に記憶させる(ステップS180)。
Here, ρ and θ are parameters used to express the straight line A passing through the point (xi, yi) on the two-dimensional XY coordinates as ρ = xi · cos θ + yi · sin θ in the polar coordinate expression. ρ is a first parameter indicating the length of a perpendicular line drawn from the origin to the straight line A. θ is a second parameter indicating the angle formed by the X axis and the perpendicular. The Hough space of the present embodiment is targeted for the shooting area including the
次に、ステップS190において、自車40の駐車枠51(つまり駐車空間)付近を通過したか否かを判定する。
Next, in step S190, it is determined whether or not the
例えば、測距センサ40の測定距離Lが所定値以上であるときには、自車40が駐車枠51付近を前進していると判定して、ステップS190でNOと判定する。
For example, when the measurement distance L of the
一方、測距センサ40の測定距離Lが所定値未満になると、測定距離Lとして、自動車42の駐車枠51側端点42aと測距センサ40との間の距離を測定したと判定する。つまり、自車40が駐車枠51を通過して自動車42付近に到達したとしてステップS190でYESと判定することになる。
On the other hand, when the measurement distance L of the
例えば、ステップS190でNOと判定したときには、ステップS120に戻る。このため、自車40の駐車枠51付近を通過するまで、ステップS120のカメラ撮影処理、ステップS130の位置算出処理、ステップS140のエッジ抽出処理、ステップS150のトップビュー変換処理、ステップS160のエッジ座標変換処理、ステップS170のハフ空間投票処理、およびステップS180のメモリ保存処理を繰り返す。
For example, when it is determined NO in step S190, the process returns to step S120. For this reason, until passing the vicinity of the
以上により、CCDカメラ10の撮影毎に撮影画像から複数のエッジ点を抽出し(ステップS140)、この抽出した複数のエッジ点に対してトップビュー変換を施し(ステップS150)、このトップビュー変換された複数のエッジ点の鳥瞰座標をCCDカメラ10の撮影位置に対応付けるように当該鳥瞰座標を撮影毎に座標変換し(ステップS160)、この座標変換された鳥瞰座標上の複数のエッジ点を共通のハフ空間に投票して(ステップS170)、この投票履歴を投票毎にメモリ20に保存する(ステップS180)。
As described above, a plurality of edge points are extracted from the captured image every time the
その後、測距センサ40の測定距離Lが所定値未満になると、測定距離Lとして、自動車42の駐車枠51側端点42aと測距センサ40との間の距離を測定したと判定する。つまり、自車40が駐車枠51を通過して自動車42付近に到達したとしてステップS190でYESと判定する。これに伴い、次のステップS200において、変速機44がリバースレンジに設定されているか否かについて変速機44の出力信号に基づいて判定する。つまり、自車40がB点に到達して後退し始めているか否かを判定することになる。
Thereafter, when the measurement distance L of the
このとき、変速機44がリバースレンジ以外のレンジに設定されているときには、ステップS200においてNOと判定して、ステップS200の判定を繰り返すことになる。
At this time, when the
その後、変速機44がリバースレンジに設定されると、ステップS200においてYESと判定して、次のステップS210において、メモリ20に記憶される投票毎の投票履歴に基づいて駐車枠51を示す直線を図5に示すように検出する。図5は、XY座標上において、ステップS210で検出した駐車枠51を移動軌跡とともに示している。図5中の点線は、A点からB点まで自車40が前進する軌跡、太実線は、B点からC点を経てD点まで自車40が後退する軌跡を示している。直線の検出は、周知であるのでその説明を省略する。
Thereafter, when the
このように検出される駐車枠51は、自動駐車制御の目標対象として用いることにより、駐車操作を支援する。自動駐車制御とは、自動的に操舵角を制御して目標対象としての駐車枠51内に自車40を駐車させる制御のことである。これに加えて、図3(c)〜(h)に示すように、駐車枠51をCCDカメラ10の撮影画像に重畳して車室内の表示ディスプレイによって運転者に向けて表示させることにより、運転者の駐車操作を支援する。
The
例えば、図3(c)、図3(d)は、自車40がB点で後退を開始するときの表示ディスプレイの表示画像である。図3(e)、図3(f)は、自車40がC点を通過するときの表示ディスプレイの表示画像である。図3(g)、図3(h)は、自車40がD点に到着したときの表示ディスプレイの表示画像である。
For example, FIG. 3C and FIG. 3D are display images on the display when the
なお、上述のステップS210において、駐車枠51を示す直線を検出できなかったときには、各種の車両信号を用いて駐車枠51を示す直線を推定する。
In addition, in the above-mentioned step S210, when the straight line indicating the
以上説明した本実施形態によれば、自車40が駐車枠51付近に到達してから自車40が駐車枠51を通過するまで、CCDカメラ10の撮影毎に、撮影画像中のエッジ点を鳥瞰座標上のエッジ点に座標変換し、この座標変換毎にCCDカメラ10の撮影毎の位置情報に基づいて前記座標変換されたエッジ点の座標を撮影毎の位置情報に対応付けるように座標変換し、かつこの座標変換された鳥瞰座標上のエッジ点を共通のハフ空間にCCDカメラ10の撮影毎に投票する。この投票毎に投票の履歴をメモリ20に記憶させる。このことにより、駐車枠51を示す直線を検出するためにメモリ20には、投票毎の投票の履歴が記憶される。このため、撮影画像が繰り返しメモリ20に記憶される場合に比べて、メモリ20の使用容量を減らすことができる。以上により、駐車支援装置1におけるメモリ20の使用容量の増大化を抑えることができる。
According to the present embodiment described above, the edge point in the captured image is determined every time the
本実施形態では、駐車枠51を検出する際に、撮影画像中の複数のエッジ点を鳥瞰変換して、この鳥瞰変換された複数のエッジ点を用いて共通のハフ空間に投票する。
In the present embodiment, when the
ここで、駐車枠51と駐車枠51に隣接する自動車41(或いは自動車42)との間の距離が非常に小さい場合には、撮影画像中の複数のエッジ点を鳥瞰変換することなく、複数のエッジ点をハフ空間に投票すると、駐車枠51が自動車41(或いは自動車42)の影になり、この影となった駐車枠51のエッジ点を抽出することができなくなる。このため、駐車枠51を示す複数のエッジ点をハフ空間に投票することができなくなり、駐車枠51を良好に検出することができない場合がある。
Here, when the distance between the
これに対して、本実施形態では、上述の如く、撮影画像中の複数のエッジ点を鳥瞰変換して、この鳥瞰変換された複数のエッジ点を用いて共通のハフ空間に投票する。このため、駐車枠51のエッジ点が自動車41(或いは自動車42)の影になり難くなる。これにより、駐車枠51とそれに隣接する自動車41(或いは自動車42)との間の距離が非常に小さい場合でも、駐車枠51のエッジ点がハフ空間に投票することができるので、駐車枠51を良好に検出することができる。
On the other hand, in the present embodiment, as described above, a plurality of edge points in the photographed image are subjected to bird's-eye conversion, and the plurality of edge points subjected to bird's-eye conversion are voted on a common Hough space. For this reason, it becomes difficult for the edge point of the
本実施形態では、ステップS140において、CCDカメラ10の撮影画像からエッジ点を抽出し、その後のステップS150で、この抽出された複数のエッジ点に対してトップビュー変換を実施する。このため、CCDカメラ10の撮影画像に対してトップビュー変換し、このトップビュー変換された撮影画像からエッジ点を抽出する場合に比べて、画像処理の処理量を減らすことができる。
In this embodiment, in step S140, edge points are extracted from the captured image of the
(第2実施形態)
上述の第1実施形態では、測距センサ40の測定距離Lを用いて自車40が駐車枠51付近を走行するときだけハフ空間への投票を実施してメモリ20の使用容量を減らすようにした例について説明したが、測距センサ40の測定距離Lを用いない場合にメモリ20の使用容量を減らす例について説明する。
(Second Embodiment)
In the first embodiment described above, the use of the
図6に本実施形態の駐車枠検出処理のフローチャートを示す。マイクロコンピュータ30は、図4のフローチャートに代わる図6のフローチャートにしたがって、駐車枠検出処理を実行する。
FIG. 6 shows a flowchart of the parking frame detection process of the present embodiment. The
まず、本実施形態の駐車枠検出処理の詳細の説明に先立って、本実施形態の駐車枠検出処理で用いるハフ空間について説明する。 First, prior to the detailed description of the parking frame detection process of the present embodiment, the Hough space used in the parking frame detection process of the present embodiment will be described.
本実施形態の駐車枠検出処理では、共通のハフ空間ではなく、複数のハフ空間が設定される。 In the parking frame detection process of the present embodiment, a plurality of hough spaces are set instead of a common hough space.
具体的には、自車40が所定距離、進行する毎に自車40の位置情報に対応する撮影領域を対象とするハフ空間を設定する。撮影領域とは、CCDカメラ10により撮影される領域のことである。このことにより、複数のハフ空間の撮影領域が、自車40の進行方向に所定距離毎に並べられることになる。複数のハフ空間の撮影領域は、それぞれ、自車40の位置から自車40の進行方向に対する直交方向に伸びる長方形状(短冊状)に設定されている。
Specifically, every time the
ここで、所定距離は、ハフ空間を設定する走行距離の基準値であって、例えば、1メートルである。所定距離は短くなるほど、順次設定されるハフ空間の個数が増えるため、ハフ空間に対する投票履歴を保存するメモリ20の容量を大きくすることが必要になる。このため、使用されるメモリ20の容量に応じて、所定距離が設定される。
Here, the predetermined distance is a reference value of the travel distance for setting the Hough space, and is, for example, 1 meter. As the predetermined distance becomes shorter, the number of Hough spaces that are sequentially set increases, so it is necessary to increase the capacity of the
さらに、本実施形態では、複数のハフ空間のうち互いに隣接する2つのハフ空間の撮影領域は、互いにオーバーラップするように設定されている。 Further, in the present embodiment, the imaging regions of two adjacent Hough spaces among the plurality of Hough spaces are set to overlap each other.
図7では、自車40がA点からB点に向けて前進する際にハフ空間N、ハフ空間N+1、ハフ空間N+2、ハフ空間N+3を順次設定する例を示している。ハフ空間Nおよびハフ空間N+1は、互いの撮影領域がオーバーラップする。ハフ空間N+1およびハフ空間N+2は、互いの撮影領域がオーバーラップする。ハフ空間N+2およびハフ空間N+3は、互いの撮影領域がオーバーラップする。
FIG. 7 shows an example in which the Hough space N, the Hough space N + 1, the Hough space N + 2, and the Hough space N + 3 are sequentially set when the
ここで、Nは1以上の整数である。ハフ空間Nは、N番目に設定されるハフ空間を示し、ハフ空間N+1は、N+1番目に設定されるハフ空間を示し、ハフ空間N+2は、N+2番目に設定されるハフ空間を示し、ハフ空間N+3は、N+3番目に設定されるハフ空間を示している。 Here, N is an integer of 1 or more. The Hough space N indicates the Nth set Hough space, the Hough space N + 1 indicates the N + 1th set Hough space, the Hough space N + 2 indicates the N + 2 set Hough space, and the Hough space. N + 3 indicates a Hough space set as the (N + 3) th.
次に、本実施形態の駐車枠検出処理の具体例として、図7に示すように自車40が駐車枠51の付近をA点からB点に向けて前進する例について説明する。図6において、図4と同一符号は同一ステップを示し、その説明を簡略化する。駐車枠検出処理の実行は、駐車開始スイッチ43をオンしたときに開始される。
Next, as a specific example of the parking frame detection process of this embodiment, an example in which the
まず、ステップS120において、CCDカメラ10によって後方の景色を撮影させる。次に、ステップS130において、操舵角センサ41の出力信号および車速センサ42の出力信号に基づいて、自車40の位置情報を算出する。次に、ステップS140において、CCDカメラ10の撮影画像からエッジ点を抽出する。次に、このように撮影画像から抽出された複数のエッジ点に対してトップビュー変換を施す(ステップS150)。
First, in step S120, the rear scene is photographed by the
その後、ステップS160において、自車41の位置情報を用いて上記ステップS150の鳥瞰座標をCCDカメラ10の撮影位置に対応付けるように鳥瞰座標を撮影毎に座標変換する。このようにステップS160で座標変換された鳥瞰座標上の複数のエッジ点をハフ空間1、およびハフ空間2のそれぞれに投票する(ステップS170A、S170B)。ハフ空間1およびハフ空間2は、ハフ空間として予め設定されるものである。ハフ空間1は、1番目に設定されるハフ空間である。ハフ空間2は、2番目に設定されるハフ空間である。このようにハフ空間1およびハフ空間2に投票された投票履歴をメモリ20に記憶させる(ステップS180)。
Thereafter, in step S160, the bird's-eye coordinates are coordinate-converted for each photographing so that the bird's-eye coordinates in step S150 are associated with the photographing position of the
次に、ステップS220において、駐車開始スイッチ43がオンされてから、自車40が所定距離(例えば、1メートル)以上走行したか否かを判定する。
Next, in step S220, after the
具体的には、操舵角センサ41の出力信号および車速センサ42の出力信号に基づいて自車40の位置情報を求め、この位置情報から自車40が走行距離を求める。そして、走行距離が所定距離未満であるときには、NOと判定して、ステップS120に戻る。
Specifically, the position information of the
その後、走行距離が所定距離以上になるまで、ステップS120のCCDカメラ10撮影処理、ステップS130の位置情報算出処理、ステップS140のエッジ点抽出処理、ステップS150のトップビュー変換処理、ステップS160座標変換処理、ステップS170A、S170Bの投票処理、ステップS180の投票履歴保存処理、およびステップS220のNO判定処理を繰り返す。
Thereafter, until the traveling distance becomes equal to or greater than the predetermined distance, the
このため、CCDカメラ10の撮影毎に撮影画像から複数のエッジ点を抽出し(ステップS140)、この抽出した複数のエッジ点に対してトップビュー変換を施し(ステップS150)、このトップビュー変換された複数のエッジ点の鳥瞰座標をCCDカメラ10の撮影位置に対応付けるように当該鳥瞰座標を撮影毎に座標変換し(ステップS160)、この座標変換された鳥瞰座標上の複数のエッジ点を撮影毎にハフ空間1およびハフ空間2に対して投票し(ステップS170A、S170B)、この投票毎に投票履歴をメモリ20に保存する(S180)。
Therefore, a plurality of edge points are extracted from the captured image every time the
その後、走行距離が所定距離以上になると、ステップS220でYESと判定する。これに伴い、ステップS230に進んで、ステップS170A、S170Bで投票対象となるハフ空間の番号をそれぞれインクリメントする。すなわち、自車40の位置に対応するハフ空間3を新たに設定することになる。このため、ステップS170Aで投票対象となるハフ空間をハフ空間2として、ステップS170Bで投票対象となるハフ空間をハフ空間3とする。このとき、ハフ空間3に対応する自車40の位置情報をメモリ20に記憶させる。
Thereafter, when the travel distance is equal to or greater than the predetermined distance, YES is determined in step S220. Accordingly, the process proceeds to step S230, and the number of the Hough space to be voted is incremented in steps S170A and S170B. That is, the
その後、ステップS240において、メモリ20のうち投票履歴が記憶される記憶容量が規定容量以上か否かを判定する。このとき、メモリ20のうち投票履歴が記憶される記憶容量が規定容量未満であるときには、ステップS240でNOと判定して、次のステップS200に進む。このとき、変速機44がリバースレンジに設定されているか否かについて変速機44の出力信号に基づいて判定する。このとき、変速機44がリバースレンジ以外のレンジに設定されているときには、ステップS200においてNOと判定して、ステップS120に戻る。
Thereafter, in step S240, it is determined whether or not the storage capacity of the
その後、ステップS120、S130、S140、S150、S160、S170A、S170B、S180のそれぞれの処理を実行してからステップS220に進む。このステップS220では、前回にステップS220でYESと判定してから所定距離(例えば、1メートル)以上走行したか否かを判定する。前回にステップS220でYESと判定してから自車40が走行した走行距離が所定距離未満であるときには、今回のステップS220でNOと判定して、ステップS120に戻る。
After that, each process of steps S120, S130, S140, S150, S160, S170A, S170B, and S180 is executed, and then the process proceeds to step S220. In this step S220, it is determined whether or not the vehicle has traveled more than a predetermined distance (for example, 1 meter) since it was previously determined as YES in step S220. If the travel distance traveled by the
その後、前回にステップS220でYESと判定してから自車40が走行した走行距離が所定距離未満である限り、次回にステップS220でYESと判定されるまで、ステップS120、S130、S140、S150、S160、S170A、S170B、S180のそれぞれの処理、およびステップS220のNO判定処理を繰り返すことになる。
After that, as long as the travel distance traveled by the
このため、上記ステップS160で座標変換された鳥瞰座標上の複数のエッジ点をハフ空間2およびハフ空間3に対してCCDカメラ10の撮影毎に投票する(ステップS170A、S170B)。このようにハフ空間2およびハフ空間3に投票された投票履歴をCCDカメラ10の撮影毎にメモリ20に記憶させることになる(ステップS180)。
For this reason, a plurality of edge points on the bird's eye coordinate coordinate-transformed in step S160 are voted for the
その後、前回にステップS220でYESと判定してから自車40が走行した走行距離が所定距離以上になると、次にステップS220においてYESと判定する。
Thereafter, if the travel distance traveled by the
次にステップS230において、ステップS170A、S170Bで投票対象となるハフ空間の番号をそれぞれインクリメントする。すなわち、自車40の位置に対応するハフ空間4を新たに設定することになる。このため、ステップS170Aで投票対象となるハフ空間をハフ空間3として、ステップS170Bで投票対象となるハフ空間をハフ空間4とする。このとき、ハフ空間4に対応する自車40の位置情報をメモリ20に記憶させる。
In step S230, the number of the Hough space to be voted is incremented in steps S170A and S170B. That is, the Hough space 4 corresponding to the position of the
このことにより、ステップS220でYESと判定される回数(以下、単に判定回数という)が2回目であるときには、CCDカメラ10の撮影毎にハフ空間3およびハフ空間4に対して投票し、この投票毎にその投票履歴をメモリ20に記憶させることになる(ステップS180)。
Thus, when the number of times YES is determined in step S220 (hereinafter simply referred to as the number of times of determination) is voted for the
その後、ステップS240において、メモリ20のうち投票履歴が記憶される記憶容量が規定容量以上か否かを判定する。このとき、メモリ20のうち投票履歴が記憶される記憶容量が規定容量未満あるときには、ステップS240でNOと判定して、次のステップS200に進む。このとき、変速機44がリバースレンジ以外のレンジに設定されているときには、NOと判定して、ステップS120に戻る。
Thereafter, in step S240, it is determined whether or not the storage capacity of the
このため、次にステップS220でYESと判定するまで、ステップS120、S130、S140、S150、S160、S170A、S170B、S180のそれぞれの処理、およびステップS220のNO判定処理を繰り返すことになる。このため、上記ステップS160で座標変換された鳥瞰座標上の複数のエッジ点をハフ空間3およびハフ空間4に対してCCDカメラ10の撮影毎に投票する(ステップS170A、S170B)。このようにハフ空間2およびハフ空間3に投票された投票履歴をCCDカメラ10の撮影毎にメモリ20に記憶させることになる(ステップS180)。
For this reason, the processes in steps S120, S130, S140, S150, S160, S170A, S170B, and S180 and the NO determination process in step S220 are repeated until it is determined as YES in step S220. For this reason, a plurality of edge points on the bird's eye coordinate coordinate-converted in step S160 are voted for the
その後、3回目にステップS220でYESと判定されると、次のステップS230において、ステップS170Aで投票対象となるハフ空間をハフ空間4として、ステップS170Bで投票対象となるハフ空間をハフ空間5とする。このとき、ハフ空間5に対応する自車40の位置情報をメモリ20に記憶させる。
Thereafter, when YES is determined in step S220 for the third time, in the next step S230, the Hough space to be voted is determined to be Hough space 4 in Step S170A, and the Hough space to be voted is determined to be Hough space 5 in Step S170B. To do. At this time, the position information of the
その後、ステップS240において、メモリ20のうち投票履歴が記憶される記憶容量が規定容量以上か否かを判定する。このとき、メモリ20のうち投票履歴が記憶される記憶容量が規定容量以上であるときには、ステップS240でYESと判定して、ステップS250に進む。これに伴い、メモリ20において記憶される複数のハフ空間の履歴のうち最も古いタイミングで投票されるハフ空間の履歴を初期化する。例えば、メモリ20において、ハフ空間1、ハフ空間2、ハフ空間3、ハフ空間4のそれぞれの履歴が記憶されている場合には、最も古いタイミングで投票されるハフ空間1の履歴が消去される。
Thereafter, in step S240, it is determined whether or not the storage capacity of the
次のステップS200において、変速機44がリバースレンジ以外のレンジに設定されているとき、NOと判定してステップS120に戻る。その後、ステップS120、S130、S140、S150、S160の処理を経て、上記ステップS160で座標変換された鳥瞰座標上の複数のエッジ点をハフ空間4およびハフ空間5に対して投票する(ステップS170A、S170B)。このようにハフ空間4およびハフ空間5に投票された投票履歴をCCDカメラ10の撮影毎にメモリ20に記憶させる(ステップS180)。このとき、メモリ20においてハフ空間1の投票履歴に代えてハフ空間5の投票履歴が記憶されることになる。そして、ステップS220のNO判定処理(或いはYES判定処理)、ステップS230、ステップS240のNO判定処理(或いはステップS240のYES判定処理およびステップS250)、およびステップS200のNO判定を実施する。
In the next step S200, when the
その後、変速機44がリバースレンジ以外のレンジに設定されている限り、ステップS120、S130、S140、S150、S160、S170A、S170B、S180、およびステップS220のNO判定処理(或いはYES判定処理)、ステップS230、ステップS240のNO判定処理(或いはステップS240のYES判定処理およびステップS250)、およびステップS200のNO判定を繰り返す。
Thereafter, as long as the
例えば、判定回数がN−1回であるときには、CCDカメラ10の撮影毎に、上記ステップS160で座標変換された鳥瞰座標上の複数のエッジ点をハフ空間Nとおよびハフ空間N+1に投票する(ステップS170A、170B)。
For example, when the number of determinations is N−1, a plurality of edge points on the bird's-eye coordinate coordinate-converted in step S160 are voted for the Hough space N and the Hough space N + 1 every time the
一方、判定回数がN回であるときには、CCDカメラ10の撮影毎に、上記ステップS160で座標変換された鳥瞰座標上の複数のエッジ点をハフ空間N+1とおよびハフ空間N+2に投票する(ステップS170A、170B)。このように投票されるハフ空間の投票履歴はメモリ20に記憶される(ステップS180)。
On the other hand, when the number of determinations is N, the plurality of edge points on the bird's eye coordinate coordinate-converted in step S160 are voted for the Hough space N + 1 and the Hough space N + 2 every time the
例えば、メモリ20において、ハフ空間N−1、ハフ空間N、ハフ空間N+1、ハフ空間N+2のそれぞれの投票履歴が記憶されている場合において、次のステップS220でYESと判定後に、ステップS230に進むと、ステップS170Aで投票対象となるハフ空間をハフ空間N+2として、ステップS170Bで投票対象となるハフ空間をハフ空間N+3とする。このとき、ハフ空間N+3に対応する自車40の位置情報をメモリ20に記憶させる。つまり、ハフ空間が設定される毎にこの設定されるハフ空間に対応する自車40の位置情報をメモリ20に記憶させる。
For example, when the voting history of each of the Hough space N−1, Hough space N, Hough space N + 1, and Hough space N + 2 is stored in the
その後、ステップS240に移行すると、次のようにメモリ20のうち投票履歴を初期化する。すなわち、メモリ20のうち投票履歴が記憶される記憶容量が規定容量以上であるとしてステップS240でYESと判定したときには、メモリ20において、ハフ空間N−1、ハフ空間N、ハフ空間N+1、ハフ空間N+2のうち最も古いタイミングで投票されるハフ空間N−1の履歴を消去する(ステップS200)。
Thereafter, when the process proceeds to step S240, the voting history is initialized in the
その後、ステップS200においてNOと判定した場合に、ステップS120、S130、S140、S150、S160の処理を経て、上記ステップS160で座標変換された鳥瞰座標上の複数のエッジ点をハフ空間N+2およびハフ空間N+3に対して投票する(ステップS170A、S170B)。このようにハフ空間N+2およびハフ空間N+3に投票された投票履歴をCCDカメラ10の撮影毎にメモリ20に記憶させる(ステップS180)。このとき、メモリ20においてハフ空間N−1の投票履歴に代えてハフ空間N+3の投票履歴が記憶されることになる。そして、ステップS220のNO判定処理(或いはYES判定処理)、ステップS230、ステップS240のNO判定処理(或いはステップS240のYES判定処理およびステップS250)を実施する。
After that, when it is determined as NO in step S200, a plurality of edge points on the bird's eye coordinate converted in step S160 are processed through steps S120, S130, S140, S150, and S160, and the Hough space N + 2 and the Hough space Vote for N + 3 (steps S170A, S170B). Thus, the voting history voted for the Hough space N + 2 and the Hough space N + 3 is stored in the
その後、変速機44がリバースレンジに設定されると、ステップS200でYESと判定して、次のステップS260に移行する。例えば、ハフ空間N、ハフ空間N+1、ハフ空間N+2、およびハフ空間N+3のそれぞれ投票履歴がメモリ20に記憶されている場合において、メモリ20に記憶されるハフ空間N、ハフ空間N+1、ハフ空間N+2、およびハフ空間N+3に対応する自車40の位置情報を用いて、ハフ空間N、ハフ空間N+1、ハフ空間N+2、およびハフ空間N+3のそれぞれ投票履歴を共通のハフ空間に写像する。
Thereafter, when the
ここで、共通のハフ空間の撮影領域は、ハフ空間N、ハフ空間N+1、ハフ空間N+2、およびハフ空間N+3をそれぞれの撮影領域を全てカバーする領域である。
Here, the shooting area of the common Hough space is an area that covers all of the shooting areas of Hough space N, Hough space N + 1, Hough space N + 2, and Hough
このよう共通のハフ空間への写像により、ハフ空間N、ハフ空間N+1、ハフ空間N+2、およびハフ空間N+3が統合されることになる。その後、ステップS210において、上記共通のハフ空間に写像された投票履歴から駐車枠51を示す直線を検出する。
By mapping to the common Hough space, the Hough space N, Hough space N + 1, Hough space N + 2, and Hough space N + 3 are integrated. Thereafter, in step S210, a straight line indicating the
以上説明した本実施形態によれば、メモリ20に記憶される複数のハフ空間の投票履歴のうち最も古いタイミングで投票されるハフ空間の投票履歴に代えて最も新しいタイミングで投票されたハフ空間の投票履歴が記憶される。このことにより、メモリ20において複数のハフ空間の投票履歴を記憶する際に使用される記憶容量が制限されることになる。そして、自動変速機の変速レンジがリバースレンジに設定されると、メモリ20に記憶される複数のハフ空間の投票履歴をそれぞれ共通のハフ空間に写像し、この写像された投票履歴から駐車枠51を示す直線を検出する。このため、撮影画像が繰り返しメモリに記憶される場合に比べて、メモリの使用容量を減らすことができる。以上により、上記第1実施形態と同様に、駐車支援装置1におけるメモリ20の使用容量の増大化を抑えることができる。
According to this embodiment described above, instead of the voting history of the Hough space voted at the oldest timing among the voting histories of the plurality of Hough spaces stored in the
本実施形態では、判定回数がN−1回であるときと、判定回数がN回であるときとのいずれのときにも、CCDカメラ10の撮影毎にN+1番目のハフ空間に鳥瞰座標上のエッジ点を投票する。このため、判定回数がN−1回であるときにハフ空間Nだけに投票し、かつ判定回数がN回であるときに投票手段がハフ空間N+1だけに投票する場合に比べて、N+1番目のハフ空間に投票される投票数を増やすことができる。
In this embodiment, when the number of determinations is N−1 times and when the number of determinations is N times, the N + 1-th Hough space is displayed on the bird's-eye coordinate system every time the
ここで、ハフ空間において、投票数が多い点のρおよびθが撮影画像上の直線を表している。このため、上述の如く、N+1番目のハフ空間に投票される投票数を増やすことにより、N+1番目のハフ空間において、直線を表すρおよびθが投票数によって明確に表されることになる。これにより、直線の検出を容易に行うことができる。 Here, in the Hough space, ρ and θ at points with a large number of votes represent straight lines on the captured image. Therefore, as described above, by increasing the number of votes voted for the (N + 1) th Hough space, ρ and θ representing a straight line are clearly represented by the number of votes in the (N + 1) th Hough space. Thereby, a straight line can be easily detected.
本実施形態では、自車40の進行方向に並ぶ複数のハフ空間のうち隣接する2つのハフ空間は、互いにオーバーラップしている。このため、CCDカメラ10の撮影領域のうち、複数のハフ空間の対象から外れる領域が生じることを避けることができる。
In the present embodiment, two adjacent Hough spaces among a plurality of Hough spaces arranged in the traveling direction of the
(他の実施形態)
上述の第1、第2実施形態では、直線を表すための第1パラメータをρとし、直線を表すための第2パラメータをθとして、X軸をρ、Y軸をθ、Z軸をエッジ点の投票数とする空間をハフ空間とする例について説明したが、これに代えて、直線を表すための第1パラメータを傾きaとし、直線を表すための第2パラメータを切片bとして、X軸を傾きa、Y軸を切片b、およびZ軸をエッジ点の投票数とする空間をハフ空間としてもよい。ここで、傾きaおよび切片bは、二次元のXY座標上の点(xi、yi)を通る直線Aをyi=a×xi+bと表すために用いられるパラメータである。
(Other embodiments)
In the first and second embodiments described above, the first parameter for representing a straight line is ρ, the second parameter for representing a straight line is θ, the X axis is ρ, the Y axis is θ, and the Z axis is an edge point. However, instead of this, the first parameter for representing a straight line is defined as a slope a, the second parameter for representing a straight line is defined as an intercept b, and the X axis May be a Hough space in which the slope is a, the Y axis is the intercept b, and the Z axis is the number of votes of edge points. Here, the inclination a and the intercept b are parameters used to express the straight line A passing through the point (xi, yi) on the two-dimensional XY coordinates as yi = a × xi + b.
上述の第1、第2実施形態では、操舵角センサ41の出力信号および車速センサ42の出力信号に基づいて、自車40の位置情報を算出した例について説明したが、これに代えて、GPSを用いて自車40の位置情報を算出してもよい。
In the first and second embodiments described above, the example in which the position information of the
上述の第1、第2実施形態では、撮影画像中のエッジ点を鳥瞰変換してこの鳥瞰変換した鳥瞰座標上のエッジ点を用いて駐車枠51を示す直線を検出する例について説明したが、これに代えて、撮影画像中のエッジ点を鳥瞰変換することなく、撮影画像中のエッジ点を用いて駐車枠51を示す直線を検出するようにしてもよい。
In the first and second embodiments described above, an example has been described in which the edge point in the photographed image is bird's-eye converted and the straight line indicating the
例えば、第1実施形態では、CCDカメラ10の撮影毎に撮影画像から複数のエッジ点を抽出し(ステップS140)、この抽出した複数のエッジ点の座標をCCDカメラ10の撮影位置に対応付けるように当該座標を撮影毎に座標変換し(ステップS160)、この座標変換された座標上の複数のエッジ点を撮影毎に共通のハフ空間に投票し、この投票毎に投票履歴をメモリ20に保存する。
For example, in the first embodiment, a plurality of edge points are extracted from the captured image every time the
例えば、第2実施形態では、CCDカメラ10の撮影毎に撮影画像から複数のエッジ点を抽出し(ステップS140)、この抽出した複数のエッジ点の座標をCCDカメラ10の撮影位置に対応付けるように当該座標を撮影毎に座標変換し(ステップS160)、この座標変換された座標上の複数のエッジ点を撮影毎にハフ空間Nおよびハフ空間N+1に対して投票し、この投票毎に投票履歴をメモリ20に保存する。
For example, in the second embodiment, a plurality of edge points are extracted from the captured image every time the
上述の第2実施形態では、判定回数がN−1回であるとき、CCDカメラ10の撮影毎に、複数のエッジ点をハフ空間Nとおよびハフ空間N+1に投票し、判定回数がN回であるときに、CCDカメラ10の撮影毎に、複数のエッジ点をハフ空間N+1とおよびハフ空間N+2に投票する例について説明したが、これに代えて、次のようにしてもよい。
In the second embodiment described above, when the number of determinations is N−1, a plurality of edge points are voted for the Hough space N and the Hough space N + 1 every time the
すなわち、判定回数がN−1回であるとき、CCDカメラ10の撮影毎に、複数のエッジ点をハフ空間Nだけに投票し、判定回数がN回であるときに、CCDカメラ10の撮影毎に、複数のエッジ点をハフ空間N+1にだけに投票するようにしてもよい。
That is, when the number of determinations is N−1, a plurality of edge points are voted only on the Hough space N for each photographing of the
上述の第1、第2実施形態では、自車の後方に配置されるCCDカメラ10を用いて、周囲の景色として駐車枠側の景色を撮影する例について説明したが、これに限らず、駐車枠側の景色を撮影することが可能ならば、自車の後方以外の箇所に配置されるCCDカメラ10を用いてもよい。
In the first and second embodiments described above, the example in which the
上述の第1、第2の実施形態では、CCDカメラ10の撮影画像からエッジ点を抽出して、この抽出された複数のエッジ点に対してトップビュー変換を実施する例について説明したが、これに代えて、CCDカメラ10の撮影画像に対してトップビュー変換し、このトップビュー変換された撮影画像からエッジ点を抽出するようにしてもよい。
In the first and second embodiments described above, an example in which edge points are extracted from the captured image of the
1 駐車支援装置
10 CCDカメラ
20 メモリ
30 マイクロコンピュータ
1
Claims (6)
前記駐車枠の付近に前記自車が到達したか否かを判定する第1判定手段(S110)と、
前記駐車枠の付近を前記自車が通過したか否かを判定する第2判定手段(S190)と、
前記カメラ(10)が撮影する毎に前記自車の位置情報を取得する取得手段(S130)と、
前記自車が前進しているときに、前記駐車枠の付近に前記自車が到達したと前記第1判定手段が判定したときから、前記駐車枠の付近を前記自車が通過したと前記第2判定手段が判定するとき迄、前記カメラの撮影毎の前記位置情報に基づいて前記撮影画像中のエッジ点の座標を前記撮影毎の前記位置情報に対応付けるように前記撮影画像中のエッジ点の座標を前記撮影毎に変換し、この変換毎に前記変換された座標上のエッジ点を共通のハフ空間に投票して、この投票毎に前記投票の履歴をメモリ(20)に記憶させる投票手段(S160、S170、S180)と、
前記自車が後退し始めたか否かを判定する第3判定手段(S200)と、
前記自車が後退し始めたと前記第3判定手段が判定したときに、前記メモリに記憶される前記投票毎の履歴から前記駐車枠を示す前記直線を検出する検出手段(S210)と、を備えることを特徴とする車載画像処理装置。 When the vehicle travels in the vicinity of the parking frame, the parking frame is detected from the captured image of the camera (10) for repeatedly capturing the scenery on the parking frame side, and driving is performed based on the detected parking frame. A parking assistance device for assisting a person's parking operation,
First determination means (S110) for determining whether or not the vehicle has reached the vicinity of the parking frame;
Wherein said near the parking space second determination means for determining whether the vehicle has passed (S190),
Acquisition means (S130) for acquiring the position information of the own vehicle every time the camera (10) takes an image;
When the host vehicle is moving forward, the first determining means determines that the host vehicle has reached the vicinity of the parking frame. 2 Until the determination means determines, the coordinates of the edge points in the captured image are associated with the position information for each of the captured images based on the positional information for each captured image of the camera. Voting means for converting coordinates for each photographing, voting edge points on the converted coordinates for each conversion to a common Hough space, and storing the voting history in the memory (20) for each vote (S160, S170, S180),
Third determination means (S200) for determining whether or not the vehicle has started to reverse;
Detecting means (S210) for detecting the straight line indicating the parking frame from the history for each vote stored in the memory when the third determining means determines that the host vehicle has started to move backward; An in-vehicle image processing apparatus characterized by the above.
前記カメラが撮影する毎に前記自車の位置情報を取得する取得手段(S130)と、
前記自車が一定距離以上走行したか否かを繰り返し判定する距離判定手段(S220)と、
前記自車が前進しているときに、前記自車が一定距離以上走行したかと前記距離判定手段が判定する毎に、前記自車の位置に対応する前記カメラの撮影領域を対象とするハフ空間を設定する設定手段(S230)と、
前記自車の走行距離が一定距離以上であると前記距離判定手段が判定した判定回数がN−1回である場合には、前記カメラの撮影毎の前記位置情報に基づいて前記撮影画像中のエッジ点の座標を前記撮影毎の前記位置情報に対応付けるように前記撮影画像中のエッジ点の座標を前記撮影毎に変換し、この変換毎に前記変換されたエッジ点を少なくともN番目の前記ハフ空間に対して投票する投票手段(S160、S170A、S170B)と、
前記投票手段の投票毎に前記投票の履歴をメモリ(20)に記憶させる制御手段(S180、S250)と、
前記自車が後退し始めたか否かを判定する第3判定手段(S200)と、
前記自車が後退し始めたと前記第3判定手段が判定したときに、前記メモリに記憶される前記ハフ空間毎の投票の履歴から前記駐車枠を含む前記直線を検出する検出手段(S210、S260)と、
前記メモリにおいて前記写像毎の履歴が記憶される容量が所定値以上であるか否かを判定する容量判定手段(S240)と、を備え、
前記メモリにおいて前記写像毎の履歴が記憶される容量が所定値以上であると前記容量判定手段が判定したときには、前記制御手段は、前記メモリに記憶される前記投票毎の履歴のうち最も古いタイミングで投票されたハフ空間の履歴に代えて最も新しいタイミングで投票されたハフ空間の履歴を前記メモリに記憶させるようになっていることを特徴とする車載画像処理装置。 When the vehicle travels in the vicinity of the parking frame, the parking frame is detected from the captured image of the camera (10) for repeatedly capturing the scenery on the parking frame side, and driving is performed based on the detected parking frame. A parking assistance device for assisting a person's parking operation,
Acquisition means (S130) for acquiring position information of the own vehicle every time the camera takes a picture;
Distance determining means (S220) for repeatedly determining whether or not the vehicle has traveled a certain distance or more;
When the vehicle is moving forward, each time the distance determination unit determines whether the vehicle has traveled more than a certain distance, a Hough space that targets the shooting area of the camera corresponding to the position of the vehicle Setting means (S230) for setting
When the number of determinations determined by the distance determination means that the traveling distance of the host vehicle is equal to or greater than a certain distance is N-1 times, the distance in the captured image is determined based on the position information for each image captured by the camera. The coordinates of the edge point in the photographed image are converted for each photographing so that the coordinates of the edge point are associated with the position information for each photographing, and the converted edge point is converted into at least the Nth Hough for each conversion. Voting means (S160, S170A, S170B) for voting against space;
Control means (S180, S250) for storing the voting history in the memory (20) for each vote of the voting means;
Third determination means (S200) for determining whether or not the vehicle has started to reverse;
Detection means (S210, S260) that detects the straight line including the parking frame from the voting history for each of the Hough spaces stored in the memory when the third determination means determines that the host vehicle has started to move backward. )When,
Capacity determining means (S240) for determining whether or not a capacity for storing a history for each mapping in the memory is a predetermined value or more,
When the capacity determination unit determines that the capacity for storing the history for each mapping in the memory is equal to or greater than a predetermined value, the control unit determines the oldest timing among the history for each vote stored in the memory. An in-vehicle image processing apparatus, wherein a history of the Hough space voted at the latest timing is stored in the memory instead of the history of the Hough space voted in (1).
前記判定回数がN回であるときには、前記投票手段は、前記カメラの撮影毎に前記座標上のエッジ点を前記N+1番目の前記ハフ空間とN+2番目の前記ハフ空間とに対して投票することを特徴とする請求項2または3に記載の車載画像処理装置。 When the number of times of determination that the distance determination means determines that the traveling distance of the host vehicle is equal to or greater than a certain distance is N-1 times, the voting means determines an edge point on the coordinates every time the camera takes a picture. Vote for the Nth Hough space and the N + 1th Hough space,
When the number of times of determination is N, the voting means votes the edge points on the coordinates for the N + 1th Hough space and the N + 2th Hough space every time the camera shoots. The in-vehicle image processing apparatus according to claim 2 or 3, wherein
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012062028A JP5924053B2 (en) | 2012-03-19 | 2012-03-19 | Parking assistance device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012062028A JP5924053B2 (en) | 2012-03-19 | 2012-03-19 | Parking assistance device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013193545A JP2013193545A (en) | 2013-09-30 |
JP5924053B2 true JP5924053B2 (en) | 2016-05-25 |
Family
ID=49393044
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012062028A Active JP5924053B2 (en) | 2012-03-19 | 2012-03-19 | Parking assistance device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5924053B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6649738B2 (en) * | 2015-10-15 | 2020-02-19 | 株式会社Soken | Parking lot recognition device, parking lot recognition method |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4016180B2 (en) * | 2002-03-15 | 2007-12-05 | ソニー株式会社 | Planar extraction method, apparatus thereof, program thereof, recording medium thereof, and imaging apparatus |
JP2007141167A (en) * | 2005-11-22 | 2007-06-07 | Fujitsu Ten Ltd | Lane detector, lane detection method, and lane detection program |
JP5082637B2 (en) * | 2007-07-10 | 2012-11-28 | 富士通株式会社 | Image processing program, image processing method, and image processing apparatus |
JP4530060B2 (en) * | 2008-02-19 | 2010-08-25 | トヨタ自動車株式会社 | Parking support apparatus and method |
JP4636346B2 (en) * | 2009-03-31 | 2011-02-23 | アイシン精機株式会社 | Car camera calibration apparatus, method, and program |
JP5397321B2 (en) * | 2009-06-09 | 2014-01-22 | 株式会社デンソー | Parking assistance system |
WO2011065399A1 (en) * | 2009-11-25 | 2011-06-03 | 日本電気株式会社 | Path recognition device, vehicle, path recognition method, and path recognition program |
JP2012017021A (en) * | 2010-07-08 | 2012-01-26 | Panasonic Corp | Parking assistance apparatus, and vehicle |
JP2013120517A (en) * | 2011-12-08 | 2013-06-17 | Ricoh Co Ltd | Image processing device |
-
2012
- 2012-03-19 JP JP2012062028A patent/JP5924053B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013193545A (en) | 2013-09-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6156486B2 (en) | Perimeter monitoring apparatus and program | |
JP5958366B2 (en) | In-vehicle image processing device | |
EP3290301B1 (en) | Parking assist device | |
JP7351172B2 (en) | parking assist device | |
JP2016119570A (en) | Vehicle periphery monitoring device | |
JP5626147B2 (en) | Vehicle approaching object detection device | |
JP2018136695A (en) | Parking support device | |
US11017245B2 (en) | Parking assist apparatus | |
JP2019064431A (en) | Parking support device | |
JP2020068515A (en) | Image processing apparatus | |
JP2010028432A (en) | Parking support system and image display method | |
CN107925746A (en) | Periphery monitoring apparatus | |
JP6326869B2 (en) | Vehicle periphery image display device and vehicle periphery image display method | |
CN112977426A (en) | Parking assist system | |
JP5849942B2 (en) | In-vehicle image processing device | |
JP2012166705A (en) | Foreign matter attachment determining system for on-vehicle camera lens | |
WO2015122124A1 (en) | Vehicle periphery image display apparatus and vehicle periphery image display method | |
JP7000383B2 (en) | Image processing device and image processing method | |
JP2022023870A (en) | Display control device | |
JP2007331548A (en) | Parking support device | |
JP2015171106A (en) | Vehicle peripheral image display device and vehicle peripheral image display method | |
JP6327115B2 (en) | Vehicle periphery image display device and vehicle periphery image display method | |
JP7395913B2 (en) | object detection device | |
JP5924053B2 (en) | Parking assistance device | |
JP2012061989A (en) | Device and method for image processing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141203 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151224 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160322 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160404 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5924053 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |