JP2007326428A - Parking assisting device - Google Patents

Parking assisting device Download PDF

Info

Publication number
JP2007326428A
JP2007326428A JP2006158041A JP2006158041A JP2007326428A JP 2007326428 A JP2007326428 A JP 2007326428A JP 2006158041 A JP2006158041 A JP 2006158041A JP 2006158041 A JP2006158041 A JP 2006158041A JP 2007326428 A JP2007326428 A JP 2007326428A
Authority
JP
Japan
Prior art keywords
vehicle
light
image
slit light
means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006158041A
Other languages
Japanese (ja)
Inventor
Koji Kato
Tadashi Nakamura
正 中村
耕治 加藤
Original Assignee
Denso Corp
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, 株式会社デンソー filed Critical Denso Corp
Priority to JP2006158041A priority Critical patent/JP2007326428A/en
Publication of JP2007326428A publication Critical patent/JP2007326428A/en
Application status is Withdrawn legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To detect a parking space with higher precision by precisely obtaining a distance between an object around a vehicle and the vehicle. <P>SOLUTION: A parking assisting device enables a processing unit 5 to make slit light irradiate a side part of the vehicle 10 from a light emission part 2 for the slit light irradiation, to input an image of the side part of the vehicle captured by a camera 1 mounted in the vehicle 10, to detect a bending point where the photographed slit light is bent in the image, and to calculate the distance between the object around the vehicle and the vehicle 10 from the bending point. Then the parking space is extracted in the side part of the vehicle from the distance to assist a driver for parking. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、道路側面の駐車空間を検出することでドライバの駐車支援を行う駐車支援装置に関する。 The present invention relates to a parking assist apparatus for performing a parking assist driver by detecting a parking space in the road side.

従来より、車両の駐車空間を検知するものとして、例えば超音波センサ、レーザレーダ、ステレオカメラが用いられている。 Conventionally, as to detect the parking space of the vehicle, for example, ultrasonic sensors, laser radar, stereo cameras are used. これらのうち、超音波センサは、超音波を発すると共に、超音波が物体で反射して戻るまでの時間を計測することにより超音波センサと物体との距離を算出する際に用いられる。 Of these, the ultrasonic sensor, as well as emit ultrasound, ultrasound is used to calculate the distance between the ultrasonic sensor and the object by measuring the time until the return is reflected by the object. このような超音波センサでは、車両から例えば約1m程度離れた物体を検知できる。 Such an ultrasonic sensor can detect, for example, about 1m about distant object from the vehicle.

また、レーザレーダは、レーザダイオードを光源として車両周辺にレーザ光を照射し、車両周辺の物体からの反射光を検出することにより、物体と車両との距離を算出する際に用いられる。 The laser radar, a laser beam is irradiated around the vehicle to the laser diode as a light source, by detecting the reflected light from the object around the vehicle, it is used to calculate the distance between the object and the vehicle. このようなレーザレーダでは、車両から例えば約数十mの範囲の物体を検知できる。 In such a laser radar, it can detect objects ranging from the vehicle for example, about several tens of m.

さらに、ステレオカメラは、例えば車両後方を撮影してその映像を車載モニタに表示することでドライバの駐車支援に用いられる。 Further, the stereo camera is used in the parking assist a driver by displaying the video on the vehicle monitor for example by photographing the vehicle rear. このようなステレオカメラは、各カメラで撮影された各画像の視差を利用して画像に映し出された物体までの距離の算出に用いられる。 Such a stereo camera is used to calculate a distance to the object projected on the image by using the parallax between the images taken by the cameras.

なお、ステレオカメラにて撮影された各画像から同一点を見つけ出して視差を求めることで、ステレオカメラのレンズの焦点距離をf、基線長(ステレオカメラを構成する2台のカメラの間隔)をl、視差をxとすると、ステレオカメラと障害物との距離dをd=f×l/xから算出することができる。 Incidentally, by obtaining the parallax find the same point from each image captured by the stereo camera, the focal length of the stereo camera lens f, the baseline length (the distance between two cameras forming a stereo camera) l the disparity When x, it is possible to calculate the distance d between the stereo camera and the obstacle from the d = f × l / x.

しかしながら、上記従来の技術では、車両周辺を監視するセンサとして超音波センサを用いた場合、最近接を含めた限られた障害物でないと検出することができず、溝のように地面と高低差が小さい障害物を検知することができない。 However, in the conventional art, when using an ultrasonic sensor as a sensor for monitoring the surroundings of the vehicle can not be detected unless an obstacle which limited, including nearest the ground and the height difference as grooves it is not possible to detect a small obstacle. また、レーザレーダを用いた場合、スキャンするための仕組みが大掛かりであり、既存技術では車両への搭載性が悪い。 In the case of using a laser radar, a mechanism for scanning is bulky, poor mountability to the vehicle in the existing technologies. さらに、ステレオカメラを用いた場合、車両移動による視差でステレオ視して車両と車両周辺の物体との距離を算出する際、演算に用いる2枚の画像での対応点(同一点)を正しく抽出できないと車両周辺の物体と車両との距離の遠近関係を逆転して算出してしまう可能性がある。 Furthermore, when using a stereo camera, when calculating the distance to the object around the vehicle and the vehicle and stereoscopic by the disparity by the vehicle movement, extracting the corresponding points in the two images to be used for calculating the (same point) correctly there is a possibility that can not the thus calculated by reversing the perspective relationship between the distance between the object and the vehicle around the vehicle. これにより、駐車空間を誤判定する可能性がある。 Thus, there is a possibility to determine the parking space erroneous.

本発明は、上記点に鑑み、より高精度に駐車空間を検出することができる駐車支援装置を提供することを目的とする。 In view of the above points, and an object thereof is to provide a parking assistance device capable of detecting the parking space with higher accuracy.

上記目的を達成するため、本発明は、車両(10)の側部に搭載された光源(2)からスリット光を照射させると共に、車両のボデー上で前記光源から離れた位置に搭載された撮影手段(1)によって、車両の移動に伴って車両の側方部が繰り返し撮影された各画像を入力し、各画像の中からスリット光が屈曲する屈曲点(31、32)をそれぞれ検出すると共に、各画像の各屈曲点に基づいて車両周辺物体(11、12、41〜44)と車両との距離を算出し、算出した距離に基づいて車両の側方部の駐車空間を抽出した後、駐車空間の車両の駐車目標枠として設定する処理手段(5)を備えたことを特徴とする。 To achieve the above object, the present invention is to provide irradiates the slit light from the light source (2) mounted on the side of the vehicle (10), mounted at a position away from the light source on the body of the vehicle photographed by means (1), together with the movement of the vehicle type each image taken repeatedly side portions of the vehicle, the slit light from each image to detect bending point bending the (31, 32), respectively calculates the distance between the vehicle surrounding objects (11,12,41~44) and the vehicle based on each bending point of each image, after extracting the parking space of the side portion of the vehicle based on the calculated distance, characterized by comprising processing means (5) to be set as the target parking frame of the vehicle the parking space.

このようにすれば、スリット光が車両周辺物体に照射された場合、光源と撮影手段との視差によって生じたスリット光の屈曲点(折れ曲がり点)を撮影することができる。 Thus, if the slit light is irradiated on the vehicle peripheral object can be photographed bending point of the slit light generated by the parallax between the light source and the imaging means (point bending). そして、画像の中からこの屈曲点の座標を検出し、この屈曲点の座標を用いて車両周辺物体が無い場合のスリット光からのずれを得ることで、車両周辺物体と車両との距離を得ることができる。 Then, to detect the coordinates of the inflection points from the image, the vehicle surrounding objects that get displaced from the slit light in the absence, obtaining a distance between the vehicle surrounding objects and the vehicle with the coordinates of the inflection point be able to. このスリット光の折れ曲がりは、実在する車両周辺物体の表面で発生するため、車両周辺物体と車両との遠近関係が逆転してしまうことを防止でき、溝のように地面と高低差が小さい障害物や車両周辺物体と車両との距離を精度良く検出することができる。 Bending the of the slit light, for generating on the surface of the vehicle periphery object actually exists, it is possible to prevent the distance relationship between the vehicle surrounding objects and the vehicle will be reversed, ground and height difference is small obstacles like groove the or distance between the vehicle surrounding objects and the vehicle can be accurately detected.

撮影に用いられる光源は、当該光源から照射されるスリット光が地面に照射された際に伸びる方向と車両のボデー面とが垂直になるように車両に設置されていることが好ましい。 Light source used in photographing, it is preferable that the direction and the body surface of the vehicle extending in a slit light is irradiated to the ground which is irradiated from the light source is installed in the vehicle so as to be perpendicular. このようにすることで、車両のボデー面からの距離を取得することができる。 In this way, it is possible to obtain the distance from the body surface of the vehicle.

また、光源は、赤外線のスリット光を照射するようになっていることが好ましい。 The light source is preferably adapted to irradiate a slit light in the infrared.

さらに、上記撮影手段は、反射対象(例えば障害物)までの距離に応じた一画素分の面積に相当する太陽光の反射光量よりも大きな光量のスリット光を照射する。 Further, the photographing unit irradiates a slit light of greater amount than the amount of light reflected sunlight is equivalent to the area of ​​a single pixel according to the distance to the reflection object (e.g. obstacle). これにより、スリット光が太陽光に埋もれてしまい、スリット光をカメラで撮影しにくくなることを防止できる。 This can prevent the slit light buried in sunlight, it is difficult to photograph the slit light by a camera.

上記撮影手段のシャッター速度は、当該撮影手段においてスリット光を感光可能な最小限の時間に相当していることが好ましい。 Shutter speed of the imaging means preferably corresponds to the minimum possible time sensitive slit light in the imaging means. このようにして、シャッター時間を短縮することで、スリット光をより顕著に撮影することができる。 In this way, by shortening the shutter time, it can be more remarkably photographing slit light.

上記処理手段を、撮影手段にて撮影された画像を第1画像として入力する第1画像取得手段(110)と、光源からスリット光を照射させると共に、撮影手段にて撮影された画像を第2画像として入力する第2画像取得手段(120、130)と、第1画像と第2画像との各画像のデータの差分演算を行い、この差分演算で得られた画像を第3画像として取得する第3画像取得手段(140)と、第3画像の中から、スリット光を示すものが折れ曲がる場所を屈曲点として検出してこの屈曲点の座標を取得すると共に、スリット光を示すもののうち、障害物が存在しない位置での反射のものに該当する屈曲点の座標と、車両周辺物体が存在する位置での反射のものに該当する屈曲点の座標と、から光源と撮影手段との視差を求める視差取得手 The processing means, a first image acquiring means for inputting an image photographed by the photographing means as a first image (110), along with to irradiate a slit light from a light source, an image captured by imaging means second a second image acquiring means for inputting an image (120, 130), performs a differential operation of the data of each image between the first image and the second image, acquiring an image obtained by the difference calculation as a third image a third image acquisition means (140), from the third image, and detects the location indicates the slit light bends as a bending point obtains the coordinates of the bent point, among those showing the slit light, disorders determining the coordinates of the bending points object corresponds to that of the reflection at the position that does not exist, the parallax of the coordinates of the inflection point corresponding to that of the reflection at the position where the vehicle near object is present, a light source and a photographing means parallax acquisition hand (150)と、光源と撮影手段との視差の値を用いて、車両周辺物体と車両との距離を取得する距離取得手段(160)と、を備えた構成とし、これら各構成で距離算出処理を行うようにしても良い。 And (150), using the value of the parallax between the light source and the imaging means, a distance obtaining means for obtaining a distance between the vehicle surrounding objects and the vehicle (160), and configured to include a distance calculation processing in each of these configurations it may be performed.

また、道路に対してスリット光の照射角度がそれぞれ異なる複数の光源を車両に設置すると共に、上記処理手段の処理を距離算出処理としたとき、処理手段を、複数の光源の中からスリット光を照射する照射角度パターンのうちの一つを選択するスリット光パターン選択手段(210)と、スリット光パターン選択手段にて選択されたスリット光の照射角度パターンに基づいて距離算出処理を行う距離算出駆動処理手段(220)と、複数の光源においてすべての照射角度パターンで距離算出処理が行われたか否かを判定するパターン判定手段(230)と、を備えた構成としても良い。 Further, the irradiation angle of the slit light is installed a plurality of different light sources in the vehicle respectively a road, when the distance calculation processing processes of the processing means, the processing means, the slit light from a plurality of light sources a slit light pattern selecting means for selecting one of the irradiation angle pattern for irradiating (210), the distance calculation drive for performing the distance calculation process based on the irradiation angle pattern of the slit light selected by the slit light pattern selecting means and processing means (220), and determines the pattern determining means for determining whether the distance calculation processing in all irradiation angle pattern in the plurality of light sources is performed (230) may be configured to include.

複数の光源からそれぞれ照射される各スリット光のうち、一方のスリット光が地面に照射された際に伸びる方向は車両の横方向に対して車両の前方側になっており、他方のスリット光が地面に照射された際に伸びる方向は車両の横方向に対して車両の後方側になっていることが好ましい。 Among the slit light emitted from a plurality of light sources, the extending direction when the one of the slit light is irradiated on the ground has become a front side of the vehicle with respect to the transverse direction of the vehicle, the other slit light the extending direction when illuminated on the ground it is preferable that is a rear side of the vehicle with respect to the transverse direction of the vehicle.

これにより、車両の側方部において、車両周辺物体によって車両から死角となる部分までの距離を検出することができ、抽出する駐車空間の精度を向上することができる。 Accordingly, the side portions of the vehicle, the vehicle surrounding objects can detect the distance from the vehicle to the portion to be a blind spot, it is possible to improve the accuracy of the extracted parking space. すなわち、車両を上面図のごとく視点で見たとき、V字型にスリット光を照射することを意味する。 That is, when viewed from the perspective as a top view of the vehicle, it means to irradiate the slit light in a V-shape. このように複数の光源からスリット光を照射することで、車両の側部をスキャニングする際、死角を減らし詳細な駐車空間を検出することができる。 By irradiating this way the slit light from a plurality of light sources, when scanning the side of the vehicle, it is possible to detect the detailed parking space reducing blind spots.

なお、上記各手段の括弧内の符号は、後述する実施形態に記載の具体的手段との対応関係を示すものである。 The reference numerals in parentheses of each means described above, shows the correspondence with specific means described in embodiments described later.

以下、本発明の実施形態について図に基づいて説明する。 Hereinafter will be described with reference to FIG embodiments of the present invention. なお、以下の各実施形態相互において、互いに同一もしくは均等である部分には、図中、同一符号を付してある。 Note that in the following embodiments, portions identical or equivalent to each other, in the drawing are denoted by the same reference numerals.

(第1実施形態) (First Embodiment)
以下、本発明の第1実施形態について図を参照して説明する。 Hereinafter, will be described with reference to the drawings a first embodiment of the present invention. 本実施形態で示される駐車支援装置は、駐車空間を検出すると共に、検出した駐車空間に基づいて駐車支援を行うものとして用いられる。 Parking assist apparatus shown in this embodiment detects a parking space, it is used as performing the parking assist based on the detected parking space.

図1は、本発明の第1実施形態に係る駐車支援装置の構成図である。 Figure 1 is a configuration diagram of a parking assist apparatus according to a first embodiment of the present invention. この図に示されるように、駐車支援装置S1は、カメラ1と、発光部2と、舵角センサ3と、車速センサ4と、処理ユニット5と、表示器6と、を備えて構成されている。 As shown in this figure, the parking assist device S1 is a camera 1, a light emitting unit 2, a steering angle sensor 3, a vehicle speed sensor 4, the processing unit 5, is configured to include a display 6, the there.

カメラ1は、車両周辺の景色を撮影するものであり、例えば1秒間に15枚の画像を撮影する。 Camera 1 is to shoot the scene around the vehicle, taking a 15 images, for example, in 1 second. 撮影された1枚1枚の画像は、連続して表示されることで動画として認識される。 Each of the images captured is recognized as a moving by being continuously displayed. このカメラ1にて撮影された画像のデータは、処理ユニット5に出力される。 Data of a photographed image by the camera 1 is output to the processing unit 5. また、本実施形態では、カメラ1のレンズ焦点距離をfとする。 Further, in the present embodiment, the lens focal length of the camera 1 and f. このレンズ焦点距離fは、あらかじめ処理ユニット5に記憶されている。 The lens focal length f is stored in advance in the processing unit 5.

なお、広範囲を撮影する場合や、駐車空間を探して移動している車両の近傍から道路の路肩までを撮影する状況等を考慮して、カメラ1は、広角で撮影できるものが望ましい。 Incidentally, or when photographing a wide range, taking into account the status, etc. to shoot from the vicinity of the vehicle that is moving to the shoulder of a road searching for parking space, the camera 1, which can be taken with the wide-angle is desirable. また、カメラ1は、本発明の撮影手段に相当する。 The camera 1 corresponds to the imaging means of the present invention.

発光部2は、カメラ1にて車両周辺を撮影するための光源である。 Emitting unit 2 is a light source for photographing a peripheral vehicle by the camera 1. つまり、この発光部2によって光が発せられると、車両周辺に光が照射され、車両周辺で反射した光をカメラ1がとらえて撮影する。 In other words, when light is emitted by the light emitting portion 2, it is irradiated with light around the vehicle, for photographing light reflected by the surrounding vehicle camera 1 is captured. なお、発光部2は、本発明の光源に相当する。 The light emitting unit 2 corresponds to the light source of the present invention.

このような発光部2は、光源と、光源から発せられた光を集光する集光レンズと、集光レンズから照射される光をスリット状に照射する断面が平凸状の半円柱レンズと、を有して構成される。 The light emitting portion 2, light source, a condenser lens for condensing light emitted from the light source, and a semi-cylindrical lens cross section planoconvex irradiating the light emitted from the condenser lens to the slit-shaped , configured to have a. この構成では、光源から発せられた光は、集光レンズを介して半円柱レンズの凸面から鉛直方向に伸びたスリット光として車両周辺に照射されることとなる。 In this configuration, the light emitted from the light source, so that the irradiated around the vehicle as a slit light extending in a vertical direction from the convex surface of the semi-cylindrical lenses through the condenser lens.

また、上記発光部2の光源として、赤外光を発するLEDが採用される。 Further, as the light source the light emitting unit 2, LED is employed that emits infrared light. そして、この光源の光軸が、車両10の前後方向に対してやや前方に向けられている。 Then, the optical axis of the light source, is slightly directed forward relative to the longitudinal direction of the vehicle 10.

なお、外乱光である太陽光の光量は例えば一般的な文献によれば1mW/mm であるので、この太陽光の光量よりも大きな光量の光を照射することが好ましい。 Since the light quantity of the sunlight is disturbance light is a 1 mW / mm 2 according to the general literature for example, it is preferable than the amount of the sunlight is irradiated with light of a large amount of light. すなわち、反射対象等で反射したスリット光の光量が太陽光の光量よりも低い場合、スリット光が太陽光に埋もれてしまい、スリット光をカメラ1で撮影しにくくなる。 That is, the light quantity of the slit light reflected by the reflecting object or the like is lower than the amount of sunlight, will slit light buried in sunlight, it is difficult to photograph the slit light by a camera 1. したがって、発光部2からは、反射対象までの距離に応じたカメラ1の一画素分の面積に相当する太陽光の反射光量よりも大きな光量のスリット光を照射することが好ましい。 Therefore, from the light emitting portion 2, it is preferable to irradiate the slit light larger amount than the amount of light reflected sunlight is equivalent to the area of ​​one pixel of the camera 1 corresponding to the distance to the reflecting object.

本実施形態では、上記カメラ1で道路の路肩を撮影するため、カメラ1および発光部2は、図1に示されるように、車両10の左側部に設置されている。 In the present embodiment, for taking the shoulder of the road by the camera 1, camera 1 and the light emitting portion 2, as shown in FIG. 1, it is installed on the left side of the vehicle 10. 具体的には、図1に示されるように、カメラ1は車両10のボデーの左側部に固定され、例えば道路の路肩を撮影する向きで固定される。 Specifically, as shown in FIG. 1, the camera 1 is fixed to the left side portion of a vehicle body 10, it is fixed in a direction of photographing for example roads the shoulder. 発光部2は、カメラ1と同様に車両10のボデーの左側部に固定され、上述のように車両10の前後方向に対してやや前方に向けられて固定される。 Emitting unit 2 is fixed to the left side portion of the body of the vehicle similarly to 10 and the camera 1 is fixed slightly forward directed with respect to the longitudinal direction of the vehicle 10 as described above. さらに、カメラ1および発光部2は車両10のボデー上でそれぞれ離れた位置に搭載される。 Furthermore, the camera 1 and the light emitting portion 2 is mounted at a position apart respectively on the body of the vehicle 10. つまり、カメラ1と発光部2との距離(間隔)が基線長lとなる。 That is, the distance between the camera 1 and the light emitting portion 2 (interval) is base length l. この基線長lの値はあらかじめ処理ユニット5に記憶されている。 The value of the base line length l are stored in advance in the processing unit 5.

このように、車両10のボデー上で発光部2から離れた位置にカメラ1が搭載される場合、スリット光を車両10のボデー面に投影したとき、その投影されたスリット光の直線上にカメラ1が配置される場合もある。 Thus, the camera case, when projected slit light to a body surface of the vehicle 10, the straight line of the projected slit light camera 1 is mounted at a position away from the light emitting portion 2 on a vehicle body 10 If 1 is arranged also. このような場合であっても、カメラ1と発光部2との間に一定距離が設けられることで、スリット光が反射対象に照射された場合に視差を生じた画像をカメラ1にて撮影することができる。 Even in such a case, a certain distance between the camera 1 and the light-emitting portion 2 that is provided to photograph an image slit light is generated parallax when irradiated to the reflection target by the camera 1 be able to.

なお、発光部2から空間に照射されるスリット光の光路によって形成される面を照射面とし、車両10のうち照射面に対して離れた位置にカメラ1を搭載するようにしても良い。 Incidentally, the plane formed by the optical path of the slit light emitted into space from the light emitting unit 2 and the irradiation surface, may be mounted to the camera 1 at a position away to the irradiation surface of the vehicle 10. このように、カメラ1および発光部2を配置したとしても、カメラ1にてカメラ1と発光部2との視差によるスリット光のずれを撮影することができる。 Thus, it can be arranged to the camera 1 and the light emitting unit 2, taking a deviation of the slit light by the camera 1 according to the parallax of the camera 1 and the light emitting portion 2.

舵角センサ3は、ドライバがステアリングを操作したときの回転角度を検出するものである。 Steering angle sensor 3 is for detecting the rotation angle when the driver operates the steering. また、車速センサ4は、車両の速度、すなわち車速を検出するものである。 Further, the vehicle speed sensor 4, the speed of the vehicle, i.e. detects a vehicle speed. これら舵角センサ3および車速センサ4で検出されたステアリング舵角に応じた信号、および車両の速度に応じた信号は、それぞれ処理ユニット5に入力されると共に、処理ユニット5にて各物理量に変換される。 These steering angle sensor 3 and the signal corresponding to the steering angle detected by the vehicle speed sensor 4, and a signal corresponding to the speed of the vehicle, converts is input to each processing unit 5, in the processing unit 5 to each physical quantity It is.

処理ユニット5は、カメラ1で車両周辺を撮影する機能、発光部2からスリット光を照射する機能、カメラ1で撮影された画像から、車両周辺に存在する物体と車両10との距離を算出する機能、上記算出された距離を用いて、駐車支援(後述する事前処理、駐車空間抽出処理、駐車目標枠設定処理)を行う機能、駐車支援情報を表示器6に表示する機能を有するものである。 Processing unit 5 has a function of photographing a peripheral vehicle camera 1, the ability to irradiate the slit light from the light emitting unit 2, the image captured by the camera 1, and calculates the distance between the object and the vehicle 10 existing around the vehicle function, using the distances calculated above, the parking assist (described later preprocessing, parking space extraction processing, the target parking frame setting processing) function of performing, and has a function of displaying the parking assist information on the display 6 . 本実施形態では、車両周辺に存在する物体と車両10との距離をdとする。 In the present embodiment, the distance between the object and the vehicle 10 existing around the vehicle to as d.

このような機能を有する処理ユニット5の構成を図2に示す。 It shows the configuration of the processing unit 5 having such a function in Fig. この図に示されるように、処理ユニット5は、入力部5a、出力部5b、記憶部5c、演算部5d、CPU5eを備えて構成される。 As shown in this figure, the processing unit 5, an input section 5a, the output unit 5b, the storage unit 5c, arithmetic unit 5d, configured with a CPU5e. なお、処理ユニット5は、本発明の処理手段に相当する。 The processing unit 5 corresponds to the processing means of the present invention.

入力部5aおよび出力部5bは、カメラ1、発光部2、舵角センサ3、車速センサ4、および表示器6とのインターフェースとなるものである。 Input unit 5a and the output unit 5b, the camera 1, the light emitting unit 2, a steering angle sensor 3, is made of an interface between the vehicle speed sensor 4 and a display 6,. 記憶部5cは、舵角センサ3や車速センサ4の情報や処理ユニット5における演算結果、距離算出処理、事前処理、駐車支援処理等の各処理を行うための距離算出プログラム、事前処理プログラム、駐車支援プログラム等の各プログラムを格納するメモリである。 Storage unit 5c, the steering angle sensor 3 and the vehicle speed sensor 4 for information and processing unit operations in 5 result, the distance calculation processing, pre-processing, the distance calculation program for carrying out the processes in the parking assist process and the like, pre-processing program, parking a memory for storing each program, such as a support program. また、演算部5dおよびCPU5eは、各プログラムを実行するものである。 The arithmetic unit 5d and CPU5e is to execute each program.

表示器6は、上記処理ユニット5で得られた駐車空間の情報を表示するものであり、液晶パネルが採用される。 Display 6 is for displaying the information obtained parking space above the processing unit 5, the liquid crystal panel is employed. なお、この表示器6は、車両10に既に搭載されているものであっても構わない。 Incidentally, the display unit 6, may be one that is already installed in the vehicle 10. 以上が、本実施形態に係る駐車支援装置S1の全体構成である。 The above is the overall configuration of a parking assistance apparatus S1 according to the present embodiment.

次に、上記駐車支援装置S1において、発光部2から照射される鉛直方向のスリット光により、車両周辺の物体と車両10との距離を取得する方法について、図3を参照して説明する。 Then, in the parking assist apparatus S1, the vertical slit light emitted from the light emitting portion 2, how to obtain a distance between the object and the vehicle 10 around the vehicle, it will be described with reference to FIG. 図3は、スリット光による撮影対象物までの測距方法の説明図である。 Figure 3 is an explanatory view of a distance measuring method to the object to be shot by the slit light.

まず、カメラ1および発光部2は、図3に示されるように、距離lだけ離れて車両10に設置される。 First, the camera 1 and the light emitting portion 2, as shown in FIG. 3, a distance l is installed in the vehicle 10. この距離lが基線長lに相当する。 The distance l is equivalent to the base length l. この基線長lの値はあらかじめ処理ユニット5の記憶部5cに記憶されている。 The value of the base line length l is stored in the storage unit 5c of the pre-processing unit 5.

そして、発光部2からスリット光が照射され、スリット照射方向に何も存在しなければ、一直線のスリット光が撮影されることとなる。 The slit light is irradiated from the light emitting portion 2, if nothing exists in the slit illumination direction, so that the straight slit light is captured. しかしながら、スリット光が撮影対象物20に当たると、図3に示されるように、スリット光は撮影対象物20によって屈曲し、カメラ1ではスリット光が折れ曲がった屈曲点31、32が撮影されることとなる。 However, when the slit light strikes the imaging target 20, as shown in FIG. 3, the slit light is bent by the photographic object 20, the bent points 31 and 32 which is bent slit light in the camera 1 is taken and Become.

すなわち、撮影対象物20が存在しない場合と存在する場合とで撮影されるスリット光にずれが生じ、このずれを屈曲点の検出によって取得する。 That is, the deviation in the slit light is captured between when present and when the photographing object 20 is not present is generated, to obtain this shift by detecting the inflection points. そして、このずれがカメラ1と発光部2との視差に相当することとなる。 And, so that this displacement corresponds to the disparity between the camera 1 and the light emitting portion 2. 本実施形態では、この視差をxとする。 In the present embodiment, this disparity as x.

これら基線長l、視差x、そしてカメラ1の焦点距離fの各値から、上述のように、距離dをd=f×l/xから取得することとなる。 These base line length l, the disparity x and the respective values ​​of the focal length f of the camera 1, and thus to obtain, as described above, the distance d from d = f × l / x.

次に、上記測距方法を用いて、車両10の駐車空間を検出すると共に、駐車支援を行う作動について説明する。 Next, using the range finder method detects a parking space of the vehicle 10, operation will be described for performing parking assistance. 本実施形態では、例えば図4に示される状況において、駐車空間の検出およびその駐車支援を行う場合について説明する。 In the present embodiment, in the situation shown in FIG. 4, for example, a case of performing detection and parking assistance of the parking space.

図4は、車両10が駐車空間を探して運行している様子を示した図である。 Figure 4 is a diagram showing a state in which the vehicle 10 is operated looking for a parking space. 図4に示されるように、道路の路肩に2台の車両11、12が一定距離を介して駐車している。 As shown in FIG. 4, a vehicle 11, 12 of two to shoulder of the road is parked over a certain distance. このような状況において駐車支援を行うに際し、まず、駐車空間を検出する必要がある。 Upon performing parking assistance in such a situation, it is first necessary to detect a parking space. このため、車両10からスリット光を照射しつつ移動することにより道路の路肩をスキャニングすることとなる。 Therefore, so that the scanning the shoulder of the road by moving while irradiating the slit light from the vehicle 10.

図5は、距離算出処理の内容を示すフローチャートである。 Figure 5 is a flowchart showing the contents of a distance calculation process. 本実施形態では、上述のように、車両10が駐車空間を探しながら運行するため、例えば車速10km/h未満になった場合、距離算出プログラムに従って図5に示されるフローがスタートする。 In the present embodiment, as described above, since the vehicle 10 is operated while looking for the parking space, for example, when it becomes less than the vehicle speed 10 km / h, the flow shown in FIG. 5 is started according to the distance calculating program.

ステップ110(第1画像取得手段)では、カメラ1で撮影が行われる。 In step 110 (first image acquiring means), captured by the camera 1 is performed. カメラ1にて撮影された画像のデータは処理ユニット5に入力される。 Data of a photographed image by the camera 1 is inputted to the processing unit 5. 本ステップで得られた画像を画像A(本発明の第1画像に相当)とする。 And the image obtained in this step the image A (corresponding to a first image of the present invention).

ステップ120では、スリット光が照射される。 In step 120, a slit light is irradiated. すなわち、処理ユニット5から発光部2にスリット光を照射させる信号が入力されることで、発光部2から鉛直方向に伸びるスリット光の照射が行われる。 That is, the signal to irradiate the slit light from the processing unit 5 to the light-emitting unit 2 is input, the irradiation of the slit light extending in a vertical direction from the light emitting portion 2 is performed. このスリット光は、車両10の側部から道路の路肩に照射される。 The slit light is irradiated from the side of the vehicle 10 to the shoulder of the road.

ステップ130では、カメラ1で撮影が行われる。 At step 130, captured by the camera 1 is performed. すなわち、ステップ120によってスリット光が照射された状態で車両周辺が撮影される。 That is, the vehicle periphery is photographed in a state in which the slit light is irradiated in step 120. 本実施形態では、カメラ1のシャッターは高速シャッターになっている。 In the present embodiment, the shutter of the camera 1 is in the high speed shutter. シャッター速度はスリット光を感光可能な最小限の時間であることが好ましい。 Shutter speed is preferably the minimum possible time sensitive slit light. 本ステップで得られた画像を画像B(本発明の第2画像に相当)とする。 And the image obtained in this step the image B (corresponding to the second image of the present invention).

なお、撮影後、処理ユニット5から発光部2への指令により、スリット光の照射は停止される。 Incidentally, after shooting, by a command from the processing unit 5 to the light emitting unit 2, the irradiation of the slit light is stopped. また、ステップ120、130についての処理に係る手段は、本発明の第2画像取得手段に相当する。 Further, the means related to the processing of step 120 and 130 corresponds to the second image acquiring means of the present invention.

ステップ140(第3画像取得手段)では、画像Aと画像Bとの差分演算が行われる。 In step 140 (third image acquisition unit), the difference calculation between images A and B is performed. 具体的には、画像Aと画像Bとの各画素値のデータ(RGBの各値)の差分が求められる。 Specifically, the difference data for each pixel value of the image A and the image B (each value of RGB) is calculated. これにより、照射されたスリット光のみが写る差分画像C(本発明の第3画像に相当)を得ることが出来る。 Thus, it is possible to obtain a difference image C which only slit beam irradiated objects appear (corresponding to the third image of the present invention).

なお、以下のステップで得られる物体と車両10との距離の精度は、ステレオカメラを用いた場合と同様に基線長lとカメラ1の画素数に依存するが、スリット光の屈曲が逆転することはあり得ないので、物体と車両10との遠近関係が逆転することは無い。 Incidentally, the following precision of the distance between the object and the vehicle 10 obtained in step, depending on the number of pixels baseline length l and the camera 1 similar to the case of using the stereo camera, the slit light bending is reversed because impossible is never perspective relationship between the object and the vehicle 10 is reversed.

ステップ150(視差取得手段)では、屈曲点の検出が行われる。 In step 150 (parallax acquisition unit), the detection of the bending point takes place. 具体的に、差分画像Cの中のスリット光を示すものにおいて、物体が存在しない場合のものと存在する場合のものとのが折れ曲がる場所(屈曲点)が検出される。 Specifically, in those showing a slit light in the difference image C, where the bends of as if present as in the case where the object does not exist (inflection point) is detected. すなわち、物体がない場合のスリット光の位置と実際に撮影されたスリット光の位置とのずれを求めるために、差分画像Cの中からスリット光を示すものの屈曲点が取得される。 That is, to determine the deviation between the position of the slit light position and actual shooting of the slit light in the absence of the object, the bending points of which indicate the slit light from the difference image C is obtained. そして、この屈曲点の座標に基づいてカメラ1と発光部2との視差xが取得される。 Then, parallax x between the camera 1 and the light emitting portion 2 on the basis of the coordinates of the inflection point is obtained.

本実施形態では、差分画像C内に任意の点を設定し、その点を画像C内で移動させてスリット光を示すものを見つけ出す。 In this embodiment, setting an arbitrary point in the difference image C, find those which show a slit light by moving the point in the image C. そして、差分画像C内で見つけ出したスリット光に沿って移動させ、スリット光が屈曲する部分の座標を取得する。 Then, moving along the slit light finds in the difference image C, and obtains the coordinates of the portion where the slit light is bent. 本実施形態では、スリット光が直線状でなくなる部分を屈曲すると言う。 In the present embodiment, the slit light is said to bend a portion to be not linear. すなわち、差分画像Cに表示されるスリット光が物体等によって折れ曲がったり、途切れたりする部分を屈曲点という(図3参照)。 That, or bent slit light by an object or the like displayed in the difference image C, and a portion or interruption of the bending point (see FIG. 3). そして、取得された各屈曲点の座標から視差xを得る。 Then, obtain the parallax x from the inflection point obtained coordinates.

ステップ160(距離取得手段)では、物体と車両10との距離の算出が行われる。 In step 160 (a distance obtaining means), the calculation of the distance between the object and the vehicle 10 is performed. すなわち、あらかじめ基線長lおよびレンズの焦点距離fがわかっており、上記ステップ150にて視差xが得られている。 That has been found to the focal length f of the advance base line length l and the lens, parallax x is obtained in step 150. また、上述のように、カメラ1から物体までの距離dはd=f×l/xにより得られる。 Further, as described above, the distance d from the camera 1 to the object is obtained by d = f × l / x. したがって、この式に各値を代入することで距離dが得られる。 Therefore, the distance d is obtained by substituting each value into the equation. 以上で、本フローは終了する。 Thus, the present flow is terminated.

そして、上記の距離算出フローが、図4に示されるように車両10の進行と共に行われることで、道路の路肩に駐車している車両11、12の各側部の位置50(図4中の各黒丸)と車両10との距離dを複数取得する。 Then, the above-mentioned distance calculation flow, that takes place with the progress of the vehicle 10 as shown in FIG. 4, the position of each side of the vehicle 11, 12 is parked on the road shoulder of a road 50 (in FIG. 4 each black circle) and acquires a plurality of distance d between the vehicle 10.

また、図6は、道路の路肩に駐車された2台の車両11、12の間の空間を模式的に示した図である。 6 is a diagram schematically showing a space between the two vehicles 11, 12 parked in the shoulder of the road. この図に示されるように、各車両11、12の間には、溝44や石43等が存在する場合もある。 As shown in this figure, between each vehicle 11 and 12, it may also be present grooves 44 and stone 43 and the like. このような場合、上記距離算出処理によって、縁石41や街路樹42等と車両10との距離、障害物として溝44や石43等と車両10との距離も得ることができる。 In this case, by the distance calculation processing, it is the distance between the curb 41 and trees 42, etc. and the vehicle 10, obtained even if the distance between the groove 44 and stones 43 or the like and the vehicle 10 as an obstacle.

なお、図4および図6では、道路の路肩に2台の車両11、12が駐車している状況が描かれているが、車両11、12が2台とも存在しない場合や、いずれか一方のみ存在する場合も考えられる。 In FIG. 4 and FIG. 6, the situation where the vehicle 11 and 12 of the two in the shoulder of the road is parked is drawn, and when the vehicle 11 is not present both cars, either alone If there is also conceivable. このような場合であっても、上記距離算出処理によって道路の路肩に存在する物体と車両10との距離dが算出されることとなる。 Even in such a case, a distance d between the object and the vehicle 10 present in the shoulder of the road by the distance calculation process is calculated.

次に、上記のようにして取得した道路の路肩に存在する物体等と車両10との距離dに基づいて、車両10の駐車を支援する作動について説明する。 Then, based on the distance d between the object such as the vehicle 10 present in the shoulder of the road obtained as described above, it will be described operation to assist the parking of the vehicle 10. まず、駐車支援を行う前の事前処理について、図7を参照して説明する。 First, the pre-processing prior to the parking assistance, it will be described with reference to FIG. 7.

図7は、事前処理の内容を示したフローチャートである。 Figure 7 is a flowchart showing the contents of the pre-processing. ここで、事前処理とは、駐車している2台の車両11、12等の障害物の情報を調べるために、図4に示されるように車両10が道路を通行する際に実行される処理である。 Here, the pre-processing, in order to examine the information of the obstacle such as two vehicles 11 and 12 are parked, the vehicle 10 as shown in FIG. 4 is executed at the time of passing the road processing it is. したがって、処理ユニット5は、図7に示すフローチャートに従って事前処理プログラムを実行する。 Therefore, the processing unit 5 performs the pre-processing program according to the flowchart shown in FIG. 本実施形態では、この事前処理プログラムは、車速が例えば10km/h未満になると自動的に開始される。 In the present embodiment, the pre-processing program is started automatically when the vehicle speed becomes, for example, less than 10 km / h.

まず、時間に相当するカウンタをリセットした後(ステップ210)、車速センサ4および舵角センサ3から車速データ、操舵角データを取得し(ステップ220、230)、車速データ、操舵角データに基づいて車両位置を計算する(ステップ250)。 First, after resetting the counter corresponding to the time (step 210), vehicle speed data from the vehicle speed sensor 4 and steering angle sensor 3, and obtains the steering angle data (step 220, 230), the vehicle speed data, based on the steering angle data calculating the vehicle position (step 250). なお、車両位置の計算に際しては、GPS(Global Positioning System)を利用してもよい。 Note that when calculating the vehicle position may utilize a GPS (Global Positioning System).

ここで、ステップ240で車速が10km/h未満であるか否かを判定しているのは、車両10が駐車空間を探していることを前提としているためである。 Here, the vehicle speed is determined whether less than 10 km / h at step 240, because it is assumed that the vehicle 10 is looking for a parking space. なお、車速が10km/hを超えた場合、車両10は駐車空間を探していないとして本事前処理は終了する。 It should be noted that, when the vehicle speed exceeds 10km / h, the vehicle 10 this pre-processing is terminated as not looking for a parking space. そして、再度スタートからやり直すため、カウンタ値はリセットされ、これまでに格納した各種情報は全て無効となる。 Then, for once again from the start again, the counter value is reset, and all invalid various information stored so far.

そして、ステップ250で取得した車両位置を、記憶部5cのうち、現カウンタ値が指し示すアドレスのエリアへ格納する(ステップ260)。 Then, the vehicle position acquired in step 250, among the storage unit 5c, and stores the address of the current counter value indicated area (step 260). 同時刻に、カメラ1でも撮影し(ステップ270)、撮影した画像を記憶部5cのうち現カウンタ値が指し示すアドレスのエリアへ格納する(ステップ275)。 At the same time, taking any camera 1 (step 270), it stores the captured image to the area of ​​the address to which the current counter value indicated among the storage section 5c (step 275). また同時刻に、上記距離算出処理によって得られた距離dを取得し(ステップ280)、この距離情報を、記憶部5cのうち現カウンタ値が指し示すアドレスのエリアへ格納する(ステップ285)。 Also at the same time, it obtains the distance d obtained by the distance calculation processing (step 280), the distance information, and stores it in the area of ​​the address to which the current counter value indicated among the storage section 5c (step 285). その後、カウンタ値をインクリメントする(ステップ290)。 Thereafter, increments the counter value (step 290).

以上により、記憶部5cのうち同一アドレスの示すエリアに、車両位置、カメラ画像、および距離情報が格納されることになる。 Thus, in the area indicated by the same address of the storage unit 5c, the vehicle position, so that the camera image, and distance information is stored.

この後、変速機のギア位置を判定し(ステップ295)、変速機が後退以外のギア位置に設定されている場合、ステップ220に戻り、変速機が後退に設定されるまで事前処理の動作を繰り返す。 Thereafter, to determine the gear position of the transmission (step 295), if the transmission is set to a gear position other than the retracted, the process returns to step 220, the operation of pre-processing to the transmission is set to the retracted repeat. また、変速機が後退(バック)に設定されている場合、駐車支援処理を開始する。 In addition, if the transmission is set to retreat (back), to start the parking assistance process. 以下、この駐車支援処理について説明する。 The following describes the parking assistance process.

図8は、駐車支援処理の内容を示したフローチャートである。 Figure 8 is a flowchart showing the contents of the parking assist processing. まず、道路の路肩に存在する駐車空間を抽出し(ステップ310)、その駐車空間の中央に相当するカメラ1の撮影位置(カメラ画像の位置)を求め、求めた撮影位置に相当する画像を記憶部5cから読み出(READ)して(ステップ320)、カメラ画像(駐車空間としての映像)を表示器6に表示し(ステップ330)、かつ、この表示画像に重畳するようにして駐車目標枠設定処理を行う(ステップ340)。 First extracts the parking space existing shoulder of the road (step 310), the photographing position of the camera 1 corresponding to the center of the parking space (the position of the camera image) calculated, storing an image corresponding to the determined photographing position read out from the parts 5c and (rEAD) (step 320), to display the camera image (image as a parking space) on the display 6 (step 330), and the target parking frame so as to overlap in the display image the setting process is performed (step 340). そして、この駐車目標枠設定処理の結果に従って、車両10が例えば自動操舵される。 Then, according to the result of the target parking frame setting process, the vehicle 10 for example, automatic steering.

次に、上記駐車支援処理のうち駐車空間抽出処理(ステップ310)、駐車目標枠設定処理(ステップ340)の各具体的処理について説明する。 Next, the parking space extraction process of the parking assist processing (step 310), will be described the specific processing of the target parking frame setting process (step 340).

図9は、駐車空間抽出処理の内容を示したフローチャートである。 Figure 9 is a flowchart showing the contents of the parking space extraction process. まず、上述の事前処理で格納されたアドレスごとの距離情報(すなわち、道路の路肩に存在する物体までの距離)および車両位置を記憶部5cから読み出し(ステップ311、312)、道路路肩の距離情報の分布状態を算出する。 First, the distance information for each address stored in the pre-process (i.e., the distance to the object present in the shoulder of the road) and reads the vehicle position from the storage unit 5c (step 311, 312), a road shoulder of the distance information to calculate the distribution of the state. 続いて、この距離情報の3Dマッピングを行う(ステップ313)。 Subsequently, the 3D mapping the distance information (step 313). 具体的には、車両10の進行方向に対する道路路肩に存在する車両周辺物体(駐車している車両11、12や縁石41等)までの距離を3次元的にプロットすることで、道路路肩の3次元マッピングを行う。 Specifically, to plot three-dimensionally the distance to the vehicle near an object (parked and the vehicle 11, 12 and curb 41 and the like) present on the road shoulder with respect to the traveling direction of the vehicle 10, the road shoulder 3 carry out the dimension mapping.

この後、上記ステップ313で取得した道路路肩の3Dマッピングから車両10を駐車することができる駐車空間を抽出する。 Thereafter, it extracts a parking space that can be parked vehicle 10 from the acquired road shoulder of 3D mapping in step 313. すなわち、道路路肩の空間の位置、サイズを抽出することとなる。 That is, the position of a road shoulder of the space, and thus to extract the size.

例えば、車両10の側方部、すなわち道路の路肩に空間が形成されている場合、図10に示されるように、障害物駐車車両が無いと推定する。 For example, the side portion of the vehicle 10, that is, when the shoulder in the space of the road is formed, as shown in FIG. 10, and estimates that there is no obstacle parked vehicle. これに伴い、駐車車両パターンとして「駐車車両無しパターン」を決定する。 Along with this, to determine the "parked vehicle without a pattern" as a parked vehicle pattern.

また、車両10の後方側にのみ駐車車両11が存在する場合、図11に示されるように、後方側駐車車両11のみ存在すると推定する。 Also, if the parked vehicle 11 is present only on the rear side of the vehicle 10, as shown in FIG. 11, is estimated to be present only rear parked vehicle 11. これに伴い、駐車車両パターンとして「後方側駐車車両のみパターン」を決定する。 Accordingly, to determine the "rear parked vehicle only pattern" as parked vehicles pattern.

さらに、車両10の前方側にのみ駐車車両12が存在する場合、図12に示されるように、前方側駐車車両12のみ存在すると推定する。 Furthermore, if the parked vehicle 12 is present only on the front side of the vehicle 10, as shown in FIG. 12, is estimated to be present only the front parked vehicle 12. これに伴い、駐車車両パターンとして「前方側駐車車両のみパターン」を決定する。 Accordingly, to determine the "front parked vehicle only pattern" as parked vehicles pattern. こうして、駐車空間抽出処理は終了し、図8に示されるステップ320に進み、ステップ330が実行された後、ステップ340にて駐車目標枠設定処理が実行される。 Thus, the parking space extraction process ends, the process proceeds to step 320 shown in FIG. 8, after the step 330 has been executed, the target parking frame setting processing is executed at step 340.

図13は、駐車目標枠設定処理の内容を示したフローチャートである。 Figure 13 is a flowchart showing the parking contents of the target frame setting process. なお、以下では、 既駐車車両11、12の間の寸法をLとして、駐車スペースの中央部は、既駐車車両11、12からL/2の位置とする。 In the following, the dimension between the already parked vehicles 11 and 12 as L, the central portion of the parking space is from already parked vehicle 11 and the position of L / 2. また、前記中央部を通過する通過タイミングをTcとする。 Further, the passing timing of passing through the central portion and Tc.

まず、ステップ341での選択は、後述するカメラ1の撮影位置を求める演算で用いるパラメータDとして、一般的な車両の全長(車両前後方向の寸法)を基準とした値Lcか、一般的な車両の全幅(車両左右方向の寸法)を基準とした値Wc(図示せず)のいずれを用いるかを選択するものである。 First, selection in step 341, as the parameter D used in the calculation for obtaining the shooting position of the camera 1 to be described later, a general overall length (the vehicle longitudinal direction dimension) of the vehicle reference was either value Lc to the general vehicle and it selects the use of either of the full width of the (not shown) (the vehicle left-right direction dimension) values ​​Wc relative to the.

そして、ステップ341にて並列駐車の場合であると判定すると、ステップ342aにて並列駐車用表示枠の設定を行い、縦列駐車の場合であると判定すると、ステップ342bにて縦列駐車用表示枠の設定を行う。 When it is determined that the case of the parallel parking at the step 341, to set the parallel parking display frame in step 342a, if it is determined that the case of parallel parking, parallel parking for the display frame in step 342b to set.

次に、パラメータDをLc、Wcのうち一方から求める(ステップ343a、343b)。 Next, determine the parameters D Lc, from one of Wc (step 343a, 343b). ここで、パラメータDを求める際に、Lc、Wcにnを乗じているが、このnは正の整数である(D=n×Lc、D=n×Wc)。 Here, when obtaining the parameter D, Lc, although multiplied by n to Wc, where n is a positive integer (D = n × Lc, D = n × Wc). パラメータDは、自車が並列駐車および縦列駐車に必要な最小空間長を示している。 Parameter D is the vehicle indicates the minimum space length required in parallel parking and parallel parking. また、正の整数nは、この最小空間長Dを自車の全長又は全幅から算出する際に乗ずる係数であり、例えばアッカーマン・ジャントー式の車両の場合、理論式より理想的な最小空間長Dは容易に計算可能である。 The positive integer n is a coefficient multiplying the minimum space length D when calculating from the full-length or the total width of the vehicle, for example, in the case of Ackermann steering geometry type vehicle, the ideal minimum space length D from the theoretical formula It can be easily calculated.

なお、実際には、この最小空間長Dに、さらに万が一の衝突を防止するための安全マージンを加える必要があるので、正の整数値nは経験的に決定する必要がある。 In practice, this minimum space length D, it is necessary to further add a safety margin to prevent any chance of a collision, is a positive integer value n has to be determined empirically.

次に、ステップ344に移行して、上述の障害物の位置算出処理で決定した駐車車両パターンによる条件分岐を行う。 Then control proceeds to step 344, it performs conditional branching by the parking vehicle pattern determined by the position calculation process of the aforementioned obstacles. 本実施形態では、駐車車両パターンとしは、「駐車車両無しパターン」(図10参照)、「後方側駐車車両のみパターン」(図11参照)、「前方側駐車車両のみパターン」(図12参照)、および「前後に駐車車両有りパターン」(図4参照)がある。 In the present embodiment, and to the parked vehicle pattern, "parked vehicle unpatterned" (see FIG. 10), "rear parked vehicle only pattern" (see FIG. 11), "front parked vehicle only pattern" (see FIG. 12) , and a "parked vehicle there pattern back and forth" (see FIG. 4).

例えば、「駐車車両無しパターン」の場合、駐車空間を制限する障害物が無いため、自車である車両10の現状位置を基準として(ステップ346a)、最小空間長Dの1/2を減じた(車両10から見て遠方)位置を目標駐車スペースの中央(駐車枠の位置)とする(ステップ347a)。 For example, if the "parked vehicle without pattern", since there is no obstacle which limits the parking space, the current position of the vehicle 10 is a vehicle as a reference (step 346a), by subtracting the 1/2 of the minimum space length D (as viewed from the vehicle 10 distant) position the center of the target parking space (the position of the parking frame) (step 347a).

また、「後方側駐車車両のみパターン」の場合は、後方駐車車両11の最近接端から現自車位置までの距離Lが最小空間長Dの2倍以下の場合には(ステップ345:NO)、後方駐車車両11の最近接端を基準として(ステップ346b)、最小空間長Dの1/2を加算した位置を駐車枠の位置とする(ステップ347b)。 In the case of "only the pattern rear parked vehicle", when the distance L from the closest end of the rear parked vehicle 11 to the current vehicle position is 2 times or less the minimum space length D (step 345: NO) , the most proximal end of the rear parked vehicle 11 as a reference (step 346b), 1/2 was added position of minimum space length D and the position of the parking frame (step 347b).

さらに、最小空間長Dの2倍より大きい時は(ステップ345:YES)、現自車位置を基準として最小空間長Dの1/2を減じた位置を駐車枠の位置とする。 Furthermore, the minimum twice at larger spatial length D (step 345: YES), the position of the parking frame position obtained by subtracting 1/2 of the minimum space length D on the basis of the current vehicle position. このときに最小空間長Dに乗ずる“2”という係数は、2に限定されるものではない。 Factor of the minimum space length multiplied to D "2" in this case is not limited to two. 例えば、実使用上で縦列駐車をする際に、1台の既駐車車両の先の全く障害物の無い駐車スペースに駐車しようとした場合、この既駐車車両に注意して駐車すべき位置関係は、どのくらいの距離までかを仮に最小空間長Dの2倍と仮定したに過ぎない。 For example, when the parallel parking on the actual use, if you try to park in no parking space of exactly the obstacle of the previous one already parked vehicle, the positional relationship should be parked aware of this already parked vehicle merely assumed twice how much if the minimum space length D or to a distance. 仮に全長が4m、前記正の整数を1.5といった小型車両の場合、係数が2の場合は、後方駐車車両から3mの部分で条件分岐されることになる。 If If the total length is 4m, the positive small vehicle such 1.5 integers, if the coefficient is 2, so that the rear parked vehicle are conditional branches in the portion of 3m.

さらに、「前方駐車車両のみパターン」の場合は、前方駐車車両12の最遠方端を基準とし(ステップ346c)、最小空間長Dの1/2を減じた位置を駐車枠の位置とする(ステップ347c)。 Furthermore, in the case of "front parked vehicle only pattern", the furthest end with reference to the (step 346c) of the forward parking vehicle 12, the 1/2 position obtained by subtracting the minimum space length D and the position of the parking frame (step 347c).

そして、「前後に駐車車両有りパターン」の場合は、後方駐車車両11の最近接端から前方駐車車両12の最遠方端までの距離Lが最小空間長Dの2倍より長いときは(ステップ348:YES)、前方駐車車両の最近接端を基準に最小空間長Dの1/2を減じた位置を駐車枠の位置とする(ステップ346c、347c)。 Then, if the "parked vehicle there pattern back and forth", when the distance L from the closest end to the farthest end of the forward parking vehicle 12 of the rear parking vehicle 11 is longer than twice the minimum space length D (step 348 : YES), the position of the parking frame position obtained by subtracting 1/2 of the minimum space length D relative to the closest edge of the front parked vehicle (step 346c, 347c).

また、最小空間長Dの2倍以下の時は(ステップ348:NO)、前方駐車車両12の最遠方端を基準として後方駐車車両11の最近接端から前方駐車車両12の最遠方端までの距離Lの1/2を減じた位置を駐車枠の位置とする(ステップ349)。 Further, when less than twice the minimum space length D (step 348: NO), from the nearest end of the rear parked vehicle 11 based on the farthest end of the forward parking vehicle 12 to the most distal end of the forward parking vehicle 12 the position obtained by subtracting the half of the distance L to the position of the parking frame (step 349).

以上のようにして、駐車枠の位置を取得する。 As described above, to obtain the position of the parking space. この後、設定した駐車枠の位置を駐車支援情報として表示器6に例えば画像表示することにより、ドライバに対して駐車支援を行う。 Thereafter, by the display 6, for example, the image display position of the set parking frame as the parking assistance information, the parking assistance to the driver. また、自動操舵によって車両10を駐車スペースに駐車させるようにしても良い。 In addition, the automatic steering may be made to park the vehicle 10 in the parking space.

以上説明したように、本実施形態では、車両10の周辺に車両周辺物体11、12、41〜44が存在する場合、スリット光を照射して車両周辺物体11、12、41〜44を撮影すると共に、撮影した画像の中からスリット光が折れ曲がる屈曲点31、32を検出し、その屈曲点31、32に基づいて車両周辺物体11、12、41〜44と車両10との距離dを算出することが特徴となっている。 As described above, in the present embodiment, when the vehicle surrounding objects 11,12,41~44 around the vehicle 10 is present, taking a vehicle surroundings object 11,12,41~44 by irradiating slit light together, to detect the bending point 31, 32 slit light bent out of the captured image, and calculates the distance d between the vehicle surrounding objects 11,12,41~44 and the vehicle 10 based on the bending point 31, 32 it has become a feature. このスリット光の折れ曲がりは、実在する車両周辺物体11、12、41〜44の表面で発生するため、距離算出の際に車両周辺物体11、12、41〜44と車両10との遠近関係が逆転してしまうことを防止できる。 Bending of the slit light, for generating on the surface of the vehicle around an object 11,12,41~44 a real, the distance relationship between the vehicle surrounding objects 11,12,41~44 and the vehicle 10 when the distance calculated reversal it would be possible to prevent. また、撮影した画像の中から上記屈曲点の座標から視差xを求めているため、車両周辺物体11、12、41〜44と車両10との距離を精度良く求めることができる。 Further, since the seeking parallax x from the coordinates from the bending point in the captured image, it is possible to accurately obtain a distance between the vehicle surrounding objects 11,12,41~44 and the vehicle 10. また、こうして求めた距離を用いて、ドライバに対し駐車支援を行うことができる。 In addition, in this way by using the distance obtained, it is possible to perform the parking assistance to the driver. 上記のように、車両周辺物体11、12、41〜44と車両10との距離を精度良く得ることができるため、車両10を駐車するための駐車空間を精度良く検知することができる。 As described above, since the distance between the vehicle surrounding objects 11,12,41~44 and the vehicle 10 can be obtained with high accuracy, it can be accurately detected a parking space for parking the vehicle 10.

(第2実施形態) (Second Embodiment)
本実施形態では、第1実施形態と異なる部分についてのみ説明する。 In the present embodiment, description will be given only of a portion different from the first embodiment. 本実施形態では、照射角度が異なる複数の発光部2を用いることが特徴である。 In the present embodiment, the irradiation angle is characterized by using a plurality of different light-emitting portion 2. このように、複数の発光部2を用いる場合、図14に示されるフローに従って道路路肩に存在する物体までの距離dが算出される。 Thus, if a plurality of light-emitting unit 2, the distance d to the object existing on the road shoulder according to the flow shown in FIG. 14 is calculated.

まず、ステップ410(スリット光パターン選択手段)では、スリット光パターンの選択が行われる。 First, in step 410 (slit light pattern selecting means), selection of the slit light pattern is carried out. すなわち、複数の発光部2のうち、どの発光部2からスリット光を照射するかが選択される。 That is, among the plurality of light emitting portions 2, or irradiated with slit light from which the light emitting unit 2 is selected.

ステップ420(距離算出処理手段)では、距離算出処理が行われる。 In step 420 (the distance calculation processing means), the distance calculation processing is performed. すなわち、図5に示されるフローに従って、道路路肩に存在する物体の検知およびその距離dが得られる。 That is, according to the flow shown in FIG. 5, the detection and the distance d of the object existing on the road shoulder can be obtained. この処理が行われる際、上記ステップ410で選択された発光部2が用いられる。 When this process is performed, the light emitting unit 2 which is selected at step 410 is used. なお、差分画像Cから屈曲点が見つからない場合には、道路路肩に物体は存在しないとされる。 In the case where the difference image C missing bending point, the object on the road shoulder is not present.

ステップ430(パターン判定手段)では、スリット光パターンのうち全パターンが終了したか否かが判定される。 In step 430 (the pattern determination means), it is judged whether or not all the patterns of the slit light patterns has been finished is determined. すなわち、車両10に設置された全発光部2が用いられて上記ステップ420で距離算出処理が行われたが判定される。 That is, the distance calculation processing in step 420 the total light emitting section 2 is used, which is installed in the vehicle 10 but is performed is determined.

本ステップにて、全パターンが終了していない場合、ステップ410に戻り、他の発光部2が選択される。 At this step, if all patterns are not finished, the process returns to step 410, other light emitting portion 2 is selected. また、全パターンが終了した場合、本フローは終了する。 Also, if all patterns is completed, the flow ends.

以上、説明したように、複数の発光部2を用意すると共に、各発光部2からそれぞれ異なる照射角度でスリット光を照射する。 As described above, as well as providing a plurality of light emitting portions 2 is irradiated with slit light at different illumination angles from the light emitting unit 2. これにより、車両10から道路路肩をスリット光でスキャニングする際に死角がなくなるため、道路路肩の空間や障害物等を確実に検出することができると共に、障害物等と車両10との距離を算出することができる。 Thus calculated, since the dead angle is eliminated during the scanning from the vehicle 10 to the road shoulder by the slit light, it is possible to reliably detect the road shoulder of space or obstacle, the distance between the obstacle or the like and the vehicle 10 can do.

(他の実施形態) (Other embodiments)
上記各実施形態では、車両周辺物体として駐車している車両11、12や縁石41等と車両10との距離を算出しているが、道路上の段差、輪留め等も検出することができる。 In the above embodiments, it calculates the distance between the vehicle 11 and curb 41 and the like and the vehicle 10 is parked a vehicle surrounding objects, it is possible to step on the road, also wheel fastening or the like to detect. すなわち、車両側方部をスリット光によりスキャニングしているため、車両側方部を立体的(三次元的)に把握することが可能である。 That is, since the vehicle side sections by scanning the slit light, it is possible to grasp the side of the vehicle unit to the stereoscopic (three-dimensional).

上記各実施形態では、スリット光をボデー面に対して鉛直方向に照射しているが、スリット光の照射角度は鉛直方向に限らず、鉛直方向に対して角度をもって照射されるようにしても構わない。 In the above embodiments, may it is irradiated vertically slit light relative to the body surface, the irradiation angle of the slit light is not limited to the vertical direction, even so as to be irradiated at an angle to the vertical direction Absent. そして、スリット光が反射対象に照射された際、撮影される画像にスリット光の視差が生じていれば、画像の中からスリット光が屈曲する屈曲点を検出できると共に、この屈曲点に基づいて障害物等と車両10との距離を算出することができる。 Then, when the slit light is irradiated on the reflecting object, if generated parallax slit light on the recorded image, the slit light from the image can detect the bending point bending, on the basis of the inflection point it is possible to calculate the distance to the obstacle or the like and the vehicle 10. 車両10の走行に伴ってスリット光で道路の路肩をスキャニングするという観点では、スリット光は鉛直方向に伸びるものであることが好ましい。 From the viewpoint of scanning the shoulder of the road at the slit light with the traveling of the vehicle 10, it is preferable slit light are those extending vertically.

第2実施形態に示されるように、複数の発光部2を用いる場合、例えば図1に示される車両10の側部に設置された発光部2からスリット光を車両10の前方側に照射すると共に、車両10の側部に設置された別の発光部2からスリット光を車両10の後方側に照射する。 As shown in the second embodiment, if a plurality of light-emitting portions 2 irradiates the light emitting unit 2 installed on the side of the vehicle 10 is indicated, for example, in Figure 1 the slit light to the front side of the vehicle 10 , irradiated from another light emitting unit 2 installed on the side of the vehicle 10 a slit light to the rear side of the vehicle 10. すなわち、車両10を地面側に見たとき、各スリット光が地面に照射された際に伸びる方向がV字型になるようにスリット光を照射する。 That is, when the vehicle is viewed 10 on the ground side, the extending direction when the slit light is irradiated to the ground is irradiated with slit light so that the V-shape. これにより、車両10において死角無く詳細な駐車空間検知が可能となる。 This enables blind spot without detailed parking space detected in the vehicle 10. また、第1実施形態のように1つのスリット光で駐車空間を検知する場合、発光部2から照射されるスリット光が地面に照射された際に伸びる方向が車両10のボデー面に対して垂直になるようになるようにすることで、死角を低減することができる。 In the case of detecting a parking space in one of the slit light as in the first embodiment, the vertical direction extending in the slit light emitted from the light emitting unit 2 is irradiated on the ground relative to the body surface of the vehicle 10 by so become so, it is possible to reduce the dead angle.

上記各実施形態では、駐車支援処理を行うタイミングを車両10の車速に基づいて判定しているが、他のタイミングで駐車支援処理を行うようにしても構わない。 In the above embodiments, the timing of the parking assist process is determined based on the vehicle speed of the vehicle 10, may be performed parking assist process at another timing. 例えば、ナビゲーション装置と連動させて、車両10が駐車場に進入したタイミングで駐車支援処理を開始するようにしても良い。 For example, in conjunction with the navigation system, it is also possible to start the parking assistance process at the timing at which the vehicle 10 has entered the parking lot. また、ドライバが駐車支援処理を開始させる操作を行えるようにすることも可能である。 It is also possible to allow the operation of the driver to start the parking assist processing.

また、車両10が停車中の場合、発光部2からスリット光を照射しないようにする。 Further, the vehicle 10 may parked, so that the light emitting unit 2 is not irradiated with the slit light. これにより、複数システム間の干渉防止を図ることができる。 Thus, it is possible to prevent interference between multiple systems.

カメラ1にてスリット光が撮影されない場合、処理ユニット5は当該箇所に障害物があるとして判定するようにしても良い。 When the slit light by the camera 1 is not captured, the processing unit 5 may be determined as an obstacle in the relevant sections. すなわち、スリット光が水溜り、ガラス、鏡、磨かれたボデー、絶壁などに照射された場合に相当し、この場合、車両側部に物体が存在すると判定して問題ない。 That is, slit light puddles, glass, mirrors, polished body corresponds to when irradiated in such cliff, in this case, no problem was judged that the object on the vehicle side is present.

車両10に対し、発光部2から照射されるスリット光をドアが開く際のエッジの軌道に合わせることで、ドア開放時に障害物との衝突可否を判定することができる。 To the vehicle 10, the slit light emitted from the light emitting unit 2 by matching the trajectory of the edge for opening the door, it is possible to determine a collision possibility of an obstacle when the door opened. また、スリット光を車両10の上方(天井方向)に照射すれば、ハッチやトランクなどの開閉確認に使用することも可能である。 Further, by irradiating the slit light over the vehicle 10 (the ceiling direction), it is also possible to use the opening and closing check such hatch or trunk. この場合、上記各実施形態のように駐車空間の高さを検知することができる。 In this case, it is possible to detect the height of the parking space as the above embodiments. これにより、立体駐車場への入庫可否判定や、陸橋下の通過可否判定が可能となる。 Accordingly, and warehousing determination to parking garages, it is possible to pass determination under overpass.

上記各実施形態では、車両10の車速に応じて車両10の側面をスキャニングしているが、例えば車両10が交差点にさしかかったとき等に巻き込み対象となる2輪車を検知することもできる。 In the above embodiments, although scanning the side surface of the vehicle 10 according to the vehicle speed of the vehicle 10, it is also possible to detect the two-wheeled vehicle, for example the vehicle 10 is subject entrainment in such when approaching the intersection. この場合、車速に応じて車両10の側面をスキャニングするか、ナビゲーション装置と連動させて、交差点にさしかかったときに車両10をスキャニングするようにすれば良い。 In this case, either scanning the side surface of the vehicle 10 according to the vehicle speed, in conjunction with the navigation system, may be to scan the vehicle 10 when approaching the intersection.

上記各実施形態では、発光部2から鉛直方向に伸びるスリット光が照射されているが、スリット光に限らずスポット光の集まり(点線)でも良い。 In the above embodiments, the slit light extending in a vertical direction from the light emitting unit 2 is irradiated, may be a collection of spot light (dotted line) is not limited to the slit light. また、スポット光や点の光でなく、任意のマークを照射するようにしても良い。 Further, instead of the light of the spotlight or points, it may be irradiated with any mark.

上記各実施形態では、発光部2から照射するスリット光として他の車両の運転障害にならない赤外光を用いているが、スリット光として可視光を用いても構わない。 In each of the above embodiment uses the infrared light does not become operational failure of another vehicle as a slit beam irradiated from the emitting portion 2, it may be used visible light as a slit light.

また、発光部2、カメラ1の搭載位置は、車両10の側部のボデーに限るものではなく、車両10上のいずれの位置、方向であっても移動に伴い視差が生じさえすれば構わない。 The light emitting section 2, the mounting position of the camera 1 is not limited to the body side of the vehicle 10, any position on the vehicle 10, may be even occurs parallax due to movement even direction .

上記カメラ1および発光部2は、車両10の四方のいくつか、あるいは全ての方向に設置するようにしても構わない。 The camera 1 and the light-emitting unit 2, some of the four-way of the vehicle 10, or may be placed in all directions.

また、カメラ1で撮影したスリット光の反射による曲線と、反射対象が存在しない場合の曲線を基準として比較し、これらが異なる、つまり一致しない点の座標を求め、距離算出処理を行うことで、反射対象までの距離を算出することもできる。 Further, a curve due to the reflection of the captured slit light by a camera 1, compared with reference to the curve in the case where the reflecting target does not exist, they are different, that is determined the coordinates of the points that do not match, by performing the distance calculation process, it is also possible to calculate the distance to the reflecting object.

なお、各図中に示したステップは、各種処理を実行する手段に対応するものである。 Note that steps shown in the figure corresponds to the means for executing various processes.

本発明の第1実施形態に係る駐車支援装置の構成図である。 Is a configuration diagram of a parking assist apparatus according to a first embodiment of the present invention. 図1に示される処理ユニットの構成図である。 It is a block diagram of a processing unit shown in FIG. スリット光による撮影対象物までの測距方法の説明図である。 It is an explanatory view of a distance measuring method to the object to be shot by the slit light. 車両が駐車空間を探して運行している様子を示した図である。 It is a diagram showing a state in which the vehicle is traveling looking for a parking space. 距離算出処理の内容を示すフローチャートである。 The contents of the distance calculation process is a flowchart illustrating a. 道路の路肩に駐車された2台の車両の間の空間を模式的に示した図である。 It is a diagram schematically showing a space between the two vehicles which are parked on the shoulder of the road. 事前処理の内容を示したフローチャートである。 Is a flow chart showing the content of the pre-processing. 駐車支援処理の内容を示したフローチャートである。 Is a flow chart showing the contents of the parking assist processing. 駐車空間抽出処理の内容を示したフローチャートである。 Is a flow chart showing the content of the parking space extraction process. 道路の路肩に障害物が存在しない状況を示した図である。 Diagrams shoulder obstacles showed situation in the absence of the road. 車両の後方側に障害物(駐車車両)が存在する状況を示した図である。 Obstacles on the rear side of the vehicle (parked vehicle) is a diagram showing a situation that exists. 車両の前方側に障害物(駐車車両)が存在する状況を示した図である。 Obstacle on the front side of the vehicle (parked vehicle) is a diagram showing a situation that exists. 駐車目標枠設定処理の内容を示したフローチャートである。 It is a flowchart showing a parking contents of the target frame setting process. 第2実施形態において、距離算出処理の内容を示すフローチャートである。 In the second embodiment, it is a flowchart showing the content of a distance calculation process.

符号の説明 DESCRIPTION OF SYMBOLS

1…撮影手段としてのカメラ、2…光源としての発光部、5…処理手段としての処理ユニット、10…車両、11、12、41〜44…車両周辺物体、31、32…屈曲点、110…第1画像取得手段、120、130…第2画像取得手段、140…第3画像取得手段、150…視差取得手段、160…距離取得手段、410…スリット光パターン選択手段、420…距離算出処理手段、430…パターン判定手段。 1 ... camera as imaging means, the light emitting portion of the 2 ... light source, the processing unit as 5 ... processing means 10 ... vehicle, 11,12,41~44 ... vehicle surrounding objects, 31, 32 ... bending point, 110 ... the first image acquiring means, 120 and 130 ... second image acquisition unit, 140 ... third image acquisition unit, 150 ... parallax acquisition unit, 160 ... distance obtaining means, 410 ... slit light pattern selecting means, 420 ... distance calculation processing means , 430 ... pattern determination means.

Claims (8)

  1. 車両(10)の側部に搭載された光源(2)からスリット光を照射させると共に、前記車両のボデー上で前記光源から離れた位置に搭載された撮影手段(1)によって、前記車両の移動に伴って前記車両の側方部が繰り返し撮影された各画像を入力し、前記各画像の中から前記スリット光が屈曲する屈曲点(31、32)をそれぞれ検出すると共に、前記各画像の各屈曲点に基づいて車両周辺物体(11、12、41〜44)と前記車両との距離を算出し、算出した距離に基づいて前記車両の側方部の駐車空間を抽出した後、前記駐車空間の前記車両の駐車目標枠として設定する処理手段(5)を備えたことを特徴とする駐車支援装置。 From a vehicle light source mounted on the side of (10) (2) with irradiates slit light, by on-board imaging means (1) at a position distant from the light source on the body of the vehicle, movement of the vehicle enter each image side portion is repeatedly captured of the vehicle along with the together with the slit light from each image to detect bending point bending the (31, 32) respectively, each of said respective images calculating a distance between the vehicle and the vehicle surrounding objects (11,12,41~44) based on the inflection point, after extracting the parking space of the side portions of the vehicle based on the calculated distance, the parking space parking assist apparatus characterized by comprising a processing unit for setting a target parking frame of said vehicle (5).
  2. 前記光源は、当該光源から照射される前記スリット光が地面に照射された際に伸びる方向と前記車両のボデー面とが垂直になるように前記車両に設置されていることを特徴とする請求項1に記載の駐車支援装置。 The light source claims, characterized in that the direction extending in the slit light emitted from the light source is irradiated to the ground and the body surface of the vehicle is installed in the vehicle so as to be perpendicular the parking assist device according to 1.
  3. 前記光源は、赤外線のスリット光を照射するようになっていることを特徴とする請求項1または2に記載の駐車支援装置。 The light source, the parking assist apparatus according to claim 1 or 2, characterized in that is adapted to irradiate a slit light in the infrared.
  4. 前記撮影手段は、反射対象までの距離に応じた一画素分の面積に相当する太陽光の反射光量よりも大きな光量のスリット光を照射することを特徴とする請求項1ないし3のいずれか1つに記載の駐車支援装置。 The imaging means is any one of claims 1 and then irradiating the slit light larger amount than the amount of light reflected sunlight is equivalent to the area of ​​a single pixel according to the distance to the reflection object 3 the parking assist device according to One.
  5. 前記光源から前記スリット光が照射された状態で前記撮影手段にて車両周辺を撮影する際、前記撮影手段のシャッター速度は、当該撮影手段において前記スリット光を感光可能な最小限の時間に相当していることを特徴とする請求項1ないし4のいずれか1つに記載の駐車支援装置。 When taking a vehicle surroundings by the photographing means in a state where the slit light is irradiated from the light source, a shutter speed of said imaging means corresponds to the slit light to a minimum possible time sensitive in the photographing means claims 1, characterized in that that to the parking assist apparatus according to any one of 4.
  6. 前記処理手段は、 The processing means,
    前記撮影手段にて前記スリット光を照射することなく撮影された画像を第1画像として入力する第1画像取得手段(110)と、 The first image acquiring means for inputting (110) an image taken without illuminating the first image the slit light by said photographing means,
    前記光源から前記スリット光を照射させると共に、前記撮影手段にて撮影された画像を第2画像として入力する第2画像取得手段(120、130)と、 Together to irradiate the slit light from the light source, second image acquiring means for inputting the image captured by the imaging means as the second image and (120, 130),
    前記第1画像と前記第2画像との各画像のデータの差分演算を行い、この差分演算で得られた画像を第3画像として取得する第3画像取得手段(140)と、 Performs difference operation data of each image between the first image and the second image, a third image acquiring means for acquiring an image obtained by the difference calculation as the third image and the (140),
    前記第3画像の中から、前記スリット光を示すものが折れ曲がる場所を前記屈曲点として検出してこの屈曲点の座標を取得すると共に、前記屈曲点のうち、前記車両周辺物体が存在しない位置からの反射に該当する屈曲点の座標と、前記車両周辺物体が存在する位置からの反射に該当する屈曲点の座標とから、前記光源と前記撮影手段との視差を求める視差取得手段(150)と、 From among the third image, wherein with the location where those bends showing the slit light is detected as the inflection point to obtain the coordinates of the inflection point, from the one bending point, the vehicle peripheral object does not exist location the coordinates of the bending points corresponding to reflection from the coordinates of the bending points corresponding to reflection from the position where the vehicle near object exists, parallax acquisition means for obtaining a parallax between the photographing means and the light source and (150) ,
    前記光源と前記撮影手段との視差の値を用いて、前記車両周辺物体と前記車両との距離を取得する距離取得手段(160)と、を備え、これら各手段によって距離算出処理を行うことを特徴とする請求項1ないし5のいずれか1つに記載の駐車支援装置。 Using the value of the parallax between the photographing means and the light source, the distance obtaining means for obtaining vehicle surrounding objects and the distance between the vehicle (160) comprises, to make a distance calculation processing by each of these means parking assist apparatus according to any one of claims 1 to 5, characterized.
  7. 前記スリット光の照射角度がそれぞれ異なる複数の光源を有しており、 Irradiation angle of the slit light has a plurality of different light sources, respectively,
    前記処理手段は、 The processing means,
    前記複数の光源の中から、一つを選択するスリット光パターン選択手段(410)と、 From the plurality of light sources, the slit light pattern selecting means for selecting one (410)
    前記スリット光パターン選択手段にて選択された前記スリット光に基づいて前記距離算出処理を行う距離算出処理手段(420)と、 Distance calculation processing means for performing the distance calculation process based on the slit light selected by the slit light pattern selecting means and (420),
    前記複数の光源全てについて前記距離算出処理が行われたか否かを判定するパターン判定手段(430)と、を備えていることを特徴とする請求項6に記載の駐車支援装置。 Parking assist apparatus according to claim 6, characterized in that it comprises a pattern determination means (430) determines whether the distance calculation processing is performed for all the plurality of light sources.
  8. 前記複数の光源からそれぞれ照射される各スリット光のうち、一方のスリット光が地面に照射された際に伸びる方向は前記車両の横方向に対して前記車両の前方側になっており、他方のスリット光が地面に照射された際に伸びる方向は前記車両の横方向に対して前記車両の後方側になっていることを特徴とする請求項7に記載の駐車支援装置。 Among the slit light emitted from each of said plurality of light sources, the extending direction when the one of the slit light is irradiated on the ground has become a front side of the vehicle relative to the transverse direction of the vehicle, the other parking assist apparatus according to claim 7, the extending direction when the slit light is irradiated to the ground, characterized in that it is the rear side of the vehicle relative to the transverse direction of the vehicle.
JP2006158041A 2006-06-07 2006-06-07 Parking assisting device Withdrawn JP2007326428A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006158041A JP2007326428A (en) 2006-06-07 2006-06-07 Parking assisting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006158041A JP2007326428A (en) 2006-06-07 2006-06-07 Parking assisting device

Publications (1)

Publication Number Publication Date
JP2007326428A true JP2007326428A (en) 2007-12-20

Family

ID=38927218

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006158041A Withdrawn JP2007326428A (en) 2006-06-07 2006-06-07 Parking assisting device

Country Status (1)

Country Link
JP (1) JP2007326428A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008105282A1 (en) * 2007-02-27 2008-09-04 Toyota Jidosha Kabushiki Kaisha Parking assistance device
JP2016502657A (en) * 2012-11-08 2016-01-28 ブルーテックニックス ゲーエムベーハー Recording method according to at least two Time-of-flight camera
JP2017037450A (en) * 2015-08-10 2017-02-16 日産自動車株式会社 Level-difference detection apparatus and level-difference detection method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008105282A1 (en) * 2007-02-27 2008-09-04 Toyota Jidosha Kabushiki Kaisha Parking assistance device
US8130120B2 (en) 2007-02-27 2012-03-06 Toyota Jidosha Kabushiki Kaisha Parking assistance device
JP2016502657A (en) * 2012-11-08 2016-01-28 ブルーテックニックス ゲーエムベーハー Recording method according to at least two Time-of-flight camera
JP2017037450A (en) * 2015-08-10 2017-02-16 日産自動車株式会社 Level-difference detection apparatus and level-difference detection method

Similar Documents

Publication Publication Date Title
US9233688B2 (en) Systems and methods for lane end recognition
JP3776094B2 (en) Monitoring device, a monitoring method and a monitoring program
JP3945467B2 (en) Vehicle retreat support apparatus and method
JP5089545B2 (en) Road boundary detection judging device
JP2667924B2 (en) Aircraft docking guidance system
CN1306452C (en) Monitor and monitoring method
US10274598B2 (en) Navigation based on radar-cued visual imaging
US9013286B2 (en) Driver assistance system for displaying surroundings of a vehicle
JP3866328B2 (en) Vehicle near the three-dimensional object recognition device
JP3522317B2 (en) Vehicle travel guidance system
JP5227139B2 (en) Construction machinery
JP3733875B2 (en) Road white line recognition device
US20040066500A1 (en) Occupancy detection and measurement system and method
JP5126069B2 (en) The parking assist apparatus, the parking assist apparatus parts, parking assist method, the parking support program, calculation method and calculation program vehicle travel parameters, vehicle travel parameter calculation apparatus, and vehicle travel parameter calculation apparatus part
KR101084025B1 (en) Parking assistance device, vehicle-side device for parking assistance device, parking assistance method, and parking assistance program
JP4432930B2 (en) Parking assist system and parking assist method
CN102458964B (en) Camera system for use in vehicle parking
CN101500874B (en) Sight-line end estimation device and driving assist device
CN101404122B (en) Driving support device, driving support method, and computer program
US20100329510A1 (en) Method and device for displaying the surroundings of a vehicle
US20060220910A1 (en) Parking aid for a vehicle
EP1167120B1 (en) Rendering device for parking aid
CN102317954B (en) Method for detecting objects
JP3985615B2 (en) Front vehicle tracking system and the vehicle ahead tracking method
US7379564B2 (en) Movable body circumstance monitoring apparatus

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20090901