JP2007326428A - Parking assisting device - Google Patents

Parking assisting device Download PDF

Info

Publication number
JP2007326428A
JP2007326428A JP2006158041A JP2006158041A JP2007326428A JP 2007326428 A JP2007326428 A JP 2007326428A JP 2006158041 A JP2006158041 A JP 2006158041A JP 2006158041 A JP2006158041 A JP 2006158041A JP 2007326428 A JP2007326428 A JP 2007326428A
Authority
JP
Japan
Prior art keywords
vehicle
slit light
light
image
parking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006158041A
Other languages
Japanese (ja)
Inventor
Koji Kato
耕治 加藤
Tadashi Nakamura
正 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2006158041A priority Critical patent/JP2007326428A/en
Publication of JP2007326428A publication Critical patent/JP2007326428A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To detect a parking space with higher precision by precisely obtaining a distance between an object around a vehicle and the vehicle. <P>SOLUTION: A parking assisting device enables a processing unit 5 to make slit light irradiate a side part of the vehicle 10 from a light emission part 2 for the slit light irradiation, to input an image of the side part of the vehicle captured by a camera 1 mounted in the vehicle 10, to detect a bending point where the photographed slit light is bent in the image, and to calculate the distance between the object around the vehicle and the vehicle 10 from the bending point. Then the parking space is extracted in the side part of the vehicle from the distance to assist a driver for parking. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、道路側面の駐車空間を検出することでドライバの駐車支援を行う駐車支援装置に関する。   The present invention relates to a parking assistance device that assists a driver in parking by detecting a parking space on a side surface of a road.

従来より、車両の駐車空間を検知するものとして、例えば超音波センサ、レーザレーダ、ステレオカメラが用いられている。これらのうち、超音波センサは、超音波を発すると共に、超音波が物体で反射して戻るまでの時間を計測することにより超音波センサと物体との距離を算出する際に用いられる。このような超音波センサでは、車両から例えば約1m程度離れた物体を検知できる。   Conventionally, for example, an ultrasonic sensor, a laser radar, and a stereo camera have been used to detect a parking space of a vehicle. Among these, the ultrasonic sensor is used when calculating the distance between the ultrasonic sensor and the object by emitting the ultrasonic wave and measuring the time until the ultrasonic wave is reflected by the object and returns. Such an ultrasonic sensor can detect an object about 1 m away from the vehicle, for example.

また、レーザレーダは、レーザダイオードを光源として車両周辺にレーザ光を照射し、車両周辺の物体からの反射光を検出することにより、物体と車両との距離を算出する際に用いられる。このようなレーザレーダでは、車両から例えば約数十mの範囲の物体を検知できる。   The laser radar is used to calculate the distance between the object and the vehicle by irradiating the periphery of the vehicle with laser light using a laser diode as a light source and detecting reflected light from the object around the vehicle. Such a laser radar can detect an object within a range of, for example, about several tens of meters from the vehicle.

さらに、ステレオカメラは、例えば車両後方を撮影してその映像を車載モニタに表示することでドライバの駐車支援に用いられる。このようなステレオカメラは、各カメラで撮影された各画像の視差を利用して画像に映し出された物体までの距離の算出に用いられる。   Furthermore, a stereo camera is used for a driver | operator's parking assistance by image | photographing the vehicle back, for example, and displaying the image | video on a vehicle-mounted monitor. Such a stereo camera is used to calculate the distance to an object projected on an image using the parallax of each image captured by each camera.

なお、ステレオカメラにて撮影された各画像から同一点を見つけ出して視差を求めることで、ステレオカメラのレンズの焦点距離をf、基線長(ステレオカメラを構成する2台のカメラの間隔)をl、視差をxとすると、ステレオカメラと障害物との距離dをd=f×l/xから算出することができる。   Note that by finding the same point from each image captured by the stereo camera and obtaining the parallax, the focal length of the lens of the stereo camera is f, and the base length (the interval between the two cameras constituting the stereo camera) is l. If the parallax is x, the distance d between the stereo camera and the obstacle can be calculated from d = f × l / x.

しかしながら、上記従来の技術では、車両周辺を監視するセンサとして超音波センサを用いた場合、最近接を含めた限られた障害物でないと検出することができず、溝のように地面と高低差が小さい障害物を検知することができない。また、レーザレーダを用いた場合、スキャンするための仕組みが大掛かりであり、既存技術では車両への搭載性が悪い。さらに、ステレオカメラを用いた場合、車両移動による視差でステレオ視して車両と車両周辺の物体との距離を算出する際、演算に用いる2枚の画像での対応点(同一点)を正しく抽出できないと車両周辺の物体と車両との距離の遠近関係を逆転して算出してしまう可能性がある。これにより、駐車空間を誤判定する可能性がある。   However, in the above conventional technique, when an ultrasonic sensor is used as a sensor for monitoring the periphery of the vehicle, it cannot be detected unless it is a limited obstacle including the closest, and the height difference from the ground like a groove Cannot detect small obstacles. In addition, when a laser radar is used, the mechanism for scanning is large, and the existing technology is poorly mounted on a vehicle. Furthermore, when a stereo camera is used, when the distance between the vehicle and an object around the vehicle is calculated in stereo with parallax due to vehicle movement, the corresponding points (same points) in the two images used for calculation are correctly extracted. If this is not possible, there is a possibility that the perspective relationship of the distance between the object around the vehicle and the vehicle is reversed and calculated. Thereby, there is a possibility that the parking space is erroneously determined.

本発明は、上記点に鑑み、より高精度に駐車空間を検出することができる駐車支援装置を提供することを目的とする。   An object of this invention is to provide the parking assistance apparatus which can detect a parking space with high precision in view of the said point.

上記目的を達成するため、本発明は、車両(10)の側部に搭載された光源(2)からスリット光を照射させると共に、車両のボデー上で前記光源から離れた位置に搭載された撮影手段(1)によって、車両の移動に伴って車両の側方部が繰り返し撮影された各画像を入力し、各画像の中からスリット光が屈曲する屈曲点(31、32)をそれぞれ検出すると共に、各画像の各屈曲点に基づいて車両周辺物体(11、12、41〜44)と車両との距離を算出し、算出した距離に基づいて車両の側方部の駐車空間を抽出した後、駐車空間の車両の駐車目標枠として設定する処理手段(5)を備えたことを特徴とする。   In order to achieve the above object, the present invention irradiates slit light from a light source (2) mounted on a side portion of a vehicle (10), and shoots mounted at a position away from the light source on the body of the vehicle. The means (1) inputs each image obtained by repeatedly photographing the side part of the vehicle as the vehicle moves, and detects the bending points (31, 32) where the slit light is bent from each image. After calculating the distance between the vehicle peripheral object (11, 12, 41 to 44) and the vehicle based on each bending point of each image, and extracting the parking space in the side part of the vehicle based on the calculated distance, A processing means (5) for setting as a parking target frame for a vehicle in a parking space is provided.

このようにすれば、スリット光が車両周辺物体に照射された場合、光源と撮影手段との視差によって生じたスリット光の屈曲点(折れ曲がり点)を撮影することができる。そして、画像の中からこの屈曲点の座標を検出し、この屈曲点の座標を用いて車両周辺物体が無い場合のスリット光からのずれを得ることで、車両周辺物体と車両との距離を得ることができる。このスリット光の折れ曲がりは、実在する車両周辺物体の表面で発生するため、車両周辺物体と車両との遠近関係が逆転してしまうことを防止でき、溝のように地面と高低差が小さい障害物や車両周辺物体と車両との距離を精度良く検出することができる。   In this way, when the slit light is applied to the object around the vehicle, the bending point (bending point) of the slit light generated by the parallax between the light source and the photographing means can be photographed. Then, the coordinates of this bending point are detected from the image, and the distance between the vehicle surrounding object and the vehicle is obtained by obtaining the deviation from the slit light when there is no vehicle surrounding object using the coordinates of this bending point. be able to. This bending of the slit light occurs on the surface of an actual vehicle surrounding object, so that the perspective relationship between the vehicle surrounding object and the vehicle can be prevented from being reversed, and an obstacle with a small difference in height from the ground, such as a groove. In addition, it is possible to accurately detect the distance between the vehicle peripheral object and the vehicle.

撮影に用いられる光源は、当該光源から照射されるスリット光が地面に照射された際に伸びる方向と車両のボデー面とが垂直になるように車両に設置されていることが好ましい。このようにすることで、車両のボデー面からの距離を取得することができる。   The light source used for photographing is preferably installed in the vehicle so that the direction in which the slit light emitted from the light source extends when the light is applied to the ground is perpendicular to the body surface of the vehicle. By doing in this way, the distance from the body surface of a vehicle can be acquired.

また、光源は、赤外線のスリット光を照射するようになっていることが好ましい。   The light source is preferably adapted to irradiate infrared slit light.

さらに、上記撮影手段は、反射対象(例えば障害物)までの距離に応じた一画素分の面積に相当する太陽光の反射光量よりも大きな光量のスリット光を照射する。これにより、スリット光が太陽光に埋もれてしまい、スリット光をカメラで撮影しにくくなることを防止できる。   Further, the photographing unit irradiates slit light having a light amount larger than the reflected light amount of sunlight corresponding to the area of one pixel corresponding to the distance to the reflection target (for example, an obstacle). As a result, it is possible to prevent the slit light from being buried in sunlight and making it difficult to capture the slit light with a camera.

上記撮影手段のシャッター速度は、当該撮影手段においてスリット光を感光可能な最小限の時間に相当していることが好ましい。このようにして、シャッター時間を短縮することで、スリット光をより顕著に撮影することができる。   It is preferable that the shutter speed of the photographing unit corresponds to a minimum time during which the slit light can be exposed in the photographing unit. Thus, by shortening the shutter time, it is possible to photograph the slit light more significantly.

上記処理手段を、撮影手段にて撮影された画像を第1画像として入力する第1画像取得手段(110)と、光源からスリット光を照射させると共に、撮影手段にて撮影された画像を第2画像として入力する第2画像取得手段(120、130)と、第1画像と第2画像との各画像のデータの差分演算を行い、この差分演算で得られた画像を第3画像として取得する第3画像取得手段(140)と、第3画像の中から、スリット光を示すものが折れ曲がる場所を屈曲点として検出してこの屈曲点の座標を取得すると共に、スリット光を示すもののうち、障害物が存在しない位置での反射のものに該当する屈曲点の座標と、車両周辺物体が存在する位置での反射のものに該当する屈曲点の座標と、から光源と撮影手段との視差を求める視差取得手段(150)と、光源と撮影手段との視差の値を用いて、車両周辺物体と車両との距離を取得する距離取得手段(160)と、を備えた構成とし、これら各構成で距離算出処理を行うようにしても良い。   The processing means includes a first image acquisition means (110) for inputting an image photographed by the photographing means as a first image, and irradiating slit light from a light source, and secondly taking an image photographed by the photographing means. Second image acquisition means (120, 130) for inputting as an image, and a difference calculation of data of each image between the first image and the second image, and an image obtained by the difference calculation is acquired as a third image. The third image acquisition means (140), and from among the third images, the bending point of the one showing the slit light is detected as a bending point, and the coordinates of the bending point are acquired. The parallax between the light source and the photographing means is obtained from the coordinates of the bending point corresponding to the reflection at the position where the object does not exist and the coordinates of the bending point corresponding to the reflection at the position where the object around the vehicle exists. Parallax acquisition hand (150) and distance acquisition means (160) for acquiring the distance between the vehicle peripheral object and the vehicle using the parallax value between the light source and the imaging means, and the distance calculation processing in each of these structures May be performed.

また、道路に対してスリット光の照射角度がそれぞれ異なる複数の光源を車両に設置すると共に、上記処理手段の処理を距離算出処理としたとき、処理手段を、複数の光源の中からスリット光を照射する照射角度パターンのうちの一つを選択するスリット光パターン選択手段(210)と、スリット光パターン選択手段にて選択されたスリット光の照射角度パターンに基づいて距離算出処理を行う距離算出駆動処理手段(220)と、複数の光源においてすべての照射角度パターンで距離算出処理が行われたか否かを判定するパターン判定手段(230)と、を備えた構成としても良い。   In addition, when a plurality of light sources having different slit light irradiation angles with respect to the road are installed in the vehicle, and the processing of the processing means is a distance calculation process, the processing means is configured to transmit the slit light from the plurality of light sources. Slit light pattern selection means (210) for selecting one of the irradiation angle patterns to be irradiated, and distance calculation drive for performing distance calculation processing based on the irradiation angle pattern of the slit light selected by the slit light pattern selection means It is good also as a structure provided with the processing means (220) and the pattern determination means (230) which determines whether the distance calculation process was performed by all the irradiation angle patterns in the several light source.

複数の光源からそれぞれ照射される各スリット光のうち、一方のスリット光が地面に照射された際に伸びる方向は車両の横方向に対して車両の前方側になっており、他方のスリット光が地面に照射された際に伸びる方向は車両の横方向に対して車両の後方側になっていることが好ましい。   Of each slit light emitted from each of the plurality of light sources, the direction extending when one slit light is applied to the ground is the front side of the vehicle with respect to the lateral direction of the vehicle, and the other slit light is It is preferable that the direction extending when irradiated to the ground is on the rear side of the vehicle with respect to the lateral direction of the vehicle.

これにより、車両の側方部において、車両周辺物体によって車両から死角となる部分までの距離を検出することができ、抽出する駐車空間の精度を向上することができる。すなわち、車両を上面図のごとく視点で見たとき、V字型にスリット光を照射することを意味する。このように複数の光源からスリット光を照射することで、車両の側部をスキャニングする際、死角を減らし詳細な駐車空間を検出することができる。   Thereby, in the side part of a vehicle, the distance from a vehicle to the part which becomes a blind spot with a vehicle peripheral object can be detected, and the precision of the parking space to extract can be improved. That is, when the vehicle is viewed from the viewpoint as shown in the top view, it means that the slit light is irradiated in a V shape. Thus, by irradiating slit light from a plurality of light sources, when scanning a side portion of the vehicle, it is possible to reduce a blind spot and detect a detailed parking space.

なお、上記各手段の括弧内の符号は、後述する実施形態に記載の具体的手段との対応関係を示すものである。   In addition, the code | symbol in the bracket | parenthesis of each said means shows the correspondence with the specific means as described in embodiment mentioned later.

以下、本発明の実施形態について図に基づいて説明する。なお、以下の各実施形態相互において、互いに同一もしくは均等である部分には、図中、同一符号を付してある。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following embodiments, the same or equivalent parts are denoted by the same reference numerals in the drawings.

(第1実施形態)
以下、本発明の第1実施形態について図を参照して説明する。本実施形態で示される駐車支援装置は、駐車空間を検出すると共に、検出した駐車空間に基づいて駐車支援を行うものとして用いられる。
(First embodiment)
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. The parking assistance device shown in the present embodiment is used to detect a parking space and perform parking assistance based on the detected parking space.

図1は、本発明の第1実施形態に係る駐車支援装置の構成図である。この図に示されるように、駐車支援装置S1は、カメラ1と、発光部2と、舵角センサ3と、車速センサ4と、処理ユニット5と、表示器6と、を備えて構成されている。   FIG. 1 is a configuration diagram of a parking assistance apparatus according to the first embodiment of the present invention. As shown in this figure, the parking assist device S1 includes a camera 1, a light emitting unit 2, a rudder angle sensor 3, a vehicle speed sensor 4, a processing unit 5, and a display 6. Yes.

カメラ1は、車両周辺の景色を撮影するものであり、例えば1秒間に15枚の画像を撮影する。撮影された1枚1枚の画像は、連続して表示されることで動画として認識される。このカメラ1にて撮影された画像のデータは、処理ユニット5に出力される。また、本実施形態では、カメラ1のレンズ焦点距離をfとする。このレンズ焦点距離fは、あらかじめ処理ユニット5に記憶されている。   The camera 1 captures the scenery around the vehicle, and for example captures 15 images per second. Each captured image is recognized as a moving image by being continuously displayed. Data of an image photographed by the camera 1 is output to the processing unit 5. In the present embodiment, the lens focal length of the camera 1 is assumed to be f. This lens focal length f is stored in the processing unit 5 in advance.

なお、広範囲を撮影する場合や、駐車空間を探して移動している車両の近傍から道路の路肩までを撮影する状況等を考慮して、カメラ1は、広角で撮影できるものが望ましい。また、カメラ1は、本発明の撮影手段に相当する。   Note that the camera 1 is preferably capable of shooting at a wide angle in consideration of shooting a wide range or taking a situation of shooting from the vicinity of a moving vehicle looking for a parking space to the road shoulder. The camera 1 corresponds to the photographing means of the present invention.

発光部2は、カメラ1にて車両周辺を撮影するための光源である。つまり、この発光部2によって光が発せられると、車両周辺に光が照射され、車両周辺で反射した光をカメラ1がとらえて撮影する。なお、発光部2は、本発明の光源に相当する。   The light emitting unit 2 is a light source for photographing the periphery of the vehicle with the camera 1. That is, when light is emitted by the light emitting unit 2, the light is irradiated around the vehicle, and the camera 1 captures and captures the light reflected around the vehicle. The light emitting unit 2 corresponds to the light source of the present invention.

このような発光部2は、光源と、光源から発せられた光を集光する集光レンズと、集光レンズから照射される光をスリット状に照射する断面が平凸状の半円柱レンズと、を有して構成される。この構成では、光源から発せられた光は、集光レンズを介して半円柱レンズの凸面から鉛直方向に伸びたスリット光として車両周辺に照射されることとなる。   Such a light emitting unit 2 includes a light source, a condensing lens that condenses light emitted from the light source, a semi-cylindrical lens having a plano-convex cross section that irradiates light emitted from the condensing lens in a slit shape, and the like. , And is configured. In this configuration, the light emitted from the light source is irradiated around the vehicle as slit light extending in the vertical direction from the convex surface of the semi-cylindrical lens via the condenser lens.

また、上記発光部2の光源として、赤外光を発するLEDが採用される。そして、この光源の光軸が、車両10の前後方向に対してやや前方に向けられている。   In addition, an LED that emits infrared light is employed as the light source of the light emitting unit 2. The optical axis of the light source is slightly forward with respect to the longitudinal direction of the vehicle 10.

なお、外乱光である太陽光の光量は例えば一般的な文献によれば1mW/mmであるので、この太陽光の光量よりも大きな光量の光を照射することが好ましい。すなわち、反射対象等で反射したスリット光の光量が太陽光の光量よりも低い場合、スリット光が太陽光に埋もれてしまい、スリット光をカメラ1で撮影しにくくなる。したがって、発光部2からは、反射対象までの距離に応じたカメラ1の一画素分の面積に相当する太陽光の反射光量よりも大きな光量のスリット光を照射することが好ましい。 In addition, since the light quantity of sunlight which is disturbance light is 1 mW / mm < 2 > according to the general literature, for example, it is preferable to irradiate the light of a light quantity larger than this light quantity of sunlight. That is, when the light quantity of the slit light reflected by the reflection target or the like is lower than the light quantity of sunlight, the slit light is buried in sunlight, and it becomes difficult to photograph the slit light with the camera 1. Therefore, it is preferable to irradiate slit light having a light amount larger than the reflected light amount of sunlight corresponding to the area of one pixel of the camera 1 according to the distance to the reflection target from the light emitting unit 2.

本実施形態では、上記カメラ1で道路の路肩を撮影するため、カメラ1および発光部2は、図1に示されるように、車両10の左側部に設置されている。具体的には、図1に示されるように、カメラ1は車両10のボデーの左側部に固定され、例えば道路の路肩を撮影する向きで固定される。発光部2は、カメラ1と同様に車両10のボデーの左側部に固定され、上述のように車両10の前後方向に対してやや前方に向けられて固定される。さらに、カメラ1および発光部2は車両10のボデー上でそれぞれ離れた位置に搭載される。つまり、カメラ1と発光部2との距離(間隔)が基線長lとなる。この基線長lの値はあらかじめ処理ユニット5に記憶されている。   In the present embodiment, the camera 1 and the light emitting unit 2 are installed on the left side of the vehicle 10 as shown in FIG. Specifically, as shown in FIG. 1, the camera 1 is fixed to the left side of the body of the vehicle 10, for example, fixed in a direction for photographing a road shoulder. The light emitting unit 2 is fixed to the left side of the body of the vehicle 10 like the camera 1 and is fixed slightly forward with respect to the front-rear direction of the vehicle 10 as described above. Further, the camera 1 and the light emitting unit 2 are mounted at positions separated from each other on the body of the vehicle 10. That is, the distance (interval) between the camera 1 and the light emitting unit 2 is the baseline length l. The value of the baseline length l is stored in the processing unit 5 in advance.

このように、車両10のボデー上で発光部2から離れた位置にカメラ1が搭載される場合、スリット光を車両10のボデー面に投影したとき、その投影されたスリット光の直線上にカメラ1が配置される場合もある。このような場合であっても、カメラ1と発光部2との間に一定距離が設けられることで、スリット光が反射対象に照射された場合に視差を生じた画像をカメラ1にて撮影することができる。   Thus, when the camera 1 is mounted on the body of the vehicle 10 at a position away from the light emitting unit 2, when the slit light is projected onto the body surface of the vehicle 10, the camera is on the straight line of the projected slit light. 1 may be arranged. Even in such a case, by providing a certain distance between the camera 1 and the light emitting unit 2, an image with parallax is captured by the camera 1 when the slit light is irradiated onto the reflection target. be able to.

なお、発光部2から空間に照射されるスリット光の光路によって形成される面を照射面とし、車両10のうち照射面に対して離れた位置にカメラ1を搭載するようにしても良い。このように、カメラ1および発光部2を配置したとしても、カメラ1にてカメラ1と発光部2との視差によるスリット光のずれを撮影することができる。   The surface formed by the optical path of the slit light irradiated to the space from the light emitting unit 2 may be an irradiation surface, and the camera 1 may be mounted at a position away from the irradiation surface in the vehicle 10. As described above, even when the camera 1 and the light emitting unit 2 are arranged, the camera 1 can capture the shift of the slit light due to the parallax between the camera 1 and the light emitting unit 2.

舵角センサ3は、ドライバがステアリングを操作したときの回転角度を検出するものである。また、車速センサ4は、車両の速度、すなわち車速を検出するものである。これら舵角センサ3および車速センサ4で検出されたステアリング舵角に応じた信号、および車両の速度に応じた信号は、それぞれ処理ユニット5に入力されると共に、処理ユニット5にて各物理量に変換される。   The rudder angle sensor 3 detects a rotation angle when the driver operates the steering. The vehicle speed sensor 4 detects the vehicle speed, that is, the vehicle speed. A signal corresponding to the steering angle detected by the steering angle sensor 3 and the vehicle speed sensor 4 and a signal corresponding to the vehicle speed are respectively input to the processing unit 5 and converted into physical quantities by the processing unit 5. Is done.

処理ユニット5は、カメラ1で車両周辺を撮影する機能、発光部2からスリット光を照射する機能、カメラ1で撮影された画像から、車両周辺に存在する物体と車両10との距離を算出する機能、上記算出された距離を用いて、駐車支援(後述する事前処理、駐車空間抽出処理、駐車目標枠設定処理)を行う機能、駐車支援情報を表示器6に表示する機能を有するものである。本実施形態では、車両周辺に存在する物体と車両10との距離をdとする。   The processing unit 5 calculates the distance between an object existing around the vehicle and the vehicle 10 from the function of photographing the vehicle periphery with the camera 1, the function of irradiating slit light from the light emitting unit 2, and the image photographed with the camera 1. A function, a function of performing parking assistance (pre-processing described later, parking space extraction processing, parking target frame setting processing) using the calculated distance, and a function of displaying parking assistance information on the display 6 are provided. . In the present embodiment, the distance between the object existing around the vehicle and the vehicle 10 is d.

このような機能を有する処理ユニット5の構成を図2に示す。この図に示されるように、処理ユニット5は、入力部5a、出力部5b、記憶部5c、演算部5d、CPU5eを備えて構成される。なお、処理ユニット5は、本発明の処理手段に相当する。   FIG. 2 shows the configuration of the processing unit 5 having such a function. As shown in this figure, the processing unit 5 includes an input unit 5a, an output unit 5b, a storage unit 5c, a calculation unit 5d, and a CPU 5e. The processing unit 5 corresponds to the processing means of the present invention.

入力部5aおよび出力部5bは、カメラ1、発光部2、舵角センサ3、車速センサ4、および表示器6とのインターフェースとなるものである。記憶部5cは、舵角センサ3や車速センサ4の情報や処理ユニット5における演算結果、距離算出処理、事前処理、駐車支援処理等の各処理を行うための距離算出プログラム、事前処理プログラム、駐車支援プログラム等の各プログラムを格納するメモリである。また、演算部5dおよびCPU5eは、各プログラムを実行するものである。   The input unit 5 a and the output unit 5 b serve as an interface with the camera 1, the light emitting unit 2, the steering angle sensor 3, the vehicle speed sensor 4, and the display 6. The storage unit 5c includes information on the steering angle sensor 3 and the vehicle speed sensor 4, calculation results in the processing unit 5, distance calculation processing, preprocessing program, parking processing for performing each processing such as distance calculation processing, preprocessing, and parking support processing. It is a memory for storing each program such as a support program. The calculation unit 5d and the CPU 5e execute each program.

表示器6は、上記処理ユニット5で得られた駐車空間の情報を表示するものであり、液晶パネルが採用される。なお、この表示器6は、車両10に既に搭載されているものであっても構わない。以上が、本実施形態に係る駐車支援装置S1の全体構成である。   The display 6 displays information on the parking space obtained by the processing unit 5 and employs a liquid crystal panel. The indicator 6 may be one already mounted on the vehicle 10. The above is the overall configuration of the parking assistance apparatus S1 according to the present embodiment.

次に、上記駐車支援装置S1において、発光部2から照射される鉛直方向のスリット光により、車両周辺の物体と車両10との距離を取得する方法について、図3を参照して説明する。図3は、スリット光による撮影対象物までの測距方法の説明図である。   Next, a method for acquiring the distance between the object around the vehicle and the vehicle 10 by the vertical slit light emitted from the light emitting unit 2 in the parking assist device S1 will be described with reference to FIG. FIG. 3 is an explanatory diagram of a distance measuring method up to an object to be photographed using slit light.

まず、カメラ1および発光部2は、図3に示されるように、距離lだけ離れて車両10に設置される。この距離lが基線長lに相当する。この基線長lの値はあらかじめ処理ユニット5の記憶部5cに記憶されている。   First, as shown in FIG. 3, the camera 1 and the light emitting unit 2 are installed in the vehicle 10 separated by a distance l. This distance l corresponds to the baseline length l. The value of the baseline length l is stored in advance in the storage unit 5c of the processing unit 5.

そして、発光部2からスリット光が照射され、スリット照射方向に何も存在しなければ、一直線のスリット光が撮影されることとなる。しかしながら、スリット光が撮影対象物20に当たると、図3に示されるように、スリット光は撮影対象物20によって屈曲し、カメラ1ではスリット光が折れ曲がった屈曲点31、32が撮影されることとなる。   Then, when slit light is irradiated from the light emitting unit 2 and nothing exists in the slit irradiation direction, straight slit light is photographed. However, when the slit light hits the subject 20, the slit light is bent by the subject 20 as shown in FIG. 3, and the camera 1 shoots the bending points 31 and 32 where the slit light is bent. Become.

すなわち、撮影対象物20が存在しない場合と存在する場合とで撮影されるスリット光にずれが生じ、このずれを屈曲点の検出によって取得する。そして、このずれがカメラ1と発光部2との視差に相当することとなる。本実施形態では、この視差をxとする。   That is, there is a shift in the slit light that is shot depending on whether or not the shooting target 20 is present, and this shift is acquired by detecting the bending point. This deviation corresponds to the parallax between the camera 1 and the light emitting unit 2. In the present embodiment, this parallax is assumed to be x.

これら基線長l、視差x、そしてカメラ1の焦点距離fの各値から、上述のように、距離dをd=f×l/xから取得することとなる。   As described above, the distance d is obtained from d = f × l / x from each value of the baseline length l, the parallax x, and the focal length f of the camera 1.

次に、上記測距方法を用いて、車両10の駐車空間を検出すると共に、駐車支援を行う作動について説明する。本実施形態では、例えば図4に示される状況において、駐車空間の検出およびその駐車支援を行う場合について説明する。   Next, an operation for detecting the parking space of the vehicle 10 and performing parking assistance using the distance measuring method will be described. In the present embodiment, for example, in the situation shown in FIG. 4, a case where parking space detection and parking assistance are performed will be described.

図4は、車両10が駐車空間を探して運行している様子を示した図である。図4に示されるように、道路の路肩に2台の車両11、12が一定距離を介して駐車している。このような状況において駐車支援を行うに際し、まず、駐車空間を検出する必要がある。このため、車両10からスリット光を照射しつつ移動することにより道路の路肩をスキャニングすることとなる。   FIG. 4 is a diagram illustrating a state in which the vehicle 10 operates in search of a parking space. As shown in FIG. 4, two vehicles 11 and 12 are parked over a certain distance on the shoulder of the road. In performing parking assistance in such a situation, it is first necessary to detect a parking space. For this reason, the road shoulder of the road is scanned by moving while irradiating the slit light from the vehicle 10.

図5は、距離算出処理の内容を示すフローチャートである。本実施形態では、上述のように、車両10が駐車空間を探しながら運行するため、例えば車速10km/h未満になった場合、距離算出プログラムに従って図5に示されるフローがスタートする。   FIG. 5 is a flowchart showing the contents of the distance calculation process. In the present embodiment, as described above, since the vehicle 10 operates while searching for a parking space, for example, when the vehicle speed is less than 10 km / h, the flow shown in FIG. 5 starts according to the distance calculation program.

ステップ110(第1画像取得手段)では、カメラ1で撮影が行われる。カメラ1にて撮影された画像のデータは処理ユニット5に入力される。本ステップで得られた画像を画像A(本発明の第1画像に相当)とする。   In step 110 (first image acquisition means), the camera 1 performs shooting. Data of an image photographed by the camera 1 is input to the processing unit 5. The image obtained in this step is referred to as image A (corresponding to the first image of the present invention).

ステップ120では、スリット光が照射される。すなわち、処理ユニット5から発光部2にスリット光を照射させる信号が入力されることで、発光部2から鉛直方向に伸びるスリット光の照射が行われる。このスリット光は、車両10の側部から道路の路肩に照射される。   In step 120, slit light is irradiated. That is, when a signal for irradiating the light emitting unit 2 with slit light is input from the processing unit 5, irradiation of slit light extending in the vertical direction from the light emitting unit 2 is performed. This slit light is applied to the shoulder of the road from the side of the vehicle 10.

ステップ130では、カメラ1で撮影が行われる。すなわち、ステップ120によってスリット光が照射された状態で車両周辺が撮影される。本実施形態では、カメラ1のシャッターは高速シャッターになっている。シャッター速度はスリット光を感光可能な最小限の時間であることが好ましい。本ステップで得られた画像を画像B(本発明の第2画像に相当)とする。   In step 130, photographing is performed by the camera 1. That is, the vehicle periphery is photographed in a state where the slit light is irradiated in step 120. In the present embodiment, the shutter of the camera 1 is a high-speed shutter. The shutter speed is preferably a minimum time during which the slit light can be exposed. Let the image obtained in this step be an image B (corresponding to the second image of the present invention).

なお、撮影後、処理ユニット5から発光部2への指令により、スリット光の照射は停止される。また、ステップ120、130についての処理に係る手段は、本発明の第2画像取得手段に相当する。   In addition, after imaging | photography, irradiation of slit light is stopped by the instruction | command from the processing unit 5 to the light emission part 2. FIG. Further, the means relating to the processing of steps 120 and 130 corresponds to the second image acquisition means of the present invention.

ステップ140(第3画像取得手段)では、画像Aと画像Bとの差分演算が行われる。具体的には、画像Aと画像Bとの各画素値のデータ(RGBの各値)の差分が求められる。これにより、照射されたスリット光のみが写る差分画像C(本発明の第3画像に相当)を得ることが出来る。   In step 140 (third image acquisition means), a difference calculation between the image A and the image B is performed. Specifically, the difference between the pixel value data (RGB values) between the image A and the image B is obtained. Thereby, a difference image C (corresponding to the third image of the present invention) in which only the irradiated slit light is reflected can be obtained.

なお、以下のステップで得られる物体と車両10との距離の精度は、ステレオカメラを用いた場合と同様に基線長lとカメラ1の画素数に依存するが、スリット光の屈曲が逆転することはあり得ないので、物体と車両10との遠近関係が逆転することは無い。   The accuracy of the distance between the object obtained in the following steps and the vehicle 10 depends on the base line length l and the number of pixels of the camera 1 as in the case of using a stereo camera, but the bending of the slit light is reversed. Since there is no possibility, the perspective relationship between the object and the vehicle 10 will not be reversed.

ステップ150(視差取得手段)では、屈曲点の検出が行われる。具体的に、差分画像Cの中のスリット光を示すものにおいて、物体が存在しない場合のものと存在する場合のものとのが折れ曲がる場所(屈曲点)が検出される。すなわち、物体がない場合のスリット光の位置と実際に撮影されたスリット光の位置とのずれを求めるために、差分画像Cの中からスリット光を示すものの屈曲点が取得される。そして、この屈曲点の座標に基づいてカメラ1と発光部2との視差xが取得される。   In step 150 (parallax acquisition means), a bending point is detected. Specifically, in the image showing the slit light in the difference image C, a place (bending point) where the object is not present and the object is present is detected. In other words, in order to obtain the deviation between the position of the slit light when there is no object and the position of the actually photographed slit light, the bending point of what shows the slit light is acquired from the difference image C. And the parallax x of the camera 1 and the light emission part 2 is acquired based on the coordinate of this bending point.

本実施形態では、差分画像C内に任意の点を設定し、その点を画像C内で移動させてスリット光を示すものを見つけ出す。そして、差分画像C内で見つけ出したスリット光に沿って移動させ、スリット光が屈曲する部分の座標を取得する。本実施形態では、スリット光が直線状でなくなる部分を屈曲すると言う。すなわち、差分画像Cに表示されるスリット光が物体等によって折れ曲がったり、途切れたりする部分を屈曲点という(図3参照)。そして、取得された各屈曲点の座標から視差xを得る。   In this embodiment, an arbitrary point is set in the difference image C, and the point is moved in the image C to find an object indicating slit light. Then, it is moved along the slit light found in the difference image C, and the coordinates of the portion where the slit light is bent are obtained. In the present embodiment, it is said that the portion where the slit light is not linear is bent. That is, a portion where the slit light displayed in the difference image C is bent or interrupted by an object or the like is called a bending point (see FIG. 3). Then, the parallax x is obtained from the coordinates of the obtained bending points.

ステップ160(距離取得手段)では、物体と車両10との距離の算出が行われる。すなわち、あらかじめ基線長lおよびレンズの焦点距離fがわかっており、上記ステップ150にて視差xが得られている。また、上述のように、カメラ1から物体までの距離dはd=f×l/xにより得られる。したがって、この式に各値を代入することで距離dが得られる。以上で、本フローは終了する。   In step 160 (distance acquisition means), the distance between the object and the vehicle 10 is calculated. That is, the baseline length l and the focal length f of the lens are known in advance, and the parallax x is obtained in step 150 above. Further, as described above, the distance d from the camera 1 to the object is obtained by d = f × l / x. Therefore, the distance d is obtained by substituting each value into this equation. Thus, this flow ends.

そして、上記の距離算出フローが、図4に示されるように車両10の進行と共に行われることで、道路の路肩に駐車している車両11、12の各側部の位置50(図4中の各黒丸)と車両10との距離dを複数取得する。   Then, the distance calculation flow described above is performed along with the progress of the vehicle 10 as shown in FIG. 4, so that the position 50 (in FIG. 4) of each side portion of the vehicles 11 and 12 parked on the shoulders of the road. A plurality of distances d between each black circle) and the vehicle 10 are acquired.

また、図6は、道路の路肩に駐車された2台の車両11、12の間の空間を模式的に示した図である。この図に示されるように、各車両11、12の間には、溝44や石43等が存在する場合もある。このような場合、上記距離算出処理によって、縁石41や街路樹42等と車両10との距離、障害物として溝44や石43等と車両10との距離も得ることができる。   FIG. 6 is a diagram schematically showing a space between two vehicles 11 and 12 parked on the shoulder of the road. As shown in this figure, there may be a groove 44 or a stone 43 between the vehicles 11 and 12. In such a case, the distance calculation process can also obtain the distance between the curb 41, the roadside tree 42, and the vehicle 10 and the distance between the groove 44, the stone 43, and the vehicle 10 as an obstacle.

なお、図4および図6では、道路の路肩に2台の車両11、12が駐車している状況が描かれているが、車両11、12が2台とも存在しない場合や、いずれか一方のみ存在する場合も考えられる。このような場合であっても、上記距離算出処理によって道路の路肩に存在する物体と車両10との距離dが算出されることとなる。   4 and 6, the situation where two vehicles 11 and 12 are parked on the shoulder of the road is depicted. However, in the case where neither of the vehicles 11 and 12 exist or only one of them is present. There may be cases where it exists. Even in such a case, the distance d between the object existing on the shoulder of the road and the vehicle 10 is calculated by the distance calculation process.

次に、上記のようにして取得した道路の路肩に存在する物体等と車両10との距離dに基づいて、車両10の駐車を支援する作動について説明する。まず、駐車支援を行う前の事前処理について、図7を参照して説明する。   Next, an operation for assisting parking of the vehicle 10 will be described based on the distance d between the vehicle 10 and the object present on the road shoulder acquired as described above. First, the pre-processing before parking assistance will be described with reference to FIG.

図7は、事前処理の内容を示したフローチャートである。ここで、事前処理とは、駐車している2台の車両11、12等の障害物の情報を調べるために、図4に示されるように車両10が道路を通行する際に実行される処理である。したがって、処理ユニット5は、図7に示すフローチャートに従って事前処理プログラムを実行する。本実施形態では、この事前処理プログラムは、車速が例えば10km/h未満になると自動的に開始される。   FIG. 7 is a flowchart showing the contents of the pre-processing. Here, the pre-processing is processing executed when the vehicle 10 passes through the road as shown in FIG. 4 in order to check information on obstacles such as the two vehicles 11 and 12 parked. It is. Therefore, the processing unit 5 executes the preprocessing program according to the flowchart shown in FIG. In the present embodiment, this pre-processing program is automatically started when the vehicle speed falls below, for example, 10 km / h.

まず、時間に相当するカウンタをリセットした後(ステップ210)、車速センサ4および舵角センサ3から車速データ、操舵角データを取得し(ステップ220、230)、車速データ、操舵角データに基づいて車両位置を計算する(ステップ250)。なお、車両位置の計算に際しては、GPS(Global Positioning System)を利用してもよい。   First, after resetting a counter corresponding to time (step 210), vehicle speed data and steering angle data are acquired from the vehicle speed sensor 4 and the steering angle sensor 3 (steps 220 and 230), and based on the vehicle speed data and steering angle data. The vehicle position is calculated (step 250). In calculating the vehicle position, GPS (Global Positioning System) may be used.

ここで、ステップ240で車速が10km/h未満であるか否かを判定しているのは、車両10が駐車空間を探していることを前提としているためである。なお、車速が10km/hを超えた場合、車両10は駐車空間を探していないとして本事前処理は終了する。そして、再度スタートからやり直すため、カウンタ値はリセットされ、これまでに格納した各種情報は全て無効となる。   Here, it is determined in step 240 whether or not the vehicle speed is less than 10 km / h because it is assumed that the vehicle 10 is looking for a parking space. In addition, when the vehicle speed exceeds 10 km / h, this pre-processing is terminated because the vehicle 10 is not searching for a parking space. In order to start again from the start, the counter value is reset, and all the information stored so far becomes invalid.

そして、ステップ250で取得した車両位置を、記憶部5cのうち、現カウンタ値が指し示すアドレスのエリアへ格納する(ステップ260)。同時刻に、カメラ1でも撮影し(ステップ270)、撮影した画像を記憶部5cのうち現カウンタ値が指し示すアドレスのエリアへ格納する(ステップ275)。また同時刻に、上記距離算出処理によって得られた距離dを取得し(ステップ280)、この距離情報を、記憶部5cのうち現カウンタ値が指し示すアドレスのエリアへ格納する(ステップ285)。その後、カウンタ値をインクリメントする(ステップ290)。   Then, the vehicle position acquired in step 250 is stored in the area of the address indicated by the current counter value in the storage unit 5c (step 260). At the same time, the camera 1 also takes a picture (step 270), and the taken picture is stored in the area of the address indicated by the current counter value in the storage unit 5c (step 275). At the same time, the distance d obtained by the distance calculation process is acquired (step 280), and this distance information is stored in the area of the address indicated by the current counter value in the storage unit 5c (step 285). Thereafter, the counter value is incremented (step 290).

以上により、記憶部5cのうち同一アドレスの示すエリアに、車両位置、カメラ画像、および距離情報が格納されることになる。   As described above, the vehicle position, the camera image, and the distance information are stored in the area indicated by the same address in the storage unit 5c.

この後、変速機のギア位置を判定し(ステップ295)、変速機が後退以外のギア位置に設定されている場合、ステップ220に戻り、変速機が後退に設定されるまで事前処理の動作を繰り返す。また、変速機が後退(バック)に設定されている場合、駐車支援処理を開始する。以下、この駐車支援処理について説明する。   Thereafter, the gear position of the transmission is determined (step 295), and if the transmission is set to a gear position other than reverse, the process returns to step 220 and the pre-processing operation is performed until the transmission is set to reverse. repeat. Further, when the transmission is set to reverse (back), parking support processing is started. Hereinafter, this parking assistance process will be described.

図8は、駐車支援処理の内容を示したフローチャートである。まず、道路の路肩に存在する駐車空間を抽出し(ステップ310)、その駐車空間の中央に相当するカメラ1の撮影位置(カメラ画像の位置)を求め、求めた撮影位置に相当する画像を記憶部5cから読み出(READ)して(ステップ320)、カメラ画像(駐車空間としての映像)を表示器6に表示し(ステップ330)、かつ、この表示画像に重畳するようにして駐車目標枠設定処理を行う(ステップ340)。そして、この駐車目標枠設定処理の結果に従って、車両10が例えば自動操舵される。   FIG. 8 is a flowchart showing the contents of the parking support process. First, a parking space existing on the shoulder of the road is extracted (step 310), a shooting position (camera image position) of the camera 1 corresponding to the center of the parking space is obtained, and an image corresponding to the obtained shooting position is stored. It is read from the unit 5c (READ) (step 320), and a camera image (video as a parking space) is displayed on the display 6 (step 330), and the parking target frame is superimposed on this display image. Setting processing is performed (step 340). The vehicle 10 is automatically steered, for example, according to the result of the parking target frame setting process.

次に、上記駐車支援処理のうち駐車空間抽出処理(ステップ310)、駐車目標枠設定処理(ステップ340)の各具体的処理について説明する。   Next, specific processes of the parking space extraction process (step 310) and the parking target frame setting process (step 340) in the parking support process will be described.

図9は、駐車空間抽出処理の内容を示したフローチャートである。まず、上述の事前処理で格納されたアドレスごとの距離情報(すなわち、道路の路肩に存在する物体までの距離)および車両位置を記憶部5cから読み出し(ステップ311、312)、道路路肩の距離情報の分布状態を算出する。続いて、この距離情報の3Dマッピングを行う(ステップ313)。具体的には、車両10の進行方向に対する道路路肩に存在する車両周辺物体(駐車している車両11、12や縁石41等)までの距離を3次元的にプロットすることで、道路路肩の3次元マッピングを行う。   FIG. 9 is a flowchart showing the contents of the parking space extraction process. First, the distance information for each address (that is, the distance to the object existing on the road shoulder) and the vehicle position stored in the above-described pre-processing and the vehicle position are read from the storage unit 5c (steps 311 and 312), and the road shoulder distance information is obtained. The distribution state of is calculated. Subsequently, 3D mapping of the distance information is performed (step 313). Specifically, by plotting the distance to the vehicle peripheral objects (the parked vehicles 11, 12 and the curb 41, etc.) existing on the road shoulder with respect to the traveling direction of the vehicle 10 in a three-dimensional manner, Perform dimension mapping.

この後、上記ステップ313で取得した道路路肩の3Dマッピングから車両10を駐車することができる駐車空間を抽出する。すなわち、道路路肩の空間の位置、サイズを抽出することとなる。   Thereafter, a parking space in which the vehicle 10 can be parked is extracted from the 3D mapping of the road shoulder acquired in step 313. That is, the position and size of the road shoulder space are extracted.

例えば、車両10の側方部、すなわち道路の路肩に空間が形成されている場合、図10に示されるように、障害物駐車車両が無いと推定する。これに伴い、駐車車両パターンとして「駐車車両無しパターン」を決定する。   For example, when a space is formed in the side portion of the vehicle 10, that is, the shoulder of the road, it is estimated that there is no obstacle parking vehicle as shown in FIG. Accordingly, the “no-parking-vehicle pattern” is determined as the parked vehicle pattern.

また、車両10の後方側にのみ駐車車両11が存在する場合、図11に示されるように、後方側駐車車両11のみ存在すると推定する。これに伴い、駐車車両パターンとして「後方側駐車車両のみパターン」を決定する。   Moreover, when the parked vehicle 11 exists only in the back side of the vehicle 10, as FIG. 11 shows, it estimates that only the back side parked vehicle 11 exists. Accordingly, the “rear side parked vehicle only pattern” is determined as the parked vehicle pattern.

さらに、車両10の前方側にのみ駐車車両12が存在する場合、図12に示されるように、前方側駐車車両12のみ存在すると推定する。これに伴い、駐車車両パターンとして「前方側駐車車両のみパターン」を決定する。こうして、駐車空間抽出処理は終了し、図8に示されるステップ320に進み、ステップ330が実行された後、ステップ340にて駐車目標枠設定処理が実行される。   Furthermore, when the parked vehicle 12 exists only in the front side of the vehicle 10, as FIG. 12 shows, it estimates that only the front side parked vehicle 12 exists. Along with this, the “front-side parked vehicle only pattern” is determined as the parked vehicle pattern. Thus, the parking space extraction process ends, the process proceeds to step 320 shown in FIG. 8, and after step 330 is executed, the parking target frame setting process is executed at step 340.

図13は、駐車目標枠設定処理の内容を示したフローチャートである。なお、以下では、 既駐車車両11、12の間の寸法をLとして、駐車スペースの中央部は、既駐車車両11、12からL/2の位置とする。また、前記中央部を通過する通過タイミングをTcとする。   FIG. 13 is a flowchart showing the contents of the parking target frame setting process. In the following description, the dimension between the parked vehicles 11 and 12 is L, and the central portion of the parking space is at a position L / 2 from the parked vehicles 11 and 12. Also, let Tc be the passage timing passing through the central portion.

まず、ステップ341での選択は、後述するカメラ1の撮影位置を求める演算で用いるパラメータDとして、一般的な車両の全長(車両前後方向の寸法)を基準とした値Lcか、一般的な車両の全幅(車両左右方向の寸法)を基準とした値Wc(図示せず)のいずれを用いるかを選択するものである。   First, the selection in step 341 is a value Lc based on the overall length of the general vehicle (dimension in the vehicle longitudinal direction) as a parameter D used in the calculation for obtaining the photographing position of the camera 1 to be described later, The value Wc (not shown) based on the full width of the vehicle (the dimension in the vehicle left-right direction) is selected.

そして、ステップ341にて並列駐車の場合であると判定すると、ステップ342aにて並列駐車用表示枠の設定を行い、縦列駐車の場合であると判定すると、ステップ342bにて縦列駐車用表示枠の設定を行う。   And if it determines with it being the case of parallel parking in step 341, it will set the display frame for parallel parking in step 342a, and if it determines with it being the case of parallel parking, it will be the display frame of parallel parking in step 342b. Set up.

次に、パラメータDをLc、Wcのうち一方から求める(ステップ343a、343b)。ここで、パラメータDを求める際に、Lc、Wcにnを乗じているが、このnは正の整数である(D=n×Lc、D=n×Wc)。パラメータDは、自車が並列駐車および縦列駐車に必要な最小空間長を示している。また、正の整数nは、この最小空間長Dを自車の全長又は全幅から算出する際に乗ずる係数であり、例えばアッカーマン・ジャントー式の車両の場合、理論式より理想的な最小空間長Dは容易に計算可能である。   Next, the parameter D is obtained from one of Lc and Wc (steps 343a and 343b). Here, when determining the parameter D, Lc and Wc are multiplied by n, and this n is a positive integer (D = n × Lc, D = n × Wc). The parameter D indicates the minimum space length required for the own vehicle for parallel parking and parallel parking. Further, the positive integer n is a coefficient by which the minimum space length D is multiplied when calculating from the total length or the entire width of the own vehicle. For example, in the case of an Ackermann-Jantho vehicle, the minimum space length D is more ideal than the theoretical formula. Is easily calculable.

なお、実際には、この最小空間長Dに、さらに万が一の衝突を防止するための安全マージンを加える必要があるので、正の整数値nは経験的に決定する必要がある。   Actually, since it is necessary to add a safety margin for preventing an emergency collision to the minimum space length D, the positive integer value n needs to be determined empirically.

次に、ステップ344に移行して、上述の障害物の位置算出処理で決定した駐車車両パターンによる条件分岐を行う。本実施形態では、駐車車両パターンとしは、「駐車車両無しパターン」(図10参照)、「後方側駐車車両のみパターン」(図11参照)、「前方側駐車車両のみパターン」(図12参照)、および「前後に駐車車両有りパターン」(図4参照)がある。   Next, the process proceeds to step 344, where conditional branching is performed based on the parked vehicle pattern determined by the obstacle position calculation process described above. In the present embodiment, as the parked vehicle pattern, “no parked vehicle pattern” (see FIG. 10), “rear side parked vehicle only pattern” (see FIG. 11), “front side parked vehicle only pattern” (see FIG. 12). And “Pattern with / without parked vehicle” (see FIG. 4).

例えば、「駐車車両無しパターン」の場合、駐車空間を制限する障害物が無いため、自車である車両10の現状位置を基準として(ステップ346a)、最小空間長Dの1/2を減じた(車両10から見て遠方)位置を目標駐車スペースの中央(駐車枠の位置)とする(ステップ347a)。   For example, in the case of the “no-parking vehicle pattern”, since there is no obstacle that restricts the parking space, 1/2 of the minimum space length D is reduced with reference to the current position of the vehicle 10 that is the own vehicle (step 346a). The position (far from the vehicle 10) is set to the center of the target parking space (the position of the parking frame) (step 347a).

また、「後方側駐車車両のみパターン」の場合は、後方駐車車両11の最近接端から現自車位置までの距離Lが最小空間長Dの2倍以下の場合には(ステップ345:NO)、後方駐車車両11の最近接端を基準として(ステップ346b)、最小空間長Dの1/2を加算した位置を駐車枠の位置とする(ステップ347b)。   Further, in the case of the “rear side parked vehicle only pattern”, when the distance L from the closest end of the rear parked vehicle 11 to the current vehicle position is not more than twice the minimum space length D (step 345: NO). Then, with the closest end of the rear parked vehicle 11 as a reference (step 346b), a position obtained by adding 1/2 of the minimum space length D is set as the position of the parking frame (step 347b).

さらに、最小空間長Dの2倍より大きい時は(ステップ345:YES)、現自車位置を基準として最小空間長Dの1/2を減じた位置を駐車枠の位置とする。このときに最小空間長Dに乗ずる“2”という係数は、2に限定されるものではない。例えば、実使用上で縦列駐車をする際に、1台の既駐車車両の先の全く障害物の無い駐車スペースに駐車しようとした場合、この既駐車車両に注意して駐車すべき位置関係は、どのくらいの距離までかを仮に最小空間長Dの2倍と仮定したに過ぎない。仮に全長が4m、前記正の整数を1.5といった小型車両の場合、係数が2の場合は、後方駐車車両から3mの部分で条件分岐されることになる。   Furthermore, when it is larger than twice the minimum space length D (step 345: YES), a position obtained by subtracting 1/2 of the minimum space length D with respect to the current vehicle position is set as the parking frame position. At this time, the coefficient “2” multiplied by the minimum space length D is not limited to 2. For example, when performing parallel parking in actual use, if you attempt to park in a parking space that is completely free of obstacles ahead of one parked vehicle, The distance is only assumed to be twice the minimum space length D. In the case of a small vehicle having a total length of 4 m and the positive integer being 1.5, when the coefficient is 2, the condition is branched at a portion of 3 m from the rear parked vehicle.

さらに、「前方駐車車両のみパターン」の場合は、前方駐車車両12の最遠方端を基準とし(ステップ346c)、最小空間長Dの1/2を減じた位置を駐車枠の位置とする(ステップ347c)。   Further, in the case of the “front parked vehicle only pattern”, the farthest end of the forward parked vehicle 12 is used as a reference (step 346c), and the position obtained by subtracting 1/2 of the minimum space length D is set as the position of the parking frame (step 347c).

そして、「前後に駐車車両有りパターン」の場合は、後方駐車車両11の最近接端から前方駐車車両12の最遠方端までの距離Lが最小空間長Dの2倍より長いときは(ステップ348:YES)、前方駐車車両の最近接端を基準に最小空間長Dの1/2を減じた位置を駐車枠の位置とする(ステップ346c、347c)。   In the case of the “front and rear parked vehicle pattern”, when the distance L from the closest end of the rear parked vehicle 11 to the farthest end of the front parked vehicle 12 is longer than twice the minimum space length D (step 348). : YES), a position obtained by subtracting 1/2 of the minimum space length D with respect to the closest end of the forward parked vehicle is set as the position of the parking frame (steps 346c and 347c).

また、最小空間長Dの2倍以下の時は(ステップ348:NO)、前方駐車車両12の最遠方端を基準として後方駐車車両11の最近接端から前方駐車車両12の最遠方端までの距離Lの1/2を減じた位置を駐車枠の位置とする(ステップ349)。   When the distance is less than twice the minimum space length D (step 348: NO), the distance from the closest end of the rear parked vehicle 11 to the farthest end of the front parked vehicle 12 with the farthest end of the front parked vehicle 12 as a reference. The position obtained by subtracting 1/2 of the distance L is set as the parking frame position (step 349).

以上のようにして、駐車枠の位置を取得する。この後、設定した駐車枠の位置を駐車支援情報として表示器6に例えば画像表示することにより、ドライバに対して駐車支援を行う。また、自動操舵によって車両10を駐車スペースに駐車させるようにしても良い。   As described above, the position of the parking frame is acquired. Thereafter, parking assistance is provided to the driver by, for example, displaying an image of the set position of the parking frame on the display device 6 as parking assistance information. Further, the vehicle 10 may be parked in a parking space by automatic steering.

以上説明したように、本実施形態では、車両10の周辺に車両周辺物体11、12、41〜44が存在する場合、スリット光を照射して車両周辺物体11、12、41〜44を撮影すると共に、撮影した画像の中からスリット光が折れ曲がる屈曲点31、32を検出し、その屈曲点31、32に基づいて車両周辺物体11、12、41〜44と車両10との距離dを算出することが特徴となっている。このスリット光の折れ曲がりは、実在する車両周辺物体11、12、41〜44の表面で発生するため、距離算出の際に車両周辺物体11、12、41〜44と車両10との遠近関係が逆転してしまうことを防止できる。また、撮影した画像の中から上記屈曲点の座標から視差xを求めているため、車両周辺物体11、12、41〜44と車両10との距離を精度良く求めることができる。また、こうして求めた距離を用いて、ドライバに対し駐車支援を行うことができる。上記のように、車両周辺物体11、12、41〜44と車両10との距離を精度良く得ることができるため、車両10を駐車するための駐車空間を精度良く検知することができる。   As described above, in the present embodiment, when the vehicle peripheral objects 11, 12, 41 to 44 are present around the vehicle 10, the vehicle peripheral objects 11, 12, 41 to 44 are photographed by irradiating the slit light. At the same time, bending points 31, 32 where the slit light is bent are detected from the captured image, and the distance d between the vehicle surrounding objects 11, 12, 41-44 and the vehicle 10 is calculated based on the bending points 31, 32. It is a feature. Since the bending of the slit light occurs on the surfaces of the actual vehicle surrounding objects 11, 12, 41 to 44, the perspective relationship between the vehicle surrounding objects 11, 12, 41 to 44 and the vehicle 10 is reversed when calculating the distance. Can be prevented. Further, since the parallax x is obtained from the coordinates of the bending point from the captured image, the distance between the vehicle surrounding objects 11, 12, 41 to 44 and the vehicle 10 can be obtained with high accuracy. In addition, parking assistance can be provided to the driver using the distance thus obtained. As described above, since the distance between the vehicle surrounding objects 11, 12, 41 to 44 and the vehicle 10 can be obtained with high accuracy, the parking space for parking the vehicle 10 can be detected with high accuracy.

(第2実施形態)
本実施形態では、第1実施形態と異なる部分についてのみ説明する。本実施形態では、照射角度が異なる複数の発光部2を用いることが特徴である。このように、複数の発光部2を用いる場合、図14に示されるフローに従って道路路肩に存在する物体までの距離dが算出される。
(Second Embodiment)
In the present embodiment, only parts different from the first embodiment will be described. This embodiment is characterized in that a plurality of light emitting units 2 having different irradiation angles are used. As described above, when a plurality of light emitting units 2 are used, the distance d to the object existing on the road shoulder is calculated according to the flow shown in FIG.

まず、ステップ410(スリット光パターン選択手段)では、スリット光パターンの選択が行われる。すなわち、複数の発光部2のうち、どの発光部2からスリット光を照射するかが選択される。   First, in step 410 (slit light pattern selection means), a slit light pattern is selected. That is, from among the plurality of light emitting units 2, which light emitting unit 2 emits the slit light is selected.

ステップ420(距離算出処理手段)では、距離算出処理が行われる。すなわち、図5に示されるフローに従って、道路路肩に存在する物体の検知およびその距離dが得られる。この処理が行われる際、上記ステップ410で選択された発光部2が用いられる。なお、差分画像Cから屈曲点が見つからない場合には、道路路肩に物体は存在しないとされる。   In step 420 (distance calculation processing means), a distance calculation process is performed. That is, according to the flow shown in FIG. 5, the detection of the object existing on the road shoulder and its distance d are obtained. When this process is performed, the light emitting unit 2 selected in step 410 is used. Note that if no inflection point is found from the difference image C, no object is present on the road shoulder.

ステップ430(パターン判定手段)では、スリット光パターンのうち全パターンが終了したか否かが判定される。すなわち、車両10に設置された全発光部2が用いられて上記ステップ420で距離算出処理が行われたが判定される。   In step 430 (pattern determining means), it is determined whether or not all the patterns of the slit light pattern have been completed. That is, it is determined that the distance calculation process has been performed in step 420 using all the light emitting units 2 installed in the vehicle 10.

本ステップにて、全パターンが終了していない場合、ステップ410に戻り、他の発光部2が選択される。また、全パターンが終了した場合、本フローは終了する。   If all the patterns are not completed in this step, the process returns to step 410, and another light emitting unit 2 is selected. Further, when all the patterns are completed, this flow ends.

以上、説明したように、複数の発光部2を用意すると共に、各発光部2からそれぞれ異なる照射角度でスリット光を照射する。これにより、車両10から道路路肩をスリット光でスキャニングする際に死角がなくなるため、道路路肩の空間や障害物等を確実に検出することができると共に、障害物等と車両10との距離を算出することができる。   As described above, a plurality of light emitting units 2 are prepared, and slit light is irradiated from each light emitting unit 2 at different irradiation angles. This eliminates blind spots when scanning the road shoulder from the vehicle 10 with slit light, so that the road shoulder space and obstacles can be reliably detected, and the distance between the obstacle and the vehicle 10 is calculated. can do.

(他の実施形態)
上記各実施形態では、車両周辺物体として駐車している車両11、12や縁石41等と車両10との距離を算出しているが、道路上の段差、輪留め等も検出することができる。すなわち、車両側方部をスリット光によりスキャニングしているため、車両側方部を立体的(三次元的)に把握することが可能である。
(Other embodiments)
In each of the above embodiments, the distances between the vehicles 11 and 12 and the curb 41 etc. that are parked as the vehicle peripheral objects and the vehicle 10 are calculated, but steps on the road, wheel stops, and the like can also be detected. That is, since the side part of the vehicle is scanned by the slit light, the side part of the vehicle can be grasped three-dimensionally (three-dimensionally).

上記各実施形態では、スリット光をボデー面に対して鉛直方向に照射しているが、スリット光の照射角度は鉛直方向に限らず、鉛直方向に対して角度をもって照射されるようにしても構わない。そして、スリット光が反射対象に照射された際、撮影される画像にスリット光の視差が生じていれば、画像の中からスリット光が屈曲する屈曲点を検出できると共に、この屈曲点に基づいて障害物等と車両10との距離を算出することができる。車両10の走行に伴ってスリット光で道路の路肩をスキャニングするという観点では、スリット光は鉛直方向に伸びるものであることが好ましい。   In each of the above embodiments, the slit light is irradiated in the vertical direction with respect to the body surface. However, the irradiation angle of the slit light is not limited to the vertical direction, and may be irradiated with an angle with respect to the vertical direction. Absent. When the slit light is irradiated on the reflection object, if the parallax of the slit light occurs in the image to be shot, the bending point where the slit light bends can be detected from the image, and based on this bending point The distance between the obstacle and the vehicle 10 can be calculated. From the viewpoint of scanning the road shoulder with the slit light as the vehicle 10 travels, the slit light preferably extends in the vertical direction.

第2実施形態に示されるように、複数の発光部2を用いる場合、例えば図1に示される車両10の側部に設置された発光部2からスリット光を車両10の前方側に照射すると共に、車両10の側部に設置された別の発光部2からスリット光を車両10の後方側に照射する。すなわち、車両10を地面側に見たとき、各スリット光が地面に照射された際に伸びる方向がV字型になるようにスリット光を照射する。これにより、車両10において死角無く詳細な駐車空間検知が可能となる。また、第1実施形態のように1つのスリット光で駐車空間を検知する場合、発光部2から照射されるスリット光が地面に照射された際に伸びる方向が車両10のボデー面に対して垂直になるようになるようにすることで、死角を低減することができる。   As shown in the second embodiment, when a plurality of light emitting units 2 are used, for example, slit light is emitted from the light emitting unit 2 installed on the side of the vehicle 10 shown in FIG. The slit light is irradiated to the rear side of the vehicle 10 from another light emitting unit 2 installed on the side of the vehicle 10. That is, when the vehicle 10 is viewed from the ground side, the slit light is irradiated so that the direction in which each slit light is irradiated when the ground is irradiated is V-shaped. Thereby, detailed parking space detection in the vehicle 10 is possible without a blind spot. Further, when the parking space is detected by one slit light as in the first embodiment, the direction that extends when the slit light emitted from the light emitting unit 2 is applied to the ground is perpendicular to the body surface of the vehicle 10. By making it become, it can reduce a blind spot.

上記各実施形態では、駐車支援処理を行うタイミングを車両10の車速に基づいて判定しているが、他のタイミングで駐車支援処理を行うようにしても構わない。例えば、ナビゲーション装置と連動させて、車両10が駐車場に進入したタイミングで駐車支援処理を開始するようにしても良い。また、ドライバが駐車支援処理を開始させる操作を行えるようにすることも可能である。   In each said embodiment, although the timing which performs a parking assistance process is determined based on the vehicle speed of the vehicle 10, you may make it perform a parking assistance process at another timing. For example, the parking assistance process may be started at the timing when the vehicle 10 enters the parking lot in conjunction with the navigation device. It is also possible for the driver to perform an operation for starting the parking assistance process.

また、車両10が停車中の場合、発光部2からスリット光を照射しないようにする。これにより、複数システム間の干渉防止を図ることができる。   Further, when the vehicle 10 is stopped, the slit light is not irradiated from the light emitting unit 2. Thereby, it is possible to prevent interference between a plurality of systems.

カメラ1にてスリット光が撮影されない場合、処理ユニット5は当該箇所に障害物があるとして判定するようにしても良い。すなわち、スリット光が水溜り、ガラス、鏡、磨かれたボデー、絶壁などに照射された場合に相当し、この場合、車両側部に物体が存在すると判定して問題ない。   When slit light is not photographed by the camera 1, the processing unit 5 may determine that there is an obstacle at the location. That is, it corresponds to the case where slit light is accumulated in water, glass, a mirror, a polished body, a precipice, etc. In this case, it is determined that there is an object on the side of the vehicle and there is no problem.

車両10に対し、発光部2から照射されるスリット光をドアが開く際のエッジの軌道に合わせることで、ドア開放時に障害物との衝突可否を判定することができる。また、スリット光を車両10の上方(天井方向)に照射すれば、ハッチやトランクなどの開閉確認に使用することも可能である。この場合、上記各実施形態のように駐車空間の高さを検知することができる。これにより、立体駐車場への入庫可否判定や、陸橋下の通過可否判定が可能となる。   By matching the slit light emitted from the light emitting unit 2 with the track of the edge when the door opens, the vehicle 10 can determine whether or not it can collide with an obstacle when the door is opened. Moreover, if slit light is irradiated above the vehicle 10 (toward the ceiling), it can also be used for opening / closing confirmation of hatches and trunks. In this case, the height of the parking space can be detected as in the above embodiments. As a result, it is possible to determine whether or not to enter the multi-story parking lot and whether or not to pass under the overpass.

上記各実施形態では、車両10の車速に応じて車両10の側面をスキャニングしているが、例えば車両10が交差点にさしかかったとき等に巻き込み対象となる2輪車を検知することもできる。この場合、車速に応じて車両10の側面をスキャニングするか、ナビゲーション装置と連動させて、交差点にさしかかったときに車両10をスキャニングするようにすれば良い。   In each of the above-described embodiments, the side surface of the vehicle 10 is scanned according to the vehicle speed of the vehicle 10. However, for example, when the vehicle 10 approaches an intersection, a two-wheeled vehicle to be caught can be detected. In this case, the side surface of the vehicle 10 may be scanned in accordance with the vehicle speed, or the vehicle 10 may be scanned when the vehicle approaches the intersection in conjunction with the navigation device.

上記各実施形態では、発光部2から鉛直方向に伸びるスリット光が照射されているが、スリット光に限らずスポット光の集まり(点線)でも良い。また、スポット光や点の光でなく、任意のマークを照射するようにしても良い。   In each of the embodiments described above, the slit light extending in the vertical direction from the light emitting unit 2 is irradiated, but it is not limited to the slit light but may be a collection of spot lights (dotted line). Further, an arbitrary mark may be irradiated instead of spot light or spot light.

上記各実施形態では、発光部2から照射するスリット光として他の車両の運転障害にならない赤外光を用いているが、スリット光として可視光を用いても構わない。   In each said embodiment, although the infrared light which does not become a driving | operation obstacle of another vehicle is used as slit light irradiated from the light emission part 2, you may use visible light as slit light.

また、発光部2、カメラ1の搭載位置は、車両10の側部のボデーに限るものではなく、車両10上のいずれの位置、方向であっても移動に伴い視差が生じさえすれば構わない。   Further, the mounting position of the light emitting unit 2 and the camera 1 is not limited to the body on the side of the vehicle 10, and any parallax may be generated as a result of movement at any position and direction on the vehicle 10. .

上記カメラ1および発光部2は、車両10の四方のいくつか、あるいは全ての方向に設置するようにしても構わない。   The camera 1 and the light emitting unit 2 may be installed in some or all directions of the vehicle 10.

また、カメラ1で撮影したスリット光の反射による曲線と、反射対象が存在しない場合の曲線を基準として比較し、これらが異なる、つまり一致しない点の座標を求め、距離算出処理を行うことで、反射対象までの距離を算出することもできる。   Also, by comparing the curve by the reflection of the slit light imaged by the camera 1 with the curve when there is no reflection target, obtaining the coordinates of the points that are different, that is, not matching, and performing the distance calculation process, It is also possible to calculate the distance to the reflection target.

なお、各図中に示したステップは、各種処理を実行する手段に対応するものである。   The steps shown in each figure correspond to means for executing various processes.

本発明の第1実施形態に係る駐車支援装置の構成図である。It is a lineblock diagram of the parking assistance device concerning a 1st embodiment of the present invention. 図1に示される処理ユニットの構成図である。It is a block diagram of the processing unit shown by FIG. スリット光による撮影対象物までの測距方法の説明図である。It is explanatory drawing of the ranging method to the imaging | photography target object by slit light. 車両が駐車空間を探して運行している様子を示した図である。It is the figure which showed a mode that the vehicle searched and searched for parking space. 距離算出処理の内容を示すフローチャートである。It is a flowchart which shows the content of the distance calculation process. 道路の路肩に駐車された2台の車両の間の空間を模式的に示した図である。It is the figure which showed typically the space between the two vehicles parked on the road shoulder. 事前処理の内容を示したフローチャートである。It is the flowchart which showed the content of the pre-processing. 駐車支援処理の内容を示したフローチャートである。It is the flowchart which showed the content of the parking assistance process. 駐車空間抽出処理の内容を示したフローチャートである。It is the flowchart which showed the content of the parking space extraction process. 道路の路肩に障害物が存在しない状況を示した図である。It is the figure which showed the condition where an obstruction does not exist on the road shoulder. 車両の後方側に障害物(駐車車両)が存在する状況を示した図である。It is the figure which showed the condition where an obstruction (parking vehicle) exists in the back side of a vehicle. 車両の前方側に障害物(駐車車両)が存在する状況を示した図である。It is the figure which showed the condition where an obstruction (parking vehicle) exists in the front side of a vehicle. 駐車目標枠設定処理の内容を示したフローチャートである。It is the flowchart which showed the content of the parking target frame setting process. 第2実施形態において、距離算出処理の内容を示すフローチャートである。In 2nd Embodiment, it is a flowchart which shows the content of the distance calculation process.

符号の説明Explanation of symbols

1…撮影手段としてのカメラ、2…光源としての発光部、5…処理手段としての処理ユニット、10…車両、11、12、41〜44…車両周辺物体、31、32…屈曲点、110…第1画像取得手段、120、130…第2画像取得手段、140…第3画像取得手段、150…視差取得手段、160…距離取得手段、410…スリット光パターン選択手段、420…距離算出処理手段、430…パターン判定手段。   DESCRIPTION OF SYMBOLS 1 ... Camera as imaging | photography means, 2 ... Light emission part as light source, 5 ... Processing unit as processing means, 10 ... Vehicle, 11, 12, 41-44 ... Vehicle peripheral object, 31, 32 ... Bending point, 110 ... First image acquisition means, 120, 130 ... second image acquisition means, 140 ... third image acquisition means, 150 ... parallax acquisition means, 160 ... distance acquisition means, 410 ... slit light pattern selection means, 420 ... distance calculation processing means 430 ... Pattern determining means.

Claims (8)

車両(10)の側部に搭載された光源(2)からスリット光を照射させると共に、前記車両のボデー上で前記光源から離れた位置に搭載された撮影手段(1)によって、前記車両の移動に伴って前記車両の側方部が繰り返し撮影された各画像を入力し、前記各画像の中から前記スリット光が屈曲する屈曲点(31、32)をそれぞれ検出すると共に、前記各画像の各屈曲点に基づいて車両周辺物体(11、12、41〜44)と前記車両との距離を算出し、算出した距離に基づいて前記車両の側方部の駐車空間を抽出した後、前記駐車空間の前記車両の駐車目標枠として設定する処理手段(5)を備えたことを特徴とする駐車支援装置。 The light source (2) mounted on the side of the vehicle (10) is irradiated with slit light, and the vehicle is moved by the photographing means (1) mounted on the vehicle body at a position away from the light source. Accordingly, each image obtained by repeatedly photographing the side portion of the vehicle is input, and the bending points (31, 32) at which the slit light is bent are detected from the images, and each of the images is displayed. After calculating the distance between the vehicle peripheral object (11, 12, 41 to 44) and the vehicle based on the bending point, and extracting the parking space in the side portion of the vehicle based on the calculated distance, the parking space A parking support apparatus comprising processing means (5) for setting as a parking target frame of the vehicle. 前記光源は、当該光源から照射される前記スリット光が地面に照射された際に伸びる方向と前記車両のボデー面とが垂直になるように前記車両に設置されていることを特徴とする請求項1に記載の駐車支援装置。 The said light source is installed in the said vehicle so that the direction extended when the said slit light irradiated from the said light source is irradiated to the ground and the body surface of the said vehicle become perpendicular | vertical. The parking assistance apparatus according to 1. 前記光源は、赤外線のスリット光を照射するようになっていることを特徴とする請求項1または2に記載の駐車支援装置。 The parking support device according to claim 1, wherein the light source emits infrared slit light. 前記撮影手段は、反射対象までの距離に応じた一画素分の面積に相当する太陽光の反射光量よりも大きな光量のスリット光を照射することを特徴とする請求項1ないし3のいずれか1つに記載の駐車支援装置。 The said imaging | photography means irradiates slit light with a light quantity larger than the reflected light quantity of sunlight corresponding to the area for one pixel according to the distance to reflection object, The any one of Claim 1 thru | or 3 characterized by the above-mentioned. Parking assistance device as described in one. 前記光源から前記スリット光が照射された状態で前記撮影手段にて車両周辺を撮影する際、前記撮影手段のシャッター速度は、当該撮影手段において前記スリット光を感光可能な最小限の時間に相当していることを特徴とする請求項1ないし4のいずれか1つに記載の駐車支援装置。 When photographing the periphery of the vehicle with the photographing unit in a state where the slit light is irradiated from the light source, the shutter speed of the photographing unit corresponds to a minimum time during which the slit light can be exposed to the photographing unit. The parking assistance device according to any one of claims 1 to 4, wherein the parking assistance device is provided. 前記処理手段は、
前記撮影手段にて前記スリット光を照射することなく撮影された画像を第1画像として入力する第1画像取得手段(110)と、
前記光源から前記スリット光を照射させると共に、前記撮影手段にて撮影された画像を第2画像として入力する第2画像取得手段(120、130)と、
前記第1画像と前記第2画像との各画像のデータの差分演算を行い、この差分演算で得られた画像を第3画像として取得する第3画像取得手段(140)と、
前記第3画像の中から、前記スリット光を示すものが折れ曲がる場所を前記屈曲点として検出してこの屈曲点の座標を取得すると共に、前記屈曲点のうち、前記車両周辺物体が存在しない位置からの反射に該当する屈曲点の座標と、前記車両周辺物体が存在する位置からの反射に該当する屈曲点の座標とから、前記光源と前記撮影手段との視差を求める視差取得手段(150)と、
前記光源と前記撮影手段との視差の値を用いて、前記車両周辺物体と前記車両との距離を取得する距離取得手段(160)と、を備え、これら各手段によって距離算出処理を行うことを特徴とする請求項1ないし5のいずれか1つに記載の駐車支援装置。
The processing means includes
A first image obtaining means (110) for inputting an image photographed without irradiating the slit light by the photographing means as a first image;
Second image acquisition means (120, 130) for irradiating the slit light from the light source and inputting an image photographed by the photographing means as a second image;
A third image acquisition means (140) for performing a difference calculation of data of each image between the first image and the second image, and acquiring an image obtained by the difference calculation as a third image;
From the third image, a position where the slit light is bent is detected as the bending point, and the coordinates of the bending point are obtained. From the position where the vehicle peripheral object does not exist among the bending points. A parallax obtaining unit (150) for obtaining a parallax between the light source and the photographing unit from the coordinates of the bending point corresponding to the reflection of the vehicle and the coordinates of the bending point corresponding to the reflection from the position where the vehicle peripheral object exists. ,
Distance acquisition means (160) for acquiring a distance between the vehicle peripheral object and the vehicle using a parallax value between the light source and the photographing means, and performing distance calculation processing by each of these means The parking assistance device according to any one of claims 1 to 5, characterized in that:
前記スリット光の照射角度がそれぞれ異なる複数の光源を有しており、
前記処理手段は、
前記複数の光源の中から、一つを選択するスリット光パターン選択手段(410)と、
前記スリット光パターン選択手段にて選択された前記スリット光に基づいて前記距離算出処理を行う距離算出処理手段(420)と、
前記複数の光源全てについて前記距離算出処理が行われたか否かを判定するパターン判定手段(430)と、を備えていることを特徴とする請求項6に記載の駐車支援装置。
It has a plurality of light sources having different irradiation angles of the slit light,
The processing means includes
Slit light pattern selection means (410) for selecting one of the plurality of light sources;
Distance calculation processing means (420) for performing the distance calculation processing based on the slit light selected by the slit light pattern selection means;
The parking assistance device according to claim 6, further comprising: a pattern determination unit (430) that determines whether or not the distance calculation processing has been performed for all of the plurality of light sources.
前記複数の光源からそれぞれ照射される各スリット光のうち、一方のスリット光が地面に照射された際に伸びる方向は前記車両の横方向に対して前記車両の前方側になっており、他方のスリット光が地面に照射された際に伸びる方向は前記車両の横方向に対して前記車両の後方側になっていることを特徴とする請求項7に記載の駐車支援装置。 Of each slit light emitted from each of the plurality of light sources, the direction extending when one slit light is applied to the ground is the front side of the vehicle with respect to the lateral direction of the vehicle, and the other The parking assist device according to claim 7, wherein a direction extending when the slit light is applied to the ground is on a rear side of the vehicle with respect to a lateral direction of the vehicle.
JP2006158041A 2006-06-07 2006-06-07 Parking assisting device Withdrawn JP2007326428A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006158041A JP2007326428A (en) 2006-06-07 2006-06-07 Parking assisting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006158041A JP2007326428A (en) 2006-06-07 2006-06-07 Parking assisting device

Publications (1)

Publication Number Publication Date
JP2007326428A true JP2007326428A (en) 2007-12-20

Family

ID=38927218

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006158041A Withdrawn JP2007326428A (en) 2006-06-07 2006-06-07 Parking assisting device

Country Status (1)

Country Link
JP (1) JP2007326428A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008105282A1 (en) * 2007-02-27 2008-09-04 Toyota Jidosha Kabushiki Kaisha Parking assistance device
JP2016502657A (en) * 2012-11-08 2016-01-28 ブルーテックニックス ゲーエムベーハー Recording method using at least two Time-of-flight cameras
JP2017037450A (en) * 2015-08-10 2017-02-16 日産自動車株式会社 Level-difference detection apparatus and level-difference detection method
JP2018523191A (en) * 2015-05-08 2018-08-16 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH Device for determining a space in which a vehicle can travel, traveling based on the device, and vehicle
US10539957B2 (en) 2018-01-11 2020-01-21 Honda Motor Co., Ltd. Methods and systems for enabling a vehicle to park remotely
JP2020109628A (en) * 2018-12-19 2020-07-16 トヨタ モーター ノース アメリカ,インコーポレイティド Parking facilitation systems and methods
US10789850B2 (en) 2016-05-10 2020-09-29 Mitsubishi Electric Corporation Obstacle detection device, driving assistance system, and obstacle detection method
JP2021103140A (en) * 2019-12-25 2021-07-15 株式会社ジェイテクト Positional relationship detection device and positional relationship detection method

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008105282A1 (en) * 2007-02-27 2008-09-04 Toyota Jidosha Kabushiki Kaisha Parking assistance device
US8130120B2 (en) 2007-02-27 2012-03-06 Toyota Jidosha Kabushiki Kaisha Parking assistance device
JP2016502657A (en) * 2012-11-08 2016-01-28 ブルーテックニックス ゲーエムベーハー Recording method using at least two Time-of-flight cameras
JP2018523191A (en) * 2015-05-08 2018-08-16 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH Device for determining a space in which a vehicle can travel, traveling based on the device, and vehicle
JP2017037450A (en) * 2015-08-10 2017-02-16 日産自動車株式会社 Level-difference detection apparatus and level-difference detection method
US10789850B2 (en) 2016-05-10 2020-09-29 Mitsubishi Electric Corporation Obstacle detection device, driving assistance system, and obstacle detection method
US10539957B2 (en) 2018-01-11 2020-01-21 Honda Motor Co., Ltd. Methods and systems for enabling a vehicle to park remotely
JP2020109628A (en) * 2018-12-19 2020-07-16 トヨタ モーター ノース アメリカ,インコーポレイティド Parking facilitation systems and methods
JP7314040B2 (en) 2018-12-19 2023-07-25 トヨタ モーター ノース アメリカ,インコーポレイティド PARKING FACILITATION SYSTEM AND METHOD
JP2021103140A (en) * 2019-12-25 2021-07-15 株式会社ジェイテクト Positional relationship detection device and positional relationship detection method
JP7347204B2 (en) 2019-12-25 2023-09-20 株式会社ジェイテクト Positional relationship detection device and positional relationship detection method

Similar Documents

Publication Publication Date Title
US8089512B2 (en) Driving support device, driving support method and computer program
CN101207802B (en) Driving support method and driving support apparatus
US9656691B2 (en) Method for performing an at least semi-autonomous parking process of a motor vehicle in a garage, parking assistance system and motor vehicle
JP2007326428A (en) Parking assisting device
JP3945467B2 (en) Vehicle retraction support apparatus and method
US8422737B2 (en) Device and method for measuring a parking space
JP3494434B2 (en) Parking assistance device
US20210073557A1 (en) Systems and methods for augmenting upright object detection
JP6642906B2 (en) Parking position detection system and automatic parking system using the same
KR20080109871A (en) Parking assistance device and parking assistance method
WO2017208976A1 (en) Parking assistance device and parking assistance method
JP2013541915A (en) Blind Spot Zone Display Device and Method
JP2008143430A (en) Parking support device
JP2008123462A (en) Object detector
CN104870256A (en) On-vehicle control device
JP2009211624A (en) Driving support device, driving support method, and computer program
JP5082923B2 (en) Vehicle obstacle detection device
JP3612970B2 (en) Tunnel detection apparatus and vehicle control apparatus using the same
JP3666332B2 (en) Pedestrian detection device
JP2005202761A (en) Vehicle surrounding monitoring system
JP4296287B2 (en) Vehicle recognition device
JP4613884B2 (en) Parking assistance device
JP2007327803A (en) Vehicle surrounding monitoring device
KR101190789B1 (en) Apparatus and method for measurementing distance of vehicle
KR101295618B1 (en) Apparatus and method for displaying blind spot

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20090901