JP2007326428A - Parking assisting device - Google Patents
Parking assisting device Download PDFInfo
- Publication number
- JP2007326428A JP2007326428A JP2006158041A JP2006158041A JP2007326428A JP 2007326428 A JP2007326428 A JP 2007326428A JP 2006158041 A JP2006158041 A JP 2006158041A JP 2006158041 A JP2006158041 A JP 2006158041A JP 2007326428 A JP2007326428 A JP 2007326428A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- slit light
- light
- image
- parking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、道路側面の駐車空間を検出することでドライバの駐車支援を行う駐車支援装置に関する。 The present invention relates to a parking assistance device that assists a driver in parking by detecting a parking space on a side surface of a road.
従来より、車両の駐車空間を検知するものとして、例えば超音波センサ、レーザレーダ、ステレオカメラが用いられている。これらのうち、超音波センサは、超音波を発すると共に、超音波が物体で反射して戻るまでの時間を計測することにより超音波センサと物体との距離を算出する際に用いられる。このような超音波センサでは、車両から例えば約1m程度離れた物体を検知できる。 Conventionally, for example, an ultrasonic sensor, a laser radar, and a stereo camera have been used to detect a parking space of a vehicle. Among these, the ultrasonic sensor is used when calculating the distance between the ultrasonic sensor and the object by emitting the ultrasonic wave and measuring the time until the ultrasonic wave is reflected by the object and returns. Such an ultrasonic sensor can detect an object about 1 m away from the vehicle, for example.
また、レーザレーダは、レーザダイオードを光源として車両周辺にレーザ光を照射し、車両周辺の物体からの反射光を検出することにより、物体と車両との距離を算出する際に用いられる。このようなレーザレーダでは、車両から例えば約数十mの範囲の物体を検知できる。 The laser radar is used to calculate the distance between the object and the vehicle by irradiating the periphery of the vehicle with laser light using a laser diode as a light source and detecting reflected light from the object around the vehicle. Such a laser radar can detect an object within a range of, for example, about several tens of meters from the vehicle.
さらに、ステレオカメラは、例えば車両後方を撮影してその映像を車載モニタに表示することでドライバの駐車支援に用いられる。このようなステレオカメラは、各カメラで撮影された各画像の視差を利用して画像に映し出された物体までの距離の算出に用いられる。 Furthermore, a stereo camera is used for a driver | operator's parking assistance by image | photographing the vehicle back, for example, and displaying the image | video on a vehicle-mounted monitor. Such a stereo camera is used to calculate the distance to an object projected on an image using the parallax of each image captured by each camera.
なお、ステレオカメラにて撮影された各画像から同一点を見つけ出して視差を求めることで、ステレオカメラのレンズの焦点距離をf、基線長(ステレオカメラを構成する2台のカメラの間隔)をl、視差をxとすると、ステレオカメラと障害物との距離dをd=f×l/xから算出することができる。 Note that by finding the same point from each image captured by the stereo camera and obtaining the parallax, the focal length of the lens of the stereo camera is f, and the base length (the interval between the two cameras constituting the stereo camera) is l. If the parallax is x, the distance d between the stereo camera and the obstacle can be calculated from d = f × l / x.
しかしながら、上記従来の技術では、車両周辺を監視するセンサとして超音波センサを用いた場合、最近接を含めた限られた障害物でないと検出することができず、溝のように地面と高低差が小さい障害物を検知することができない。また、レーザレーダを用いた場合、スキャンするための仕組みが大掛かりであり、既存技術では車両への搭載性が悪い。さらに、ステレオカメラを用いた場合、車両移動による視差でステレオ視して車両と車両周辺の物体との距離を算出する際、演算に用いる2枚の画像での対応点(同一点)を正しく抽出できないと車両周辺の物体と車両との距離の遠近関係を逆転して算出してしまう可能性がある。これにより、駐車空間を誤判定する可能性がある。 However, in the above conventional technique, when an ultrasonic sensor is used as a sensor for monitoring the periphery of the vehicle, it cannot be detected unless it is a limited obstacle including the closest, and the height difference from the ground like a groove Cannot detect small obstacles. In addition, when a laser radar is used, the mechanism for scanning is large, and the existing technology is poorly mounted on a vehicle. Furthermore, when a stereo camera is used, when the distance between the vehicle and an object around the vehicle is calculated in stereo with parallax due to vehicle movement, the corresponding points (same points) in the two images used for calculation are correctly extracted. If this is not possible, there is a possibility that the perspective relationship of the distance between the object around the vehicle and the vehicle is reversed and calculated. Thereby, there is a possibility that the parking space is erroneously determined.
本発明は、上記点に鑑み、より高精度に駐車空間を検出することができる駐車支援装置を提供することを目的とする。 An object of this invention is to provide the parking assistance apparatus which can detect a parking space with high precision in view of the said point.
上記目的を達成するため、本発明は、車両(10)の側部に搭載された光源(2)からスリット光を照射させると共に、車両のボデー上で前記光源から離れた位置に搭載された撮影手段(1)によって、車両の移動に伴って車両の側方部が繰り返し撮影された各画像を入力し、各画像の中からスリット光が屈曲する屈曲点(31、32)をそれぞれ検出すると共に、各画像の各屈曲点に基づいて車両周辺物体(11、12、41〜44)と車両との距離を算出し、算出した距離に基づいて車両の側方部の駐車空間を抽出した後、駐車空間の車両の駐車目標枠として設定する処理手段(5)を備えたことを特徴とする。 In order to achieve the above object, the present invention irradiates slit light from a light source (2) mounted on a side portion of a vehicle (10), and shoots mounted at a position away from the light source on the body of the vehicle. The means (1) inputs each image obtained by repeatedly photographing the side part of the vehicle as the vehicle moves, and detects the bending points (31, 32) where the slit light is bent from each image. After calculating the distance between the vehicle peripheral object (11, 12, 41 to 44) and the vehicle based on each bending point of each image, and extracting the parking space in the side part of the vehicle based on the calculated distance, A processing means (5) for setting as a parking target frame for a vehicle in a parking space is provided.
このようにすれば、スリット光が車両周辺物体に照射された場合、光源と撮影手段との視差によって生じたスリット光の屈曲点(折れ曲がり点)を撮影することができる。そして、画像の中からこの屈曲点の座標を検出し、この屈曲点の座標を用いて車両周辺物体が無い場合のスリット光からのずれを得ることで、車両周辺物体と車両との距離を得ることができる。このスリット光の折れ曲がりは、実在する車両周辺物体の表面で発生するため、車両周辺物体と車両との遠近関係が逆転してしまうことを防止でき、溝のように地面と高低差が小さい障害物や車両周辺物体と車両との距離を精度良く検出することができる。 In this way, when the slit light is applied to the object around the vehicle, the bending point (bending point) of the slit light generated by the parallax between the light source and the photographing means can be photographed. Then, the coordinates of this bending point are detected from the image, and the distance between the vehicle surrounding object and the vehicle is obtained by obtaining the deviation from the slit light when there is no vehicle surrounding object using the coordinates of this bending point. be able to. This bending of the slit light occurs on the surface of an actual vehicle surrounding object, so that the perspective relationship between the vehicle surrounding object and the vehicle can be prevented from being reversed, and an obstacle with a small difference in height from the ground, such as a groove. In addition, it is possible to accurately detect the distance between the vehicle peripheral object and the vehicle.
撮影に用いられる光源は、当該光源から照射されるスリット光が地面に照射された際に伸びる方向と車両のボデー面とが垂直になるように車両に設置されていることが好ましい。このようにすることで、車両のボデー面からの距離を取得することができる。 The light source used for photographing is preferably installed in the vehicle so that the direction in which the slit light emitted from the light source extends when the light is applied to the ground is perpendicular to the body surface of the vehicle. By doing in this way, the distance from the body surface of a vehicle can be acquired.
また、光源は、赤外線のスリット光を照射するようになっていることが好ましい。 The light source is preferably adapted to irradiate infrared slit light.
さらに、上記撮影手段は、反射対象(例えば障害物)までの距離に応じた一画素分の面積に相当する太陽光の反射光量よりも大きな光量のスリット光を照射する。これにより、スリット光が太陽光に埋もれてしまい、スリット光をカメラで撮影しにくくなることを防止できる。 Further, the photographing unit irradiates slit light having a light amount larger than the reflected light amount of sunlight corresponding to the area of one pixel corresponding to the distance to the reflection target (for example, an obstacle). As a result, it is possible to prevent the slit light from being buried in sunlight and making it difficult to capture the slit light with a camera.
上記撮影手段のシャッター速度は、当該撮影手段においてスリット光を感光可能な最小限の時間に相当していることが好ましい。このようにして、シャッター時間を短縮することで、スリット光をより顕著に撮影することができる。 It is preferable that the shutter speed of the photographing unit corresponds to a minimum time during which the slit light can be exposed in the photographing unit. Thus, by shortening the shutter time, it is possible to photograph the slit light more significantly.
上記処理手段を、撮影手段にて撮影された画像を第1画像として入力する第1画像取得手段(110)と、光源からスリット光を照射させると共に、撮影手段にて撮影された画像を第2画像として入力する第2画像取得手段(120、130)と、第1画像と第2画像との各画像のデータの差分演算を行い、この差分演算で得られた画像を第3画像として取得する第3画像取得手段(140)と、第3画像の中から、スリット光を示すものが折れ曲がる場所を屈曲点として検出してこの屈曲点の座標を取得すると共に、スリット光を示すもののうち、障害物が存在しない位置での反射のものに該当する屈曲点の座標と、車両周辺物体が存在する位置での反射のものに該当する屈曲点の座標と、から光源と撮影手段との視差を求める視差取得手段(150)と、光源と撮影手段との視差の値を用いて、車両周辺物体と車両との距離を取得する距離取得手段(160)と、を備えた構成とし、これら各構成で距離算出処理を行うようにしても良い。 The processing means includes a first image acquisition means (110) for inputting an image photographed by the photographing means as a first image, and irradiating slit light from a light source, and secondly taking an image photographed by the photographing means. Second image acquisition means (120, 130) for inputting as an image, and a difference calculation of data of each image between the first image and the second image, and an image obtained by the difference calculation is acquired as a third image. The third image acquisition means (140), and from among the third images, the bending point of the one showing the slit light is detected as a bending point, and the coordinates of the bending point are acquired. The parallax between the light source and the photographing means is obtained from the coordinates of the bending point corresponding to the reflection at the position where the object does not exist and the coordinates of the bending point corresponding to the reflection at the position where the object around the vehicle exists. Parallax acquisition hand (150) and distance acquisition means (160) for acquiring the distance between the vehicle peripheral object and the vehicle using the parallax value between the light source and the imaging means, and the distance calculation processing in each of these structures May be performed.
また、道路に対してスリット光の照射角度がそれぞれ異なる複数の光源を車両に設置すると共に、上記処理手段の処理を距離算出処理としたとき、処理手段を、複数の光源の中からスリット光を照射する照射角度パターンのうちの一つを選択するスリット光パターン選択手段(210)と、スリット光パターン選択手段にて選択されたスリット光の照射角度パターンに基づいて距離算出処理を行う距離算出駆動処理手段(220)と、複数の光源においてすべての照射角度パターンで距離算出処理が行われたか否かを判定するパターン判定手段(230)と、を備えた構成としても良い。 In addition, when a plurality of light sources having different slit light irradiation angles with respect to the road are installed in the vehicle, and the processing of the processing means is a distance calculation process, the processing means is configured to transmit the slit light from the plurality of light sources. Slit light pattern selection means (210) for selecting one of the irradiation angle patterns to be irradiated, and distance calculation drive for performing distance calculation processing based on the irradiation angle pattern of the slit light selected by the slit light pattern selection means It is good also as a structure provided with the processing means (220) and the pattern determination means (230) which determines whether the distance calculation process was performed by all the irradiation angle patterns in the several light source.
複数の光源からそれぞれ照射される各スリット光のうち、一方のスリット光が地面に照射された際に伸びる方向は車両の横方向に対して車両の前方側になっており、他方のスリット光が地面に照射された際に伸びる方向は車両の横方向に対して車両の後方側になっていることが好ましい。 Of each slit light emitted from each of the plurality of light sources, the direction extending when one slit light is applied to the ground is the front side of the vehicle with respect to the lateral direction of the vehicle, and the other slit light is It is preferable that the direction extending when irradiated to the ground is on the rear side of the vehicle with respect to the lateral direction of the vehicle.
これにより、車両の側方部において、車両周辺物体によって車両から死角となる部分までの距離を検出することができ、抽出する駐車空間の精度を向上することができる。すなわち、車両を上面図のごとく視点で見たとき、V字型にスリット光を照射することを意味する。このように複数の光源からスリット光を照射することで、車両の側部をスキャニングする際、死角を減らし詳細な駐車空間を検出することができる。 Thereby, in the side part of a vehicle, the distance from a vehicle to the part which becomes a blind spot with a vehicle peripheral object can be detected, and the precision of the parking space to extract can be improved. That is, when the vehicle is viewed from the viewpoint as shown in the top view, it means that the slit light is irradiated in a V shape. Thus, by irradiating slit light from a plurality of light sources, when scanning a side portion of the vehicle, it is possible to reduce a blind spot and detect a detailed parking space.
なお、上記各手段の括弧内の符号は、後述する実施形態に記載の具体的手段との対応関係を示すものである。 In addition, the code | symbol in the bracket | parenthesis of each said means shows the correspondence with the specific means as described in embodiment mentioned later.
以下、本発明の実施形態について図に基づいて説明する。なお、以下の各実施形態相互において、互いに同一もしくは均等である部分には、図中、同一符号を付してある。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following embodiments, the same or equivalent parts are denoted by the same reference numerals in the drawings.
(第1実施形態)
以下、本発明の第1実施形態について図を参照して説明する。本実施形態で示される駐車支援装置は、駐車空間を検出すると共に、検出した駐車空間に基づいて駐車支援を行うものとして用いられる。
(First embodiment)
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. The parking assistance device shown in the present embodiment is used to detect a parking space and perform parking assistance based on the detected parking space.
図1は、本発明の第1実施形態に係る駐車支援装置の構成図である。この図に示されるように、駐車支援装置S1は、カメラ1と、発光部2と、舵角センサ3と、車速センサ4と、処理ユニット5と、表示器6と、を備えて構成されている。
FIG. 1 is a configuration diagram of a parking assistance apparatus according to the first embodiment of the present invention. As shown in this figure, the parking assist device S1 includes a
カメラ1は、車両周辺の景色を撮影するものであり、例えば1秒間に15枚の画像を撮影する。撮影された1枚1枚の画像は、連続して表示されることで動画として認識される。このカメラ1にて撮影された画像のデータは、処理ユニット5に出力される。また、本実施形態では、カメラ1のレンズ焦点距離をfとする。このレンズ焦点距離fは、あらかじめ処理ユニット5に記憶されている。
The
なお、広範囲を撮影する場合や、駐車空間を探して移動している車両の近傍から道路の路肩までを撮影する状況等を考慮して、カメラ1は、広角で撮影できるものが望ましい。また、カメラ1は、本発明の撮影手段に相当する。
Note that the
発光部2は、カメラ1にて車両周辺を撮影するための光源である。つまり、この発光部2によって光が発せられると、車両周辺に光が照射され、車両周辺で反射した光をカメラ1がとらえて撮影する。なお、発光部2は、本発明の光源に相当する。
The
このような発光部2は、光源と、光源から発せられた光を集光する集光レンズと、集光レンズから照射される光をスリット状に照射する断面が平凸状の半円柱レンズと、を有して構成される。この構成では、光源から発せられた光は、集光レンズを介して半円柱レンズの凸面から鉛直方向に伸びたスリット光として車両周辺に照射されることとなる。
Such a
また、上記発光部2の光源として、赤外光を発するLEDが採用される。そして、この光源の光軸が、車両10の前後方向に対してやや前方に向けられている。
In addition, an LED that emits infrared light is employed as the light source of the
なお、外乱光である太陽光の光量は例えば一般的な文献によれば1mW/mm2であるので、この太陽光の光量よりも大きな光量の光を照射することが好ましい。すなわち、反射対象等で反射したスリット光の光量が太陽光の光量よりも低い場合、スリット光が太陽光に埋もれてしまい、スリット光をカメラ1で撮影しにくくなる。したがって、発光部2からは、反射対象までの距離に応じたカメラ1の一画素分の面積に相当する太陽光の反射光量よりも大きな光量のスリット光を照射することが好ましい。
In addition, since the light quantity of sunlight which is disturbance light is 1 mW / mm < 2 > according to the general literature, for example, it is preferable to irradiate the light of a light quantity larger than this light quantity of sunlight. That is, when the light quantity of the slit light reflected by the reflection target or the like is lower than the light quantity of sunlight, the slit light is buried in sunlight, and it becomes difficult to photograph the slit light with the
本実施形態では、上記カメラ1で道路の路肩を撮影するため、カメラ1および発光部2は、図1に示されるように、車両10の左側部に設置されている。具体的には、図1に示されるように、カメラ1は車両10のボデーの左側部に固定され、例えば道路の路肩を撮影する向きで固定される。発光部2は、カメラ1と同様に車両10のボデーの左側部に固定され、上述のように車両10の前後方向に対してやや前方に向けられて固定される。さらに、カメラ1および発光部2は車両10のボデー上でそれぞれ離れた位置に搭載される。つまり、カメラ1と発光部2との距離(間隔)が基線長lとなる。この基線長lの値はあらかじめ処理ユニット5に記憶されている。
In the present embodiment, the
このように、車両10のボデー上で発光部2から離れた位置にカメラ1が搭載される場合、スリット光を車両10のボデー面に投影したとき、その投影されたスリット光の直線上にカメラ1が配置される場合もある。このような場合であっても、カメラ1と発光部2との間に一定距離が設けられることで、スリット光が反射対象に照射された場合に視差を生じた画像をカメラ1にて撮影することができる。
Thus, when the
なお、発光部2から空間に照射されるスリット光の光路によって形成される面を照射面とし、車両10のうち照射面に対して離れた位置にカメラ1を搭載するようにしても良い。このように、カメラ1および発光部2を配置したとしても、カメラ1にてカメラ1と発光部2との視差によるスリット光のずれを撮影することができる。
The surface formed by the optical path of the slit light irradiated to the space from the
舵角センサ3は、ドライバがステアリングを操作したときの回転角度を検出するものである。また、車速センサ4は、車両の速度、すなわち車速を検出するものである。これら舵角センサ3および車速センサ4で検出されたステアリング舵角に応じた信号、および車両の速度に応じた信号は、それぞれ処理ユニット5に入力されると共に、処理ユニット5にて各物理量に変換される。
The
処理ユニット5は、カメラ1で車両周辺を撮影する機能、発光部2からスリット光を照射する機能、カメラ1で撮影された画像から、車両周辺に存在する物体と車両10との距離を算出する機能、上記算出された距離を用いて、駐車支援(後述する事前処理、駐車空間抽出処理、駐車目標枠設定処理)を行う機能、駐車支援情報を表示器6に表示する機能を有するものである。本実施形態では、車両周辺に存在する物体と車両10との距離をdとする。
The
このような機能を有する処理ユニット5の構成を図2に示す。この図に示されるように、処理ユニット5は、入力部5a、出力部5b、記憶部5c、演算部5d、CPU5eを備えて構成される。なお、処理ユニット5は、本発明の処理手段に相当する。
FIG. 2 shows the configuration of the
入力部5aおよび出力部5bは、カメラ1、発光部2、舵角センサ3、車速センサ4、および表示器6とのインターフェースとなるものである。記憶部5cは、舵角センサ3や車速センサ4の情報や処理ユニット5における演算結果、距離算出処理、事前処理、駐車支援処理等の各処理を行うための距離算出プログラム、事前処理プログラム、駐車支援プログラム等の各プログラムを格納するメモリである。また、演算部5dおよびCPU5eは、各プログラムを実行するものである。
The
表示器6は、上記処理ユニット5で得られた駐車空間の情報を表示するものであり、液晶パネルが採用される。なお、この表示器6は、車両10に既に搭載されているものであっても構わない。以上が、本実施形態に係る駐車支援装置S1の全体構成である。
The display 6 displays information on the parking space obtained by the
次に、上記駐車支援装置S1において、発光部2から照射される鉛直方向のスリット光により、車両周辺の物体と車両10との距離を取得する方法について、図3を参照して説明する。図3は、スリット光による撮影対象物までの測距方法の説明図である。
Next, a method for acquiring the distance between the object around the vehicle and the
まず、カメラ1および発光部2は、図3に示されるように、距離lだけ離れて車両10に設置される。この距離lが基線長lに相当する。この基線長lの値はあらかじめ処理ユニット5の記憶部5cに記憶されている。
First, as shown in FIG. 3, the
そして、発光部2からスリット光が照射され、スリット照射方向に何も存在しなければ、一直線のスリット光が撮影されることとなる。しかしながら、スリット光が撮影対象物20に当たると、図3に示されるように、スリット光は撮影対象物20によって屈曲し、カメラ1ではスリット光が折れ曲がった屈曲点31、32が撮影されることとなる。
Then, when slit light is irradiated from the
すなわち、撮影対象物20が存在しない場合と存在する場合とで撮影されるスリット光にずれが生じ、このずれを屈曲点の検出によって取得する。そして、このずれがカメラ1と発光部2との視差に相当することとなる。本実施形態では、この視差をxとする。
That is, there is a shift in the slit light that is shot depending on whether or not the
これら基線長l、視差x、そしてカメラ1の焦点距離fの各値から、上述のように、距離dをd=f×l/xから取得することとなる。
As described above, the distance d is obtained from d = f × l / x from each value of the baseline length l, the parallax x, and the focal length f of the
次に、上記測距方法を用いて、車両10の駐車空間を検出すると共に、駐車支援を行う作動について説明する。本実施形態では、例えば図4に示される状況において、駐車空間の検出およびその駐車支援を行う場合について説明する。
Next, an operation for detecting the parking space of the
図4は、車両10が駐車空間を探して運行している様子を示した図である。図4に示されるように、道路の路肩に2台の車両11、12が一定距離を介して駐車している。このような状況において駐車支援を行うに際し、まず、駐車空間を検出する必要がある。このため、車両10からスリット光を照射しつつ移動することにより道路の路肩をスキャニングすることとなる。
FIG. 4 is a diagram illustrating a state in which the
図5は、距離算出処理の内容を示すフローチャートである。本実施形態では、上述のように、車両10が駐車空間を探しながら運行するため、例えば車速10km/h未満になった場合、距離算出プログラムに従って図5に示されるフローがスタートする。
FIG. 5 is a flowchart showing the contents of the distance calculation process. In the present embodiment, as described above, since the
ステップ110(第1画像取得手段)では、カメラ1で撮影が行われる。カメラ1にて撮影された画像のデータは処理ユニット5に入力される。本ステップで得られた画像を画像A(本発明の第1画像に相当)とする。
In step 110 (first image acquisition means), the
ステップ120では、スリット光が照射される。すなわち、処理ユニット5から発光部2にスリット光を照射させる信号が入力されることで、発光部2から鉛直方向に伸びるスリット光の照射が行われる。このスリット光は、車両10の側部から道路の路肩に照射される。
In
ステップ130では、カメラ1で撮影が行われる。すなわち、ステップ120によってスリット光が照射された状態で車両周辺が撮影される。本実施形態では、カメラ1のシャッターは高速シャッターになっている。シャッター速度はスリット光を感光可能な最小限の時間であることが好ましい。本ステップで得られた画像を画像B(本発明の第2画像に相当)とする。
In
なお、撮影後、処理ユニット5から発光部2への指令により、スリット光の照射は停止される。また、ステップ120、130についての処理に係る手段は、本発明の第2画像取得手段に相当する。
In addition, after imaging | photography, irradiation of slit light is stopped by the instruction | command from the
ステップ140(第3画像取得手段)では、画像Aと画像Bとの差分演算が行われる。具体的には、画像Aと画像Bとの各画素値のデータ(RGBの各値)の差分が求められる。これにより、照射されたスリット光のみが写る差分画像C(本発明の第3画像に相当)を得ることが出来る。 In step 140 (third image acquisition means), a difference calculation between the image A and the image B is performed. Specifically, the difference between the pixel value data (RGB values) between the image A and the image B is obtained. Thereby, a difference image C (corresponding to the third image of the present invention) in which only the irradiated slit light is reflected can be obtained.
なお、以下のステップで得られる物体と車両10との距離の精度は、ステレオカメラを用いた場合と同様に基線長lとカメラ1の画素数に依存するが、スリット光の屈曲が逆転することはあり得ないので、物体と車両10との遠近関係が逆転することは無い。
The accuracy of the distance between the object obtained in the following steps and the
ステップ150(視差取得手段)では、屈曲点の検出が行われる。具体的に、差分画像Cの中のスリット光を示すものにおいて、物体が存在しない場合のものと存在する場合のものとのが折れ曲がる場所(屈曲点)が検出される。すなわち、物体がない場合のスリット光の位置と実際に撮影されたスリット光の位置とのずれを求めるために、差分画像Cの中からスリット光を示すものの屈曲点が取得される。そして、この屈曲点の座標に基づいてカメラ1と発光部2との視差xが取得される。
In step 150 (parallax acquisition means), a bending point is detected. Specifically, in the image showing the slit light in the difference image C, a place (bending point) where the object is not present and the object is present is detected. In other words, in order to obtain the deviation between the position of the slit light when there is no object and the position of the actually photographed slit light, the bending point of what shows the slit light is acquired from the difference image C. And the parallax x of the
本実施形態では、差分画像C内に任意の点を設定し、その点を画像C内で移動させてスリット光を示すものを見つけ出す。そして、差分画像C内で見つけ出したスリット光に沿って移動させ、スリット光が屈曲する部分の座標を取得する。本実施形態では、スリット光が直線状でなくなる部分を屈曲すると言う。すなわち、差分画像Cに表示されるスリット光が物体等によって折れ曲がったり、途切れたりする部分を屈曲点という(図3参照)。そして、取得された各屈曲点の座標から視差xを得る。 In this embodiment, an arbitrary point is set in the difference image C, and the point is moved in the image C to find an object indicating slit light. Then, it is moved along the slit light found in the difference image C, and the coordinates of the portion where the slit light is bent are obtained. In the present embodiment, it is said that the portion where the slit light is not linear is bent. That is, a portion where the slit light displayed in the difference image C is bent or interrupted by an object or the like is called a bending point (see FIG. 3). Then, the parallax x is obtained from the coordinates of the obtained bending points.
ステップ160(距離取得手段)では、物体と車両10との距離の算出が行われる。すなわち、あらかじめ基線長lおよびレンズの焦点距離fがわかっており、上記ステップ150にて視差xが得られている。また、上述のように、カメラ1から物体までの距離dはd=f×l/xにより得られる。したがって、この式に各値を代入することで距離dが得られる。以上で、本フローは終了する。
In step 160 (distance acquisition means), the distance between the object and the
そして、上記の距離算出フローが、図4に示されるように車両10の進行と共に行われることで、道路の路肩に駐車している車両11、12の各側部の位置50(図4中の各黒丸)と車両10との距離dを複数取得する。
Then, the distance calculation flow described above is performed along with the progress of the
また、図6は、道路の路肩に駐車された2台の車両11、12の間の空間を模式的に示した図である。この図に示されるように、各車両11、12の間には、溝44や石43等が存在する場合もある。このような場合、上記距離算出処理によって、縁石41や街路樹42等と車両10との距離、障害物として溝44や石43等と車両10との距離も得ることができる。
FIG. 6 is a diagram schematically showing a space between two
なお、図4および図6では、道路の路肩に2台の車両11、12が駐車している状況が描かれているが、車両11、12が2台とも存在しない場合や、いずれか一方のみ存在する場合も考えられる。このような場合であっても、上記距離算出処理によって道路の路肩に存在する物体と車両10との距離dが算出されることとなる。
4 and 6, the situation where two
次に、上記のようにして取得した道路の路肩に存在する物体等と車両10との距離dに基づいて、車両10の駐車を支援する作動について説明する。まず、駐車支援を行う前の事前処理について、図7を参照して説明する。
Next, an operation for assisting parking of the
図7は、事前処理の内容を示したフローチャートである。ここで、事前処理とは、駐車している2台の車両11、12等の障害物の情報を調べるために、図4に示されるように車両10が道路を通行する際に実行される処理である。したがって、処理ユニット5は、図7に示すフローチャートに従って事前処理プログラムを実行する。本実施形態では、この事前処理プログラムは、車速が例えば10km/h未満になると自動的に開始される。
FIG. 7 is a flowchart showing the contents of the pre-processing. Here, the pre-processing is processing executed when the
まず、時間に相当するカウンタをリセットした後(ステップ210)、車速センサ4および舵角センサ3から車速データ、操舵角データを取得し(ステップ220、230)、車速データ、操舵角データに基づいて車両位置を計算する(ステップ250)。なお、車両位置の計算に際しては、GPS(Global Positioning System)を利用してもよい。
First, after resetting a counter corresponding to time (step 210), vehicle speed data and steering angle data are acquired from the
ここで、ステップ240で車速が10km/h未満であるか否かを判定しているのは、車両10が駐車空間を探していることを前提としているためである。なお、車速が10km/hを超えた場合、車両10は駐車空間を探していないとして本事前処理は終了する。そして、再度スタートからやり直すため、カウンタ値はリセットされ、これまでに格納した各種情報は全て無効となる。
Here, it is determined in
そして、ステップ250で取得した車両位置を、記憶部5cのうち、現カウンタ値が指し示すアドレスのエリアへ格納する(ステップ260)。同時刻に、カメラ1でも撮影し(ステップ270)、撮影した画像を記憶部5cのうち現カウンタ値が指し示すアドレスのエリアへ格納する(ステップ275)。また同時刻に、上記距離算出処理によって得られた距離dを取得し(ステップ280)、この距離情報を、記憶部5cのうち現カウンタ値が指し示すアドレスのエリアへ格納する(ステップ285)。その後、カウンタ値をインクリメントする(ステップ290)。
Then, the vehicle position acquired in
以上により、記憶部5cのうち同一アドレスの示すエリアに、車両位置、カメラ画像、および距離情報が格納されることになる。
As described above, the vehicle position, the camera image, and the distance information are stored in the area indicated by the same address in the
この後、変速機のギア位置を判定し(ステップ295)、変速機が後退以外のギア位置に設定されている場合、ステップ220に戻り、変速機が後退に設定されるまで事前処理の動作を繰り返す。また、変速機が後退(バック)に設定されている場合、駐車支援処理を開始する。以下、この駐車支援処理について説明する。 Thereafter, the gear position of the transmission is determined (step 295), and if the transmission is set to a gear position other than reverse, the process returns to step 220 and the pre-processing operation is performed until the transmission is set to reverse. repeat. Further, when the transmission is set to reverse (back), parking support processing is started. Hereinafter, this parking assistance process will be described.
図8は、駐車支援処理の内容を示したフローチャートである。まず、道路の路肩に存在する駐車空間を抽出し(ステップ310)、その駐車空間の中央に相当するカメラ1の撮影位置(カメラ画像の位置)を求め、求めた撮影位置に相当する画像を記憶部5cから読み出(READ)して(ステップ320)、カメラ画像(駐車空間としての映像)を表示器6に表示し(ステップ330)、かつ、この表示画像に重畳するようにして駐車目標枠設定処理を行う(ステップ340)。そして、この駐車目標枠設定処理の結果に従って、車両10が例えば自動操舵される。
FIG. 8 is a flowchart showing the contents of the parking support process. First, a parking space existing on the shoulder of the road is extracted (step 310), a shooting position (camera image position) of the
次に、上記駐車支援処理のうち駐車空間抽出処理(ステップ310)、駐車目標枠設定処理(ステップ340)の各具体的処理について説明する。 Next, specific processes of the parking space extraction process (step 310) and the parking target frame setting process (step 340) in the parking support process will be described.
図9は、駐車空間抽出処理の内容を示したフローチャートである。まず、上述の事前処理で格納されたアドレスごとの距離情報(すなわち、道路の路肩に存在する物体までの距離)および車両位置を記憶部5cから読み出し(ステップ311、312)、道路路肩の距離情報の分布状態を算出する。続いて、この距離情報の3Dマッピングを行う(ステップ313)。具体的には、車両10の進行方向に対する道路路肩に存在する車両周辺物体(駐車している車両11、12や縁石41等)までの距離を3次元的にプロットすることで、道路路肩の3次元マッピングを行う。
FIG. 9 is a flowchart showing the contents of the parking space extraction process. First, the distance information for each address (that is, the distance to the object existing on the road shoulder) and the vehicle position stored in the above-described pre-processing and the vehicle position are read from the
この後、上記ステップ313で取得した道路路肩の3Dマッピングから車両10を駐車することができる駐車空間を抽出する。すなわち、道路路肩の空間の位置、サイズを抽出することとなる。
Thereafter, a parking space in which the
例えば、車両10の側方部、すなわち道路の路肩に空間が形成されている場合、図10に示されるように、障害物駐車車両が無いと推定する。これに伴い、駐車車両パターンとして「駐車車両無しパターン」を決定する。
For example, when a space is formed in the side portion of the
また、車両10の後方側にのみ駐車車両11が存在する場合、図11に示されるように、後方側駐車車両11のみ存在すると推定する。これに伴い、駐車車両パターンとして「後方側駐車車両のみパターン」を決定する。
Moreover, when the parked
さらに、車両10の前方側にのみ駐車車両12が存在する場合、図12に示されるように、前方側駐車車両12のみ存在すると推定する。これに伴い、駐車車両パターンとして「前方側駐車車両のみパターン」を決定する。こうして、駐車空間抽出処理は終了し、図8に示されるステップ320に進み、ステップ330が実行された後、ステップ340にて駐車目標枠設定処理が実行される。
Furthermore, when the parked
図13は、駐車目標枠設定処理の内容を示したフローチャートである。なお、以下では、 既駐車車両11、12の間の寸法をLとして、駐車スペースの中央部は、既駐車車両11、12からL/2の位置とする。また、前記中央部を通過する通過タイミングをTcとする。
FIG. 13 is a flowchart showing the contents of the parking target frame setting process. In the following description, the dimension between the parked
まず、ステップ341での選択は、後述するカメラ1の撮影位置を求める演算で用いるパラメータDとして、一般的な車両の全長(車両前後方向の寸法)を基準とした値Lcか、一般的な車両の全幅(車両左右方向の寸法)を基準とした値Wc(図示せず)のいずれを用いるかを選択するものである。
First, the selection in
そして、ステップ341にて並列駐車の場合であると判定すると、ステップ342aにて並列駐車用表示枠の設定を行い、縦列駐車の場合であると判定すると、ステップ342bにて縦列駐車用表示枠の設定を行う。
And if it determines with it being the case of parallel parking in
次に、パラメータDをLc、Wcのうち一方から求める(ステップ343a、343b)。ここで、パラメータDを求める際に、Lc、Wcにnを乗じているが、このnは正の整数である(D=n×Lc、D=n×Wc)。パラメータDは、自車が並列駐車および縦列駐車に必要な最小空間長を示している。また、正の整数nは、この最小空間長Dを自車の全長又は全幅から算出する際に乗ずる係数であり、例えばアッカーマン・ジャントー式の車両の場合、理論式より理想的な最小空間長Dは容易に計算可能である。
Next, the parameter D is obtained from one of Lc and Wc (
なお、実際には、この最小空間長Dに、さらに万が一の衝突を防止するための安全マージンを加える必要があるので、正の整数値nは経験的に決定する必要がある。 Actually, since it is necessary to add a safety margin for preventing an emergency collision to the minimum space length D, the positive integer value n needs to be determined empirically.
次に、ステップ344に移行して、上述の障害物の位置算出処理で決定した駐車車両パターンによる条件分岐を行う。本実施形態では、駐車車両パターンとしは、「駐車車両無しパターン」(図10参照)、「後方側駐車車両のみパターン」(図11参照)、「前方側駐車車両のみパターン」(図12参照)、および「前後に駐車車両有りパターン」(図4参照)がある。 Next, the process proceeds to step 344, where conditional branching is performed based on the parked vehicle pattern determined by the obstacle position calculation process described above. In the present embodiment, as the parked vehicle pattern, “no parked vehicle pattern” (see FIG. 10), “rear side parked vehicle only pattern” (see FIG. 11), “front side parked vehicle only pattern” (see FIG. 12). And “Pattern with / without parked vehicle” (see FIG. 4).
例えば、「駐車車両無しパターン」の場合、駐車空間を制限する障害物が無いため、自車である車両10の現状位置を基準として(ステップ346a)、最小空間長Dの1/2を減じた(車両10から見て遠方)位置を目標駐車スペースの中央(駐車枠の位置)とする(ステップ347a)。
For example, in the case of the “no-parking vehicle pattern”, since there is no obstacle that restricts the parking space, 1/2 of the minimum space length D is reduced with reference to the current position of the
また、「後方側駐車車両のみパターン」の場合は、後方駐車車両11の最近接端から現自車位置までの距離Lが最小空間長Dの2倍以下の場合には(ステップ345:NO)、後方駐車車両11の最近接端を基準として(ステップ346b)、最小空間長Dの1/2を加算した位置を駐車枠の位置とする(ステップ347b)。
Further, in the case of the “rear side parked vehicle only pattern”, when the distance L from the closest end of the rear parked
さらに、最小空間長Dの2倍より大きい時は(ステップ345:YES)、現自車位置を基準として最小空間長Dの1/2を減じた位置を駐車枠の位置とする。このときに最小空間長Dに乗ずる“2”という係数は、2に限定されるものではない。例えば、実使用上で縦列駐車をする際に、1台の既駐車車両の先の全く障害物の無い駐車スペースに駐車しようとした場合、この既駐車車両に注意して駐車すべき位置関係は、どのくらいの距離までかを仮に最小空間長Dの2倍と仮定したに過ぎない。仮に全長が4m、前記正の整数を1.5といった小型車両の場合、係数が2の場合は、後方駐車車両から3mの部分で条件分岐されることになる。 Furthermore, when it is larger than twice the minimum space length D (step 345: YES), a position obtained by subtracting 1/2 of the minimum space length D with respect to the current vehicle position is set as the parking frame position. At this time, the coefficient “2” multiplied by the minimum space length D is not limited to 2. For example, when performing parallel parking in actual use, if you attempt to park in a parking space that is completely free of obstacles ahead of one parked vehicle, The distance is only assumed to be twice the minimum space length D. In the case of a small vehicle having a total length of 4 m and the positive integer being 1.5, when the coefficient is 2, the condition is branched at a portion of 3 m from the rear parked vehicle.
さらに、「前方駐車車両のみパターン」の場合は、前方駐車車両12の最遠方端を基準とし(ステップ346c)、最小空間長Dの1/2を減じた位置を駐車枠の位置とする(ステップ347c)。
Further, in the case of the “front parked vehicle only pattern”, the farthest end of the forward parked
そして、「前後に駐車車両有りパターン」の場合は、後方駐車車両11の最近接端から前方駐車車両12の最遠方端までの距離Lが最小空間長Dの2倍より長いときは(ステップ348:YES)、前方駐車車両の最近接端を基準に最小空間長Dの1/2を減じた位置を駐車枠の位置とする(ステップ346c、347c)。
In the case of the “front and rear parked vehicle pattern”, when the distance L from the closest end of the rear parked
また、最小空間長Dの2倍以下の時は(ステップ348:NO)、前方駐車車両12の最遠方端を基準として後方駐車車両11の最近接端から前方駐車車両12の最遠方端までの距離Lの1/2を減じた位置を駐車枠の位置とする(ステップ349)。
When the distance is less than twice the minimum space length D (step 348: NO), the distance from the closest end of the rear parked
以上のようにして、駐車枠の位置を取得する。この後、設定した駐車枠の位置を駐車支援情報として表示器6に例えば画像表示することにより、ドライバに対して駐車支援を行う。また、自動操舵によって車両10を駐車スペースに駐車させるようにしても良い。
As described above, the position of the parking frame is acquired. Thereafter, parking assistance is provided to the driver by, for example, displaying an image of the set position of the parking frame on the display device 6 as parking assistance information. Further, the
以上説明したように、本実施形態では、車両10の周辺に車両周辺物体11、12、41〜44が存在する場合、スリット光を照射して車両周辺物体11、12、41〜44を撮影すると共に、撮影した画像の中からスリット光が折れ曲がる屈曲点31、32を検出し、その屈曲点31、32に基づいて車両周辺物体11、12、41〜44と車両10との距離dを算出することが特徴となっている。このスリット光の折れ曲がりは、実在する車両周辺物体11、12、41〜44の表面で発生するため、距離算出の際に車両周辺物体11、12、41〜44と車両10との遠近関係が逆転してしまうことを防止できる。また、撮影した画像の中から上記屈曲点の座標から視差xを求めているため、車両周辺物体11、12、41〜44と車両10との距離を精度良く求めることができる。また、こうして求めた距離を用いて、ドライバに対し駐車支援を行うことができる。上記のように、車両周辺物体11、12、41〜44と車両10との距離を精度良く得ることができるため、車両10を駐車するための駐車空間を精度良く検知することができる。
As described above, in the present embodiment, when the vehicle
(第2実施形態)
本実施形態では、第1実施形態と異なる部分についてのみ説明する。本実施形態では、照射角度が異なる複数の発光部2を用いることが特徴である。このように、複数の発光部2を用いる場合、図14に示されるフローに従って道路路肩に存在する物体までの距離dが算出される。
(Second Embodiment)
In the present embodiment, only parts different from the first embodiment will be described. This embodiment is characterized in that a plurality of light emitting
まず、ステップ410(スリット光パターン選択手段)では、スリット光パターンの選択が行われる。すなわち、複数の発光部2のうち、どの発光部2からスリット光を照射するかが選択される。
First, in step 410 (slit light pattern selection means), a slit light pattern is selected. That is, from among the plurality of light emitting
ステップ420(距離算出処理手段)では、距離算出処理が行われる。すなわち、図5に示されるフローに従って、道路路肩に存在する物体の検知およびその距離dが得られる。この処理が行われる際、上記ステップ410で選択された発光部2が用いられる。なお、差分画像Cから屈曲点が見つからない場合には、道路路肩に物体は存在しないとされる。
In step 420 (distance calculation processing means), a distance calculation process is performed. That is, according to the flow shown in FIG. 5, the detection of the object existing on the road shoulder and its distance d are obtained. When this process is performed, the
ステップ430(パターン判定手段)では、スリット光パターンのうち全パターンが終了したか否かが判定される。すなわち、車両10に設置された全発光部2が用いられて上記ステップ420で距離算出処理が行われたが判定される。
In step 430 (pattern determining means), it is determined whether or not all the patterns of the slit light pattern have been completed. That is, it is determined that the distance calculation process has been performed in
本ステップにて、全パターンが終了していない場合、ステップ410に戻り、他の発光部2が選択される。また、全パターンが終了した場合、本フローは終了する。
If all the patterns are not completed in this step, the process returns to step 410, and another
以上、説明したように、複数の発光部2を用意すると共に、各発光部2からそれぞれ異なる照射角度でスリット光を照射する。これにより、車両10から道路路肩をスリット光でスキャニングする際に死角がなくなるため、道路路肩の空間や障害物等を確実に検出することができると共に、障害物等と車両10との距離を算出することができる。
As described above, a plurality of light emitting
(他の実施形態)
上記各実施形態では、車両周辺物体として駐車している車両11、12や縁石41等と車両10との距離を算出しているが、道路上の段差、輪留め等も検出することができる。すなわち、車両側方部をスリット光によりスキャニングしているため、車両側方部を立体的(三次元的)に把握することが可能である。
(Other embodiments)
In each of the above embodiments, the distances between the
上記各実施形態では、スリット光をボデー面に対して鉛直方向に照射しているが、スリット光の照射角度は鉛直方向に限らず、鉛直方向に対して角度をもって照射されるようにしても構わない。そして、スリット光が反射対象に照射された際、撮影される画像にスリット光の視差が生じていれば、画像の中からスリット光が屈曲する屈曲点を検出できると共に、この屈曲点に基づいて障害物等と車両10との距離を算出することができる。車両10の走行に伴ってスリット光で道路の路肩をスキャニングするという観点では、スリット光は鉛直方向に伸びるものであることが好ましい。
In each of the above embodiments, the slit light is irradiated in the vertical direction with respect to the body surface. However, the irradiation angle of the slit light is not limited to the vertical direction, and may be irradiated with an angle with respect to the vertical direction. Absent. When the slit light is irradiated on the reflection object, if the parallax of the slit light occurs in the image to be shot, the bending point where the slit light bends can be detected from the image, and based on this bending point The distance between the obstacle and the
第2実施形態に示されるように、複数の発光部2を用いる場合、例えば図1に示される車両10の側部に設置された発光部2からスリット光を車両10の前方側に照射すると共に、車両10の側部に設置された別の発光部2からスリット光を車両10の後方側に照射する。すなわち、車両10を地面側に見たとき、各スリット光が地面に照射された際に伸びる方向がV字型になるようにスリット光を照射する。これにより、車両10において死角無く詳細な駐車空間検知が可能となる。また、第1実施形態のように1つのスリット光で駐車空間を検知する場合、発光部2から照射されるスリット光が地面に照射された際に伸びる方向が車両10のボデー面に対して垂直になるようになるようにすることで、死角を低減することができる。
As shown in the second embodiment, when a plurality of light emitting
上記各実施形態では、駐車支援処理を行うタイミングを車両10の車速に基づいて判定しているが、他のタイミングで駐車支援処理を行うようにしても構わない。例えば、ナビゲーション装置と連動させて、車両10が駐車場に進入したタイミングで駐車支援処理を開始するようにしても良い。また、ドライバが駐車支援処理を開始させる操作を行えるようにすることも可能である。
In each said embodiment, although the timing which performs a parking assistance process is determined based on the vehicle speed of the
また、車両10が停車中の場合、発光部2からスリット光を照射しないようにする。これにより、複数システム間の干渉防止を図ることができる。
Further, when the
カメラ1にてスリット光が撮影されない場合、処理ユニット5は当該箇所に障害物があるとして判定するようにしても良い。すなわち、スリット光が水溜り、ガラス、鏡、磨かれたボデー、絶壁などに照射された場合に相当し、この場合、車両側部に物体が存在すると判定して問題ない。
When slit light is not photographed by the
車両10に対し、発光部2から照射されるスリット光をドアが開く際のエッジの軌道に合わせることで、ドア開放時に障害物との衝突可否を判定することができる。また、スリット光を車両10の上方(天井方向)に照射すれば、ハッチやトランクなどの開閉確認に使用することも可能である。この場合、上記各実施形態のように駐車空間の高さを検知することができる。これにより、立体駐車場への入庫可否判定や、陸橋下の通過可否判定が可能となる。
By matching the slit light emitted from the
上記各実施形態では、車両10の車速に応じて車両10の側面をスキャニングしているが、例えば車両10が交差点にさしかかったとき等に巻き込み対象となる2輪車を検知することもできる。この場合、車速に応じて車両10の側面をスキャニングするか、ナビゲーション装置と連動させて、交差点にさしかかったときに車両10をスキャニングするようにすれば良い。
In each of the above-described embodiments, the side surface of the
上記各実施形態では、発光部2から鉛直方向に伸びるスリット光が照射されているが、スリット光に限らずスポット光の集まり(点線)でも良い。また、スポット光や点の光でなく、任意のマークを照射するようにしても良い。
In each of the embodiments described above, the slit light extending in the vertical direction from the
上記各実施形態では、発光部2から照射するスリット光として他の車両の運転障害にならない赤外光を用いているが、スリット光として可視光を用いても構わない。
In each said embodiment, although the infrared light which does not become a driving | operation obstacle of another vehicle is used as slit light irradiated from the
また、発光部2、カメラ1の搭載位置は、車両10の側部のボデーに限るものではなく、車両10上のいずれの位置、方向であっても移動に伴い視差が生じさえすれば構わない。
Further, the mounting position of the
上記カメラ1および発光部2は、車両10の四方のいくつか、あるいは全ての方向に設置するようにしても構わない。
The
また、カメラ1で撮影したスリット光の反射による曲線と、反射対象が存在しない場合の曲線を基準として比較し、これらが異なる、つまり一致しない点の座標を求め、距離算出処理を行うことで、反射対象までの距離を算出することもできる。
Also, by comparing the curve by the reflection of the slit light imaged by the
なお、各図中に示したステップは、各種処理を実行する手段に対応するものである。 The steps shown in each figure correspond to means for executing various processes.
1…撮影手段としてのカメラ、2…光源としての発光部、5…処理手段としての処理ユニット、10…車両、11、12、41〜44…車両周辺物体、31、32…屈曲点、110…第1画像取得手段、120、130…第2画像取得手段、140…第3画像取得手段、150…視差取得手段、160…距離取得手段、410…スリット光パターン選択手段、420…距離算出処理手段、430…パターン判定手段。
DESCRIPTION OF
Claims (8)
前記撮影手段にて前記スリット光を照射することなく撮影された画像を第1画像として入力する第1画像取得手段(110)と、
前記光源から前記スリット光を照射させると共に、前記撮影手段にて撮影された画像を第2画像として入力する第2画像取得手段(120、130)と、
前記第1画像と前記第2画像との各画像のデータの差分演算を行い、この差分演算で得られた画像を第3画像として取得する第3画像取得手段(140)と、
前記第3画像の中から、前記スリット光を示すものが折れ曲がる場所を前記屈曲点として検出してこの屈曲点の座標を取得すると共に、前記屈曲点のうち、前記車両周辺物体が存在しない位置からの反射に該当する屈曲点の座標と、前記車両周辺物体が存在する位置からの反射に該当する屈曲点の座標とから、前記光源と前記撮影手段との視差を求める視差取得手段(150)と、
前記光源と前記撮影手段との視差の値を用いて、前記車両周辺物体と前記車両との距離を取得する距離取得手段(160)と、を備え、これら各手段によって距離算出処理を行うことを特徴とする請求項1ないし5のいずれか1つに記載の駐車支援装置。 The processing means includes
A first image obtaining means (110) for inputting an image photographed without irradiating the slit light by the photographing means as a first image;
Second image acquisition means (120, 130) for irradiating the slit light from the light source and inputting an image photographed by the photographing means as a second image;
A third image acquisition means (140) for performing a difference calculation of data of each image between the first image and the second image, and acquiring an image obtained by the difference calculation as a third image;
From the third image, a position where the slit light is bent is detected as the bending point, and the coordinates of the bending point are obtained. From the position where the vehicle peripheral object does not exist among the bending points. A parallax obtaining unit (150) for obtaining a parallax between the light source and the photographing unit from the coordinates of the bending point corresponding to the reflection of the vehicle and the coordinates of the bending point corresponding to the reflection from the position where the vehicle peripheral object exists. ,
Distance acquisition means (160) for acquiring a distance between the vehicle peripheral object and the vehicle using a parallax value between the light source and the photographing means, and performing distance calculation processing by each of these means The parking assistance device according to any one of claims 1 to 5, characterized in that:
前記処理手段は、
前記複数の光源の中から、一つを選択するスリット光パターン選択手段(410)と、
前記スリット光パターン選択手段にて選択された前記スリット光に基づいて前記距離算出処理を行う距離算出処理手段(420)と、
前記複数の光源全てについて前記距離算出処理が行われたか否かを判定するパターン判定手段(430)と、を備えていることを特徴とする請求項6に記載の駐車支援装置。 It has a plurality of light sources having different irradiation angles of the slit light,
The processing means includes
Slit light pattern selection means (410) for selecting one of the plurality of light sources;
Distance calculation processing means (420) for performing the distance calculation processing based on the slit light selected by the slit light pattern selection means;
The parking assistance device according to claim 6, further comprising: a pattern determination unit (430) that determines whether or not the distance calculation processing has been performed for all of the plurality of light sources.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006158041A JP2007326428A (en) | 2006-06-07 | 2006-06-07 | Parking assisting device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006158041A JP2007326428A (en) | 2006-06-07 | 2006-06-07 | Parking assisting device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007326428A true JP2007326428A (en) | 2007-12-20 |
Family
ID=38927218
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006158041A Withdrawn JP2007326428A (en) | 2006-06-07 | 2006-06-07 | Parking assisting device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007326428A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008105282A1 (en) * | 2007-02-27 | 2008-09-04 | Toyota Jidosha Kabushiki Kaisha | Parking assistance device |
JP2016502657A (en) * | 2012-11-08 | 2016-01-28 | ブルーテックニックス ゲーエムベーハー | Recording method using at least two Time-of-flight cameras |
JP2017037450A (en) * | 2015-08-10 | 2017-02-16 | 日産自動車株式会社 | Level-difference detection apparatus and level-difference detection method |
JP2018523191A (en) * | 2015-05-08 | 2018-08-16 | コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH | Device for determining a space in which a vehicle can travel, traveling based on the device, and vehicle |
US10539957B2 (en) | 2018-01-11 | 2020-01-21 | Honda Motor Co., Ltd. | Methods and systems for enabling a vehicle to park remotely |
JP2020109628A (en) * | 2018-12-19 | 2020-07-16 | トヨタ モーター ノース アメリカ,インコーポレイティド | Parking facilitation systems and methods |
US10789850B2 (en) | 2016-05-10 | 2020-09-29 | Mitsubishi Electric Corporation | Obstacle detection device, driving assistance system, and obstacle detection method |
JP2021103140A (en) * | 2019-12-25 | 2021-07-15 | 株式会社ジェイテクト | Positional relationship detection device and positional relationship detection method |
-
2006
- 2006-06-07 JP JP2006158041A patent/JP2007326428A/en not_active Withdrawn
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008105282A1 (en) * | 2007-02-27 | 2008-09-04 | Toyota Jidosha Kabushiki Kaisha | Parking assistance device |
US8130120B2 (en) | 2007-02-27 | 2012-03-06 | Toyota Jidosha Kabushiki Kaisha | Parking assistance device |
JP2016502657A (en) * | 2012-11-08 | 2016-01-28 | ブルーテックニックス ゲーエムベーハー | Recording method using at least two Time-of-flight cameras |
JP2018523191A (en) * | 2015-05-08 | 2018-08-16 | コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH | Device for determining a space in which a vehicle can travel, traveling based on the device, and vehicle |
JP2017037450A (en) * | 2015-08-10 | 2017-02-16 | 日産自動車株式会社 | Level-difference detection apparatus and level-difference detection method |
US10789850B2 (en) | 2016-05-10 | 2020-09-29 | Mitsubishi Electric Corporation | Obstacle detection device, driving assistance system, and obstacle detection method |
US10539957B2 (en) | 2018-01-11 | 2020-01-21 | Honda Motor Co., Ltd. | Methods and systems for enabling a vehicle to park remotely |
JP2020109628A (en) * | 2018-12-19 | 2020-07-16 | トヨタ モーター ノース アメリカ,インコーポレイティド | Parking facilitation systems and methods |
JP7314040B2 (en) | 2018-12-19 | 2023-07-25 | トヨタ モーター ノース アメリカ,インコーポレイティド | PARKING FACILITATION SYSTEM AND METHOD |
JP2021103140A (en) * | 2019-12-25 | 2021-07-15 | 株式会社ジェイテクト | Positional relationship detection device and positional relationship detection method |
JP7347204B2 (en) | 2019-12-25 | 2023-09-20 | 株式会社ジェイテクト | Positional relationship detection device and positional relationship detection method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8089512B2 (en) | Driving support device, driving support method and computer program | |
CN101207802B (en) | Driving support method and driving support apparatus | |
US9656691B2 (en) | Method for performing an at least semi-autonomous parking process of a motor vehicle in a garage, parking assistance system and motor vehicle | |
JP2007326428A (en) | Parking assisting device | |
JP3945467B2 (en) | Vehicle retraction support apparatus and method | |
US8422737B2 (en) | Device and method for measuring a parking space | |
JP3494434B2 (en) | Parking assistance device | |
US20210073557A1 (en) | Systems and methods for augmenting upright object detection | |
JP6642906B2 (en) | Parking position detection system and automatic parking system using the same | |
KR20080109871A (en) | Parking assistance device and parking assistance method | |
WO2017208976A1 (en) | Parking assistance device and parking assistance method | |
JP2013541915A (en) | Blind Spot Zone Display Device and Method | |
JP2008143430A (en) | Parking support device | |
JP2008123462A (en) | Object detector | |
CN104870256A (en) | On-vehicle control device | |
JP2009211624A (en) | Driving support device, driving support method, and computer program | |
JP5082923B2 (en) | Vehicle obstacle detection device | |
JP3612970B2 (en) | Tunnel detection apparatus and vehicle control apparatus using the same | |
JP3666332B2 (en) | Pedestrian detection device | |
JP2005202761A (en) | Vehicle surrounding monitoring system | |
JP4296287B2 (en) | Vehicle recognition device | |
JP4613884B2 (en) | Parking assistance device | |
JP2007327803A (en) | Vehicle surrounding monitoring device | |
KR101190789B1 (en) | Apparatus and method for measurementing distance of vehicle | |
KR101295618B1 (en) | Apparatus and method for displaying blind spot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20090901 |