JP5429565B2 - Vehicle height detection device - Google Patents

Vehicle height detection device Download PDF

Info

Publication number
JP5429565B2
JP5429565B2 JP2010080037A JP2010080037A JP5429565B2 JP 5429565 B2 JP5429565 B2 JP 5429565B2 JP 2010080037 A JP2010080037 A JP 2010080037A JP 2010080037 A JP2010080037 A JP 2010080037A JP 5429565 B2 JP5429565 B2 JP 5429565B2
Authority
JP
Japan
Prior art keywords
vehicle
vehicle height
angle
measurement object
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010080037A
Other languages
Japanese (ja)
Other versions
JP2011209251A (en
Inventor
正一 釜田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP2010080037A priority Critical patent/JP5429565B2/en
Publication of JP2011209251A publication Critical patent/JP2011209251A/en
Application granted granted Critical
Publication of JP5429565B2 publication Critical patent/JP5429565B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、車高検出装置に係り、特に駐車支援システム等の車両に備え付けられている装置を用いて、車高を検出するように構成された車高検出装置に関する。   The present invention relates to a vehicle height detection device, and more particularly to a vehicle height detection device configured to detect a vehicle height using a device provided in a vehicle such as a parking assistance system.

ヘッドランプの光軸制御、駐車支援制御等の種々の車両システムで車高センサが用いられている。
例えば、特許文献1に記載のヘッドランプの光軸制御装置では、クロスメンバ下部に地面に向けて複数の超音波センサ(車高センサ)が配置されている。また、特許文献2に記載の駐車支援装置では、車両後方下部に地面に向けて超音波センサ(車高センサ)が設けられている。特許文献1及び2では、超音波センサを用いることにより、地面との距離を音波を用いて測定することで、直接的に車高を求めることができる。
また、特許文献3に記載の駐車支援装置では、スタビライザに、車高センサが設けられている。特許文献3の車高センサでは、スタビライザの回転角度を検出することで、車高を検出することができる。
Vehicle height sensors are used in various vehicle systems such as headlamp optical axis control and parking assist control.
For example, in the optical axis control device for a headlamp described in Patent Document 1, a plurality of ultrasonic sensors (vehicle height sensors) are arranged below the cross member toward the ground. Moreover, in the parking assistance apparatus of patent document 2, the ultrasonic sensor (vehicle height sensor) is provided toward the ground at the vehicle rear lower part. In Patent Documents 1 and 2, by using an ultrasonic sensor, the vehicle height can be directly obtained by measuring the distance from the ground using sound waves.
Moreover, in the parking assistance apparatus of patent document 3, the vehicle height sensor is provided in the stabilizer. With the vehicle height sensor of Patent Document 3, the vehicle height can be detected by detecting the rotation angle of the stabilizer.

特開2007−176296号公報JP 2007-176296 A 特開2002−293196号公報JP 2002-293196 A 特開2004−114840号公報JP 2004-114840 A

しかしながら、特許文献1乃至3に記載のような従来の車高センサは、地面付近に配置されているので、飛石等から保護するための構造が必要である。このため、センサ単体の価格が高価であることに加えて、強度的に丈夫に構成する必要があるので、車両価格を押し上げると共に、重量増となるという問題があった。   However, since conventional vehicle height sensors such as those described in Patent Documents 1 to 3 are disposed near the ground, a structure for protecting them from flying stones is required. For this reason, in addition to the cost of the sensor alone being expensive, it is necessary to make the sensor strong and strong, which increases the vehicle price and increases the weight.

本発明は、上記課題を解決するためになされたものであり、簡易な構成で重量増となることがなく、安価に構成することが可能な車高検出装置を提供することを目的としている。   The present invention has been made to solve the above-described problems, and an object of the present invention is to provide a vehicle height detection device that can be configured at a low cost without a weight increase with a simple configuration.

上記の目的を達成するために、本発明は、車高を検出する車高検出装置において、車体に固定され、車両周辺の測定対象物までの水平距離を測定する距離測定手段と、車体に固定され、車両周辺の測定対象物を撮像する撮像手段と、撮像された測定対象物の所定部の画像データ,水平距離,及び距離測定手段と撮像手段との位置関係データに基づいて、測定対象物の所定部に対する撮像手段の地上高を算出し、この地上高から車高を算出する車高算出手段と、を備え、車高算出手段は、画像データに基づいて、撮像手段の撮像部から見た所定部の上下方向角度を算出し、水平距離と位置関係データに基づいて、撮像手段の撮像部の光軸方向における撮像手段と所定部との間の第2の水平距離を算出し、上下方向角度及び第2の水平距離を用いて、地上高を算出することを特徴としている。 In order to achieve the above object, the present invention provides a vehicle height detection device for detecting vehicle height, which is fixed to a vehicle body, and is a distance measurement means for measuring a horizontal distance to a measurement object around the vehicle, and is fixed to the vehicle body. The measurement object is based on the imaging means for imaging the measurement object around the vehicle, the image data of the predetermined part of the imaged measurement object, the horizontal distance, and the positional relationship data between the distance measurement means and the imaging means. Vehicle height calculating means for calculating the ground height of the imaging means relative to the predetermined portion and calculating the vehicle height from the ground height , the vehicle height calculating means being viewed from the imaging portion of the imaging means based on the image data. And calculating a second horizontal distance between the imaging unit and the predetermined unit in the optical axis direction of the imaging unit of the imaging unit based on the horizontal distance and the positional relationship data. Using direction angle and second horizontal distance It is characterized in that to calculate the ground clearance.

このように構成された本発明によれば、撮像手段及び距離測定手段からの画像データ及び水平距離と、距離測定手段と撮像手段との位置関係データに基づいて、車高算出手段が計算処理により車高を算出することができる。これにより、本発明の構成要素は、車両の既存のシステム(駐車支援システム)を利用して構成することができるので、専用の車高センサを設けることなく、車高を求めることが可能となる。また、このように構成された本発明によれば、撮像手段による画像データと、距離測定手段による水平距離と、撮像手段と距離測定手段との位置関係データによって、車高を簡易に算出することができる。 According to the present invention configured as described above, the vehicle height calculation means performs calculation processing based on the image data and the horizontal distance from the imaging means and the distance measurement means, and the positional relationship data between the distance measurement means and the imaging means. The vehicle height can be calculated. Thereby, since the component of this invention can be comprised using the existing system (parking assistance system) of a vehicle, it becomes possible to obtain | require vehicle height, without providing a dedicated vehicle height sensor. . Further, according to the present invention configured as described above, the vehicle height can be easily calculated based on the image data obtained by the imaging means, the horizontal distance obtained by the distance measuring means, and the positional relationship data between the imaging means and the distance measuring means. Can do.

また、本発明において好ましくは、測定対象物の所定部は、測定対象物の地面との接触部とすることができる。このように構成された本発明によれば、測定対象物の所定部を測定対象物の地面との接触部とすることで、画像データからの当該部位の認識及び特定を容易にすることができる。   In the present invention, preferably, the predetermined part of the measurement object can be a contact part of the measurement object with the ground. According to the present invention configured as described above, the predetermined portion of the measurement object is a contact portion with the ground of the measurement object, so that the part can be easily recognized and specified from the image data. .

また、本発明において好ましくは、車高算出手段は、画像データに基づいて、撮像手段の撮像部から見た測定対象物の所定部の左右方向角度を算出し、この左右方向角度を更に用いて第2の水平距離を算出する。このように構成された本発明によれば、測定対象物が、撮像手段の光軸の延長上から外れて位置している場合でも、車高を算出することができる。   In the present invention, preferably, the vehicle height calculation means calculates a left-right angle of a predetermined part of the measurement object viewed from the image pickup unit of the image pickup means based on the image data, and further uses the left-right angle. A second horizontal distance is calculated. According to the present invention configured as described above, the vehicle height can be calculated even when the measurement object is located outside the extension of the optical axis of the imaging means.

本発明によれば、専用の車高センサを設けることなく、簡易な構成で車高検出装置を提供することができる。   According to the present invention, a vehicle height detection device can be provided with a simple configuration without providing a dedicated vehicle height sensor.

本発明の実施形態による車高検出装置の説明図である。It is explanatory drawing of the vehicle height detection apparatus by embodiment of this invention. 本発明の実施形態による車両後部の説明図である。It is explanatory drawing of the vehicle rear part by embodiment of this invention. 本発明の実施形態による車高検出装置の構成ブロック図である。1 is a configuration block diagram of a vehicle height detection device according to an embodiment of the present invention. 本発明の実施形態による画像データを示す説明図である。It is explanatory drawing which shows the image data by embodiment of this invention. 本発明の実施形態による車高検出装置の測定状況を説明する図である。It is a figure explaining the measurement condition of the vehicle height detection apparatus by embodiment of this invention. 本発明の実施形態による車高検出装置の測定状況を説明する図である。It is a figure explaining the measurement condition of the vehicle height detection apparatus by embodiment of this invention. 本発明の実施形態による画像データを示す説明図である。It is explanatory drawing which shows the image data by embodiment of this invention. 本発明の実施形態による車高及び傾斜角度算出処理の処理フローである。It is a processing flow of the vehicle height and inclination angle calculation process by embodiment of this invention.

以下、添付図面図1乃至図8を参照して本発明の実施形態について説明する。
図1に示すように、本実施形態の車両1は、車両1の車高及び前後方向の傾斜角度を算出する車高検出装置10を備えている。
車高検出装置10は、車両に搭載されたECU20と、車両後部に固定されたバックモニタ用のカメラ30と、カメラ30周辺のバンパー付近に固定された複数のソナー40(40a,40b,40c,40d)とを備えている。
Hereinafter, embodiments of the present invention will be described with reference to FIGS. 1 to 8.
As shown in FIG. 1, the vehicle 1 of this embodiment includes a vehicle height detection device 10 that calculates the vehicle height of the vehicle 1 and the inclination angle in the front-rear direction.
The vehicle height detection device 10 includes an ECU 20 mounted on the vehicle, a back monitor camera 30 fixed to the rear portion of the vehicle, and a plurality of sonars 40 (40a, 40b, 40c, 40d).

本実施形態の車高検出装置10は、車両1に搭載された既存の駐車支援システムを利用している。すなわち、ECU20、カメラ30、ソナー40は、駐車支援システムの構成要素である。   The vehicle height detection device 10 of the present embodiment uses an existing parking assistance system mounted on the vehicle 1. That is, the ECU 20, the camera 30, and the sonar 40 are components of the parking support system.

ECU20は、CPU、メモリ、入出力装置等を備えたものであり、駐車支援システムを制御すると共に、車高検出装置10の制御手段としても機能する。ECU20は、カメラ30から画像データ、ソナー40から水平距離測定データを受取り、車両1の車高及び傾斜角度を算出して、関連システムへ車高及び傾斜角度データを送出する車高算出手段として機能するように構成されている。   The ECU 20 includes a CPU, a memory, an input / output device, and the like, and controls the parking support system and also functions as a control unit of the vehicle height detection device 10. The ECU 20 functions as vehicle height calculation means that receives image data from the camera 30 and horizontal distance measurement data from the sonar 40, calculates the vehicle height and inclination angle of the vehicle 1, and sends the vehicle height and inclination angle data to the related system. Is configured to do.

カメラ30は、車両1の後方画像を、撮像部としての撮像レンズ部30a(図5参照)を介して連続的に撮像する撮像手段であり、画像データをECU20へ送出する。なお、撮像部は、ピンホールや反射鏡等であってもよい。
ソナー40は、所定の指向性を有する超音波センサであり、車両周辺の物体(測定対象物)との水平距離を測定し、水平距離測定データをECU20へ送出する距離測定手段である。ソナー40は、カメラ30よりも下側で、地面に近い位置に配置されている。
The camera 30 is an imaging unit that continuously captures a rear image of the vehicle 1 via an imaging lens unit 30a (see FIG. 5) as an imaging unit, and sends image data to the ECU 20. Note that the imaging unit may be a pinhole, a reflecting mirror, or the like.
The sonar 40 is an ultrasonic sensor having a predetermined directivity, and is a distance measurement unit that measures a horizontal distance from an object (measurement target) around the vehicle and sends horizontal distance measurement data to the ECU 20. The sonar 40 is disposed below the camera 30 and at a position close to the ground.

図2は、車両1の後部を車両上方から見た説明図である。カメラ30は、車両1の幅方向中央部に配置されており、撮像レンズ部30aの光軸Zが車両1の前後方向に延びる中央軸線の方向に沿って後方に向けられている。また、カメラ30は、光軸Zが水平方向hから所定角度(例えば20°〜30°程度)下方向を向くように配置されている。これにより、カメラ30は、車両1の後部周辺の撮像範囲を撮像する。   FIG. 2 is an explanatory view of the rear portion of the vehicle 1 as viewed from above the vehicle. The camera 30 is disposed at the center in the width direction of the vehicle 1, and the optical axis Z of the imaging lens unit 30 a is directed rearward along the direction of the center axis extending in the front-rear direction of the vehicle 1. The camera 30 is arranged such that the optical axis Z faces downward from the horizontal direction h by a predetermined angle (for example, about 20 ° to 30 °). Thereby, the camera 30 images the imaging range around the rear part of the vehicle 1.

また、図2に示すように、ソナー40は、車両1の後部の4箇所に設けられており、カメラ30を挟んで車幅方向の両側に2箇所ずつ配置されている。ソナー40a、40b、40c、40dは、それぞれ距離測定範囲Ka、Kb、Kc、Kd内にある測定対象物までの水平距離を測定することができる。   As shown in FIG. 2, the sonar 40 is provided at four locations on the rear portion of the vehicle 1, and is disposed at two locations on both sides in the vehicle width direction with the camera 30 in between. The sonars 40a, 40b, 40c, and 40d can measure the horizontal distances to the measurement objects in the distance measurement ranges Ka, Kb, Kc, and Kd, respectively.

なお、本実施形態では、4つのソナー40a〜40dが設けられているが、これに限らず、1つ又は複数個のソナーを設けることができる。また、本実施形態では、距離測定手段として超音波を用いるセンサを用いているが、これに限らず、電磁波や非可視光等を用いるセンサを用いても良い。   In the present embodiment, four sonars 40a to 40d are provided. However, the present invention is not limited to this, and one or a plurality of sonars can be provided. In this embodiment, a sensor using ultrasonic waves is used as the distance measuring means, but the present invention is not limited to this, and a sensor using electromagnetic waves, invisible light, or the like may be used.

図3は、本実施形態の車高検出装置10の構成ブロック図である。
ECU20は、カメラ30から受け取った画像データを画像処理する画像処理部21、画像パターンマッチング処理に用いる画像パターンを記憶した画像パターン記憶部22、ソナー40から水平距離測定データを受け取り水平距離データに変換するソナー計測部23、各種学習値,設定値及び算出値を記憶する記憶部24、車両1の車高及び傾斜角度を算出する車高・傾斜角度算出部25を備えている。また、ソナー計測部23は、車速センサ52から車速データを受け取る。
FIG. 3 is a configuration block diagram of the vehicle height detection device 10 of the present embodiment.
The ECU 20 receives the horizontal distance measurement data from the image processing unit 21 that performs image processing on the image data received from the camera 30, the image pattern storage unit 22 that stores the image pattern used for the image pattern matching processing, and the sonar 40, and converts them into horizontal distance data. A sonar measurement unit 23, a storage unit 24 that stores various learning values, setting values, and calculation values, and a vehicle height / tilt angle calculation unit 25 that calculates the vehicle height and the tilt angle of the vehicle 1. In addition, the sonar measurement unit 23 receives vehicle speed data from the vehicle speed sensor 52.

なお、駐車支援システムとしての画像処理部21は、LCD等からなるバックモニタ表示部50に画像データを送出する。これにより、運転者は、駐車操作時に車両1の後方をバックモニタ表示部50により確認することができる。
また、車高・傾斜角度算出部25からは、車高・傾斜角度利用機器54へ車高及び傾斜角度データが送出される。車高及び傾斜角度データを利用する車高・傾斜角度利用機器54は、例えば、ヘッドライト光軸制御システム、バックミラー角度制御システム、車高調整システム、燃料計制御システム、サスペンションダンパーシステム等である。
The image processing unit 21 serving as a parking support system sends image data to the back monitor display unit 50 including an LCD or the like. As a result, the driver can check the back of the vehicle 1 with the back monitor display unit 50 during the parking operation.
Further, the vehicle height / tilt angle calculation unit 25 sends the vehicle height / tilt angle data to the vehicle height / tilt angle utilization device 54. The vehicle height / tilt angle utilization device 54 using the vehicle height / tilt angle data is, for example, a headlight optical axis control system, a rearview mirror angle control system, a vehicle height adjustment system, a fuel gauge control system, a suspension damper system, or the like. .

図4は、カメラ30により撮像された画像データの例を示している。
この画像データは、カメラ30の撮像レンズ部30aのレンズ種類に応じて適宜に画像変換されたものであってよい。図4では、車両1の後方右寄り(画像データ中では左寄り)に測定対象物である支柱2が撮像されている。
FIG. 4 shows an example of image data captured by the camera 30.
This image data may be appropriately image-converted according to the lens type of the imaging lens unit 30a of the camera 30. In FIG. 4, the column 2, which is a measurement object, is imaged on the rear right side of the vehicle 1 (left side in the image data).

カメラ30は、上述のように、車両1の後部に位置合わせされた状態で固定されている。詳しくは、カメラ30は、運転者のみが運転席に乗車し、他の乗員が乗車しておらず、標準の積載物以外の積載物が積載されていない状態(測定基準状態)において、車両1の所定高さ及び所定車幅方向位置となるように車両1に固定されている。また、カメラ30は、測定基準状態において、撮像レンズ部30aの光軸Z(基準光軸Z0)が、車両後方且つ水平方向から所定角度下方向を向くように位置合わせされている。 As described above, the camera 30 is fixed in a state of being aligned with the rear portion of the vehicle 1. Specifically, the camera 30 is the vehicle 1 in a state where only the driver gets in the driver's seat, no other occupants are in the vehicle, and no load other than the standard load is loaded (measurement reference state). Are fixed to the vehicle 1 so as to have a predetermined height and a predetermined position in the vehicle width direction. Further, in the measurement reference state, the camera 30 is aligned such that the optical axis Z (reference optical axis Z 0 ) of the imaging lens unit 30a faces the rear of the vehicle and downward from the horizontal direction by a predetermined angle.

このように位置合わせされたカメラ30による画像データでは、測定基準状態において、図4の画像データ中の点V0(0,0)に消失点が位置する。なお、本実施形態では、消失点が撮像範囲に含まれるように光軸Zの上下方向角度が設定されている。消失点は、水平面に置かれた測定基準状態の車両1から撮像した画像データ中において、車両1の水平方向後方の無限遠方の仮想点に相当する。 In the image data by the camera 30 thus aligned, the vanishing point is located at the point V 0 (0, 0) in the image data in FIG. 4 in the measurement reference state. In the present embodiment, the vertical angle of the optical axis Z is set so that the vanishing point is included in the imaging range. The vanishing point corresponds to an infinitely far virtual point behind the vehicle 1 in the horizontal direction in the image data captured from the vehicle 1 in the measurement reference state placed on the horizontal plane.

また、図4に示すように、画像データの各点には、左右方向角度Xと上下方向角度(又は見下ろし角度)Yとが割当てられており、ECU20(画像処理部21)は、画像データの各点座標に対応する角度X及びYを対応データとして記憶部24に記憶している。   Also, as shown in FIG. 4, a horizontal angle X and a vertical angle (or a look-down angle) Y are assigned to each point of the image data, and the ECU 20 (image processing unit 21) The angles X and Y corresponding to each point coordinate are stored in the storage unit 24 as corresponding data.

左右方向角度Xは、カメラ30の光軸Zに対する左右方向の角度であり、カメラ30の位置を基準としたときに、測定基準状態において、測定対象物が光軸Z(又は消失点)から左右方向に角度Xだけ離れた位置にある場合に、その測定対象物は、画像データ中において左右方向角度Xの点に表示される。   The left-right direction angle X is the angle in the left-right direction with respect to the optical axis Z of the camera 30. When the position of the camera 30 is used as a reference, the measurement object is moved from the optical axis Z (or vanishing point) to the left When the measurement object is located at a position separated by an angle X in the direction, the measurement object is displayed at the point of the left-right direction angle X in the image data.

上下方向角度Yは、カメラ30の光軸に対する上下方向の角度であり、カメラ30の位置を基準としたときに、消失点V0(0,0)を原点として、消失点V0を基準とした仰角及び伏角(見下ろし角度)が上下方向角度Yである。したがって、測定基準状態において、測定対象物が消失点V0から上下方向に角度Yだけ離れた位置にある場合に、その測定対象物は、画像データ中において上下方向角度Yの点に表示される。 The vertical angle Y is the vertical angle with respect to the optical axis of the camera 30, and when the position of the camera 30 is used as a reference, the vanishing point V 0 (0, 0) is the origin and the vanishing point V 0 is the reference. The elevation angle and the dip angle (looking-down angle) are the vertical angle Y. Therefore, in the measurement reference state, when the measurement object is at a position away from the vanishing point V 0 in the vertical direction by the angle Y, the measurement object is displayed at the point of the vertical angle Y in the image data. .

図4では、測定基準状態で撮像した支柱2が破線で示されている。この支柱2は、車両1が置かれた地面上に直接設置されており、図2及び図4から分かるように、支柱2の地面との接触部(又は下端)の前縁のうち、カメラ30に最も近い点が、画像データ中の特定点P0で示されている。 In FIG. 4, the support | pillar 2 imaged in the measurement reference | standard state is shown with the broken line. The support column 2 is installed directly on the ground on which the vehicle 1 is placed. As can be seen from FIGS. 2 and 4, the camera 30 out of the front edge of the contact portion (or lower end) of the support column 2 with the ground. The point closest to is indicated by a specific point P 0 in the image data.

一方、他の座席への乗員の搭乗やトランクルームへの荷物の搭載により、車両1の車高は変化する。また、一般に、車両1のような乗用車では、乗員や積載物による車高変化は、後端が大きく、前端はほとんど変化しない。よって、車両の前後傾斜角度変化は、車両前端を回転中心として車両後端が回動することで生じるものと近似することができる。   On the other hand, the vehicle height of the vehicle 1 changes due to boarding of passengers in other seats and loading of luggage in the trunk room. Further, in general, in a passenger car such as the vehicle 1, the change in the vehicle height due to the occupant or the load is large at the rear end and hardly changes at the front end. Therefore, the change in the forward / backward inclination angle of the vehicle can be approximated to occur when the vehicle rear end rotates around the vehicle front end.

上述のように、車高が変化すると、カメラ30の光軸Zも上下方向に変位する。また、車高の変化に伴って、車両1の前後傾斜角度が変化するので、カメラ30の光軸方向も僅かに変化する。例えば、車両1の後端が沈んで車高が低くなった場合、光軸Z(又はカメラ30)もこれに連れて低い位置に変位すると共に、カメラ30の光軸Zは測定基準状態における基準光軸Z0から下向きに傾く(図5参照)。これにより、画像データ中では、支柱2及び消失点は上側に移動する。なお、図5では、基準光軸Z0は、単に下向きの傾き角度を説明するために付加されており、カメラ30の上下変位を考慮していない。
図4では、車高が低くなった状態で撮像した支柱2が実線で示されている。また、このときの消失点は仮想の点Vの位置に移動し、支柱2の特定点P0も点P(X,Y)へ移動する。
As described above, when the vehicle height changes, the optical axis Z of the camera 30 is also displaced in the vertical direction. Moreover, since the front-back inclination angle of the vehicle 1 changes with the change in the vehicle height, the optical axis direction of the camera 30 also changes slightly. For example, when the rear end of the vehicle 1 sinks and the vehicle height is lowered, the optical axis Z (or the camera 30) is also displaced to a lower position accordingly, and the optical axis Z of the camera 30 is the reference in the measurement reference state. It tilts downward from the optical axis Z 0 (see FIG. 5). Thereby, in the image data, the support column 2 and the vanishing point move upward. In FIG. 5, the reference optical axis Z 0 is added merely for explaining the downward tilt angle, and the vertical displacement of the camera 30 is not taken into consideration.
In FIG. 4, the support | pillar 2 imaged in the state where the vehicle height became low is shown as the continuous line. Further, the vanishing point at this time moves to the position of the virtual point V, and the specific point P 0 of the support column 2 also moves to the point P (X, Y).

次に、図5及び図6に基づいて、本実施形態の車高及び傾斜角度の算出処理について説明する。
図5は、側方から見た車両1と支柱2との位置関係を示している。また、図6は、平面視におけるカメラ30,ソナー40(40c),支柱2の位置関係を示している。なお、図5及び図6では、荷物等の積載により、車高が低くなった状態を示している。
以下では、距離測定手段としてソナー40cが用いられ、ソナー40cとカメラ30との組合せで車高等を算出する場合について説明する。
Next, based on FIG.5 and FIG.6, the calculation process of the vehicle height and inclination angle of this embodiment is demonstrated.
FIG. 5 shows the positional relationship between the vehicle 1 and the column 2 as viewed from the side. FIG. 6 shows the positional relationship between the camera 30, the sonar 40 (40c), and the column 2 in plan view. 5 and 6 show a state in which the vehicle height is lowered due to loading of luggage or the like.
Hereinafter, a case where the sonar 40c is used as the distance measuring means and the vehicle height or the like is calculated by the combination of the sonar 40c and the camera 30 will be described.

測定基準状態では、カメラ30は、基準地上高(又は学習地上高)H0に位置する(図1参照)。しかし、車高が低くなった状態では、図5に示すように、カメラ30は地上高Hに位置し、この地上高Hは基準地上高H0よりも僅かに低い。また、車両1は後端側が低くなり、僅かな傾斜角度Rcで傾く。これにより、光軸Z(低車高時光軸Z)も測定基準状態の基準光軸Z0と比べて僅かな傾斜角度Rcだけ下側に傾いている。 In the measurement reference state, the camera 30 is positioned at the reference ground height (or learning ground height) H 0 (see FIG. 1). However, when the vehicle height is low, as shown in FIG. 5, the camera 30 is positioned at the ground height H, and the ground height H is slightly lower than the reference ground height H 0 . In addition, the rear end side of the vehicle 1 is lowered and tilted at a slight tilt angle Rc. As a result, the optical axis Z (low vehicle height optical axis Z) is also inclined downward by a slight inclination angle Rc compared to the reference optical axis Z 0 in the measurement reference state.

また、図5に示すように、支柱2の地面Gとの接触部のうちカメラ30に最も近い点が所定部である特定点Pに相当する。また、図6に示すように、支柱2の特定点Pは、カメラ30から光軸Zの延びる方向において、水平距離L(第2の水平距離)だけ離間している。詳しくは、点Pは、カメラ30の撮像レンズ部30aを横切り且つ光軸Zと平面視で直交する横方向線cTLに対して、水平距離Lだけ離間している。本実施形態では、この横方向線cTLは車幅方向に延びているが、光軸Zと平面視で直交していれば、必ずしも車幅方向に沿って延びていなくてもよい。   Moreover, as shown in FIG. 5, the point nearest to the camera 30 among the contact parts with the ground G of the support | pillar 2 is equivalent to the specific point P which is a predetermined part. As shown in FIG. 6, the specific point P of the column 2 is separated from the camera 30 by the horizontal distance L (second horizontal distance) in the direction in which the optical axis Z extends. Specifically, the point P is separated by a horizontal distance L with respect to a horizontal line cTL that crosses the imaging lens unit 30a of the camera 30 and is orthogonal to the optical axis Z in plan view. In the present embodiment, the lateral line cTL extends in the vehicle width direction, but may not necessarily extend in the vehicle width direction as long as it is orthogonal to the optical axis Z in plan view.

また、図6に示すように、水平距離Bは、点S(ソナー40c)と点Q(撮像レンズ部30a)との間の水平距離であり、この2点を結ぶ平面視における線SQ(水平距離B)と横方向線cTLとのなす平面視角度は角度βである。カメラ30と複数のソナー40との位置関係データ(B、β)は、既知でありECU20の記憶部24に記憶されている。
ソナー40cと支柱2との水平距離Aは、ソナー40cにより測定される。
また、水平距離Cは、点Q(カメラ30)と特定点Pとを結ぶ線PQの水平距離である。
Further, as shown in FIG. 6, the horizontal distance B is a horizontal distance between the point S (sonar 40c) and the point Q (imaging lens unit 30a), and a line SQ (horizontal) in a plan view connecting the two points. The planar view angle formed by the distance B) and the horizontal line cTL is an angle β. The positional relationship data (B, β) between the camera 30 and the plurality of sonars 40 is known and stored in the storage unit 24 of the ECU 20.
The horizontal distance A between the sonar 40c and the support column 2 is measured by the sonar 40c.
The horizontal distance C is a horizontal distance of a line PQ connecting the point Q (camera 30) and the specific point P.

図5に示すように、支柱2の点Pは、カメラ30から見て水平方向に延びる線hに対して略角度Yだけ下方向に位置している。詳しくは、側面視で、特定点Pと点Q(撮像レンズ部30a)を結ぶ線は、線hと略角度Yをなしている。したがって、図4の画像データ中では、特定点Pは略下方向角度Y(この場合は30°)に現われる。なお、本実施形態では、水平方向に延びる線hと線PQとがなす角度Yを求めているが、必ずしも線hを基準にする必要はなく、他の方向に延びる線を基準としてもよい。ただし、下記式(3)を利用するためには、線hを基準とするのが好適である。   As shown in FIG. 5, the point P of the column 2 is positioned downward by a substantially angle Y with respect to a line h extending in the horizontal direction when viewed from the camera 30. Specifically, the line connecting the specific point P and the point Q (imaging lens unit 30a) forms a substantially angle Y with the line h in a side view. Therefore, in the image data of FIG. 4, the specific point P appears at a substantially downward angle Y (30 ° in this case). In the present embodiment, the angle Y formed by the line h extending in the horizontal direction and the line PQ is obtained, but the line h is not necessarily used as a reference, and a line extending in another direction may be used as a reference. However, in order to use the following formula (3), it is preferable to use the line h as a reference.

また、図6に示すように、支柱2の特定点Pは、平面視で、点Qを基準にして光軸Zから角度Xだけ車両右方向(カメラ30からは左方向)に位置している。詳しくは、光軸Zと、点Qと特定点Pを結ぶ線PQ(水平距離C)とは、平面視で角度Xをなしている。したがって、図4の画像データ中では、特定点Pは右方向角度X(この場合は30°)に現われる。なお、この線PQ(水平距離C)と線cTLとは、平面視で角度α(α=90°−X)をなしている。
以上のように、ECU20(画像処理部21)は、画像データを画像処理して特定点Pを特定することにより、角度X及びYを求めることができる。
Further, as shown in FIG. 6, the specific point P of the column 2 is located in the vehicle right direction (left direction from the camera 30) by an angle X from the optical axis Z with respect to the point Q in plan view. . Specifically, the optical axis Z and the line PQ (horizontal distance C) connecting the point Q and the specific point P form an angle X in plan view. Therefore, in the image data of FIG. 4, the specific point P appears at the right angle X (30 ° in this case). The line PQ (horizontal distance C) and the line cTL form an angle α (α = 90 ° −X) in plan view.
As described above, the ECU 20 (image processing unit 21) can obtain the angles X and Y by performing image processing on the image data and specifying the specific point P.

これらのデータを基に、ECU20(車高・傾斜角度算出部25)は、以下の式を用いて、車高H及び傾斜角度Rcを算出する。
上述の水平距離A、水平距離B、水平距離C、角度α(α=90°−X)、角度βとの関係は、式(1)で表される。

Figure 0005429565
これらのうち、A、B、α(=90°−X)、βは、ソナー40による水平測定距離,記憶部24に記憶された規定値,又は画像データから求められる値であるので、上記式(1)から、水平距離Cを算出することができる。 Based on these data, the ECU 20 (vehicle height / tilt angle calculator 25) calculates the vehicle height H and the tilt angle Rc using the following equations.
The relationship between the horizontal distance A, the horizontal distance B, the horizontal distance C, the angle α (α = 90 ° −X), and the angle β is expressed by Expression (1).
Figure 0005429565
Of these, A, B, α (= 90 ° −X), and β are horizontal measurement distances by the sonar 40, prescribed values stored in the storage unit 24, or values obtained from the image data, and thus the above formula. From (1), the horizontal distance C can be calculated.

また、水平距離Lと角度αとの関係は、式(2)で表される。

Figure 0005429565
式(1)により水平距離Cが求められているので、式(2)から水平距離Lを算出することができる。 Further, the relationship between the horizontal distance L and the angle α is expressed by Expression (2).
Figure 0005429565
Since the horizontal distance C is obtained from the equation (1), the horizontal distance L can be calculated from the equation (2).

なお、本実施形態では、カメラ30とソナー40とが平面視で異なる位置に配置されているが、これに限らず、カメラ30とソナー40とが平面視で同じ位置に配置されていてもよい。この場合は、A=C、B=0、β=0°となり、上記処理をより簡略化することができる。   In the present embodiment, the camera 30 and the sonar 40 are arranged at different positions in plan view. However, the present invention is not limited to this, and the camera 30 and the sonar 40 may be arranged at the same position in plan view. . In this case, A = C, B = 0, β = 0 °, and the above processing can be further simplified.

また、本実施形態では、光軸Zから左右方向に外れた位置に位置する測定対象物を利用しているが、これに限らず、平面視で光軸Zの延長線上に位置する測定対象物のみを利用するように構成してもよい。この場合は、α=90°(X=0°)、C=Lとなり、上記処理をより簡略化することができる。   In this embodiment, the measurement object located at a position deviated from the optical axis Z in the left-right direction is used. However, the measurement object is not limited to this, and the measurement object located on the extension line of the optical axis Z in plan view. You may comprise so that only may be utilized. In this case, α = 90 ° (X = 0 °) and C = L, and the above processing can be further simplified.

さらに、カメラ30とソナー40とが平面視で同じ水平位置に配置され、且つ、平面視で光軸Zの延長線上に位置する測定対象物のみを利用するように構成してもよい。この場合は、α=90°(X=0°)、A=C=L、B=0、β=0°となり、上記処理をさらに簡略化することができる。   Further, the camera 30 and the sonar 40 may be arranged at the same horizontal position in a plan view and use only a measurement object located on an extension line of the optical axis Z in the plan view. In this case, α = 90 ° (X = 0 °), A = C = L, B = 0, β = 0 °, and the above processing can be further simplified.

さらに、傾斜角度Rcが小さいので、カメラ30の地上高Hと水平距離Lとの関係は、式(3)で近似することができる。

Figure 0005429565
よって、式(2)により水平距離Lが求められているので、式(3)からカメラ30の地上高Hを算出することができる。また、車両1の所定部位の車高は、地上高H、及び当該部位とカメラ30との位置関係データから算出することができる。 Furthermore, since the inclination angle Rc is small, the relationship between the ground height H and the horizontal distance L of the camera 30 can be approximated by Expression (3).
Figure 0005429565
Therefore, since the horizontal distance L is obtained by the equation (2), the ground height H of the camera 30 can be calculated from the equation (3). In addition, the vehicle height of a predetermined part of the vehicle 1 can be calculated from the ground height H and the positional relationship data between the part and the camera 30.

さらに、地上高Hと、基準地上高H0との関係は、式(4)で表される。なお、L0は、車両1の車両前後方向における前輪中心からカメラ30までの水平距離である。なお、車両1のサスペンション特性と車両重心とから仮想回転中心を求め、この仮想回転中心からカメラ30までの水平距離をL0とするのがより好ましい。

Figure 0005429565
なお、基準地上高H0は、車両1が上記測定基準状態にあるときに、式(3)から算出し、記憶部24に記憶させた学習値であってもよいし、予め設定された値であってもよい。 Furthermore, the relationship between the ground height H and the reference ground height H 0 is expressed by Expression (4). L 0 is a horizontal distance from the center of the front wheel to the camera 30 in the vehicle longitudinal direction of the vehicle 1. More preferably, the virtual rotation center is obtained from the suspension characteristics of the vehicle 1 and the vehicle center of gravity, and the horizontal distance from the virtual rotation center to the camera 30 is set to L 0 .
Figure 0005429565
The reference ground height H 0 may be a learning value calculated from Equation (3) and stored in the storage unit 24 when the vehicle 1 is in the measurement reference state, or a preset value. It may be.

また、改変例として、車高H及び傾斜角度Rcは、以下のように算出してもよい。
まず、測定基準状態から徐々に積載物を搭載していき、車高及び傾斜角度を実測すると共に、車高及び傾斜角度を各水平距離Lにおける地面部分の見下ろし角度Yに関連付けて、対応関係データテーブルを記憶部24に記憶させておく。
そして、ECU20は、上記算出処理において、水平距離L及び角度Yを求め、このデータ組合せに基づいて、上記対応関係データテーブルを参照することにより、車高H及び傾斜角度Rcを直接的に求めることができる。
As a modification, the vehicle height H and the inclination angle Rc may be calculated as follows.
First, the load is gradually mounted from the measurement reference state, the vehicle height and the inclination angle are measured, and the vehicle height and the inclination angle are correlated with the ground portion looking down angle Y at each horizontal distance L, so that the correspondence data The table is stored in the storage unit 24.
In the calculation process, the ECU 20 obtains the horizontal distance L and the angle Y, and directly obtains the vehicle height H and the inclination angle Rc by referring to the correspondence data table based on the data combination. Can do.

次に、本実施形態における測定対象物の認識処理について説明する。
画像パターン記憶部22には、一般的な路面画像パターンや、道路標識のパイプ,縁石,車止め等の測定対象物の画像パターンがテンプレートとして記憶されている。
ECU20(画像処理部21)は、カメラ30からの画像データを画像処理して、画像データのうち輝度信号が異なっている領域を、測定対象物の候補領域として抽出する。そして、ECU20(画像処理部21)は、この候補領域に画像パターンをマッチングさせることにより、候補領域がどの測定対象物であるのかを特定する。このとき、画像データに路面画像パターンをマッチングさせて、路面画像パターンとマッチングする度合が高い領域を画像データから除外して画像範囲を絞ることで、効率的に候補領域を特定するように構成してもよい。
Next, the measurement object recognition process in the present embodiment will be described.
The image pattern storage unit 22 stores a general road surface image pattern and an image pattern of an object to be measured such as a road sign pipe, a curb, and a car stop as a template.
The ECU 20 (image processing unit 21) performs image processing on the image data from the camera 30, and extracts regions having different luminance signals from the image data as candidate regions for the measurement object. Then, the ECU 20 (image processing unit 21) specifies which measurement target object the candidate area is by matching an image pattern with the candidate area. At this time, by matching the road surface image pattern with the image data, and excluding the region having a high degree of matching with the road surface image pattern from the image data, the image area is narrowed down, so that the candidate region can be identified efficiently. May be.

さらに、ECU20(画像処理部21)は、測定対象物であると特定した画像領域の下端を測定対象物の前端と認識する。この測定対象物の前端は、測定対象物が地面と接する接触部(特定点又は特定領域)になる。より好ましくは、特定した接触部のうち、地面の高さにおいてカメラ30から最も近い部分をさらに特定する。このように、接触部を特定することで、図2における点Pに相当する特定点(又は小領域)が限定される。   Further, the ECU 20 (image processing unit 21) recognizes the lower end of the image area specified as the measurement target as the front end of the measurement target. The front end of the measurement object is a contact portion (specific point or specific region) where the measurement object contacts the ground. More preferably, among the identified contact portions, a portion closest to the camera 30 at the height of the ground is further identified. Thus, by specifying the contact portion, the specific point (or small area) corresponding to the point P in FIG. 2 is limited.

なお、以下のようにして測定対象物の認識精度を向上させてもよい。
本実施形態では、カメラ30は、単一又は単眼のカメラであるので、画像データ中の物体が、地面に直接設置されているのか、他の支持部材によって支持され宙に浮いた状態となっているのかを区別するのが難しい。
Note that the recognition accuracy of the measurement object may be improved as follows.
In the present embodiment, since the camera 30 is a single or monocular camera, an object in the image data is directly installed on the ground or is supported by another support member and floats in the air. It is difficult to distinguish between them.

例えば、後方に位置する車両のバンパーやナンバープレートは地面に接していないので、画像データ中の下端が地面との接触部とはならない。このため、バンパーやナンバープレートを、接触部を有する測定対象物として用いることはできない。また、車両1が置かれた地面と高さが異なる段差上に道路標識等が設置されている場合も、同様の理由でこれらを、接触部を有する測定対象物として用いることができない。   For example, since the bumper or license plate of the vehicle located behind does not touch the ground, the lower end in the image data does not become a contact portion with the ground. For this reason, a bumper and a license plate cannot be used as a measuring object having a contact portion. Further, even when a road sign or the like is installed on a step different in height from the ground on which the vehicle 1 is placed, they cannot be used as a measurement object having a contact portion for the same reason.

よって、測定対象物の検出精度を向上させるためには、これら物体を測定対象物から除外する必要がある。このため、車両1の移動中に車速が所定速度以下の低速になった場合(停止時、発車時等)において、時間的にわずかにずれた異なる時刻に撮像された2つの画像データを用いることができる。これら2つの画像データを比較することで、ECU20(画像処理部21)は、画像データ中の物体が地面に直接設置されているのか否かを判別することができる。詳しくは、2つの画像データを画像処理することにより、同一物と認識できる物体を特定し、地面の移動距離等に基づいて、この特定された物体が地面から浮いたものであるか否かを判別することができる。   Therefore, in order to improve the detection accuracy of the measurement object, it is necessary to exclude these objects from the measurement object. For this reason, when the vehicle speed is lower than the predetermined speed during the movement of the vehicle 1 (when stopped, when leaving the vehicle, etc.), two image data captured at different times slightly shifted in time are used. Can do. By comparing these two image data, the ECU 20 (image processing unit 21) can determine whether or not an object in the image data is directly installed on the ground. Specifically, by performing image processing of two image data, an object that can be recognized as the same object is specified, and whether or not the specified object is floating from the ground is determined based on the movement distance of the ground or the like. Can be determined.

また、ガードレールのパネル部分のように宙に浮いている部分(ただし、支柱部分は地面に接している)を画像パターンとして記憶しておき、この画像パターンに基づいて、画像データからパネル部分を除外するように構成することで、測定対象物の検出精度を向上させてもよい。   Also, the part that floats in the air like the panel part of the guard rail (however, the column part is in contact with the ground) is stored as an image pattern, and the panel part is excluded from the image data based on this image pattern. By configuring so, the detection accuracy of the measurement object may be improved.

なお、本実施形態では、1台のカメラ30を使用しているが、複数台のカメラ30を用いてもよい。このように複数台のカメラ30を使用することで、時間的にずれた異なる時刻に別々に撮像する必要がなくなり、また、車両1が移動している必要もなくなる。
さらに、本実施形態では、カメラ30が単眼のものであったが、カメラ30としてステレオカメラを使用することで、複数台のカメラを用いたのと同じ効果を得ることができる。
In the present embodiment, one camera 30 is used, but a plurality of cameras 30 may be used. By using a plurality of cameras 30 in this way, it is not necessary to separately capture images at different times that are shifted in time, and it is not necessary for the vehicle 1 to move.
Furthermore, in the present embodiment, the camera 30 is monocular, but by using a stereo camera as the camera 30, the same effect as using a plurality of cameras can be obtained.

また、本実施形態では、測定対象物のうち地面との接触部を点Pとして特定して算出処理を行っているが、これに限らず、寸法が既知の特定の測定対象物の上端や特徴点等の特定部位を代わりに用いても良い。この場合、例えば、マッチング処理で用いる標識や縁石等の測定対象物の画像パターン(テンプレート)毎に、高さ寸法を含む寸法データを記憶しておくことで、測定対象物の特定部位を特定点に用いることができる。このように構成することで、測定対象物の地面との接触部が画像データから判別し難い場合であっても、路面からの高さ寸法が既知である上端や特徴点等を特定部位(特定点)として用いることで、当該測定対象物を上記算出処理に利用することができる。   In the present embodiment, the calculation process is performed by specifying the contact portion with the ground as the point P among the measurement objects. However, the present invention is not limited to this, and the upper end and characteristics of the specific measurement object whose dimensions are known. A specific part such as a point may be used instead. In this case, for example, by storing the dimension data including the height dimension for each image pattern (template) of the measurement object such as a sign or a curb used in the matching process, the specific part of the measurement object is specified as the specific point. Can be used. By configuring in this way, even when the contact portion of the measurement object with the ground is difficult to discriminate from the image data, the upper end, the feature point, etc., whose height dimension from the road surface is known, can be specified. By using as a point), the measurement object can be used for the calculation process.

次に、走行中における車高及び傾斜角度算出方法について説明する。
以下に説明する処理は、車速センサ52からの車速データがゼロより大きい速度を示している場合に適用され、特定的には、車両1が高速道路等の平坦な道路上を走行中であって、測定対象物がカメラ30の撮像範囲にない場合に好適に適用することができる。
Next, a vehicle height and inclination angle calculation method during traveling will be described.
The process described below is applied when the vehicle speed data from the vehicle speed sensor 52 indicates a speed greater than zero. Specifically, the vehicle 1 is traveling on a flat road such as an expressway. It can be suitably applied when the measurement object is not within the imaging range of the camera 30.

図7は、高速道路上を走行中に撮像された画像データである。この画像データには、上下方向角度のみが付加的に表示されている。
ECU20(画像処理部21)は、画像処理により画像データ中で所定長さ以上直線状に延びる領域である道路の路肩線、横断歩道、中央線、路側帯、反射板の並び等を認識し、これらを延長した交点の位置(画像データ中の座標)を算出する。この交点が消失点Vに該当する。図7の例では、道路の路肩線60a,60b、及び、車線区画線(中央線)60cが認識され、これらが消失点Vを特定するために用いられる。
FIG. 7 is image data captured while traveling on a highway. In this image data, only the vertical angle is additionally displayed.
The ECU 20 (image processing unit 21) recognizes a road shoulder line, a pedestrian crossing, a center line, a roadside belt, an arrangement of reflectors, etc., which are regions extending linearly more than a predetermined length in image data by image processing, The position (coordinate in the image data) of the intersection obtained by extending these is calculated. This intersection corresponds to the vanishing point V. In the example of FIG. 7, road shoulder lines 60 a and 60 b and a lane marking line (center line) 60 c are recognized and used to identify the vanishing point V.

ECU20(画像処理部21)は、消失点Vの上下方向角度(見下ろし角度)Yを画像データから算出する。図7の場合は、約4°(>0°)である。すなわち、図4に示した消失点V0と比べて所定角度(約4°)変位している。これにより、車高が僅かに低く、また、車体が僅かに傾斜していることが分かる。
ECU20(画像処理部21)は、この角度Yと車高H及び傾斜角度Rcとの対応関係データを記憶しており、この対応関係データを利用して、角度Yから車高H及び傾斜角度Rcを算出することができる。
The ECU 20 (image processing unit 21) calculates the vertical direction angle (looking down angle) Y of the vanishing point V from the image data. In the case of FIG. 7, it is about 4 ° (> 0 °). That is, it is displaced by a predetermined angle (about 4 °) compared to the vanishing point V 0 shown in FIG. Thereby, it can be seen that the vehicle height is slightly lower and the vehicle body is slightly inclined.
The ECU 20 (image processing unit 21) stores correspondence data between the angle Y, the vehicle height H, and the inclination angle Rc, and the vehicle height H and the inclination angle Rc from the angle Y using the correspondence data. Can be calculated.

なお、本実施形態では、消失点を求めているが、これに限らず、画像処理によって画像データから地平線を特定することで、地平線の上下方向角度(見下ろし角度)Yを算出すれば、消失点の場合と同様の処理を行うことができる。   In this embodiment, the vanishing point is obtained. However, the present invention is not limited to this. If the horizon is identified from the image data by image processing, and the vertical angle (look-down angle) Y of the horizon is calculated, the vanishing point is obtained. The same processing as in the case of can be performed.

次に、図8に基づいて、本実施形態のECU20の処理フローについて説明する。
この処理フローは、所定時間毎に繰り返し行われ、車高H及び傾斜角度Rc並びにそれぞれの平均値が算出される。
なお、記憶された車高H及び傾斜角度Rc並びにそれぞれの平均値は、車高及び傾斜角度が変化する可能性のあるイベント(例えば、エンジンスタート、ドア開閉等)が発生すると、リセットされる。例えば、エンジンスタート前やドア開閉により、乗員の乗り降りや、積載物の積み下ろし等が行われる可能性があるため、車高及び傾斜角度が変化する可能性がある。これらのイベントは、ECU20が、エンジンスタート信号、ドア開閉信号等を受け取ることにより判定することができる。そして、リセット後には、車両1が移動し停止及び発車する毎に、以下の処理フローが繰り返し行われることで、新たに車高H及び傾斜角度Rc並びにそれぞれの平均値が算出され、記憶される。
Next, a processing flow of the ECU 20 of the present embodiment will be described based on FIG.
This processing flow is repeated every predetermined time, and the vehicle height H, the inclination angle Rc, and the average values thereof are calculated.
The stored vehicle height H and inclination angle Rc and their average values are reset when an event (for example, engine start, door opening / closing, etc.) that may change the vehicle height and inclination angle occurs. For example, there is a possibility that an occupant gets on and off, loads and unloads, etc. before starting the engine or opening and closing the door, so that the vehicle height and the inclination angle may change. These events can be determined by the ECU 20 receiving an engine start signal, a door opening / closing signal, and the like. After the reset, every time the vehicle 1 moves, stops and departs, the following processing flow is repeatedly performed to newly calculate and store the vehicle height H and the inclination angle Rc and their average values. .

まず、ECU20(ソナー計測部23)は、車速センサ52からの車速データに基づいて、車両1が停止したか否かを判定する(ステップS1)。
車両1が停止していれば(ステップS1;Yes)、ECU20(ソナー計測部23)は、各ソナー40a〜40dから水平距離測定データを取得する(ステップS2)。
First, the ECU 20 (sonar measurement unit 23) determines whether or not the vehicle 1 has stopped based on the vehicle speed data from the vehicle speed sensor 52 (step S1).
If the vehicle 1 has stopped (step S1; Yes), ECU20 (sonar measurement part 23) will acquire horizontal distance measurement data from each sonar 40a-40d (step S2).

取得した水平距離測定データから、ECU20(ソナー計測部23)は、水平距離データを算出し、これに基づいて、各ソナー40からの所定水平距離内に物体があるか否かを判定する(ステップS3)。   From the acquired horizontal distance measurement data, the ECU 20 (sonar measuring unit 23) calculates horizontal distance data, and based on this, determines whether or not there is an object within a predetermined horizontal distance from each sonar 40 (step). S3).

所定水平距離内に物体が検出されなかった場合(ステップS3;No)、処理を終了し、所定繰り返し時間後にステップS1の処理を再び行う。
一方、物体が検出された場合(ステップS3;Yes)、ECU20(画像処理部21)は、水平距離測定時のカメラ30からの画像データを取得する(ステップS4)。
If no object is detected within the predetermined horizontal distance (step S3; No), the process is terminated, and the process of step S1 is performed again after a predetermined repetition time.
On the other hand, when an object is detected (step S3; Yes), the ECU 20 (image processing unit 21) acquires image data from the camera 30 at the time of horizontal distance measurement (step S4).

なお、物体が検出された場合は、その物体を検出した1つ以上のソナー40が特定される。その物体を特定したソナー40が複数の場合には、検出した各ソナー40とカメラ30との複数の組合せで以下の算出処理が行われ、複数の車高H及び傾斜角度Rcが算出される。また、複数の物体が検出された場合には、各物体について、車高H及び傾斜角度Rcが算出される。これにより、より高い精度で車高H及び傾斜角度Rc並びにこれらそれぞれの平均値を算出することができる。   When an object is detected, one or more sonars 40 that have detected the object are specified. When there are a plurality of sonars 40 that specify the object, the following calculation processing is performed with a plurality of combinations of the detected sonars 40 and the cameras 30, and a plurality of vehicle heights H and inclination angles Rc are calculated. When a plurality of objects are detected, the vehicle height H and the inclination angle Rc are calculated for each object. Thereby, the vehicle height H, the inclination angle Rc, and the average values of these can be calculated with higher accuracy.

取得した画像データに基づき、ECU20(画像処理部21)は、測定対象物を特定するための画像処理を行う(ステップS5)。この画像処理では、ECU20は、画像データから、輝度の異なる領域(測定対象物の候補領域)を抽出し、この候補領域と、画像パターン記憶部22に記憶された画像パターンとのマッチングを行い、これにより、候補領域がいずれの測定対象物(標識、縁石等)であるかを特定する。さらに、ECU20は、特定した測定対象物の前端(すなわち、地面との接触部(特定点))を特定する。
なお、候補領域を抽出した後、画像パターンとのマッチングは必ずしもを行わなくてもよい。マッチングを行わない場合、ECU20(画像処理部21)は、抽出した候補領域を測定対象物とみなして、前端を特定する。
Based on the acquired image data, the ECU 20 (image processing unit 21) performs image processing for specifying the measurement object (step S5). In this image processing, the ECU 20 extracts regions with different luminance (candidate regions for the measurement object) from the image data, performs matching between the candidate regions and the image pattern stored in the image pattern storage unit 22, Thereby, it is specified which measurement object (marker, curbstone, etc.) the candidate region is. Further, the ECU 20 specifies the front end of the specified measurement object (that is, the contact portion (specific point) with the ground).
In addition, after extracting a candidate area | region, matching with an image pattern does not necessarily need to be performed. When matching is not performed, the ECU 20 (image processing unit 21) identifies the extracted candidate area as a measurement object and identifies the front end.

次いで、ECU20(画像処理部21)は、画像データ中において、特定した測定対象物の前端(特定点)の座標位置を特定し、画像データの座標位置と上下方向角度の割り当てデータから、測定対象物の前端の上下方向角度Yを求める(ステップS6)。なお、このとき、ECU20(画像処理部21)は、測定対象物の前端の左右方向角度Xも同時に求める。   Next, the ECU 20 (image processing unit 21) specifies the coordinate position of the front end (specific point) of the specified measurement object in the image data, and determines the measurement target from the allocation data of the coordinate position of the image data and the vertical angle. The vertical angle Y of the front end of the object is obtained (step S6). At this time, the ECU 20 (image processing unit 21) also obtains the left-right direction angle X of the front end of the measurement object at the same time.

求めた上下方向角度Y、及びソナー40で測定された測定対象物までの水平距離Aに基づいて、ECU20(画像処理部21)は、求めた上下方向角度Yが合理性のあるものであるか否かを判定する(ステップS7)。この処理により、測定対象物の誤認を検出することができ、誤認していた場合には(ステップS7;No)、処理を終了する。   Based on the obtained vertical angle Y and the horizontal distance A to the measurement object measured by the sonar 40, the ECU 20 (image processing unit 21) determines whether the obtained vertical angle Y is reasonable. It is determined whether or not (step S7). By this process, it is possible to detect misidentification of the measurement object, and when it is misidentified (step S7; No), the process is terminated.

この判定処理では、水平距離Aと上下方向角度Yとの関係に基づいて上下方向角度Yが合理性のある範囲の値であるか否かが判定される。例えば、各水平距離に対して、上下方向角度が取り得る数値範囲を設定することで、求められた上下方向角度が、この範囲から外れた場合には、測定対象物を誤認していたと判定することができる。具体的な例では、測定対象物が段差上に設置されていた場合には、上下方向角度が設定範囲を下回る。   In this determination process, it is determined whether the vertical angle Y is within a reasonable range based on the relationship between the horizontal distance A and the vertical angle Y. For example, by setting a numerical value range that the vertical angle can take for each horizontal distance, if the obtained vertical angle is out of this range, it is determined that the measurement object is misidentified. be able to. In a specific example, when the measurement object is placed on a step, the vertical angle is below the set range.

上下方向角度Yが合理性のあるものであった場合(ステップS7;Yes)、ECU20(車高・傾斜角度算出部25)は、車高H及び車体傾斜角度Rcを算出する(ステップS8)。車高・傾斜角度算出部25は、ソナー計測部23から取得した水平距離Aと、画像処理部21で求められた左右方向角度X、及び上下方向角度Yと、記憶部24から取得したカメラ30と対応するソナー40との位置関係データ(B、β),基準地上高H0,車両寸法データ(L0)等を用いて、上記式(1)〜式(4)に基づいて、車高H及び傾斜角度Rcを算出する。 If the vertical angle Y is reasonable (step S7; Yes), the ECU 20 (vehicle height / tilt angle calculator 25) calculates the vehicle height H and the vehicle body tilt angle Rc (step S8). The vehicle height / tilt angle calculation unit 25 includes the horizontal distance A acquired from the sonar measurement unit 23, the horizontal angle X and vertical angle Y obtained by the image processing unit 21, and the camera 30 acquired from the storage unit 24. Vehicle height based on the above formulas (1) to (4) using the positional relationship data (B, β), the reference ground height H 0 , the vehicle dimension data (L 0 ), etc. H and the inclination angle Rc are calculated.

車高H及び傾斜角度Rを算出すると、ECU20(車高・傾斜角度算出部25)は、これら算出値を記憶部24に記憶する(ステップS9)。
なお、算出された車高H及び傾斜角度Rcが、これまでに記憶されている値と統計学的に大きく異なる場合は、測定対象物を誤認したおそれがあるので、そのような算出値は除外し、記憶部24に記憶しないようにしてもよい。
When the vehicle height H and the inclination angle R are calculated, the ECU 20 (vehicle height / inclination angle calculation unit 25) stores these calculated values in the storage unit 24 (step S9).
Note that if the calculated vehicle height H and the inclination angle Rc are statistically significantly different from the values stored so far, the measurement object may be misidentified, so such calculated values are excluded. However, it may not be stored in the storage unit 24.

また、ECU20(車高・傾斜角度算出部25)は、これまでの繰り返しの処理によって記憶部24に記憶された複数の算出値(車高H及び傾斜角度Rc)を用いて、これらの平均値(又は中央値等)も算出し、記憶する(ステップS10)。
そして、ECU20(車高・傾斜角度算出部25)は、求めた車高及び傾斜角度の平均値を各種の車高・傾斜角度利用機器へ送信し(ステップS11)、処理を終了する。
The ECU 20 (vehicle height / inclination angle calculation unit 25) uses a plurality of calculated values (vehicle height H and inclination angle Rc) stored in the storage unit 24 through the repeated processing so far, and averages these values. (Or median or the like) is also calculated and stored (step S10).
Then, the ECU 20 (vehicle height / tilt angle calculation unit 25) transmits the obtained average values of the vehicle height and the tilt angle to various devices using the vehicle height / tilt angle (step S11), and ends the process.

本実施形態では、車両1が置かれた路面状況によっては、算出された車高H及び傾斜角度Rcに誤差を含むおそれがある。例えば、路面に轍や凹凸がある場合は、誤差が大きくなる。したがって、異なる測定対象物を用いて本処理フローを繰り返し行い、ステップS9でその度毎に車高H及び傾斜角度Rcを求め、ステップS10でこれらの平均値を算出することで、平均化により算出値の精度を向上させることができる。   In the present embodiment, depending on the road surface condition where the vehicle 1 is placed, the calculated vehicle height H and the inclination angle Rc may include an error. For example, when the road surface has wrinkles or unevenness, the error becomes large. Therefore, this processing flow is repeatedly performed using different measurement objects, the vehicle height H and the inclination angle Rc are obtained each time in step S9, and these average values are calculated in step S10, thereby calculating by averaging. The accuracy of the value can be improved.

一方、ステップS1の処理で、車両1が停止していない場合(ステップS1;No)、ECU20(画像処理部21)は、カメラ30から画像データを取得し、この画像データに基づいて、上述のように消失点を特定する(ステップS12)。   On the other hand, if the vehicle 1 is not stopped in the process of step S1 (step S1; No), the ECU 20 (image processing unit 21) acquires image data from the camera 30, and based on this image data, the above-described image data is obtained. Thus, the vanishing point is specified (step S12).

そして、ECU(車高・傾斜角度算出部25)は、消失点の上下方向位置に基づいて、車両1の車高H及び傾斜角度Rcを算出する(ステップS13)。なお、この場合においても、算出された値が、記憶されている値と比べて統計学的に有意なものでない場合は、算出された値を除外するように構成することができる。
次いで、ECU20(車高・傾斜角度算出部25)は、算出した車高及び傾斜角度を車高・傾斜角度利用機器へ送信し(ステップS11)、処理を終了する。
Then, the ECU (vehicle height / tilt angle calculator 25) calculates the vehicle height H and the tilt angle Rc of the vehicle 1 based on the vertical position of the vanishing point (step S13). Even in this case, if the calculated value is not statistically significant as compared with the stored value, the calculated value can be excluded.
Next, the ECU 20 (vehicle height / inclination angle calculation unit 25) transmits the calculated vehicle height and inclination angle to the vehicle height / inclination angle utilization device (step S11), and ends the process.

なお、上記ステップS2〜S11の処理は、車速センサ52からの車速データがゼロより大きい速度を示している場合にも適用してもよい。また、上記ステップS12、S13の処理は、車両1が高速道路等の平坦な道路上を走行中であって、測定対象物がカメラ30の撮像範囲にない場合に好適に適用することができる。   Note that the processing of steps S2 to S11 may also be applied when the vehicle speed data from the vehicle speed sensor 52 indicates a speed greater than zero. Further, the processes of steps S12 and S13 can be suitably applied when the vehicle 1 is traveling on a flat road such as an expressway and the measurement object is not within the imaging range of the camera 30.

以上のように、本実施形態の車高検出装置10は、既存の駐車支援システムのバックモニタ用のカメラ30、ソナー40、ECU20を利用して、ECU20に追加の処理を行うためのソフトウェアを付加するのみで車高H及び傾斜角度Rcを算出することができ、安価に実現可能である。これにより、車高検出用に超音波センサ等の車高センサを別途設ける必要がないので、車両1の重量及びコストを低減することができる。   As described above, the vehicle height detection device 10 according to the present embodiment adds software for performing additional processing to the ECU 20 using the back monitor camera 30, the sonar 40, and the ECU 20 of the existing parking assistance system. It is possible to calculate the vehicle height H and the inclination angle Rc simply by doing this, and it can be realized at low cost. Thereby, since it is not necessary to separately provide a vehicle height sensor such as an ultrasonic sensor for vehicle height detection, the weight and cost of the vehicle 1 can be reduced.

さらに、車高センサを別途設ける場合には、この車高センサは地面付近で地面に面するように配置されるので、飛石や汚れ等により、車高センサが破損してしまったり、車高センサによる計測ができなかったりするような不具合が生じるおそれがある。しかしながら、本実施形態では、別途の車高センサを設ける必要がなく、また、使用するカメラ30やソナー40は、地面に面するようには設置されないので、従来の車高センサのような不具合の発生を抑制することができる。   Furthermore, when a vehicle height sensor is provided separately, the vehicle height sensor is disposed near the ground so as to face the ground, so that the vehicle height sensor may be damaged by stepping stones, dirt, etc. There is a risk of malfunctions such as inability to measure by However, in this embodiment, it is not necessary to provide a separate vehicle height sensor, and the camera 30 and the sonar 40 to be used are not installed so as to face the ground, so that there is a problem like the conventional vehicle height sensor. Occurrence can be suppressed.

また、本実施形態では、複数のソナー40のいずれかとカメラ30との複数の組合せにより、それぞれの組合せから車高及び傾斜角度の算出値を得ることができる。このように複数組の算出値を得ることにより、算出精度の向上を図ることができる。   In the present embodiment, the calculated values of the vehicle height and the inclination angle can be obtained from each combination of any of the plurality of sonars 40 and the camera 30. Thus, by obtaining a plurality of sets of calculated values, it is possible to improve the calculation accuracy.

また、上記実施形態では、車両1の後部に設置されたカメラ30及びソナー40を用いて、車両後方の測定対象物から車高H及び傾斜角度Rcを算出していたが、これに限らず、車両1の前部及び左右側部にもカメラ及びソナーを設けて、同様に車高H及び傾斜角度Rcを算出してもよい。このように、車両1の後部、前部、及び左右側部で測定することで、より正確に車高及び傾斜角度を算出することができる。   In the above embodiment, the vehicle height H and the inclination angle Rc are calculated from the measurement object behind the vehicle using the camera 30 and the sonar 40 installed at the rear part of the vehicle 1. Cameras and sonar may also be provided at the front and left and right sides of the vehicle 1 to calculate the vehicle height H and the inclination angle Rc in the same manner. Thus, the vehicle height and the inclination angle can be calculated more accurately by measuring at the rear portion, the front portion, and the left and right side portions of the vehicle 1.

1 車両
2 支柱(測定対象物)
10 車高検出装置
21 画像処理部
22 画像パターン記憶部
23 ソナー計測部
24 記憶部
25 車高・傾斜角度算出部
30 カメラ
30a 撮像レンズ部
40、40a−40d ソナー
1 vehicle 2 prop (measurement object)
DESCRIPTION OF SYMBOLS 10 Vehicle height detection apparatus 21 Image processing part 22 Image pattern memory | storage part 23 Sonar measurement part 24 Memory | storage part 25 Vehicle height and inclination-angle calculation part 30 Camera 30a Imaging lens part 40, 40a-40d Sonar

Claims (3)

車高を検出する車高検出装置において、
車体に固定され、車両周辺の測定対象物までの水平距離を測定する距離測定手段と、
前記車体に固定され、車両周辺の前記測定対象物を撮像する撮像手段と、
撮像された前記測定対象物の所定部の画像データ,前記水平距離,及び前記距離測定手段と前記撮像手段との位置関係データに基づいて、前記測定対象物の所定部に対する撮像手段の地上高を算出し、この地上高から車高を算出する車高算出手段と、を備え
前記車高算出手段は、前記画像データに基づいて、前記撮像手段の撮像部から見た前記所定部の上下方向角度を算出し、前記水平距離と前記位置関係データに基づいて、前記撮像手段の撮像部の光軸方向における前記撮像手段と前記所定部との間の第2の水平距離を算出し、前記上下方向角度及び前記第2の水平距離を用いて、前記地上高を算出することを特徴とする車高検出装置。
In the vehicle height detection device that detects the vehicle height,
A distance measuring means fixed to the vehicle body and measuring a horizontal distance to a measurement object around the vehicle;
Imaging means fixed to the vehicle body and imaging the measurement object around the vehicle;
Based on the image data of the predetermined part of the measured object, the horizontal distance, and the positional relationship data between the distance measuring unit and the imaging unit, the ground height of the imaging unit with respect to the predetermined part of the measurement object is calculated. Vehicle height calculating means for calculating and calculating the vehicle height from the ground height ,
The vehicle height calculation means calculates the vertical angle of the predetermined part as viewed from the imaging part of the imaging means based on the image data, and based on the horizontal distance and the positional relationship data, Calculating a second horizontal distance between the imaging unit in the optical axis direction of the imaging unit and the predetermined unit, and calculating the ground height using the vertical angle and the second horizontal distance. A vehicle height detection device.
前記測定対象物の所定部は、前記測定対象物の地面との接触部であることを特徴とする請求項1に記載の車高検出装置。   The vehicle height detection device according to claim 1, wherein the predetermined part of the measurement object is a contact part of the measurement object with the ground. 前記車高算出手段は、前記画像データに基づいて、前記撮像手段の撮像部から見た前記測定対象物の所定部の左右方向角度を算出し、この左右方向角度を更に用いて前記第2の水平距離を算出することを特徴とする請求項に記載の車高検出装置。 The vehicle height calculation means calculates a horizontal angle of a predetermined part of the measurement object viewed from the imaging unit of the imaging means based on the image data, and further uses the horizontal angle to perform the second The vehicle height detection device according to claim 1 , wherein a horizontal distance is calculated.
JP2010080037A 2010-03-31 2010-03-31 Vehicle height detection device Expired - Fee Related JP5429565B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010080037A JP5429565B2 (en) 2010-03-31 2010-03-31 Vehicle height detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010080037A JP5429565B2 (en) 2010-03-31 2010-03-31 Vehicle height detection device

Publications (2)

Publication Number Publication Date
JP2011209251A JP2011209251A (en) 2011-10-20
JP5429565B2 true JP5429565B2 (en) 2014-02-26

Family

ID=44940454

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010080037A Expired - Fee Related JP5429565B2 (en) 2010-03-31 2010-03-31 Vehicle height detection device

Country Status (1)

Country Link
JP (1) JP5429565B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11840241B1 (en) 2022-07-18 2023-12-12 Ford Global Technologies, Llc Adjusting driver assist technology based on vehicle ride height

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011132272A1 (en) * 2010-04-21 2011-10-27 トヨタ自動車株式会社 Vehicle parking assistance device and electric vehicle equipped with same
JP2014006885A (en) * 2012-05-31 2014-01-16 Ricoh Co Ltd Level difference recognition apparatus, level difference recognition method, and program for level difference recognition
JP2014224774A (en) * 2013-05-16 2014-12-04 トヨタ自動車株式会社 Vehicle tilt measurement apparatus, vehicle tilt measurement method, program, and medium
JP6312953B2 (en) * 2016-02-15 2018-04-18 三菱電機株式会社 Information processing apparatus and information processing method
JP2018088092A (en) * 2016-11-28 2018-06-07 京セラ株式会社 Image processing apparatus, on-vehicle system, on-vehicle camera, moving body, and image processing method

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01239409A (en) * 1988-03-19 1989-09-25 Nippon Denso Co Ltd Detecting device for projection state of front road surface
JPH0584510U (en) * 1992-04-23 1993-11-16 日産ディーゼル工業株式会社 Vehicle height adjustment device
JPH06124398A (en) * 1992-10-12 1994-05-06 Nissan Motor Co Ltd Road shape recognizing device
JPH07229724A (en) * 1994-02-22 1995-08-29 Nikon Corp Device for recognizing difference in level
JPH08233525A (en) * 1995-02-24 1996-09-13 Hitachi Ltd Vehicle-type discriminating apparatus
JPH09161063A (en) * 1995-12-13 1997-06-20 Nissan Motor Co Ltd Preceding vehicle identifying device
JP3699320B2 (en) * 2000-02-23 2005-09-28 財団法人鉄道総合技術研究所 Pantograph displacement, contact force and trolley line deviation measuring device
JP4544698B2 (en) * 2000-05-12 2010-09-15 日立造船株式会社 Vehicle type identification method and apparatus
JP2002293196A (en) * 2001-03-29 2002-10-09 Matsushita Electric Ind Co Ltd Method and device for displaying image of on-vehicle camera
JP2004114840A (en) * 2002-09-26 2004-04-15 Nissan Motor Co Ltd Parking support device
JP4199616B2 (en) * 2003-08-29 2008-12-17 トヨタ自動車株式会社 Guidance support device
JP2007176296A (en) * 2005-12-27 2007-07-12 Mitsubishi Fuso Truck & Bus Corp Optical axis control device of head lamp for vehicle
JP2008209354A (en) * 2007-02-28 2008-09-11 Toyota Motor Corp Calibration method and device, and automatic detection device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11840241B1 (en) 2022-07-18 2023-12-12 Ford Global Technologies, Llc Adjusting driver assist technology based on vehicle ride height

Also Published As

Publication number Publication date
JP2011209251A (en) 2011-10-20

Similar Documents

Publication Publication Date Title
CN109844762B (en) In-vehicle image processing apparatus
JP5867273B2 (en) Approaching object detection device, approaching object detection method, and computer program for approaching object detection
KR102313026B1 (en) Vehicle and method for collision avoidance assist when backing up the vehicle
CN106463064B (en) Object recognition device and vehicle travel control device using same
JP4615038B2 (en) Image processing device
JP5429565B2 (en) Vehicle height detection device
US9074906B2 (en) Road shape recognition device
KR101395089B1 (en) System and method for detecting obstacle applying to vehicle
JP4420011B2 (en) Object detection device
JP4868964B2 (en) Running state determination device
JP5094658B2 (en) Driving environment recognition device
EP1870296B1 (en) Vehicle seat detecting system, operation device controlling system, and vehicle
JP6246014B2 (en) Exterior recognition system, vehicle, and camera dirt detection method
JP5283967B2 (en) In-vehicle object detection device
CN104111058B (en) Vehicle distance measurement method and device, vehicle relative velocity measuring method and device
US20140176714A1 (en) Collision prevention warning method and device capable of tracking moving object
CN103204124A (en) Method For Operating A Pedestrian Protection System And Motor Vehicle
KR101986166B1 (en) Lane Recognition Apparatus and Method
JP6301714B2 (en) Travel route generator
JP3666332B2 (en) Pedestrian detection device
JP2013053962A (en) Camera system, collision prediction system, and parking guide system
JP2021196939A (en) On-vehicle sensor system
JP2017162178A (en) Determination device, determination method and determination program
JP2017129543A (en) Stereo camera device and vehicle
JP3612821B2 (en) In-vehicle distance measuring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131120

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5429565

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees