JP2005092448A - Device and method for image recognition - Google Patents

Device and method for image recognition Download PDF

Info

Publication number
JP2005092448A
JP2005092448A JP2003323463A JP2003323463A JP2005092448A JP 2005092448 A JP2005092448 A JP 2005092448A JP 2003323463 A JP2003323463 A JP 2003323463A JP 2003323463 A JP2003323463 A JP 2003323463A JP 2005092448 A JP2005092448 A JP 2005092448A
Authority
JP
Japan
Prior art keywords
vehicle
shadow
infrared
height
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003323463A
Other languages
Japanese (ja)
Inventor
Masanori Sato
正範 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2003323463A priority Critical patent/JP2005092448A/en
Publication of JP2005092448A publication Critical patent/JP2005092448A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To reduce cost necessary to calculate the distance from a vehicle to an object. <P>SOLUTION: An image processing unit 4 detects the height of an object and the height of the shadow by analyzing the infrared rays image photographed by one-set of infrared camera 3, the ratio of the height of the detected object and the height of the shadow and the angle of the shadow to the object are calculated, and the distance from the vehicle to the object is calculated based on the calculated ratio and angle. Thereby, two-sets of infrared camera need not be installed in a night-vision unit for vehicle, so that cost necessary to calculate the distance from the vehicle to the object can be reduced. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、赤外線カメラを利用して車両進行方向、例えば車両前方に存在する物体までの距離を算出する画像認識装置及び画像認識方法に関し、より詳しくは、車両進行方向に存在する物体までの距離を1台の赤外線カメラにより算出することにより、車両進行方向に存在する物体までの距離を算出するために要するコストを削減することを可能にする技術に係わる。   The present invention relates to an image recognition device and an image recognition method for calculating a distance to an object existing in the vehicle traveling direction, for example, in front of the vehicle using an infrared camera, and more specifically, to a distance to an object existing in the vehicle traveling direction. The present invention relates to a technology that makes it possible to reduce the cost required to calculate the distance to an object that exists in the vehicle traveling direction by calculating with a single infrared camera.

従来より、車両に搭載された2台の赤外線カメラによって撮影した画像上の対象物の大きさを考慮しつつ、その視差から異なる物体の重なりの有無を判別し、物体が重なっている場合には、それぞれの物体までの距離を独立して算出する画像認識装置が知られている(例えば、特許文献1を参照)。そして、このような画像認識装置によれば、算出された距離に従って、運転者への警告動作や車両の自動回避動作等を信頼性高く行うことができる。
特開2003−150938号公報(段落[0037]〜[0039],図13)
Conventionally, in consideration of the size of the object on the image taken by two infrared cameras mounted on the vehicle, the presence or absence of overlapping of different objects is determined from the parallax, and the objects are overlapping An image recognition device that independently calculates the distance to each object is known (see, for example, Patent Document 1). According to such an image recognition device, it is possible to perform a warning operation to the driver, an automatic vehicle avoidance operation, and the like with high reliability according to the calculated distance.
Japanese Patent Laying-Open No. 2003-150938 (paragraphs [0037] to [0039], FIG. 13)

しかしながら、従来までの画像認識装置は、2台の赤外線カメラを使用して車両進行方向に存在する物体までの距離を算出する構成になっているために、安価に製造することが難しく、車両進行方向に存在する物体までの距離を算出するために要するコストを削減することが困難であった。   However, since the conventional image recognition apparatus is configured to calculate the distance to an object existing in the vehicle traveling direction using two infrared cameras, it is difficult to manufacture at low cost, and the vehicle traveling It has been difficult to reduce the cost required to calculate the distance to an object present in the direction.

本発明は、上述の課題を解決するためになされたものであり、その目的は、車両進行方向に存在する物体までの距離を算出するために要するコストを削減することが可能な、画像認識装置及び画像認識方法を提供することにある。   The present invention has been made to solve the above-described problems, and an object thereof is an image recognition device capable of reducing the cost required to calculate the distance to an object existing in the vehicle traveling direction. And providing an image recognition method.

上述の課題を解決するために、本発明に係る画像認識装置の特徴は、1台の撮像手段によって撮像された赤外線画像を解析することにより対象物の高さと影の高さを検出する検出手段と、対象物の高さと影の高さの比率を算出する比率算出手段と、対象物に対する影の角度を算出する影角度算出手段と、算出された比率と角度とに基づいて車両から対象物までの距離を算出する距離算出手段とを備えることにある。   In order to solve the above-described problems, the image recognition apparatus according to the present invention is characterized by detecting means for detecting the height of an object and the height of a shadow by analyzing an infrared image picked up by a single image pickup means. A ratio calculating means for calculating the ratio of the height of the object and the height of the shadow, a shadow angle calculating means for calculating the angle of the shadow with respect to the object, and the object from the vehicle based on the calculated ratio and angle. And a distance calculating means for calculating the distance up to.

また、上述の課題を解決するために、本発明に係る画像認識方法の特徴は、1台の撮像手段によって撮像された赤外線画像を解析することにより対象物の高さと影の高さを検出し、検出された対象物の高さと影の高さの比率を算出し、対象物に対する影の角度を算出し、算出された比率と角度とに基づいて車両から対象物までの距離を算出することにある。   In order to solve the above-mentioned problems, the feature of the image recognition method according to the present invention is to detect the height of an object and the height of a shadow by analyzing an infrared image captured by a single imaging means. Calculating the ratio between the height of the detected object and the height of the shadow, calculating the angle of the shadow with respect to the object, and calculating the distance from the vehicle to the object based on the calculated ratio and angle It is in.

本発明に係る画像認識装置及び画像認識方法によれば、1台の撮像手段によって車両から対象物までの距離を算出することができるので、撮像手段を2台以上利用する必要がなくなり、車両から対象物までの距離を算出するために要するコストを削減することができる。   According to the image recognition apparatus and the image recognition method of the present invention, since the distance from the vehicle to the object can be calculated by one image pickup means, it is not necessary to use two or more image pickup means, and the The cost required for calculating the distance to the object can be reduced.

本発明に係る画像認識装置は、例えば図1に示すような、近赤外線光を利用して車両進行方向、例えば車両前方の画像を撮像し、撮像された画像を表示部に表示することにより、夜間でも運転者が車両前方の状態を認識しやすくする車両用暗視装置に適用することができる。以下、図面を参照して、本発明の一実施形態となる車両用暗視装置の構成及び動作について説明する。   The image recognition apparatus according to the present invention, for example, as shown in FIG. 1, captures an image in the vehicle traveling direction, for example, the front of the vehicle using near infrared light, and displays the captured image on the display unit. The present invention can be applied to a night vision device for a vehicle that makes it easier for the driver to recognize the state in front of the vehicle even at night. Hereinafter, the configuration and operation of a night vision device for a vehicle according to an embodiment of the present invention will be described with reference to the drawings.

〔車両用暗視装置の構成〕
始めに、図1,図2を参照して、本発明の一実施形態となる車両用暗視装置の構成について説明する。
[Configuration of night vision device for vehicle]
First, with reference to FIG. 1 and FIG. 2, the structure of the night-vision device for vehicles used as one Embodiment of this invention is demonstrated.

本発明の一実施形態となる車両用暗視装置は、図1,2に示すように、左右のヘッドランプ1a,1b、2台の赤外線投光器2a,2b、1台の赤外線カメラ3、画像処理ユニット4、及びHUD(Head Up Display)5を主な構成要素として備える。なお、赤外線カメラ3及びHUD5はそれぞれ、本発明に係る撮像手段及び表示手段として機能し、画像処理ユニット4は、本発明に係る第1,第2の検出手段、比率算出手段、影角度算出手段、及び距離算出手段として機能する。   As shown in FIGS. 1 and 2, a vehicle night vision apparatus according to an embodiment of the present invention includes left and right headlamps 1a and 1b, two infrared projectors 2a and 2b, one infrared camera 3, and image processing. The unit 4 and a HUD (Head Up Display) 5 are provided as main components. The infrared camera 3 and the HUD 5 function as an imaging unit and a display unit according to the present invention, respectively, and the image processing unit 4 includes first and second detection units, a ratio calculation unit, and a shadow angle calculation unit according to the present invention. And function as a distance calculation means.

上記左右のヘッドランプ1a,1bは、車両前部に対称的に配置され、運転者によるライトスイッチ6(図2参照)のオン/オフ操作に従って、車両進行方向に可視光線を照射する。また、上記赤外線投光器2a,2bは、左右のヘッドランプ1a,1bと同様、車両前部に対称的に配置され、画像処理ユニット4の制御に従って車両前方に近赤外線光を照射する。なお、上記近赤外線光とは、人間の目には見えない波長の光であり、この近赤外線光によれば、ヘッドランプ1a,1bが照射する可視光線とは異なり、照射によって対向車に迷惑を掛けることがない。   The left and right headlamps 1a and 1b are arranged symmetrically in the front part of the vehicle and irradiate visible light in the vehicle traveling direction in accordance with the on / off operation of the light switch 6 (see FIG. 2) by the driver. The infrared projectors 2a and 2b are arranged symmetrically in the front part of the vehicle, like the left and right headlamps 1a and 1b, and irradiate near-infrared light in front of the vehicle according to the control of the image processing unit 4. The near-infrared light is light having a wavelength that cannot be seen by human eyes. Unlike the visible light emitted by the headlamps 1a and 1b, the near-infrared light causes trouble for oncoming vehicles due to irradiation. It is not multiplied.

上記赤外線カメラ3は、近赤外線方式の赤外線カメラであり、バックミラー等、運転者の前方視界を妨げない場所に設けられる。この赤外線カメラ3は、赤外線投光器2a,2bが照射した近赤外線光を利用して車両前方の赤外線画像を撮像し、撮像した赤外線画像のデータを画像処理ユニット4に入力する。   The infrared camera 3 is a near-infrared type infrared camera, and is provided in a place such as a rearview mirror that does not obstruct the driver's front view. The infrared camera 3 captures an infrared image in front of the vehicle using near-infrared light emitted by the infrared projectors 2 a and 2 b, and inputs the captured infrared image data to the image processing unit 4.

上記画像処理ユニット4は、車両内に搭載され、マイクロコンピュータ等の演算処理装置により構成されている。この実施の形態では、画像処理ユニット4は、車両のイグニッションスイッチ(図示せず)と暗視システム動作スイッチ7(図2参照)がオン状態になる、及び照度センサ8(図2参照)が夜間(=車外の照度が低い)であることを検知するのに応じて、赤外線カメラ3から入力された赤外線画像のデータに対し後述する位置検出処理を実行することにより、車両進行方向に存在する物体までの距離を算出する。   The image processing unit 4 is mounted in a vehicle and is configured by an arithmetic processing device such as a microcomputer. In this embodiment, the image processing unit 4 has the vehicle ignition switch (not shown) and the night vision system operation switch 7 (see FIG. 2) turned on, and the illuminance sensor 8 (see FIG. 2) is at night. In response to detecting that the illuminance outside the vehicle is low, an object that exists in the vehicle traveling direction by executing position detection processing described later on the data of the infrared image input from the infrared camera 3 The distance to is calculated.

上記HUD5は、フロントウインドガラスの運転者の前方視界を妨げない位置に設けられ、画像処理ユニット4の制御に従って、赤外線カメラ3が撮像した車両進行方向の赤外線画像をフロントウインドガラスに投影表示する。   The HUD 5 is provided at a position that does not obstruct the front view of the driver of the front window glass, and projects and displays an infrared image of the vehicle traveling direction captured by the infrared camera 3 on the front window glass under the control of the image processing unit 4.

このように構成された車両用暗視装置は、以下に示す位置検出処理を実行することにより、赤外線カメラ3が撮像した赤外線画像を利用して車両前方に存在する物体までの距離を算出する。以下、図3に示すフローチャートを参照して、この位置検出処理を実行する際の車両用暗視装置の動作について説明する。   The vehicle night vision apparatus configured as described above calculates a distance to an object existing in front of the vehicle using an infrared image captured by the infrared camera 3 by executing a position detection process described below. Hereinafter, with reference to the flowchart shown in FIG. 3, the operation of the vehicle night vision apparatus when the position detection process is executed will be described.

〔位置検出処理〕
図3に示すフローチャートは、車両用暗視装置の動作条件が満たされるのに応じて開始となり、位置検出処理はステップS1の処理に進む。なお、この実施の形態では、車両のイグニッションスイッチ及び暗視システム動作スイッチ7がオン状態になる、及び照度センサ8が夜間であることを検知するのに応じて、画像処理ユニット4が、動作条件が満たされたものと判別する。
[Position detection processing]
The flowchart shown in FIG. 3 starts in response to the operating conditions of the vehicle night vision apparatus being satisfied, and the position detection process proceeds to step S1. In this embodiment, the image processing unit 4 detects that the vehicle ignition switch and the night vision system operation switch 7 are turned on and that the illuminance sensor 8 is nighttime. Is determined to be satisfied.

ステップS1の処理では、画像処理ユニット4が、赤外線投光器2a,2bの電源をオン状態に制御することにより、車両前方に近赤外線光を照射する。これにより、このステップS1の処理は完了し、位置検出処理はステップS1の処理からステップS2の処理に進む。   In the process of step S1, the image processing unit 4 irradiates near-infrared light ahead of the vehicle by controlling the power of the infrared projectors 2a and 2b to be on. Thereby, the process of step S1 is completed, and the position detection process proceeds from the process of step S1 to the process of step S2.

ステップS2の処理では、画像処理ユニット4が、赤外線投光器2a,2bが照射した近赤外線光を利用して車両前方の赤外線画像を撮像するように赤外線カメラ3を制御すると共に、撮像された赤外線画像をフロントウインドガラスに投影表示するようにHUD5を制御する。これにより、このステップS2の処理は完了し、位置検出処理はステップS2の処理からステップS3の処理に進む。   In the process of step S2, the image processing unit 4 controls the infrared camera 3 so as to capture an infrared image in front of the vehicle using the near infrared light emitted by the infrared projectors 2a and 2b, and the captured infrared image. The HUD 5 is controlled so as to be projected and displayed on the front window glass. Thereby, the process of step S2 is completed, and the position detection process proceeds from the process of step S2 to the process of step S3.

ステップS3の処理では、画像処理ユニット4が、車両用暗視装置の動作条件が満たされているか否かを判別する。そして、判別の結果、車両用暗視装置の動作条件が満たされていないと判別した場合、画像処理ユニット4は位置検出処理を終了させる。一方、車両用暗視装置の動作条件が満たされていると判別した場合には、画像処理ユニット4は位置検出処理をステップS3の処理からステップS4の処理に進める。   In the process of step S3, the image processing unit 4 determines whether or not the operating condition of the vehicle night vision apparatus is satisfied. When it is determined that the operation condition of the vehicle night vision device is not satisfied, the image processing unit 4 ends the position detection process. On the other hand, when it is determined that the operating condition of the vehicle night vision device is satisfied, the image processing unit 4 advances the position detection process from the process of step S3 to the process of step S4.

ステップS4の処理では、画像処理ユニット4が、赤外線カメラ3が撮像した赤外線画像のデータを解析することにより、車両の進行方向で、且つ、安全に停止することが可能でない範囲に物体、すなわち障害物が存在するか否かを判別し、障害物が存在する場合には、障害物までの距離、及びその障害物に関する情報をフロントウインドガラスに投影表示するようにHUD5を制御する(以下、このステップS4の処理を検知計測処理と表記する)。なお、この検知計測処理の詳細については、図4に示すフローチャートを参照して後述する。これにより、このステップS4の処理は完了し、位置検出処理はステップS4の処理からステップS3の処理に戻る。   In the process of step S4, the image processing unit 4 analyzes the data of the infrared image captured by the infrared camera 3, so that the object, that is, the obstacle is in the traveling direction of the vehicle and cannot be safely stopped. It is determined whether or not an object is present, and if there is an obstacle, the HUD 5 is controlled so that the distance to the obstacle and information regarding the obstacle are projected and displayed on the front window glass (hereinafter referred to as “this”). The process in step S4 is referred to as a detection measurement process). The details of this detection measurement process will be described later with reference to the flowchart shown in FIG. Thereby, the process of step S4 is completed, and the position detection process returns from the process of step S4 to the process of step S3.

〔検知計測処理〕
次に、図4に示すフローチャートを参照して、上記検知計測処理について説明する。
[Detection measurement processing]
Next, the detection measurement process will be described with reference to the flowchart shown in FIG.

図4に示すフローチャートは、上記ステップS3の処理において、画像処理ユニット4が車両用暗視装置の動作条件が満たされていると判別するのに応じて開始となり、この検知計測処理はステップS11の処理に進む。   The flowchart shown in FIG. 4 starts when the image processing unit 4 determines that the operating condition of the vehicle night vision apparatus is satisfied in the process of step S3. This detection measurement process is performed in step S11. Proceed to processing.

ステップS11の処理では、画像処理ユニット4が、赤外線カメラ3が撮像した赤外線画像のデータに対し微分処理を施すことにより、赤外線画像内において輝度変化が大きい箇所(エッジ部分)を抽出し、赤外線画像を線画像に変換する(いわゆる、輪郭線抽出法)。これにより、このステップS11の処理は完了し、この検知計測処理はステップS11の処理からステップS12の処理に進む。   In the process of step S11, the image processing unit 4 performs differential processing on the data of the infrared image captured by the infrared camera 3, thereby extracting a portion (edge portion) where the luminance change is large in the infrared image, and the infrared image. Is converted into a line image (so-called contour extraction method). Thereby, the process of step S11 is completed, and the detection measurement process proceeds from the process of step S11 to the process of step S12.

ステップS12の処理では、画像処理ユニット4が、線画像内に凹凸状部分(浮き上がるような線的対象物)が存在するか否かを判別する。そして、判別の結果、凹凸状部分が線画像内に存在しない場合、画像処理ユニット4は検知計測処理を終了する。一方、凹凸状部分が線画像内に存在する場合には、画像処理ユニット4は検知計測処理をステップS12の処理からステップS13の処理に進める。   In the process of step S12, the image processing unit 4 determines whether or not there is an uneven portion (a linear object that floats) in the line image. Then, as a result of the determination, when the uneven portion does not exist in the line image, the image processing unit 4 ends the detection measurement process. On the other hand, when the uneven portion exists in the line image, the image processing unit 4 advances the detection measurement process from the process of step S12 to the process of step S13.

ステップS13の処理では、画像処理ユニット4が、線画像の中から凹凸状部分を抽出すると共に、その抽出位置を記憶する。これにより、このステップS13の処理は完了し、検知計測処理はステップS13の処理からステップS14の処理に進む。   In the process of step S13, the image processing unit 4 extracts the uneven portion from the line image and stores the extraction position. Thereby, the process of step S13 is completed, and the detection measurement process proceeds from the process of step S13 to the process of step S14.

ステップS14の処理では、画像処理ユニット4が、ステップS13の処理において記憶した抽出位置に基づいて、抽出された凹凸状部分の位置が赤外線投光器2a,2bの配光範囲R,L内(図5参照)に存在するか否かを判別する。そして、抽出された凹凸状部分の位置が赤外線投光器2a,2bの配光範囲R,L内に存在しない場合、凹凸状部分の位置を正確に算出することができない、若しくは、車両に対する凹凸状部分の危険度は低い(=障害物になる可能性は低い)として、画像処理ユニット4は検知計測処理を終了する。一方、抽出された凹凸状部分の位置が赤外線投光器2a,2bの配光範囲R,L内に存在する場合には、画像処理ユニット4は検知計測処理をステップS14の処理からステップS15の処理に進める。   In the process of step S14, the position of the extracted concavo-convex part is within the light distribution ranges R and L of the infrared projectors 2a and 2b based on the extraction position stored in the process of step S13 by the image processing unit 4 (FIG. 5). It is determined whether it exists in the reference). And when the position of the extracted uneven part does not exist in the light distribution ranges R and L of the infrared projectors 2a and 2b, the position of the uneven part cannot be calculated accurately, or the uneven part with respect to the vehicle Is low (= the possibility of becoming an obstacle is low), the image processing unit 4 ends the detection measurement process. On the other hand, when the position of the extracted uneven portion is within the light distribution ranges R and L of the infrared projectors 2a and 2b, the image processing unit 4 changes the detection measurement process from the process of step S14 to the process of step S15. Proceed.

ステップS15の処理では、画像処理ユニット4が、凹凸状部分を構成する線で垂直上に浮き上がった部分を物体(図5における、符号11a〜11c)、斜め方向に傾いている部分を物体の影(図5における、符号12a〜12c,12b’,12c’)とする、若しくは、凹凸状部分内のコントラスト差によって、凹凸状部分を構成する物体とその影とを分離する。ここで、図5において、物体11a〜11cの影はそれぞれ、左側の赤外線投光器2aのみにより照射した場合、左右の赤外線投光器2a,2bにより同等に照射した場合、及び左右の赤外線投光器2a,2bを照射するが片寄って照射した場合において形成されたものを示す。なお、物体の影は、物体の色に左右されずに常に同程度の濃さであるので、凹凸状部分内のコントラスト差によって物体とその影とを分離することができる。   In the process of step S15, the image processing unit 4 uses a line that forms the concavo-convex part as the object that is lifted vertically (reference numerals 11a to 11c in FIG. 5), and a part that is inclined obliquely as a shadow of the object. (Reference numerals 12a to 12c, 12b ', 12c' in FIG. 5), or the object constituting the concavo-convex part and its shadow are separated by the contrast difference in the concavo-convex part. Here, in FIG. 5, the shadows of the objects 11a to 11c are respectively irradiated by only the left infrared projector 2a, by the left and right infrared projectors 2a and 2b, and by the left and right infrared projectors 2a and 2b. It shows what was formed in the case of irradiating but irradiating side by side. Note that the shadow of the object always has the same level of darkness regardless of the color of the object, so that the object and its shadow can be separated by the contrast difference in the concavo-convex portion.

そして、物体とその影とを分離すると、画像処理ユニット4は、図6(a)〜(c)に示すように、物体とその影の長さを算出し、物体とその影の長さの比率(影の長さ/物体の長さ)を算出する。ここで、図6(a)〜(c)に示す例では、物体とその影の長さの比率はそれぞれ、(a)0.93/1,(b)1.1/1,(c)3/1,3.2/1と算出されている。なお、算出される比率は、物体の大きさに左右されることがないので、物体が同じ位置にあれば、物体の大きさに関係なく算出することができる。これにより、このステップS15の処理は完了し、検知計測処理はステップS15の処理からステップS16の処理に進む。   When the object and its shadow are separated, the image processing unit 4 calculates the length of the object and its shadow, as shown in FIGS. The ratio (shadow length / object length) is calculated. Here, in the example shown in FIGS. 6A to 6C, the ratio of the length of the object and its shadow is (a) 0.93 / 1, (b) 1.1 / 1, (c), respectively. It is calculated as 3/1, 3.2 / 1. Since the calculated ratio does not depend on the size of the object, if the object is at the same position, it can be calculated regardless of the size of the object. Thereby, the process of step S15 is completed, and the detection measurement process proceeds from the process of step S15 to the process of step S16.

ステップS16の処理では、画像処理ユニット4が、図6(a)〜(c)に示すように、物体に対する影の角度θを算出する。ここで、図6(a)〜(c)に示す例では、物体に対する影の角度θはそれぞれ、(a)5°,(b)12°,(c)15°と算出されている。これにより、このステップS16の処理は完了し、検知計測処理はステップS16の処理からステップS17の処理に進む。   In step S16, the image processing unit 4 calculates the shadow angle θ with respect to the object, as shown in FIGS. Here, in the example shown in FIGS. 6A to 6C, the shadow angles θ with respect to the object are calculated as (a) 5 °, (b) 12 °, and (c) 15 °, respectively. Thereby, the process of step S16 is completed, and the detection measurement process proceeds from the process of step S16 to the process of step S17.

ステップS17の処理では、画像処理ユニット4が、所定の位置検出計算数式に算出した比率と角度の値を入力することにより、車両から物体までの距離を算出する。なお、この実施の形態では、位置検出計算式は、後述する仮想条件(1),(2)に基づいて以下の数式1に示すように導出された。

Figure 2005092448
<仮想条件(1)>
長さ1[m]の棒(11a〜11e)を左ヘッドランプ1a正面に配置し、棒の長さと影(12a〜12e)の長さが一致する地点を探した所、図7に示すように、(1)影と棒の長さが一致する地点は車体から20[m]離れた地点Bにあった。また、影の長さが±10[%]変化した地点を探した所、(2)影の長さが+10[%]変化した地点は車体から22[m]離れた地点A、(3)影の長さが−10[%]変化した地点は車体から18[m]離れた地点Cにあった。これらの実験結果から、影と対象物の長さが同じになる地点は車体から20[m]先にあり、車体から対象物までの距離は、対象物と影の長さの比率が+10[%]及び−10[%]変化する度毎に、それぞれ+2[m]及び−2[m]増減されることが想定される。 In the process of step S17, the image processing unit 4 calculates the distance from the vehicle to the object by inputting the ratio and angle values calculated in a predetermined position detection calculation formula. In this embodiment, the position detection calculation formula is derived as shown in the following formula 1 based on virtual conditions (1) and (2) described later.
Figure 2005092448
<Virtual condition (1)>
As shown in FIG. 7, a rod (11a to 11e) having a length of 1 [m] is arranged in front of the left headlamp 1a and a point where the length of the rod matches the length of the shadow (12a to 12e) is searched. In addition, (1) the point where the length of the shadow coincides with the length of the rod was at point B 20 [m] away from the vehicle body. Also, a place where the shadow length has changed by ± 10 [%] is searched, (2) a point where the shadow length has changed by +10 [%] is a point A which is 22 [m] away from the vehicle body, (3) The point where the shadow length changed by -10 [%] was at point C, which was 18 [m] away from the vehicle body. From these experimental results, the point where the length of the shadow and the object is the same is 20 [m] ahead of the vehicle body, and the distance from the vehicle body to the object is such that the ratio of the object and shadow length is +10 [ %] And −10 [%], it is assumed that +2 [m] and −2 [m] are increased or decreased, respectively.

<仮想条件(2)>
影と棒の長さが同じになるように横方向へ移動して影が棒に対して1[°]ずれた地点を探した所、(4)影が棒に対して1[°]ずれた地点は車体から19.9[m]離れた地点Dにあった。また、(5)同じ条件で影が棒に対して2[°]ずれた地点を探した所、影が棒に対して2[°]ずれた地点は車体から19.8[m]離れた地点Eにあった。これらの実験結果から、車体から対象物までの距離は、影の角度θが1[°]傾くのに応じて、0.5[%]変化することが想定される(=仮想条件2)。
<Virtual condition (2)>
Moved in the horizontal direction so that the shadow and the bar have the same length, and looked for a point where the shadow shifted 1 [°] from the bar. (4) The shadow shifted 1 [°] relative to the bar. The point was at point D, which was 19.9 [m] away from the vehicle body. (5) Under the same conditions, a place where the shadow was shifted by 2 [°] with respect to the rod was searched. The point where the shadow was shifted by 2 [°] with respect to the rod was 19.8 [m] away from the vehicle body. It was at point E. From these experimental results, it is assumed that the distance from the vehicle body to the object changes by 0.5 [%] as the shadow angle θ is inclined by 1 [°] (= virtual condition 2).

ここで、再び図6を参照して、上記位置検出計算式を利用して車体から物体までの距離を算出する処理について具体的に説明する。   Here, with reference to FIG. 6 again, the process of calculating the distance from the vehicle body to the object using the position detection calculation formula will be specifically described.

図6(a)の場合、物体11aとその影12aの長さの比率は0.93(=0.93[m]/1[m])であり、物体11aに対する影12aの角度θは5[°]であるので、画像処理ユニット4は、上記数式にこれらの値を代入することにより、車体から物体11aまでの距離(=18.14[m])を算出することができる。なお、この場合、物体11aまでの距離は短いために、画像処理ユニット4は片方の影に関する情報のみで車体から物体11aまでの距離は算出することができる。   In the case of FIG. 6A, the ratio of the length of the object 11a and its shadow 12a is 0.93 (= 0.93 [m] / 1 [m]), and the angle θ of the shadow 12a with respect to the object 11a is 5 Since it is [°], the image processing unit 4 can calculate the distance (= 18.14 [m]) from the vehicle body to the object 11a by substituting these values into the above equation. In this case, since the distance to the object 11a is short, the image processing unit 4 can calculate the distance from the vehicle body to the object 11a only with information about one shadow.

図6(b)の場合、物体11bとその影12b,12b’の長さの比率は共に1.1(=1.1[m]/1[m])であり、物体11bに対する影12b,12b’の角度θは共に12[°]であるので、画像処理ユニット4は、上記数式にこれらの値を代入することにより、車体から物体11bまでの距離(=20.68[m])を算出することができる。なお、この場合、物体11bには影が2つ存在するが、2つの影は物体11bに対して左右対称の位置にあるので、画像処理ユニット4は片方の影に関する情報のみで車体から物体11bまでの距離は算出することができる。   In the case of FIG. 6B, the ratio of the lengths of the object 11b and the shadows 12b and 12b ′ thereof is 1.1 (= 1.1 [m] / 1 [m]), and the shadow 12b, Since the angle θ of 12b ′ is 12 [°], the image processing unit 4 substitutes these values into the above formula to obtain the distance (= 20.68 [m]) from the vehicle body to the object 11b. Can be calculated. In this case, the object 11b has two shadows. However, since the two shadows are located symmetrically with respect to the object 11b, the image processing unit 4 can only detect information about one shadow from the vehicle body 11b. The distance to can be calculated.

図6(c)の場合には、物体11cとその影12c,12c’の長さの比率はそれぞれ、3.2(=3.2[m]/1[m])及び3.0(=3.0[m]/1[m])であり、物体11cに対する影12c,12c’の角度θ1及びθ2は15及び0[°]であるので、画像処理ユニット4は、上記数式にこれらの値を代入することにより、車体から物体11cまでの距離(=59.2及び60[m])を算出する。そして、この場合には、画像処理ユニット4は、算出された二つの距離の平均値(59.6[m])を車体から物体11cまでの距離として算出する。   In the case of FIG. 6C, the ratio of the length of the object 11c and its shadows 12c and 12c ′ is 3.2 (= 3.2 [m] / 1 [m]) and 3.0 (= 3.0 [m] / 1 [m]), and the angles θ1 and θ2 of the shadows 12c and 12c ′ with respect to the object 11c are 15 and 0 [°]. By substituting the value, the distance from the vehicle body to the object 11c (= 59.2 and 60 [m]) is calculated. In this case, the image processing unit 4 calculates the average value (59.6 [m]) of the two calculated distances as the distance from the vehicle body to the object 11c.

これにより、このステップS17の処理は完了し、検知計測処理はステップS17の処理からステップS18の処理に進む。   Thereby, the process of step S17 is completed, and the detection measurement process proceeds from the process of step S17 to the process of step S18.

ステップS18の処理では、画像処理ユニット4が、算出された距離が所定の数値範囲内にある妥当な値であるか否かを判別する。そして、判別の結果、算出された距離が所定の数値範囲内にある妥当な値でない場合、画像処理ユニット4は検知計測処理を終了する。一方、算出された距離が所定の数値範囲内にある妥当な値である場合には、画像処理ユニット4は検知計測処理をステップS18の処理からステップS19の処理に進める。   In the processing of step S18, the image processing unit 4 determines whether or not the calculated distance is a reasonable value within a predetermined numerical range. If the calculated distance is not an appropriate value within the predetermined numerical range as a result of the determination, the image processing unit 4 ends the detection measurement process. On the other hand, when the calculated distance is a reasonable value within the predetermined numerical range, the image processing unit 4 advances the detection measurement process from the process of step S18 to the process of step S19.

ステップS19の処理では、画像処理ユニット4が、車両の進行方向に物体が存在するか否かを判別する。そして、判別の結果、車両の進行方向に物体が存在しない場合、画像処理ユニット4は検知計測処理を終了する。一方、車両の進行方向に物体が存在する場合には、画像処理ユニット4は検知計測処理をステップS19の処理からステップS20の処理に進める。   In the process of step S19, the image processing unit 4 determines whether or not an object exists in the traveling direction of the vehicle. If the object does not exist in the traveling direction of the vehicle as a result of the determination, the image processing unit 4 ends the detection measurement process. On the other hand, when an object exists in the traveling direction of the vehicle, the image processing unit 4 advances the detection measurement process from the process of step S19 to the process of step S20.

ステップS20の処理では、画像処理ユニット4が、車両の進行方向に存在する物体までの距離が車両が安全に停止できる範囲内に入っているか否かを判別する。そして、判別の結果、車両の進行方向に存在する物体までの距離が車両が安全に停止できる範囲内に入っている場合、画像処理ユニット4は検知計測処理を終了する。一方、車両の進行方向に存在する物体までの距離が車両が安全に停止できる範囲に入っていない場合には、画像処理ユニット4は、検知計測処理をステップS20の処理からステップS21の処理に進める。   In the process of step S20, the image processing unit 4 determines whether or not the distance to the object existing in the traveling direction of the vehicle is within a range where the vehicle can be safely stopped. As a result of the determination, when the distance to the object existing in the traveling direction of the vehicle is within a range where the vehicle can be safely stopped, the image processing unit 4 ends the detection measurement process. On the other hand, when the distance to the object existing in the traveling direction of the vehicle is not within the range in which the vehicle can be safely stopped, the image processing unit 4 advances the detection measurement process from the process of step S20 to the process of step S21. .

ステップS21の処理では、画像処理ユニット4が、車両の進行方向に存在する物体までの距離、及びその物体に関する情報をフロントウインドガラスに投影表示するようにHUD5に制御する。これにより、このステップS21の処理は完了し、一連の検知計測処理は終了する。   In the process of step S21, the image processing unit 4 controls the HUD 5 so as to project and display the distance to the object existing in the traveling direction of the vehicle and the information related to the object on the front window glass. Thereby, the process of this step S21 is completed and a series of detection measurement processes are complete | finished.

以上の説明から明らかなように、本発明の一実施形態となる車両用暗視装置によれば、画像処理ユニット4が、1台の赤外線カメラ3によって撮像した赤外線画像を解析することにより物体の高さ及び影の高さを検出し、物体の高さと影の高さの比率及び物体に対する影の角度を算出し、算出した比率と角度とに基づいて車両から物体までの距離を算出する。すなわち、本発明の一実施形態となる車両用暗視装置によれば、1台の赤外線カメラ3によって車両から物体までの距離を算出するので、車両用暗視装置内に赤外線カメラを2台設ける必要がなくなり、車両から物体までの距離を算出するために要するコストを削減することができる。   As is clear from the above description, according to the night vision device for a vehicle that is an embodiment of the present invention, the image processing unit 4 analyzes the infrared image captured by the single infrared camera 3 to thereby detect the object. The height and the height of the shadow are detected, the ratio of the height of the object to the height of the shadow and the angle of the shadow with respect to the object are calculated, and the distance from the vehicle to the object is calculated based on the calculated ratio and angle. That is, according to the night vision device for a vehicle that is an embodiment of the present invention, the distance from the vehicle to the object is calculated by one infrared camera 3, so two infrared cameras are provided in the night vision device for the vehicle. There is no need, and the cost required to calculate the distance from the vehicle to the object can be reduced.

また、本発明の一実施形態となる車両用暗視装置によれば、赤外線投光器が2台(2a,2b)設けられ、画像処理ユニット4は、図6(c)の場合に示すように、1台の赤外線投光器毎に車両から物体までの距離を算出し、算出された値の平均値を算出し、算出された平均値を車両から物体までの距離とするので、車体から物体までの距離を精度高く算出することができる。   Moreover, according to the night-vision device for vehicles which becomes one Embodiment of this invention, two infrared projectors (2a, 2b) are provided, and the image processing unit 4 is shown in the case of FIG.6 (c), The distance from the vehicle to the object is calculated for each infrared projector, the average value of the calculated values is calculated, and the calculated average value is used as the distance from the vehicle to the object. Can be calculated with high accuracy.

さらに、本発明の一実施形態となる車両用暗視装置によれば、1台の赤外線カメラ3によって車両から物体までの距離を算出するので、赤外線カメラのレイアウトを容易に行うことができる。また、簡単なエーミング調整で物体を検出することができる。また、赤外線カメラを車両中央にレイアウトすることができるので、HUD5に表示される映像が左右に片寄らず、車両中心の映像を表示することができる。   Furthermore, according to the night vision device for a vehicle according to an embodiment of the present invention, the distance from the vehicle to the object is calculated by one infrared camera 3, so that the layout of the infrared camera can be easily performed. Further, an object can be detected by simple aiming adjustment. Further, since the infrared camera can be laid out in the center of the vehicle, the image displayed on the HUD 5 is not shifted to the left and right, and the image at the center of the vehicle can be displayed.

以上、本発明者によってなされた発明を適用した実施の形態について説明したが、この実施の形態による本発明の開示の一部をなす論述及び図面により本発明は限定されることはない。例えば、上記実施の形態では、物体の高さ及び影を検出する際、2台の赤外線投光器2a,2bは常時点灯状態であったが、本発明はこれに限られることはなく、2台の赤外線投光器2a,2bを交互に点灯させることによって、物体の高さ及び影を検出するようにしてもよい。このような構成によれば、2台の赤外線投光器2a,2bを常時点灯させて物体の高さ及び影を検出する場合と比較して、物体の高さ及び影を検出するために必要な消費電力を低減することができる。また、2台の赤外線投光器2a,2bを常時点灯させた場合と交互に点灯させた場合とでは影の出来方が異なるので、例えば図5の影12b,12b’に示すようなV時型の影と、路面上にあるV字等の記号とを容易に区別することができる。また、上記実施の形態では、赤外線投光器2a,2bから近赤外線光を照射することによりできた影を利用して車両から物体までの距離を算出したが、左右のヘッドランプ1a,1bから可視光を照射することによりできた影を利用して車両から物体までの距離を算出するようにしてもよい。さらに、上記実施の形態では、車両前方について説明してきたが、車両後方に赤外線カメラと赤外線投光器を設けることによって、後退時における後方距離を算出するようにしてもよい。このように、上記実施の形態に基づいて当業者等によりなされる他の実施の形態、実施例及び運用技術等は全て本発明の範疇に含まれることは勿論であることを付け加えておく。   As mentioned above, although the embodiment to which the invention made by the present inventor is applied has been described, the present invention is not limited by the description and the drawings that form part of the disclosure of the present invention according to this embodiment. For example, in the above embodiment, when detecting the height and shadow of an object, the two infrared projectors 2a and 2b are always lit, but the present invention is not limited to this and the two infrared projectors 2a and 2b are not limited to this. The height and shadow of the object may be detected by alternately turning on the infrared projectors 2a and 2b. According to such a configuration, the consumption necessary for detecting the height and shadow of the object, compared with the case where the height and shadow of the object are detected by always turning on the two infrared projectors 2a and 2b. Electric power can be reduced. In addition, since the manner of shadows differs between when the two infrared projectors 2a and 2b are always lit and when they are alternately lit, for example, a V-hour type as shown by shadows 12b and 12b 'in FIG. A shadow and a symbol such as a V-shape on the road surface can be easily distinguished. Further, in the above embodiment, the distance from the vehicle to the object is calculated using the shadow generated by irradiating the near infrared light from the infrared projectors 2a and 2b, but visible light from the left and right headlamps 1a and 1b. Alternatively, the distance from the vehicle to the object may be calculated using a shadow formed by irradiating. Furthermore, although the front of the vehicle has been described in the above embodiment, the rear distance at the time of reverse may be calculated by providing an infrared camera and an infrared projector at the rear of the vehicle. As described above, it is a matter of course that all other embodiments, examples, operation techniques, and the like made by those skilled in the art based on the above embodiments are included in the scope of the present invention.

本発明の一実施形態となる車両用暗視装置の構成を示す模式図である。1 is a schematic diagram showing a configuration of a vehicle night vision apparatus according to an embodiment of the present invention. 本発明の一実施形態となる車両用暗視装置の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the night-vision device for vehicles used as one Embodiment of this invention. 本発明の一実施形態となる位置検出処理の流れを示すフローチャート図である。It is a flowchart figure which shows the flow of the position detection process used as one Embodiment of this invention. 図3に示す検知計測処理の流れを示すフローチャート図である。It is a flowchart figure which shows the flow of the detection measurement process shown in FIG. 物体とその影の長さの比率、及び物体に対する影の角度の算出方法を説明するための図である。It is a figure for demonstrating the calculation method of the ratio of the length of an object and its shadow, and the angle of the shadow with respect to an object. 物体とその影の長さの比率、及び物体に対する影の角度の算出方法を説明するための図である。It is a figure for demonstrating the calculation method of the ratio of the length of an object and its shadow, and the angle of the shadow with respect to an object. 車体から物体までの距離を算出する位置検出計算式を導出するための一実験結果を説明するための図である。It is a figure for demonstrating one experimental result for deriving the position detection formula which calculates the distance from a vehicle body to an object.

符号の説明Explanation of symbols

1a,1b:ヘッドランプ
2a,2b:赤外線投光器
3:赤外線カメラ
4:画像処理ユニット
5:HUD(Head Up Display)
6:ライトスイッチ
7:暗視システム動作スイッチ
8:照度センサ
11a〜11e:物体
12a〜12e:影
1a, 1b: Head lamps 2a, 2b: Infrared projector 3: Infrared camera 4: Image processing unit 5: HUD (Head Up Display)
6: Light switch 7: Night vision system operation switch 8: Illuminance sensors 11a to 11e: Objects 12a to 12e: Shadow

Claims (6)

車両の進行方向に赤外線を照射する赤外線投光器と、
前記車両に設けられ、前記赤外線投光器により照射された赤外線により車両の進行方向の赤外線画像を撮像する1台の撮像手段と、
前記撮像手段により撮像された赤外線画像を解析することにより対象物の高さを検出する第1の検出手段と、
前記撮像手段により撮像された赤外線画像を解析することにより前記対象物の影の高さを検出する第2の検出手段と、
前記第1及び第2の検出手段により検出された前記対象物の高さと前記対象物の影の高さの比率を算出する比率算出手段と、
前記第1及び第2の検出手段により検出された前記対象物の高さと前記対象物の影の高さとに基づいて、前記対象物に対する影の角度を算出する影角度算出手段と、
前記比率算出手段により算出された比率と前記影角度算出手段により算出された角度とに基づいて、前記車両から前記対象物までの距離を算出する距離算出手段と
を備えることを特徴とする画像認識装置。
An infrared projector that emits infrared rays in the traveling direction of the vehicle;
One image pickup means provided in the vehicle for picking up an infrared image in the traveling direction of the vehicle with infrared rays irradiated by the infrared projector;
First detection means for detecting a height of an object by analyzing an infrared image captured by the imaging means;
Second detection means for detecting a height of a shadow of the object by analyzing an infrared image captured by the imaging means;
A ratio calculating means for calculating a ratio between the height of the object detected by the first and second detecting means and the height of the shadow of the object;
A shadow angle calculating means for calculating a shadow angle with respect to the object based on the height of the object detected by the first and second detecting means and the height of the shadow of the object;
Image recognition comprising: distance calculation means for calculating a distance from the vehicle to the object based on the ratio calculated by the ratio calculation means and the angle calculated by the shadow angle calculation means apparatus.
前記赤外線投光器は左右方向に離間して2台設けられ、
前記距離算出手段は、1台の赤外線投光器毎に前記距離を算出し、算出された値の平均値を算出し、算出された平均値を前記距離とすること
を特徴とする請求項1に記載の画像認識装置。
Two infrared projectors are provided apart in the left-right direction,
The distance calculation unit calculates the distance for each infrared projector, calculates an average value of the calculated values, and sets the calculated average value as the distance. Image recognition device.
前記車両の運転者によって認識しやすい位置に設けられ、前記撮像手段により撮像された赤外線画像を表示する表示手段を備えることを特徴とする請求項1又は請求項2に記載の画像認識装置。   The image recognition apparatus according to claim 1, further comprising a display unit that is provided at a position that is easily recognized by a driver of the vehicle and that displays an infrared image captured by the imaging unit. 前記赤外線は近赤外線光であることを特徴とする請求項1から請求項3のうち、いずれか1項に記載の画像認識装置。   The image recognition apparatus according to claim 1, wherein the infrared light is near infrared light. 車両の進行方向に赤外線を照射するステップと、
1台の撮像手段を利用して車両の進行方向の赤外線画像を撮像するステップと、
撮像された赤外線画像を解析することにより対象物の高さを検出するステップと、
撮像された赤外線画像を解析することにより対象物の影の高さを検出するステップと、
検出された前記対象物の高さと前記対象物の影の高さの比率を算出するステップと、
検出された前記対象物の高さと前記対象物の影の高さとに基づいて、前記対象物に対する影の角度を算出するステップと、
算出された比率と角度とに基づいて、前記車両から前記対象物までの距離を算出するステップと
を有することを特徴とする画像認識方法。
Irradiating infrared rays in the traveling direction of the vehicle;
Capturing an infrared image in the traveling direction of the vehicle using one imaging means;
Detecting the height of the object by analyzing the captured infrared image;
Detecting the shadow height of the object by analyzing the captured infrared image;
Calculating a ratio of the detected height of the object and the shadow height of the object;
Calculating a shadow angle with respect to the object based on the detected height of the object and the shadow height of the object;
An image recognition method comprising: calculating a distance from the vehicle to the object based on the calculated ratio and angle.
撮像された赤外線画像を表示するステップを有することを特徴とする請求項5に記載の画像認識方法。   6. The image recognition method according to claim 5, further comprising a step of displaying a captured infrared image.
JP2003323463A 2003-09-16 2003-09-16 Device and method for image recognition Pending JP2005092448A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003323463A JP2005092448A (en) 2003-09-16 2003-09-16 Device and method for image recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003323463A JP2005092448A (en) 2003-09-16 2003-09-16 Device and method for image recognition

Publications (1)

Publication Number Publication Date
JP2005092448A true JP2005092448A (en) 2005-04-07

Family

ID=34454533

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003323463A Pending JP2005092448A (en) 2003-09-16 2003-09-16 Device and method for image recognition

Country Status (1)

Country Link
JP (1) JP2005092448A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009169776A (en) * 2008-01-18 2009-07-30 Hitachi Ltd Detector
JP2009205360A (en) * 2008-02-27 2009-09-10 Nissan Motor Co Ltd Vehicle obstacle detection device and vehicle obstacle detection method
JP2011055135A (en) * 2009-08-31 2011-03-17 Rohm Co Ltd Vehicle monitoring apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009169776A (en) * 2008-01-18 2009-07-30 Hitachi Ltd Detector
JP2009205360A (en) * 2008-02-27 2009-09-10 Nissan Motor Co Ltd Vehicle obstacle detection device and vehicle obstacle detection method
JP2011055135A (en) * 2009-08-31 2011-03-17 Rohm Co Ltd Vehicle monitoring apparatus

Similar Documents

Publication Publication Date Title
JP5809785B2 (en) Vehicle external recognition device and light distribution control system using the same
JP4743037B2 (en) Vehicle detection device
KR101683509B1 (en) For preventing glaring by the head lamp and method for preventing glaring using the same
JP2005182306A (en) Vehicle display device
JP2009104297A (en) Operation input device
JP2008186344A (en) Preceding vehicle detection device
JP2007142624A (en) Vehicle mounted imaging apparatus
JP2007069680A (en) Mounting structure of face image taking camera
JP2007288657A (en) Display apparatus for vehicle, and display method of the display apparatus for vehicle
JP4927647B2 (en) Vehicle periphery monitoring device
JPH11153406A (en) Obstacle detector for vehicle
JP2009265722A (en) Face direction sensing device
JP4731177B2 (en) Infrared imaging display device and infrared imaging display method for vehicle
JP2010061375A (en) Apparatus and program for recognizing object
JP6354356B2 (en) Forward situation judgment device
KR101511586B1 (en) Apparatus and method for controlling vehicle by detection of tunnel
JPH0973529A (en) Two-wheeled vehicle monitor device
JP4701961B2 (en) Pedestrian detection device
KR101278237B1 (en) Method and apparatus for recognizing vehicles
JP2013101432A (en) Obstacle detector and program
KR20000063151A (en) An apparatus for warning lane deviation and a method for warning the same
JP2005092448A (en) Device and method for image recognition
JP2010056975A (en) Object detection system by rear camera
JP7295645B2 (en) Vehicle road sign recognition support device
JP6177632B2 (en) Vehicle position detection device and vehicle rear side warning device