JP4972116B2 - Vehicle periphery monitoring device - Google Patents

Vehicle periphery monitoring device Download PDF

Info

Publication number
JP4972116B2
JP4972116B2 JP2009083692A JP2009083692A JP4972116B2 JP 4972116 B2 JP4972116 B2 JP 4972116B2 JP 2009083692 A JP2009083692 A JP 2009083692A JP 2009083692 A JP2009083692 A JP 2009083692A JP 4972116 B2 JP4972116 B2 JP 4972116B2
Authority
JP
Japan
Prior art keywords
vehicle
value
predetermined
luminance
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009083692A
Other languages
Japanese (ja)
Other versions
JP2010237874A (en
Inventor
誠 相村
幸大 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2009083692A priority Critical patent/JP4972116B2/en
Publication of JP2010237874A publication Critical patent/JP2010237874A/en
Application granted granted Critical
Publication of JP4972116B2 publication Critical patent/JP4972116B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

この発明は、車両の周辺を監視するための装置に関し、より具体的には、車両の周辺の状況に応じて、対象物を抽出するための閾値を変更する装置に関する。   The present invention relates to an apparatus for monitoring the periphery of a vehicle, and more specifically to an apparatus for changing a threshold value for extracting an object in accordance with a situation around the vehicle.

従来より、画像において、所望の対象物を背景から分離する方法として、所定の閾値で二値化する手法がある。下記の特許文献1では、CCDなどの撮像素子を用いて撮像された画像において、認識すべき物体自身に明るさのむらがある場合でも、物体と背景とを分離するよう、二値化で用いる閾値を変更することが記載されている。   Conventionally, as a method of separating a desired object from a background in an image, there is a method of binarizing with a predetermined threshold. In the following Patent Document 1, in an image captured using an image sensor such as a CCD, a threshold used for binarization so as to separate an object and a background even if the object to be recognized itself has uneven brightness. It is described to change.

他方、赤外線カメラを用いて、車両の周辺を監視することが提案されている。歩行者および動物などの生体は、背景に比べて通常高温であるため、赤外線カメラを用いれば、これらの生体を背景から区別して検出することができる。赤外線カメラにより撮像された画像において、下記の特許文献2には、いわゆるモード法を利用した二値化の閾値設定手法が記載されている。モード法によると、輝度値ヒストグラムにおいて、背景に対応するピークと、高温対象物に対応するピークとの間で、画像中の輝度値を二分する閾値を決定する。   On the other hand, it has been proposed to monitor the periphery of a vehicle using an infrared camera. Since living bodies such as pedestrians and animals are usually at a higher temperature than the background, these living bodies can be detected separately from the background using an infrared camera. In an image captured by an infrared camera, Patent Document 2 below describes a threshold setting method for binarization using a so-called mode method. According to the mode method, in the luminance value histogram, a threshold value that bisects the luminance value in the image is determined between the peak corresponding to the background and the peak corresponding to the high temperature object.

特開平8−315153号公報JP-A-8-315153 特許3756452号公報Japanese Patent No. 3756452

赤外線カメラで車両周辺を撮像した場合に、その撮像画像の輝度値ヒストグラムにおいて、背景に対応するピークと高温対象物に対応するピークの2つのピークが出現すれば、上記のようなモード法を利用して閾値を設定するのは有効である。   If an infrared camera is used to capture the surroundings of a vehicle, the mode method as described above is used if two peaks, a peak corresponding to the background and a peak corresponding to the high-temperature object, appear in the brightness value histogram of the captured image. Thus, it is effective to set a threshold value.

しかしながら、赤外線カメラによる撮像画像には、車両の周辺の状況によって様々な対象物が撮像されることがあり、2つのピークが明瞭に出現しないことがある。そのような場合、モード法を利用するのは困難である。他方、固定の閾値で輝度値を分類すると、検出すべき所望の対象物を、背景から良好に分離して抽出することができないおそれがある。   However, in the image captured by the infrared camera, various objects may be captured depending on the situation around the vehicle, and two peaks may not appear clearly. In such a case, it is difficult to use the mode method. On the other hand, if the luminance values are classified based on a fixed threshold value, there is a possibility that the desired object to be detected cannot be extracted well separated from the background.

したがって、赤外線カメラを用いた撮像画像において、上記のような2つのピークが明瞭に出現しない場合でも、所望の対象物を背景から良好に抽出可能なように、輝度値を二分することができる手法が望まれている。   Therefore, even if the above two peaks do not appear clearly in a captured image using an infrared camera, the luminance value can be divided into two so that a desired object can be satisfactorily extracted from the background. Is desired.

この発明の一つの側面によると、車両周辺監視装置は、車両に搭載された赤外線カメラと、前記赤外線カメラにより撮像された撮像画像の輝度値ヒストグラムを作成し、該輝度値ヒストグラムにおいて、全体の度数に対する所定の割合S(%)を用いて、累積度数が(100−S)%となる低輝度範囲と、累積度数がS%となる高輝度範囲とに二分し、該高輝度範囲に含まれる輝度値を有する対象物を、検出すべき対象物の候補として抽出する手段と、前記抽出された対象物の候補について、前記検出すべき対象物かどうかを判定する判定手段と、前記検出すべき対象物と判定されたとき、運転者への通報を行う手段と、を備える。さらに、該装置は、前記車両の周辺に、高温対象物が多く存在する状況か否かを推定する推定手段と、前記高温対象物が多く存在する状況か否かの推定結果に応じて、前記所定の割合を変更する手段と、を備える。   According to one aspect of the present invention, a vehicle periphery monitoring device creates an infrared camera mounted on a vehicle and a brightness value histogram of a captured image captured by the infrared camera, and the entire frequency in the brightness value histogram Using a predetermined ratio S (%) with respect to a low luminance range in which the cumulative frequency is (100−S)% and a high luminance range in which the cumulative frequency is S%, the two are included in the high luminance range Means for extracting an object having a luminance value as a candidate for an object to be detected; determination means for determining whether the extracted candidate for an object is the object to be detected; and the object to be detected Means for notifying the driver when the object is determined. Furthermore, the apparatus is configured to estimate whether or not there are many high-temperature objects around the vehicle, and according to an estimation result whether or not there are many high-temperature objects. Means for changing the predetermined ratio.

この発明では、いわゆるPタイル法を利用する。Pタイル法によれば、輝度値ヒストグラムにおいて、全体の度数に対する所定の割合Sを用い、累積度数が(100−S)%となる低輝度範囲と、累積度数がS%となる高輝度範囲とに二分するので、2つのピークが明瞭に出現しない画像にも適用可能である。車両の周辺の状況は、走行するに従って変化し、市街地のように高温対象物が多く存在する場所がある一方で、高速道路や郊外地のように高温対象物が少ない場所がある。車両の周辺の状況にかかわらず、上記の所定の割合Sを固定すると、高温対象物が多く存在する場所では、抽出される対象物の候補に、検出すべき対象物が含まれなくなるおそれがあり、他方、高温対象物が少ない場所では、抽出される対象物の候補に、背景が含まれるおそれがある。この発明によれば、車両の周辺に高温対象物が多く存在する状況かどうかを推定し、その推定結果に応じて上記所定の割合Sを変更するので、対象物の抽出処理において、検出すべき対象物が漏れたり、背景を含んだりというような現象を、より確実に防止することができ、対象物の抽出精度を向上させることができる。   In the present invention, a so-called P tile method is used. According to the P tile method, in the luminance value histogram, a predetermined ratio S with respect to the entire frequency is used, and a low luminance range in which the cumulative frequency is (100-S)% and a high luminance range in which the cumulative frequency is S%. Therefore, the present invention can be applied to an image in which two peaks do not appear clearly. The situation around the vehicle changes as it travels, and there are places where there are many high-temperature objects such as urban areas, while there are places where there are few high-temperature objects such as highways and suburban areas. Regardless of the situation around the vehicle, if the above-mentioned predetermined ratio S is fixed, there is a possibility that the object to be detected is not included in the candidate for the extracted object in a place where there are many high-temperature objects. On the other hand, in a place where there are few high-temperature objects, the candidate for the object to be extracted may include a background. According to the present invention, it is estimated whether there are many high-temperature objects around the vehicle, and the predetermined ratio S is changed according to the estimation result. Phenomena such as leakage of an object or including a background can be prevented more reliably, and the extraction accuracy of the object can be improved.

この発明の一実施形態によると、前記推定手段は、前記撮像画像から、所定数以上の対象物が検出された場合、所定の種類の対象物が所定数以上検出された場合、該所定数以上の対象物が前記車両から所定距離内で検出された場合、および、該所定の種類の対象物が前記車両から所定距離内で所定数以上検出された場合の少なくともいずれかが満たされた場合には、前記高温対象物が多く存在する状況であると推定し、そうでない場合には、前記高温対象物が多く存在する状況ではないと推定し、前記高温対象物が多く存在する状況ではないと推定されたならば、該高温対象物が多く存在する状況であると推定された場合に比べて、前記所定の割合を低くする。   According to an embodiment of the present invention, the estimating means detects a predetermined number or more of objects when a predetermined number or more are detected from the captured image, and when a predetermined number or more of objects are detected. When the target object is detected within a predetermined distance from the vehicle and when at least one of the predetermined type of target object is detected within a predetermined distance from the vehicle is satisfied Is estimated to be a situation where there are many high-temperature objects, otherwise it is assumed that there are not many high-temperature objects, and is not a situation where many high-temperature objects exist. If it is estimated, the predetermined ratio is made lower than in the case where it is estimated that there are many high-temperature objects.

この発明によれば、撮像画像の対象物を用いて、車両の周辺の状況を推定することができる。すなわち、所定数以上の対象物が検出された場合には、歩行者等の高温対象物が多く存在する状況と推定することができる。また、所定の種類の対象物、たとえば所定の人工構造物(街灯等)が所定数以上検出されたならば、やはり、歩行者等の高温対象物が多く存在する状況と推定することができる。車両からの距離を考慮することにより、このような状況を、より正確に推定することができる。また、高温対象物が多く存在する状況ではないと推定された場合には、多く存在する状況であると推定された場合に比べて、所定の割合Sを低くするので、より適切な閾値で輝度値を二分することができ、検出すべき対象物を良好な精度で抽出することができる。   According to this invention, the situation around the vehicle can be estimated using the object of the captured image. That is, when a predetermined number or more of objects are detected, it can be estimated that there are many high-temperature objects such as pedestrians. Further, if a predetermined number of objects of a predetermined type, for example, predetermined artificial structures (such as street lamps) are detected, it can be estimated that there are many high-temperature objects such as pedestrians. By considering the distance from the vehicle, such a situation can be estimated more accurately. In addition, when it is estimated that there are not many situations where there are many high-temperature objects, the predetermined ratio S is made lower than when it is assumed that there are many situations where there are many high-temperature objects. The value can be divided into two, and the object to be detected can be extracted with good accuracy.

この発明の一実施形態によると、前記推定手段は、前記撮像画像の所定領域における輝度値の分散または平均が所定値以上である場合には、前記高温対象物が多く存在する状況であると推定し、そうでない場合には、前記高温対象物が多く存在する状況ではないと推定し、前記高温対象物が多く存在する状況ではないと推定されたならば、該高温対象物が多く存在する状況であると推定された場合に比べて、前記所定の割合を低くする。   According to an embodiment of the present invention, the estimation means estimates that the high-temperature object is present when a variance or average of luminance values in a predetermined region of the captured image is equal to or greater than a predetermined value. If not, it is estimated that the high temperature object does not exist in a large amount. If it is estimated that the high temperature object does not exist in a large amount, the high temperature object exists in a large amount. Compared to the case where it is estimated that the predetermined ratio is reduced.

この発明によれば、撮像画像の輝度値によって、車両の周辺の状況を推定することができる。すなわち、撮像画像の所定領域の輝度値の分散が高ければ、車両の周辺に歩行者や街灯等が存在することによって輝度値のばらつきが大きくなっており、よって、高温対象物が多く存在する状況であると推定することができる。また、撮像画像の所定領域の輝度値の平均値が高ければ、車両の周辺に歩行者や街灯等が存在することによって輝度値が全体的に高くなっており、よって、高温対象物が多く存在する状況であると推定することができる。さらに、高温対象物が多く存在する状況ではないと推定された場合には、多く存在する状況であると推定された場合に比べて、所定の割合Sを低くするので、より適切な閾値で輝度値を二分することができ、検出すべき対象物を良好な精度で抽出することができる。   According to the present invention, the situation around the vehicle can be estimated from the luminance value of the captured image. In other words, if the variance of the luminance value in a predetermined area of the captured image is high, the luminance value varies greatly due to the presence of pedestrians, street lamps, etc. around the vehicle, and thus there are many high-temperature objects. It can be estimated that. In addition, if the average value of the luminance value of a predetermined area of the captured image is high, the luminance value is generally high due to the presence of pedestrians, street lamps, etc. around the vehicle, and thus there are many high-temperature objects. It can be estimated that this is the situation. Furthermore, when it is estimated that there are not many high-temperature objects, the predetermined ratio S is lowered compared to the case where it is estimated that there are many high-temperature objects. The value can be divided into two, and the object to be detected can be extracted with good accuracy.

この発明の一実施形態によると、前記車両の運転状態を検出する検出手段を備え、前記推定手段は、前記検出手段によって検出された車両の運転状態に応じて、前記高温対象物が多く存在する状況であるか否かを推定する。   According to an embodiment of the present invention, the vehicle includes a detection unit that detects a driving state of the vehicle, and the estimation unit includes a large amount of the high-temperature object according to the driving state of the vehicle detected by the detection unit. Estimate whether the situation.

この発明によれば、車両の運転状態から、車両の周辺の状況を推定することができる。たとえば、車速に応じて、高温対象物が周辺にほとんど存在しない高速道路を走行しているか否かを推定することができる。   According to this invention, the situation around the vehicle can be estimated from the driving state of the vehicle. For example, according to the vehicle speed, it can be estimated whether or not the vehicle is traveling on a highway where there is almost no high-temperature object.

この発明の一実施形態によると、前記車両の現在位置を検出する検出手段を備え、前記推定手段は、前記検出手段によって検出された車両の現在位置が存在する道路および地域の少なくとも一方について取得された情報に応じて、前記高温対象物が多く存在する状況であるか否かを推定する。   According to an embodiment of the present invention, the vehicle is provided with detection means for detecting the current position of the vehicle, and the estimation means is acquired for at least one of a road and a region where the current position of the vehicle detected by the detection means exists. It is estimated whether or not there is a large amount of the high-temperature object according to the information.

この発明によれば、車両のナビゲーション機能を利用して、車両の周辺の状況を推定することができる。たとえば、車両が、高温対象物が周辺にほとんど存在しない高速道路を走行しているか否かは、車両の現在位置の道路についての情報から推定することができる。また、車両が、高温対象物が存在しやすい比較的人口の多い場所を走行しているか否かは、車両の現在位置の地域に関する情報から推定することができる。   According to this invention, the situation around the vehicle can be estimated using the navigation function of the vehicle. For example, whether or not the vehicle is traveling on a highway where there is almost no high-temperature object can be estimated from information about the road at the current position of the vehicle. In addition, whether or not the vehicle is traveling in a relatively populated place where high-temperature objects are likely to exist can be estimated from information on the current location of the vehicle.

本発明のその他の特徴及び利点については、以下の詳細な説明から明らかである。   Other features and advantages of the present invention will be apparent from the detailed description that follows.

この発明の一実施例に従う、周辺監視装置の構成を示すブロック図。The block diagram which shows the structure of the periphery monitoring apparatus according to one Example of this invention. この発明の一実施例に従う、カメラの取り付け位置を説明するための図。The figure for demonstrating the attachment position of the camera according to one Example of this invention. モード法とPタイル法の違いを説明するための図。The figure for demonstrating the difference of the mode method and P tile method. この発明の一実施例に従う、車両の周辺に高温対象物が多く存在する状況における所定の割合の設定、および、該高温対象物が多く存在しない状況における所定の割合の設定を説明するための図。The figure for demonstrating the setting of the predetermined ratio in the condition where many high temperature objects exist around the vehicle according to one Example of this invention, and the setting of the predetermined ratio in the condition where there are not many high temperature objects . この発明の一実施例に従う、対象物判定プロセスを示すフローチャート。The flowchart which shows the target object determination process according to one Example of this invention. この発明の一実施例に従う、車両の周辺の状況を推定するのに用いる撮像画像の領域の一例を示す図。The figure which shows an example of the area | region of the captured image used for estimating the condition around the vehicle according to one Example of this invention. この発明の第2の実施例に従う、周辺監視装置の構成を示すブロック図。The block diagram which shows the structure of the periphery monitoring apparatus according to 2nd Example of this invention. この発明の第3の実施例に従う、周辺監視装置の構成を示すブロック図。The block diagram which shows the structure of the periphery monitoring apparatus according to 3rd Example of this invention. この発明の第3の実施例に従う、車両の周辺の状況を推定するためのプロセスのフローチャート。The flowchart of the process for estimating the condition of the periphery of a vehicle according to 3rd Example of this invention.

次に図面を参照してこの発明の実施の形態を説明する。   Next, an embodiment of the present invention will be described with reference to the drawings.

図1は、この発明の一実施形態に従う、車両の周辺監視装置の構成を示すブロック図である。該装置は、車両に搭載され、遠赤外線を検出可能な2つの赤外線カメラ1Rおよび1Lと、カメラ1Rおよび1Lによって得られる画像データに基づいて車両周辺の対象物を検出するための画像処理ユニット2と、該検出結果に基づいて音声で警報を発生するスピーカ3と、カメラ1Rまたは1Lによって得られる画像を表示すると共に、運転者に車両周辺の対象物を認識させるための表示を行うヘッドアップディスプレイ(以下、HUDと呼ぶ)4とを備えている。   FIG. 1 is a block diagram showing a configuration of a vehicle periphery monitoring device according to an embodiment of the present invention. The apparatus is mounted on a vehicle and has two infrared cameras 1R and 1L capable of detecting far infrared rays, and an image processing unit 2 for detecting an object around the vehicle based on image data obtained by the cameras 1R and 1L. And a speaker 3 that generates an alarm by voice based on the detection result, and an image obtained by the camera 1R or 1L, and a head-up display that displays a display for allowing the driver to recognize an object around the vehicle (Hereinafter referred to as HUD) 4.

この実施例では、図2に示すように、カメラ1Rおよび1Lは、車両10の前方を撮像するよう、車両10の前部に、車幅の中心を通る中心軸に対して対称な位置に配置されている。2つのカメラ1Rおよび1Lは、両者の光軸が互いに平行となり、両者の路面からの高さが等しくなるように車両に固定されている。赤外線カメラ1Rおよび1Lは、対象物の温度が高いほど、その出力信号のレベルが高くなる(すなわち、撮像画像における輝度が大きくなる)特性を有している。   In this embodiment, as shown in FIG. 2, the cameras 1 </ b> R and 1 </ b> L are arranged at positions symmetric with respect to the central axis passing through the center of the vehicle width at the front of the vehicle 10 so as to capture the front of the vehicle 10. Has been. The two cameras 1R and 1L are fixed to the vehicle so that their optical axes are parallel to each other and their height from the road surface is equal. The infrared cameras 1R and 1L have a characteristic that the level of the output signal becomes higher (that is, the luminance in the captured image becomes higher) as the temperature of the object is higher.

画像処理ユニット2は、入力アナログ信号をデジタル信号に変換するA/D変換回路、デジタル化した画像信号を記憶する画像メモリ、各種演算処理を行う中央演算処理装置(CPU)、CPUが演算に際してデータを記憶するのに使用するRAM(ランダムアクセスメモリ)、CPUが実行するプログラムおよび用いるデータ(テーブル、マップを含む)を記憶するROM(リードオンリーメモリ)、スピーカ3に対する駆動信号およびHUD4に対する表示信号などを出力する出力回路を備えている。カメラ1Rおよび1Lの出力信号は、デジタル信号に変換されてCPUに入力されるよう構成されている。HUD4は、図2に示すように、車両10のフロントウィンドウの、運転者の前方位置に画面4aが表示されるように設けられている。こうして、運転者は、HUD4に表示される画面を視認することができる。   The image processing unit 2 includes an A / D conversion circuit that converts an input analog signal into a digital signal, an image memory that stores a digitized image signal, a central processing unit (CPU) that performs various arithmetic processing, and a data RAM (Random Access Memory) used to store data, ROM (Read Only Memory) that stores programs executed by the CPU and data used (including tables and maps), driving signals for the speaker 3, display signals for the HUD 4, etc. Is provided. The output signals of the cameras 1R and 1L are converted into digital signals and input to the CPU. As shown in FIG. 2, the HUD 4 is provided so that a screen 4 a is displayed at a front position of the driver on the front window of the vehicle 10. Thus, the driver can visually recognize the screen displayed on the HUD 4.

ここで、具体的な実施例を述べる前に、図3〜図5を参照して本願発明の基本的な考え方を述べる。   Here, before describing specific embodiments, the basic concept of the present invention will be described with reference to FIGS.

図3を参照すると、(a)は、一の撮像画像の輝度値ヒストグラムを示し、(b)は、他の撮像画像の輝度値ヒストグラムを示す。撮像画像の輝度値を二分するのは、高温対象物領域を、それ以外の背景領域から区別するためである。前述したように、撮像画像の輝度値を二分する手法として、いわゆるモード法と呼ばれるものがある。(a)のように、背景に対応するピーク111と高温対象物に対応するピーク113が明瞭に出現した場合には、両者のピークの間に閾値THを設定することにより、高温対象物を、背景から良好に分離して抽出することができる。   Referring to FIG. 3, (a) shows a luminance value histogram of one captured image, and (b) shows a luminance value histogram of another captured image. The reason why the brightness value of the captured image is divided is to distinguish the high-temperature object region from the other background regions. As described above, there is a so-called mode method as a method for dividing the luminance value of a captured image into two. As in (a), when the peak 111 corresponding to the background and the peak 113 corresponding to the high temperature object clearly appear, by setting a threshold value TH between the two peaks, It can be extracted well separated from the background.

しかしながら、車両の周辺の状況によっては、(b)のように、上記のような2つのピークが明瞭に出現しない輝度値ヒストグラムが得られる場合もある。このような場合に対処するため、この発明では、Pタイル法を用いる。   However, depending on the situation around the vehicle, there may be a luminance value histogram in which the above two peaks do not appear clearly as shown in (b). In order to cope with such a case, the present invention uses the P tile method.

Pタイル法は、周知のごとく、ヒストグラムの全体の度数(最小輝度値Lから最大輝度値Hまでの度数の和)に対して所定の割合S(%)を設定し、累積度数がS%となる高輝度範囲と、累積度数が(100―S)%となる低輝度範囲とに、輝度値を二分する方法である。図には、高輝度範囲が、斜線が付された領域A1によって示され、低輝度範囲は、領域A2によって示されている。領域A1と領域A2の面積比率は、S:(100−S)である。   As is well known, in the P tile method, a predetermined ratio S (%) is set for the entire frequency of the histogram (the sum of the frequencies from the minimum luminance value L to the maximum luminance value H), and the cumulative frequency is S%. In this method, the luminance value is divided into a high luminance range and a low luminance range in which the cumulative frequency is (100-S)%. In the figure, the high luminance range is indicated by a hatched area A1, and the low luminance range is indicated by an area A2. The area ratio between the region A1 and the region A2 is S: (100-S).

たとえば、ヒストグラムの全体の度数を1000個(撮像画像の画素数に相当する)とし、所定の割合Sを30%とすると、輝度値の最大値Hから度数を加算していき、その累積度数が、1000×S(%)である300個に達した所の輝度値を、閾値THとする。撮像画像の輝度値は、閾値TH以上の高輝度範囲A1と、THより低い低輝度範囲A2とに、二分される。閾値TH以上の高輝度範囲A1内の輝度値を有する対象物が、高温対象物として抽出される。   For example, if the total frequency of the histogram is 1000 (corresponding to the number of pixels of the captured image) and the predetermined ratio S is 30%, the frequency is added from the maximum value H of the luminance value, and the cumulative frequency is , 1000 × S (%), the luminance value at which 300 pieces are reached is defined as a threshold value TH. The luminance value of the captured image is divided into a high luminance range A1 that is equal to or higher than the threshold TH and a low luminance range A2 that is lower than TH. An object having a luminance value in the high luminance range A1 equal to or higher than the threshold value TH is extracted as a high temperature object.

このように、Pタイル法を用いれば、2つのピークが出現しない撮像画像についても輝度値を二分することができる。しかしながら、上記の所定の割合(比率)Sを固定値にすると、所望の対象物を背景から良好に分離して抽出することは困難である。   Thus, if the P tile method is used, the luminance value can be divided into two even for a captured image in which two peaks do not appear. However, if the predetermined ratio (ratio) S is set to a fixed value, it is difficult to extract the desired object by separating it well from the background.

この点について説明すると、図4の(a)は、市街地の幹線道路を走行している場合に車両に搭載されたカメラ1Rで撮像された画像(グレースケール画像)の一例を示し、図4の(b)は、郊外の一般道路を走行している場合に車両に搭載されたカメラ1Rで撮像された画像(グレースケール画像)の一例を示す。赤外線カメラを用いているので、対象物が高温なほど、白い領域として撮像されている。   This point will be described. FIG. 4A shows an example of an image (grayscale image) captured by the camera 1R mounted on the vehicle when traveling on a main road in an urban area. (B) shows an example of an image (grayscale image) captured by the camera 1R mounted on the vehicle when traveling on a general road in the suburbs. Since the infrared camera is used, the higher the temperature of the object, the more white the image is captured.

両者を比較して明らかなように、(a)のような場所を走行していると、歩行者101等の高温対象物だけでなく、他の車両103や街灯105のような比較的高温を呈する人工構造物が多く存在しており、そのために、撮像画像上には、白または白に近い画像領域が多く存在する。他方、(b)のような場所を走行していると、車両の周辺には高温対象物がほとんど存在せず、この例では、動物107が存在しているにすぎない。そのため、(a)に比べて、白または白に近い画像領域が少ない。   As is clear from comparison between the two, when driving in a place such as (a), not only high-temperature objects such as pedestrians 101 but also relatively high temperatures such as other vehicles 103 and street lamps 105 are generated. There are many artificial structures to be presented, and for this reason, many image regions that are white or close to white exist on the captured image. On the other hand, when traveling in a place such as (b), there are almost no high-temperature objects around the vehicle, and in this example, there is only an animal 107. Therefore, compared with (a), there are few image areas close to white or white.

(c)は、(a)のような車両の周辺に高温対象物が多く存在している状況で撮像された画像の輝度値ヒストグラムを示し、(d)は、(b)のような車両の周辺に高温対象物がほとんど存在しない状況で撮像された画像の輝度値ヒストグラムを示す。両者を比較して明らかなように、(c)では、矢印121に示すように、輝度の高い領域で度数が高くなっているが、(d)では、矢印123に示すように、輝度の高い領域での度数が低い。   (C) shows a luminance value histogram of an image taken in a situation where there are many high-temperature objects around the vehicle as shown in (a), and (d) shows the vehicle as shown in (b). The brightness | luminance value histogram of the image imaged in the condition where a high temperature target object hardly exists in the periphery is shown. As is clear by comparing the two, in (c), the frequency is high in the high luminance region as shown by the arrow 121, but in (d), the luminance is high as shown by the arrow 123. The frequency in the area is low.

高温対象物を背景から良好に分離するためには、輝度の高い領域で度数が高くなっている部分(山の部分)のみを、他の部分と分離するのが望ましい。したがって、(a)では、上記のPタイル法による所定の割合Sを、高めの値S2に設定し、(b)では、該所定の割合Sを、低めの値S1(<S2)に設定するのが好ましい。図には、所定の割合がS2である場合の閾値がTH2で示され、所定の割合がS1である場合の閾値がTH1で示されている。前述したように、閾値TH2は、(c)の輝度値ヒストグラムにおいて、輝度値の最大値Hから度数を加算していき、その度数の合計が、全体の度数に対するS2(%)となった所の輝度値であり、閾値TH1は、(d)の輝度値ヒストグラムにおいて、輝度値の最大値Hから度数を加算していき、その度数の合計が、全体の度数に対するS1(%)となった所の輝度値である。   In order to satisfactorily separate the high-temperature object from the background, it is desirable to separate only the portion (mountain portion) where the frequency is high in the high luminance region from other portions. Therefore, in (a), the predetermined ratio S according to the P tile method is set to a higher value S2, and in (b), the predetermined ratio S is set to a lower value S1 (<S2). Is preferred. In the figure, the threshold when the predetermined ratio is S2 is indicated by TH2, and the threshold when the predetermined ratio is S1 is indicated by TH1. As described above, the threshold value TH2 is obtained by adding the frequencies from the maximum value H of the luminance values in the luminance value histogram of (c), and the total of the frequencies becomes S2 (%) with respect to the entire frequency. In the luminance value histogram of (d), the threshold value TH1 is obtained by adding the frequencies from the maximum value H of the luminance values, and the total of the frequencies becomes S1 (%) with respect to the overall frequency. Brightness value.

(c)では、閾値TH2以上の高輝度範囲A1(斜線で示されている)内の輝度値を有する対象物が、高温対象物として抽出され、(d)では、閾値TH1以上の高輝度範囲A1(斜線で示されている)内の輝度値を有する対象物が、高温対象物として抽出される。   In (c), an object having a luminance value in the high luminance range A1 (shown by hatching) equal to or higher than the threshold TH2 is extracted as a high temperature object, and in (d), a high luminance range equal to or higher than the threshold TH1. An object having a luminance value within A1 (indicated by diagonal lines) is extracted as a high temperature object.

仮に、(c)のような輝度値ヒストグラムに、所定の割合Sとして低めの値S1を設定すると、図の点線125で二分されることとなる。これでは、高温対象物として抽出すべき領域の一部が、高輝度範囲A1から外れてしまい、よって、高温対象物のみを背景から分離することが困難となる。また、(d)のような輝度値ヒストグラムに、所定の割合Sとして高めの値S2を設定すると、図の点線127で二分されることとなる。これでは、高温対象物として抽出される高輝度範囲に背景部分を含んでしまい、よって、高温対象物のみを背景から分離することが困難となる。   If a lower value S1 is set as the predetermined ratio S in the luminance value histogram as shown in (c), the luminance value histogram is bisected by the dotted line 125 in the figure. In this case, a part of the region to be extracted as the high temperature object is out of the high luminance range A1, and thus it is difficult to separate only the high temperature object from the background. Further, when a higher value S2 is set as the predetermined ratio S in the luminance value histogram as shown in (d), it is divided into two by the dotted line 127 in the figure. In this case, the background portion is included in the high luminance range extracted as the high temperature object, and thus it is difficult to separate only the high temperature object from the background.

よって、この発明では、車両の周辺の状況を推定し、(a)のような高温対象物が多く存在する状況と推定されたならば、(c)のように、所定の割合Sを高めの値S2に設定する。他方、車両の周辺の状況を推定し、(b)のような高温対象物が多く存在する状況ではないと推定されたならば、(d)のように、所定の割合Sを低めの値S1に設定する。車両の周辺の状況に応じて、輝度値を二分するための所定の割合Sを変更するので、車両の周辺の状況に適したように、撮像画像の輝度値を二分することができ、よって、高温対象物を背景から良好に分離して抽出することができる。   Therefore, in the present invention, if the situation around the vehicle is estimated and it is estimated that there are many high-temperature objects as shown in (a), the predetermined ratio S is increased as shown in (c). Set to the value S2. On the other hand, if the situation around the vehicle is estimated and it is estimated that there are not many high-temperature objects as in (b), the predetermined ratio S is set to a lower value S1 as shown in (d). Set to. Since the predetermined ratio S for dividing the luminance value into two according to the situation around the vehicle is changed, the luminance value of the captured image can be divided into two so as to be suitable for the situation around the vehicle. A high temperature object can be well separated from the background and extracted.

以下の実施例では、図4の(a)および(c)のような、所定の割合Sに高めの値S2が設定されるべき状況、すなわち車両の周辺に高温の対象物が多く存在する状況を第1の状況とし、図4の(b)および(d)のような、所定の割合Sに低めの値S1が設定されるべき状況、すなわち車両の周辺に高温の対象物が多く存在しない状況を第2の状況と呼ぶ。   In the following embodiments, as shown in FIGS. 4A and 4C, a situation where a high value S2 should be set to the predetermined ratio S, that is, a situation where there are many high-temperature objects around the vehicle. Is the first situation, as shown in FIGS. 4B and 4D, a situation where a lower value S1 should be set to the predetermined ratio S, that is, there are not many high-temperature objects around the vehicle. The situation is called the second situation.

図5は、この発明の一実施例に従う、画像処理ユニット2によって実行されるプロセスを示すフローチャートである。該プロセスは、所定の時間間隔で実行される。   FIG. 5 is a flowchart illustrating a process performed by the image processing unit 2 according to one embodiment of the present invention. The process is performed at predetermined time intervals.

ステップS11〜S13において、カメラ1Rおよび1Lの出力信号(すなわち、撮像画像のデータ)を入力として受け取り、これをA/D変換して、画像メモリに格納する。格納される画像データは、輝度情報を含んだグレースケール画像である。   In steps S11 to S13, the output signals of the cameras 1R and 1L (that is, captured image data) are received as input, A / D converted, and stored in the image memory. The stored image data is a gray scale image including luminance information.

ステップS14において、グレースケール画像(右画像でよく、代替的に、左画像でもよい)の輝度値ヒストグラムを作成する。ステップS15において、車両の周辺の状況を推定する。この推定手法についての詳細は後述される。   In step S14, a luminance value histogram of a gray scale image (which may be a right image or alternatively a left image) is created. In step S15, the situation around the vehicle is estimated. Details of this estimation method will be described later.

ステップS16において、推定の結果、前述した第1の状況が推定されたならば、ステップS17において、Pタイル法で用いる所定の割合Sを、所定値S2に設定する。前述した第2の状況が推定されたならば、ステップS18において、該所定の割合Sを、所定値S1に設定する。ここで、S1<S2である。こうして、第1の状況すなわち車両周辺に高温対象物が多く存在する状況が推定された場合には、所定の割合Sが高めの値S2に設定され、そうでない第2の状況では、所定の割合Sが低めの値S1に設定される。したがって、第1の状況においては、歩行者や動物等の生体が、抽出される高輝度範囲から外れて背景に分類されてしまうのを防止すると共に、第2の状況においては、背景が、抽出される高輝度範囲に含まれてしまうのを、より確実に防止することができる。結果として、車両の周辺の状況に適したように、輝度値を二分することができる。   If the first situation is estimated as a result of estimation in step S16, a predetermined ratio S used in the P tile method is set to a predetermined value S2 in step S17. If the above-described second situation is estimated, in step S18, the predetermined ratio S is set to a predetermined value S1. Here, S1 <S2. Thus, when it is estimated that the first situation, that is, a situation where there are many high-temperature objects around the vehicle, the predetermined ratio S is set to a higher value S2, and in the second situation that is not the case, the predetermined ratio S is set. S is set to a lower value S1. Therefore, in the first situation, a living body such as a pedestrian or an animal is prevented from being classified as a background outside the extracted high luminance range, and in the second situation, the background is extracted. It can prevent more reliably that it will be included in the high-intensity range. As a result, the luminance value can be divided into two so as to be suitable for the situation around the vehicle.

ステップS21において、右画像を基準画像とし(代替的に、左画像を基準画像としてもよい)、その画像信号の2値化を、所定の割合Sを用いたPタイル法によって行う。所定の割合S(%)に所定値S1が設定された場合には、輝度値ヒストグラムの全体の度数Nに対し、該ヒストグラム上の最大輝度値Hから、N×S1(%)個分の輝度値の画素については「1」(白)とし、それ以外の輝度値の画素については「0」(黒)とする。言い換えれば、前述したように、該所定の割合S1に対応する閾値TH1を求め、該閾値TH1以上の輝度値の画素については「1」(白)とし、該閾値TH1より低い輝度値の画素については「黒」(0)とする。この2値化処理により、閾値TH1に対応する温度以上の対象物が、白領域として抽出される。所定の割合Sに所定値S2が設定された場合も、同様の手法で2値化が行われる。   In step S21, the right image is used as a reference image (alternatively, the left image may be used as a reference image), and the binarization of the image signal is performed by the P tile method using a predetermined ratio S. When the predetermined value S1 is set to the predetermined ratio S (%), N × S1 (%) luminances from the maximum luminance value H on the histogram with respect to the total frequency N of the luminance value histogram. The value pixel is “1” (white), and the other luminance value pixels are “0” (black). In other words, as described above, the threshold value TH1 corresponding to the predetermined ratio S1 is obtained, and a pixel having a luminance value equal to or higher than the threshold value TH1 is set to “1” (white), and a pixel having a luminance value lower than the threshold value TH1 is set. Is “black” (0). By this binarization processing, an object having a temperature equal to or higher than the threshold value TH1 is extracted as a white region. Even when the predetermined value S2 is set to the predetermined ratio S, binarization is performed by the same method.

ステップS22において、2値化した画像データを、ランレングスデータに変換する。具体的には、2値化により白となった領域について、各画素行の該白領域(ラインと呼ぶ)の開始点(各ラインの左端の画素)の座標と、開始点から終了点(各ラインの右端の画素)までの長さ(画素数で表される)とで、ランレングスデータを表す。たとえば、y座標がy1である画素行における白領域が、(x1,y1)から(x3,y1)までのラインであるとすると、このラインは3画素からなるので、(x1,y1,3)というランレングスデータで表される。   In step S22, the binarized image data is converted into run-length data. Specifically, with respect to an area that has become white due to binarization, the coordinates of the start point (the leftmost pixel of each line) of the white area (referred to as a line) of each pixel row and the end point (each The run length data is represented by the length (expressed by the number of pixels) up to the pixel on the right end of the line. For example, if the white region in the pixel row whose y coordinate is y1 is a line from (x1, y1) to (x3, y1), this line consists of three pixels, so (x1, y1, 3) This is represented by run-length data.

ステップS23およびS24において、対象物のラベリングを行い、対象物を抽出する処理を行う。すなわち、ランレングスデータ化したラインのうち、y方向に重なる部分のあるラインを合わせて1つの対象物とみなし、これにラベルを付与する。こうして、1または複数の対象物の候補が抽出される。   In steps S23 and S24, the object is labeled and the object is extracted. That is, of the lines converted into run length data, a line having a portion overlapping in the y direction is regarded as one object, and a label is given thereto. In this way, one or a plurality of object candidates are extracted.

ステップS25において、抽出された対象物候補が、検出すべき対象物かどうかを判定するための対象物判定プロセスを実行する。具体的には、抽出された対象物が、歩行者であるか、動物であるか、人工構造物であるかの判定が行われる。これらの判定は、任意の既知の手法を用いて行われることができる。たとえば、歩行者判定処理は、特開2007−241740号公報、特開2007−334751号公報等に記載されている。たとえば、動物判定処理は、特開2007−310705号公報、特開2007−310706号公報等に記載されている。たとえば、人工構造物判定処理については、特開2007−310705号公報、特開2008−276787号公報等に記載されている。   In step S25, an object determination process for determining whether or not the extracted object candidate is an object to be detected is executed. Specifically, it is determined whether the extracted object is a pedestrian, an animal, or an artificial structure. These determinations can be made using any known technique. For example, pedestrian determination processing is described in Japanese Patent Application Laid-Open No. 2007-241740, Japanese Patent Application Laid-Open No. 2007-334751, and the like. For example, the animal determination processing is described in JP2007-310705A, JP2007-310706A, and the like. For example, the artificial structure determination processing is described in Japanese Unexamined Patent Application Publication No. 2007-310705, Japanese Unexamined Patent Application Publication No. 2008-276787, and the like.

ステップS26では、ステップS25で判定された対象物が、検出すべき対象物ならば、通報(警報)を行う。この実施例では、検出すべき対象物は、歩行者や動物等の生体である。したがって、対象物が歩行者や動物等の生体であると判定された場合には、運転者に対して通報を出力する。通報は、任意の形態で出力されることができ、たとえば、HUD4の表示画面4a上に撮像画像を表示し、該撮像画像上に撮像されている対象物を強調表示(たとえば、対象物を枠で囲んで表示)することができる。また、このような強調表示に加え、または強調表示に代えて、スピーカ3を介して対象物が存在することを運転者に知らせてもよい。他方、ステップS25で判定された対象物が、人工構造物である場合には、警通報の対象物ではないので、通報することなく当該プロセスを抜ける。   In step S26, if the object determined in step S25 is an object to be detected, a notification (alarm) is made. In this embodiment, the object to be detected is a living body such as a pedestrian or an animal. Therefore, when it is determined that the object is a living body such as a pedestrian or an animal, a report is output to the driver. The notification can be output in an arbitrary form. For example, the captured image is displayed on the display screen 4a of the HUD 4, and the object captured on the captured image is highlighted (for example, the object is framed). (Displayed by enclosing). Further, in addition to such highlighting or instead of highlighting, the driver may be informed through the speaker 3 that an object is present. On the other hand, if the object determined in step S25 is an artificial structure, it is not a warning object, and the process is exited without notification.

なお、以上の処理に加え、過去の複数の撮像画像について、同一対象物を追跡(トラッキング)すると共に、対象物への距離を、カメラ1Rおよび1Lの2枚の撮像画像に基づいて算出し、対象物が、車両の周辺の所定範囲に存在するかどうか、および該所定範囲に侵入するおそれがあるかどうかを判定するようにしてもよい。これらの処理の詳細は、たとえば特開2001−006096号公報に記載されている。   In addition to the above processing, for a plurality of past captured images, the same object is tracked (tracked), and the distance to the object is calculated based on the two captured images of the cameras 1R and 1L. You may make it determine whether a target object exists in the predetermined range around a vehicle, and whether there exists a possibility of entering the predetermined range. Details of these processes are described in, for example, JP-A-2001-006096.

以下に、ステップS15で実施される、車両の周辺の状況を推定する処理について、いくつかの実施例を説明する。   Hereinafter, several embodiments of the process for estimating the situation around the vehicle, which is performed in step S15, will be described.

第1の実施例では、ステップS13で取得された撮像画像(グレースケール画像)を用いて、この推定を行う。撮像画像を用いた場合、さらに以下の2つの形態が考えられる。
1)撮像画像の輝度値を用いた形態
2)撮像画像に撮像されている対象物を用いた形態
In the first embodiment, this estimation is performed using the captured image (grayscale image) acquired in step S13. When a captured image is used, the following two forms can be considered.
1) Form using brightness value of captured image 2) Form using target object captured in captured image

上記1)について説明すると、図4の(a)と(b)を比較して明らかなように、(a)の撮像画像においては、車両の左右周辺に、背景よりも高温の対象物が様々に点在しているのに対し、(b)の撮像画像においては、車両の左右周辺においてこのような点在は見られず、ほとんど背景部分となっている。   The above 1) will be described. As is clear from comparison between FIGS. 4A and 4B, in the captured image of FIG. 4A, there are various objects at higher temperatures than the background around the left and right sides of the vehicle. On the other hand, in the captured image of (b), such a dot is not seen around the left and right sides of the vehicle and is almost a background portion.

したがって、図6(a)および(b)に示すように、図4(a)および(b)のそれぞれの撮像画像の所定の領域、好ましくは撮像画像の左右端に設定された所定領域131Lおよび131Rの輝度値の分散を算出する。(a)のような状況下では、上記のように様々な対象物が点在しているので、領域131Lおよび131Rの輝度値のばらつき、すなわち分散は高くなる。他方、(b)のような状況下では、対象物が車両周辺にほとんど存在しないので、領域131Lおよび131Rの輝度値のばらつき、すなわち分散は低くなる。   Therefore, as shown in FIGS. 6A and 6B, a predetermined area of each captured image in FIGS. 4A and 4B, preferably a predetermined area 131L set at the left and right ends of the captured image, and The variance of the luminance value of 131R is calculated. Under the situation as shown in (a), since various objects are interspersed as described above, the variation in the luminance values of the regions 131L and 131R, that is, the variance becomes high. On the other hand, in the situation as shown in (b), since the object is hardly present around the vehicle, the luminance values of the regions 131L and 131R, that is, the dispersion, becomes low.

したがって、一例では、撮像画像の所定領域131Lおよび131Rの輝度値の分散(標準偏差でもよい)を算出し、該分散の値が所定値より高ければ第1の状況と推定し、該所定値以下であれば第2の状況と推定する。   Therefore, in one example, the variance (which may be a standard deviation) of the luminance values of the predetermined regions 131L and 131R of the captured image is calculated, and if the variance value is higher than the predetermined value, the first situation is estimated, and less than the predetermined value If so, the second situation is estimated.

分散に代えて、平均値を用いてもよい。図6(a)の領域131Lおよび131Rには、車両の周辺に存在する対象物によって高輝度が多く含まれるのに対し、図6(b)の領域131Lおよび131Rには、このような対象物がほとんど存在しないため、高輝度が含まれることも少ないからである。   Instead of the variance, an average value may be used. The areas 131L and 131R in FIG. 6A include a lot of high luminance depending on the objects present around the vehicle, whereas the areas 131L and 131R in FIG. This is because there is little inclusion of high luminance.

したがって、他の例では、撮像画像の左右端の所定領域131Lおよび131Rの輝度値の平均値を算出し、該平均値が所定値より高ければ第1の状況と推定し、該所定値以下であれば第2の状況と推定する。   Therefore, in another example, the average value of the luminance values of the predetermined regions 131L and 131R at the left and right ends of the captured image is calculated, and if the average value is higher than the predetermined value, the first situation is estimated, and below the predetermined value If there is, the second situation is estimated.

ここで、所定領域131Lおよび131Rは、図6に示すように、撮像画像の左右端に設定されるのが好ましい。車両が道路を走行しているとき、(a)のような市街地においては、該道路の左右に、歩行者や建物等の人工構造物が存在する。他方、撮像画像の中央の領域は、道路前方の領域であるので、これらの対象物が撮像されない可能性がある。したがって、該道路の左右に存在するこれらの対象物が撮像されるように、撮像画像の左右端に所定領域131Lおよび131Rは設定されるのがよい。さらに、道路の左右に存在する対象物が撮像されるように、所定領域131Lおよび131Rの水平方向の幅は設定されるのがよい。   Here, the predetermined areas 131L and 131R are preferably set at the left and right ends of the captured image as shown in FIG. When the vehicle is traveling on a road, in a city area such as (a), there are artificial structures such as pedestrians and buildings on the left and right of the road. On the other hand, since the center area of the captured image is an area in front of the road, these objects may not be captured. Therefore, the predetermined areas 131L and 131R are preferably set at the left and right ends of the captured image so that these objects existing on the left and right of the road are imaged. Furthermore, the horizontal widths of the predetermined areas 131L and 131R are preferably set so that the objects present on the left and right sides of the road are imaged.

また、所定領域を下方に伸長すると、該所定領域に道路が含まれるおそれがある。さらに、高い建物が無い場合には、所定領域を上方に伸長すると、該所定領域に空が含まれるおそれがある。道路や空の部分が所定領域に含まれると、(a)のような市街地でも、分散や平均が低く算出されるおそれがある。このようなことを防止するため、所定領域の垂直方向の長さは、道路や空を含まないように、画像の底辺から所定距離離れた所から、画像の上辺から所定距離離れた所まで伸長するよう設定されるのがよい。   Further, if the predetermined area is extended downward, the predetermined area may include a road. Furthermore, when there is no tall building, if the predetermined area is extended upward, there is a possibility that the predetermined area includes a sky. If roads and sky parts are included in the predetermined area, the variance and average may be calculated low even in urban areas such as (a). To prevent this, the vertical length of the predetermined area extends from a distance from the bottom of the image to a distance from the top of the image so as not to include roads and sky. It should be set to do.

次に、上記2)について説明すると、図4(a)のように、高温対象物が周辺に多く存在する状況で撮像された画像からは、図4(b)のような撮像画像に比べて、抽出される対象物の個数が多い。この点に着目し、一例では、抽出される対象物の個数から、車両の周辺の状況を推定する。   Next, the above 2) will be described. As shown in FIG. 4 (a), an image taken in a situation where many high-temperature objects exist in the vicinity is compared with a taken image as shown in FIG. 4 (b). The number of objects to be extracted is large. Focusing on this point, in one example, the situation around the vehicle is estimated from the number of extracted objects.

具体的には、ステップS15が実行される時点では、上で述べたように、今回撮像した画像については、未だ対象物の抽出処理は行われていない。他方、図5のプロセスは、よりリアルタイムに対象物の通報を行うため、その実行サイクル(周期)は比較的短く設定される(たとえば、100ミリ秒)ので、今回の撮像画像と前回の撮像画像の差異は小さい。したがって、前回の撮像画像を用いることができる。   Specifically, at the time when step S15 is executed, as described above, the object extraction process has not yet been performed on the image captured this time. On the other hand, since the process of FIG. 5 reports an object in real time, its execution cycle (period) is set to be relatively short (for example, 100 milliseconds), so the current captured image and the previous captured image The difference is small. Therefore, the previous captured image can be used.

すなわち、前回のサイクルで図5のプロセスを実行した時点でステップS24において抽出された対象物の個数が所定値以上ならば、第1の状況と推定し、該所定値より少なければ、第2の状況と推定する。代替的に、前回のサイクルまで連続して撮像された所定数の撮像画像に対する対象物抽出結果を用いてもよい。たとえば、撮像画像1枚あたりの対象物抽出個数の平均値を算出し、該平均値が所定値以上ならば、第1の状況と推定し、該所定値より小さければ、第2の状況と推定する。   That is, when the number of objects extracted in step S24 is greater than or equal to a predetermined value at the time when the process of FIG. 5 is executed in the previous cycle, the first situation is estimated. Estimate the situation. Alternatively, the object extraction results for a predetermined number of captured images that are continuously captured until the previous cycle may be used. For example, an average value of the number of object extractions per captured image is calculated. If the average value is equal to or greater than a predetermined value, the first situation is estimated. If the average value is smaller than the predetermined value, the second situation is estimated. To do.

また、他の例では、所定の種類の対象物の個数から、車両の周辺の状況を推定する。所定の種類の対象物として、一例では、人工構造物を用いる。図4(a)のように、高温対象物が車両周辺に多く存在する状況は、或る程度以上の人口が存在している場所で起こり、よって、人工構造物の数が多い場所で起こると考えることができる。したがって、人工構造物の数に応じて、車両周辺の状況を推定する。具体的には、人工構造物の判定処理は、図5のステップS25で行われるので、今回の撮像画像については未だ人工構造物は判定されていない。したがって、前回の撮像画像を用いる。前回のサイクルで図5のプロセスを実行した時点でステップS25において判定された人工構造物の個数が所定値以上ならば、第1の状況と推定し、該所定値より少なければ、第2の状況と推定する。代替的に、前回のサイクルまで連続して撮像された所定数の撮像画像に対する人工構造物判定結果を用いてもよい。たとえば、撮像画像1枚あたりの人工構造物の個数の平均値を算出し、該平均値が所定値以上ならば、第1の状況と推定し、該所定値より小さければ、第2の状況と推定する。   In another example, the situation around the vehicle is estimated from the number of objects of a predetermined type. In one example, an artificial structure is used as the predetermined type of object. As shown in FIG. 4 (a), a situation where many high-temperature objects exist around the vehicle occurs in a place where a certain population or more exists, and therefore, occurs in a place where the number of artificial structures is large. Can do. Therefore, the situation around the vehicle is estimated according to the number of artificial structures. Specifically, since the determination process of the artificial structure is performed in step S25 of FIG. 5, the artificial structure has not yet been determined for the current captured image. Therefore, the previous captured image is used. If the number of the artificial structures determined in step S25 at the time of executing the process of FIG. 5 in the previous cycle is greater than or equal to a predetermined value, the first situation is estimated, and if it is less than the predetermined value, the second situation is estimated. Estimated. Alternatively, an artificial structure determination result for a predetermined number of captured images that are continuously captured until the previous cycle may be used. For example, an average value of the number of artificial structures per captured image is calculated. If the average value is equal to or greater than a predetermined value, the first situation is estimated. If the average value is smaller than the predetermined value, the second situation is calculated. presume.

ここで、個数を数える対象となる人工構造物の種類を、さらに特定してもよい。該特定の種類の人工構造物が所定数以上存在するかどうかに応じて、第1または第2の状況を推定してもよい。該特定の種類は、高温対象物が多く存在する場所で存在する種類のものとして選択される。たとえば、市街地では、所定高さ以上の照明物(街灯、看板のライト、建物のライトを含む)が多く存在しており、これを、特定の種類の人工構造物とすることができる。特定する種類の数は、1つでもよく、複数でもよい。複数の場合は、いずれかの種類の人工構造物の数が所定数以上かどうかに応じて第1または第2の状況を推定してもよいし、すべての種類の人工構造物の数が所定数以上かどうかに応じて第1または第2の状況を推定してもよい。   Here, you may further specify the kind of artificial structure used as the object which counts. The first or second situation may be estimated depending on whether or not there are a predetermined number or more of the specific type of artificial structure. The specific type is selected as a type that exists where there are many high-temperature objects. For example, in an urban area, there are many illuminating objects (including street lamps, signboard lights, and building lights) having a predetermined height or more, and this can be a specific type of artificial structure. The number of types to be specified may be one or plural. In the case of a plurality of cases, the first or second situation may be estimated according to whether the number of any type of artificial structures is equal to or greater than a predetermined number, and whether the number of all types of artificial structures is equal to or greater than the predetermined number. Depending on, the first or second situation may be estimated.

なお、人工構造物の種類の判定は、ステップS25の対象物判定処理に含めることができる。典型的には、形状および大きさの観点から、人工構造物の種類を特定することが行われる。たとえば、該特定の種類の人工構造物の形状をモデル化したテンプレートを用いて周知の形状マッチングを行うと共に、抽出された対象物の実空間での大きさが、該特定の種類の人工構造物に相当する範囲内かどうかを判断する。形状マッチングを行った結果の類似度(相関の程度)が所定値より高く、かつ算出された大きさが、該特定の種類の人工構造物に相当する範囲内であれば、対象物が、該特定の種類の人工構造物であると判定する。代替的に、形状および大きさのいずれか一方に基づいて、該特定の種類の人工構造物を判定してもよい。   The determination of the type of artificial structure can be included in the object determination process in step S25. Typically, the type of artificial structure is specified from the viewpoint of shape and size. For example, well-known shape matching is performed using a template that models the shape of the specific type of artificial structure, and the size of the extracted target in real space is the specific type of artificial structure. It is judged whether it is within the range corresponding to. If the degree of similarity (degree of correlation) as a result of shape matching is higher than a predetermined value and the calculated size is within a range corresponding to the specific type of artificial structure, the object is It is determined that it is a specific type of artificial structure. Alternatively, the particular type of artificial structure may be determined based on either shape and size.

上記の所定の種類の対象物として、他の例では、歩行者を用いる。歩行者の数が多ければ、高温対象物が周辺に多く存在する状況を示すからである。この場合、前回の撮像画像を用い、前回のサイクルで図5のプロセスを実行した時点でステップS25において判定された歩行者の数が所定値以上ならば、第1の状況と推定し、該所定値より少なければ、第2の状況と推定する。人工構造物の場合と同様に、前回のサイクルまで連続して撮像された所定数の撮像画像に対する歩行者判定結果を用いてもよい。   In another example, a pedestrian is used as the predetermined type of object. This is because a large number of pedestrians indicates a situation in which many high-temperature objects exist in the vicinity. In this case, if the number of pedestrians determined in step S25 is greater than or equal to a predetermined value when the previous captured image is used and the process of FIG. 5 is executed in the previous cycle, the first situation is estimated and the predetermined If it is less than the value, the second situation is estimated. As in the case of an artificial structure, pedestrian determination results for a predetermined number of captured images that are continuously captured until the previous cycle may be used.

なお、上記の対象物の数または所定の種類の対象物の数は、車両から所定の距離値内に存在するものを対象に数えるようにしてもよい。こうすることにより、車両の近傍の状況を、より確実に見極めることができる。ここで、対象物の車両からの距離は、この実施例では、図1に示すように一対のカメラ1Rおよび1Lを用いているので、周知の三角測量法を用いて算出されることができる。   Note that the number of objects or the number of objects of a predetermined type may be counted for objects existing within a predetermined distance value from the vehicle. By doing so, the situation in the vicinity of the vehicle can be more reliably determined. Here, in this embodiment, since the pair of cameras 1R and 1L are used in this embodiment as shown in FIG. 1, the distance from the vehicle can be calculated using a known triangulation method.

以上述べた第1の実施例では、様々な条件を用いて車両の周辺の状況を推定しているが、これらの条件のうち、1つを用いてもよいし、任意の複数のものを用いてもよい。後者の場合には、いずれかの条件が満たされた場合、または任意の複数の条件が満たされた場合に第1の状況と推定し、それ以外の場合は第2の状況と判定してもよい。   In the first embodiment described above, the situation around the vehicle is estimated using various conditions, but one of these conditions may be used, or a plurality of arbitrary conditions may be used. May be. In the latter case, if any one of the conditions is satisfied, or if any of a plurality of conditions are satisfied, the first situation is estimated. Otherwise, the second situation may be determined. Good.

次に、第2の実施例について説明する。図7は、第2の実施例に基づく、車両の周辺監視装置のブロック図を示す。図1と異なるのは、車両の運転状態を検出する運転状態検出手段21が設けられており、運転状態検出手段21によって検出された運転状態は、画像処理ユニット2に入力される点である。図5のプロセスは該第2の実施例にも同様に適用され、この場合、ステップS15では、該検出された運転状態を用いて、車両の周辺の状況を推定する。   Next, a second embodiment will be described. FIG. 7 shows a block diagram of a vehicle periphery monitoring device based on the second embodiment. The difference from FIG. 1 is that driving state detection means 21 for detecting the driving state of the vehicle is provided, and the driving state detected by the driving state detection means 21 is input to the image processing unit 2. The process of FIG. 5 is similarly applied to the second embodiment. In this case, in step S15, the situation around the vehicle is estimated using the detected driving state.

一例では、運転状態検出手段21は、車速を検出する手段であり、たとえば車速センサにより実現されることができる。たとえば、高速道路では制限速度が通常設けられているので、所定時間間隔で車速を検出し、該車速が、該制限速度以上であって所定時間以上継続した場合には、高速道路を走行していると推定することができる。高速道路は、車両の周辺にほとんど高温対象物が存在しない。したがって、高速道路と推定された場合には、第2の状況と推定し、高速道路ではないと推定された場合には、第1の状況と推定する。   In one example, the driving state detection means 21 is a means for detecting the vehicle speed, and can be realized by a vehicle speed sensor, for example. For example, since a speed limit is normally provided on a highway, the vehicle speed is detected at predetermined time intervals. If the vehicle speed is equal to or higher than the speed limit and continues for a predetermined time, the vehicle travels on the highway. Can be estimated. On highways, there are almost no hot objects around the vehicle. Therefore, when it is estimated that it is a highway, it is estimated as the second situation, and when it is estimated that it is not a highway, it is estimated as the first situation.

他方、図4(a)のような市街地を走行しているときには、図4(b)のような郊外を走行しているときに比べ、信号や歩行者等の存在により、車両は頻繁に停止または低速で走行する。市街地は、高温対象物が的多く存在する場所である。したがって、所定時間間隔で車速を検出し、該検出された車速に基づいて所定時間の平均車速を算出し、該平均車速が所定値以下の場合には、第1の状況と推定し、該所定値より大きければ、第2の状況と推定してもよい。   On the other hand, when traveling in an urban area as shown in FIG. 4 (a), the vehicle stops more frequently due to the presence of traffic lights or pedestrians than when traveling in the suburbs as shown in FIG. 4 (b). Or drive at low speed. The urban area is a place where many high-temperature objects exist. Therefore, the vehicle speed is detected at predetermined time intervals, the average vehicle speed for a predetermined time is calculated based on the detected vehicle speed, and when the average vehicle speed is equal to or less than the predetermined value, the first situation is estimated, If it is larger than the value, the second situation may be estimated.

他の例では、運転状態検出手段21は、車両の舵角を検出する手段であり、たとえば舵角センサにより実現されることができる。図4(a)のような市街地を走行している場合には、図4(b)のような郊外を走行している場合に比べ、より頻繁にハンドルの操舵が行われる。したがって、所定時間間隔で舵角を検出し、所定時間にわたり、該舵角が所定値以上の大きさで変化する頻度をカウントし、該頻度が所定値以上ならば、第1の状況と推定し、該所定値より小さければ、第2の状況と推定することができる。   In another example, the driving state detection means 21 is a means for detecting the steering angle of the vehicle, and can be realized by a steering angle sensor, for example. When traveling in an urban area as shown in FIG. 4 (a), steering of the steering wheel is performed more frequently than when traveling in a suburb as shown in FIG. 4 (b). Therefore, the rudder angle is detected at predetermined time intervals, the frequency at which the rudder angle changes with a magnitude greater than or equal to a predetermined value over a predetermined time is counted, and if the frequency is equal to or greater than the predetermined value, the first situation is estimated. If it is smaller than the predetermined value, the second situation can be estimated.

さらなる他の例では、運転状態検出手段21は、車両のヨー角(車両重心の垂直方向軸回りの回転角度)を検出する手段であり、たとえばヨーレートセンサによって実現されることができる。図4(a)のような市街地は、図4(b)のような郊外を走行している場合に比べ、曲がり角が多い。したがって、所定時間間隔でヨー角を検出し、所定時間にわたり、該ヨー角が所定値以上の大きさで変化する頻度をカウントし、該頻度が所定値以上ならば、第1の状況と推定し、該所定値より小さければ、第2の状況と推定することができる。   In still another example, the driving state detection means 21 is a means for detecting the yaw angle of the vehicle (the rotation angle of the vehicle center of gravity about the vertical axis), and can be realized by a yaw rate sensor, for example. The urban area as shown in FIG. 4 (a) has more corners than the case where the vehicle is traveling in the suburbs as shown in FIG. 4 (b). Therefore, the yaw angle is detected at predetermined time intervals, and the frequency at which the yaw angle changes over a predetermined value over a predetermined time is counted. If the frequency exceeds the predetermined value, the first situation is estimated. If it is smaller than the predetermined value, the second situation can be estimated.

次に、第3の実施例について説明する。図8は、第3の実施例に基づく、車両の周辺監視装置のブロック図を示す。図1と異なるのは、ナビゲーションユニット25が画像処理ユニット2に接続されている点である。   Next, a third embodiment will be described. FIG. 8 shows a block diagram of a vehicle periphery monitoring device based on the third embodiment. The difference from FIG. 1 is that the navigation unit 25 is connected to the image processing unit 2.

ナビゲーションユニット25は、たとえば人工衛星を利用して車両10の位置を測定するためのGPS信号を受信し、該GPS信号に基づいて、車両10の現在位置を検出する。ナビゲーションユニット25は、地図情報を記憶する地図情報記憶部27を備える。地図情報記憶部27は、任意の記憶装置(記録媒体やハードディスクドライブなど)に実現されることができる。ナビゲーションユニット25は、地図情報記憶部27に記憶された地図情報を読み出して、所定の表示装置(HUD4でもよい)の表示画面上に表示することができる。   The navigation unit 25 receives a GPS signal for measuring the position of the vehicle 10 using, for example, an artificial satellite, and detects the current position of the vehicle 10 based on the GPS signal. The navigation unit 25 includes a map information storage unit 27 that stores map information. The map information storage unit 27 can be realized in any storage device (such as a recording medium or a hard disk drive). The navigation unit 25 can read the map information stored in the map information storage unit 27 and display it on the display screen of a predetermined display device (or HUD 4).

図5のプロセスは該第3の実施例にも同様に適用され、この場合、ステップS15では、該ナビゲーションユニット25を介して検出された車両の現在位置を取得すると共に、該現在位置が存在する道路および地域の少なくとも一方に関する情報を取得し、該情報を用いて、車両の周辺の状況を推定する。   The process of FIG. 5 is similarly applied to the third embodiment. In this case, in step S15, the current position of the vehicle detected via the navigation unit 25 is obtained and the current position exists. Information on at least one of a road and a region is acquired, and the situation around the vehicle is estimated using the information.

まず、道路に関する情報を用いて車両の周辺の状況を推定する場合を述べる。この実施例では、道路に関する情報として、道路の種別情報を用いる。道路の種別は、ナビゲーションユニット25の地図情報内に、各道路の属性情報として予め設定されている。たとえば、地図情報の道路種別情報は、高速道路、都市高速道路、有料道路、一般道路(国道、県道、その他)等を示す。したがって、車両が現在走行している位置の道路の道路種別情報を地図情報から取得することにより、該道路が高速道路かどうかを判断することができる。   First, a case where the situation around the vehicle is estimated using information on the road will be described. In this embodiment, road type information is used as information about roads. The type of road is preset as attribute information of each road in the map information of the navigation unit 25. For example, the road type information of the map information indicates an expressway, a city expressway, a toll road, a general road (national road, prefectural road, etc.). Therefore, it is possible to determine whether the road is an expressway by acquiring the road type information of the road where the vehicle is currently traveling from the map information.

代替的に、地図情報に道路種別情報が設定されていない場合には、地図情報とは別個のテーブルに、各道路について高速道路かどうかを示す情報を設定し(たとえば、高速道路か否かを示すフラグを、各道路の名称に対応づけて設定することができる)、該テーブルをメモリ等の記憶装置に記憶することができる。車両が現在走行している位置の道路の名称を地図情報から取得し、該取得した名称に基づいて該テーブルを参照することにより、道路が高速道路かどうかを判断することができる。   Alternatively, when road type information is not set in the map information, information indicating whether each road is a highway is set in a table separate from the map information (for example, whether the road is a highway or not). The flag shown can be set in association with the name of each road), and the table can be stored in a storage device such as a memory. By acquiring the name of the road where the vehicle is currently traveling from the map information and referring to the table based on the acquired name, it is possible to determine whether the road is an expressway.

前述したように、高速道路は、周辺に高温対象物がほとんど存在しない状況である、したがって、高速道路と判断されたならば、第2の状況と推定し、そうでない場合には、第1の状況と推定する。   As described above, the highway is a situation in which there are almost no high-temperature objects in the vicinity. Therefore, if the highway is determined to be a highway, it is estimated as the second situation; Estimate the situation.

次に、地域に関する情報を用いて車両の周辺の状況を推定する場合を述べる。地域に関する情報として、「街」か否かを示す情報を用いる。ここで、「街」は、或る程度の数の人口が存在する場所である。「街」は、任意の情報源に基づいて、任意の適切な条件を満たす地域として定義されることができる。たとえば、日本の場合、市区町村の単位で「街」かどうかを決定し、人口密度が所定値以上であれば「街」に分類し、人口密度が該所定値より小さければ、「街」以外に分類することができる。また、人口密度に加え、その地域への就業や通学のための流入人口を考慮してもよい。たとえば、人工密度が該所定値より小さくても、流入人口が所定値以上ならば、その地域には企業等の人間が比較的多く存在しており、よって「街」に分類されることができる。また、通常、ビルや家屋等の建物の数が多いほど、人間が多く存在するため、建物の数が所定値以上であれば「街」に分類し、そうでなければ「街」以外に分類するようにしてもよい。   Next, the case where the surrounding situation of a vehicle is estimated using the information regarding a region is described. As information regarding the area, information indicating whether or not it is “town” is used. Here, the “town” is a place where a certain number of populations exist. A “city” can be defined as an area that meets any suitable condition based on any information source. For example, in the case of Japan, it is determined whether the city is a “city” in units of municipalities. If the population density is equal to or higher than a predetermined value, it is classified as “city”. If the population density is lower than the predetermined value, “city” is determined. It can be classified. In addition to the population density, you may consider the inflowing population for working or going to school in that area. For example, even if the artificial density is smaller than the predetermined value, if the inflowing population is equal to or higher than the predetermined value, there are relatively many people such as companies in the area, and therefore it can be classified as “town”. . In general, the greater the number of buildings such as buildings and houses, the more people there are, so if the number of buildings is greater than or equal to the predetermined value, classify it as “City”, otherwise classify it as other than “City”. You may make it do.

代替的に、所定の動物(たとえば、鹿などの所定の大型動物)について、過去に出没したとの情報、生息地域の情報、およびこれらの動物の出没の可能性を示す標識が設置されている場所の情報等に基づいて、動物が出没する可能性のある地域を特定し、これらの地域については「街」以外に分類し、そうでない地域については「街」に分類するようにしてもよい。   Alternatively, for certain animals (for example, certain large animals such as deer), information that they have appeared in the past, habitat information, and signs indicating the likelihood of these animals appearing Based on location information, etc., areas where animals may appear may be identified, and these areas may be classified as “towns”, and other areas may be classified as “towns”. .

こうして、各市区町村に、「街」か否かを示す情報が関連づけられて、地図情報に予め記憶されることができる(たとえば、「街」か否かを示すフラグを、その地名に対して設定する)。代替的に、地図情報とは別個のテーブルに、各市区町村について、街か否かを示す情報(上記のようなフラグでよい)を設定してメモリ等に記憶してもよい。地図情報または該テーブルを参照することにより、車両の現在走行している場所が「街」に分類されているか否かを判断することができる。   In this way, information indicating whether or not “city” is associated with each city, and can be stored in advance in map information (for example, a flag indicating whether or not “city” is set for the place name). Set). Alternatively, information (may be a flag as described above) indicating whether each city is a city may be set in a table separate from the map information and stored in a memory or the like. By referring to the map information or the table, it is possible to determine whether or not the place where the vehicle is currently traveling is classified as “town”.

「街」は、或る程度の人口が存在する場所であるから、高温対象物が多く存在する場所である。したがって、車両の現在位置の地域が、「街」であると判断されたならば、第1の状況と推定し、そうでない場合には、第2の状況と推定する。   A “town” is a place where a certain amount of population exists, and thus a place where many high-temperature objects exist. Therefore, if it is determined that the area of the current position of the vehicle is “town”, the first situation is estimated, and if not, the second situation is estimated.

なお、上で述べたような、道路の種別を表す情報および「街」かどうかを示す情報を、ユーザが登録することができるようにしてもよい。たとえば、表示装置上に表示された地図情報上で、ユーザが、「街」に分類されるべき市区町村を、たとえばタッチパネルを介して指定し、画像処理ユニット2は、該指定された地域に対し、「街」であることを示すフラグを設定して地図情報に記憶することができる。   Note that the user may be able to register information indicating the type of road and information indicating whether it is “town” as described above. For example, on the map information displayed on the display device, the user designates a municipality to be classified as “town” via, for example, a touch panel, and the image processing unit 2 displays the designated area. On the other hand, a flag indicating “town” can be set and stored in the map information.

また、ナビゲーションユニット25の通信機能を利用して、これらの情報をリアルタイムに取得するようにしてもよい。たとえば、車両は、所定のコンピュータ(サーバ等)と通信し、該サーバには、各道路および各市区町村について、道路種別情報および「街」かどうかを示す情報が記憶されている。車両は、車両の現在位置をサーバに送信し、サーバは、該現在位置について設定されているこれらの情報を、車両に知らせることができる。また、既存のVICSシステム等の交通情報を車両に提供するシステムを利用し、該交通情報の一貫として、これらの情報を車両に送信するようにしてもよい。   Moreover, you may make it acquire these information in real time using the communication function of the navigation unit 25. FIG. For example, the vehicle communicates with a predetermined computer (server or the like), and the server stores road type information and information indicating whether it is “town” for each road and each municipality. The vehicle transmits the current position of the vehicle to the server, and the server can inform the vehicle of the information set for the current position. Alternatively, a system that provides traffic information to the vehicle such as an existing VICS system may be used, and the information may be transmitted to the vehicle as part of the traffic information.

ここで、図9を参照して、ステップS15で実行される、ナビゲーション機能を用いた車両周辺の状況を推定する処理のフローを説明する。   Here, with reference to FIG. 9, the flow of the process for estimating the situation around the vehicle using the navigation function executed in step S15 will be described.

ステップS31において、ナビゲーションユニット25を介して、車両の現在位置を取得する。ステップS32において、ナビゲーションユニット25の地図情報から、該現在位置の道路の種別を取得する。前述したように、ナビゲーションユニット25の地図情報には、各道路について、その属性情報として道路の種別を表す情報が設定されている。   In step S31, the current position of the vehicle is acquired via the navigation unit 25. In step S32, the type of the road at the current position is acquired from the map information of the navigation unit 25. As described above, in the map information of the navigation unit 25, information indicating the type of road is set as attribute information for each road.

ステップS33において、取得した道路種別情報に基づいて、現在位置の道路が高速道路かどうかを判断する。高速道路ならば(ステップS33がYes)、ステップS34においてフラグRoad_flagに値1を設定し、高速道路でなければ(ステップS33がNo)、ステップS35においてフラグRoad_flagに値2を設定する。   In step S33, it is determined whether the road at the current position is an expressway based on the acquired road type information. If it is an expressway (Yes in step S33), a value 1 is set in the flag Load_flag in step S34, and if it is not a highway (No in step S33), a value 2 is set in the flag Load_flag in step S35.

ステップS36において、ナビゲーションユニット25の地図情報から、該現在位置が属する地域について設定されている「街」か否かを示す情報を取得する。前述したように、地図情報には、市区町村等の単位で、「街」かどうかを示す情報が設定されている。   In step S36, information indicating whether or not the “town” is set for the area to which the current position belongs is acquired from the map information of the navigation unit 25. As described above, in the map information, information indicating whether it is “town” is set in units such as municipalities.

ステップS37において、取得した「街」か否かを示す情報に基づいて、現在位置の地域が「街」に分類されているかどうかを判断する。「街」であると判断されたならば(ステップS37がYes)、ステップS38においてフラグTown_flagに値1を設定し、「街」ではないと判断されたならば(ステップS37がNo)、ステップS39においてフラグTown_flagに値2を設定する。   In step S <b> 37, it is determined whether the area at the current position is classified as “city” based on the acquired information indicating whether it is “city”. If it is determined that it is “town” (Yes in step S37), the flag Town_flag is set to 1 in step S38. If it is determined that it is not “city” (step S37 is No), step S39 is performed. The value 2 is set in the flag Town_flag.

ステップS40において、Road_flagが値1であるか、または、Town_flagが値2であるかどうかを判断する。Road_flagが値1である、またはTown_flagが値2であるならば、車両の現在位置が、高速道路であるか、または「街」ではない地域に存在していることを示す。これは、高温対象物は多く存在しない状況を示すので、ステップS41で第2の状況と推定する。他方、ステップS40の判断がNoであるとき、Road_flagが値2であるか、またはTown_flagが値1である場合を示し、これは、車両の現在位置が、高速道路ではないか、または「街」である地域に存在していることを示す。これは、高温対象物が多く存在する状況を示すので、ステップS42で第1の状況と推定する。   In step S <b> 40, it is determined whether Load_flag has a value of 1 or Town_flag has a value of 2. If Load_flag has a value of 1 or Town_flag has a value of 2, it indicates that the current position of the vehicle is on a highway or in an area that is not a “city”. Since this indicates a situation where there are not many high-temperature objects, it is estimated as a second situation in step S41. On the other hand, when the determination in step S40 is No, the load_flag is the value 2 or the Town_flag is the value 1, which indicates that the current position of the vehicle is not a highway or “town” It indicates that it exists in a certain area. This indicates a situation where there are many high-temperature objects, so that it is estimated as the first situation in step S42.

以上述べてきた第1〜第3の実施例では、所定の割合Sとして、2つの値S1およびS2を用いているが、このような形態には限定されず、車両の周辺の状況に応じて、所定の割合Sを、値S1とS2の間で徐々に変化させるようにしてもよい。   In the first to third embodiments described above, the two values S1 and S2 are used as the predetermined ratio S. However, the present invention is not limited to such a form, and depends on the situation around the vehicle. The predetermined ratio S may be gradually changed between the values S1 and S2.

たとえば、第1の実施例では、撮像画像の所定の領域の輝度値の分散または平均値の値が高くなるほど、低めの値S1から高めの値S2に向けて、所定の割合Sを徐々に変化させることができ、この逆も同様である。また、第1の実施例では、抽出された対象物の個数または所定の種類の対象物の個数が多いほど、低めの値S1から高めの値S2に向けて、所定の割合Sを徐々変化させることができ、この逆も同様である。   For example, in the first embodiment, the predetermined ratio S is gradually changed from the lower value S1 to the higher value S2 as the luminance value variance or average value of the predetermined region of the captured image increases. And vice versa. In the first embodiment, the predetermined ratio S is gradually changed from the lower value S1 to the higher value S2 as the number of extracted objects or the number of objects of a predetermined type increases. And vice versa.

また、上で述べてきた第1〜第3実施例においては、所定の割合Sを、第1および第2の状況のいずれかが推定されたことに応じて2つの値S1およびS2の間で切り換えているが、この切り換えの際に、所定の割合Sを一時に値S1とS2の間で変化させるのではなく、徐々に変化させるようにしてもよい。   Further, in the first to third embodiments described above, the predetermined ratio S is set between two values S1 and S2 depending on whether one of the first and second situations is estimated. Although the switching is performed, the predetermined ratio S may be changed gradually instead of changing between the values S1 and S2 at the time of the switching.

たとえば、前回のサイクルで第2の状況と推定され、今回のサイクルで第1の状況と推定されたとき、該今回のサイクルでは、所定の割合Sの前回値に所定の増分値α(ただし、|α|<|S2−S1|)を加算した値を、所定の割合Sの今回値とする。次に第2の状況と推定されるまでの期間にわたり、高めの値S2を上限値として、サイクル毎に、所定の割合Sの前回値に増分値αが加算されていく。ここで、増分値αは、サイクル毎に一定であってもよいし、一定でなくてもよい。   For example, when the second situation is estimated in the previous cycle and the first situation is estimated in the current cycle, in the current cycle, the predetermined value α (however, A value obtained by adding | α | <| S2−S1 |) is set as a current value of a predetermined ratio S. Next, over the period until the second situation is estimated, the increment value α is added to the previous value of the predetermined ratio S for each cycle with the higher value S2 as the upper limit value. Here, the increment value α may be constant for each cycle or may not be constant.

同様に、前回のサイクルで第1の状況と推定され、今回のサイクルで第2の状況と推定されたとき、該今回のサイクルでは、所定の割合Sの前回値に所定の減分値α(負の値を有し、|α|<|S2−S1|)を加算した値を、所定の割合Sの今回値とする。次に第1の状況と推定されるまでの期間にわたり、低めの値S1を下限値として、サイクル毎に、所定の割合Sの前回値に減分値αが加算されていく。ここで、減分値αは、サイクル毎に一定であってもよいし、一定でなくてもよい。   Similarly, when the first situation is estimated in the previous cycle and the second situation is estimated in the current cycle, in the current cycle, a predetermined decrement value α ( A value having a negative value and adding | α | <| S2−S1 |) is set as a current value of a predetermined ratio S. Next, over the period until the first situation is estimated, the decrement value α is added to the previous value of the predetermined ratio S for each cycle with the lower value S1 as the lower limit value. Here, the decrement value α may be constant for each cycle or may not be constant.

こうして、輝度値を二分する閾値の急激な変化を抑制することができる。特に、値S1からS2への切り換えを一時に行うと、高温対象物として抽出される面積の比率が一時に大きくなるため、車両の周辺の状況によっては、抽出される高輝度範囲に背景を含んでしまうおそれがある。上記のような切り換えにより、このような状況を回避することができる。   In this way, it is possible to suppress a rapid change in the threshold value that bisects the luminance value. In particular, when switching from the value S1 to S2 at a time, the ratio of the area extracted as a high-temperature object increases at a time, so depending on the situation around the vehicle, the extracted high luminance range includes the background. There is a risk of it. Such a situation can be avoided by switching as described above.

上で述べた実施例では、所定の割合Sの更新を行うステップS14〜S18は、図5のプロセスの一環として行われているが、代替的に、ステップS14〜S18を、他のステップとは別のプロセスとしてもよい。この場合、ステップS14〜S18のプロセスの実行サイクルを変更することにより、該所定の割合Sの更新周期を可変としてもよい。
たとえば、高温対象物が多く存在する市街地のような場所では、高温対象物の突然の出現や消滅が頻繁に起こることがある。このような高温対象物に対処するため、第1の状況と推定されている間は、所定の割合Sの更新周期を短くするのがよい。
In the embodiment described above, the steps S14 to S18 for updating the predetermined ratio S are performed as part of the process of FIG. 5, but alternatively, the steps S14 to S18 are different from the other steps. It may be a separate process. In this case, the update cycle of the predetermined ratio S may be made variable by changing the execution cycle of the processes in steps S14 to S18.
For example, in a place such as an urban area where many high temperature objects exist, sudden appearance and disappearance of high temperature objects may frequently occur. In order to deal with such a high-temperature object, it is preferable to shorten the update cycle of the predetermined ratio S while the first situation is estimated.

他方、周辺に存在する高温対象物の大きさによっては、車両に接近するよう撮像されるにつれて、その高温対象物が撮像される面積が大きくなる。そのため、たとえば上記の第1の実施例の輝度値に基づいて第1または第2の状況を推定しているような場合に、短期間で所定の割合Sを更新していくと、所定の割合Sが、低めの値S1から高めの値S2に変更されたり、該高めの値S2に向けて増大するおそれがある。低めの値S1に設定すべき状況において高めの値S2が用いられると、図4を参照して説明したように、抽出される高輝度範囲に背景を含むおそれが生じる。このようなことを防止するため、第2の状況と推定されている間は、所定の割合Sの更新周期を長くするのがよい。   On the other hand, depending on the size of the high-temperature object existing in the vicinity, the area where the high-temperature object is imaged increases as the image is captured so as to approach the vehicle. Therefore, for example, when the first or second situation is estimated based on the luminance value of the first embodiment, if the predetermined ratio S is updated in a short period, the predetermined ratio S may be changed from a lower value S1 to a higher value S2, or may increase toward the higher value S2. If the higher value S2 is used in a situation where the lower value S1 should be set, as described with reference to FIG. 4, the extracted high luminance range may include the background. In order to prevent this, it is preferable to lengthen the update cycle of the predetermined ratio S while the second situation is estimated.

したがって、一例では、所定の割合Sに高めの値S2が設定される場合には、更新周期を短くし、低めの値S1が設定される場合には、更新周期を、それよりも長くすることができる。代替的に、所定の割合Sが、高めの値S2から低めの値S1に向かうにつれて、更新周期を徐々に長くするようにしてもよい。いずれの場合にも、一番短い周期を、図5のプロセスの周期と同じとなるよう設定することができる。   Therefore, in one example, when a higher value S2 is set to the predetermined ratio S, the update cycle is shortened, and when a lower value S1 is set, the update cycle is made longer than that. Can do. Alternatively, the update period may be gradually increased as the predetermined ratio S moves from the higher value S2 to the lower value S1. In either case, the shortest period can be set to be the same as the process period of FIG.

また、上記の実施形態では、図1に示すように、2つの赤外線カメラを用いた構成となっているが、この発明は、1つの赤外線カメラを用いて撮像された画像にも適用可能である。1つのカメラの場合、対象物までの距離値は、たとえばレーダなどを用いて検出するようにしてもよいし、該カメラの撮像画像において対象物が撮像された位置から、対象物までの距離を推定するようにしてもよい。   In the above embodiment, as shown in FIG. 1, the configuration uses two infrared cameras. However, the present invention is also applicable to an image captured using one infrared camera. . In the case of one camera, the distance value to the object may be detected using, for example, a radar, or the distance from the position where the object is imaged in the captured image of the camera to the object. You may make it estimate.

また、図5のプロセスでは、上記に述べたようにして設定された所定の割合Sを用いて、ステップS21で画像の二値化して黒白画像を生成しているが、このような黒白画像を生成すること自体は、必ずしも行わなくてもよい。すなわち、グレースケール画像から、所定の割合Sによって規定される高輝度範囲に属する画素のみを直接抽出し、これらの画素に基づいて。ステップS22以下を実施してもよい。   Further, in the process of FIG. 5, a black and white image is generated by binarizing the image in step S21 using the predetermined ratio S set as described above. The generation itself is not necessarily performed. That is, only pixels belonging to the high luminance range defined by the predetermined ratio S are directly extracted from the grayscale image, and based on these pixels. Step S22 and subsequent steps may be performed.

以上のように、この発明の特定の実施形態について説明したが、本願発明は、これら実施形態に限定されるものではない。   As described above, specific embodiments of the present invention have been described. However, the present invention is not limited to these embodiments.

1R,1L 赤外線カメラ(撮像手段)
2 画像処理ユニット
3 スピーカ
4 ヘッドアップディスプレイ
1R, 1L infrared camera (imaging means)
2 Image processing unit 3 Speaker 4 Head-up display

Claims (4)

車両に搭載された赤外線カメラと、
前記赤外線カメラにより撮像された撮像画像の輝度値ヒストグラムを作成し、該輝度値ヒストグラムにおいて高輝度側から算出した累積度数の全体度数に対する割合である度数割合が予め定められた所定値以下である輝度値範囲を高輝度範囲とし、前記度数割合が前記所定値を超える輝度値範囲を低輝度範囲として、該高輝度範囲に含まれる輝度値を有する対象物を、検出すべき対象物の候補として抽出する手段と、
前記抽出された対象物の候補について、前記検出すべき対象物かどうかを判定する判定手段と、
前記検出すべき対象物と判定されたとき、運転者への通報を行う手段と、を備える車両周辺監視装置であって、
前記車両の周辺に、高温対象物が多く存在する状況か否かを推定する推定手段と、
前記高温対象物が多く存在する状況か否かの推定結果に応じて、前記所定の割合を変更する手段と、
を備え、
前記推定手段は、前記撮像画像から、所定数以上の対象物が検出された場合、所定の種類の対象物が所定数以上検出された場合、該所定数以上の対象物が前記車両から所定距離内で検出された場合、および、該所定の種類の対象物が前記車両から所定距離内で所定数以上検出された場合の少なくともいずれかが満たされた場合には、前記高温対象物が多く存在する状況であると推定し、そうでない場合には、前記高温対象物が多く存在する状況ではないと推定し、
前記高温対象物が多く存在する状況ではないと推定されたならば、該高温対象物が多く存在する状況であると推定された場合に比べて、前記所定の割合を低くする、
両周辺監視装置。
An infrared camera mounted on the vehicle,
A luminance value histogram of a captured image captured by the infrared camera is created, and the frequency ratio, which is the ratio of the cumulative frequency calculated from the high luminance side in the luminance value histogram to the total frequency, is a predetermined value or less. A value range is a high luminance range, a luminance value range in which the frequency ratio exceeds the predetermined value is a low luminance range, and an object having a luminance value included in the high luminance range is extracted as a candidate for an object to be detected. Means to
Determination means for determining whether the extracted object candidate is the object to be detected;
A vehicle periphery monitoring device comprising: means for notifying a driver when the object to be detected is determined;
Estimating means for estimating whether there are many high-temperature objects around the vehicle;
Means for changing the predetermined ratio according to an estimation result as to whether or not there is a large amount of the high-temperature object;
With
The estimating means detects a predetermined distance from the vehicle when a predetermined number of objects are detected from the captured image, when a predetermined number of objects are detected. A large amount of the high-temperature object is present when at least one of a predetermined number of objects is detected within a predetermined distance from the vehicle. If not, it is assumed that there are not many high-temperature objects,
If it is estimated that the high-temperature object is not present in a large amount, the predetermined ratio is reduced as compared with the case where it is estimated that the high-temperature object is present in a large amount.
Car both periphery monitoring device.
車両に搭載された赤外線カメラと、
前記赤外線カメラにより撮像された撮像画像の輝度値ヒストグラムを作成し、該輝度値ヒストグラムにおいて高輝度側から算出した累積度数の全体度数に対する割合である度数割合が予め定められた所定値以下である輝度値範囲を高輝度範囲とし、前記度数割合が前記所定値を超える輝度値範囲を低輝度範囲として、該高輝度範囲に含まれる輝度値を有する対象物を、検出すべき対象物の候補として抽出する手段と、
前記抽出された対象物の候補について、前記検出すべき対象物かどうかを判定する判定手段と、
前記検出すべき対象物と判定されたとき、運転者への通報を行う手段と、を備える車両周辺監視装置であって、
前記車両の周辺に、高温対象物が多く存在する状況か否かを推定する推定手段と、
前記高温対象物が多く存在する状況か否かの推定結果に応じて、前記所定の割合を変更する手段と、
を備え、
前記推定手段は、前記撮像画像の所定領域における輝度値の分散または平均が所定値以上である場合には、前記高温対象物が多く存在する状況であると推定し、そうでない場合には、前記高温対象物が多く存在する状況ではないと推定し、
前記高温対象物が多く存在する状況ではないと推定されたならば、該高温対象物が多く存在する状況であると推定された場合に比べて、前記所定の割合を低くする、
両周辺監視装置。
An infrared camera mounted on the vehicle,
A luminance value histogram of a captured image captured by the infrared camera is created, and the frequency ratio, which is the ratio of the cumulative frequency calculated from the high luminance side in the luminance value histogram to the total frequency, is a predetermined value or less. A value range is a high luminance range, a luminance value range in which the frequency ratio exceeds the predetermined value is a low luminance range, and an object having a luminance value included in the high luminance range is extracted as a candidate for an object to be detected. Means to
Determination means for determining whether the extracted object candidate is the object to be detected;
A vehicle periphery monitoring device comprising: means for notifying a driver when the object to be detected is determined;
Estimating means for estimating whether there are many high-temperature objects around the vehicle;
Means for changing the predetermined ratio according to an estimation result as to whether or not there is a large amount of the high-temperature object;
With
When the variance or average of luminance values in a predetermined area of the captured image is equal to or greater than a predetermined value, the estimation means estimates that the high-temperature object is present, and otherwise, Estimating that there are not many high-temperature objects,
If it is estimated that the high-temperature object is not present in a large amount, the predetermined ratio is reduced as compared with the case where it is estimated that the high-temperature object is present in a large amount.
Car both periphery monitoring device.
車両に搭載された赤外線カメラと、
前記赤外線カメラにより撮像された撮像画像の輝度値ヒストグラムを作成し、該輝度値ヒストグラムにおいて高輝度側から算出した累積度数の全体度数に対する割合である度数割合が予め定められた所定値以下である輝度値範囲を高輝度範囲とし、前記度数割合が前記所定値を超える輝度値範囲を低輝度範囲として、該高輝度範囲に含まれる輝度値を有する対象物を、検出すべき対象物の候補として抽出する手段と、
前記抽出された対象物の候補について、前記検出すべき対象物かどうかを判定する判定手段と、
前記検出すべき対象物と判定されたとき、運転者への通報を行う手段と、を備える車両周辺監視装置であって、
前記車両の周辺に、高温対象物が多く存在する状況か否かを推定する推定手段と、
前記高温対象物が多く存在する状況か否かの推定結果に応じて、前記所定の割合を変更する手段と、
前記車両の運転状態を検出する検出手段と、
を備え、
前記推定手段は、前記検出手段によって検出された車両の運転状態に応じて、前記高温対象物が多く存在する状況であるか否かを推定する、
両周辺監視装置。
An infrared camera mounted on the vehicle,
A luminance value histogram of a captured image captured by the infrared camera is created, and the frequency ratio, which is the ratio of the cumulative frequency calculated from the high luminance side in the luminance value histogram to the total frequency, is a predetermined value or less. A value range is a high luminance range, a luminance value range in which the frequency ratio exceeds the predetermined value is a low luminance range, and an object having a luminance value included in the high luminance range is extracted as a candidate for an object to be detected. Means to
Determination means for determining whether the extracted object candidate is the object to be detected;
A vehicle periphery monitoring device comprising: means for notifying a driver when the object to be detected is determined;
Estimating means for estimating whether there are many high-temperature objects around the vehicle;
Means for changing the predetermined ratio according to an estimation result as to whether or not there is a large amount of the high-temperature object;
Detecting means for detecting a driving state of the vehicle ;
With
The estimation means estimates whether or not the high-temperature object is present depending on the driving state of the vehicle detected by the detection means.
Car both periphery monitoring device.
車両に搭載された赤外線カメラと、
前記赤外線カメラにより撮像された撮像画像の輝度値ヒストグラムを作成し、該輝度値ヒストグラムにおいて高輝度側から算出した累積度数の全体度数に対する割合である度数割合が予め定められた所定値以下である輝度値範囲を高輝度範囲とし、前記度数割合が前記所定値を超える輝度値範囲を低輝度範囲として、該高輝度範囲に含まれる輝度値を有する対象物を、検出すべき対象物の候補として抽出する手段と、
前記抽出された対象物の候補について、前記検出すべき対象物かどうかを判定する判定手段と、
前記検出すべき対象物と判定されたとき、運転者への通報を行う手段と、を備える車両周辺監視装置であって、
前記車両の周辺に、高温対象物が多く存在する状況か否かを推定する推定手段と、
前記高温対象物が多く存在する状況か否かの推定結果に応じて、前記所定の割合を変更する手段と、
前記車両の現在位置を検出する検出手段と、
を備え、
前記推定手段は、前記検出手段によって検出された車両の現在位置が存在する道路および地域の少なくとも一方について取得された情報に応じて、前記高温対象物が多く存在する状況であるか否かを推定する、
両周辺監視装置。
An infrared camera mounted on the vehicle,
A luminance value histogram of a captured image captured by the infrared camera is created, and the frequency ratio, which is the ratio of the cumulative frequency calculated from the high luminance side in the luminance value histogram to the total frequency, is a predetermined value or less. A value range is a high luminance range, a luminance value range in which the frequency ratio exceeds the predetermined value is a low luminance range, and an object having a luminance value included in the high luminance range is extracted as a candidate for an object to be detected. Means to
Determination means for determining whether the extracted object candidate is the object to be detected;
A vehicle periphery monitoring device comprising: means for notifying a driver when the object to be detected is determined;
Estimating means for estimating whether there are many high-temperature objects around the vehicle;
Means for changing the predetermined ratio according to an estimation result as to whether or not there is a large amount of the high-temperature object;
Detecting means for detecting a current position of the vehicle ;
With
The estimation means estimates whether or not the high-temperature object is present according to information acquired for at least one of a road and a region where the current position of the vehicle detected by the detection means exists. To
Car both periphery monitoring device.
JP2009083692A 2009-03-30 2009-03-30 Vehicle periphery monitoring device Expired - Fee Related JP4972116B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009083692A JP4972116B2 (en) 2009-03-30 2009-03-30 Vehicle periphery monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009083692A JP4972116B2 (en) 2009-03-30 2009-03-30 Vehicle periphery monitoring device

Publications (2)

Publication Number Publication Date
JP2010237874A JP2010237874A (en) 2010-10-21
JP4972116B2 true JP4972116B2 (en) 2012-07-11

Family

ID=43092137

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009083692A Expired - Fee Related JP4972116B2 (en) 2009-03-30 2009-03-30 Vehicle periphery monitoring device

Country Status (1)

Country Link
JP (1) JP4972116B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012125373A (en) * 2010-12-15 2012-07-05 Hitachi Aloka Medical Ltd Ultrasonic image processing apparatus
WO2012119595A1 (en) * 2011-03-04 2012-09-13 Continental Teves Ag & Co. Ohg Limiting the activation of an evasive steering support
JP5537491B2 (en) * 2011-05-12 2014-07-02 富士重工業株式会社 Environment recognition device
JP5547160B2 (en) * 2011-10-27 2014-07-09 本田技研工業株式会社 Vehicle periphery monitoring device
CN106384351A (en) * 2016-08-25 2017-02-08 成都市晶林科技有限公司 Infrared image background recognition method based on infrared image histogram
CN117549913A (en) * 2024-01-11 2024-02-13 交通运输部水运科学研究所 Safe driving early warning system for mixed flow of port and district tank truck

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3756452B2 (en) * 2002-01-18 2006-03-15 本田技研工業株式会社 Infrared image processing device
JP4543861B2 (en) * 2004-09-30 2010-09-15 日産自動車株式会社 Person detection apparatus and method
JP2007156968A (en) * 2005-12-07 2007-06-21 Konica Minolta Photo Imaging Inc Image reading and displaying apparatus
JP4732985B2 (en) * 2006-09-05 2011-07-27 トヨタ自動車株式会社 Image processing device
JP4695615B2 (en) * 2007-03-05 2011-06-08 日本放送協会 Video object trajectory image synthesis apparatus and program thereof

Also Published As

Publication number Publication date
JP2010237874A (en) 2010-10-21

Similar Documents

Publication Publication Date Title
EP2549457B1 (en) Vehicle-mounting vehicle-surroundings recognition apparatus and vehicle-mounting vehicle-surroundings recognition system
JP5577398B2 (en) Vehicle periphery monitoring device
JP6254084B2 (en) Image processing device
JP4173902B2 (en) Vehicle periphery monitoring device
JP5747549B2 (en) Signal detector and program
KR101032160B1 (en) System and method for road visibility measurement using camera
JP5576937B2 (en) Vehicle periphery monitoring device
JP4972116B2 (en) Vehicle periphery monitoring device
JP2010224670A (en) Periphery monitoring device for vehicle
JP5547160B2 (en) Vehicle periphery monitoring device
JP5065172B2 (en) Vehicle lighting determination device and program
JP4988781B2 (en) Vehicle periphery monitoring device
JP2007193445A (en) Periphery monitoring device for vehicle
JP4528283B2 (en) Vehicle periphery monitoring device
JP2010102572A (en) Periphery monitoring device for vehicle
JP2014085920A (en) Vehicle surroundings monitoring device
JP2007293627A (en) Periphery monitoring device for vehicle, vehicle, periphery monitoring method for vehicle and periphery monitoring program for vehicle
JP5530530B2 (en) Vehicle periphery monitoring device
JP4644273B2 (en) Vehicle periphery monitoring device
JP2011076214A (en) Obstacle detection device
JP5481074B2 (en) Lighting environment determination apparatus and program
JP4128562B2 (en) Vehicle periphery monitoring device
JP4813304B2 (en) Vehicle periphery monitoring device
JPWO2018138782A1 (en) Information processing apparatus, feature point extraction program, and feature point extraction method
JP2008032557A (en) In-vehicle navigation apparatus and road-type determining method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110830

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111122

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120321

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120406

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150413

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees