JP5383246B2 - Vehicle periphery monitoring device - Google Patents

Vehicle periphery monitoring device Download PDF

Info

Publication number
JP5383246B2
JP5383246B2 JP2009038156A JP2009038156A JP5383246B2 JP 5383246 B2 JP5383246 B2 JP 5383246B2 JP 2009038156 A JP2009038156 A JP 2009038156A JP 2009038156 A JP2009038156 A JP 2009038156A JP 5383246 B2 JP5383246 B2 JP 5383246B2
Authority
JP
Japan
Prior art keywords
vehicle
image
periphery
detected
pedestrian
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009038156A
Other languages
Japanese (ja)
Other versions
JP2010188970A (en
Inventor
恵介 宮川
穣 徳永
穣 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2009038156A priority Critical patent/JP5383246B2/en
Publication of JP2010188970A publication Critical patent/JP2010188970A/en
Application granted granted Critical
Publication of JP5383246B2 publication Critical patent/JP5383246B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Description

この発明は、可視画像に基づいて車両の周辺を監視するための装置に関し、より具体的には、夜間においても、可視画像に基づいて車両の周辺を監視することができる装置に関する。   The present invention relates to an apparatus for monitoring the periphery of a vehicle based on a visible image, and more specifically to an apparatus capable of monitoring the periphery of a vehicle based on a visible image even at night.

従来より、車両に撮像装置を搭載して、車両の周辺に存在する歩行者などの対象物を検出し、その情報を運転者に知らせることによって運転を支援することが行われている。   2. Description of the Related Art Conventionally, an image pickup apparatus is mounted on a vehicle, an object such as a pedestrian existing around the vehicle is detected, and driving is supported by notifying the driver of the information.

下記の特許文献1には、撮像装置として、車両の前方の温体画像を撮像する赤外線カメラと、車両前方の可視画像を撮像する可視カメラとを搭載し、両者のカメラから撮像された画像を用いて歩行者を検出することが記載されている。   In the following Patent Document 1, an infrared camera that captures a warm body image in front of a vehicle and a visible camera that captures a visible image in front of the vehicle are mounted as imaging devices, and images captured from both cameras are captured. It uses to detect a pedestrian.

特許第3716623号Japanese Patent No. 3716623

赤外線カメラは、対象物の温度に応じた輝度値を有する画像を出力するので、夜間の走行においても、赤外線カメラを用いることによって歩行者のような高温の対象物を検出することができる。   Since the infrared camera outputs an image having a luminance value corresponding to the temperature of the object, a high-temperature object such as a pedestrian can be detected by using the infrared camera even during night driving.

しかしながら、赤外線カメラは比較的高価であり、車両に搭載すると、車両全体のコストを増大させるおそれがある。   However, the infrared camera is relatively expensive, and when mounted on a vehicle, the cost of the entire vehicle may be increased.

したがって、可視画像を撮像する可視カメラを用い、夜間の走行においても、歩行者のような所定の対象物を検出することができる装置が所望されている。   Therefore, there is a demand for an apparatus that can detect a predetermined object such as a pedestrian even when traveling at night using a visible camera that captures a visible image.

この発明の一つの側面によると、車両の周辺の可視画像を撮像する撮像手段を搭載して、該車両の周辺を監視する車両周辺監視装置は、前記車両の周辺の環境光を推定して該車両の周辺が明るく照らされているかどうかを判断する判断手段と、前記車両の周辺が明るく照らされていないと判断されたならば、前記可視画像のうち、少なくとも前記車両のライトにより照らされている範囲に相当する画像領域に基づいて前記車両の周辺の対象物を検出し、前記車両の周辺が明るく照らされていると判断されたならば、前記可視画像のうち、少なくとも前記車両のライトにより照らされている範囲に相当する画像領域よりも上部の画像領域に基づいて前記車両の周辺の対象物を検出するよう、対象物の検出手法を切り替える手段と、を備える。   According to one aspect of the present invention, a vehicle periphery monitoring device that includes an imaging unit that captures a visible image around a vehicle and monitors the periphery of the vehicle estimates ambient light around the vehicle, and Judgment means for judging whether the periphery of the vehicle is brightly illuminated, and if it is determined that the periphery of the vehicle is not brightly illuminated, at least the light of the vehicle in the visible image is illuminated When an object around the vehicle is detected based on an image area corresponding to the range and it is determined that the periphery of the vehicle is brightly illuminated, at least light from the vehicle is illuminated in the visible image. Means for switching an object detection method so as to detect an object in the vicinity of the vehicle based on an image area above the image area corresponding to the range being set.

通常、夜間のような暗い環境で可視カメラを用いて撮像すると、その撮像画像の輝度値が一様に低くなるため、所定の対象物を検出することは困難である。しかしながら、街灯等の環境光が存在する場合には、その環境光で周辺が明るく照らされ、よって、昼間の場合と同様に、撮像した可視画像から所定の対象物を検出することができる。他方、環境光が少なくて周辺が暗い場合でも、車両のライト(たとえば、ヘッドライト)によって照らされる範囲では、可視画像から所定の対象物を検出することができる。本願発明は、この知見に基づいており、環境光によって車両周辺が明るく照らされているかどうかを判断し、照らされていないと判断した場合には、車両のライトが照らされる範囲の画像領域に基づいて対象物を検出し、照らされていないと判断した場合には、該画像領域よりも上部の画像領域に基づいて対象物を検出する。こうすることにより、夜間においても、所定の対象物を検出することができる。   Normally, when an image is captured using a visible camera in a dark environment such as at night, the luminance value of the captured image is uniformly reduced, and thus it is difficult to detect a predetermined object. However, when ambient light such as a streetlight is present, the surroundings are brightly illuminated by the ambient light, and therefore, a predetermined object can be detected from the captured visible image as in the case of daytime. On the other hand, even when the ambient light is low and the surroundings are dark, it is possible to detect a predetermined object from the visible image within a range illuminated by a vehicle light (for example, a headlight). The present invention is based on this knowledge, and determines whether or not the surroundings of the vehicle are brightly illuminated by ambient light. If it is determined that the vehicle is not illuminated, the present invention is based on the image area within the range in which the light of the vehicle is illuminated. If the object is detected and it is determined that the object is not illuminated, the object is detected based on the image area above the image area. By doing so, a predetermined object can be detected even at night.

この発明の一実施形態では、前記判断手段によって前記車両の周辺が明るく照らされていないと判断された場合には、前記車両の周辺の対象物を、該対象物の動きを判定することにより検出し、前記判断手段によって前記車両の周辺が明るく照らされていると判断された場合には、前記車両の周辺の対象物を、該対象物の形状を判定することにより検出する。一実施形態では、対象物は歩行者であり、車両の周辺が明るく照らされていないと判断された場合には、歩行者の足の動きを判定することにより該歩行者を検出し、車両の周辺が明るく照らされていると判断された場合には、歩行者の頭部の形状を判定することにより該歩行者を検出する。   In one embodiment of the present invention, when the determination unit determines that the periphery of the vehicle is not brightly illuminated, the object around the vehicle is detected by determining the movement of the object. If the determination means determines that the periphery of the vehicle is brightly illuminated, the object around the vehicle is detected by determining the shape of the object. In one embodiment, the object is a pedestrian, and if it is determined that the periphery of the vehicle is not brightly illuminated, the pedestrian is detected by determining the movement of the pedestrian's legs, When it is determined that the surrounding area is brightly illuminated, the pedestrian is detected by determining the shape of the pedestrian's head.

対象物は、その上部(上半身)に、他の対象物と区別できる特徴を有することが多い。特に歩行者の場合には、頭部(顔を含む)の形状が、人工構造物等の他の対象物と区別可能な特徴を有している。したがって、車両の周辺が明るい場合には、形状判定の手法を用いることにより、より良好な精度で対象物を検出することができる。他方、車両の周辺が明るくない場合、車両のライトによって照らされている範囲から対象物を検出することができるが、この範囲では、対象物の上部が撮像されずに、対象物の下部(下半身)のみが検出可能となりうる。対象物の下部の形状のみでは、他の対象物と区別するのが困難なおそれがある。そこで、対象物の下部の動きに着目する。対象物が歩行者のような生体の場合、足の動きに特徴があるため、その動きを判定することによって、人工構造物等の他の対象物と区別して検出することができる。   In many cases, an object has characteristics that can be distinguished from other objects at the upper part (upper body). In particular, in the case of a pedestrian, the shape of the head (including the face) is distinguishable from other objects such as an artificial structure. Therefore, when the periphery of the vehicle is bright, the object can be detected with better accuracy by using the shape determination method. On the other hand, if the periphery of the vehicle is not bright, the object can be detected from the range illuminated by the vehicle light. In this range, the upper part of the object is not imaged and the lower part of the object (lower body) is detected. Only) may be detectable. Only the shape of the lower part of the object may be difficult to distinguish from other objects. Therefore, attention is paid to the movement of the lower part of the object. When the target object is a living body such as a pedestrian, there is a feature in the movement of the foot. Therefore, by detecting the movement, it can be detected separately from other target objects such as an artificial structure.

この発明の一実施形態では、前記判断手段は、1)前記撮像手段により撮像された可視画像において、所定値以上の輝度値を持ち、所定値以上の面積を持つ画像領域が、路面からの高さが所定値以上の所に存在しているとき、2)前記可視画像において、前記車両に対して遠方の範囲に相当する画像領域における輝度と、前記車両の近傍の範囲に相当する画像領域における輝度との差が所定値以下であるとき、および3)前記車両に搭載された照度センサの検出値が所定値以上のとき、のうちの少なくとも1つが満たされたならば、前記車両の周辺が明るく照らされていると判断する。   In one embodiment of the present invention, the determination means includes: 1) an image region having a luminance value greater than or equal to a predetermined value and an area greater than or equal to a predetermined value in a visible image captured by the imaging means 2) In the visible image, the brightness in the image area corresponding to the range far from the vehicle and the image area corresponding to the range in the vicinity of the vehicle in the visible image When at least one of the difference between the brightness and the brightness is less than a predetermined value, and 3) when the detected value of the illuminance sensor mounted on the vehicle is greater than or equal to the predetermined value, Judged to be brightly lit.

このように、環境光によって車両の周辺が明るく照らされているかどうかを判断することができるので、この判断結果に応じて自動的に対象物の検出手法を切り替えることができる。   In this way, it is possible to determine whether or not the surroundings of the vehicle are brightly illuminated by the ambient light, so that the object detection method can be automatically switched according to the determination result.

この発明の一実施形態では、前記車両の周辺が明るく照らされていないと判断されたときに前記対象物が検出されたならば、運転者に注意を喚起するため、インジケータの表示および注意喚起音の少なくとも一方を用いて運転者に報知し、前記車両の周辺が明るく照らされていると判断されたときに前記対象物が検出されたならば、該インジケータの表示および注意喚起音の少なくとも一方に加え、該対象物の位置を、表示装置上に表示された撮像画像に重畳して表示することにより運転者に報知する報知手段を備える。   In one embodiment of the present invention, if the object is detected when it is determined that the periphery of the vehicle is not brightly illuminated, an indicator display and a warning sound are generated to alert the driver. If the object is detected when it is determined that the periphery of the vehicle is brightly illuminated, at least one of the indicator display and the warning sound is displayed. In addition, a notification means for notifying the driver by displaying the position of the object superimposed on the captured image displayed on the display device is provided.

車両の周辺が明るく照らされていない場合には、車両から近距離にある対象物の検出となるため、運転者には早期に対象物の存在を知らせるのが好ましい。したがって、インジケータ表示や注意喚起音という比較的簡易な手法で報知を行う。他方、車両の周辺が明るく照らされている場合には、車両から遠距離にある対象物の検出が可能であるため、上記の場合に比べて運転者に報知する時間的余裕がある。そのため、インジケータ表示や注意喚起音という比較的簡易な報知のみならず、表示装置の撮像画像上に対象物の位置を重畳表示して、対象物の具体的な位置を運転者に知らせる。   When the periphery of the vehicle is not brightly illuminated, an object at a short distance from the vehicle is detected, so it is preferable to inform the driver of the presence of the object at an early stage. Therefore, the notification is performed by a relatively simple method such as indicator display or alert sound. On the other hand, when the periphery of the vehicle is brightly illuminated, it is possible to detect an object at a long distance from the vehicle, so there is a time margin to inform the driver compared to the above case. For this reason, not only a relatively simple notification such as an indicator display or a warning sound, but also the position of the object is superimposed on the captured image of the display device to notify the driver of the specific position of the object.

本発明のその他の特徴及び利点については、以下の詳細な説明から明らかである。   Other features and advantages of the present invention will be apparent from the detailed description that follows.

この発明の一実施例に従う、周辺監視装置の構成を示すブロック図。The block diagram which shows the structure of the periphery monitoring apparatus according to one Example of this invention. この発明の一実施例に従う、カメラの取り付け位置を説明するための図。The figure for demonstrating the attachment position of the camera according to one Example of this invention. この発明の原理を説明するための図。The figure for demonstrating the principle of this invention. この発明の一実施例に従う、画像処理ユニットにおけるプロセスを示すフローチャート。3 is a flowchart illustrating a process in an image processing unit according to an embodiment of the present invention. この発明の一実施例に従う、環境光の推定に用いる遠方領域および近傍領域の一例を示す図。The figure which shows an example of the distant area | region and vicinity area | region used for estimation of environmental light according to one Example of this invention. この発明の一実施例に従う、歩行者の頭部の形状判定と歩行者の足の動き判定を説明するための図。The figure for demonstrating the shape determination of a pedestrian's head and the motion determination of a pedestrian's foot | leg according to one Example of this invention. この発明の一実施例に従う、報知形態を示す図。The figure which shows the alerting | reporting form according to one Example of this invention.

次に図面を参照してこの発明の実施の形態を説明する。   Next, an embodiment of the present invention will be described with reference to the drawings.

図1は、この発明の一実施形態に従う、車両の周辺監視装置の構成を示すブロック図である。該装置は、車両に搭載され、可視カメラ1Rおよび1Lと、カメラ1Rおよび1Lによって得られる画像データに基づいて車両周辺の対象物を検出するための画像処理ユニット2と、該検出結果に基づいて音声で警報を発生するスピーカ3と、カメラ1Rまたは1Lによって得られる画像を表示すると共に、運転者に車両周辺の対象物を認識させるための表示を行うヘッドアップディスプレイ(以下、HUDと呼ぶ)4とを備えている。可視カメラ1Rおよび1Lは、可視光領域で撮像可能なCCDカメラおよびCMOSカメラ等によって構成されることができ、撮像される物体の照度が高いほど、出力される映像信号のレベルが高くなる(すなわち、撮像画像における輝度値が高くなる)特性を有している。   FIG. 1 is a block diagram showing a configuration of a vehicle periphery monitoring device according to an embodiment of the present invention. The apparatus is mounted on a vehicle, and includes visible cameras 1R and 1L, an image processing unit 2 for detecting an object around the vehicle based on image data obtained by the cameras 1R and 1L, and based on the detection result. A head-up display (hereinafter referred to as HUD) 4 that displays an image obtained by a speaker 3 that generates an alarm by sound and an image obtained by the camera 1R or 1L and that allows a driver to recognize an object around the vehicle. And. The visible cameras 1R and 1L can be configured by a CCD camera, a CMOS camera, or the like that can capture an image in the visible light region, and the higher the illuminance of the imaged object, the higher the level of the output video signal (that is, , The brightness value in the captured image is increased).

この実施例では、図2に示すように、カメラ1Rおよび1Lは、車両10の前部に、車幅の中心を通る中心軸に対して対称な位置に配置されており、車両の前方を撮像する。2つのカメラ1Rおよび1Lは、両者の光軸が互いに平行となり、両者の路面からの高さが等しくなるように車両に固定されている。   In this embodiment, as shown in FIG. 2, the cameras 1 </ b> R and 1 </ b> L are arranged in a symmetric position with respect to the central axis passing through the center of the vehicle width at the front portion of the vehicle 10 and image the front of the vehicle. To do. The two cameras 1R and 1L are fixed to the vehicle so that their optical axes are parallel to each other and their height from the road surface is equal.

画像処理ユニット2は、入力アナログ信号をデジタル信号に変換するA/D変換回路、デジタル化した画像信号を記憶する画像メモリ、各種演算処理を行う中央演算処理装置(CPU)、CPUが演算に際してデータを記憶するのに使用するRAM(ランダムアクセスメモリ)、CPUが実行するプログラムおよび用いるデータ(テーブル、マップを含む)を記憶するROM(リードオンリーメモリ)、スピーカ3に対する駆動信号およびHUD4に対する表示信号などを出力する出力回路を備えている。カメラ1Rおよび1Lの出力信号は、デジタル信号に変換されてCPUに入力されるよう構成されている。HUD4は、図2に示すように、車両10のフロントウィンドウの、運転者の前方位置に画面4aが表示されるように設けられている。こうして、運転者は、HUD4に表示される画面を視認することができる。   The image processing unit 2 includes an A / D conversion circuit that converts an input analog signal into a digital signal, an image memory that stores a digitized image signal, a central processing unit (CPU) that performs various arithmetic processing, and a data RAM (Random Access Memory) used to store data, ROM (Read Only Memory) that stores programs executed by the CPU and data used (including tables and maps), driving signals for the speaker 3, display signals for the HUD 4, etc. Is provided. The output signals of the cameras 1R and 1L are converted into digital signals and input to the CPU. As shown in FIG. 2, the HUD 4 is provided so that a screen 4 a is displayed at a front position of the driver on the front window of the vehicle 10. Thus, the driver can visually recognize the screen displayed on the HUD 4.

ここで、図3を参照して、本願発明の原理を説明する。図3(a)は、夜間において、車両周辺の環境光が少ない場合に該車両に搭載された可視カメラによって車両前方を撮像した場合の可視画像の一例であり、(b)は、夜間において、車両周辺に環境光が多く存在する場合に該車両に搭載された可視カメラによって車両前方を撮像した場合の可視画像の一例である。(a)および(b)の両方とも、車両のヘッドライトはロービームの状態で点灯されている。環境光は、街灯の光、対向車のヘッドライトの光、店の光、看板の光等、車両の周辺環境に存在する光を示す。(b)では、矢印121で示すような街灯の光および矢印123で示すような対向車のヘッドライトの光の環境光が、(a)よりも多く存在する。水平方向のライン101より下の画像領域(下部領域とも呼ぶ)は、車両のヘッドライトで照らされる車両近傍の範囲に相当する画像領域である。   Here, the principle of the present invention will be described with reference to FIG. FIG. 3 (a) is an example of a visible image when the front of the vehicle is imaged by a visible camera mounted on the vehicle when the ambient light around the vehicle is low at night, and (b) is It is an example of a visible image when the front of a vehicle is imaged by a visible camera mounted on the vehicle when there is a lot of ambient light around the vehicle. In both (a) and (b), the vehicle headlight is lit in a low beam state. Ambient light indicates light existing in the surrounding environment of the vehicle, such as streetlight light, headlight light of an oncoming vehicle, store light, signboard light, and the like. In (b), there are more ambient lights of street light as indicated by arrow 121 and headlight of oncoming vehicle as indicated by arrow 123 than in (a). An image area below the horizontal line 101 (also referred to as a lower area) is an image area corresponding to a range in the vicinity of the vehicle illuminated by the headlight of the vehicle.

(a)に示すように、環境光がほとんど存在しない場合、水平方向のライン101より上の画像領域(上部領域とも呼ぶ)は、下部領域よりも輝度が低い。符号103で囲まれる領域に歩行者105が存在しているが、歩行者105の足の部分は、下部領域に属しているために認識可能であるが、頭部を含む上半身は、上部領域に属しているために認識することが困難である。このように、下部領域に存在する対象物または対象物部分を検出することはできるが、上部領域に存在する対象物または対象物部分の検出は困難である。   As shown in (a), when there is almost no ambient light, the image area (also referred to as the upper area) above the horizontal line 101 has a lower luminance than the lower area. The pedestrian 105 exists in the area surrounded by the reference numeral 103, but the foot part of the pedestrian 105 can be recognized because it belongs to the lower area, but the upper body including the head is in the upper area. It is difficult to recognize because it belongs. As described above, the object or the object part existing in the lower region can be detected, but the object or the object part existing in the upper region is difficult to detect.

しかしながら、このような夜間においても、(b)のように、街灯の光121や、対向車のヘッドライトの光123等の環境光が存在すると、上部領域においても、対象物を認識することができる。符号113で囲まれる領域には歩行者115が存在しているが、歩行者115の頭部を含む上半身は、上部領域に属しているにかかわらず、認識可能であり、よって歩行者の上半身を検出することができる。   However, even in such a nighttime, as shown in (b), if there is ambient light such as streetlight light 121 or headlight light 123 of the oncoming vehicle, the object can be recognized even in the upper region. it can. Although the pedestrian 115 exists in the area surrounded by the reference numeral 113, the upper body including the head of the pedestrian 115 is recognizable regardless of belonging to the upper area. Can be detected.

この発明は、上記のような知見に基づいてなされたものであり、(a)のように環境光が少なく、または存在しない場合には、少なくとも車両のライトで照射される領域すなわち撮像画像の下部領域に基づいて、対象物を検出する。他方、(b)のように環境光が多い場合には、少なくとも該環境光で照らされる領域すなわち撮像画像の上部領域に基づいて、対象物を検出する。以下の実施例では、検出すべき対象物は歩行者であり、よって、(a)の場合には、歩行者の足の部分を、少なくとも下部領域に基づいて検出し、(b)の場合には、歩行者の頭部を、少なくとも上部領域に基づいて検出する。   The present invention has been made on the basis of the above-described knowledge, and when there is little or no ambient light as shown in (a), at least the area irradiated with the light of the vehicle, that is, the lower part of the captured image An object is detected based on the region. On the other hand, when there is a lot of ambient light as in (b), the object is detected based on at least the area illuminated by the ambient light, that is, the upper area of the captured image. In the following embodiments, the object to be detected is a pedestrian, and therefore, in the case of (a), the foot part of the pedestrian is detected based on at least the lower region, and in the case of (b) Detects the pedestrian's head based at least on the upper region.

なお、対象物の上部(上半身)は、その下部(下半身)に比べ、他の対象物と区別される特徴を有することが多いため、該上部を検出することにより対象物を判定することが通常行われる。対象物が歩行者の場合、特に頭部(顔を含む)は、歩行者全般に共通の円または楕円の形状を持つよう撮像されるため、この形状を検出することにより、人工構造物等の他の対象物と区別することができる。より精度を高めるために、頭部から肩にかけての形状を検出したり、顔のパターン(目、口などの部位のパターン)を検出することも行われている。(b)の場合には歩行者の上半身を検出することができるので、このような形状判定を用いて歩行者を検出する。   Note that the upper part (upper body) of an object often has a characteristic that distinguishes it from other objects compared to the lower part (lower body). Therefore, it is normal to determine the object by detecting the upper part. Done. When the object is a pedestrian, the head (including the face) is imaged to have a circle or ellipse shape that is common to all pedestrians. It can be distinguished from other objects. In order to increase the accuracy, it is also possible to detect the shape from the head to the shoulder or to detect a face pattern (a pattern of parts such as eyes and mouth). In the case of (b), since the upper body of the pedestrian can be detected, the pedestrian is detected using such shape determination.

しかしながら、(a)の場合には、歩行者の上半身の検出は困難である。また、(a)のような撮像画像に対して形状判定を行うと、本来は認識不可能な歩行者頭部に対応する楕円形状を探索することとなり、これは、誤検出につながるおそれがある。そこで、(a)の場合には、歩行者の足の部分を検出する。足は、二本の縦方向に長い四角形を持つよう撮像されるため、足の形状判定だけでは、人工構造物等と区別できないおそれがある。他方、歩行者による足の動きは、二本の足が交互に動くという特徴を有しており、これは、人工構造物等には存在しない特徴である。そこで、足の動きを判定することにより、歩行者を検出する。なお、遠距離に存在する歩行者については、その歩行距離(1歩の距離)が撮像画像上では微少であるので、動きによって該歩行者を検出することは困難であるが、(a)の場合には、車両のヘッドライトで照射される車両近傍に存在する歩行者を検出するので、動きによって該歩行者を検出することができる。   However, in the case of (a), it is difficult to detect the upper body of the pedestrian. Further, when shape determination is performed on the captured image as shown in (a), an elliptical shape corresponding to a pedestrian head that cannot be recognized originally is searched, which may lead to erroneous detection. . Therefore, in the case of (a), the foot part of the pedestrian is detected. Since the foot is imaged so as to have two squares that are long in the vertical direction, there is a possibility that it cannot be distinguished from an artificial structure or the like only by determining the shape of the foot. On the other hand, the movement of a foot by a pedestrian has a feature that two feet move alternately, which is a feature that does not exist in an artificial structure or the like. Therefore, a pedestrian is detected by determining the movement of the foot. In addition, about the pedestrian who exists in a long distance, since the walk distance (distance of one step) is very small on a captured image, it is difficult to detect the pedestrian by movement, In this case, since the pedestrian existing in the vicinity of the vehicle irradiated with the headlight of the vehicle is detected, the pedestrian can be detected by the movement.

このように、(a)の場合と(b)の場合とで、対象物の検出手法を切り替えることにより、夜間においても、可視画像から対象物を検出することができる。   As described above, the object can be detected from the visible image even at night by switching the object detection method between the cases (a) and (b).

次に、図4を参照して、具体的な処理内容を説明する。図4は、この発明の一実施形態に従う、画像処理ユニット2によって実行されるプロセスを示すフローチャートである。該プロセスは、所定の時間間隔で実行される。   Next, specific processing contents will be described with reference to FIG. FIG. 4 is a flowchart illustrating a process performed by the image processing unit 2 according to one embodiment of the present invention. The process is performed at predetermined time intervals.

ステップS11〜S13において、カメラ1Rおよび1Lの出力信号(すなわち、撮像された可視画像のデータ)を入力として受け取り、これをA/D変換し、それを画像メモリに格納する。ここで得られる画像データは、輝度情報を含んだグレースケール画像である。以下の処理では、カメラ1Rで撮像された右画像(代替的、左画像でもよい)のグレースケール画像に基づいて処理を行う。   In steps S11 to S13, the output signals of the cameras 1R and 1L (that is, captured image data) are received as input, A / D converted, and stored in the image memory. The image data obtained here is a grayscale image including luminance information. In the following processing, processing is performed based on a gray scale image of the right image (which may be an alternative or left image) captured by the camera 1R.

ステップS14において、環境光を推定し、車両の周辺(この実施例では、前方)が明るく照らされているかどうかを判断する。   In step S14, ambient light is estimated, and it is determined whether the periphery of the vehicle (in this embodiment, the front side) is brightly illuminated.

環境光の推定には、いくつかの手法が考えられる。第1の手法によると、可視画像(グレースケール画像)において、路面からの高さが所定値以上であって、所定値以上の輝度値を持つ画素によって環境光を推定し、該画素数が所定値以上存在するとき、該環境光が多く、よって車両の周辺が明るく照らされていると判断する。そうでない場合には、車両の周辺が明るく照らされていないと判断する。   There are several methods for estimating ambient light. According to the first method, in a visible image (grayscale image), ambient light is estimated by pixels having a height from a road surface that is equal to or greater than a predetermined value and having a luminance value that is equal to or greater than a predetermined value. When the value is greater than or equal to the value, it is determined that there is a lot of ambient light and therefore the periphery of the vehicle is brightly illuminated. Otherwise, it is determined that the periphery of the vehicle is not brightly illuminated.

ここで、輝度値についての閾値である上記所定値は、シミュレーション等を介して、可視画像において街灯や看板のライト等の環境光の輝度値を調べ、該所定値以上の輝度値の画像領域がこれらの環境光を表すように予め設定される。また、路面からの高さについての閾値である上記所定値は、街灯や看板のライト等が含まれるような値に予め設定され、たとえば約1.8メートルである。なお、撮像されている対象物の実際の高さは、周知のごとく、対象物までの距離およびカメラの焦点距離に基づいて算出されることができる。対象物までの距離は、一対のカメラ1Rおよび1Lの間の距離と、これらのカメラにより得られた一対の画像から得られる視差とに基づく周知の三角測量法等によって、検出されることができる。   Here, the predetermined value, which is a threshold value for the luminance value, is obtained by examining the luminance value of ambient light such as a street lamp or a signboard light in a visible image through simulation or the like, and an image area having a luminance value equal to or greater than the predetermined value is obtained. It is preset to represent these ambient lights. The predetermined value, which is a threshold value for the height from the road surface, is set in advance to a value that includes street lights, sign lights, and the like, and is about 1.8 meters, for example. As is well known, the actual height of the object being imaged can be calculated based on the distance to the object and the focal length of the camera. The distance to the object can be detected by a known triangulation method based on the distance between the pair of cameras 1R and 1L and the parallax obtained from the pair of images obtained by these cameras. .

また、画素数についての閾値である上記所定値は、シミュレーション等を介して、可視画像において、図3(b)に示すように歩行者の上半身が認識可能なように予め設定される。   Further, the predetermined value, which is a threshold for the number of pixels, is set in advance so that the upper body of the pedestrian can be recognized in the visible image as shown in FIG.

第2の手法では、車両に対して遠方の路面の輝度値によって環境光を推定し、該遠方の路面の輝度値と、車両近傍の路面の輝度値との差が所定値以下であるとき、路面を照らす環境光が多く、よって車両の周辺が明るく照らされていると判断する。そうでない場合には、車両の周辺は明るく照らされていないと判断する。   In the second method, when the ambient light is estimated based on the luminance value of the road surface far from the vehicle, and the difference between the luminance value of the remote road surface and the luminance value of the road surface near the vehicle is equal to or less than a predetermined value, It is judged that there is a lot of ambient light that illuminates the road surface, and therefore the periphery of the vehicle is brightly illuminated. Otherwise, it is determined that the periphery of the vehicle is not brightly illuminated.

これは、図3(a)および(b)を比較して明らかなように、車両の前方に伸長する路面が、街灯や対向車のヘッドライト等によって照らされると、車両から遠距離の所も、車両近傍と同様に明るくなっているが、車両の前方に伸長する路面が、街灯や対向車のヘッドライト等によって照らされないと、車両の近傍は車両のヘッドライトで照射されるために明るいが、遠距離の所は、該ヘッドライトの照射が届かないので、暗いままである。   As is clear from comparison between FIGS. 3A and 3B, when a road surface extending in front of the vehicle is illuminated by a streetlight or a headlight of an oncoming vehicle, However, if the road surface extending in front of the vehicle is not illuminated by streetlights or headlights of oncoming vehicles, the vicinity of the vehicle is illuminated by the headlights of the vehicle. At a long distance, the headlight illumination does not reach, so it remains dark.

車両の遠方および近傍に相当する画像領域の位置は、可視画像上に予め決めておくことができる。たとえば、図5には、図3(b)と同じ可視画像が示されているが、画像の底辺中央付近に位置する符号131で囲まれる領域は遠方領域であり、この領域に含まれる画素の輝度値の平均を算出する。画像の上辺中央付近に位置する符号133で囲まれる領域は近傍領域であり、同様に、該領域に含まれる画素の輝度値の平均を算出する。両者の平均値の差(絶対値)が所定値以下ならば、車両の周辺は明るく照らされていると判断する。輝度値の平均に代えて、領域に含まれる画素の輝度値の和を用いてもよい。   The positions of the image areas corresponding to the distance and the vicinity of the vehicle can be determined in advance on the visible image. For example, FIG. 5 shows the same visible image as FIG. 3B, but the region surrounded by the reference numeral 131 located near the center of the bottom of the image is a far region, and the pixels included in this region are The average luminance value is calculated. The area surrounded by the reference numeral 133 located near the center of the upper side of the image is a neighboring area, and similarly, the average of the luminance values of the pixels included in the area is calculated. If the difference (absolute value) between the average values of the two is not more than a predetermined value, it is determined that the periphery of the vehicle is brightly illuminated. Instead of the average of the luminance values, the sum of the luminance values of the pixels included in the region may be used.

第3の手法では、車両の周辺の明るさを検知する既知の照度センサを該車両に設け、該照度センサの検出値によって環境光を推定してもよい。照度センサの検出値が所定値以上ならば、環境光が多く、車両の周辺は明るく照らされていると判断し、そうでなければ、明るく照らされていないと判断する。ここでの所定値は、図3(b)に示すように、画像の上部領域において対象物を認識可能なような値に、シミュレーション等を介して予め設定される。   In the third method, a known illuminance sensor that detects the brightness around the vehicle may be provided in the vehicle, and the ambient light may be estimated from the detection value of the illuminance sensor. If the detection value of the illuminance sensor is equal to or greater than a predetermined value, it is determined that there is a lot of ambient light and the surroundings of the vehicle are brightly illuminated. As shown in FIG. 3B, the predetermined value here is set in advance through simulation or the like so that the object can be recognized in the upper area of the image.

さらに、他の第4の手法では、画像全体の輝度値の平均または和によって環境光を推定してもよい。該平均値または和が所定値以上ならば、環境光が多く、車両周辺は明るく照らされていると判断する。さらに、図3(a)および(b)は、画像の下部領域が車両のヘッドライトによって照射されている点で同じであるので、画像全体に代えて、画像の上部領域の輝度値の平均または和によって環境光を推定してもよい。該平均値または和が所定値以上ならば、環境光が多く、車両周辺は明るく照らされていると判断する。ここで、水平ライン101は、車両のヘッドライトによって照射される範囲に相当する画像領域をシミュレーション等によって調べることにより予め決定されることができる。   Furthermore, in another fourth method, the ambient light may be estimated based on an average or sum of luminance values of the entire image. If the average value or the sum is equal to or greater than a predetermined value, it is determined that there is a lot of ambient light and the surroundings of the vehicle are brightly illuminated. Further, FIGS. 3A and 3B are the same in that the lower area of the image is illuminated by the headlight of the vehicle, so that instead of the entire image, the average luminance value of the upper area of the image or Ambient light may be estimated by the sum. If the average value or the sum is equal to or greater than a predetermined value, it is determined that there is a lot of ambient light and the surroundings of the vehicle are brightly illuminated. Here, the horizontal line 101 can be determined in advance by examining an image region corresponding to a range irradiated by the headlight of the vehicle by simulation or the like.

さらに、第4の手法においては、画像全体の輝度値の平均または和を用いる代わりに、画像全体の輝度値の分散(代替的に、標準偏差でもよい)を用いてもよい。図3(b)のように環境光が多い場合には、画像全体が、光によって照らされており、一様に明るい。したがって、該分散の値が所定値以下ならば、車両周辺は明るく照らされていると判断し、該分散の値が該所定値より大きければ、車両周辺は明るく照らされていないと判断することができる。   Furthermore, in the fourth method, instead of using the average or sum of the luminance values of the entire image, the variance of the luminance values of the entire image (alternatively, a standard deviation may be used). When there is a lot of ambient light as shown in FIG. 3B, the entire image is illuminated with light and is uniformly bright. Therefore, if the variance value is less than or equal to a predetermined value, it is determined that the vehicle periphery is brightly illuminated, and if the variance value is greater than the predetermined value, it can be determined that the vehicle periphery is not brightly illuminated. it can.

第1〜第4の手法のうち任意のものを組み合わせて判断してもよい。たとえば、第1と第2の手法を組み合わせ、両方の条件が満たされた場合、もしくはいずれかの条件が満たされた場合に、明るいと判断するようにしてもよい。   The determination may be made by combining any of the first to fourth methods. For example, the first and second methods may be combined, and when both conditions are satisfied, or when one of the conditions is satisfied, it may be determined to be bright.

図4に戻り、ステップS15において、ステップS14の判断結果を調べ、明るいと判断されたかどうかを判断する。明るいと判断されたならば、図3(b)を参照して説明したように、車両の周辺は環境光に照らされて明るいため、歩行者の上半身を認識することができると判定する。したがって、ステップS21において、形状判定を用いて歩行者を検出する。前述したように、歩行者の頭部(顔を含む)は、特徴ある形状を有しているので、頭部の形状を判定することにより、歩行者の検出を行う。歩行者の頭部は、画像の水平ライン101よりも上の上部領域において撮像されるので、該上部領域から検出されることとなる。したがって、画像全体に対して歩行者検出処理を行う代わりに、画像の上部領域に対してのみ歩行者検出処理を行ってもよい。   Returning to FIG. 4, in step S15, the determination result in step S14 is examined to determine whether it is determined bright. If it is determined that it is bright, it is determined that the upper body of the pedestrian can be recognized because the periphery of the vehicle is bright when illuminated by ambient light, as described with reference to FIG. Therefore, in step S21, a pedestrian is detected using shape determination. As described above, since the pedestrian's head (including the face) has a characteristic shape, the pedestrian is detected by determining the shape of the head. Since the pedestrian's head is imaged in the upper region above the horizontal line 101 of the image, it is detected from the upper region. Therefore, instead of performing the pedestrian detection process on the entire image, the pedestrian detection process may be performed only on the upper region of the image.

他方、ステップS15において明るいと判断されなければ、図3(a)を参照して説明したように、歩行者の上半身を認識することは困難であると判定する。したがって、上半身の形状判定による歩行者検出は困難であるので、ステップS23では、動きによって歩行者を検出する。前述したように、歩行者の足の動きは、他の対象物に比べて特徴的であるので、足の動きを判定することにより、歩行者を検出する。歩行者の足は、車両のヘッドライトで照射されている範囲すなわち画像の水平ライン101より下の下部領域において撮像されるので、該下部領域から検出されることとなる。したがって、画像全体に対して歩行者検出処理を行う代わりに、画像の下部領域に対してのみ歩行者検出処理を行ってもよい。   On the other hand, if it is not determined to be bright in step S15, it is determined that it is difficult to recognize the upper body of the pedestrian as described with reference to FIG. Therefore, since it is difficult to detect pedestrians by determining the shape of the upper body, in step S23, pedestrians are detected by movement. As described above, since the movement of the pedestrian's foot is characteristic compared to other objects, the pedestrian is detected by determining the movement of the foot. Since the pedestrian's foot is imaged in the lower area below the horizontal line 101 of the image, that is, the area irradiated by the headlight of the vehicle, it is detected from the lower area. Therefore, instead of performing the pedestrian detection process on the entire image, the pedestrian detection process may be performed only on the lower region of the image.

ステップS21で実施される、形状を用いた歩行者検出には、任意の手法を用いることができる。前述したように、歩行者の頭部(顔を含む)は、一般に楕円(円を含む)形状であるため検出しやすく、また他の対象物との区別もつきやすいため、図6の(a)に示すように、楕円形状をした頭部141を検出することにより歩行者検出を行うのが好ましい。頭部の形状を検出する手法は、様々なものが提案されており、任意の適切なものを用いることができる。   An arbitrary method can be used for the pedestrian detection using the shape performed in step S21. As described above, since the pedestrian's head (including the face) is generally elliptical (including a circle), the pedestrian's head (including the face) is easy to detect and easily distinguishable from other objects. It is preferable to perform pedestrian detection by detecting an elliptical head 141 as shown in FIG. Various techniques for detecting the shape of the head have been proposed, and any appropriate technique can be used.

典型的には、可視画像に、たとえば微分フィルタなどを適用してエッジを抽出し、エッジ画像を生成する。これにより、歩行者の頭部の輪郭が抽出される。他方、頭部をモデル化したパターン(テンプレート)を予めメモリに記憶する。周知のパターンマッチング(テンプレートマッチング)を該エッジ画像に用い、該メモリに記憶されたパターンと類似度(相関)の高いエッジを抽出することにより、頭部を抽出する。このようなテンプレートを用いて頭部の形状を判定する手法は、たとえば、特開2001−222719号公報、特開2005−149144号公報、特開2005−25568号公報に記載されている。また、より検出精度を上げるため、頭部から両肩の形状までを、テンプレートを用いて判定してもよく、このような手法は、たとえば特開2005−149145号公報などに示されている。   Typically, an edge image is generated by applying, for example, a differential filter to the visible image to extract an edge. Thereby, the outline of a pedestrian's head is extracted. On the other hand, a pattern (template) in which the head is modeled is stored in advance in a memory. A well-known pattern matching (template matching) is used for the edge image, and an edge having a high similarity (correlation) with the pattern stored in the memory is extracted to extract the head. A method for determining the shape of the head using such a template is described in, for example, Japanese Patent Application Laid-Open Nos. 2001-222719, 2005-149144, and 2005-25568. In order to further improve the detection accuracy, the shape from the head to both shoulders may be determined using a template. Such a method is disclosed in, for example, Japanese Patent Application Laid-Open No. 2005-149145.

または、ニューラルネットワークを用いて、頭部を検出するようにしてもよい。たとえば、特開2005―190400号公報や特開2005−122351号公報には、ニューラルネットワークを用いて顔の画像領域を検索する手法が示されている。   Alternatively, the head may be detected using a neural network. For example, Japanese Patent Application Laid-Open Nos. 2005-190400 and 2005-122351 show a method for searching a face image area using a neural network.

さらに、顔のパターンを検出することにより、歩行者検出を行うようにしてもよい。顔のパターンの検出手法は、様々なものが提案されており、たとえば、抽出された顔(頭部)領域に対して、グレースケールのテンプレートマッチングを行い、両眉と口の位置関係が適切であるかどうかを判断することにより、顔かどうかを判断することができる(たとえば、特開平8−287216)。また、画像のエッジ成分を抽出したエッジ画像に基づいて、顔の目や口などの部位を認識する手法も提案されている(たとえば、特開2004−78637号公報)。   Furthermore, pedestrian detection may be performed by detecting a face pattern. Various face pattern detection methods have been proposed. For example, grayscale template matching is performed on the extracted face (head) region, and the positional relationship between both eyebrows and mouth is appropriate. By determining whether or not there is a face, it is possible to determine whether or not it is a face (for example, JP-A-8-287216). In addition, a method for recognizing a part such as an eye or a mouth of a face based on an edge image obtained by extracting an edge component of the image has been proposed (for example, Japanese Patent Application Laid-Open No. 2004-78637).

ステップS23で実施される、動きを用いた歩行者検出には、任意の手法を用いることができる。前述したように、歩行者の足の動きは、左右の足が交互に動かされるという特徴を持ち、他の対象物との区別もつきやすいため、足の動きを検出することにより歩行者検出を行うのが好ましい。足の動きを検出する手法は、様々なものが提案されており、任意の適切なものを用いることができる。   Arbitrary methods can be used for the pedestrian detection using a motion implemented at Step S23. As mentioned above, pedestrian foot movement is characterized by the fact that the left and right feet are moved alternately, and can easily be distinguished from other objects. Preferably it is done. Various techniques for detecting the movement of the foot have been proposed, and any appropriate technique can be used.

たとえば、図6(b)に示すように、可視画像から、両足の部分143を検出し、両足の開度Wを時間的に追跡することにより、足の動きを検出することができる。より具体的には、可視画像に対して、周知のフィルタ等を用いてエッジ抽出処理を行い、歩行者の足の輪郭を含むエッジ画像を生成する。他方、人の足をモデル化したパターン(テンプレート)を予めメモリに記憶する。エッジ画像に対して周知のパターンマッチング(テンプレートマッチング)を行い、エッジ画像から、左右の足を表すエッジ(輪郭)を抽出し、左右の足部の開度Wを検出する。時間的に連続した可視画像に対してこの処理を行うことにより、該開度を時間的に追跡する。時間的に開度が所定値以上変化していれば、左右の足を動かしながら歩行している歩行者であると判定することができる。このような手法は、たとえば特開2007−264778号公報に記載されている。また、両足が開脚した状態を、開脚した両足をモデル化したパターンを用いて検出すると共に、両足が閉脚した状態を、閉脚した両足をモデル化したパターンを用いて検出し、開脚状態と閉脚状態とを交互に検出することによって、歩行者を判定することができ、このような手法は、たとえば特開2008−288684号公報に記載されている。   For example, as shown in FIG. 6B, the movement of the foot can be detected by detecting the part 143 of both feet from the visible image and tracking the opening degree W of both feet with time. More specifically, edge extraction processing is performed on the visible image using a known filter or the like to generate an edge image including the contour of the pedestrian's foot. On the other hand, a pattern (template) that models a human foot is stored in advance in a memory. A well-known pattern matching (template matching) is performed on the edge image, edges (contours) representing the left and right feet are extracted from the edge image, and the opening W of the left and right feet is detected. By performing this process on a temporally continuous visible image, the opening degree is temporally tracked. If the opening changes with time over a predetermined value, it can be determined that the pedestrian is walking while moving his left and right feet. Such a method is described in, for example, Japanese Patent Application Laid-Open No. 2007-264778. In addition, the state in which both legs are opened is detected using a pattern that models both legs that have been opened, and the state in which both legs are closed is detected by using a pattern that models both legs that have been closed. A pedestrian can be determined by alternately detecting a closed leg state and a closed leg state, and such a method is described in, for example, Japanese Patent Application Laid-Open No. 2008-288684.

こうして、車両の周辺が明るいと判断された場合には、形状判定により歩行者を判定することにより、車両の周辺が明るくないと判断された場合には、動き判定により歩行者を判定することにより、夜間においても、可視画像から歩行者を検出することができる。   Thus, when it is determined that the periphery of the vehicle is bright, the pedestrian is determined by shape determination. When it is determined that the periphery of the vehicle is not bright, the pedestrian is determined by motion determination. Even at night, a pedestrian can be detected from a visible image.

図4に戻り、形状判定によって歩行者が検出されたならば、ステップS25において、運転者にその情報を報知する。この実施例では、報知は、“BRAKE”というインジケータの表示と注意喚起音とにより実現される。インジケータの表示内容は、任意のものでよく、また、注意喚起音は、任意の種類の音でよく、人間の音声を用いてもよい。   Returning to FIG. 4, if a pedestrian is detected by shape determination, the driver is notified of the information in step S25. In this embodiment, the notification is realized by displaying an indicator “BRAKE” and a warning sound. The display content of the indicator may be arbitrary, and the alert sound may be any kind of sound, and human voice may be used.

さらに、車両の周辺が明るい場合には、図3(b)を参照したように、車両から遠距離に存在する対象物が認識可能な状態で撮像される。また、形状判定を用いると、車両から比較的遠距離に存在する歩行者を検出することができる。したがって、運転者は、対象物を認識するのに時間的な余裕を持つことができる。したがって、形状判定により歩行者が検出された場合には、上記のようなインジケータの表示と注意喚起音とに加え、歩行者の位置を算出して、それを運転者に報知するのが好ましい。   Further, when the periphery of the vehicle is bright, as shown in FIG. 3B, an image is captured in a state where an object existing at a long distance from the vehicle can be recognized. Moreover, when shape determination is used, a pedestrian existing at a relatively long distance from the vehicle can be detected. Therefore, the driver can have a time margin for recognizing the object. Therefore, when a pedestrian is detected by shape determination, it is preferable to calculate the position of the pedestrian and notify the driver of the pedestrian in addition to the indicator display and the alert sound as described above.

具体的には、ステップS21において歩行者の頭部が検出されたことに応じて、該頭部までの距離と、成人の平均身長とに基づいて、画像上の歩行者の身長を推定し、垂直方向に該推定した身長に相当する長さを有し、水平方向に所定幅(これは、成人の一般的な胴幅に基づいて設定されることができる)を有する四角形の領域を設定し、該領域を示すような標示を、撮像画像上に重畳標示する。たとえば、成人の平均身長をHaとし、高さ方向の画像の画素間隔すなわち1画素あたりの長さ(cm)をpchとし、カメラ1Rに搭載されたレンズの焦点距離をhとし、検出された頭部までの距離をZとすると、(Ha/pch)×f/Zにより、画像上の歩行者の身長hを算出することができる。   Specifically, in response to the detection of the pedestrian's head in step S21, the height of the pedestrian on the image is estimated based on the distance to the head and the average height of the adult, Set a rectangular area having a length corresponding to the estimated height in the vertical direction and having a predetermined width in the horizontal direction (this can be set based on the general torso width of an adult) The sign indicating the region is superimposed on the captured image. For example, the average height of an adult is Ha, the pixel interval of the image in the height direction, that is, the length (cm) per pixel is pch, the focal length of the lens mounted on the camera 1R is h, and the detected head If the distance to the part is Z, the height h of the pedestrian on the image can be calculated by (Ha / pch) × f / Z.

ここで図7の(a)を参照すると、ステップS25の報知形態を表しており、上部には、HUD4の表示画面4a上に表示される撮像画像の一例が示されており、枠201が重畳表示されている。枠201は、検出された歩行者について上記のように設定された四角領域を示す。   Here, referring to FIG. 7A, the notification form in step S25 is shown, and an example of a captured image displayed on the display screen 4a of the HUD 4 is shown in the upper part, and a frame 201 is superimposed. It is displayed. A frame 201 indicates a square region set as described above for the detected pedestrian.

また、符号203で示される“BRAKE”という表示203は、インジケータの表示の一例であり、これは、運転者が視認可能なような形態であれば、HUD4に表示される撮像画像上に重畳して表示してもよいし、インスツルメントパネル上の所定のディスプレイ等に表示するようにしてもよい。前述したように、インジケータの表示内容は任意のものでよい。符号205はスピーカを表しており、注意喚起音が発せられることを示している。   In addition, a display 203 “BRAKE” indicated by reference numeral 203 is an example of an indicator display, and this is superimposed on the captured image displayed on the HUD 4 if the display is visible to the driver. Or may be displayed on a predetermined display or the like on the instrument panel. As described above, the display content of the indicator may be arbitrary. Reference numeral 205 denotes a speaker, which indicates that a warning sound is emitted.

こうして、運転者は、インジケータや注意喚起音によって、注意すべき対象物の存在を知らされるだけでなく、表示画面上で具体的な対象物の位置を認識することができる。なお、運転者を混乱させないように、インジケータ203および注意喚起音205の出力は、上記のように対象物の位置が算出されて撮像画像上に強調表示201を行うと同時に行うのが好ましい。   Thus, the driver is not only informed of the presence of the object to be noted by the indicator or the alert sound, but can also recognize the specific position of the object on the display screen. In order not to confuse the driver, it is preferable that the output of the indicator 203 and the alert sound 205 is performed at the same time as the position of the object is calculated and the highlight 201 is displayed on the captured image as described above.

他方、図4に戻り、動き判定によって歩行者が検出されたならば、ステップS27において、運転者にその情報を報知する。この実施例では、報知は、上で述べたように、インジケータの表示と注意喚起音とにより実現される。インジケータの表示内容は、任意のものでよく、また、注意喚起音は、任意の種類の音でよく、人間の音声を用いてもよい。   On the other hand, returning to FIG. 4, if a pedestrian is detected by the motion determination, the driver is notified of the information in step S27. In this embodiment, the notification is realized by the display of the indicator and the alert sound as described above. The display content of the indicator may be arbitrary, and the alert sound may be any kind of sound, and human voice may be used.

車両の周辺が明るくない場合には、図3(a)を参照したように、車両から近距離に存在する対象物が検出されることとなる。したがって、運転者には、対象物を認識するまでの時間的な余裕は少なく、より早期に、対象物の存在を認識するのが望ましい。他方、ステップS25を参照して述べたような対象物の位置を算出して強調表示を行うと、運転者が表示画面を視認する時間を必要とするため、運転者の対象物に対する回避や制動の動作が遅れるおそれがある。したがって、ステップS27では、運転者の早期の認識を促すため、このような対象物の位置算出を行うことなく、インジケータ表示と注意喚起音のみの報知を速やかに行う。   When the periphery of the vehicle is not bright, an object existing at a short distance from the vehicle is detected as shown in FIG. Therefore, it is desirable for the driver to recognize the presence of the object at an earlier stage because the driver has little time to recognize the object. On the other hand, when the position of the object as described with reference to step S25 is calculated and highlighted, it takes time for the driver to visually recognize the display screen. May be delayed. Therefore, in step S27, in order to promote the driver's early recognition, notification of only the indicator display and the warning sound is promptly performed without calculating the position of the object.

ここで、図7(b)を参照すると、ステップS27の報知形態を示しており、HUD4の画面4a上には、撮像された可視画像が表示されているものの、(a)の枠201で示すような対象物の強調表示は行われていない。符号203および205にそれぞれ示されるように、インジケータ表示と注意喚起音の出力は行われる。こうして、運転者は、視覚的および聴覚的に、注意すべき対象物の存在を知ることができる。また、表示された撮像画像上に対象物が強調表示されないことにより、近距離に対象物が存在していることを認識することもできる。   Here, referring to FIG. 7 (b), the notification form of step S27 is shown. Although a captured visible image is displayed on the screen 4a of the HUD 4, it is indicated by a frame 201 in (a). Such object highlighting is not performed. As indicated by reference numerals 203 and 205, an indicator display and a warning sound are output. Thus, the driver can know the presence of the object to be noted visually and audibly. In addition, since the target object is not highlighted on the displayed captured image, it can be recognized that the target object exists at a short distance.

なお、ステップS25およびS27において、インジケータ表示と注意喚起音のうち、いずれか一方のみを用いて報知を行ってもよい。   In steps S25 and S27, notification may be performed using only one of the indicator display and the alert sound.

また、ステップS25の場合には、比較的近距離に存在する歩行者(水平ライン101をまたがって位置し、上半身は上部領域に存在し、下半身は下部領域に存在するような歩行者)も形状判定で検出される可能性があるため、検出された歩行者の距離値を求め(前述したように、周知の三角測量法等によって求められる)、該距離値に応じて報知形態を変更するようにしてもよい。たとえば、距離値が所定値より遠ければ、図7(a)のような対象物の強調表示を行い、距離値が該所定値以下ならば、図7(b)のように、インジケータ表示および(または)注意喚起音に基づく報知を行う。   In the case of step S25, the shape of a pedestrian (a pedestrian located across the horizontal line 101, with the upper body in the upper region and the lower body in the lower region) is also shaped. Since it may be detected by the determination, the distance value of the detected pedestrian is obtained (as described above, obtained by a known triangulation method or the like), and the notification form is changed according to the distance value. It may be. For example, if the distance value is farther than a predetermined value, the object is highlighted as shown in FIG. 7A. If the distance value is less than the predetermined value, an indicator display and ( Or) Notification based on the alert sound.

上記実施形態では、明るさの判断結果に応じて、いずれかの対象物検出手法を選択しているが、この変形形態として、様々なものがありうる。   In the above embodiment, any one of the object detection methods is selected according to the determination result of the brightness, but there may be various variations as this modification.

たとえば、水平ライン101より下の画像領域は、ヘッドライトの照射領域であるので、常に対象物が検出可能な領域である。したがって、明るいと判断された場合も明るくないと判断された場合も、常に、動き検出を行うようにしてもよい。形状判定については、明るいと判断された場合にのみ行う。   For example, since the image area below the horizontal line 101 is an irradiation area of the headlight, the object can always be detected. Therefore, motion detection may always be performed regardless of whether it is determined bright or not bright. The shape determination is performed only when it is determined to be bright.

さらに、車速に応じて、対象物の検出手法を切り替えてもよい。車速が高いほど、遠くに存在する対象物を検出するのが望ましく、車速が低いほど、近くに存在する対象物を検出するのが望ましい。したがって、車速が所定値以上であるときに、車両周辺が明るいと判断されたならば形状判定を行い、車両周辺が明るいと判断されなければ動き検出を行うと共に、車速が該所定値より低いとき、車両周辺が明るいと判断されたならば、形状判定だけでなく動き判定を行い、車両周辺が暗いと判断されたならば、動き判定を行う。こうして、車速が低い場合には、動き判定を常に実施して、早期に報知することができる。   Furthermore, the object detection method may be switched according to the vehicle speed. It is desirable to detect an object that exists farther as the vehicle speed is higher, and it is desirable to detect an object that is present closer as the vehicle speed is lower. Therefore, when the vehicle speed is equal to or higher than the predetermined value, the shape is determined if the vehicle periphery is determined to be bright, and if the vehicle periphery is not determined to be bright, motion detection is performed and the vehicle speed is lower than the predetermined value. If it is determined that the periphery of the vehicle is bright, not only the shape determination but also the movement determination is performed. If it is determined that the periphery of the vehicle is dark, the movement determination is performed. In this way, when the vehicle speed is low, the motion determination can always be performed to notify early.

さらに、環境光の推定によって判断された明るさの度合いに応じて、形状判定と動き判定のいずれか、もしくは両方を実行するようにしてもよい。たとえば、前述したように、第1の手法では画素数に応じて、第2の手法では遠方領域と近傍領域の輝度値の平均値(または和)の差の大きさに応じて、第3の手法では照度センサの検出値の大きさに応じて、第4の手法では輝度値の平均値(または和)の大きさに応じて、車両周辺の明るさを判断しているが、この明るさを、3段階で判断する。最も明るい段階と判断されたならば、形状判定を実行し、最も暗い段階と判断されたならば、動き判定を実行し、中間の段階と判断されたならば、形状判定と動き判定の両方を実行する。両方を実行した場合、いずれかの判定で対象物が検出されたならば、それに応じて、ステップS25またはS27の報知を行うことができる。   Furthermore, either or both of the shape determination and the motion determination may be executed in accordance with the brightness level determined by the environmental light estimation. For example, as described above, according to the number of pixels in the first method, according to the magnitude of the difference between the average values (or sums) of the luminance values in the far and neighboring regions in the second method, In the method, the brightness around the vehicle is determined according to the magnitude of the detected value of the illuminance sensor, and in the fourth technique, the brightness around the vehicle is determined according to the average value (or sum) of the luminance values. Are determined in three stages. If it is determined that it is the brightest stage, shape determination is performed, if it is determined that it is the darkest stage, motion determination is performed, and if it is determined that it is an intermediate stage, both shape determination and motion determination are performed. Run. When both are executed, if an object is detected in any of the determinations, the notification in step S25 or S27 can be performed accordingly.

なお、車両周辺が明るくないと判断された場合に形状判定を行うと、本来は視認不可能な歩行者の頭部に対応する形状(楕円)を探索することとなり、これは、誤検出につながるおそれがある。したがって、車両周辺が明るくないと判断された場合には、動き検出のみを実行するのが好ましい。   Note that if shape determination is performed when it is determined that the periphery of the vehicle is not bright, a shape (ellipse) corresponding to a pedestrian's head that cannot be visually recognized is searched for, which leads to erroneous detection. There is a fear. Therefore, when it is determined that the periphery of the vehicle is not bright, it is preferable to perform only motion detection.

上記の実施形態では、検出すべき対象物が歩行者である。しかしながら、この発明は、たとえば動物にも適用可能である。鹿や熊のような大型の動物の場合には、環境光が少ないと、図3(a)を参照して述べたように、足の部分しか認識可能なように撮像されない可能性がある。また、四足を動かして移動しているかどうかを判定することにより、動物かどうかを判断することができる。環境光が多い場合には、動物の頭部や胴体を、形状に基づくパターンマッチング等で検出することができる。したがって、図4のようなプロセスを、動物にも適用することができる。   In the above embodiment, the object to be detected is a pedestrian. However, the present invention is also applicable to animals, for example. In the case of a large animal such as a deer or a bear, if there is little ambient light, as described with reference to FIG. 3A, there is a possibility that an image is captured so that only the foot portion can be recognized. Moreover, it can be determined whether it is an animal by determining whether it is moving by moving a quadruped. When there is a lot of ambient light, the head and torso of the animal can be detected by pattern matching based on the shape. Therefore, the process as shown in FIG. 4 can be applied to animals.

さらに、上記の実施形態では、車両の前方を撮像するカメラが取り付けられた形態を例に説明したが、車両の他の部分たとえば後方を撮像するカメラが取り付けられた形態にも本願発明は適用可能である。この場合、上記のヘッドライトにより照射される範囲に代えて、テールランプ(後退灯)により照射される範囲が用いられる。   Furthermore, in the above-described embodiment, an example in which a camera that images the front of the vehicle is attached has been described as an example. However, the present invention can also be applied to an embodiment in which a camera that images other parts of the vehicle, for example, the rear is attached. It is. In this case, a range irradiated by a tail lamp (reverse lamp) is used instead of the range irradiated by the headlight.

本願発明は、環境光の推定により車両周辺の明るさを判断して、その判断結果に応じて処理を切り替えるものであるが、この技術は、他の任意のシステムにも適用可能である。たとえば、車両が走行する車線(白線等)を検出するシステムが様々な形態で提案されている。検出された車線を表示装置上に表示したり、検出された車線を用いて先行車を判定したりすることが行われている。このような検出システムにおいて、環境光が少ないと、車両から遠距離の所の車線検出は困難である。したがって、環境光が少ない場合には、車速を所定の低速に制限されない限り車線検出が困難である旨を運転者に報知したり、車速を低速に制限するよう促したりすることができる。また、環境光が少ないと、強いカーブでの車線検出も困難であるので、環境光が少ない場合であって、走行路の曲率(これは、既知のナビゲーションユニットの道路情報から取得することができる)が所定値以上である場合には、車線検出が困難である旨を運転者に報知したりすることができる。このように、環境光を推定して車両周辺が明るいかどうかに従って、運転支援の方法を切り替えることができる。   In the present invention, the brightness around the vehicle is determined by estimating the ambient light, and the processing is switched according to the determination result. However, this technique is applicable to any other system. For example, systems that detect a lane (white line or the like) on which a vehicle travels have been proposed in various forms. A detected lane is displayed on a display device, or a preceding vehicle is determined using the detected lane. In such a detection system, if there is little ambient light, it is difficult to detect a lane at a long distance from the vehicle. Therefore, when the ambient light is low, it is possible to notify the driver that lane detection is difficult unless the vehicle speed is limited to a predetermined low speed, or to urge the driver to limit the vehicle speed to a low speed. Also, if the ambient light is small, it is difficult to detect the lane on a strong curve, so the environment light is small, and the curvature of the travel path (this can be obtained from the road information of a known navigation unit). ) Is greater than or equal to a predetermined value, the driver can be notified that lane detection is difficult. In this way, the driving assistance method can be switched according to whether the surroundings of the vehicle are bright by estimating the ambient light.

なお、上記実施形態では、対象物までの距離を求めるのに、一対の可視カメラを用いているが、この発明は、1台の可視カメラの場合でも適用可能である。この場合、対象物までの距離は、たとえばレーダなどの距離を検出可能な装置を車両に取り付けることによって検出されることができ、または、撮像された画像上の各位置に、シミュレーション等を介して、おおよその距離値を関連づけておくことにより、対象物の撮像画像上の位置から該対象物のおおよその距離値を求めるようにしてもよい。   In the above embodiment, a pair of visible cameras are used to determine the distance to the object. However, the present invention can also be applied to a single visible camera. In this case, the distance to the object can be detected by attaching a device capable of detecting the distance, such as a radar, to the vehicle, or at each position on the captured image via simulation or the like. The approximate distance value of the object may be obtained from the position on the captured image of the object by associating the approximate distance value.

以上のように、この発明の特定の実施形態について説明したが、本願発明は、これら実施形態に限定されるものではない。   As described above, specific embodiments of the present invention have been described. However, the present invention is not limited to these embodiments.

1R,1L 可視カメラ(撮像手段)
2 画像処理ユニット
3 スピーカ
4 ヘッドアップディスプレイ
1R, 1L visible camera (imaging means)
2 Image processing unit 3 Speaker 4 Head-up display

Claims (5)

車両の周辺の可視画像を撮像する撮像手段を搭載して、該車両の周辺を監視する車両周辺監視装置であって、
前記車両の周辺の環境光を推定して該車両の周辺が明るく照らされているかどうかを判断する判断手段と、
前記車両の周辺が明るく照らされていないと判断されたならば、前記可視画像のうち、少なくとも前記車両のライトにより照らされている範囲に相当する画像領域に対して前記車両の周辺の対象物を検出する検出処理を行い、前記車両の周辺が明るく照らされていると判断されたならば、前記可視画像のうち、少なくとも前記車両のライトにより照らされている範囲に相当する画像領域よりも上部の画像領域に対して前記車両の周辺の対象物を検出する検出処理を行うよう、画像処理領域を変更することによって対象物の検出手法を切り替える手段と、
を備える車両周辺監視装置。
A vehicle periphery monitoring device equipped with an imaging means for capturing a visible image around the vehicle and monitoring the periphery of the vehicle,
Determining means for estimating ambient light around the vehicle and determining whether the surrounding of the vehicle is brightly illuminated;
If it is determined that the periphery of the vehicle is not brightly illuminated, an object in the vicinity of the vehicle is selected for an image region corresponding to at least a range illuminated by the vehicle light in the visible image. If it is determined that the periphery of the vehicle is brightly illuminated, at least a portion of the visible image that is above the image region corresponding to the range illuminated by the vehicle light is detected. Means for switching the detection method of the object by changing the image processing area so as to perform a detection process for detecting the object around the vehicle on the image area;
A vehicle periphery monitoring device.
前記判断手段によって前記車両の周辺が明るく照らされていないと判断された場合には、前記車両の周辺の対象物を、該対象物の動きを判定することにより検出し、前記判断手段によって前記車両の周辺が明るく照らされていると判断された場合には、前記車両の周辺の対象物を、該対象物の形状を判定することにより検出する、
請求項1に記載の車両周辺監視装置。
When it is determined by the determination means that the periphery of the vehicle is not brightly illuminated, an object around the vehicle is detected by determining the movement of the object, and the vehicle is detected by the determination means. If it is determined that the periphery of the vehicle is brightly illuminated, the object around the vehicle is detected by determining the shape of the object.
The vehicle periphery monitoring apparatus according to claim 1.
前記対象物は歩行者であり、前記判断手段によって前記車両の周辺が明るく照らされていないと判断された場合には、前記車両の周辺の歩行者を、該歩行者の足の動きを判定することにより検出し、前記判断手段によって前記車両の周辺が明るく照らされていると判断された場合には、前記車両の周辺の歩行者を、該歩行者の頭部の形状を判定することにより検出する、
請求項1または2に記載の車両周辺監視装置。
When the object is a pedestrian and the determination means determines that the periphery of the vehicle is not brightly illuminated, the pedestrian in the vicinity of the vehicle is determined based on the movement of the pedestrian's legs. And when the judgment means judges that the periphery of the vehicle is brightly illuminated, the pedestrian around the vehicle is detected by determining the shape of the head of the pedestrian. To
The vehicle periphery monitoring apparatus according to claim 1 or 2.
前記判断手段は、1)前記撮像手段により撮像された可視画像において、所定値以上の輝度値を持ち、所定値以上の面積を持つ画像領域が、路面からの高さが所定値以上の所に存在しているとき、2)前記可視画像において、前記車両に対して遠方の範囲に相当する画像領域における輝度と、前記車両の近傍の範囲に相当する画像領域における輝度との差が所定値以下であるとき、および3)前記車両に搭載された照度センサの検出値が所定値以上のとき、のうちの少なくとも1つが満たされたならば、前記車両の周辺が明るく照らされていると判断する、
請求項1から3のいずれかに記載の車両周辺監視装置。
The determination means is: 1) In a visible image captured by the imaging means, an image region having a luminance value greater than or equal to a predetermined value and having an area greater than or equal to a predetermined value is located where the height from the road surface is greater than or equal to a predetermined value. 2) In the visible image, the difference between the luminance in an image area corresponding to a range far from the vehicle and the luminance in an image area corresponding to a range near the vehicle is less than a predetermined value in the visible image. 3) When the detected value of the illuminance sensor mounted on the vehicle is equal to or greater than a predetermined value, if at least one of the detected values is satisfied, it is determined that the periphery of the vehicle is illuminated brightly ,
The vehicle periphery monitoring apparatus according to any one of claims 1 to 3.
前記車両の周辺が明るく照らされていないと判断されたときに前記対象物が検出されたならば、運転者に注意を喚起するため、インジケータの表示および注意喚起音の少なくとも一方を用いて運転者に報知し、前記車両の周辺が明るく照らされていると判断されたときに前記対象物が検出されたならば、該インジケータの表示および注意喚起音の少なくとも一方に加え、該対象物の位置を、表示装置上に表示された撮像画像に重畳して表示することにより運転者に報知する報知手段を備える、
請求項1から4のいずれかに記載の車両周辺監視装置。
If the object is detected when it is determined that the periphery of the vehicle is not brightly illuminated, the driver uses at least one of an indicator display and a warning sound to alert the driver. If the object is detected when it is determined that the periphery of the vehicle is brightly illuminated, the position of the object is added to at least one of the indicator display and the alert sound. And a notification means for notifying the driver by displaying the image superimposed on the captured image displayed on the display device,
The vehicle periphery monitoring apparatus according to any one of claims 1 to 4.
JP2009038156A 2009-02-20 2009-02-20 Vehicle periphery monitoring device Expired - Fee Related JP5383246B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009038156A JP5383246B2 (en) 2009-02-20 2009-02-20 Vehicle periphery monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009038156A JP5383246B2 (en) 2009-02-20 2009-02-20 Vehicle periphery monitoring device

Publications (2)

Publication Number Publication Date
JP2010188970A JP2010188970A (en) 2010-09-02
JP5383246B2 true JP5383246B2 (en) 2014-01-08

Family

ID=42815501

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009038156A Expired - Fee Related JP5383246B2 (en) 2009-02-20 2009-02-20 Vehicle periphery monitoring device

Country Status (1)

Country Link
JP (1) JP5383246B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9235990B2 (en) 2011-11-25 2016-01-12 Honda Motor Co., Ltd. Vehicle periphery monitoring device
WO2020129517A1 (en) * 2018-12-18 2020-06-25 日立オートモティブシステムズ株式会社 Image processing device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004172828A (en) * 2002-11-19 2004-06-17 Nissan Motor Co Ltd Night vision device for vehicle
JP2005050139A (en) * 2003-07-29 2005-02-24 Nissan Motor Co Ltd Display controller for vehicle
JP2005309797A (en) * 2004-04-22 2005-11-04 Nissan Motor Co Ltd Warning device for pedestrian

Also Published As

Publication number Publication date
JP2010188970A (en) 2010-09-02

Similar Documents

Publication Publication Date Title
JP4173901B2 (en) Vehicle periphery monitoring device
US8810653B2 (en) Vehicle surroundings monitoring apparatus
JP4173902B2 (en) Vehicle periphery monitoring device
JP5774770B2 (en) Vehicle periphery monitoring device
JP4410292B1 (en) Vehicle periphery monitoring device
JP4482599B2 (en) Vehicle periphery monitoring device
JP4528283B2 (en) Vehicle periphery monitoring device
JP5576937B2 (en) Vehicle periphery monitoring device
US20120147188A1 (en) Vehicle vicinity monitoring apparatus
JPWO2011108218A1 (en) Vehicle periphery monitoring device
JP2010257377A (en) Vehicle surroundings monitoring apparatus
JP4644273B2 (en) Vehicle periphery monitoring device
JP2010224670A (en) Periphery monitoring device for vehicle
JP4972116B2 (en) Vehicle periphery monitoring device
WO2012066751A1 (en) Peripheral monitoring device for vehicle
JP4813304B2 (en) Vehicle periphery monitoring device
JP2011103058A (en) Erroneous recognition prevention device
JP5383246B2 (en) Vehicle periphery monitoring device
JP6087240B2 (en) Vehicle periphery monitoring device
JP5339969B2 (en) Vehicle periphery monitoring device
JP2010092429A (en) Vehicle surrounding monitoring device
JP5430633B2 (en) Vehicle periphery monitoring device
JP4922368B2 (en) Vehicle periphery monitoring device
JP5907849B2 (en) Vehicle periphery monitoring device
JP5149918B2 (en) Vehicle periphery monitoring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111125

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120522

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130226

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130716

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130917

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131001

R150 Certificate of patent or registration of utility model

Ref document number: 5383246

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees