JP2009044631A - Object detection device - Google Patents

Object detection device Download PDF

Info

Publication number
JP2009044631A
JP2009044631A JP2007209650A JP2007209650A JP2009044631A JP 2009044631 A JP2009044631 A JP 2009044631A JP 2007209650 A JP2007209650 A JP 2007209650A JP 2007209650 A JP2007209650 A JP 2007209650A JP 2009044631 A JP2009044631 A JP 2009044631A
Authority
JP
Japan
Prior art keywords
luminance
region
unit
illuminator
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007209650A
Other languages
Japanese (ja)
Inventor
Mamoru Furuta
守 古田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2007209650A priority Critical patent/JP2009044631A/en
Publication of JP2009044631A publication Critical patent/JP2009044631A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an object detection device for detecting an object by discriminating an object which is easily visible for a driver from an object which is hardly visible for the driver. <P>SOLUTION: An object detection device 1, provided with a high luminance region extraction part 13 for extracting a high luminance region K<SB>j</SB>having luminance which is larger than prescribed luminance; and a contact decision part 19 for deciding whether an object region O<SB>i</SB>corresponding to the object is brought into contact with the high luminance region K<SB>j</SB>, is configured to extract the high luminance region K<SB>j</SB>having luminance larger than the prescribed luminance from among pickup image information, decides whether the object region O<SB>i</SB>is brought into contact with the high luminance region K<SB>j</SB>, and detects only a pedestrian who does not carry any luminaire by discriminating whether a high luminance body is accompanied with the object. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、物体を検出する物体検出装置に関するものである。   The present invention relates to an object detection device that detects an object.

従来、周囲の物体を検出する装置は、車両の走行支援に活用されている。例えば、夜間などにおいて、運転者が見えにくい部分を映像化し、運転者の視覚を支援する装置に用いられている。このような装置として、撮像した画像から形状に基づいて歩行者を抽出しアラーム音で警告すると共に、抽出した歩行者を強調して映像化する物体検出装置が知られている(例えば、特許文献1参照)。
特開2005−159392号公報
2. Description of the Related Art Conventionally, an apparatus for detecting surrounding objects has been used for driving support for vehicles. For example, it is used in an apparatus that supports a driver's vision by visualizing a portion that is difficult for the driver to see at night. As such an apparatus, there is known an object detection apparatus that extracts a pedestrian from a captured image based on a shape and warns with an alarm sound, and emphasizes the extracted pedestrian and visualizes the image (for example, Patent Documents). 1).
JP 2005-159392 A

しかしながら、従来の装置においては、運転者が目視できる物体に対しても警告処理が行われるため、運転者にとって注意喚起が煩わしい場合がある。また、照明器を点灯していない自転車など、目視し難く注意喚起が必要な物体を優先して強調することが困難である。   However, in the conventional apparatus, warning processing is also performed on an object that can be visually recognized by the driver, and thus it may be troublesome for the driver to call attention. In addition, it is difficult to prioritize and emphasize objects that are difficult to see and need attention, such as bicycles that are not lit.

そこで本発明は、このような技術課題を解決するためになされたものであって、運転者が目視し易い物体と目視し難い物体とを識別して物体検出を行う物体検出装置を提供することを目的とする。   Accordingly, the present invention has been made to solve such a technical problem, and provides an object detection device that performs object detection by identifying an object that is easy for the driver to see and an object that is difficult to see. With the goal.

すなわち、本発明に係る物体検出装置は、車載された撮像手段によって撮像した画像の画像情報の中から物体を検出する物体検出手段と、前記画像情報の中から所定の輝度より大きな輝度を有する高輝度領域を抽出し、高輝度体として検出する高輝度体検出手段と、前記物体の検出結果と前記高輝度体の検出結果とに基づいて、前記高輝度体が付随する前記物体と前記高輝度体が付随しない前記物体とを識別する識別手段とを備えて構成される。   That is, an object detection device according to the present invention includes an object detection unit that detects an object from image information of an image captured by an on-vehicle imaging unit, and a high brightness that is greater than a predetermined luminance from the image information. A high-brightness body detection unit that extracts a brightness region and detects it as a high-brightness body, and based on the detection result of the object and the detection result of the high-brightness body, the object and the high brightness And an identification means for identifying the object not accompanied by a body.

この発明によれば、撮像した画像情報の中から、所定の輝度より大きな輝度を有する高輝度領域を抽出して高輝度体として検出し、物体に高輝度体が付随しているか否かを識別することができる。これにより、高輝度体が付随している物体、すなわち運転者が比較的目視し易い物体と、高輝度体が付随していない物体、すなわち比較的目視し難い物体とを識別することができる。   According to the present invention, a high-brightness area having a brightness greater than a predetermined brightness is extracted from the captured image information and detected as a high-brightness body, and whether or not the object is accompanied by a high-brightness body is identified. can do. As a result, it is possible to distinguish between an object accompanied by a high-luminance body, that is, an object that is relatively easy for the driver to visually recognize, and an object not accompanied by the high-luminance body, that is, an object that is relatively difficult to view.

ここで、物体検出装置は、前記高輝度体が付随する前記物体の存在よりも、前記高輝度体が付随していない前記物体の存在を強調して運転者に報知し車両の運転支援を行う運転支援手段を備えることが好適である。   Here, the object detection device emphasizes the presence of the object not accompanied by the high-luminance body rather than the presence of the object accompanied by the high-luminance body, and notifies the driver to provide driving assistance for the vehicle. It is preferable to provide driving support means.

このように構成することで、高輝度体が付随していない物体の存在が、高輝度体が付随している物体の存在よりも強調して運転者に報知し車両の運転支援を行うことができるため、運転者は比較的目視し難い物体の存在を迅速に認識することができる。   By configuring in this way, the presence of an object not accompanied by a high-luminance body can be emphasized over the presence of an object accompanied by a high-luminance body and the driver can be notified to provide driving assistance for the vehicle. Therefore, the driver can quickly recognize the presence of an object that is relatively difficult to see.

また、物体検出装置は、前記高輝度体が付随する前記物体を、運転支援の対象から除外して運転支援を行う運転支援手段を備えてもよい。   In addition, the object detection device may include driving support means that performs driving support by excluding the object accompanied by the high-luminance body from a target of driving support.

このように構成することで、高輝度体が付随する物体を、運転支援の対象から除外することができるため、運転者は既に認識している物体の存在を報知されることが無いので、運転者が煩わしく感じることを回避することができる。   By configuring in this way, an object accompanied by a high-luminance body can be excluded from the target of driving support, so the driver is not notified of the presence of an already recognized object. It can be avoided that the person feels bothersome.

また、物体検出装置は、前記画像の撮像方向に向けて所定の投光時間で投光する投光手段を備え、前記撮像手段は、前記投光時間より撮像時間を長くすることが好適である。   The object detection device preferably includes a light projecting unit that projects light in a predetermined light projecting direction toward the image capturing direction, and the image capturing unit preferably has a longer image capturing time than the light projecting time. .

このように構成することで、撮像手段の撮像時間を投光手段の投光時間よりも長くすることができるため、自ら発光していない物体は投光手段で投光されたタイミングの静止画像として、自ら発光している物体は撮像時間の間の動作の軌跡を示す画像として撮像することができる。これにより、自ら発光している高輝度体と瞬間的に反射した物体とを区別することができるため、高輝度体が照明器であるか否かを識別することができる。   With this configuration, the imaging time of the imaging unit can be made longer than the projection time of the light projecting unit, so that an object that does not emit light as a still image at the timing when it is projected by the light projecting unit. An object that emits light can be captured as an image showing a trajectory of an operation during the imaging time. This makes it possible to distinguish between a high-luminance body that emits light and an object that is instantaneously reflected, so that it is possible to identify whether the high-luminance body is an illuminator.

また、投光手段を備える物体検出装置は、前記高輝度領域の特徴量を導出する特徴量導出手段と、前記物体に対応する領域と前記高輝度領域とが互いに接触しているか否かを判定する接触判定手段と、前記接触判定手段によって前記物体に対応する領域と前記高輝度領域とが互いに接触していると判定した場合には、前記特徴量に基づいて、前記高輝度体が照明器であるか否かを判定する照明器判定手段とを備えることが好適である。   In addition, the object detection apparatus including the light projecting unit determines whether the feature amount deriving unit that derives the feature amount of the high brightness area, and whether the area corresponding to the object and the high brightness area are in contact with each other. If the contact determination unit determines that the region corresponding to the object and the high brightness region are in contact with each other, the high brightness body is an illuminator based on the feature amount. It is preferable to include an illuminator determination unit that determines whether or not.

このように構成することで、高輝度領域の特徴量を導出し、物体に対応する領域と高輝度領域とが互いに接触しているか否かを判定し、接触していると判定した場合には、高輝度領域の特徴量に基づいて、高輝度領域に対応する高輝度体が照明器であるか否かを判定することができる。これにより、高輝度体が照明器であるか否かをより精度よく判定することができる。   With this configuration, the feature amount of the high brightness area is derived, it is determined whether the area corresponding to the object and the high brightness area are in contact with each other, and if it is determined that they are in contact Based on the feature quantity of the high luminance area, it can be determined whether or not the high luminance body corresponding to the high luminance area is an illuminator. Thereby, it can be determined more accurately whether the high-luminance body is an illuminator.

また、投光手段を備える物体検出装置において、前記特徴量導出手段は、前記特徴量として前記高輝度領域の面積を算出し、前記照明器判定手段は、前記物体に対応する領域と前記高輝度領域との面積比に基づいて、前記高輝度体が照明器であるか否かを判定することが好適である。   In the object detection apparatus including the light projecting unit, the feature amount deriving unit calculates an area of the high luminance region as the feature amount, and the illuminator determining unit is configured to calculate the region corresponding to the object and the high luminance region. It is preferable to determine whether or not the high-luminance body is an illuminator based on an area ratio with the region.

このように構成することで、特徴量として高輝度領域の面積を算出し、物体に対応する面積と高輝度領域の面積との比に基づいて、高輝度体が照明器であるか否かを判定することができる。これにより、高輝度体が照明器であるか否かを一層精度よく判定することができる。   By configuring in this way, the area of the high luminance area is calculated as the feature amount, and whether or not the high luminance body is an illuminator is determined based on the ratio of the area corresponding to the object and the area of the high luminance area. Can be determined. Thereby, it can be determined with higher accuracy whether or not the high-luminance body is an illuminator.

さらに、投光手段を備える物体検出装置は、前記高輝度領域の軌跡の形状に基づいて前記画像の消失点の位置を決定する消失点決定手段と、前記消失点の位置と車両の所定のピッチ角度における消失点の位置とを比較して前記車両のピッチ角度を算出するピッチ角度算出手段と、前記ピッチ角度に基づいて前記画像情報の探索する範囲を限定する範囲限定手段とを備えて構成されることが好ましい。   Further, the object detection device comprising the light projecting means includes vanishing point determining means for determining the position of the vanishing point of the image based on the shape of the locus of the high luminance region, the position of the vanishing point and a predetermined pitch of the vehicle A pitch angle calculating unit that calculates the pitch angle of the vehicle by comparing the position of the vanishing point in the angle, and a range limiting unit that limits a search range of the image information based on the pitch angle. It is preferable.

このように構成することで、高輝度領域に基づいて画像の消失点の位置を決定し、決定した消失点の位置と、所定のピッチ角度における消失点の位置とを比較して車両のピッチ角度を算出することができる。また、算出したピッチ角度に基づいて画像情報の探索する範囲を限定することができるため、物体に対応する領域や高輝度領域の抽出を的確かつ迅速に行うことができる。   With this configuration, the position of the vanishing point of the image is determined based on the high luminance area, and the position of the vanishing point determined is compared with the position of the vanishing point at a predetermined pitch angle. Can be calculated. Further, since the search range of the image information can be limited based on the calculated pitch angle, the region corresponding to the object and the high luminance region can be extracted accurately and quickly.

本発明によれば、運転者が目視し易い物体と目視し難い物体とを識別して物体検出することができる。   According to the present invention, an object can be detected by identifying an object that is easy for the driver to see and an object that is difficult to see.

以下、添付図面を参照して本発明の実施の形態を詳細に説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted.

まず、本実施形態に係る物体検出装置1の構成について、図1を用いて説明する。図1は、本実施形態の物体検出装置1の構成図である。本実施形態に係る物体検出装置1は、撮像した画像情報の中から特定物体を検出する装置であって、例えば、夜間の車両の運転において、歩行者や自転車を検知して運転支援を行う運転支援システムに好適に用いられるものである。   First, the configuration of the object detection apparatus 1 according to the present embodiment will be described with reference to FIG. FIG. 1 is a configuration diagram of an object detection device 1 according to the present embodiment. The object detection device 1 according to the present embodiment is a device that detects a specific object from captured image information. For example, in driving a vehicle at night, driving that supports driving by detecting pedestrians and bicycles. It is used suitably for a support system.

図1に示すように、物体検出装置1は、情報取得部50、ECU10及び情報提供部30を備えている。ここで、ECU(Electronic Control Unit)とは、電子制御する自動車デバイスのコンピュータであり、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、および入出力インターフェイスなどを備えて構成されている。   As shown in FIG. 1, the object detection apparatus 1 includes an information acquisition unit 50, an ECU 10, and an information provision unit 30. Here, the ECU (Electronic Control Unit) is a computer of an automobile device that is electronically controlled, and includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), an input / output interface, and the like. Configured.

情報取得部50は、車両周辺の情報を取得する機能を有しており、撮像部(撮像手段)21、投光器(投光手段)22及び車速センサ53を備えて構成される。   The information acquisition unit 50 has a function of acquiring information around the vehicle, and includes an imaging unit (imaging unit) 21, a projector (light projection unit) 22, and a vehicle speed sensor 53.

撮像部51は、主に車両進行方向の画像情報を取得する機能を有している。また、撮像部51は、ECU10から入力した信号に基づいて撮像時間を変化させて画像情報を取得する機能を有している。撮像部51としては、例えば近赤外線カメラが用いられる。また、撮像部51は、撮像した画像情報をECU10へ出力する機能を有している。   The imaging unit 51 mainly has a function of acquiring image information in the vehicle traveling direction. The imaging unit 51 has a function of acquiring image information by changing the imaging time based on a signal input from the ECU 10. As the imaging unit 51, for example, a near infrared camera is used. The imaging unit 51 has a function of outputting captured image information to the ECU 10.

投光器52は、撮像部51が撮像する方向に投光する機能を有している。また、投光器52は、ECU10から入力した信号に基づいて投光時間を変化させる機能を有している。投光器52は、例えば近赤外線を投光するストロボが用いられる。なお、投光器52として、可視光、赤外線又は紫外線などを投光するものを用いる場合もある。   The projector 52 has a function of projecting light in the direction in which the imaging unit 51 captures an image. The projector 52 has a function of changing the projection time based on a signal input from the ECU 10. As the projector 52, for example, a strobe that projects near infrared rays is used. Note that a projector that projects visible light, infrared light, or ultraviolet light may be used as the projector 52.

車速センサ53は、車輪速パルスを検出するセンサであり、例えば、車輪の回転による磁束変化を検出することで車輪の回転を検出し、車両の速度を取得する。車速センサ53は、取得した車速をECU10へ出力する機能を有している。   The vehicle speed sensor 53 is a sensor that detects a wheel speed pulse. For example, the vehicle speed sensor 53 detects the rotation of the wheel by detecting a change in magnetic flux due to the rotation of the wheel, and acquires the speed of the vehicle. The vehicle speed sensor 53 has a function of outputting the acquired vehicle speed to the ECU 10.

ECU10は、同期制御部11、情報入力部12、高輝度領域抽出部(高輝度体検出手段)13、特徴量導出部(特徴量導出手段)14、消失点導出部(消失点決定手段)15、ピッチ角度算出部(ピッチ角度算出手段)16、探索範囲限定部(範囲限定手段)17、物体領域抽出部(物体検出手段)18、接触判定部(接触判定手段、識別手段)19、照明器判定部(照明器判定手段)20、物体識別部(識別手段)21、出力部(運転支援手段)22を備えて構成される。   The ECU 10 includes a synchronization control unit 11, an information input unit 12, a high luminance region extraction unit (high luminance body detection unit) 13, a feature amount deriving unit (feature amount deriving unit) 14, and a vanishing point deriving unit (vanishing point determining unit) 15. , Pitch angle calculation unit (pitch angle calculation unit) 16, search range limitation unit (range limitation unit) 17, object region extraction unit (object detection unit) 18, contact determination unit (contact determination unit, identification unit) 19, illuminator A determination unit (illuminator determination unit) 20, an object identification unit (identification unit) 21, and an output unit (driving support unit) 22 are configured.

同期制御部11は、撮像部51の撮像時間及び投光器52の投光時間を制御する機能を有している。同期制御部11は、撮像部51及び投光器52へ同期信号を出力して撮像時間及び投光時間を制御する。また、同期制御部11は、車速センサ53から車速を入力し、入力した車速に基づいて撮像時間及び投光時間を制御する機能を有している。なお、車速に基づいた同期制御の機能は、必ずしも必要な機能ではなく、個々の車両への要求に応じて備えればよい。さらに、同期制御部11は、撮像部51で撮像した画像情報の入力タイミングを情報入力部12へ出力する機能を有している。   The synchronization control unit 11 has a function of controlling the image capturing time of the image capturing unit 51 and the light projecting time of the projector 52. The synchronization control unit 11 outputs a synchronization signal to the imaging unit 51 and the projector 52 to control the imaging time and the light projection time. The synchronization control unit 11 has a function of inputting the vehicle speed from the vehicle speed sensor 53 and controlling the imaging time and the light projection time based on the input vehicle speed. Note that the function of synchronous control based on the vehicle speed is not necessarily a necessary function, and may be provided in response to a request for each vehicle. Further, the synchronization control unit 11 has a function of outputting the input timing of image information captured by the imaging unit 51 to the information input unit 12.

情報入力部12は、同期制御部11から入力した画像情報の入力タイミングに基づいて撮像部51で撮像した画像情報を入力する機能を有している。また、情報入力部12は、入力した画像情報を高輝度領域抽出部13へ出力する機能を有している。   The information input unit 12 has a function of inputting the image information captured by the imaging unit 51 based on the input timing of the image information input from the synchronization control unit 11. In addition, the information input unit 12 has a function of outputting the input image information to the high luminance region extraction unit 13.

高輝度領域抽出部13は、画像情報の輝度を入力し、所定の輝度より大きな輝度を持つ画素を抽出する機能を有している。高輝度領域抽出部13は、情報入力部12から入力した画像情報の各画素に対して所定の輝度より大きいか否かを判定し、所定の輝度より大きいと判断した場合には、その画素は高輝度であることを示す高輝度フラグを付与し、付与した高輝度フラグに基づいて高輝度領域に関する情報のみを画像情報から抽出する機能を有している。高輝度フラグの付与は、例えば、所定のメモリ領域において、情報ビットを0から1に変更することによって行う。また、高輝度領域抽出部13は、画像情報を探索範囲限定部17へ出力すると共に、抽出した高輝度領域に関する情報を特徴量導出部14へ出力する機能を有している。   The high brightness area extraction unit 13 has a function of inputting the brightness of the image information and extracting pixels having brightness greater than a predetermined brightness. The high luminance area extraction unit 13 determines whether or not each pixel of the image information input from the information input unit 12 is larger than a predetermined luminance, and if it is determined that the pixel is larger than the predetermined luminance, It has a function of assigning a high brightness flag indicating high brightness and extracting only information related to the high brightness area from the image information based on the assigned high brightness flag. For example, the high luminance flag is assigned by changing the information bit from 0 to 1 in a predetermined memory area. The high brightness area extracting unit 13 has a function of outputting image information to the search range limiting unit 17 and outputting information about the extracted high brightness area to the feature amount deriving unit 14.

特徴量導出部14は、高輝度領域抽出部13から高輝度領域に関する情報を入力し、入力した高輝度領域の特徴量を導出する機能を有している。特徴量導出部14は、高輝度領域の慣性主軸を導出し、高輝度領域の面積、面積重心位置、慣性主軸の長軸長、画像水平線に対する角度、慣性主軸の短軸長、周囲長等を特徴量として導出する。また、特徴量導出部14は、導出した特長量を消失点導出部15へ出力する機能を有している。   The feature amount deriving unit 14 has a function of receiving information on the high luminance region from the high luminance region extracting unit 13 and deriving the feature amount of the input high luminance region. The feature amount deriving unit 14 derives the inertia main axis of the high luminance region, and calculates the area of the high luminance region, the area centroid position, the long axis length of the inertia main axis, the angle with respect to the image horizontal line, the short axis length of the inertia main axis, the circumference length, and the like. Derived as feature quantity. The feature quantity deriving unit 14 has a function of outputting the derived feature quantity to the vanishing point deriving unit 15.

消失点導出部15は、特徴量導出部14から入力した特長量に基づいて画像の消失点を導出する機能を有している。消失点導出部15は、高輝度領域の慣性主軸の長軸を通る直線を高輝度領域ごとに算出し、各直線が交わる点の位置(最尤交点の位置)を導出する。この最尤交点の位置を算出する方法として、例えば投票法が用いられる。算出した最尤交点は画像の消失点となる。また、消失点導出部15は、導出した最尤交点の位置をピッチ角度導出部16へ出力する機能を有している。   The vanishing point deriving unit 15 has a function of deriving the vanishing point of the image based on the feature amount input from the feature amount deriving unit 14. The vanishing point deriving unit 15 calculates a straight line passing through the major axis of the inertial main axis of the high-luminance region for each high-luminance region, and derives the position of the point where each straight line intersects (the position of the maximum likelihood intersection). As a method for calculating the position of the maximum likelihood intersection, for example, a voting method is used. The calculated maximum likelihood intersection is the vanishing point of the image. The vanishing point deriving unit 15 has a function of outputting the derived position of the maximum likelihood intersection to the pitch angle deriving unit 16.

ピッチ角度算出部16は、消失点導出部15から入力した最尤交点(消失点)を用いて車両のピッチ角度を算出する機能を有している。ピッチ角度算出部16は、最尤交点の位置と、所定のピッチ角度の時に撮像した画像の消失点の位置との差に基づいて車両のピッチ角度を算出する。また、ピッチ角度導出部16は、算出したピッチ角度を探索範囲限定部17へ出力する機能を有している。   The pitch angle calculation unit 16 has a function of calculating the pitch angle of the vehicle using the maximum likelihood intersection (vanishing point) input from the vanishing point deriving unit 15. The pitch angle calculation unit 16 calculates the pitch angle of the vehicle based on the difference between the position of the maximum likelihood intersection and the position of the vanishing point of the image captured at the predetermined pitch angle. The pitch angle deriving unit 16 has a function of outputting the calculated pitch angle to the search range limiting unit 17.

探索範囲限定部17は、高輝度領域抽出部13から入力した画像情報と、ピッチ角度算出部16から入力したピッチ角度に基づいて、道路平面の位置を推定し、歩行者等の物体検出処理の探索範囲を設定する機能を有している。また、探索範囲限定部17は、画像情報、高輝度領域の特長量、及び限定した探索範囲に関する情報を物体領域抽出部18へ出力する機能を有している。   The search range limiting unit 17 estimates the position of the road plane based on the image information input from the high luminance region extraction unit 13 and the pitch angle input from the pitch angle calculation unit 16, and performs object detection processing such as a pedestrian. It has a function to set a search range. In addition, the search range limiting unit 17 has a function of outputting image information, the feature amount of the high luminance region, and information regarding the limited search range to the object region extraction unit 18.

物体領域抽出部18は、探索範囲限定部17で限定した画像範囲の中から、歩行者等の物体と対応する領域、すなわち物体領域を抽出する機能を有している。物体領域の抽出には、例えば、正規化相関を用いたテンプレートマッチング、ニューラルネットワーク、又はSVM(Support Vector Machine)などの画像認識技術が用いられる。また、物体領域抽出部18は、抽出した物体領域のそれぞれに対応したID番号、位置情報、縦幅の情報、横幅の情報及び属性情報などの検知物体情報を作成する。さらに、物体領域抽出部18は、画像情報、高輝度領域の特長量、及び物体領域に関する情報を接触判定部19へ出力する機能を有している。   The object area extraction unit 18 has a function of extracting an area corresponding to an object such as a pedestrian, that is, an object area, from the image range limited by the search range limitation unit 17. For object region extraction, for example, template matching using normalized correlation, neural network, or image recognition technology such as SVM (Support Vector Machine) is used. In addition, the object area extraction unit 18 creates detected object information such as an ID number, position information, vertical width information, horizontal width information, and attribute information corresponding to each of the extracted object areas. Further, the object area extraction unit 18 has a function of outputting image information, feature amounts of the high luminance area, and information on the object area to the contact determination unit 19.

接触判定部19は、物体領域抽出部18から入力した高輝度領域の特長量、及び物体領域に関する情報に基づいて、高輝度領域の最尤交点側の端と物体領域とが接触しているか否かを判定する機能を有している。また、接触判定部19は、画像情報及び判定結果を照明器判定部20へ出力する機能を有している。   The contact determination unit 19 determines whether the end of the high luminance region on the maximum likelihood intersection side and the object region are in contact with each other based on the feature amount of the high luminance region input from the object region extraction unit 18 and information on the object region. It has a function to determine whether. Further, the contact determination unit 19 has a function of outputting image information and a determination result to the illuminator determination unit 20.

照明器判定部20は、接触判定部19から入力した判定結果に基づいて、高輝度領域が照明器であるか否かを判定する機能を有している。照明器判定部20は、高輝度領域と物体領域とが接触していると判定された高輝度領域について、接触する物体と高輝度領域との面積比、高輝度領域の複雑度、慣性主軸(長軸)の方向の条件などを用いて照明器らしさの判定を行う機能を有している。また、照明器判定部20は、画像情報及び判定結果を物体識別部21へ出力する機能を有している。   The illuminator determination unit 20 has a function of determining whether or not the high brightness area is an illuminator based on the determination result input from the contact determination unit 19. The illuminator determination unit 20 determines the area ratio between the contacting object and the high luminance region, the complexity of the high luminance region, the inertial main axis (for the high luminance region determined to be in contact with the high luminance region and the object region. It has a function of determining the illuminator-likeness using the condition of the direction of the long axis. The illuminator determination unit 20 has a function of outputting image information and a determination result to the object identification unit 21.

物体識別部21は、照明器判定部20から入力した判定結果に基づいて、照明器を保有している物体と、照明器を保有していない物体とを識別する機能を有している。また、物体識別部21は、照明器を有している物体に関する検知物体情報を除外する機能を有している。除外の方法は、検知物体情報から照明器を有している物体に関する検知物体情報そのものを削除する方法であっても良いし、検知物体情報の属性情報に無効情報である旨を記録する方法であっても良い。物体識別部21は、画像情報及び識別した検知物体情報を出力部22へ出力する機能を有している。   Based on the determination result input from the illuminator determination unit 20, the object identification unit 21 has a function of identifying an object that has an illuminator and an object that does not have an illuminator. Moreover, the object identification part 21 has a function which excludes the detection object information regarding the object which has an illuminator. The method of exclusion may be a method of deleting the detected object information itself relating to the object having the illuminator from the detected object information, or a method of recording the invalid information in the attribute information of the detected object information. There may be. The object identification unit 21 has a function of outputting image information and identified detected object information to the output unit 22.

出力部22は、物体識別部21から入力した画像情報及び識別した検出物体情報に基づいて情報提供部30へ運転支援命令を出力する機能を有している。   The output unit 22 has a function of outputting a driving support command to the information providing unit 30 based on the image information input from the object identifying unit 21 and the detected detected object information.

情報提供部30は、ECU10から得られた情報に基づいて運転者に情報提供する機能を有しており、例えば、ディスプレイ31やスピーカー32から構成される。   The information providing unit 30 has a function of providing information to the driver based on information obtained from the ECU 10, and includes, for example, a display 31 and a speaker 32.

次に、本実施形態に係る物体検出装置1の動作について、図2〜17を用いて説明する。図2〜5は、本実施形態に係る物体検出装置1の動作を示すフローチャート、図6は、投光時間と撮像時間との関係を示す概要図、図7は、先幕シンクロかつスローシンクロを用いた場合の画像の一例、図8〜17は、本実施形態に係る物体検出装置1の動作を説明するための概要図である。   Next, operation | movement of the object detection apparatus 1 which concerns on this embodiment is demonstrated using FIGS. 2 to 5 are flowcharts illustrating the operation of the object detection apparatus 1 according to the present embodiment, FIG. 6 is a schematic diagram illustrating the relationship between the projection time and the imaging time, and FIG. 7 illustrates the leading curtain synchronization and the slow synchronization. Examples of images when used, FIGS. 8 to 17, are schematic diagrams for explaining the operation of the object detection apparatus 1 according to the present embodiment.

まず、図2及び図3を用いて物体検出装置1の動作について説明する。図2及び図3は、例えば、車両に運転支援ボタンを備え、その運転支援ボタンをONされたタイミングで開始され、所定の間隔で繰り返し実行される。   First, the operation of the object detection apparatus 1 will be described with reference to FIGS. 2 and 3. 2 and 3, for example, a vehicle is provided with a driving support button, and is started at a timing when the driving support button is turned on, and is repeatedly executed at a predetermined interval.

物体検出装置1は、車速入力処理から開始する(S10)。S10の処理は、車速センサ53及び同期制御部11で実行され、車速をECU10に入力する処理である。S10の処理が終了すると、投光パルス出力処理へ移行する(S12)。   The object detection device 1 starts from the vehicle speed input process (S10). The process of S10 is executed by the vehicle speed sensor 53 and the synchronization control unit 11, and is a process of inputting the vehicle speed to the ECU 10. When the process of S10 ends, the process proceeds to a light projection pulse output process (S12).

S12の処理は、同期制御部11及び投光器52で実行され、投光器52の発光を行うための投光パルスを出力する処理である。同期制御部11は、例えば、図6の(b)に示すように、投光器52がON状態の時に発光され、投光器52がOFF状態の時に発光されないとすると、ON状態とOFF状態が所定の間隔で繰り返されるパルスを出力する。投光器52がON状態となるパルスの時間長、すなわち繰り返しの投光時間は、撮像部51の繰り返しの撮像時間よりも短い時間であり、ここでは5msecとする。S12の処理が終了すると、画像撮像処理へ移行する(S14)。   The process of S <b> 12 is a process that is executed by the synchronization control unit 11 and the projector 52, and outputs a projection pulse for causing the projector 52 to emit light. For example, as shown in FIG. 6B, the synchronization control unit 11 emits light when the projector 52 is in the ON state and does not emit light when the projector 52 is in the OFF state. Outputs a pulse repeated at. The time length of the pulse at which the light projector 52 is turned on, that is, the repetitive light projecting time is shorter than the repetitive image capturing time of the image capturing unit 51, and is 5 msec here. When the processing of S12 ends, the process proceeds to image capturing processing (S14).

S14の処理は、同期制御部11及び撮像部51で実行され、撮像時間長を決定し、画像を撮像する処理である。同期制御部11は、例えば、図6の(a)に示すように、撮像部51の撮像ボタンがON状態の時に撮像部51の撮像が開始され、撮像部51の撮像ボタンがOFF状態の時に撮像部51の撮像が終了するとした場合、ON状態とOFF状態が所定の間隔で繰り返されるパルスを出力する。また、撮像部51の撮像ボタンがON状態となる時間長、すなわち撮像時間長は投光器52の投光時間よりも長い時間であり、いわゆるスローシンクロである。ここでは撮像時間長を100msecとする。さらに、同期制御部11は、撮像時間の開始タイミングを、投光器52の投光開始タイミングと同期するように制御する。このように、撮像時間の開始タイミングと投光タイミングとを同期して撮像する、いわゆる先幕シンクロを行う場合において、投光時間に比べて撮像時間を充分長くすると、図7に示すように、投光器52が投光した光の反射光によって撮像された静止画と、自ら発光する物体が撮像時間の間に移動した軌跡を示す画像とを合成した画像を撮像することができる。図7においては、例えば、バイク40、乗員41及び木42等は投光器52で投光したタイミングの位置の静止画であり、バイク40のヘッドライト43は、撮像時間の間に移動した軌跡44として撮像されて表示される。このように、S14の処理では、同期制御部11が投光器52及び撮像部51を制御して画像を撮像し、撮像した画像情報を情報入力部12へ出力する。S14の処理が終了すると、輝度値判定処理へ移行する(S16)。   The process of S14 is executed by the synchronization control unit 11 and the imaging unit 51, determines the imaging time length, and captures an image. For example, as illustrated in FIG. 6A, the synchronization control unit 11 starts imaging of the imaging unit 51 when the imaging button of the imaging unit 51 is in the ON state, and when the imaging button of the imaging unit 51 is in the OFF state. When the imaging of the imaging unit 51 is finished, a pulse in which the ON state and the OFF state are repeated at a predetermined interval is output. Further, the time length during which the image pickup button of the image pickup unit 51 is turned on, that is, the image pickup time length is longer than the light projection time of the projector 52, and is so-called slow sync. Here, the imaging time length is 100 msec. Furthermore, the synchronization control unit 11 controls the imaging time start timing to be synchronized with the light projection start timing of the projector 52. In this way, in the case of performing so-called front curtain synchronization in which imaging is started in synchronization with the start timing of the imaging time and the projection timing, if the imaging time is sufficiently longer than the projection time, as shown in FIG. It is possible to capture an image obtained by combining a still image captured by the reflected light of the light projected by the projector 52 and an image indicating a trajectory of an object that emits light during the imaging time. In FIG. 7, for example, the motorcycle 40, the occupant 41, the tree 42, and the like are still images at the positions projected by the projector 52, and the headlight 43 of the motorcycle 40 is a trajectory 44 that has moved during the imaging time. It is captured and displayed. As described above, in the process of S <b> 14, the synchronization control unit 11 controls the projector 52 and the imaging unit 51 to capture an image, and outputs the captured image information to the information input unit 12. When the process of S14 ends, the process proceeds to a luminance value determination process (S16).

S16の処理は、高輝度領域抽出部13で実行され、入力した画像の輝度値を判定する処理である。高輝度領域抽出部13は、入力した画像情報の画素情報を入力し、所定の輝度値よりも大きいか否かを判定する。画素情報の入力は、例えば位置情報である座標の小さいものから実行される。また、所定の輝度値の一例として、輝度値0〜255の256階調のうち、ここでは230が設定される。S16の処理において、所定の輝度値より大きいと判定した場合には、高輝度フラグ付与処理へ移行する(S18)。一方、S16の処理において、所定の輝度値より大きくないと判定した場合には、全範囲の実施判定処理へ移行する(S20)。   The process of S16 is a process executed by the high brightness area extraction unit 13 to determine the brightness value of the input image. The high luminance area extracting unit 13 inputs pixel information of the input image information and determines whether or not the pixel information is larger than a predetermined luminance value. The input of the pixel information is executed, for example, from the smallest coordinate as the position information. As an example of the predetermined luminance value, 230 is set here out of 256 gradations of luminance values 0 to 255. If it is determined in step S16 that the luminance value is greater than the predetermined luminance value, the process proceeds to a high luminance flag applying process (S18). On the other hand, if it is determined in step S16 that the luminance value is not greater than the predetermined luminance value, the process proceeds to the execution determination process for the entire range (S20).

S18の処理は、高輝度領域抽出部13で実行され、S16の処理で判定した画素情報が高輝度であることを示す高輝度フラグを、判定した画素情報に付与する処理である。高輝度フラグの付与は、例えば所定のメモリ領域において、情報ビットを0から1へ変更することによって行われる。S18の処理が終了すると、全範囲実施判定処理へ移行する(S20)。   The process of S18 is a process that is executed by the high-intensity region extraction unit 13 and adds a high-intensity flag indicating that the pixel information determined in the process of S16 is high-intensity to the determined pixel information. The high-intensity flag is assigned, for example, by changing the information bit from 0 to 1 in a predetermined memory area. When the process of S18 ends, the process proceeds to the full range execution determination process (S20).

S20の処理は、画像の全範囲の画素情報についてS16の処理を実行したか否かを判定する処理である。S20の処理において、全範囲の画素情報について判定されていない場合には、再度S16の処理へ移行する。一方、S20の処理において、全範囲の画素情報について判定した場合には、高輝度画素抽出処理へ移行する(S22)。   The process of S20 is a process of determining whether or not the process of S16 has been executed for the pixel information of the entire range of the image. In the process of S20, when the pixel information of the entire range has not been determined, the process proceeds to S16 again. On the other hand, in the process of S20, when the pixel information of the entire range is determined, the process proceeds to a high luminance pixel extraction process (S22).

S22の処理は、高輝度領域抽出部13で実行され、S18の処理で高輝度フラグを付与された画素のみを抽出する処理である。例えば、S14の処理で入力した画像が図8で示す画像であるとすると、高輝度領域に該当する画素のみを抽出した画像は、図9で示す画像となる。S22の処理が終了すると、高輝度領域のID付与処理へ移行する(S24)。   The process of S22 is a process that is executed by the high brightness area extraction unit 13 and extracts only the pixels to which the high brightness flag is given in the process of S18. For example, if the image input in the process of S14 is the image shown in FIG. 8, the image obtained by extracting only the pixels corresponding to the high luminance area is the image shown in FIG. When the process of S22 ends, the process proceeds to the ID assigning process for the high luminance area (S24).

S24の処理は、高輝度領域抽出部13で実行され、S22の処理で抽出した画素から構成される高輝度領域のそれぞれにIDを付与する処理である。高輝度領域抽出部13は、S22の処理で抽出した画素の連結性を確認し、図10に示すように高輝度領域ごとにIDを付与する。IDは例えば数字であり、高輝度領域は付与されたIDを用いて、例えばK(j:自然数)のように識別される。S24の処理が終了すると、特徴量導出処理へ移行する(S26)。 The process of S24 is a process that is executed by the high-intensity area extraction unit 13 and assigns an ID to each of the high-intensity areas configured by the pixels extracted in the process of S22. The high luminance area extraction unit 13 confirms the connectivity of the pixels extracted in the process of S22, and assigns an ID for each high luminance area as shown in FIG. The ID is, for example, a number, and the high luminance area is identified by using the assigned ID, for example, K j (j: natural number). When the process of S24 ends, the process proceeds to a feature amount derivation process (S26).

S26の処理は、特徴量導出部14で実行され、S24の処理でIDを付与した各高輝度領域Kの特徴量を導出する処理である。高輝度領域Kの特徴量について、図11を用いて説明する。図11は図10の高輝度領域Kの特徴量について図示した概要図であり、特徴量は高輝度領域の大きさ、向きを含む情報である。例えば、特長量として高輝度領域Kの面積S、面積重心位置(X、Y)、慣性主軸の長軸長L、画像水平線に対する角度α、慣性主軸の短軸長M、周囲長C等を含む情報を導出する。特徴量導出部14は、各高輝度領域Kについて、高輝度領域Kの面積S、面積重心位置(X、Y)、慣性主軸の長軸長L、画像水平線に対する角度α、慣性主軸の短軸長M、周囲長C等を導出して特徴量とする。S26の処理が終了すると、最尤交点導出処理へ移行する(S28)。 The process of S26 is a process that is executed by the feature quantity deriving unit 14 and derives the feature quantity of each high-brightness region K j to which the ID is assigned in the process of S24. The feature amount of the high luminance region K j will be described with reference to FIG. Figure 11 is a schematic diagram illustrating the features of the high luminance region K 1 in FIG. 10, the feature size of the high luminance region is information including orientation. For example, the area S 1 of the high luminance region K 1 as feature amounts, centroid position (X 1, Y 1), the major axis length L 1 of the principal axis of inertia, the angle alpha 1 relative to the image horizontal line, the short axis length of the principal axis of inertia M 1 The information including the peripheral length C 1 and the like is derived. Feature amount derivation unit 14, for each of the high luminance region K j, the area S j of the high luminance region K j, centroid position (X j, Y j), the length of the long axis of the principal axes of inertia L j, the angle with respect to the image horizontal line α j , the short axis length M j of the inertial main axis, the perimeter length C j and the like are derived as feature quantities. When the process of S26 ends, the process proceeds to the maximum likelihood intersection derivation process (S28).

S28の処理は、消失点導出部15で実行され、S26の処理で導出した高輝度領域Kの特長量に基づいて消失点を導出する処理である。消失点導出部15は、図12に示すように、各高輝度領域Kの慣性主軸を延長して交わる最尤交点Pfを導出する。この最尤交点Pfは投票法等で決定される。また、導出した最尤交点Pfは、画像の消失点となる。S28の処理が終了すると、ピッチ角度導出処理へ移行する(S30)。 Processing of S28 is executed by the vanishing point derivation unit 15 and deriving a vanishing point based on the feature amount of the high luminance region K j derived in the processing of S26. As shown in FIG. 12, the vanishing point deriving unit 15 derives the maximum likelihood intersection P f that intersects with the extension of the principal axis of inertia of each high-luminance region K j . This maximum likelihood intersection P f is determined by a voting method or the like. Further, the derived maximum likelihood intersection point P f becomes a vanishing point of the image. When the process of S28 is completed, the process proceeds to a pitch angle derivation process (S30).

S30の処理は、ピッチ角度算出部16で実行され、S28で導出した最尤交点(消失点)Pfから自車両のピッチ角度を算出する処理である。最尤交点Pfの時のピッチ角度をβとし、図13に示すように、消失点のY軸座標値をY、ピッチ角度が0°の時の消失点のY座標値をYとすると、画像の縦視野角度Θ及び縦画素数nを用いて、自車両のピッチ角度βは式(1)で算出することができる。 Processing step S30 is performed by the pitch angle calculator 16, a process of calculating the pitch angle of the vehicle from the maximum likelihood intersection (vanishing point) P f derived in S28. The pitch angle at the maximum likelihood intersection P f is β, and as shown in FIG. 13, the Y-axis coordinate value of the vanishing point is Y b , and the Y coordinate value of the vanishing point when the pitch angle is 0 ° is Y 0 . Then, the pitch angle β of the host vehicle can be calculated by Expression (1) using the vertical viewing angle Θ of the image and the vertical pixel number n.

β=(Y−Y)・Θ/n …(1) β = (Y b −Y 0 ) · Θ / n (1)

S30の処理が終了すると、探索範囲の限定処理へ移行する(S32)。   When the processing of S30 ends, the process proceeds to search range limitation processing (S32).

S32の処理は、探索範囲限定部17で実行され、S30の処理で算出したピッチ角度βに基づいて道路平面の位置を推定し、物体を探索する画像範囲を限定する処理である。探索範囲限定部17は、例えば図14に示すように、ピッチ角度0°の時の探索範囲を基準として、ピッチ角度βの分だけ上方に探索範囲をシフトさせる。S32の処理が終了すると、物体領域の抽出処理へ移行する(S34)。   The process of S32 is executed by the search range limiting unit 17 and is a process of estimating the position of the road plane based on the pitch angle β calculated in the process of S30 and limiting the image range for searching for an object. For example, as shown in FIG. 14, the search range limiting unit 17 shifts the search range upward by the pitch angle β with reference to the search range when the pitch angle is 0 °. When the process of S32 ends, the process proceeds to an object region extraction process (S34).

S34の処理は、物体領域抽出部18で実行され、S32の処理で得られた画像の探索範囲内にある物体に対応する物体領域を抽出する処理である。ここでは、検出する物体を歩行者とする。物体領域抽出部18は、テンプレートマッチング、ニューラルネットワーク、又はSVMなどの画像認識技術を利用して図15に示すように歩行者に対応する画像領域を検知する。また、物体領域抽出部18は、検知した歩行者に対応する画像領域を、例えば矩形状の物体領域として抽出し、それぞれに検知物体情報を作成する。例えば、図15に示す歩行者に対応する物体領域Oを検知した場合には、物体領域Oの検知物体情報として、ID=0、位置=(x、y)、縦幅=H、横幅=W、属性=PPPを作成する。また、自転車を持つ歩行者に対応する物体領域Oを検知した場合には、物体領域Oの検知物体情報として、ID=1、位置=(x、y)、縦幅=H、横幅=W、属性=PPPを作成する。属性情報は検知した物体の種別や情報の有効性を表す文字列が採用され、ここではPPPは歩行者であることを示す属性とする。このように、物体領域抽出部18は、物体に対応する領域を抽出し、抽出した領域ごとに検知物体情報を作成する。S34の処理が終了すると、照明器保有判定処理へ移行する(S36)。 The process of S34 is performed by the object area extraction unit 18 and extracts an object area corresponding to an object within the search range of the image obtained by the process of S32. Here, the detected object is a pedestrian. The object region extraction unit 18 detects an image region corresponding to a pedestrian as shown in FIG. 15 using image recognition technology such as template matching, neural network, or SVM. The object region extraction unit 18 extracts an image region corresponding to the detected pedestrian as, for example, a rectangular object region, and creates detected object information for each. For example, when the object area O 0 corresponding to the pedestrian shown in FIG. 15 is detected, ID = 0, position = (x 0 , y 0 ), and vertical width = H as detected object information of the object area O 0. 0 , width = W 0 , attribute = PPP are created. Also, when detecting an object area O 1 corresponding to a pedestrian with a bicycle, as the detection object information of the object area O 1, ID = 1, the position = (x 1, y 1) , the vertical width = H 1 , Width = W 1 , attribute = PPP. As the attribute information, a character string indicating the type of the detected object and the validity of the information is adopted. Here, PPP is an attribute indicating a pedestrian. As described above, the object region extraction unit 18 extracts a region corresponding to the object, and creates detected object information for each extracted region. When the process of S34 ends, the process proceeds to the illuminator possession determination process (S36).

S36の処理は、接触判定部19及び照明器判定部20で実行され、高輝度領域Kが照明器であるか否かを判定する処理である。この処理の詳細については、後述する。S36の処理が終了すると、物体の識別処理へ移行する(S38)。 The process of S36 is a process that is executed by the contact determination unit 19 and the illuminator determination unit 20, and determines whether or not the high luminance region Kj is an illuminator. Details of this processing will be described later. When the process of S36 is completed, the process proceeds to an object identification process (S38).

S38の処理は、物体識別部21で実行され、物体情報から照明器を保有する物体を、検知物体情報から除外する処理である。この処理の詳細については、後述する。S38の処理が終了すると、情報出力処理へ移行する(S40)。   The process of S38 is a process executed by the object identification unit 21 to exclude an object having an illuminator from the object information from the detected object information. Details of this processing will be described later. When the process of S38 is completed, the process proceeds to an information output process (S40).

S40の処理は、出力部22で実行され、S38の処理で得られた検知物体情報を出力し、運転支援する処理である。出力部22は、例えばディスプレイ31上に表示された画像情報の中で照明器を保有していない検知物体を強調したり、スピーカー32を用いて運転者へ注意喚起を行ったりする。   The process of S40 is a process that is executed by the output unit 22 and outputs the detected object information obtained by the process of S38 to assist driving. For example, the output unit 22 emphasizes a detected object that does not have an illuminator in the image information displayed on the display 31 or alerts the driver using the speaker 32.

以上のように、物体検出装置1は、撮像時間と投光時間を制御した画像を用いて探索範囲を限定して効率的に物体検出を行うと共に、照明器を保有していない歩行者等を識別して運転支援を行うことができる。   As described above, the object detection device 1 efficiently detects an object by limiting a search range using an image in which an imaging time and a light projection time are controlled, and detects a pedestrian who does not have an illuminator. It is possible to identify and provide driving assistance.

次に、照明器保有判定処理について、図4を用いて詳細に説明する。図4は、図3のS36の処理の詳細を示すフローチャートである。照明器保有判定処理は、初期化処理から開始される(S50)。   Next, the illuminator possession determination process will be described in detail with reference to FIG. FIG. 4 is a flowchart showing details of the process of S36 of FIG. The illuminator possession determination process is started from an initialization process (S50).

S50の処理は、接触判定部19で実行され、変数の初期化を行う処理である。ここでは変数i(i:整数)、jを使用するため、変数iを0とし、変数jを1とする。S50の処理が終了すると、接触判定処理へ移行する(S52)。   The process of S50 is executed by the contact determination unit 19 and initializes variables. Here, since variables i (i: integer) and j are used, variable i is set to 0 and variable j is set to 1. When the process of S50 ends, the process proceeds to a contact determination process (S52).

S52の処理は、接触判定部19で実行され、図2のS22で抽出した光輝度領域Kが、図3のS34で抽出した物体領域Oに付随するか否かを判定する処理である。付随するか否かの判定は、光輝度領域Kの最尤交点Pfに近い端と物体領域Oとが接触するか否かで判定する。この接触の判定は、物体領域Oと高輝度領域Kが隣り合って接触する場合だけでなく、物体領域O内に光輝度領域Kの最尤交点Pfに近い端が存在する場合も、光輝度領域Kの最尤交点Pfに近い端と物体領域Oとが接触していると判定する。例えば、図16に示すように、物体領域Oと光輝度領域Kとを判定すると、物体領域O内に光輝度領域Kの最尤交点Pf側の端が存在しているため、物体領域Oと光輝度領域Kとは接触していると判定される。S52の処理において、光輝度領域Kの最尤交点Pfに近い端と物体領域Oとが接触すると判定した場合には、照明器判定処理へ移行する(S54)。 The process of S52 is executed by the contact determination unit 19 and determines whether or not the light intensity area K j extracted in S22 of FIG. 2 is associated with the object area O i extracted in S34 of FIG. . The determination as to whether or not it accompanies is made based on whether or not the end of the light luminance area K j close to the maximum likelihood intersection P f and the object area O i are in contact with each other. Determination of the contact is not only in contact adjacent the object region O i and the high luminance region K j, the end is present close to the maximum likelihood intersection P f of light intensity region K j in the object area O i Also in this case, it is determined that the end of the light luminance area K j close to the maximum likelihood intersection P f is in contact with the object area O i . For example, as shown in FIG. 16, when the object area O 1 and the light intensity area K 7 are determined, the end of the light intensity area K 7 on the maximum likelihood intersection P f side exists in the object area O 1 . It is determined that the object region O 1 and the light luminance region K 7 are in contact with each other. In the processing of S52, when the end to the object area O i close to the maximum likelihood intersection P f of light intensity region K j is determined that contact, the process proceeds to the illuminator determination process (S54).

S54の処理は、照明器判定部20で実行され、高輝度領域Kが照明器であるか否かを判定する処理である。照明器であるか否かの判定は、S52の処理で接触していると判定した高輝度領域Kと物体領域Oとの面積比によって判定する。例えば、高輝度領域Kの面積をS、物体領域Oの面積をS、想定される面積比の最小値をTs、想定される面積比の最大値をTsとすると、式(2)の条件を満たすか否かを判定する。 The process of S54 is executed by the illuminator determination unit 20, and is a process of determining whether or not the high luminance region Kj is an illuminator. The determination as to whether or not it is an illuminator is made based on the area ratio between the high brightness area K j and the object area O i determined to be in contact in the process of S52. For example, if the area of the high brightness region K j is S j , the area of the object region O i is S i , the minimum value of the assumed area ratio is Ts 1 , and the maximum value of the assumed area ratio is Ts 2 , It is determined whether or not the condition (2) is satisfied.

Ts<(S/S)<Ts …(2) Ts 1 <(S j / S i ) <Ts 2 (2)

Ts、Tsは設定値であり、例えば、Ts=0.1、Ts=0.2が設定される。S54の処理において、照明器であると判定された場合には、保有フラグ付与処理へ移行する(S56)。 Ts 1 and Ts 2 are set values. For example, Ts 1 = 0.1 and Ts 2 = 0.2 are set. In the process of S54, when it determines with it being an illuminator, it transfers to a possession flag provision process (S56).

S56の処理は、照明器判定部20で実行され、S54の処理において照明器を保有していると判定した物体領域Oに照明器保有フラグを付与する処理である。照明器保有フラグの付与は、例えば、所定のメモリ領域において、情報ビットを0から1へ変更することによって行われる。S56の処理が終了すると、全ての物体領域Oの実施判定処理へ移行する(S60)。 The process of S56 is executed by the illuminator determination unit 20, and is a process of assigning an illuminator possession flag to the object region O i determined to possess the illuminator in the process of S54. For example, the illuminator possession flag is assigned by changing the information bit from 0 to 1 in a predetermined memory area. When the process of S56 is completed, the process proceeds to an execution determination process for all object regions O i (S60).

S60の処理は、照明器判定部20で実行され、S54の照明器判定処理を全ての物体領域Oに対して実行したか否かを判定する処理である。S60の処理において、全ての物体領域Oに対して照明器判定処理を行っている場合には、図4の制御処理を終了する。 The process of S60 is executed by the illuminator determination unit 20, and is a process of determining whether or not the illuminator determination process of S54 has been executed for all object regions O i . In the process of S60, when the illuminator determination process is performed for all the object regions O i , the control process of FIG. 4 is terminated.

一方、S52の処理において、光輝度領域Kの最尤交点Pfに近い端と物体領域Oとが接触していないと判定した場合には、全ての高輝度領域Kの実施判定処理へ移行する(S58)。S58の処理は、照明器判定部20で実行され、S52の接触判定処理を全ての光輝度領域Kに対して実行したか否かを判定する処理である。S58の処理において、全ての光輝度領域Kに対して接触判定処理を行っている場合には、全ての物体領域Oの実施判定処理へ移行する(S60)。また、S58の処理において、全ての高輝度領域Kに対して接触判定処理を行っていない場合には、判定対象変更処理へ移行する(S62)。 On the other hand, in the processing of S52, when the end to the object area O i close to the maximum likelihood intersection P f of light intensity region K j is determined that no contact is execution determination processing of all the high luminance region K j (S58). Processing step S58 is performed by the illuminator determination unit 20, is a process of determining whether to execute the contact determination process of S52 with respect to all the light intensity region K j. In the processing of S58, when you have made contact determination process for all the light intensity region K j, the process proceeds to execution determination processing of all the object areas O i (S60). Further, in the process of S58, if the system is not contact determination process for all of the high luminance region K j, the process proceeds to the judgment target changing process (S62).

S62の処理は、照明器判定部20で実行され、S52の接触判定処理の判定対象となる高輝度領域Kを変更する処理である。照明器判定部20は、jをj+1とし、判定対象を光輝度領域Kから光輝度領域Kj+1へ変更する。S62の処理が終了すると、接触判定処理へ移行する(S52)。 The process of S62 is a process that is executed by the illuminator determination unit 20 and changes the high-intensity region Kj that is a determination target of the contact determination process of S52. The illuminator determination unit 20 sets j to j + 1, and changes the determination target from the light luminance region K j to the light luminance region K j + 1 . When the process of S62 ends, the process proceeds to a contact determination process (S52).

一方、S60の処理において、全ての物体領域Oに対して照明器判定処理を行っていない場合には、判定対象変更処理へ移行する(S64)。S64の処理は、照明器判定部20で実行され、S52の接触判定処理の判定対象となる物体領域Oを変更する処理である。照明器判定部20は、iをi+1とし、判定対象を物体領域Oから物体領域Oi+1へ変更する。S62の処理が終了すると、接触判定処理へ移行する(S52)。 On the other hand, in the process of S60, when the illuminator determination process is not performed for all the object regions O i , the process proceeds to the determination target change process (S64). The process of S64 is a process that is executed by the illuminator determination unit 20 and changes the object region O i that is the determination target of the contact determination process of S52. The illuminator determination unit 20 sets i to i + 1, and changes the determination target from the object region O i to the object region O i + 1 . When the process of S62 ends, the process proceeds to a contact determination process (S52).

以上で図4の制御処理が終了する。図4の制御処理によって、撮像した画像から物体が照明器を保有しているか否かを判定することができる。   Thus, the control process of FIG. 4 ends. With the control process of FIG. 4, it can be determined from the captured image whether the object has an illuminator.

次に、物体識別処理について、図5を用いて詳細に説明する。図5は、図3のS38の処理の詳細を示すフローチャートである。物体識別処理は、初期化処理から開始される(S70)。   Next, the object identification process will be described in detail with reference to FIG. FIG. 5 is a flowchart showing details of the process in S38 of FIG. The object identification process is started from the initialization process (S70).

S70の処理は、物体識別部21で実行され、変数の初期化を行う処理である。ここでは変数iを使用するため、変数iを0とする。S70の処理が終了すると、保有判定処理へ移行する(S72)。   The process of S70 is executed by the object identification unit 21 and is a process for initializing variables. Here, since the variable i is used, the variable i is set to 0. When the processing of S70 ends, the process proceeds to possession determination processing (S72).

S72の処理は、物体識別部21で実行され、物体領域Oに保有フラグが付与されているか否かを判定する処理である。S72の処理において、保有フラグが付与されていると判定された場合には、除外処理へ移行する(S74)。一方、S72の処理において、保有フラグが付与されていないと判定された場合には、全ての物体領域Oの実施判定処理へ移行する(S76)。 The process of S72 is a process that is executed by the object identification unit 21 and determines whether or not the possession flag is assigned to the object region O i . In the process of S72, when it is determined that the possession flag is given, the process proceeds to an exclusion process (S74). On the other hand, in the process of S72, when it is determined that the possession flag is not given, the process proceeds to the execution determination process for all the object areas O i (S76).

S74の処理は、物体識別部21で実行され、S72の処理で保有フラグが付与されていると判定された物体領域O、すなわち照明器を保有していると判定された物体に関する情報を物体情報から削除する処理である。S74の処理が終了すると、全ての物体領域Oの実施判定処理へ移行する(S76)。 The process of S74 is executed by the object identification unit 21, and the object region O i determined to have the possession flag given in the process of S72, that is, the information related to the object determined to have the illuminator It is a process of deleting from the information. When the process of S74 is completed, the process proceeds to an execution determination process for all object regions O i (S76).

S76の処理は、物体識別部21で実行され、全ての物体領域に対してS72の保有判定処理を実施したか否かを判定する処理である。S76の処理において、全ての物体領域Oに対して保有判定処理を実施したと判定した場合には、図5の制御処理を終了する。一方、S76の処理において、全ての物体領域Oに対して保有判定処理を実施していないと判定した場合には、判定対象変更処理へ移行する(S78)。 The process of S76 is executed by the object identification unit 21, and is a process of determining whether or not the possession determination process of S72 has been performed for all object regions. In the process of S76, when it is determined that the possession determination process has been performed for all the object areas O i , the control process of FIG. 5 is terminated. On the other hand, in the process of S76, when it is determined that the possession determination process is not performed for all the object regions O i , the process proceeds to the determination target change process (S78).

S78の処理は、物体識別部21で実行され、判定対象となる物体領域Oを変更する処理である。照明器判定部20は、i=i+1を行い、判定対象を物体領域Oから物体領域Oi+1へ変更する。S78の処理が終了すると、保有判定処理へ移行する(S72)。 The process of S78 is a process that is executed by the object identification unit 21 and changes the object region O i to be determined. The illuminator determination unit 20 performs i = i + 1 and changes the determination target from the object region O i to the object region O i + 1 . When the processing of S78 ends, the process proceeds to possession determination processing (S72).

上述のように、図5の制御処理を行うことで、照明器を保有する物体と照明器を保有しない物体とを識別し、照明器を保有する物体を運転支援から除外することができる。例えば、図17に示すように、照明器を保有しない物体領域Oに対応する物体のみを運転支援の対象とすることができる。 As described above, by performing the control process of FIG. 5, an object having an illuminator and an object not having an illuminator can be identified, and the object having an illuminator can be excluded from driving support. For example, as shown in FIG. 17, only an object corresponding to the object region O 0 that does not have an illuminator can be set as a driving assistance target.

以上のように、本実施形態に係る物体検出装置1は、撮像した画像情報の中から、所定の輝度より大きな輝度を有する高輝度領域Kを抽出して高輝度体として検出し、運転支援対象の候補となる物体に対応した物体領域Oと、高輝度領域Kとが接触しているか否かを判定することによって、物体に高輝度体が付随しているか否かを識別することができる。これにより、高輝度体が付随している物体、すなわち運転者が比較的目視し易い物体と、高輝度体が付随していない物体、すなわち比較的目視し難い物体とを識別することができる。よって、運転者が比較的目視し難い物体のみを検出することができる。 As described above, the object detection apparatus 1 according to the present embodiment extracts a high-luminance region K j having a luminance greater than a predetermined luminance from the captured image information, detects it as a high-luminance body, and supports driving. Identifying whether or not a high-luminance body is attached to the object by determining whether or not the object region O i corresponding to the target candidate object and the high-luminance region K j are in contact with each other. Can do. As a result, it is possible to distinguish between an object accompanied by a high-luminance body, that is, an object that is relatively easy for the driver to visually recognize, and an object not accompanied by the high-luminance body, that is, an object that is relatively difficult to view. Therefore, it is possible to detect only objects that are relatively difficult for the driver to see.

また、本実施形態に係る物体検出装置1は、高輝度体が付随していない物体の存在を、高輝度体が付随している物体の存在よりも強調して運転者に報知して車両の運転支援を行うことができるため、運転者が比較的目視し難い物を迅速に認識することができる。   Further, the object detection device 1 according to the present embodiment emphasizes the presence of an object not accompanied by a high-luminance body over the presence of an object accompanied by a high-luminance body, and notifies the driver of the vehicle. Since driving assistance can be performed, it is possible to quickly recognize an object that is relatively difficult for the driver to see.

また、本実施形態に係る物体検出装置1は、高輝度体が付随する物体を、運転支援の対象から除外することができるため、運転者は既に認識している物体の存在を報知されることが無いので、運転者が煩わしく感じることを回避することができる。   Moreover, since the object detection apparatus 1 according to the present embodiment can exclude an object accompanied by a high-luminance body from the target of driving support, the driver is notified of the presence of an already recognized object. Therefore, it can be avoided that the driver feels bothersome.

また、本実施形態に係る物体検出装置1は、撮像部51の撮像時間を投光器52の投光時間よりも長くすることができるため、自ら発光していない物体は投光手段で投光されたタイミングの静止画像として、自ら発光している物体は撮像時間の間の動作の軌跡を示す画像として撮像することができる。これにより、自ら発光している高輝度体と瞬間的に反射した物体とを区別することができるため、高輝度体が照明器であるか否かを識別することができる。   Moreover, since the object detection apparatus 1 according to the present embodiment can make the imaging time of the imaging unit 51 longer than the light projection time of the projector 52, an object that does not emit light by itself is projected by the light projecting means. As a still image of timing, an object that emits light by itself can be captured as an image showing a trajectory of an operation during the imaging time. This makes it possible to distinguish between a high-luminance body that emits light and an object that is instantaneously reflected, so that it is possible to identify whether the high-luminance body is an illuminator.

また、本実施形態に係る物体検出装置1は、高輝度領域Kの特徴量を算出し、物体領域Oと高輝度領域Kとが互いに接触しているか否かを判定し、接触していると判定した場合には、高輝度領域Kの特徴量に基づいて、高輝度領域Kに対応する高輝度体が照明器であるか否かを判定することができる。これにより、高輝度体が照明器であるか否かをより精度よく判定することができる。 Further, the object detecting device 1 according to this embodiment calculates a feature quantity of the high luminance region K j, determines whether or not the object region O i and the high luminance region K j are in contact with each other, in contact with If it is determined that can be based on the feature amount of the high luminance region K j, high brightness bodies corresponding to the high luminance region K j to determine whether the illuminator. Thereby, it can be determined more accurately whether the high-luminance body is an illuminator.

また、本実施形態に係る物体検出装置1は、高輝度領域Kの特徴量として高輝度領域Kの面積を算出し、物体領域Oの面積と高輝度領域Kの面積との比に基づいて、高輝度体が照明器であるか否かを判定することができる。これにより、高輝度体が照明器であるか否かを一層精度よく判定することができる。 The ratio of the object detection apparatus 1 according to this embodiment, the area of high as the feature quantity of luminance region K j calculates the area of the high luminance region K j, object area O i of the area and the high luminance region K j Based on the above, it can be determined whether or not the high-luminance body is an illuminator. Thereby, it can be determined with higher accuracy whether or not the high-luminance body is an illuminator.

さらに、本実施形態に係る物体検出装置1は、高輝度領域Kに基づいて画像の消失点の位置を決定し、決定した消失点の位置と、所定のピッチ角度における消失点の位置とを比較して車両のピッチ角度βを算出することができる。また、算出したピッチ角度βに基づいて画像情報の探索する範囲を限定することができるため、物体領域Oや高輝度領域Kの抽出を的確かつ迅速に行うことができる。 Furthermore, the object detection apparatus 1 according to the present embodiment determines the position of the vanishing point of the image based on the high luminance region K j , and determines the position of the vanishing point determined and the position of the vanishing point at a predetermined pitch angle. In comparison, the pitch angle β of the vehicle can be calculated. Further, since the search range of the image information can be limited based on the calculated pitch angle β, the object region O i and the high luminance region K j can be accurately and quickly extracted.

なお、上述した実施形態は本発明に係る物体検出装置の一例を示すものである。本発明に係る物体検出装置は、このようなものに限られるものではなく、各請求項に記載した要旨を変更しないように実施形態に係る物体検出装置を変形し、又は他のものに適用したものであってもよい。   The above-described embodiment shows an example of the object detection apparatus according to the present invention. The object detection device according to the present invention is not limited to the above, and the object detection device according to the embodiment is modified or applied to others so as not to change the gist described in each claim. It may be a thing.

例えば、実施形態において、撮像部51と投光器52の同期が先幕シンクロの場合について説明したが、後幕シンクロであっても良い。後幕シンクロの場合、高輝度領域Kの最尤交点P側と反対側の端が物体領域Oと接触するか否かを判定することで、本実施形態と同様の効果を得ることができる。 For example, in the embodiment, the case where the synchronization between the imaging unit 51 and the projector 52 is the first curtain sync, but the second curtain sync may be used. In the case of the trailing curtain sync, it is possible to obtain the same effect as that of the present embodiment by determining whether or not the end of the high luminance area K j opposite to the maximum likelihood intersection point P f is in contact with the object area O i. Can do.

また、実施形態において、物体検出装置の最適な例として、スローシンクロによって撮像した画像を用いた例を説明したが、通常の撮像方法で撮像した画像を用いた場合であっても本実施形態と同様の効果を得ることができる。   Further, in the embodiment, an example using an image captured by slow sync as an optimal example of the object detection device has been described. However, even when an image captured by a normal imaging method is used, Similar effects can be obtained.

また、実施形態において、物体領域O内に高輝度領域Kの最尤交点Pに近い端が含まれるか否かによって、高輝度領域Kと物体領域Oとが接触するか否かを判定する例を説明したが、例えば、物体領域Oの中心位置から設定距離以内に高輝度領域Kの最尤交点Pに近い端が存在するか否かを判定するなど、物体領域Oと高輝度領域Kの最尤交点Pに近い端との位置関係によって接触しているか否かの判定をしても良い。 Further, in the embodiment, depending on whether it contains a near end to the maximum likelihood intersection P f of the high luminance region K j in the object area O i, or the high luminance region K j and the object region O i contacts whether However, for example, it is determined whether there is an end close to the maximum likelihood intersection P f of the high luminance region K j within a set distance from the center position of the object region O i. It may be determined whether or not they are in contact with each other based on the positional relationship between the region O i and the end of the high luminance region K j close to the maximum likelihood intersection P f .

また、実施形態において、照明器であるか否かの判定を高輝度領域Kと物体領域Oとの面積比によって判定する例を説明したが、例えば、高輝度領域Kの複雑度を用いて判定しても良い。高輝度領域Kの複雑度Aは、周囲長をC、面積をSとすると、A=C /Sで表すことができ、複雑度が所定値より大きい場合には、高輝度領域Kを照明器では無いと判定することができる。 Further, in the embodiment, the example in which the determination as to whether or not it is an illuminator has been described based on the area ratio between the high luminance region K j and the object region O i , but for example, the complexity of the high luminance region K j It may be determined using. Complexity A high-brightness region K j is a perimeter C j, and the area and S j, A = C j 2 / can be represented by S j, if complexity is greater than a predetermined value, high It can be determined that the luminance region K j is not an illuminator.

また、実施形態において、照明器であるか否かの判定を高輝度領域Kと物体領域Oとの面積比によって判定する例を説明したが、高輝度領域Kの慣性主軸の方向を利用して照明器であるか否かを判定しても良い。例えば、高輝度領域Kの慣性主軸の方向が垂直に近いものは照明器の条件に当てはまらないとして除外することができる。 In the embodiment, the example in which the determination as to whether or not the illuminator is an illuminator has been described based on the area ratio between the high luminance region K j and the object region O i , but the direction of the principal axis of inertia of the high luminance region K j is described. You may determine whether it is an illuminator using. For example, a case where the direction of the principal axis of inertia of the high-luminance region K j is nearly vertical can be excluded as not satisfying the condition of the illuminator.

また、実施形態において、照明器を保有している物体領域Oを検知物体情報から除外する方法として削除する例を説明したが、例えば属性情報を変更する例であっても良い。この場合、属性情報=NNNの場合には検知物体情報が無効であるとし、図5のS74の処理において、照明器を保有している物体領域Oを検知物体情報から削除せずに、照明器を保有している物体領域Oの検知物体情報の属性情報をPPPからNNNへ変更することで、照明器を保有している物体領域Oを検知物体情報から除外することができる。 In the embodiment, the example in which the object region O i holding the illuminator is deleted as a method of excluding from the detected object information has been described. However, for example, the attribute information may be changed. In this case, it is assumed that the detected object information is invalid when attribute information = NNN, and in the process of S74 in FIG. 5, the object region O i that holds the illuminator is not deleted from the detected object information. the attribute information of the detected object information of the object area O i that hold vessel by changing from PPP to NNN, it is possible to exclude the object area O i that hold the illuminator from the detection object information.

さらに、実施形態において、照明器を保有している物体領域Oを検知物体情報から除外する方法を説明したが、照明器を保有している物体領域Oを検知物体情報から除外せずに、注意喚起レベルを変更する場合であっても良い。例えば、属性情報=LOWの場合には検知物体情報の注意喚起レベルが低いものであるとし、図5のS74の処理において、照明器を保有している物体領域Oを検知物体情報から削除せずに、照明器を保有している物体領域Oの検知物体情報の属性情報をPPPからLOWへ変更することで、照明器を保有している物体は、検知物体情報の中でも注意喚起レベルが低いものであるとして運転者へ情報提供することができる。注意喚起レベルが低い場合とは、例えば、照明器を保有している物体をディスプレイ上で薄く表示したり、スピーカーでの警告音量を下げたりすることによって実現される。 Further, in the embodiment, without excluding the object area O i that hold illuminator has been described how to exclude from detection object information, the object area O i that hold the illuminator from the detection object information It is also possible to change the alert level. For example, when the attribute information is LOW, it is assumed that the alert level of the detected object information is low, and the object region O i holding the illuminator is deleted from the detected object information in the process of S74 of FIG. Without changing the attribute information of the detected object information of the object region O i that holds the illuminator from PPP to LOW, the object that holds the illuminator has a warning level among the detected object information. Information can be provided to the driver as being low. The case where the alerting level is low is realized, for example, by thinly displaying an object holding the illuminator on the display or lowering the warning volume on the speaker.

本実施形態に係る物体検出装置の構成図である。It is a block diagram of the object detection apparatus which concerns on this embodiment. 図1の物体検出装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the object detection apparatus of FIG. 図1の物体検出装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the object detection apparatus of FIG. 図3の照明器保有判断処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the illuminator possession judgment process of FIG. 図3の物体の識別処理の詳細を示すフローチャートである。FIG. 4 is a flowchart showing details of an object identification process of FIG. 3. FIG. 撮像部の撮像時間及び投光器の投光時間を示す概要図である。It is a schematic diagram which shows the imaging time of an imaging part, and the light projection time of a light projector. 先幕シンクロかつスローシンクロで撮像した画像例である。It is the example of an image imaged with front curtain sync and slow sync. 先幕シンクロかつスローシンクロで撮像した画像例である。It is the example of an image imaged with front curtain sync and slow sync. 図8の画像の中から高輝度領域のみ抽出した画像例である。FIG. 9 is an image example in which only a high luminance region is extracted from the image of FIG. 8. FIG. 図9に示す高輝度領域にIDを付与した画像例である。FIG. 10 is an example of an image in which an ID is assigned to the high luminance region shown in FIG. 9. FIG. 図10に示す高輝度領域の特徴量を示す概要図である。It is a schematic diagram which shows the feature-value of the high-intensity area | region shown in FIG. 最尤交点の導出を説明するための画像例である。It is an example of an image for explaining derivation of the maximum likelihood intersection. ピッチ角度算出部の動作を説明するための画像例である。It is an example of an image for explaining operation of a pitch angle calculation part. 探索範囲を限定する動作を説明するための画像例である。It is an example of an image for explaining operation which limits a search range. 物体領域の抽出を説明するための画像例である。It is an example of an image for explaining extraction of an object area. 高輝度領域と物体領域との接触判定を説明するための画像例である。It is an example of an image for demonstrating the contact determination of a high-intensity area | region and an object area | region. 物体領域の識別を説明するための画像例である。It is an example of an image for explaining identification of an object field.

符号の説明Explanation of symbols

1…物体検出装置、13…高輝度領域抽出部(高輝度体検出手段)、14…特徴量導出部(特徴量導出手段)、15…消失点導出部(消失点決定手段)、16…ピッチ角度算出部(ピッチ角度算出手段)、17…探索範囲限定部(範囲限定手段)、18…物体領域抽出部(物体検出手段)、19…接触判定部(識別手段、接触判定手段)、20…照明器判定部(照明器判定手段)、21…物体識別部(識別手段)、22…出力部(運転支援手段)。   DESCRIPTION OF SYMBOLS 1 ... Object detection apparatus, 13 ... High-intensity area | region extraction part (high-intensity body detection means), 14 ... Feature-value derivation | leading-out part (feature-value derivation means), 15 ... Vanishing point derivation | leading-out part (vanishing point determination means), 16 ... Pitch Angle calculation unit (pitch angle calculation unit), 17 ... Search range limitation unit (range limitation unit), 18 ... Object region extraction unit (object detection unit), 19 ... Contact determination unit (identification unit, contact determination unit), 20 ... Illuminator determination unit (illuminator determination unit), 21... Object identification unit (identification unit), 22... Output unit (driving support unit).

Claims (7)

車載された撮像手段によって撮像した画像の画像情報の中から物体を検出する物体検出手段と、
前記画像情報の中から所定の輝度より大きな輝度を有する高輝度領域を抽出し、高輝度体として検出する高輝度体検出手段と、
前記物体の検出結果と前記高輝度体の検出結果とに基づいて、前記高輝度体が付随する前記物体と前記高輝度体が付随しない前記物体とを識別する識別手段と、
を備えた物体検出装置。
Object detection means for detecting an object from image information of an image captured by an on-vehicle imaging means;
A high-luminance body detection means for extracting a high-luminance region having a luminance greater than a predetermined luminance from the image information and detecting the high-luminance body;
Identification means for identifying the object accompanied by the high-luminance body and the object not accompanied by the high-luminance body based on the detection result of the object and the detection result of the high-luminance body;
An object detection apparatus comprising:
前記高輝度体が付随する前記物体の存在よりも、前記高輝度体が付随していない前記物体の存在を強調して運転者に報知し車両の運転支援を行う運転支援手段を備えることを特徴とする請求項1に記載の物体検出装置。   Driving support means for supporting the driving of the vehicle by notifying the driver by emphasizing the presence of the object not accompanied by the high-luminance body rather than the presence of the object accompanied by the high-luminance body. The object detection apparatus according to claim 1. 前記高輝度体が付随する前記物体を、運転支援の対象から除外して運転支援を行う運転支援手段を備えることを特徴とする請求項1に記載の物体検出装置。   The object detection apparatus according to claim 1, further comprising driving support means that performs driving support by excluding the object accompanied by the high-luminance body from a driving support target. 前記画像の撮像方向に向けて所定の投光時間で投光する投光手段を備え、
前記撮像手段は、前記投光時間より撮像時間を長くすること、
を特徴とする請求項1〜3の何れか一項に記載の物体検出装置。
Comprising light projecting means for projecting in a predetermined projecting time toward the imaging direction of the image,
The imaging means makes the imaging time longer than the projection time;
The object detection device according to claim 1, wherein
前記高輝度領域の特徴量を導出する特徴量導出手段と、
前記物体に対応する領域と前記高輝度領域とが互いに接触しているか否かを判定する接触判定手段と、
前記接触判定手段によって前記物体に対応する領域と前記高輝度領域とが互いに接触していると判定した場合には、前記特徴量に基づいて、前記高輝度体が照明器であるか否かを判定する照明器判定手段と、
を備えることを特徴とする請求項4に記載の物体検出装置。
Feature quantity deriving means for deriving a feature quantity of the high luminance region;
Contact determination means for determining whether or not the region corresponding to the object and the high-intensity region are in contact with each other;
If it is determined by the contact determination means that the region corresponding to the object and the high luminance region are in contact with each other, whether or not the high luminance body is an illuminator is determined based on the feature amount. Illuminator determination means for determining;
The object detection apparatus according to claim 4, further comprising:
前記特徴量導出手段は、前記特徴量として前記高輝度領域の面積を算出し、
前記照明器判定手段は、前記物体に対応する領域と前記高輝度領域との面積比に基づいて、前記高輝度体が照明器であるか否かを判定することを特徴とする請求項5に記載の物体検出装置。
The feature amount deriving unit calculates an area of the high luminance region as the feature amount,
The said illuminator determination means determines whether the said high-intensity body is an illuminator based on the area ratio of the area | region corresponding to the said object, and the said high-intensity area | region. The object detection apparatus described.
前記高輝度領域の軌跡の形状に基づいて前記画像の消失点の位置を決定する消失点決定手段と、
前記消失点の位置と車両の所定のピッチ角度における消失点の位置とを比較して前記車両のピッチ角度を算出するピッチ角度算出手段と、
前記ピッチ角度に基づいて前記画像情報の探索する範囲を限定する範囲限定手段と、
を特徴とする請求項4〜6の何れか一項に記載の物体検出装置。
Vanishing point determining means for determining the position of the vanishing point of the image based on the shape of the locus of the high-luminance region;
A pitch angle calculating means for calculating the pitch angle of the vehicle by comparing the position of the vanishing point and the position of the vanishing point at a predetermined pitch angle of the vehicle;
A range limiting means for limiting a search range of the image information based on the pitch angle;
The object detection device according to claim 4, wherein
JP2007209650A 2007-08-10 2007-08-10 Object detection device Pending JP2009044631A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007209650A JP2009044631A (en) 2007-08-10 2007-08-10 Object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007209650A JP2009044631A (en) 2007-08-10 2007-08-10 Object detection device

Publications (1)

Publication Number Publication Date
JP2009044631A true JP2009044631A (en) 2009-02-26

Family

ID=40444843

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007209650A Pending JP2009044631A (en) 2007-08-10 2007-08-10 Object detection device

Country Status (1)

Country Link
JP (1) JP2009044631A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012058012A (en) * 2010-09-07 2012-03-22 Toshiba Corp Target position estimation apparatus
WO2016142976A1 (en) * 2015-03-11 2016-09-15 日本電気株式会社 Image pickup system
US10422878B2 (en) 2016-02-23 2019-09-24 Denso Corporation Object recognition apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012058012A (en) * 2010-09-07 2012-03-22 Toshiba Corp Target position estimation apparatus
WO2016142976A1 (en) * 2015-03-11 2016-09-15 日本電気株式会社 Image pickup system
US10422878B2 (en) 2016-02-23 2019-09-24 Denso Corporation Object recognition apparatus

Similar Documents

Publication Publication Date Title
JP4879189B2 (en) Safe driving support device
JP4263737B2 (en) Pedestrian detection device
JPWO2017158983A1 (en) Object recognition apparatus, object recognition method, and object recognition program
JP2004303219A (en) Vehicle surrounding monitoring device
JP5737399B2 (en) Red-eye determination device
JP2007334751A (en) Vehicle periphery monitoring device
JP4528283B2 (en) Vehicle periphery monitoring device
JP2010097541A (en) Vehicular periphery monitoring apparatus
JP2003284057A (en) Vehicle periphery monitoring unit
JP5737401B2 (en) 瞼 Detection device
JP2010102427A (en) Lane division line detection device, lane division line detection method and line division line detection program
JP3395344B2 (en) Image processing device and doze alarm device using the same
JP4992823B2 (en) Face detection apparatus and face detection method
JP2009026223A (en) Object detector and program
JP5530530B2 (en) Vehicle periphery monitoring device
JP2007334511A (en) Object detection device, vehicle, object detection method and program for object detection
JP2003028635A (en) Image range finder
JP2009044631A (en) Object detection device
JP2011103058A (en) Erroneous recognition prevention device
JP2004086417A (en) Method and device for detecting pedestrian on zebra crossing
JP2000306097A (en) Road area decision device
JPH0973529A (en) Two-wheeled vehicle monitor device
JP4701961B2 (en) Pedestrian detection device
JP5020920B2 (en) Pedestrian detection device and program
JP2011134119A (en) Vehicle periphery monitoring device