JP2014056295A - Vehicle periphery monitoring equipment - Google Patents

Vehicle periphery monitoring equipment Download PDF

Info

Publication number
JP2014056295A
JP2014056295A JP2012199215A JP2012199215A JP2014056295A JP 2014056295 A JP2014056295 A JP 2014056295A JP 2012199215 A JP2012199215 A JP 2012199215A JP 2012199215 A JP2012199215 A JP 2012199215A JP 2014056295 A JP2014056295 A JP 2014056295A
Authority
JP
Japan
Prior art keywords
image
type determination
determination
type
animal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012199215A
Other languages
Japanese (ja)
Inventor
Makoto Aimura
誠 相村
Shinji Nagaoka
伸治 長岡
Yukihiro Matsuda
幸大 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2012199215A priority Critical patent/JP2014056295A/en
Publication of JP2014056295A publication Critical patent/JP2014056295A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide target object monitoring equipment capable of performing processing of detecting a target object such as a biological body while suppressing excessive increase of calculation load according to an image taken by an infrared camera.SOLUTION: Target object monitoring equipment comprises: means 32 for extracting an image of a type-discrimination target from a high-intensity region of an image taken by an infrared camera 11 to discriminate a type thereof; means 33 for extracting an image of the type-discrimination target from a low-intensity region of the taken image to discriminate a type thereof. At least one of the means 32, 33 is configured to perform type-discrimination processing in a region other than a region-part containing an image of a type-discrimination target whose type is already determined by the other of the means 32, 33.

Description

本発明は、赤外線カメラの撮像画像を用いて車両周辺を監視する車両周辺監視装置に関する。   The present invention relates to a vehicle periphery monitoring device that monitors the periphery of a vehicle using an image captured by an infrared camera.

車両に搭載された赤外線カメラにより車両周辺の撮像画像(グレースケール画像)を取得し、その撮像画像を基に、赤外線カメラの撮像領域に存在する監視対象物としての人(歩行者)を検知する車両周辺監視装置が従来より知られている(例えば、特許文献1を参照))。   A captured image (grayscale image) around the vehicle is acquired by an infrared camera mounted on the vehicle, and a person (pedestrian) as a monitoring target existing in the imaging region of the infrared camera is detected based on the captured image. Conventionally, a vehicle periphery monitoring device is known (see, for example, Patent Document 1).

上記特許文献1に見られる車両周辺監視装置では、赤外線カメラの撮像画像から、所定の輝度閾値以上の高輝度の画像部分と該輝度閾値よりも低輝度の画像部分とから構成される2値化画像が生成される。そして、この2値化画像の高輝度領域から抽出した対象物(人である可能性がある対象物)の画像の形状もしくはサイズの特徴等に基づいて、該対象物が人であるか否か判定される。   In the vehicle periphery monitoring device found in Patent Document 1, the binarization is configured from an image captured by an infrared camera, and a high-luminance image portion that is equal to or higher than a predetermined luminance threshold value and an image portion that is lower than the luminance threshold value. An image is generated. Whether or not the object is a person based on the shape or size characteristics of the image of the object (object that may be a person) extracted from the high-luminance area of the binarized image Determined.

特開2003−284057号公報JP 2003-284057 A

ところで、人等の生体の存在を検知するための赤外線カメラの撮像画像としては、該赤外線カメラの撮像領域に存在する任意の被写体物とその背景の温度差に応じて輝度変化を生じ、被写体物の温度が背景の温度よりも高いほど、該被写体物の画像部分の輝度が背景の画像部分の輝度よりも高くなり、被写体物の温度が背景の温度よりも低いほど、該被写体物の画像部分の輝度が背景の画像部分の輝度よりも低くなるという特性(以降、AC特性ということがある)の撮像画像を用いることが好ましい。   By the way, as an image captured by an infrared camera for detecting the presence of a living body such as a person, a luminance change occurs depending on a temperature difference between an arbitrary subject existing in the imaging region of the infrared camera and its background, and the subject The higher the temperature of the object is, the higher the luminance of the image part of the object is higher than the luminance of the image part of the background, and the lower the temperature of the object is the background temperature, the image part of the object It is preferable to use a captured image having a characteristic that the luminance of the image becomes lower than the luminance of the background image portion (hereinafter also referred to as AC characteristic).

上記AC特性の撮像画像を用いた場合、通常の環境下では、該撮像画像に写っている人等の生体の温度は、一般に、該生体の周囲の背景部分(路面や構造物等)の温度よりも相対的に高い温度となる。このため、赤外線カメラの撮像領域に存在する人等の生体の画像は、上記AC特性の撮像画像中において高輝度な画像となる。   When the captured image having the AC characteristic is used, under normal circumstances, the temperature of a living body such as a person shown in the captured image is generally the temperature of a background portion (road surface, structure, etc.) around the living body. Relatively higher temperature. For this reason, an image of a living body such as a person existing in the imaging region of the infrared camera is a high-luminance image in the captured image having the AC characteristics.

しかるに、外気温が高温である場合等では、生体の温度が、その周囲の背景部分の温度に比して相対的に低い温度となる場合もある。そして、このような場合には、撮像画像から生成した上記2値化画像において、当該生体の画像部分はその周囲の背景部分の画像に比して高輝度の画像部分として得られないものとなる。ひいては、撮像領域に存在する人を検知することができないこととなる。   However, when the outside air temperature is high, the temperature of the living body may be relatively lower than the temperature of the surrounding background portion. In such a case, in the binarized image generated from the captured image, the image portion of the living body cannot be obtained as a high-luminance image portion as compared to the surrounding background portion image. . As a result, a person existing in the imaging area cannot be detected.

このような不都合を解消するために、赤外線カメラの撮像画像の高輝度領域から人等の生体の存在を検知することに加えて、低輝度領域からも生体の存在を検知するようにすることが考えられる。ただし、その場合、監視装置の演算処理負荷が過大になって、生体の検知の遅れを生じてしまう恐れがある。   In order to eliminate such inconvenience, in addition to detecting the presence of a living body such as a person from a high brightness area of an image captured by an infrared camera, it is also possible to detect the presence of a living body from a low brightness area. Conceivable. However, in that case, the calculation processing load of the monitoring device becomes excessive, and there is a risk of delaying detection of the living body.

本発明は、かかる背景に鑑みてなされたものであり、赤外線カメラの撮像画像に基づいて生体等の対象物を検知することが環境条件によって困難となるのを防止しつつ、演算処理負荷が過大にならないように生体等の対象物を検知する処理を行うことができる対象物監視装置を提供することを目的とする。   The present invention has been made in view of such a background, and it is difficult to detect an object such as a living body based on a captured image of an infrared camera due to an environmental condition, and an excessive processing load is imposed. It aims at providing the target object monitoring apparatus which can perform the process which detects objects, such as a biological body, so that it may not become.

本発明の対象物監視装置は、かかる目的を達成するために、赤外線カメラの撮像領域に存在する対象物の種別を判定する機能を有する対象物監視装置であって、
前記赤外線カメラの撮像領域に存在する任意の対象物と該対象物の背景との間の温度差に応じて該対象物の画像の輝度が変化する特性であって、該背景よりも該対象物の温度が高いほど対象物の画像の輝度が高くなり、且つ、該背景よりも該対象物の温度が低いほど対象物の画像の輝度が低くなるという特性を有する撮像画像を前記赤外線カメラを用いて取得する撮像画像取得手段と、
前記撮像画像において所定の第1閾値以上の輝度を有する高輝度領域から、種別の判定を行なう対象物である種別判定対象物の画像を抽出して、該種別判定対象物の画像に基づいて該種別判定対象物の種別を判定する第1判定処理を実行する第1対象物種別判定手段と、
前記撮像画像において所定の第2閾値以下の輝度を有する低輝度領域から、前記種別判定対象物の画像を抽出して、該種別判定対象物の画像に基づいて該種別判定対象物の種別を判定する第2判定処理を実行する第2対象物種別判定手段とを備え、
前記第1対象物種別判定手段と第2対象物種別判定手段とのうちの少なくとも一方の手段は、前記撮像画像における前記高輝度領域及び低輝度領域のうちの当該一方の手段に対応する領域から、他方の手段によって種別が既に判定された種別判定対象物の画像が存在する部分領域を除外した領域において前記第1判定処理又は第2判定処理を実行するように構成されていることを特徴とする(第1発明)。
The object monitoring apparatus of the present invention is an object monitoring apparatus having a function of determining the type of an object existing in the imaging area of an infrared camera in order to achieve such an object,
The brightness of an image of the object changes according to a temperature difference between an arbitrary object existing in the imaging region of the infrared camera and the background of the object, and the object is more than the background. Using the infrared camera, a captured image having characteristics that the higher the temperature of the object, the higher the brightness of the image of the object, and the lower the temperature of the object than the background, the lower the brightness of the image of the object. Captured image acquisition means for acquiring
In the captured image, an image of a type determination target object, which is a target for performing type determination, is extracted from a high luminance region having a luminance equal to or higher than a predetermined first threshold, and based on the image of the type determination target First object type determination means for executing a first determination process for determining the type of the type determination object;
An image of the type determination target object is extracted from a low luminance region having a luminance equal to or lower than a predetermined second threshold in the captured image, and the type of the type determination target object is determined based on the image of the type determination target object Second object type determination means for executing a second determination process to perform,
At least one of the first object type determination unit and the second object type determination unit is an area corresponding to the one of the high luminance region and the low luminance region in the captured image. The first determination process or the second determination process is performed in an area excluding a partial area in which an image of a type determination target object whose type has already been determined by the other means is present. (First invention).

なお、本発明における対象物の背景とは、赤外線カメラの撮像画像に写る対象物の背後の被写体(建物の壁面、路面等)を意味する。   The background of the object in the present invention means an object behind the object (a wall surface of a building, a road surface, etc.) that appears in an image captured by an infrared camera.

この第1発明によれば、前記第1対象物種別判定手段によって、背景よりも高温の種別判定対象物の画像を赤外線カメラの撮像画像の高輝度領域から抽出することができる。ひいては、該種別判定対象物の画像に基づいて、該種別判定対象物の種別を判定できる。   According to the first aspect of the invention, the first object type determination unit can extract the image of the type determination object having a temperature higher than that of the background from the high luminance region of the captured image of the infrared camera. As a result, the type of the type determination target can be determined based on the image of the type determination target.

また、前記第2対象物種別判定手段によって、背景よりも低温の種別判定対象物の画像を赤外線カメラの撮像画像の低輝度領域から抽出することができる。ひいては、該種別判定対象物の画像に基づいて、該種別判定対象物の種別を判定できる。   In addition, the second object type determination unit can extract an image of the type determination object having a temperature lower than that of the background from the low luminance region of the image captured by the infrared camera. As a result, the type of the type determination target can be determined based on the image of the type determination target.

従って、種別判定対象物の温度がその背景の温度よりも高い場合及び低い場合のいずれの場合でも、撮像画像中の該種別判定対象物の画像を認識して、該種別判定対象物の種別を判定することができる。ひいては、赤外線カメラの撮像領域の生体等の対象物が存在する場合に、外気温等によらずに、それを検知することができる。   Therefore, in both cases where the temperature of the type determination target is higher or lower than the background temperature, the type determination target image in the captured image is recognized, and the type of the type determination target is determined. Can be determined. As a result, when there is an object such as a living body in the imaging region of the infrared camera, it can be detected regardless of the outside air temperature.

また、前記第1対象物種別判定手段と第2対象物種別判定手段とのうちの少なくとも一方の手段は、前記撮像画像における前記高輝度領域及び低輝度領域のうちの当該一方の手段に対応する領域から、他方の手段によって種別が既に判定された種別判定対象物の画像が存在する部分領域を除外した領域において前記第1判定処理又は第2判定処理を実行するように構成されている。   Further, at least one of the first object type determination unit and the second object type determination unit corresponds to the one of the high luminance region and the low luminance region in the captured image. The first determination process or the second determination process is executed in an area excluding a partial area in which an image of the type determination object whose type has already been determined by the other means is present.

このため、第1対象物種別判定手段と第2対象物種別判定手段とのうち上記他方の手段によって既に種別が判定された種別判定対象物に対して、上記一方の手段が種別の判定を行なうことが無い。このため、第1対象物種別判定手段と第2対象物種別判定手段とのトータルの演算処理負荷が過大になるのを防止することができる。   For this reason, said one means performs classification judgment with respect to the classification judgment target object whose classification has already been judged by said other means out of the first object type judgment means and the second object type judgment means. There is nothing. For this reason, it is possible to prevent the total calculation processing load of the first object type determination means and the second object type determination means from becoming excessive.

よって、第1発明によれば、赤外線カメラの撮像画像に基づいて生体等の対象物を検知することが環境条件によって困難となるのを防止しつつ、演算処理負荷が過大にならないように生体等の対象物を検知する処理を行うことができる。   Therefore, according to the first aspect of the present invention, it is possible to prevent an object such as a living body from being difficult to detect due to environmental conditions based on a captured image of an infrared camera, and to prevent an excessive calculation processing load. The process which detects the target object of this can be performed.

かかる第1発明では、前記第1判定処理及び第2判定処理の両判定処理は、前記種別判定対象物が所定種類の生体であるか否かを前記種別判定対象物の画像に基づいて判定する処理をそれぞれ含んでおり、前記第2対象物種別判定手段は、外気温が所定温度以上の高温であるか、又は降雨時であるという環境条件が成立することを必要条件として、前記種別判定対象物が所定種類の生体であるか否かを判定する処理を実行するように構成され、前記第1対象物種別判定手段は、前記環境条件が成立するか否かによらずに、前記種別判定対象物が所定種類の生体であるか否かを判定する処理を実行するように構成されていることが好ましい(第2発明)。   In the first invention, both the first determination process and the second determination process determine whether the type determination target is a predetermined type of living body based on the image of the type determination target. Each of the second object type determination means includes the process of determining whether the outside air temperature is a high temperature equal to or higher than a predetermined temperature or that an environmental condition is met when it is raining. It is configured to execute a process for determining whether or not an object is a predetermined type of living body, and the first object type determination unit is configured to determine the type regardless of whether or not the environmental condition is satisfied. It is preferable that a process for determining whether or not the object is a predetermined type of living body is executed (second invention).

この第2発明によれば、第2対象物種別判定手段によって前記種別判定対象物が所定種類の生体であるか否かを判定する処理は、前記環境条件が成立しない場合に実行されない。   According to the second aspect of the invention, the process of determining whether or not the type determination target is a predetermined type of living body by the second target type determination unit is not executed when the environmental condition is not satisfied.

ここで、前記環境条件が成立しない場合には、通常、前記生体の温度は、背景の温度よりも高いので、該生体が赤外線カメラの撮像領域に存在する場合には、第2対象物種別判定手段の処理を行わずとも、第1対象物種別判定手段によって、該生体の存在を認識することができる。   Here, when the environmental condition is not satisfied, the temperature of the living body is usually higher than the background temperature. Therefore, when the living body exists in the imaging region of the infrared camera, the second object type determination is performed. Even if the processing of the means is not performed, the existence of the living body can be recognized by the first object type determination means.

そして、この場合、第2対象物種別判定手段によって前記種別判定対象物が所定種類の生体であるか否かを判定する処理が実行されないので、第2対象物種別判定手段による演算処理負荷を削減できる。   In this case, since the process for determining whether or not the type determination target is a predetermined type of living body is not executed by the second target type determination unit, the calculation processing load by the second target type determination unit is reduced. it can.

また、前記環境条件が成立する場合には、前記第2対象物種別判定手段の処理が行われるので、前記生体の温度は、背景の温度よりも低い場合でも、該生体の存在を認識することができる。   In addition, when the environmental condition is satisfied, the processing of the second object type determination unit is performed, so that the presence of the living body is recognized even when the temperature of the living body is lower than the background temperature. Can do.

上記第2発明では、前記第1判定処理及び第2判定処理の両判定処理は、前記種別判定対象物が前記所定種類の生体としての人であるか否かを前記種別判定対象物の画像に基づいて判定する人認識処理をそれぞれ含んでおり、前記第1判定処理及び第2判定処理のうちの第1判定処理又は両判定処理は、少なくとも所定の動作条件が成立する場合に、前記種別判定対象物が人以外の動物であるか否かを該種別判定対象物の画像に基づいて判定する動物認識処理をさらに含んでおり、前記第1対象物種別判定手段及び第2対象物種別判定手段のうち、前記動物認識処理を含む判定処理を実行する各判定手段は、前記第1対象物種別判定手段及び第2対象物種別判定手段の両判定手段による前記人認識処理の実行によって人であると判定された種別判定対象物の総個数が所定数未満である場合、又は前記赤外線カメラが搭載された車両の走行中の場所が市街地でないと判断される場合に、前記所定の動作条件が成立するものとして、前記動物認識処理を実行し、前記人であると判定された種別判定対象物の総個数が所定数以上である場合、又は前記車両の走行中の場所が市街地であると判断される場合に、前記動物認識処理を実行することを省略するか、又は、前記所定の動作条件が成立する場合よりも演算量が軽減される処理によって前記種別判定対象物が人以外の動物であるか否かを判定するように構成されていてもよい(第3発明)。   In the second invention, both the first determination process and the second determination process determine whether the type determination object is a person as the predetermined type of living body in the image of the type determination object. Each of the first determination process and the second determination process of the first determination process and the second determination process is performed when at least a predetermined operating condition is satisfied. An animal recognition process for determining whether the target object is an animal other than a person based on an image of the type determination target object, wherein the first target type determination unit and the second target type determination unit Among these, each determination means for executing the determination process including the animal recognition process is a person by executing the person recognition process by both determination means of the first object type determination means and the second object type determination means. Specified species When the total number of determination objects is less than a predetermined number, or when it is determined that the traveling place of the vehicle equipped with the infrared camera is not a city area, the predetermined operation condition is satisfied, When the animal recognition process is performed and the total number of type determination objects determined to be the person is a predetermined number or more, or when it is determined that the place where the vehicle is traveling is an urban area, It is determined whether or not the type determination object is an animal other than a human by performing processing that reduces the amount of calculation compared to when the predetermined operation condition is satisfied, or omitting performing the animal recognition process (3rd invention).

ここで、人が多い環境下、又は市街地では、赤外線カメラの撮像領域に人以外の動物が存在することとなる可能性は低い。そこで、第3発明では、前記第1対象物種別判定手段及び第2対象物種別判定手段のうち、前記動物認識処理を含む判定処理を実行する各判定手段は、前記人であると判定された種別判定対象物の総個数が所定数以上である場合、又は前記車両の走行中の場所が市街地であると判断される場合に、前記動物認識処理を実行することを省略するか、又は、前記所定の動作条件が成立する場合よりも演算量が軽減される処理によって前記種別判定対象物が人以外の動物であるか否かを判定する。   Here, in an environment where there are many people or in an urban area, it is unlikely that animals other than humans will be present in the imaging region of the infrared camera. Therefore, in the third invention, among the first object type determination means and the second object type determination means, each determination means for executing the determination process including the animal recognition process is determined to be the person. When the total number of type determination objects is a predetermined number or more, or when it is determined that the place where the vehicle is running is an urban area, omitting the animal recognition process, or It is determined whether or not the type determination object is an animal other than a human by a process in which the amount of calculation is reduced as compared with a case where a predetermined operating condition is satisfied.

これにより、赤外線カメラの撮像画像に存在する人と人以外の動物とを認識する場合に、人が多く存在するような状況(前記第1対象物種別判定手段及び第2対象物種別判定手段による人認識処理の負荷が高まり易い状況)で、前記動物認識処理を含む判定処理を実行する各判定手段での動物認識処理の負荷を解消もしくは削減して、対象物監視装置の演算処理負荷が過大になるのを防止できる。   Thereby, when recognizing a person and an animal other than a person existing in a captured image of the infrared camera, a situation where there are many persons (by the first object type determination unit and the second object type determination unit) In a situation where the load of human recognition processing is likely to increase, the load of the animal recognition processing in each determination means that executes the determination processing including the animal recognition processing is eliminated or reduced, and the calculation processing load of the object monitoring device is excessive. Can be prevented.

また、前記第2発明においては、前記第1判定処理及び第2判定処理の両判定処理は、少なくとも所定の動作条件が成立する場合に、前記種別判定対象物が前記所定種類の生体としての人であるか否かを該種別判定対象物の画像に基づいて判定する人認識処理をそれぞれ含んでおり、前記第1判定処理及び第2判定処理のうちの第1判定処理又は両判定処理は、前記種別判定対象物が人以外の動物であるか否かを該種別判定対象物の画像に基づいて判定する動物認識処理をさらに含んでおり、前記第1対象物種別判定手段及び第2対象物種別判定手段の両判定手段は、前記第1対象物種別判定手段及び第2対象物種別判定手段のうち、前記動物検知処理を含む判定処理を実行する各判定手段による該動物検知処理の実行によって前記動物であると判定された種別判定対象物の総個数が所定数未満である場合に、前記所定の動作条件が成立するものとして、前記人認識処理を実行し、前記動物であると判定された種別判定対象物の総個数が所定数以上である場合に、前記人認識処理を実行することを省略するか、又は、前記所定の動作条件が成立する場合よりも演算量が軽減される処理によって前記種別判定対象物が人であるか否かを判定するように構成されていてもよい(第4発明)。   In the second aspect of the invention, both of the first determination process and the second determination process are performed when the type determination object is a human being of the predetermined type when at least a predetermined operation condition is satisfied. Each of which includes a person recognition process for determining whether or not is based on an image of the type determination target object, and the first determination process or the both determination processes of the first determination process and the second determination process include: An animal recognition process for determining whether or not the type determination target object is an animal other than a person based on an image of the type determination target object, wherein the first target type determination unit and the second target object Both determination means of the type determination means are executed by execution of the animal detection process by each determination means that executes the determination process including the animal detection process among the first object type determination means and the second object type determination means. The animal When the total number of type determination objects determined to be less than a predetermined number, it is determined that the predetermined operation condition is satisfied, the person recognition process is executed, and the type determination target determined to be the animal If the total number of objects is equal to or greater than a predetermined number, the execution of the person recognition process is omitted, or the type determination is performed by a process in which the amount of calculation is reduced as compared with the case where the predetermined operation condition is satisfied. You may be comprised so that it may be determined whether a target object is a person (4th invention).

ここで、人以外の動物が多い環境下では、赤外線カメラの撮像領域に人が存在することとなる可能性は低い。そこで、第3発明では、前記第1対象物種別判定手段及び第2対象物種別判定手段の両判定手段は、前記第1対象物種別判定手段及び第2対象物種別判定手段のうち、前記動物検知処理を含む判定処理を実行する各判定手段による該動物検知処理の実行によって前記動物であると判定された種別判定対象物の総個数が所定数以上である場合に、前記人認識処理を実行することを省略するか、又は、前記所定の動作条件が成立する場合よりも演算量が軽減される処理によって前記種別判定対象物が人であるか否かを判定する。   Here, in an environment where there are many animals other than humans, it is unlikely that people will be present in the imaging area of the infrared camera. Therefore, in the third invention, both of the first object type determination means and the second object type determination means are the animal of the first object type determination means and the second object type determination means. The person recognition process is executed when the total number of type determination objects determined to be the animal by the execution of the animal detection process by each determination unit that executes a determination process including a detection process is a predetermined number or more. It is determined whether or not the type determination target is a person by a process that reduces the amount of calculation compared to the case where the predetermined operation condition is satisfied.

これにより、赤外線カメラの撮像画像に存在する人と人以外の動物とを認識する場合に、人以外の動物が多く存在するような状況(前記第1対象物種別判定手段及び第2対象物種別判定手段のうち、前記動物検知処理を含む判定処理を実行する各判定手段による動物認識処理の負荷が高まり易い状況)で、両判定手段での人認識処理の負荷を解消もしくは削減して、対象物監視装置の演算処理負荷が過大になるのを防止できる。   Thereby, when recognizing a person and an animal other than a person existing in an image captured by an infrared camera, a situation where there are many animals other than a person (the first object type determination means and the second object type). Among the determination means, the load of the animal recognition process by each determination means that executes the determination process including the animal detection process is likely to increase). It is possible to prevent the calculation processing load of the object monitoring apparatus from becoming excessive.

本発明の第1実施形態における対象物監視装置を搭載した車両を示す図。The figure which shows the vehicle carrying the target object monitoring apparatus in 1st Embodiment of this invention. 図1に示す対象物監視装置に関する構成を示すブロック図。The block diagram which shows the structure regarding the target object monitoring apparatus shown in FIG. 図1に示す対象物監視装置の処理を示すフローチャート。The flowchart which shows the process of the target object monitoring apparatus shown in FIG. 図3に示すSTEP2の処理(第1実施形態での処理)を示すフローチャート。The flowchart which shows the process (process in 1st Embodiment) of STEP2 shown in FIG. 図3に示すSTEP4の処理を示すフローチャート。The flowchart which shows the process of STEP4 shown in FIG. 図4に示すSTEP2−1の処理及び図4に示すSTEP4−2の処理を説明するためのグラフ。The graph for demonstrating the process of STEP2-1 shown in FIG. 4, and the process of STEP4-2 shown in FIG. 赤外線カメラの撮像画像の例を示す図。The figure which shows the example of the captured image of an infrared camera. 図4に示すSTEP2−3の処理を説明するための図。The figure for demonstrating the process of STEP2-3 shown in FIG. 図3に示すSTEP2の一部の処理(第2実施形態での処理)を示すフローチャート。FIG. 4 is a flowchart showing a part of the processing of STEP 2 shown in FIG. 3 (processing in the second embodiment).

[第1実施形態]
本発明の第2実施形態を図1〜図8を参照して説明する。
[First Embodiment]
A second embodiment of the present invention will be described with reference to FIGS.

図1を参照して、本実施形態の対象物監視装置10は、車両1に搭載されている。車両1には、対象物監視装置10の他、車両1の周辺の所定の監視領域AR0(図1の直線L1,L2の間の画角領域)を撮像する赤外線カメラ11と、赤外線カメラ11の撮像画像等の表示情報を車両1の運転者が視認可能に表示する表示器12と、車両1の運転者に報知する音響情報(音声、警報音等)を出力するスピーカ13とが搭載されている。   With reference to FIG. 1, an object monitoring apparatus 10 of this embodiment is mounted on a vehicle 1. In addition to the object monitoring device 10, the vehicle 1 includes an infrared camera 11 that captures an image of a predetermined monitoring area AR 0 (an angle of view area between the straight lines L 1 and L 2 in FIG. 1) around the vehicle 1, and an infrared camera 11. A display 12 that displays display information such as a captured image so that the driver of the vehicle 1 can visually recognize, and a speaker 13 that outputs acoustic information (sound, warning sound, etc.) to notify the driver of the vehicle 1 are mounted. Yes.

表示器12は、車両1の運転席前方で車室内に設置される液晶ディスプレイ、あるいは、車両1のフロントガラスに映像を投影して表示するヘッド・アップ・ディスプレイ等により構成される。なお、表示器12は、赤外線カメラ11の撮像画像の他、ナビゲーション情報(地図等)、オーディオ情報等を適宜表示し得るものであってもよい。   The indicator 12 is configured by a liquid crystal display installed in the passenger compartment in front of the driver's seat of the vehicle 1 or a head-up display that projects and displays an image on the windshield of the vehicle 1. In addition, the display device 12 may display navigation information (such as a map), audio information, and the like as appropriate in addition to the image captured by the infrared camera 11.

赤外線カメラ11は、赤外域の波長帯に感度を有するカメラであり、その撮像画像を構成する各画素の輝度を示す映像信号を出力する。この赤外線カメラ11の撮像領域としての監視領域AR0(以降、撮像領域AR0ということがある)は、本実施形態では、車両1の前方側の領域である。この監視領域AR0を撮像するために、赤外線カメラ11は、車両1の前部に搭載されている。   The infrared camera 11 is a camera having sensitivity in an infrared wavelength band, and outputs a video signal indicating the luminance of each pixel constituting the captured image. The monitoring area AR0 (hereinafter sometimes referred to as the imaging area AR0) as the imaging area of the infrared camera 11 is an area on the front side of the vehicle 1 in the present embodiment. In order to image the monitoring area AR0, the infrared camera 11 is mounted on the front portion of the vehicle 1.

赤外線カメラ11は、その映像信号により規定される撮像画像の輝度が、該撮像画像に写る撮像領域AR0内の被写体全体の温度の分布状態に対して次のような特性を有するカメラである。その特性は、撮像領域AR0内の任意の対象物の画像の輝度(該対象物の投影領域近辺の画像の輝度)が、該対象物の温度の大きさそのものに応じた大きさの輝度になるのではなく、該対象物とその背景(赤外線カメラ11から見て該対象物の背後に存在する被写体(建物の壁面、路面等))との間の相対的な温度差に応じた大きさの輝度になるという特性(以降、AC特性という)である。   The infrared camera 11 is a camera in which the brightness of a captured image defined by the video signal has the following characteristics with respect to the temperature distribution state of the entire subject in the imaging area AR0 reflected in the captured image. The characteristic is that the brightness of the image of an arbitrary object in the imaging area AR0 (the brightness of the image in the vicinity of the projection area of the object) has a brightness corresponding to the temperature itself of the object. Rather than the size of the object according to the relative temperature difference between the object and its background (subject (the wall surface of the building, road surface, etc.) existing behind the object as viewed from the infrared camera 11) This is a characteristic of luminance (hereinafter referred to as AC characteristic).

このAC特性では、撮像領域AR0内の任意の対象物の温度がその背景の温度よりも高いほど、該対象物の画像の輝度が高くなり、対象物の温度がその背景の温度よりも低いほど、該対象物の画像の輝度が低くなる。   In this AC characteristic, as the temperature of an arbitrary object in the imaging area AR0 is higher than the background temperature, the brightness of the image of the object is higher, and the temperature of the object is lower than the background temperature. , The brightness of the image of the object is lowered.

かかるAC特性を有する赤外線カメラ11の撮像画像は、換言すれば、撮像領域AR0内の被写体全体のうちの比較的顕著な温度変化(空間的な温度変化)が生じている箇所が写る画像部分の輝度変化が強調されたものとなる一方、均一な温度を有する箇所(その各部の温度が互いにほぼ同一となる箇所)が写る画像部分の輝度が、その温度の大きさ(絶対温度)によらずにほぼ同一の大きさの輝度になるような撮像画像である。   In other words, the captured image of the infrared camera 11 having such AC characteristics is an image portion in which a relatively remarkable temperature change (spatial temperature change) occurs in the entire subject in the imaging area AR0. While the brightness change is emphasized, the brightness of the image part where the part with the uniform temperature (the part where the temperature of each part is almost the same) is reflected, regardless of the magnitude of the temperature (absolute temperature) The captured images have substantially the same brightness.

本実施形態の赤外線カメラ11は、このようなAC特性を有するカメラである。   The infrared camera 11 of the present embodiment is a camera having such AC characteristics.

補足すると、赤外線カメラ11は、それ自体がAC特性を有するものでなくてもよい。すなわち、赤外線カメラ11は、該赤外線カメラ11から出力される映像信号により規定される各画素の輝度が、その画素に投影される被写体の温度の大きさそのものに応じた大きさの輝度となる(温度が高いほど、輝度が高くなる)ような特性を有するカメラであってもよい。その場合には、赤外線カメラの映像信号により規定される撮像画像に映像フィルタ処理を施すことで、上記AC特性の撮像画像を得ることができる。   Supplementally, the infrared camera 11 does not have to have AC characteristics. That is, in the infrared camera 11, the luminance of each pixel defined by the video signal output from the infrared camera 11 is a luminance corresponding to the magnitude of the temperature of the subject projected onto the pixel ( A camera having such a characteristic that the higher the temperature is, the higher the luminance is) may be used. In that case, a captured image having the above-mentioned AC characteristics can be obtained by performing video filter processing on the captured image defined by the video signal of the infrared camera.

対象物監視装置10は、図示しないCPU、メモリ、インターフェース回路等により構成される電子回路ユニットである。この対象物監視装置10は、実装されるプログラムをCPUにより実行することで、所定の制御処理を行う。   The object monitoring apparatus 10 is an electronic circuit unit including a CPU, a memory, an interface circuit, and the like (not shown). The object monitoring apparatus 10 performs a predetermined control process by executing a program to be mounted by the CPU.

具体的には、対象物監視装置10は、赤外線カメラ11の撮像画像に基づいて撮像領域AR0を監視する。そして、該撮像領域AR0に、自車両1との接触の可能性がある所定種類の対象物が存在することが検知された場合に、該対象物と自車両1の接触を回避するための接触回避処理を実行する。   Specifically, the object monitoring apparatus 10 monitors the imaging area AR0 based on the captured image of the infrared camera 11. Then, when it is detected that there is a predetermined type of object that may contact the host vehicle 1 in the imaging region AR0, contact for avoiding contact between the target object and the host vehicle 1 Execute avoidance processing.

上記所定種類の対象物は、本実施形態では所定種類の生体、具体的には、人(歩行者)、及び人以外の動物(鹿等、地上を移動する四足動物)である。以降、当該所定種類の生体を特定種生体、自車両1との接触の可能性がある特定種生体を検知対象生体という。   In the present embodiment, the predetermined type of object is a predetermined type of living body, specifically, a person (pedestrian) and an animal other than a person (deer or the like, a quadruped moving on the ground). Hereinafter, the predetermined type of living body is referred to as a specific type living body, and the specific type of living body that may be in contact with the vehicle 1 is referred to as a detection target living body.

また、上記接触回避処理は、本実施形態では、検知対象生体に対する運転者の注意を喚起する処理(注意喚起処理)である。この接触回避処理では、対象物監視装置10は、表示器12に赤外線カメラ11の撮像画像を表示させつつ、運転者に対する視覚的な警報と聴覚的な警報とをそれぞれ表示器12、スピーカ13に行なわせる。   Moreover, the said contact avoidance process is a process (attention call process) which alerts a driver | operator's attention with respect to a detection target biological body in this embodiment. In this contact avoidance process, the object monitoring device 10 displays a captured image of the infrared camera 11 on the display 12 and gives a visual warning and an audible warning to the display 12 and the speaker 13 respectively. Let it be done.

上記対象物監視装置10に関して、図2を参照してさらに説明する。対象物監視装置10には、赤外線カメラ11の映像信号が入力されると共に、車両1に搭載された各種センサの検出信号が入力される。   The object monitoring apparatus 10 will be further described with reference to FIG. The object monitoring device 10 is supplied with video signals from the infrared camera 11 and detection signals from various sensors mounted on the vehicle 1.

本実施形態では、対象物監視装置10には、車両1のヨーレートを検出するヨーレートセンサ21、車両1の車速を検出する車速センサ22、運転者によるブレーキ操作(ブレーキペダルの踏み込み)を検出するブレーキセンサ23、外気温を検出する外気温センサ24、及び車両1のフロントガラスのワイパー(図示省略)の動作状態を検出するワイパーセンサ25の検出信号(又はワイパーの操作指令信号)が入力される。   In the present embodiment, the object monitoring device 10 includes a yaw rate sensor 21 that detects the yaw rate of the vehicle 1, a vehicle speed sensor 22 that detects the vehicle speed of the vehicle 1, and a brake that detects a brake operation (depression of the brake pedal) by the driver. Detection signals (or wiper operation command signals) of the sensor 23, the outside air temperature sensor 24 that detects the outside air temperature, and the wiper sensor 25 that detects the operating state of the windshield wiper (not shown) of the vehicle 1 are input.

また、対象物監視装置10には、前記表示器12及びスピーカ13が接続されており、該表示器12の表示と、スピーカ13の音響出力とが対象物監視装置10により制御されるようになっている。   Further, the display 12 and the speaker 13 are connected to the object monitoring apparatus 10, and the display of the display 12 and the sound output of the speaker 13 are controlled by the object monitoring apparatus 10. ing.

そして、対象物監視装置10は、実装されるプログラムをCPUにより実行することによって実現される機能(ソフトウェア構成により実現される機能)又はハードウェア構成(入出力回路や演算回路等)により実現される主要な機能として、赤外線カメラ11の撮像画像(前記AC特性の撮像画像)を取得する撮像画像取得部31と、該撮像画像に基づいて撮像領域AR0に存在する検知対象生体を検知する処理をそれぞれ実行する第1対象物検知処理部32及び第2対象物検知処理部33と、第1対象物検知処理部32及び第2対象物検知処理部33のいずれか一方により前記検知対象生体が検知された場合に、前記接触回避処理(注意喚起処理)を実行する接触回避処理部34とを備える。   The object monitoring apparatus 10 is realized by a function (a function realized by a software configuration) or a hardware configuration (an input / output circuit, an arithmetic circuit, or the like) realized by executing a mounted program by the CPU. As main functions, a captured image acquisition unit 31 that acquires a captured image (captured image of the AC characteristic) of the infrared camera 11 and a process of detecting a detection target living body existing in the imaging region AR0 based on the captured image, respectively. The detection target living body is detected by any one of the first object detection processing unit 32 and the second object detection processing unit 33 and the first object detection processing unit 32 and the second object detection processing unit 33 to be executed. A contact avoidance processing unit 34 for executing the contact avoidance process (attention calling process).

上記第1対象物検知処理部32、第2対象物検知処理部33は、それぞれ本発明における第1対象物種別判定手段、第2対象物種別判定手段としての機能を含むものである。   The first object detection processing unit 32 and the second object detection processing unit 33 include functions as first object type determination means and second object type determination means in the present invention, respectively.

なお、対象物監視装置10は、複数のCPU又はプロセッサにより各別の処理を並行して行い得る(並列処理を行い得る)ように構成されていてもよい。また、対象物監視装置10は、単一の電子回路ユニットにより構成されたものである必要はなく、相互に通信可能な複数の電子回路ユニットにより構成されていてもよい。   Note that the object monitoring apparatus 10 may be configured such that a plurality of CPUs or processors can perform different processes in parallel (can perform parallel processes). Moreover, the object monitoring apparatus 10 does not need to be comprised by the single electronic circuit unit, and may be comprised by the some electronic circuit unit which can communicate mutually.

次に、対象物監視装置10のより詳細な処理を図3〜図5のフローチャートを参照して説明する。   Next, more detailed processing of the object monitoring apparatus 10 will be described with reference to the flowcharts of FIGS.

対象物監視装置10は、所定の制御処理周期で、図3のフローチャートに示す処理を実行する。対象物監視装置10は、まず、撮像画像取得部31によりSTEP1の処理を実行する。この処理では、撮像画像取得部31は、赤外線カメラ11の撮像画像を取得する。   The object monitoring apparatus 10 executes the process shown in the flowchart of FIG. 3 at a predetermined control process cycle. The object monitoring apparatus 10 first performs the processing of STEP 1 by the captured image acquisition unit 31. In this process, the captured image acquisition unit 31 acquires a captured image of the infrared camera 11.

より詳しくは、撮像画像取得部31は、赤外線カメラ11に監視領域AR0の撮像を行なわせ、その撮像に応じて赤外線カメラ11から出力される映像信号をA/D変換することで、各画素の輝度値をデジタル値で表す撮像画像(前記AC特性の撮像画像)を取得する。そして、撮像画像取得部31は、取得した撮像画像を画像メモリ(図示省略)に記憶保持する。   More specifically, the captured image acquisition unit 31 causes the infrared camera 11 to capture the monitoring area AR0, and performs A / D conversion on the video signal output from the infrared camera 11 in accordance with the captured image, whereby each pixel is captured. A captured image (captured image with AC characteristics) representing a luminance value as a digital value is acquired. The captured image acquisition unit 31 stores and holds the acquired captured image in an image memory (not shown).

なお、撮像画像取得部31は、最新の撮像画像を含めて、所定時間前までの期間分の複数の撮像画像を画像メモリに記憶保持させる。   The captured image acquisition unit 31 stores and holds a plurality of captured images for a period up to a predetermined time including the latest captured image in the image memory.

補足すると、赤外線カメラ11がAC特性を有するものでない場合には、撮像画像取得部31は、赤外線カメラの映像信号により規定される撮像画像に映像フィルタ処理を施すことで、AC特性の撮像画像を取得するようにすればよい。   Supplementally, when the infrared camera 11 does not have AC characteristics, the captured image acquisition unit 31 performs a video filter process on the captured image defined by the video signal of the infrared camera, thereby converting the captured image with AC characteristics. You only have to get it.

次いで、対象物監視装置10は、STEP2において、第1対象物検知処理部32により検知対象生体を検知する処理を実行する。また、対象物監視装置10は、第2対象物検知処理部33の処理を実行するための所定の動作条件が成立するか否かをSTEP3で判断する。   Next, the object monitoring apparatus 10 executes a process of detecting the detection target living body by the first object detection processing unit 32 in STEP2. Further, the object monitoring apparatus 10 determines in STEP 3 whether or not a predetermined operation condition for executing the process of the second object detection processing unit 33 is satisfied.

そして、対象物監視装置10は、該動作条件が成立する場合に、STEP4において、第2対象物検知処理部33により検知対象生体を検知する処理を実行する。なお、上記動作条件が成立しない場合には、第2対象物検知処理部33の処理は省略される。   And the object monitoring apparatus 10 performs the process which detects a detection target biological body by the 2nd object detection process part 33 in STEP4, when this operating condition is satisfied. In addition, when the said operation condition is not satisfied, the process of the 2nd target object detection process part 33 is abbreviate | omitted.

STEP2〜4の処理の詳細は後述するが、STEP2の処理と、STEP3の判断結果が肯定的となる場合のSTEP4の処理とによって、撮像領域AR0に検知対象生体が存在する場合に、その存在が検知される。   The details of the processing in STEP 2 to 4 will be described later. However, when the living body to be detected exists in the imaging area AR0 by the processing in STEP 2 and the processing in STEP 4 when the determination result in STEP 3 is affirmative, the presence is detected. Detected.

なお、STEP2の処理と、STEP3,4の処理とは、例えば、それぞれ各別のCPUにより並列処理で実行するようにしてもよい。あるいは、STEP2の処理と、STEP3,4の処理とを、例えば時分割処理によって直列的に実行するようにしてもよい。   Note that the processing in STEP 2 and the processing in STEP 3 and 4 may be executed in parallel processing by different CPUs, for example. Or you may make it perform the process of STEP2 and the process of STEP3, 4 in series by a time division process, for example.

次いで、対象物監視装置10は、STEP2又4の処理によって検知対象生体が検知されたか否かをSTEP5で判断する。そして、この判断結果が肯定的である場合(検知対象生体が検知された場合)に、STEP6の処理を接触回避処理部34により実行する。STEP6では、接触回避処理部34は、検知対象生体と自車両1との将来の接触を回避するための接触回避処理(注意喚起処理)を実行する。   Next, the object monitoring apparatus 10 determines in STEP 5 whether or not a detection target living body has been detected by the processing in STEP 2 or STEP 4. If the determination result is affirmative (when a detection target living body is detected), the process of STEP 6 is executed by the contact avoidance processing unit 34. In STEP 6, the contact avoidance processing unit 34 executes a contact avoidance process (attention calling process) for avoiding future contact between the living body to be detected and the host vehicle 1.

具体的には、接触回避処理部34は、表示器12に赤外線カメラ11の撮像画像を表示させつつ、その撮像画像中の検知対象生体の画像を強調表示するように表示器12を制御する。例えば、接触回避処理部34は、表示器12に表示させた撮像画像中の検知対象生体の画像を所定色の枠で囲んで表示させ、あるいは、その枠を点滅させることにより、該検知対象生体の画像を強調表示する。   Specifically, the contact avoidance processing unit 34 controls the display 12 to display the captured image of the infrared camera 11 on the display 12 while highlighting the image of the detection target living body in the captured image. For example, the contact avoidance processing unit 34 surrounds and displays an image of the detection target living body in the captured image displayed on the display device 12 with a frame of a predetermined color or blinks the frame. Highlight the image.

また、接触回避処理部34は、撮像領域(監視領域)AR0に、自車両1との接触の可能性がある検知対象生体が存在することを示す警報音又は音声を出力させるようにスピーカ13を制御する。   In addition, the contact avoidance processing unit 34 causes the speaker 13 to output an alarm sound or sound indicating that there is a detection target living body that may be in contact with the host vehicle 1 in the imaging region (monitoring region) AR0. Control.

このような表示器12の表示の制御と、スピーカ13の制御とによって、自車両1との接触の可能性がある検知対象生体に関する視覚的な警報と聴覚的な警報とが運転者に対してなされる。ひいては、自車両1との接触の可能性がある検知対象生体に対する運転者の注意が喚起される。これにより、運転者は、該検知対象生体と、自車両1との接触を適切に回避し得るような運転操作(ブレーキ操作等)を行うこととなり、当該接触を回避することができる。   By controlling the display of the indicator 12 and the control of the speaker 13, a visual alarm and an audible alarm regarding a detection target living body that may be in contact with the host vehicle 1 are given to the driver. Made. Eventually, the driver's attention is alerted to the detection target living body that may be in contact with the host vehicle 1. Accordingly, the driver performs a driving operation (brake operation or the like) that can appropriately avoid contact between the living body to be detected and the host vehicle 1, and can avoid the contact.

なお、撮像領域AR0に自車両1との接触の可能性が有ると判断された検知対象生体が存在していても、運転者による車両1のブレーキ操作がなされている場合には、運転者が検知対象生体の存在を認識していて、該検知対象生体との接触を回避しようとしていると考えられる。そのため、本実施形態では、接触回避処理部34は、前記ブレーキセンサ23の出力によって、運転者による車両1のブレーキ操作がなされていることを検知した場合には、上記の接触回避処理(注意喚起処理)を省略する。   Note that even if there is a living body to be detected that is determined to have a possibility of contact with the host vehicle 1 in the imaging region AR0, if the driver performs a braking operation on the vehicle 1, the driver It is considered that the presence of the detection target living body is recognized and the contact with the detection target living body is to be avoided. Therefore, in this embodiment, when the contact avoidance processing unit 34 detects that the brake operation of the vehicle 1 by the driver is performed by the output of the brake sensor 23, the contact avoidance processing (attention warning) Process) is omitted.

ただし、車両1のブレーキ操作がなされている状況でも、例えばブレーキペダルの踏み込み量、あるいは、車両1の減速度合いに応じて、接触回避処理を実行するか否かを選択するようにしてもよい。あるいは、ブレーキ操作のなされているか否かによらずに、接触回避処理を実行するようにしてもよい。   However, even in a situation where the brake operation of the vehicle 1 is being performed, whether or not to perform the contact avoidance process may be selected depending on, for example, the amount of depression of the brake pedal or the degree of deceleration of the vehicle 1. Or you may make it perform a contact avoidance process irrespective of whether brake operation is made or not.

補足すると、本実施形態では、検知対象生体と自車両1との接触を回避するために、表示器12による視覚的な報知と、スピーカ13による聴覚的な報知とによって、運転者の注意を喚起するようにしたが、一方の報知だけを行なうようにしてもよい。   Supplementally, in this embodiment, in order to avoid contact between the living body to be detected and the host vehicle 1, the driver's attention is alerted by visual notification by the display 12 and auditory notification by the speaker 13. However, only one notification may be performed.

あるいは、上記視覚的な報知と聴覚的な報知との両方又は一方の報知の代わりに、運転席を振動させる等の体感的な報知を行なうことで、運転者の注意を喚起するようにしてもよい。   Alternatively, instead of both visual notification and / or auditory notification, the driver's attention may be drawn by performing a bodily notification such as vibrating the driver's seat. Good.

また、車両1のブレーキ装置が、その制動力を、油圧制御等によって、ブレーキペダルの操作に応じた制動力から調整し得る構成のものである場合には、運転者の注意を喚起することに加えて、ブレーキ装置の制動力を自動的に増加させるようにしてもよい。   In addition, when the brake device of the vehicle 1 has a configuration in which the braking force can be adjusted from the braking force according to the operation of the brake pedal by hydraulic control or the like, the driver's attention is to be drawn. In addition, the braking force of the brake device may be automatically increased.

次に、説明を後回しにしたSTEP2〜4の処理を以下に説明する。   Next, the processing of STEPs 2 to 4 which will be described later will be described below.

まず、第1対象物検知処理部32及び第2対象物検知処理部33の処理に関する基本的な事項を説明しておく。   First, basic matters regarding the processing of the first object detection processing unit 32 and the second object detection processing unit 33 will be described.

検知対象生体が属する種類の生体である前記特定種生体(人又は人以外の動物)の温度は、通常の環境下(外気温がさほど高温でない環境下等)では、路面等、特定種生体の周辺の物体の温度よりも高い。このため、赤外線カメラ11の撮像画像(AC特性の撮像画像)における特定種生体の画像の輝度は、通常、その背景の被写体(路面、建物の壁面等)の画像の輝度に比して高輝度なものとなる。   The temperature of the specific species living body (human or animal other than humans) to which the detection target organism belongs belongs to the road surface or the like in a normal environment (such as an environment where the outside air temperature is not so high). It is higher than the temperature of surrounding objects. For this reason, the luminance of the image of the specific living body in the captured image (captured image of AC characteristics) of the infrared camera 11 is usually higher than the luminance of the background subject (road surface, building wall surface, etc.). It will be something.

ただし、外気温が高温である場合、あるいは、降雨時等の場合においては、特定種生体(人又は動物)の温度は、その周辺の物体の温度よりも低くなる場合がある。そのような場合には、赤外線カメラ11の撮像画像における特定種生体の輝度は、上記の通常の場合と異なり、その背景の被写体(路面、建物の壁面等)の画像の輝度に比して低輝度なものとなる。   However, when the outside air temperature is high, or when it is raining, the temperature of the specific species living body (human or animal) may be lower than the temperature of surrounding objects. In such a case, the brightness of the specific living body in the captured image of the infrared camera 11 is lower than the brightness of the image of the background subject (road surface, wall surface of the building, etc.) unlike the normal case described above. It becomes brightness.

例えば、図7の上段の図に例示する如く、赤外線カメラ11の撮像画像中の特定種生体51(図示例では、人)の画像がその背景の被写体の画像よりも低輝度(暗い)なものとなる。   For example, as illustrated in the upper diagram of FIG. 7, the image of the specific species living body 51 (in the illustrated example, a person) in the image captured by the infrared camera 11 is lower in brightness (darker) than the background image of the subject. It becomes.

このような現象に鑑み、上記第1対象物検知処理部32は、撮像領域AR0に特定種生体が存在する場合に、撮像画像における特定種生体の画像の輝度が、その背景の被写体の画像の輝度よりも高輝度なものとなることを前提として、検知対象生体である可能性のある対象物(自車両1との接触の可能性があり、且つ、特定種生体である可能性がある対象物)を抽出して、その対象物の種別が特定種生体(人又は人以外の動物)であるか否か判定する処理を実行する。そして、第1対象物検知処理部32は、その処理によって、検知対象生体を検知する。   In view of such a phenomenon, the first object detection processing unit 32, when a specific species living body is present in the imaging region AR0, the brightness of the image of the specific species living body in the captured image is that of the image of the subject in the background. On the premise that the brightness is higher than the brightness, the target object that may be a detection target living body (the target that may be in contact with the host vehicle 1 and may be a specific kind of living body) The object is extracted, and a process of determining whether or not the type of the target object is a specific species living body (a person or an animal other than a person) is executed. And the 1st target object detection process part 32 detects a detection target biological body by the process.

一方、第2対象物検知処理部33は、撮像領域AR0に特定種生体が存在する場合に、撮像画像における特定種生体の画像の輝度が、その背景の被写体の画像の輝度よりも低輝度なものとなることを前提として、検知対象生体である可能性のある対象物を抽出して、その対象物の種別が特定種生体であるか否か判定する処理を実行する。
そして、第2対象物検知処理部33は、その処理によって、検知対象生体を検知する。
On the other hand, the second object detection processing unit 33, when a specific species living body exists in the imaging region AR0, the luminance of the image of the specific species living body in the captured image is lower than the luminance of the background subject image. Assuming that the target object is a target object, a target object that may be a detection target living body is extracted, and processing for determining whether or not the type of the target object is a specific species living body is executed.
And the 2nd target object detection process part 33 detects a detection target biological body by the process.

この場合、赤外線カメラ11の撮像画像における特定種生体の画像の輝度が、その背景の被写体の画像の輝度よりも低輝度なものとなるのは、基本的には、前記したように外気温が高温である環境下、あるいは、降雨時の環境下で生じる現象である。   In this case, the brightness of the image of the specific species in the captured image of the infrared camera 11 is basically lower than the brightness of the background subject image. It is a phenomenon that occurs in a high temperature environment or in an environment during rain.

このため、対象物監視装置10は、前記STEP3において、第2対象物検知処理部33の処理を行なうべき所定の動作条件が成立する場合に、第2対象物検知処理部33の処理(STEP4の処理)を実行する。   For this reason, the object monitoring apparatus 10 performs the process of the second object detection processing unit 33 (STEP 4) when a predetermined operation condition for performing the process of the second object detection processing unit 33 is satisfied in STEP3. Process).

上記所定の動作条件は、外気温が所定温度以上の高温であるか、又は降雨時である場合に成立するものとされ、外気温が所定温度未満の低温であり、且つ、降雨時でない場合に上記所定の動作条件が成立しないものとされる。   The predetermined operating condition is established when the outside air temperature is higher than the predetermined temperature or when it is raining, and when the outside air temperature is lower than the predetermined temperature and is not raining. The predetermined operating condition is not satisfied.

そして、対象物監視装置10は、外気温が所定温度以上の高温であるか否かを外気温センサ24による外気温の検出値に基づいて判断する。   Then, the object monitoring device 10 determines whether or not the outside air temperature is a high temperature equal to or higher than a predetermined temperature based on the detected value of the outside air temperature by the outside air temperature sensor 24.

また、対象物監視装置10は、ワイパーセンサ25の出力(又はワイパーの操作指令信号)により示されるワイパーの作動状況に基づいて、降雨時であるか否かを判断する。具体的には、対象物監視装置10は、ワイパーが動作中である場合に、降雨時と判断し、ワイパーが動作中でない場合に、降雨時でないと判断する。   In addition, the object monitoring apparatus 10 determines whether or not it is raining based on the operation state of the wiper indicated by the output of the wiper sensor 25 (or the wiper operation command signal). Specifically, the object monitoring apparatus 10 determines that it is raining when the wiper is operating, and determines that it is not raining when the wiper is not operating.

なお、降雨時であるか否かは、雨滴センサを用いて検知するようにしてもよい。あるいは、通信により天候情報を受信して、降雨時であるか否かを認識するようにしてもよい。   Whether or not it is raining may be detected using a raindrop sensor. Alternatively, weather information may be received by communication to recognize whether it is raining or not.

また、上記所定の動作条件が成立しない場合(外気温が所定温度未満である場合、あるいは、降雨時でない場合)でも、適宜、第2対象物検知処理部33の処理を実行するようにしてもよい。   Further, even when the predetermined operation condition is not satisfied (when the outside air temperature is lower than the predetermined temperature or when it is not raining), the process of the second object detection processing unit 33 is appropriately executed. Good.

以上を踏まえて、第1対象物検知処理部32及び第2対象物検知処理部33の処理を具体的に説明する。   Based on the above, the processing of the first object detection processing unit 32 and the second object detection processing unit 33 will be specifically described.

まず、STEP2における第1対象物検知処理部32の処理は、図4のフローチャートに示す如く実行される。   First, the processing of the first object detection processing unit 32 in STEP 2 is executed as shown in the flowchart of FIG.

第1対象物検知処理部32は、まず、STEP2−1において、2値化抽出処理を実行する。この2値化抽出処理では、第1対象物検知処理部32は、赤外線カメラ11の撮像画像から2値化画像を生成する。そして、第1対象物検知処理部32は、その2値化画像から検知対象生体である可能性のある対象物(検知対象生体の候補の対象物)の画像を抽出する。   First, the first object detection processing unit 32 executes binarization extraction processing in STEP 2-1. In the binarization extraction process, the first object detection processing unit 32 generates a binarized image from the captured image of the infrared camera 11. And the 1st target object detection process part 32 extracts the image of the target object (candidate object of a detection target biological body) which may be a detection target biological body from the binarized image.

上記2値化画像は、高低2種類の輝度値の画素により構成される画像、例えば白の輝度値(最大の輝度値)と黒の輝度値(最小の輝度値)との2種類の輝度値の画素により構成される画像である。   The binarized image is an image composed of pixels of two types of high and low luminance values, for example, two types of luminance values, a white luminance value (maximum luminance value) and a black luminance value (minimum luminance value). It is the image comprised by this pixel.

この2値化画像は、赤外線カメラ11の撮像画像において所定の第1閾値以上の輝度を有する画素を、高輝度値(白の輝度値)の画素、第1閾値よりも小さい輝度を有する画素を、低輝度値(黒の輝度値)の画素とすることで生成される。   This binarized image is a pixel having a luminance equal to or higher than a predetermined first threshold in a captured image of the infrared camera 11, a pixel having a high luminance value (white luminance value), and a pixel having a luminance smaller than the first threshold. , A pixel having a low luminance value (black luminance value) is generated.

上記第1閾値は、本実施形態では、撮像画像における輝度の分布状態、例えば撮像画像の各画素の輝度と画素数(出現頻度)との関係を表すヒストグラムに基づいて決定される。図6は、そのヒストグラムのグラフの例を示している。そして、図中のYth1が、このヒストグラムに対応して決定される上記第1閾値の例である。   In the present embodiment, the first threshold is determined based on a distribution state of luminance in the captured image, for example, a histogram representing the relationship between the luminance of each pixel of the captured image and the number of pixels (appearance frequency). FIG. 6 shows an example of the histogram graph. Yth1 in the figure is an example of the first threshold value determined in correspondence with this histogram.

図示の如く、第1閾値Yth1は、撮像画像の輝度分布のヒストグラムにおいて、高輝度側で画素数がピーク(極大値)となる輝度値Y1の近辺の輝度(例えばY1を中心とする所定範囲内の輝度)がYth1以上となるように、Y1よりも小さい値に決定される。   As shown in the figure, the first threshold Yth1 is a luminance in the vicinity of the luminance value Y1 where the number of pixels reaches the peak (maximum value) on the high luminance side in the luminance distribution histogram of the captured image (for example, within a predetermined range centered on Y1). Is determined to be a value smaller than Y1 so that the luminance of Y is equal to or greater than Yth1.

なお、第1閾値Yth1は、あらかじめ定められた所定値(定数値)であってもよい。あるいは、第1閾値Yth1は、外気温等に応じて設定してもよい。第1閾値Yth1は、人等の特定種生体が、背景の被写体の温度よりも高い温度となるような一般的な環境下で、該特定種生体を赤外線カメラ11により撮像した場合に、その撮像画像における特定種生体の画像の輝度が、上記第1閾値Yth1以上となるように設定されておればよい。   Note that the first threshold Yth1 may be a predetermined value (constant value) determined in advance. Alternatively, the first threshold Yth1 may be set according to the outside air temperature or the like. The first threshold value Yth1 is obtained when the specific species living body such as a person is imaged by the infrared camera 11 in a general environment where the temperature is higher than the temperature of the subject in the background. The luminance of the image of the specific living body in the image may be set to be equal to or higher than the first threshold value Yth1.

上記の如く生成される2値化画像においては、撮像領域AR0に特定種生体が存在する場合、通常は、該特定種生体の画像が高輝度値(白の輝度値)の画像として得られる。ただし、構造物あるいは他車両の一部(比較的温度が高くなっている部分)等、特定種生体でない物体の画像が、2値化画像における高輝度値の画像として得られる場合もある。   In the binarized image generated as described above, when a specific species living body exists in the imaging region AR0, the image of the specific species living organism is usually obtained as an image having a high luminance value (white luminance value). However, an image of an object that is not a specific species such as a structure or a part of another vehicle (a part where the temperature is relatively high) may be obtained as an image having a high luminance value in the binarized image.

STEP2−1では、第1対象物検知処理部32は、上記の如く2値化画像を生成した後、該2値化画像の高輝度領域(高輝度値の画素(白の画素)により構成される領域)から、検知対象生体の候補となる対象物(これは本発明における種別判定対象物に相当する)の画像を抽出する。   In STEP 2-1, the first object detection processing unit 32, after generating a binarized image as described above, is composed of a high-luminance region (pixels with high luminance values (white pixels)) of the binarized image. Image of a target object that is a candidate for a detection target living body (this corresponds to a type determination target object in the present invention).

具体的には、第1対象物検知処理部32は、2値化画像の高輝度領域において、その縦方向に相互に重なりを持つ各ランレングスデータのラインの組により形成される高輝度部分を、対象物の画像として抽出する。   Specifically, the first object detection processing unit 32 selects a high-luminance portion formed by a set of lines of run-length data that overlap each other in the vertical direction in the high-luminance region of the binarized image. , Extracted as an image of the object.

上記ランレングスデータのラインというのは、2値化画像の高輝度領域において、2値化画像の横方向に連続する高輝度値(白の輝度値)の画素により構成される個々のラインである。そして、その各ラインの始点(又は終点)の画素位置と、該ラインの長さ(画素数)とにより構成されるデータ(あるいは、当該画素位置及び長さを規定し得るデータ)がランレングスデータである。   The line of the run length data is an individual line composed of pixels having high luminance values (white luminance values) continuous in the horizontal direction of the binarized image in the high luminance area of the binarized image. . Then, data composed of the pixel position of the start point (or end point) of each line and the length (number of pixels) of the line (or data that can define the pixel position and length) is run-length data. It is.

以上の如く、STEP2−1の処理(2値化抽出処理)が実行される。   As described above, the processing of STEP 2-1 (binarization extraction processing) is executed.

第1対象物検知処理部32は、次に、STEP2−2において、トラッキング処理を実行する。このトラッキング処理は、2値化画像から抽出される対象物の画像の時刻間追跡を行なう処理である。   Next, the first object detection processing unit 32 executes tracking processing in STEP2-2. This tracking process is a process for tracking an object image extracted from a binarized image for a time period.

より具体的には、トラッキング処理は、時刻k(現在の制御処理周期の時刻)で2値化画像から抽出された個々の対象物の画像が、時刻k−1(前回の制御処理周期の時刻)で2値化画像から抽出された対象物と同一の対象物の画像であるか否かを判断し、時刻k(現在の制御処理周期の時刻)で抽出された個々の対象物の画像にラベル(識別子)を付する処理である。   More specifically, in the tracking process, an image of each object extracted from the binarized image at time k (current control processing cycle time) is time k−1 (time of the previous control processing cycle). ) To determine whether or not the image is the same object as the object extracted from the binarized image, and the image of each object extracted at time k (current control processing cycle time) is determined. This is a process of attaching a label (identifier).

このトラッキング処理では、2値化画像における対象物の画像(又は該画像の外接四角形)の重心位置、面積、及び縦横の長さの比率等に基づいて、時刻kと時刻k−1とで画像を抽出した対象物の同一性が判断される。例えば、上記重心位置、面積、及び縦横の長さの比率のそれぞれの変化量(時刻kと時刻k−1との間の変化量)が所定の許容範囲内であれば、両時刻k,k−1で抽出された対象物の画像が互いに同一の対象物の画像であると判断される。   In this tracking process, an image is obtained at time k and time k−1 based on the position of the center of gravity of the image of the object (or the circumscribed rectangle of the image) in the binarized image, the area, and the ratio of the length and width. The identity of the object from which is extracted is determined. For example, if the amount of change (the amount of change between time k and time k−1) of the center of gravity position, area, and length / width ratio is within a predetermined allowable range, both times k, k It is determined that the image of the object extracted at -1 is the same object image.

そして、時刻k−1で抽出された対象物と同一の対象物の画像については、時刻k−1と同じラベルが付され、時刻k−1で抽出されていない新たな対象物の画像については、新たなラベルが付される。   And about the image of the same target object as the target object extracted at the time k-1, the same label as the time k-1 is attached, and about the new target object image not extracted at the time k-1. A new label is attached.

次いで、第1対象物検知処理部32は、STEP2−3において、車両認識処理を実行する。この車両認識処理は、対象物の画像の配置パターンに基づいて、他車両の構成要素に相当する対象物の画像を認識する処理である。   Next, the first object detection processing unit 32 executes a vehicle recognition process in STEP 2-3. This vehicle recognition processing is processing for recognizing an image of an object corresponding to a component of another vehicle based on an arrangement pattern of the image of the object.

自車両1の前方の撮像領域AR0に、例えば前走車が存在する場合、赤外線カメラ11の撮像画像において、該前走車の左右のテールライトの部分の画像と、左右の後輪のタイヤの部分の画像と、排気口の部分の画像とが比較的高輝度なものとなる場合が多い。この場合、前記2値化抽出処理において、図8に模式的に示す如く、前走車の左右のテールライトの画像部分A1,A2と、左右の後輪のタイヤの画像部分A4,A5と、排気口の画像部分A3とが高輝度の対象物の画像として抽出される。   For example, when a front vehicle is present in the imaging area AR0 in front of the host vehicle 1, in the captured image of the infrared camera 11, the images of the left and right taillight portions of the front vehicle and the left and right rear wheel tires are displayed. In many cases, the image of the portion and the image of the portion of the exhaust port have relatively high luminance. In this case, in the binarization extraction process, as schematically shown in FIG. 8, the left and right taillight image portions A1 and A2 of the front running vehicle, the left and right rear wheel tire image portions A4 and A5, The image portion A3 of the exhaust port is extracted as an image of a high-luminance object.

これらの画像部分A1〜A5の配置パターンは、互いに類似する輝度分布又は外形状のテールライトの画像部分A1,A2が対となって2値化画像の横方向に並んでおり、且つ、これらの画像部分A1,A2の下側に排気口の画像部分A3が存在し、且つ、画像部分A1,A2の下側で、互いに類似する輝度分布又は外形状のタイヤの画像部分A4,A5が対となって2値化画像の横方向に並んでいる、という特徴的な配置パターンとなる。   The arrangement pattern of these image portions A1 to A5 is such that image portions A1 and A2 of taillights having a similar luminance distribution or outer shape are aligned in the horizontal direction of the binarized image, and these The image portion A3 of the exhaust port exists below the image portions A1 and A2, and the image portions A4 and A5 of tires having similar luminance distributions or outer shapes are paired below the image portions A1 and A2. It becomes a characteristic arrangement pattern in which the binarized images are arranged in the horizontal direction.

そこで、STEP2−3においては、第1対象物検知処理部32は、2値化画像において、上記の特徴的な配置パターンを有する複数の対象物(5個の対象物)の画像の組を探索する。そして、第1対象物検知処理部32は、当該配置パターンを有する複数の対象物の画像の組が存在する場合には、それらの複数の対象物の画像は、他車両の構成要素の画像である(検知対象生体の画像ではない)と判定する。   Therefore, in STEP 2-3, the first object detection processing unit 32 searches for a set of images of a plurality of objects (five objects) having the above characteristic arrangement pattern in the binarized image. To do. Then, when there is a set of images of a plurality of objects having the arrangement pattern, the first object detection processing unit 32 is an image of a component of another vehicle. It is determined that it is present (not an image of a living body to be detected).

なお、排気口の画像部分A3が存在せずとも、例えば4個の画像部分A1,A2,A4,A5が上記の配置パターンで存在する場合に、それらの4個の画像部分A1,A2,A4,A5が、他車両しての対向車の構成要素の画像部分であると判定してもよい。その場合は、画像部分A1,A2は、対向車のヘッドライトの画像に相当するものとなる。   Even if the image portion A3 of the exhaust port does not exist, for example, when four image portions A1, A2, A4, A5 exist in the above arrangement pattern, those four image portions A1, A2, A4 , A5 may be determined to be an image portion of a component of an oncoming vehicle as another vehicle. In that case, the image portions A1 and A2 correspond to the image of the headlight of the oncoming vehicle.

次に、第1対象物検知処理部32は、STEP2−4において、横断者認識処理を実行する。なお、STEP2−4以降の処理(STEP2−4の処理を含む)は、前記2値化抽出処理で高輝度の画像を有するものとして抽出された対象物のうち、上記車両認識処理で、他車両の構成要素であると判定された対象物を除外した対象物に関して実行される処理である。   Next, the first object detection processing unit 32 executes a crossing person recognition process in STEP 2-4. Note that the processing after STEP 2-4 (including the processing of STEP 2-4) is the above-mentioned vehicle recognition processing among the objects extracted as having a high-luminance image in the binarization extraction processing. It is a process performed regarding the target object which excluded the target object determined to be a component.

上記横断者認識処理は、対象物が、自車両1が走行している道路を横断している人(横断者)であるか否を判断する処理である。   The crossing person recognition process is a process of determining whether or not the object is a person (crossing person) crossing the road on which the vehicle 1 is traveling.

自車両1が走行中の道路を人が横断する場合、その横断者の歩幅方向が自車両1の車幅方向となる。そのため、赤外線カメラ11の撮像画像における横断者の両脚の画像は、末広がりの配置パターン(「ハ」の形の配置パターン)となっている場合が多い。   When a person crosses a road on which the host vehicle 1 is traveling, the stride direction of the crosser is the vehicle width direction of the host vehicle 1. For this reason, the images of the legs of the crossing person in the image captured by the infrared camera 11 often have a divergent arrangement pattern (an arrangement pattern in the form of “c”).

そこで、STEP2−4の横断者認識処理においては、第1対象物検知処理部32は、赤外線カメラ11の撮像画像における対象物の画像(2値化抽出処理で高輝度部分が抽出された対象物の撮像画像中での画像)が、その下部に、末広がりの配置パターンで横方向に並ぶ一対の画像部分(両脚に相当する画像部分)を有する場合に、該対象物が、横断者であると判断する。   Therefore, in the crossing person recognition process of STEP2-4, the first object detection processing unit 32 detects the object image in the captured image of the infrared camera 11 (the object from which the high-intensity portion has been extracted by the binarization extraction process). (The image in the captured image) has a pair of image portions (image portions corresponding to both legs) arranged in the horizontal direction in the lower end arrangement pattern at the bottom thereof, the object is a crossing person to decide.

なお、本実施形態では、横断者認識処理で横断者と判断された対象物は、人であると確定されたものではなく、該対象物が人であるか否かは後述の処理を経て最終的に確定される。従って、横断者認識処理での判断は暫定的なものである。   In the present embodiment, the object determined to be a crossing person in the crossing recognition process is not determined to be a person, and whether or not the object is a person is determined through a process described later. Will be fixed. Therefore, the determination in the crossing person recognition process is provisional.

次いで、第1対象物検知処理部32は、STEP2−5において、距離算出処理を実行する。この距離算出処理は、自車両1からの対象物の距離(図1のZ軸方向の距離)の推定値を算出すると共に、自車両1に対する該対象物の実空間位置を推定する処理である。   Next, the first object detection processing unit 32 executes a distance calculation process in STEP 2-5. This distance calculation process is a process of calculating an estimated value of the distance of the object from the own vehicle 1 (distance in the Z-axis direction in FIG. 1) and estimating the real space position of the object with respect to the own vehicle 1. .

この距離算出処理では、第1対象物検知処理部32は、STEP2−4の横断者認識処理で横断者であると判断された対象物と、それ以外の対象物とで各別の処理によって、自車両1からの対象物の距離を推定する。   In this distance calculation process, the first object detection processing unit 32 performs a separate process between the object determined to be a crossing person in the crossing person recognition process in STEP 2-4 and the other objects. The distance of the target object from the own vehicle 1 is estimated.

具体的には、横断者認識処理で横断者であると判断された対象物については、第1対象物検知処理部32は、まず、該対象物が人であると仮定した場合の該対象物の概略の身長Hを決定する。この場合、第1対象物検知処理部32は、横断者であると判断された対象物の画像のサイズの特徴に基づいて、該対象物が大人及び子供のいずれであるかを判断する。   Specifically, for an object determined to be a crossing person in the crossing person recognition process, the first object detection processing unit 32 first assumes that the object is a person. Approximate height H is determined. In this case, the first object detection processing unit 32 determines whether the object is an adult or a child based on the size characteristics of the image of the object determined to be a crossing person.

例えば、赤外線カメラ11の撮像画像における該対象物の頭部相当部の画像の横方向の幅wと、該対象物の画像の縦方向のトータルの長さhとの比率w/hが、あらかじめ定めた所定の閾値よりも大きい場合に、該対象物が子供であると判断される。また、比率w/hが、上記所定の閾値以下である場合には、該対象物が大人であると判断される。   For example, the ratio w / h between the horizontal width w of the image corresponding to the head portion of the object in the image captured by the infrared camera 11 and the total length h in the vertical direction of the image of the object If it is greater than the predetermined threshold value, it is determined that the object is a child. When the ratio w / h is equal to or less than the predetermined threshold, it is determined that the object is an adult.

そして、第1対象物検知処理部32は、対象物が大人であると判断した場合には、大人の標準的な身長(例えば170cm)を該対象物の概略の身長Hとして決定し、対象物が子供であると判断した場合には、子供の標準的な身長(例えば120cm)を該対象物の概略の身長Hとして決定する。   If the first object detection processing unit 32 determines that the object is an adult, the first object detection processing unit 32 determines the standard height (for example, 170 cm) of the adult as the approximate height H of the object, and the object Is determined to be a child, a standard height (eg, 120 cm) of the child is determined as the approximate height H of the object.

さらに、第1対象物検知処理部32は、対象物の決定した身長Hと、撮像画像における該対象物の画像の縦方向のトータルの長さhと、図示しないメモリにあらかじめ記憶保持されている赤外線カメラ11の焦点距離Fとから、次式(1)により、自車両1と対象物(横断者)との間の距離Zの推定値を算出する。   Further, the first object detection processing unit 32 is stored in advance in a memory (not shown) in advance, the height H of the object determined, the total length h in the vertical direction of the image of the object in the captured image. From the focal length F of the infrared camera 11, an estimated value of the distance Z between the host vehicle 1 and the object (crossing person) is calculated by the following equation (1).


Z=F・H/h ……(1)

また、第1対象物検知処理部32は、撮像画像における対象物(横断者)の位置(画像中心に対する横方向及び縦方向の位置)と、上記距離Zと、焦点距離Fとから幾何学的な演算によって、車両1の車幅方向及び高さ方向における対象物(横断者)の位置(実空間での位置)の推定値を算出する。

Z = F · H / h (1)

In addition, the first object detection processing unit 32 geometrically calculates the position of the object (crossing person) in the captured image (the position in the horizontal and vertical directions with respect to the image center), the distance Z, and the focal length F. With this calculation, an estimated value of the position (position in real space) of the object (crossing person) in the vehicle width direction and height direction of the vehicle 1 is calculated.

具体的には、撮像画像における対象物(横断者)の横方向の位置x(長さの単位での位置)と縦方向の位置y(長さの単位での位置)とにそれぞれ、Z/Fを乗じることによって、車両1の車幅方向での対象物の位置(図1のX軸方向の位置)と車両1の高さ方向での対象物の位置(図1のX軸方向及びY軸方向に直交する方向の位置)とが算出される。   More specifically, Z / in the horizontal position x (position in the unit of length) and vertical position y (position in the unit of length) of the object (crossing person) in the captured image, respectively. By multiplying F, the position of the object in the vehicle width direction of the vehicle 1 (position in the X-axis direction in FIG. 1) and the position of the object in the height direction of the vehicle 1 (in the X-axis direction and Y in FIG. 1). Position in a direction orthogonal to the axial direction).

これにより、STEP2−4の横断者認識処理で横断者と判断された対象物の距離Z及び実空間位置が推定される。   Accordingly, the distance Z and the real space position of the object determined as a crossing person in the crossing person recognition process in STEP 2-4 are estimated.

一方、横断者であると判断された対象物以外の対象物については、第1対象物検知処理部32は、撮像画像における対象物の画像のサイズの時間的変化率に基づいて自車両1からの該対象物の距離を推定する。   On the other hand, for objects other than the object determined to be a crossing person, the first object detection processing unit 32 determines from the own vehicle 1 based on the temporal change rate of the image size of the object in the captured image. The distance of the object is estimated.

具体的は、例えば、時刻k(現在時刻)で抽出された対象物の画像の縦方向の長さh(k)と、その直前の時刻k−1で抽出された同一の対象物(同じラベルの対象物)の画像の縦方向の長さh(k-1)との比率h(k)/h(k-1)(該対象物の画像の拡大率)と、自車両1の現在の車速Vと、時刻k,k−1の間の時間差Δt(制御処理周期)とから、次式(2)により、自車両1と対象物との間の距離Zの推定値が算出される。   Specifically, for example, the length h (k) in the vertical direction of the image of the object extracted at time k (current time) and the same object (same label) extracted at time k−1 immediately before that Of the object) and the ratio h (k) / h (k-1) (the enlargement ratio of the image of the object) to the length h (k-1) in the vertical direction of the image and the current vehicle 1 From the vehicle speed V and the time difference Δt (control processing cycle) between the times k and k−1, the estimated value of the distance Z between the host vehicle 1 and the object is calculated by the following equation (2).


Z=V・Δt/((h(k)/h(k-1))−1) ……(2)

また、第1対象物検知処理部32は、対象物が横断者である場合と同様に、撮像画像における対象物の位置(画像中心に対する横方向及び縦方向の位置)と、上記距離Zと、焦点距離Fとから、幾何学的な演算によって、車両1の車幅方向及び高さ方向における対象物の位置(実空間での位置)の推定値を算出する。

Z = V · Δt / ((h (k) / h (k-1))-1) (2)

Further, the first object detection processing unit 32, as in the case where the object is a crossing person, the position of the object in the captured image (the position in the horizontal and vertical directions with respect to the image center), the distance Z, From the focal length F, an estimated value of the position of the object (position in real space) in the vehicle width direction and height direction of the vehicle 1 is calculated by geometric calculation.

これにより、STEP2−4の横断者認識処理で横断者と判断された対象物以外の対象物の距離Z及び実空間位置が推定される。   Thereby, the distance Z and real space position of objects other than the object determined to be a crossing person by the crossing person recognition process of STEP2-4 are estimated.

補足すると、車両1にステレオカメラを構成する2台の赤外線カメラを搭載するようにしてもよい。その場合には、ステレオ測距の手法によって、任意の対象物の自車両1からの距離を推定することができる。また、赤外線カメラ11とは別に、レーダ等の測距装置を車両1に搭載し、その測距装置により対象物の自車両1からの距離を計測するようにしてもよい。   Supplementally, two infrared cameras constituting a stereo camera may be mounted on the vehicle 1. In that case, the distance from the own vehicle 1 of an arbitrary object can be estimated by a stereo distance measuring method. In addition to the infrared camera 11, a ranging device such as a radar may be mounted on the vehicle 1, and the distance of the object from the own vehicle 1 may be measured by the ranging device.

次に、第1対象物検知処理部32は、STEP2−6において、領域判別処理を実行する。この領域判別処理は、撮像画像に写っている対象物が、自車両1との接触の可能性のある対象物であるか否かを判別する処理である。   Next, the first object detection processing unit 32 executes region determination processing in STEP 2-6. This area determination process is a process of determining whether or not the object shown in the captured image is an object that is likely to contact the host vehicle 1.

具体的には、第1対象物検知処理部32は、距離及び実空間位置を推定した各対象物(特定種生体である可能性がある対象物)について、該対象物の存在位置(実空間位置)が、撮像領域AR0のうち、図1に示すように設定される接触判定領域AR1(図1の点描領域)内の位置である場合に、該対象物(例えば図1にP1で示す対象物)と自車両1との将来の接触の可能性があると判断する。   Specifically, the first object detection processing unit 32 regards the position of the object (real space) for each object (object that may be a specific species of living body) whose distance and real space position are estimated. If the position is a position in the contact determination area AR1 (stipple area in FIG. 1) set as shown in FIG. 1 in the imaging area AR0, the object (for example, an object indicated by P1 in FIG. 1) It is determined that there is a possibility of future contact between the vehicle and the vehicle 1.

上記接触判定領域AR1は、撮像領域AR0のうち、自車両1からの距離が、自車両1の車速(検出値)に応じて決定した距離値Z1(例えば車速に所定の比例定数を乗じた値)以下となり、且つ、自車両1の正面前方で、自車両1の車幅αの両側のそれぞれに所定の余裕幅βを加算してなる幅(=α+2β)を有する領域として設定される。   The contact determination area AR1 is a distance value Z1 (for example, a value obtained by multiplying the vehicle speed by a predetermined proportionality constant) determined in accordance with the vehicle speed (detection value) of the own vehicle 1 in the imaging area AR0. ) And a region having a width (= α + 2β) obtained by adding a predetermined margin width β to each of both sides of the vehicle width α of the host vehicle 1 in front of the host vehicle 1 in front of the vehicle.

また、第1対象物検知処理部32は、検知対象生体の存在位置(実空間位置)が、撮像領域AR0のうち、接触判定領域AR1の左右の外側)で図1に示すように設定される進入判定領域AR2,AR3(図1の車線領域)内の位置であり、且つ、該対象物の移動ベクトルの向きが接触判定領域AR1に進入する向きである場合にも、該対象物(例えば図1にP2、P3で示す対象物)と自車両1との将来の接触の可能性があると判断する。   In addition, in the first object detection processing unit 32, the presence position (real space position) of the detection target living body is set as illustrated in FIG. 1 in the left and right outside of the contact determination area AR1 in the imaging area AR0. Even when the position is within the entry determination areas AR2 and AR3 (lane areas in FIG. 1) and the direction of the movement vector of the object is the direction to enter the contact determination area AR1, the object (for example, FIG. 1 is determined that there is a possibility of future contact between the vehicle 1 and the subject vehicle 1.

上記進入判定領域AR2,AR3は、撮像領域AR0のうち、自車両1からのの距離が、上記距離値Z1以下となる領域から、接触判定領域AR1を除いた領域として設定される。   The entry determination areas AR2 and AR3 are set as areas in the imaging area AR0 excluding the contact determination area AR1 from the area where the distance from the host vehicle 1 is equal to or less than the distance value Z1.

また、対象物の移動ベクトルの向きは、例えば該対象物の所定時間前までの実空間位置の時系列から特定される。   Further, the direction of the movement vector of the object is specified from, for example, a time series of real space positions up to a predetermined time before the object.

なお、上記接触判定領域AR1及び進入判定領域AR2,AR3は、自車両1の高さ方向にも範囲を有する領域(自車両1の車高よりも高い所定の高さ以下の領域)である。そして、該所定の高さよりも高い位置に存在する対象物は、自車両1との将来の接触の可能性が無いものと判断される。   Note that the contact determination area AR1 and the entry determination areas AR2 and AR3 are areas having a range in the height direction of the host vehicle 1 (a region having a predetermined height higher than the vehicle height of the host vehicle 1). Then, it is determined that an object present at a position higher than the predetermined height has no possibility of future contact with the host vehicle 1.

STEP2−6の領域判別処理では、以上の如く対象物と自車両1との接触の可能性の有無が判断される。   In the region determination process of STEP 2-6, the presence or absence of the possibility of contact between the object and the host vehicle 1 is determined as described above.

次に、第1対象物検知処理部32は、STEP2−7において、構造物/車両認識処理を実行する。なお、STEP2−7以降の処理(STEP2−7の処理を含む)は、上記領域判別処理で、自車両1との接触の可能性が無いと判断された対象物を除外した対象物(自車両1との接触の可能性が有る対象物)に関して実行される処理である。   Next, the first object detection processing unit 32 executes a structure / vehicle recognition process in STEP 2-7. Note that the processing after STEP 2-7 (including the processing of STEP 2-7) is an object that excludes the object that is determined not to be in contact with the host vehicle 1 in the region determination process (the host vehicle). 1 is a process executed with respect to an object having a possibility of contact with 1).

上記構造物/車両認識処理は、対象物が構造物又は車両であるか否かを判定する処理である。   The structure / vehicle recognition process is a process for determining whether the object is a structure or a vehicle.

この構造物/車両認識処理では、第1対象物検知処理部32は、赤外線カメラ11の撮像画像中に、対象物が構造物又は車両であるか否かを判定するための画像領域(マスク領域)を該対象物の画像(高輝度部分)の近辺に設定する。その画像領域のサイズは、該対象物に関してSTEP2−5で算出された距離に応じて決定される。   In this structure / vehicle recognition process, the first object detection processing unit 32 includes an image area (mask area) for determining whether or not the object is a structure or a vehicle in the captured image of the infrared camera 11. ) Is set in the vicinity of the image (high brightness portion) of the object. The size of the image area is determined according to the distance calculated in STEP 2-5 for the object.

そして、第1対象物検知処理部32は、この画像領域内での対象物の画像の形状もしくはサイズの特徴等に基づいて、該対象物が構造物又は車両であるか否かを判定する。   Then, the first object detection processing unit 32 determines whether the object is a structure or a vehicle based on the shape or size characteristics of the image of the object in the image area.

例えば、対象物の画像が直線部分もしくは直角な角部を有する場合、あるいは、あらかじめ登録された構造物もしくは車両の形状を有する場合、あるいは、自車両1からの距離及び画像の形状が互いに同一である対象物(他車両の一対のテールライト又はヘッドライトに相当する一対の対象物)の画像が撮像画像の横方向に所定範囲内の間隔(自車両1からの距離に応じた所定範囲内の間隔)で並んでいる場合に、該対象物が構造物又は車両であると判定される。   For example, when the image of the object has a straight portion or a right-angled corner, or has a pre-registered structure or vehicle shape, or the distance from the host vehicle 1 and the shape of the image are the same. An image of a certain object (a pair of objects corresponding to a pair of taillights or headlights of another vehicle) is within a predetermined range in the horizontal direction of the captured image (within a predetermined range corresponding to the distance from the host vehicle 1) If the objects are arranged at intervals, it is determined that the object is a structure or a vehicle.

次いで、第1対象物検知処理部32は、上記構造物/車両認識処理の対象とした各対象物毎に、該対象物が構造物又は車両であると判定されたか否かをSTEP2−8で確認する。そして、第1対象物検知処理部32は、構造物又は車両であると判定された対象物については、該対象物が検知対象生体ではないことから、以降の処理(STEP2−9からの処理)を省略する。   Next, the first object detection processing unit 32 determines in STEP 2-8 whether or not the object is determined to be a structure or a vehicle for each object that is the object of the structure / vehicle recognition process. Check. The first object detection processing unit 32 then performs the following processing (processing from STEP 2-9) for the object determined to be a structure or a vehicle because the object is not a detection target living body. Is omitted.

一方、第1対象物検知処理部32は、構造物又は車両であると判定されなかった対象物について、STEP2−9において人認識処理を実行する。この人認識処理は、対象物が人(歩行者)であるか否かを判定する処理である。   On the other hand, the first object detection processing unit 32 executes a person recognition process in STEP 2-9 for an object that has not been determined to be a structure or a vehicle. This person recognition process is a process for determining whether or not the object is a person (pedestrian).

この人認識処理では、第1対象物検知処理部32は、赤外線カメラ11の撮像画像中に、対象物が人であるか否かを判定するための画像領域(マスク領域)を該対象物の画像(高輝度部分)の近辺に設定する。その画像領域は、例えば縦長の方形領域であり、そのサイズ(縦幅及び横幅)は、該対象物が人であると仮定した場合に、該画像領域内に人の画像の全体が包含されるように、該対象物に関してSTEP2−5で算出された距離に応じて決定される。   In this person recognition processing, the first object detection processing unit 32 sets an image area (mask area) for determining whether or not the object is a person in the captured image of the infrared camera 11 of the object. Set near the image (high brightness area). The image area is, for example, a vertically long rectangular area, and the size (vertical width and horizontal width) of the image area includes the whole of the person's image when the object is assumed to be a person. Thus, it determines according to the distance calculated by STEP2-5 regarding this target object.

そして、第1対象物検知処理部32は、この画像領域内での対象物の画像の形状、サイズ、輝度分布等の特徴に基づいて、対象物が人(横断者を含む)であるか否かを判定する。その判定の具体的な手法としては、例えば特開2003−284057号公報にて本願出願人が提案した手法を採用することができる。   Then, the first object detection processing unit 32 determines whether the object is a person (including a crossing person) based on characteristics such as the shape, size, and luminance distribution of the image of the object in the image region. Determine whether. As a specific method of the determination, for example, a method proposed by the applicant of the present application in Japanese Patent Application Laid-Open No. 2003-284057 can be employed.

次いで、第1対象物検知処理部32は、上記人認識処理の対象とした各対象物毎に、該対象物が人であると判定されたか否かをSTEP2−10で確認する。そして、第1対象物検知処理部32は、人であると判定された対象物については、STEP2−14において、当該対象物を検知対象生体として確定し、当該対象物に関する処理を終了する。   Next, the first object detection processing unit 32 confirms in STEP 2-10 whether or not the object is determined to be a person for each object that is the object of the person recognition process. And about the target object determined to be a person, the 1st target object detection process part 32 will determine the said target object as a detection target biological body in STEP2-14, and will complete | finish the process regarding the said target object.

一方、第1対象物検知処理部32は、人であると判定されなかった対象物に関して、STEP2−11からの処理を実行する。   On the other hand, the 1st target object detection processing part 32 performs the process from STEP2-11 regarding the target object which was not determined to be a person.

STEP2−11では、第1対象物検知処理部32は、動物検知用の所定の動作条件が成立するか否かを判断する。そして、第1対象物検知処理部32は、STEP2−11の動作条件が成立する場合に、STEP2−12において、対象物が人以外の動物であるか否か判定する処理である動物認識処理を実行し、STEP2−11の動作条件が成立しない場合には、この動物認識処理の実行を省略する。   In STEP 2-11, the first object detection processing unit 32 determines whether or not a predetermined operation condition for animal detection is satisfied. And the 1st target object detection processing part 32 performs the animal recognition process which is a process which determines whether a target object is an animal other than a person in STEP2-12, when the operation conditions of STEP2-11 are satisfied. If the operation condition of STEP2-11 is not satisfied, the execution of this animal recognition process is omitted.

ここで、自車両1の周辺に多数の人が存在する場合、あるいは、自車両1が市街地を走行している場合には、自車両1の周辺に動物が居ないか、もしくは、自車両1が走行中の路面上に道路脇から動物が出てくる可能性は極めて低いと考えられる。   Here, when there are many people around the own vehicle 1 or when the own vehicle 1 is traveling in an urban area, there is no animal around the own vehicle 1 or the own vehicle 1 However, it is considered very unlikely that animals will appear from the roadside on the running road.

そこで、本実施形態では、第1対象物検知処理部32は、STEP2−9の人認識処理によって検知された人の総数(人であると判定された対象物の総数)と、第2対象物検知処理部33の後述するSTEP4−10の人認識処理によって現時点までに検知された人の総数との総和の個数(以降、人検知総数という)が、所定数以上の多数である場合、又は、自車両1が市街地を走行していると判断される場合に、STEP2−11において、動物検知用の動作条件が成立しないものと判断する。   Therefore, in the present embodiment, the first object detection processing unit 32 includes the total number of persons detected by the person recognition process in STEP 2-9 (the total number of objects determined to be persons) and the second object. When the total number (hereinafter referred to as the total number of human detections) with the total number of people detected up to the present time by the human recognition process of STEP 4-10 described later of the detection processing unit 33 is a predetermined number or more, or When it is determined that the host vehicle 1 is traveling in an urban area, it is determined in STEP 2-11 that the animal detection operation condition is not satisfied.

また、第1対象物検知処理部32は、上記人検知総数が所定数未満(ゼロを含む)であり、且つ、自車両1の走行中の地域が市街地でないと判断される場合に、STEP2−11において、動物検知用の動作条件が成立するものと判断する。   Further, the first object detection processing unit 32 determines that when the total number of human detections is less than a predetermined number (including zero) and the area where the vehicle 1 is traveling is not an urban area, STEP2- 11, it is determined that an animal detection operation condition is satisfied.

この場合、自車両1が市街地を走行中であるか否かは、例えば、赤外線カメラ11の撮像画像、あるいは、ナビゲーション装置の地図情報等に基づいて判断される。   In this case, whether or not the host vehicle 1 is traveling in an urban area is determined based on, for example, a captured image of the infrared camera 11 or map information of the navigation device.

補足すると、前記人検知総数が所定数未満である場合に、自車両1の走行中の地域が市街地であるか否かによらずに、動物検知用の動作条件が成立するものと判断するようにしてもよい。その場合、自車両1が市街地を走行中であるか否かの判断は不要である。   Supplementally, when the total number of human detections is less than the predetermined number, it is determined that the operation condition for animal detection is satisfied regardless of whether or not the area where the vehicle 1 is traveling is an urban area. It may be. In that case, it is not necessary to determine whether or not the host vehicle 1 is traveling in an urban area.

あるいは、自車両1の走行中の地域が市街地でないと判断される場合に、人検知総数によらずに、動物検知用の動作条件が成立するものと判断するようにしてもよい。その場合、人検知総数が所定数以上であるか否かの判断は不要である。   Alternatively, when it is determined that the area in which the host vehicle 1 is traveling is not an urban area, it may be determined that the animal detection operation condition is satisfied regardless of the total number of human detections. In that case, it is not necessary to determine whether the total number of human detections is equal to or greater than a predetermined number.

STEP2−11で動物検知用の動作条件が成立しない場合には、第1対象物検知処理部32の今回の(現在の)制御処理周期での処理は終了する。   If the operation condition for animal detection is not established in STEP 2-11, the processing in the current (current) control processing cycle of the first object detection processing unit 32 ends.

一方、STEP2−11で動物検知用の動作条件が成立する場合には、第1対象物検知処理部32は、STEP2−12の動物認識処理を実行する。   On the other hand, when the animal detection operation condition is satisfied in STEP 2-11, the first object detection processing unit 32 executes the animal recognition process in STEP 2-12.

この動物認識処理では、第1対象物検知処理部32は、人認識処理で人であると判定されなかった対象物について、該対象物が人以外の動物(本実施形態では、鹿等の四足動物)であるか否かを判定する。   In this animal recognition process, the first object detection processing unit 32 applies to an object other than a person (in this embodiment, a deer or the like) for an object that has not been determined to be a person in the person recognition process. Or not).

具体的には、第1対象物検知処理部32は、赤外線カメラ11の撮像画像中に、対象物が動物(四足動物)であるか否かを判定するための画像領域(マスク領域)を該対象物の画像(高輝度部分)の近辺に設定する。その画像領域は、例えば横長の方形領域であり、そのサイズ(縦幅及び横幅)は、該対象物が鹿等の四足動物であると仮定した場合に、該画像領域内に動物の画像の全体が包含されるように、該対象物に関してSTEP2−5で算出された距離に応じて決定される。   Specifically, the first object detection processing unit 32 displays an image area (mask area) for determining whether or not the object is an animal (quadruped animal) in the captured image of the infrared camera 11. It is set in the vicinity of the image (high brightness portion) of the object. The image area is, for example, a horizontally long rectangular area, and the size (vertical width and horizontal width) of the image area assumes that the object is a quadruped animal such as a deer. It is determined according to the distance calculated in STEP 2-5 for the object so that the whole is included.

そして、第1対象物検知処理部32は、この画像領域内での対象物の画像の形状、サイズ等の特徴に基づいて、対象物が動物(四足動物)であるか否かを判定する。例えば、動物の胴部に相当する横長の高輝度部分があり、且つ、その横長の高輝度部分の横方向の一端部寄りの上部に頭部に相当する高輝度部分があり、且つ、横長の高輝度部分の下部に、動物の前部側及び後部側の脚部に相当する高輝度部分がある場合に、該対象部が動物であると判定される。   Then, the first object detection processing unit 32 determines whether or not the object is an animal (quadruped animal) based on characteristics such as the shape and size of the image of the object in the image region. . For example, there is a horizontally long high-luminance portion corresponding to the animal's torso, and there is a high-luminance portion corresponding to the head at the upper portion near the lateral end of the horizontally long high-luminance portion. If there are high-luminance portions corresponding to the front and rear leg portions of the animal at the lower part of the high-luminance portion, the target portion is determined to be an animal.

次いで、第1対象物検知処理部32は、上記動物認識処理の対象とした各対象物毎に、該対象物が動物であると判定されたか否かをSTEP2−13で確認する。   Next, the first object detection processing unit 32 confirms in STEP 2-13 whether or not the object is determined to be an animal for each object that is the object of the animal recognition process.

そして、第1対象物検知処理部32は、動物であると判定された対象物が存在した場合には、その対象物について、STEP2−14において、当該対象物を検知対象生体として確定した上で、今回の制御処理周期での処理を終了する。また、第1対象物検知処理部32は、動物であると判定された対象物が存在しなかった場合には、今回の制御処理周期での処理を終了する。   Then, when there is an object determined to be an animal, the first object detection processing unit 32 determines the object as a detection target living body in STEP 2-14 for the object. Then, the processing in the current control processing cycle is terminated. Moreover, the 1st target object detection process part 32 complete | finishes the process in this control process period, when the target object determined to be an animal does not exist.

以上が、第1対象物検知処理部32の処理の詳細である。   The details of the processing of the first object detection processing unit 32 have been described above.

次に、第2対象物検知処理部33について説明する。前記STEP3の動作条件が成立した場合に実行されるTEP4における第1対象物検知処理部32の処理は、図5のフローチャートに示す如く実行される。   Next, the second object detection processing unit 33 will be described. The processing of the first object detection processing unit 32 in TEP4 that is executed when the operation condition of STEP3 is satisfied is executed as shown in the flowchart of FIG.

第2対象物検知処理部33は、まず、STEP4−1において、反転撮像画像を生成する。反転撮像画像は、赤外線カメラ11の撮像画像(以降、原撮像画像ということがある)の各画素の輝度(階調値)の高低を反転させた画像、すなわち、反転撮像画像中の各画素を、それに対応する原撮像画像中の画素の輝度が高いほど暗くなり、且つ、対応する原撮像画像中の画素の輝度が低いほど明るくなるようにした画像である。   First, the second object detection processing unit 33 generates a reverse captured image in STEP 4-1. The inverted captured image is an image obtained by inverting the brightness (gradation value) of each pixel of the captured image of the infrared camera 11 (hereinafter sometimes referred to as an original captured image), that is, each pixel in the inverted captured image. The image is such that the higher the luminance of the corresponding pixel in the original captured image is, the lower the luminance is, and the lower the luminance of the corresponding pixel in the original captured image is.

具体的には、反転撮像画像の各画素の輝度値は、原撮像画像の対応画素(反転撮像画像の画素と同じ位置の画素)の輝度値を、最大輝度値(上限輝度値)から差し引くことにより決定される。例えば、原撮像画像の各画素の輝度が、8ビットの階調値(0〜255の階調値)の範囲で表される場合を想定する。この場合、原撮像画像の任意の1つの画素の輝度値Yc(0〜255のいずれかの値)であるとすると、反転撮像画像における対応画素の輝度値は(255−Yc)の階調値とされる。   Specifically, the luminance value of each pixel of the inverted captured image is obtained by subtracting the luminance value of the corresponding pixel of the original captured image (the pixel at the same position as the pixel of the inverted captured image) from the maximum luminance value (upper limit luminance value). Determined by. For example, it is assumed that the luminance of each pixel of the original captured image is expressed in a range of 8-bit gradation values (gradation values from 0 to 255). In this case, if it is the luminance value Yc (any value of 0 to 255) of any one pixel of the original captured image, the luminance value of the corresponding pixel in the inverted captured image is a gradation value of (255-Yc). It is said.

このように反転撮像画像を生成することで、図7の上段の図に示した如く、原撮像画像に写る特定種生体としての人51の画像の輝度が、背景の画像の輝度よりも低いものとなっている場合に、反転撮像画像においては、図7の下段の図に示す如く、人61の画像の輝度が背景の画像の輝度よりも高いものとなるようにすることができる。   By generating the inverted captured image in this manner, as shown in the upper diagram of FIG. 7, the brightness of the image of the person 51 as the specific species living body that appears in the original captured image is lower than the brightness of the background image. In the inverted captured image, the luminance of the image of the person 61 can be made higher than the luminance of the background image, as shown in the lower diagram of FIG.

次いで、第2対象物検知処理部33は、STEP4−2において、2値化抽出処理を実行する。この2値化抽出処理では、第2対象物検知処理部33は、反転撮像画像から高低2種類の輝度値の画素により構成される2値化画像を生成する。   Next, the second object detection processing unit 33 executes binarization extraction processing in STEP 4-2. In this binarization extraction process, the second object detection processing unit 33 generates a binarized image composed of pixels of two types of high and low luminance values from the inverted captured image.

この2値化画像は、反転撮像画像において、所定の第2閾値以上の輝度を有する画素を、高輝度値(白の輝度値)の画素、第2閾値よりも小さい輝度を有する画素を、低輝度値(黒の輝度値)の画素とすることで生成される。   This binarized image is a reverse captured image in which pixels having a luminance equal to or higher than a predetermined second threshold are pixels having a high luminance value (white luminance value) and pixels having a luminance smaller than the second threshold are low. It is generated by setting a pixel having a luminance value (black luminance value).

上記第2閾値は、原撮像画像又は反転撮像画像における輝度の分布状態、例えば原撮像画像又は反転撮像画像の各画素の輝度と画素数(出現頻度)との関係を表すヒストグラムに基づいて決定される。   The second threshold value is determined based on a luminance distribution state in the original captured image or the inverted captured image, for example, a histogram representing the relationship between the luminance of each pixel of the original captured image or the inverted captured image and the number of pixels (appearance frequency). The

例えば、原撮像画像のヒストグラムが、図6に示したようなものである場合において、図中の所定の輝度値Yth2を反転させた輝度値(=最大輝度値−Yth2)が第2閾値Yth2'として設定される。以降、輝度値Yth2を反転前第2閾値Yth2という。   For example, when the histogram of the original captured image is as shown in FIG. 6, the luminance value (= maximum luminance value−Yth2) obtained by inverting the predetermined luminance value Yth2 in the drawing is the second threshold value Yth2 ′. Set as Hereinafter, the luminance value Yth2 is referred to as a pre-inversion second threshold Yth2.

上記反転前第2閾値Yth2は、原撮像画像の輝度分布のヒストグラムにおいて、低輝度側で画素数がピーク(極大値)となる輝度値Y2の近辺の輝度(例えばY2を中心とする所定範囲内の輝度)がYth2以下となるように、Y2よりも大きい値に決定される。   The pre-inversion second threshold Yth2 is a luminance in the vicinity of the luminance value Y2 where the number of pixels reaches a peak (maximum value) on the low luminance side in the luminance distribution histogram of the original captured image (for example, within a predetermined range centered on Y2). Is determined to be larger than Y2 so that the luminance of Y2 is less than Yth2.

このように、第2閾値Yth2'を決定することは、反転撮像画像の輝度分布のヒストグラムにおいて、高輝度側で画素数がピーク(極大値)となる輝度値(=図6のY2の反転輝度値)の近辺の輝度(Y2の反転輝度値を中心とする所定範囲内の輝度)がYth2'以上となるように、Y2の反転輝度値よりも小さい値に第2閾値Yth2'を決定することと同等である。   Thus, the second threshold value Yth2 ′ is determined by the luminance value (= inverted luminance of Y2 in FIG. 6) at which the number of pixels has a peak (maximum value) on the high luminance side in the histogram of the luminance distribution of the inverted captured image. The second threshold value Yth2 ′ is set to a value smaller than the inversion luminance value of Y2, so that the luminance in the vicinity of (value) (the luminance within a predetermined range centered on the inversion luminance value of Y2) is equal to or greater than Yth2 ′. Is equivalent to

なお、第2閾値Yth2'は、あらかじめ定められた所定値(定数値)であってもよい。あるいは、第2閾値Yth2'は、外気温等に応じて設定してもよい。また、第2閾値Yth2'は、前記第1閾値Yth1と同じ値であってもよい。   The second threshold Yth2 ′ may be a predetermined value (constant value) determined in advance. Alternatively, the second threshold Yth2 ′ may be set according to the outside air temperature or the like. The second threshold Yth2 ′ may be the same value as the first threshold Yth1.

第2閾値Yth2'は、人等の特定種生体が、背景の被写体の温度よりも低い温度となるような環境下で、該特定種生体を赤外線カメラ11により撮像した場合に、原撮像画像の輝度を反転させた反転撮像画像における特定種生体の画像の輝度が、上記第2閾値Yth2'以上となるように設定されておればよい。   The second threshold value Yth2 ′ is the value of the original captured image when the specific species living body such as a person is imaged by the infrared camera 11 in an environment where the temperature is lower than the temperature of the subject in the background. The brightness of the image of the specific species in the inverted captured image with the brightness inverted may be set to be equal to or higher than the second threshold Yth2 ′.

STEP4−2では、第2対象物検知処理部33は、上記の如く反転撮像画像に対応する2値化画像を生成した後、該2値化画像の高輝度領域(高輝度値の画素(白の画素)により構成される領域)から、検知対象生体の候補となる対象物(これは本発明における種別判定対象物に相当する)の画像を抽出する。この抽出処理は、前記STEP2−1における抽出処理と同じ仕方で行なわれる。   In STEP 4-2, the second object detection processing unit 33 generates a binarized image corresponding to the inverted captured image as described above, and then generates a high luminance area (pixels of high luminance values (white pixels) of the binarized image. The image of the target object (which corresponds to the type determination target object in the present invention) is extracted from the region). This extraction process is performed in the same manner as the extraction process in STEP 2-1.

以上の如くSTEP4−2の2値化抽出処理が実行される。この場合、反転撮像画像に対応する2値化画像の高輝度領域から抽出される対象物の画像は、原撮像画像の低輝度領域に含まれる画像である。   As described above, the binarization extraction process of STEP4-2 is executed. In this case, the image of the target object extracted from the high luminance region of the binarized image corresponding to the inverted captured image is an image included in the low luminance region of the original captured image.

次に、第2対象物検知処理部33は、STEP4−3において、トラッキング処理を実行する。このトラッキング処理は、前記STEP2−2のトラッキング処理と同じ仕方で実行される。   Next, the 2nd target object detection process part 33 performs a tracking process in STEP4-3. This tracking process is executed in the same manner as the tracking process of STEP2-2.

次いで、第2対象物検知処理部33は、STEP4−4の処理を実行する。この処理では、第2対象物検知処理部33は、反転撮像画像及びその2値化画像のそれぞれの全体領域のうち、第1対象物検知処理部32の処理(詳しくは、図4のSTEP2−3又はSTEP2−7の処理)によって、構造物又は車両であると判定された対象物の画像の存在領域を以降の処理(STEP4−5からの処理)の対象から除外する。   Next, the second object detection processing unit 33 executes the processing of STEP 4-4. In this process, the second object detection processing unit 33 performs the process of the first object detection processing unit 32 (specifically, STEP2- FIG. 4 in FIG. 4) of the entire area of the inverted captured image and the binarized image thereof. 3 or the processing of STEP2-7), the existence area of the image of the object determined to be a structure or a vehicle is excluded from the objects of the subsequent processing (processing from STEP4-5).

そして、第2対象物検知処理部33は、除外した領域の配置位置及びサイズを図示しないメモリに記憶保持する。   Then, the second object detection processing unit 33 stores and holds the arrangement position and size of the excluded area in a memory (not shown).

なお、構造物又は車両であると判定された対象物の画像の存在領域を除外するというのは、その存在領域に、検知対象生体の候補の画像が存在しないとみなすことを意味する。   Note that excluding the existence area of the image of the target object that is determined to be a structure or a vehicle means that the detection target living body candidate image does not exist in the existence area.

以降、第2対象物検知処理部33は、反転撮像画像又その2値化画像を用いて(ただし、STEP4−4で除外した領域を除く)、STEP4−5における横断者認識処理、STEP4−6における距離算出処理、STEP4−7における領域判別処理、STEP4−8における構造物/車両認識処理、STEP4−9における判断処理(対象物が構造物又車両であると判定されたか否かの確認処理)、STEP4−10における人認識処理、STEP4−11における判断処理(対象物が人であると判定されたか否かの確認処理)、及びSTEP4−12の処理(検知対象生体を確定する処理)を、それぞれ、前記STEP2−4、STEP2−5、STEP2−6、STEP2−7、STEP2−8、STEP2−9、STEP2−10、STEP2−14と同じ仕方で実行する。   Thereafter, the second object detection processing unit 33 uses the inverted captured image or the binarized image thereof (except for the area excluded in STEP 4-4), the crossing person recognition process in STEP 4-5, STEP 4-6. Distance calculation processing in STEP4-7, region determination processing in STEP4-7, structure / vehicle recognition processing in STEP4-8, determination processing in STEP4-9 (confirmation processing whether or not the object is determined to be a structure or a vehicle) The person recognition process in STEP 4-10, the determination process in STEP 4-11 (confirmation process as to whether or not the object is determined to be a person), and the process in STEP 4-12 (process for determining the detection target living body) STEP2-4, STEP2-5, STEP2-6, STEP2-7, STEP2-8, STEP2-9, STEP2-10, respectively To run in the same manner as STEP2-14.

この場合、本実施形態では、第2対象物検知処理部33の処理では、演算処理負荷の軽減等のために、対象物が動物(四足動物)であるか否かの判定を行なう処理は行われない。具体的には、STEP4−10の人認識処理によって人でないと判定された対象物(STEP4−11の判断結果が否定的となる対象物)について、該対象物が動物(四足動物)であるか否かの判定は行われない。   In this case, in the present embodiment, in the process of the second object detection processing unit 33, a process for determining whether or not the object is an animal (quadruped animal) is performed in order to reduce a calculation processing load or the like. Not done. Specifically, for an object that is determined not to be a person by STEP 4-10 human recognition processing (an object for which the determination result in STEP 4-11 is negative), the object is an animal (quadruped animal). It is not determined whether or not.

ただし、STEP2−9の人認識処理によって、人でないと判定された対象物に関して、前記STEP2−11〜2−13と同様の処理を行って、動物検知用の動作条件が成立する場合に、該対象物が動物(四足動物)であるか否かの判定を行うようにしてもよい。   However, in the case where an operation condition for animal detection is established by performing the same process as in STEPs 2-11 to 2-13 for an object that is determined not to be human by the human recognition process in STEP2-9, You may make it determine whether a target object is an animal (quadruped animal).

以上が、第2対象物検知処理部33の処理の詳細である。   The details of the processing of the second object detection processing unit 33 have been described above.

なお、本発明との対応関係について補足すると、前記撮像画像取得部31は、本発明における撮像画像取得手段に相当する。   In addition, if it supplements about the correspondence with this invention, the said captured image acquisition part 31 is corresponded to the captured image acquisition means in this invention.

また、第1対象物検知処理部32は、本発明における第1対象物種別判定手段としての機能を含んでいる。この場合、第1対象物検知処理部32のSTEP2−3、2−7、2−9、2−12の処理が、本発明における第1判定処理に相当する。   Moreover, the 1st target object detection process part 32 contains the function as a 1st target object classification determination means in this invention. In this case, the processes of STEPs 2-3, 2-7, 2-9, and 2-12 of the first object detection processing unit 32 correspond to the first determination process in the present invention.

また、第2対象物検知処理部33は、本発明における第2対象物種別判定手段としての機能を含んでいる。この場合、第2対象物検知処理部33のSTEP4−8、4−10の処理が、本発明における第2判定処理に相当する。   Moreover, the 2nd target object detection process part 33 contains the function as a 2nd target object classification determination means in this invention. In this case, the processes of STEPs 4-8 and 4-10 of the second object detection processing unit 33 correspond to the second determination process in the present invention.

以上説明した本実施形態によれば、赤外線カメラ11の撮像画像(原撮像画像)の高輝度領域から、検知対象生体を検知する処理を実行する第1対象物検知処理部32と、原撮像画像の低輝度領域(反転撮像画像の高輝度領域)から検知対象生体を検知する処理を実行する第2対象物検知処理部33を備えることによって、検知対象生体の温度が背景の被写体の温度よりも高温である場合及び低温である場合のいずれの場合でも、検知対象生体を検知するようにすることができる。   According to the present embodiment described above, the first object detection processing unit 32 that executes the process of detecting the detection target living body from the high luminance region of the captured image (original captured image) of the infrared camera 11, and the original captured image. By providing the second object detection processing unit 33 that executes the process of detecting the detection target living body from the low brightness area (high brightness area of the reverse captured image), the temperature of the detection target living body is higher than the temperature of the background subject. It is possible to detect the detection target living body in both cases of high temperature and low temperature.

また、第2対象物検知処理部33のSTEP4−5からの処理は、第1対象物検知処理部32の処理によって既に、構造物又車両であると判定された対象物の画像の存在領域を除外して行なわれる。   In addition, the processing from STEP 4-5 of the second object detection processing unit 33 is performed based on the existence region of the image of the object that has already been determined to be a structure or a vehicle by the processing of the first object detection processing unit 32. Excluded.

このため、第2対象物検知処理部33の処理で種別の判定を行なう対象物を必要最小限に留めるようにして、第2対象物検知処理部33の処理の演算負荷を軽減することができる。ひいては、第1対象物検知処理部32及び第2対象物検知処理部33の両方の処理に必要なトータルの時間が極力短くなるようにすることができ、検知対象対象生体の検知が遅れるのを防止することができる。   For this reason, the calculation load of the process of the 2nd object detection process part 33 can be reduced by keeping the object which performs classification determination by the process of the 2nd object detection process part 33 to the minimum necessary. . As a result, the total time required for the processing of both the first object detection processing unit 32 and the second object detection processing unit 33 can be made as short as possible, and the detection of the detection target target living body is delayed. Can be prevented.

また、第1対象物検知処理部32の処理では、STEP2−11の動作条件が成立しない場合(自車両1の周辺に鹿等の四足動物が居る可能性が極めて低い場合)には、動物認識処理は実行されず、該動作条件が成立する場合にだけ動物認識処理が実行される。   Further, in the processing of the first object detection processing unit 32, when the operation condition of STEP2-11 is not satisfied (when it is very unlikely that a quadruped animal such as a deer is present around the host vehicle 1), The recognition process is not executed, and the animal recognition process is executed only when the operation condition is satisfied.

このため、自車両1の周辺に多くの人が存在して、人認識処理の演算負荷が多くなっても、第1対象物検知処理部32のトータルの演算負荷が過大になるのが抑制される。   For this reason, even if there are many people around the host vehicle 1 and the calculation load of the human recognition process increases, the total calculation load of the first object detection processing unit 32 is suppressed from being excessive. The

また、STEP2−11の動作条件が成立して、動物認識処理を実行する場合であっても、この場合には、自車両1の周辺に多くの人が存在する可能性は低いので、STEP2−9の人認識処理における演算負荷は比較的少ないものとなる。従って、この場合でも、第1対象物検知処理部32のトータルの演算負荷が過大になるのが抑制される。   Even if the operation condition of STEP 2-11 is established and the animal recognition process is executed, in this case, it is unlikely that there are many people around the own vehicle 1, so STEP 2- The calculation load in the human recognition process 9 is relatively small. Accordingly, even in this case, the total calculation load of the first object detection processing unit 32 is suppressed from becoming excessive.

従って、第1対象物検知処理部32の演算負荷が過大になるのを防止することができ、ひいては、撮像領域AR0に存在するいずれかの検知対象生体の検知が遅くなるようなことを防止することができる。   Therefore, it is possible to prevent the calculation load of the first object detection processing unit 32 from becoming excessive, and consequently to prevent the detection of any detection target living body existing in the imaging region AR0 from being delayed. be able to.

[第2実施形態]
次に、本発明の第2実施形態を図9を参照して説明する。なお、本実施形態は、第1対象物検知処理部32の一部の処理だけが第1実施形態と相違するものである。このため、本実施形態の説明は、第1実施形態と相違する事項を中心に行い、第1実施形態と同一の事項については、説明を省略する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described with reference to FIG. Note that the present embodiment is different from the first embodiment only in a part of the processing of the first object detection processing unit 32. For this reason, the description of the present embodiment will be centered on matters that are different from the first embodiment, and description of the same matters as those of the first embodiment will be omitted.

図9を参照して、本実施形態では、第1対象物検知処理部32は、図4のSTEP2−8の後の、STEP2−9〜2−14の処理に代えて、図9のフローチャートに示すSTEP2−15〜2−20の処理を実行する。   Referring to FIG. 9, in the present embodiment, the first object detection processing unit 32 replaces the processing of STEP 2-9 to 2-14 after STEP 2-8 of FIG. 4 with the flowchart of FIG. 9. Steps 2-15 to 2-20 shown are executed.

すなわち、本実施形態における第1対象物検知処理部32は、第1実施形態で説明したSTEP2−8の判断結果が否定的となる対象物(前記STEP2−7の構造物/車両認識処理で、構造物又は車両でないと判定された対象物)について、STEP2−15において、対象物が人以外の動物(本実施形態では四足動物)であるか否かを判定する動物認識処理を実行する。このSTEP2−15の動物認識処理は、第1実施形態における前記STEP2−12と同じ仕方で実行される。   In other words, the first object detection processing unit 32 in the present embodiment is an object for which the determination result in STEP 2-8 described in the first embodiment is negative (in the structure / vehicle recognition process in STEP 2-7, In STEP 2-15, an animal recognition process for determining whether or not the target object is an animal other than a human (quadruped animal in the present embodiment) is executed for the target object determined not to be a structure or a vehicle. This animal recognition process of STEP2-15 is executed in the same manner as STEP2-12 in the first embodiment.

次いで、第1対象物検知処理部32は、上記動物認識処理の対象とした各対象物毎に、該対象物が動物(四足動物)であると判定されたか否かをSTEP2−16で確認する。そして、第1対象物検知処理部32は、動物であると判定された対象物については、STEP2−20において、当該対象物を検知対象生体として確定し、当該対象物に関する処理を終了する。   Next, the first object detection processing unit 32 confirms in STEP 2-16 whether or not the object is determined to be an animal (quadruped animal) for each object that is the object of the animal recognition process. To do. And about the target determined to be an animal, the 1st target detection process part 32 will determine the said target as a detection target biological body in STEP2-20, and will complete | finish the process regarding the said target.

一方、第1対象物検知処理部32は、動物であると判定されなかった対象物に関して、STEP2−17からの処理を実行する。   On the other hand, the 1st target object detection processing part 32 performs the process from STEP2-17 regarding the target object which was not determined to be an animal.

STEP2−17では、第1対象物検知処理部32は、人検知用の所定の動作条件が成立するか否かを判断する。そして、第1対象物検知処理部32は、STEP2−17の動作条件が成立する場合に、STEP2−18において、対象物が人であるか否かを判断する人認識処理を実行し、STEP2−17の動作条件が成立しない場合には、人認識処理の実行を省略する。   In STEP 2-17, the first object detection processing unit 32 determines whether or not a predetermined operation condition for human detection is satisfied. Then, when the operation condition of STEP2-17 is satisfied, the first object detection processing unit 32 executes a person recognition process for determining whether or not the object is a person in STEP2-18, and STEP2- When the operation condition 17 is not satisfied, the execution of the person recognition process is omitted.

ここで、自車両1の周辺に多数の動物が存在する場合には、自車両1の周辺に人が居る可能性は極めて低いと考えられる。   Here, when many animals exist around the own vehicle 1, it is considered that the possibility that there is a person around the own vehicle 1 is extremely low.

そこで、本実施形態では、第1対象物検知処理部32は、STEP2−15の動物認識処理によって検知された動物の総数(動物であると判定された対象物の総数。以降、動物検知総数という)が、所定数以上の多数である場合に、STEP2−17において、人検知用の動作条件が成立しないものと判断する。   Therefore, in the present embodiment, the first object detection processing unit 32 determines the total number of animals detected by the animal recognition process in STEP 2-15 (the total number of objects determined to be animals. Hereinafter, the total number of animal detections). ) Is more than a predetermined number, it is determined in STEP 2-17 that the operating condition for human detection is not satisfied.

また、第1対象物検知処理部32は、上記動物検知総数が所定数未満(ゼロを含む)である場合に、STEP2−17において、人検知用の動作条件が成立するものと判断する。   Moreover, the 1st target object detection process part 32 judges that the operating condition for person detection is materialized in STEP2-17, when the said animal detection total is less than predetermined number (including zero).

STEP2−17で人検知用の動作条件が成立しない場合には、第1対象物検知処理部32の今回の(現在の)制御処理周期での処理は終了する。   If the operation condition for human detection is not satisfied in STEP 2-17, the processing in the current (current) control processing cycle of the first object detection processing unit 32 ends.

一方、STEP2−17で動物検知用の動作条件が成立する場合には、第1対象物検知処理部32は、STEP2−18の人認識処理を実行する。   On the other hand, when the operation condition for animal detection is established in STEP 2-17, the first object detection processing unit 32 executes the person recognition process in STEP 2-18.

この人認識処理は、第1実施形態における前記STEP2−9と同じ仕方で実行される。   This person recognition process is executed in the same manner as in STEP 2-9 in the first embodiment.

次いで、第1対象物検知処理部32は、STEP2−18の人認識処理の対象とした各対象物毎に、該対象物が人であると判定されたか否かをSTEP2−19で確認する。   Next, the first object detection processing unit 32 confirms in STEP 2-19 whether or not it is determined that the object is a person for each object that is the object of the human recognition process in STEP 2-18.

そして、第1対象物検知処理部32は、人であると判定された対象物が存在した場合には、その対象物について、STEP2−20において、当該対象物を検知対象生体として確定した上で、今回の制御処理周期での処理を終了する。また、第1対象物検知処理部32は、人であると判定された対象物が存在しなかった場合には、今回の制御処理周期での処理を終了する。   Then, if there is an object determined to be a person, the first object detection processing unit 32 determines the object as a detection target living body in STEP 2-20 for the object. Then, the processing in the current control processing cycle is terminated. Moreover, the 1st target object detection process part 32 complete | finishes the process in this control process period, when the target object determined to be a person does not exist.

以上が、本実施形態における第1対象物検知処理部32の処理である。また、以上説明した事項以外は、前記第1実施形態と同じである。   The above is the processing of the first object detection processing unit 32 in the present embodiment. The items other than those described above are the same as those in the first embodiment.

なお、本発明との対応関係について補足すると、前記撮像画像取得部31は、本発明における撮像画像取得手段に相当する。   In addition, if it supplements about the correspondence with this invention, the said captured image acquisition part 31 is corresponded to the captured image acquisition means in this invention.

また、第1対象物検知処理部32は、本発明における第1対象物種別判定手段としての機能を含んでいる。この場合、第1対象物検知処理部32のSTEP2−3、2−7、2−15、2−18の処理が、本発明における第1判定処理に相当する。   Moreover, the 1st target object detection process part 32 contains the function as a 1st target object classification determination means in this invention. In this case, the processes of STEPs 2-3, 2-7, 2-15, and 2-18 of the first object detection processing unit 32 correspond to the first determination process in the present invention.

また、本実施形態における第2対象物検知処理部33は、前記第1実施形態の場合と同様に、本発明における第2対象物種別判定手段としての機能を含んでいる。この場合、第2対象物検知処理部33のSTEP4−8、4−10の処理が、本発明における第2判定処理に相当する。   Moreover, the 2nd target object detection process part 33 in this embodiment contains the function as a 2nd target object classification determination means in this invention similarly to the case of the said 1st Embodiment. In this case, the processes of STEPs 4-8 and 4-10 of the second object detection processing unit 33 correspond to the second determination process in the present invention.

以上説明した本実施形態によれば、第1実施形態と同様に、検知対象生体の温度が背景の被写体の温度よりも高温である場合及び低温である場合のいずれの場合でも、検知対象生体を検知するようにすることができる。   According to the present embodiment described above, as in the first embodiment, the detection target living body is detected regardless of whether the temperature of the detection target living body is higher or lower than the temperature of the background subject. It can be made to detect.

また、第1実施形態と同様に、第2対象物検知処理部33のSTEP4−5からの処理は、第1対象物検知処理部32の処理によって既に、構造物又車両であると判定された対象物の画像の存在領域を除外して行なわれる。   Similarly to the first embodiment, the process from STEP 4-5 of the second object detection processing unit 33 has already been determined to be a structure or a vehicle by the process of the first object detection processing unit 32. This is performed by excluding the existence area of the image of the object.

このため、第2対象物検知処理部33の処理で種別の判定を行なう対象物を必要最小限に留めるようにして、第2対象物検知処理部33の処理の演算負荷を軽減することができる。   For this reason, the calculation load of the process of the 2nd object detection process part 33 can be reduced by keeping the object which performs classification determination by the process of the 2nd object detection process part 33 to the minimum necessary. .

また、本実施形態では、第1対象物検知処理部32の処理では、STEP2−17の動作条件が成立しない場合(自車両1の周辺に人が居る可能性が極めて低い場合)には、人認識処理は実行されず、該動作条件が成立する場合にだけ人認識処理が実行される。   Further, in the present embodiment, in the process of the first object detection processing unit 32, when the operation condition of STEP2-17 is not satisfied (when it is very unlikely that there is a person around the host vehicle 1), The recognition process is not executed, and the person recognition process is executed only when the operation condition is satisfied.

このため、自車両1の周辺に多くの動物が存在して、動物認識処理の演算負荷が多くなっても、第1対象物検知処理部32のトータルの演算負荷が過大になるのが抑制される。   For this reason, even if there are many animals around the host vehicle 1 and the calculation load of the animal recognition process increases, the total calculation load of the first object detection processing unit 32 is suppressed from being excessive. The

また、STEP2−17の動作条件が成立して、人認識処理を実行する場合であっても、この場合には、自車両1の周辺に多くの動物が存在する可能性は低いので、STEP2−15の動物認識処理における演算負荷は比較的少ないものとなる。従って、この場合でも、第1対象物検知処理部32のトータルの演算負荷が過大になるのが抑制される。   Even if the operation condition of STEP2-17 is established and the person recognition process is executed, in this case, it is unlikely that there are many animals around the host vehicle 1, so STEP2- The calculation load in the 15 animal recognition processing is relatively small. Accordingly, even in this case, the total calculation load of the first object detection processing unit 32 is suppressed from becoming excessive.

従って、第1対象物検知処理部32の演算負荷が過大になるのを防止することができ、ひいては、撮像領域AR0に存在するいずれかの検知対象生体の検知が遅くなるようなことを防止することができる。   Therefore, it is possible to prevent the calculation load of the first object detection processing unit 32 from becoming excessive, and consequently to prevent the detection of any detection target living body existing in the imaging region AR0 from being delayed. be able to.

[変形態様について]
次に、前記第1実施形態あるいは第2実施形態の変形態様を説明する。
[Modification]
Next, a modification of the first embodiment or the second embodiment will be described.

前記第1実施形態では、第1対象物検知処理部32の処理において、STEP2−11の動物検知用の動作条件が成立しない場合に、STEP2−12の動物認識処理を行なわないようにした。ただし、動物検知用の動作条件が成立しない場合に、該動作条件が成立する場合よりも演算量の少ない処理(例えば対象物が動物であると判定する条件を、STEP2−12の動物認識処理よりも緩和した処理、あるいは、動物であるか否かを判定する対象物の撮像画像中での存在位置をSTEP2−12の動物認識処理よりも限定した処理等)によって、対象物が動物であるか否かを判定するようにしてもよい。   In the first embodiment, in the processing of the first object detection processing unit 32, when the operation condition for animal detection of STEP2-11 is not satisfied, the animal recognition processing of STEP2-12 is not performed. However, when the operation condition for animal detection is not satisfied, the processing with a smaller amount of calculation than when the operation condition is satisfied (for example, the condition for determining that the object is an animal is determined from the animal recognition processing in STEP 2-12). Whether or not the object is an animal by a process that has been relaxed, or a process in which the position of the object in the captured image for determining whether or not it is an animal is more limited than the animal recognition process in STEP 2-12). It may be determined whether or not.

また、前記第2実施形態における第1対象物検知処理部32の処理においては、STEP2−17の人検知用の動作条件が成立しない場合に、該動作条件が成立する場合よりも演算量の少ない処理(例えば対象物が人であると判定する条件を、STEP2−18の人認識処理よりも緩和した処理、あるいは、人であるか否かを判定する対象物の撮像画像中での存在位置をSTEP2−18の人物認識処理よりも限定した処理等)によって、対象物が人であるか否かを判定するようにしてもよい。   Further, in the processing of the first object detection processing unit 32 in the second embodiment, when the operation condition for human detection in STEP 2-17 is not satisfied, the amount of calculation is smaller than when the operation condition is satisfied. Processing (for example, processing in which the condition for determining that the object is a person is more relaxed than the human recognition process in STEP 2-18, or the position of the object in the captured image for determining whether the object is a person is determined. It may be determined whether or not the object is a person by a process limited to the person recognition process of STEP 2-18).

また、前記第1実施形態又は第2実施形態における第2対象物検知処理部33の処理において、STEP4−10の人認識処理で人でないと判定された対象物に関して、第1実施形態における第1対象物検知処理部32と同様に、動物検知用の動作条件が成立する場合に、動物認識処理を実行するようにしてもよい。   Further, in the processing of the second object detection processing unit 33 in the first embodiment or the second embodiment, the first object in the first embodiment is related to the object that is determined not to be a person in the person recognition process in STEP 4-10. Similar to the object detection processing unit 32, the animal recognition process may be executed when the animal detection operation condition is satisfied.

また、例えば、第1実施形態又は第2実施形態における第2対象物検知処理部33の処理で、対象物が構造物又は車両であるか否かを判定し得るようにして、第1対象物検知処理部32と第2対象物検知処理部33とのいずれか一方の処理部で、ある対象物が構造物又は車両であると判定された場合に、他方の処理部において、該対象物の画像の存在領域を除外して、対象物の種別を判定する処理を行うようにしてもよい。   Further, for example, in the process of the second object detection processing unit 33 in the first embodiment or the second embodiment, it is possible to determine whether the object is a structure or a vehicle, and the first object When one of the detection processing unit 32 and the second object detection processing unit 33 determines that a certain object is a structure or a vehicle, the other processing unit Processing for determining the type of the target object may be performed by excluding the existence area of the image.

また、前記第1実施形態又は第2実施形態における第2対象物検知処理部33の処理では、反転撮像画像を用いたが、原撮像画像をそのまま用いて、原撮像画像の低輝度領域から対象物を抽出し、その対象物の種別を判定するようにしてもよい。ただし、前記第1実施形態又は第2実施形態のように反転撮像画像を用いることで、第1対象物検知処理部32と第2対象物検知処理部33との多くの処理のプログラムを共通化することができる。ひいては、対象物監視装置10の設計コストを低減できる。   Further, in the processing of the second object detection processing unit 33 in the first embodiment or the second embodiment, the inverted captured image is used. However, the original captured image is used as it is, and the target is detected from the low luminance region of the original captured image. An object may be extracted and the type of the object may be determined. However, by using the reverse captured image as in the first embodiment or the second embodiment, a program for many processes of the first object detection processing unit 32 and the second object detection processing unit 33 is shared. can do. As a result, the design cost of the object monitoring apparatus 10 can be reduced.

また、前記第1実施形態又は第2実施形態において、第1対象物検知処理部32と第2対象物検知処理部33とで異なる種類の対象物の種別を判定し得るようにしてもよい。   In the first embodiment or the second embodiment, the first object detection processing unit 32 and the second object detection processing unit 33 may determine different types of objects.

また、前記第1実施形態又は第2実施形態では、赤外線カメラ11が車両1に搭載された場合を例にとって説明したが、赤外線カメラ11は、道路又は施設の入口等(赤外線カメラにより生体等を監視しようとする任意の箇所)に設置されたものであってもよい。   Further, in the first embodiment or the second embodiment, the case where the infrared camera 11 is mounted on the vehicle 1 has been described as an example. However, the infrared camera 11 may be a road or an entrance of a facility (such as a living body using an infrared camera). It may be installed at any location to be monitored).

1…車両、10…対象物監視装置、11…赤外線カメラ、31…撮像画像取得部(撮像画像取得手段)、32…第1対象物検知部(第1対象物種別判定手段)、33…第2対象物検知部(第2対象物種別判定手段)。   DESCRIPTION OF SYMBOLS 1 ... Vehicle, 10 ... Object monitoring apparatus, 11 ... Infrared camera, 31 ... Captured image acquisition part (captured image acquisition means), 32 ... 1st object detection part (1st object type determination means), 33 ... 1st 2 object detection part (2nd object classification determination means).

Claims (4)

赤外線カメラの撮像領域に存在する対象物の種別を判定する機能を有する対象物監視装置であって、
前記赤外線カメラの撮像領域に存在する任意の対象物と該対象物の背景との間の温度差に応じて該対象物の画像の輝度が変化する特性であって、該背景よりも該対象物の温度が高いほど対象物の画像の輝度が高くなり、且つ、該背景よりも該対象物の温度が低いほど対象物の画像の輝度が低くなるという特性を有する撮像画像を前記赤外線カメラを用いて取得する撮像画像取得手段と、
前記撮像画像において所定の第1閾値以上の輝度を有する高輝度領域から、種別の判定を行なう対象物である種別判定対象物の画像を抽出して、該種別判定対象物の画像に基づいて該種別判定対象物の種別を判定する第1判定処理を実行する第1対象物種別判定手段と、
前記撮像画像において所定の第2閾値以下の輝度を有する低輝度領域から、前記種別判定対象物の画像を抽出して、該種別判定対象物の画像に基づいて該種別判定対象物の種別を判定する第2判定処理を実行する第2対象物種別判定手段とを備え、
前記第1対象物種別判定手段と第2対象物種別判定手段とのうちの少なくとも一方の手段は、前記撮像画像における前記高輝度領域及び低輝度領域のうちの当該一方の手段に対応する領域から、他方の手段によって種別が既に判定された種別判定対象物の画像が存在する部分領域を除外した領域において前記第1判定処理又は第2判定処理を実行するように構成されていることを特徴とする対象物監視装置。
An object monitoring apparatus having a function of determining the type of an object existing in an imaging area of an infrared camera,
The brightness of an image of the object changes according to a temperature difference between an arbitrary object existing in the imaging region of the infrared camera and the background of the object, and the object is more than the background. Using the infrared camera, a captured image having characteristics that the higher the temperature of the object, the higher the brightness of the image of the object, and the lower the temperature of the object than the background, the lower the brightness of the image of the object. Captured image acquisition means for acquiring
In the captured image, an image of a type determination target object, which is a target for performing type determination, is extracted from a high luminance region having a luminance equal to or higher than a predetermined first threshold, and based on the image of the type determination target First object type determination means for executing a first determination process for determining the type of the type determination object;
An image of the type determination target object is extracted from a low luminance region having a luminance equal to or lower than a predetermined second threshold in the captured image, and the type of the type determination target object is determined based on the image of the type determination target object Second object type determination means for executing a second determination process to perform,
At least one of the first object type determination unit and the second object type determination unit is an area corresponding to the one of the high luminance region and the low luminance region in the captured image. The first determination process or the second determination process is performed in an area excluding a partial area in which an image of a type determination target object whose type has already been determined by the other means is present. Object monitoring device.
請求項1記載の対象物監視装置において、
前記第1判定処理及び第2判定処理の両判定処理は、前記種別判定対象物が所定種類の生体であるか否かを前記種別判定対象物の画像に基づいて判定する処理をそれぞれ含んでおり、前記第2対象物種別判定手段は、外気温が所定温度以上の高温であるか、又は降雨時であるという環境条件が成立することを必要条件として、前記種別判定対象物が所定種類の生体であるか否かを判定する処理を実行するように構成され、前記第1対象物種別判定手段は、前記環境条件が成立するか否かによらずに、前記種別判定対象物が所定種類の生体であるか否かを判定する処理を実行するように構成されていることを特徴とする対象物監視装置。
The object monitoring device according to claim 1,
Both the determination processes of the first determination process and the second determination process include a process of determining whether or not the type determination object is a predetermined type of living body based on an image of the type determination object. The second object type determining means determines that the type determining object is a predetermined type of living body on the condition that an environmental condition that the outside air temperature is higher than a predetermined temperature or is raining is satisfied. The first object type determination means is configured to execute a process for determining whether or not the type determination object is a predetermined type regardless of whether or not the environmental condition is satisfied. An object monitoring apparatus configured to execute a process of determining whether or not a living body.
請求項2記載の対象物監視装置において、
前記第1判定処理及び第2判定処理の両判定処理は、前記種別判定対象物が前記所定種類の生体としての人であるか否かを前記種別判定対象物の画像に基づいて判定する人認識処理をそれぞれ含んでおり、
前記第1判定処理及び第2判定処理のうちの第1判定処理又は両判定処理は、少なくとも所定の動作条件が成立する場合に、前記種別判定対象物が人以外の動物であるか否かを該種別判定対象物の画像に基づいて判定する動物認識処理をさらに含んでおり、
前記第1対象物種別判定手段及び第2対象物種別判定手段のうち、前記動物認識処理を含む判定処理を実行する各判定手段は、前記第1対象物種別判定手段及び第2対象物種別判定手段の両判定手段による前記人認識処理の実行によって人であると判定された種別判定対象物の総個数が所定数未満である場合、又は前記赤外線カメラが搭載された車両の走行中の場所が市街地でないと判断される場合に、前記所定の動作条件が成立するものとして、前記動物認識処理を実行し、前記人であると判定された種別判定対象物の総個数が所定数以上である場合、又は前記車両の走行中の場所が市街地であると判断される場合に、前記動物認識処理を実行することを省略するか、又は、前記所定の動作条件が成立する場合よりも演算量が軽減される処理によって前記種別判定対象物が人以外の動物であるか否かを判定するように構成されていることを特徴とする対象物監視装置。
The object monitoring device according to claim 2,
In both the first determination process and the second determination process, the person recognition that determines whether or not the type determination object is a person as the predetermined type of living body based on the image of the type determination object. Each includes processing,
The first determination process or both determination processes of the first determination process and the second determination process determine whether or not the type determination object is an animal other than a human when at least a predetermined operation condition is satisfied. An animal recognition process for determining based on an image of the type determination object,
Of the first object type determination means and the second object type determination means, each determination means for executing a determination process including the animal recognition process includes the first object type determination means and the second object type determination When the total number of type determination objects determined to be a person by execution of the person recognition process by both determination means of the means is less than a predetermined number, or the place where the vehicle equipped with the infrared camera is running is When it is determined that the vehicle is not an urban area, the animal recognition process is executed and the total number of type determination objects determined to be the person is greater than or equal to a predetermined number, assuming that the predetermined operation condition is satisfied Or, when it is determined that the place where the vehicle is traveling is an urban area, the execution of the animal recognition process is omitted, or the calculation amount is reduced as compared with the case where the predetermined operation condition is satisfied. Where Object monitoring apparatus characterized by being configured such that the type determination object to determine whether an animal other than humans by.
請求項2記載の対象物監視装置において、
前記第1判定処理及び第2判定処理の両判定処理は、少なくとも所定の動作条件が成立する場合に、前記種別判定対象物が前記所定種類の生体としての人であるか否かを該種別判定対象物の画像に基づいて判定する人認識処理をそれぞれ含んでおり、
前記第1判定処理及び第2判定処理のうちの第1判定処理又は両判定処理は、前記種別判定対象物が人以外の動物であるか否かを該種別判定対象物の画像に基づいて判定する動物認識処理をさらに含んでおり、
前記第1対象物種別判定手段及び第2対象物種別判定手段の両判定手段は、前記第1対象物種別判定手段及び第2対象物種別判定手段のうち、前記動物検知処理を含む判定処理を実行する各判定手段による該動物検知処理の実行によって前記動物であると判定された種別判定対象物の総個数が所定数未満である場合に、前記所定の動作条件が成立するものとして、前記人認識処理を実行し、前記動物であると判定された種別判定対象物の総個数が所定数以上である場合に、前記人認識処理を実行することを省略するか、又は、前記所定の動作条件が成立する場合よりも演算量が軽減される処理によって前記種別判定対象物が人であるか否かを判定するように構成されていることを特徴とする対象物監視装置。
The object monitoring device according to claim 2,
Both the first determination process and the second determination process determine whether the type determination target is a person as the predetermined type of living body at least when a predetermined operation condition is satisfied. Each includes human recognition processing to determine based on the image of the object,
The first determination process or both determination processes of the first determination process and the second determination process determine whether the type determination target object is an animal other than a person based on the image of the type determination target object. Further comprising animal recognition processing to
Both determination means of the first object type determination means and the second object type determination means include a determination process including the animal detection process among the first object type determination means and the second object type determination means. When the total number of type determination objects determined to be the animal by execution of the animal detection process by each determination means to be executed is less than a predetermined number, the predetermined operation condition is satisfied, If the total number of type determination objects determined to be animals is a predetermined number or more, execution of the recognition process is omitted, or the predetermined operating condition is An object monitoring apparatus configured to determine whether or not the type determination object is a person by a process in which the amount of calculation is reduced as compared with the case where the above is established.
JP2012199215A 2012-09-11 2012-09-11 Vehicle periphery monitoring equipment Pending JP2014056295A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012199215A JP2014056295A (en) 2012-09-11 2012-09-11 Vehicle periphery monitoring equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012199215A JP2014056295A (en) 2012-09-11 2012-09-11 Vehicle periphery monitoring equipment

Publications (1)

Publication Number Publication Date
JP2014056295A true JP2014056295A (en) 2014-03-27

Family

ID=50613581

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012199215A Pending JP2014056295A (en) 2012-09-11 2012-09-11 Vehicle periphery monitoring equipment

Country Status (1)

Country Link
JP (1) JP2014056295A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016051442A (en) * 2014-09-02 2016-04-11 任天堂株式会社 Image processing program, information processing system, information processing device, and image processing method
JPWO2018003532A1 (en) * 2016-06-29 2019-05-16 京セラ株式会社 Object detection display device, moving object and object detection display method
US10348983B2 (en) 2014-09-02 2019-07-09 Nintendo Co., Ltd. Non-transitory storage medium encoded with computer readable image processing program, information processing system, information processing apparatus, and image processing method for determining a position of a subject in an obtained infrared image
JP2022036726A (en) * 2020-08-24 2022-03-08 トヨタ自動車株式会社 Object detector, object detection method, and computer program for object detection
JP2023048558A (en) * 2021-09-28 2023-04-07 東京瓦斯株式会社 Deterioration detection system of wind turbine generator, deterioration detection device, and program
WO2024063133A1 (en) * 2022-09-22 2024-03-28 ヌヴォトンテクノロジージャパン株式会社 Object detection method, program, and object detection system

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016051442A (en) * 2014-09-02 2016-04-11 任天堂株式会社 Image processing program, information processing system, information processing device, and image processing method
US10348983B2 (en) 2014-09-02 2019-07-09 Nintendo Co., Ltd. Non-transitory storage medium encoded with computer readable image processing program, information processing system, information processing apparatus, and image processing method for determining a position of a subject in an obtained infrared image
JPWO2018003532A1 (en) * 2016-06-29 2019-05-16 京セラ株式会社 Object detection display device, moving object and object detection display method
US11195026B2 (en) 2016-06-29 2021-12-07 Kyocera Corporation Object detection and display apparatus, moveable body, and object detection and display method
JP2022036726A (en) * 2020-08-24 2022-03-08 トヨタ自動車株式会社 Object detector, object detection method, and computer program for object detection
JP7276282B2 (en) 2020-08-24 2023-05-18 トヨタ自動車株式会社 OBJECT DETECTION DEVICE, OBJECT DETECTION METHOD AND COMPUTER PROGRAM FOR OBJECT DETECTION
JP2023048558A (en) * 2021-09-28 2023-04-07 東京瓦斯株式会社 Deterioration detection system of wind turbine generator, deterioration detection device, and program
WO2024063133A1 (en) * 2022-09-22 2024-03-28 ヌヴォトンテクノロジージャパン株式会社 Object detection method, program, and object detection system

Similar Documents

Publication Publication Date Title
JP4173901B2 (en) Vehicle periphery monitoring device
JP5809751B2 (en) Object recognition device
JP6424263B2 (en) Apparatus and method for moving object collision warning of large vehicle
US8976040B2 (en) Intelligent driver assist system based on multimodal sensor fusion
JP4456086B2 (en) Vehicle periphery monitoring device
JP5639283B2 (en) Vehicle periphery monitoring device
JP5639282B2 (en) Vehicle periphery monitoring device
US8766816B2 (en) System for monitoring the area around a vehicle
JP4173902B2 (en) Vehicle periphery monitoring device
JP5774770B2 (en) Vehicle periphery monitoring device
JP2014056295A (en) Vehicle periphery monitoring equipment
JP4528283B2 (en) Vehicle periphery monitoring device
JP5480925B2 (en) Vehicle periphery monitoring device
JP2007293627A (en) Periphery monitoring device for vehicle, vehicle, periphery monitoring method for vehicle and periphery monitoring program for vehicle
JP2007241898A (en) Stopping vehicle classifying and detecting device and vehicle peripheral monitoring device
JP2007304033A (en) Monitoring device for vehicle periphery, vehicle, vehicle peripheral monitoring method, and program for vehicle peripheral monitoring
KR101667835B1 (en) Object localization using vertical symmetry
WO2013047088A1 (en) Biometric device
Tang et al. Real-time lane detection and rear-end collision warning system on a mobile computing platform
CN108482367A (en) A kind of method, apparatus and system driven based on intelligent back vision mirror auxiliary
WO2010007718A1 (en) Vehicle vicinity monitoring device
KR20120086577A (en) Apparatus And Method Detecting Side Vehicle Using Camera
JP2008077154A (en) Vehicle periphery supervision unit
JP5345992B2 (en) Vehicle periphery monitoring device
JP5785515B2 (en) Pedestrian detection device and method, and vehicle collision determination device