JP2009042098A - Object detector of image processing type - Google Patents

Object detector of image processing type Download PDF

Info

Publication number
JP2009042098A
JP2009042098A JP2007207973A JP2007207973A JP2009042098A JP 2009042098 A JP2009042098 A JP 2009042098A JP 2007207973 A JP2007207973 A JP 2007207973A JP 2007207973 A JP2007207973 A JP 2007207973A JP 2009042098 A JP2009042098 A JP 2009042098A
Authority
JP
Japan
Prior art keywords
image
external light
luminance
detection target
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007207973A
Other languages
Japanese (ja)
Inventor
Yusuke Yamanaka
雄介 山中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokai Rika Co Ltd
Original Assignee
Tokai Rika Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokai Rika Co Ltd filed Critical Tokai Rika Co Ltd
Priority to JP2007207973A priority Critical patent/JP2009042098A/en
Publication of JP2009042098A publication Critical patent/JP2009042098A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an object detector of image processing type performing object detection using a photographed image obtained from an imaging apparatus, wherein even if a detection object receives external light, the object detection then is performed accurately. <P>SOLUTION: An illumination device 6 intermittently irradiates the detection object 1 with artificial lighting. A camera 5 photographs an image without floodlight during a period, when the illumination device 6 does not irradiate the detection object 1 with the artificial lighting, and photographs an image with floodlight during a period, when the illumination device 6 irradiates the detection object 1 with the artificial lighting. A controller 3 derives a floodlight differential image that is the difference between the image without floodlight and the image with floodlight; calculates a correction image in which luminance unevenness that may arise in the photographed image, when a part of the detection object 1 receives the external light 10 is suppressed low, by using the image without floodlight or the floodlight differential image; and performs processing for successively extracting the detection object 1 from the correction image, each time a photographed image is acquired. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、カメラ等の撮像機器から得た撮影画像を用い、その撮影画像に映り込んだ特定画像を抽出する画像処理により物体検出を行う画像処理式物体検出装置に関する。   The present invention relates to an image processing type object detection apparatus that uses a captured image obtained from an imaging device such as a camera and performs object detection by image processing that extracts a specific image reflected in the captured image.

従来、カメラ等の撮像機器で画像撮影を行い、その時に得た撮影画像に映り込んだ特定画像を抽出する画像処理によって特定の検出対象を検出する画像処理式物体検出装置がある。この種の画像処理式物体検出装置には種々のものがあるが、その一種としては、図8に示す画像処理式物体検出装置81のように、検出対象82を照明装置83で照射しない時の画像(以下、非投光画像84と記す)をカメラ85で取り込み、更に検出対象82を照明装置83で照射した時の画像(以下、投光画像86と記す)をカメラ85で取り込み、これら2画像84,86間の差分である投光差分画像87を抽出して、この投光差分画像87から検出対象82を検出する画像差分式がある。   2. Description of the Related Art Conventionally, there is an image processing type object detection device that detects a specific detection target by performing image processing with an imaging device such as a camera and extracting a specific image reflected in a captured image obtained at that time. There are various types of this type of image processing type object detection device. One type of the image processing type object detection device is when the detection target 82 is not illuminated by the illumination device 83 as in the image processing type object detection device 81 shown in FIG. An image (hereinafter referred to as a non-projected image 84) is captured by the camera 85, and an image (hereinafter referred to as a projected image 86) when the detection target 82 is illuminated by the illumination device 83 is captured by the camera 85. There is an image difference formula that extracts a light projection difference image 87 that is a difference between the images 84 and 86 and detects a detection target 82 from the light projection difference image 87.

この種の画像差分式では、カメラ85は検出対象82のみならずその背景88にも亘って全体に画像撮影を行っている。ところで、照明装置83は検出対象82を照らし出す目的で配置することから、検出対象82と照明装置83との間の距離が照明装置83と背景88との間の距離よりも短い距離となることは必然である。よって、照明装置83から検出対象82に至る光量は、照明装置83から背景88に至る光量に比べて多くなり、照明装置83が検出対象82及びその背景88を照射した際には、結果として検出対象82が背景88に比べて明るく照射される。このため、投光差分画像87は、検出対象82に対応する箇所において輝度差分が大きくなることから、この輝度差分が閾値以上となる画像領域を検出対象82が映り込んだ検出対象画像89として認識し、この画像89を検出対象82として抽出することで物体検出を行っている。   In this type of image difference formula, the camera 85 captures an image not only on the detection target 82 but also on the background 88 thereof. By the way, since the illumination device 83 is arranged for the purpose of illuminating the detection target 82, the distance between the detection target 82 and the illumination device 83 is shorter than the distance between the illumination device 83 and the background 88. Is inevitable. Therefore, the amount of light from the lighting device 83 to the detection target 82 is larger than the amount of light from the lighting device 83 to the background 88, and when the lighting device 83 irradiates the detection target 82 and the background 88, detection is performed as a result. The object 82 is illuminated brighter than the background 88. For this reason, since the brightness difference of the projection difference image 87 becomes large at a location corresponding to the detection target 82, an image region in which the brightness difference is equal to or greater than a threshold is recognized as a detection target image 89 in which the detection target 82 is reflected. Then, the object detection is performed by extracting the image 89 as the detection target 82.

このように、画像差分式の画像処理式物体検出装置81では、カメラ85や照明装置83から遠い場所に位置する背景88が画像上から簡単に除去されることになるので、撮影画像の中で検出対象82として映り込んだ検出対象画像89のみを容易に抽出することが可能となる。よって、この種の画像差分式を用いた物体検出方式は、カメラ85で取り込んだ画像データを用いて物体検出を行う際の検出方式として広く利用されている。なお、この種の画像差分式の画像処理物体式検出装置の一例は、例えば特許文献1等に開示されている。
特開平9−259278号公報
In this manner, in the image difference type image processing type object detection device 81, the background 88 located far from the camera 85 and the illumination device 83 is easily removed from the image, so that the image is not included in the captured image. Only the detection target image 89 reflected as the detection target 82 can be easily extracted. Therefore, an object detection method using this kind of image difference formula is widely used as a detection method when performing object detection using image data captured by the camera 85. An example of this type of image difference type image processing object type detection device is disclosed in, for example, Japanese Patent Application Laid-Open No. H10-228707.
Japanese Patent Laid-Open No. 9-259278

ところで、カメラ85の撮影対象物である検出対象82は、照明装置83からだけでなく例えば図9に示すように、太陽光等の外部光90によって照らされる場合もあり、この外部光90の強さや照射角度の度合いによっては、検出対象82の一部分に強い外部光90が当たる状況になることも想定される。このように、検出対象82に対して部分的に強い外部光90が照射されると、図10に示すように、非投光画像84に映り込む検出対象82aには、外部光90が照射されて相対的に輝度が高くなった部位(以下、外部光照射部91と記す)の輝度(濃度値)が、外部光90が照射されない相対的に輝度が低くなった部位(以下、外部光非照射部92と記す)とが生じる。   By the way, the detection target 82 that is the object to be photographed by the camera 85 may be illuminated not only by the illumination device 83 but also by external light 90 such as sunlight as shown in FIG. Depending on the degree of the sheath irradiation angle, it may be assumed that a strong external light 90 hits a part of the detection target 82. As described above, when the external light 90 that is partially strong is irradiated to the detection target 82, the external light 90 is irradiated to the detection target 82 a that appears in the non-projected image 84 as shown in FIG. 10. The luminance (concentration value) of the portion where the luminance is relatively high (hereinafter referred to as the external light irradiation unit 91) is the portion where the luminance is relatively low where the external light 90 is not irradiated (hereinafter, the external light non-existing portion). This will be referred to as the irradiation unit 92).

また、同じく図10に示すように、照明装置83で検出対象82を人工照明した際に得られる投光画像86は、外部光照射部91よりも外部光非照射部92の方が、増加量が大きく輝度が増す特性がある。即ち、外部光照射部91における非投光画像84と投光画像86との間の輝度の変化量と、外部光非照射部92における非投光画像84と投光画像86との間の輝度の変化量とを見比べた場合、外部光非照射部92の輝度変化量の方が、外部光照射部91の輝度変化量に比べて大きくなる。これは、例えば暗い箇所にわずかな光を当てた場合、元々が暗い状況であれば少量の光でも明るく見え、一方で明るい箇所に光を当てても、その箇所では明るさの増加が鈍く感じる現象からも分かる。   Similarly, as shown in FIG. 10, the projected image 86 obtained when the detection target 82 is artificially illuminated by the illumination device 83 is increased in the external light non-irradiation unit 92 than in the external light irradiation unit 91. Has a characteristic of increasing brightness. That is, the amount of change in luminance between the non-projected image 84 and the projected image 86 in the external light irradiation unit 91 and the luminance between the non-projected image 84 and the projected image 86 in the external light non-irradiated unit 92. When comparing with the amount of change of the external light, the luminance change amount of the external light non-irradiation unit 92 is larger than the luminance change amount of the external light irradiation unit 91. This is because, for example, when a small amount of light is applied to a dark place, it looks bright even with a small amount of light if it is originally dark, and on the other hand, even if a light is applied to a bright place, the increase in brightness feels dull. It can be seen from the phenomenon.

ところで、画像処理式物体検出装置81で画像差分式を使用した場合には、撮影画像からの物体検出に際して非投光画像84と投光画像86との間の投光差分画像87を求めて物体検出を行っているが、この投光差分画像87は2画像84,86間の単なる差分であることから、投光差分画像87も、画像84,86と同様に外部光90の影響を受けた画像となってしまう。即ち、図10に示すように、投光差分画像87に映り込む検出対象82cでは、外部光90が照射されている外部光照射部91が、外部光90が照射されていない外部光非照射部92よりも輝度(濃度値)が低い値をとることになり、投光差分画像87も一画像上において輝度が不均一となる。こうなると、外部光90の有無で検出対象82の検出結果が異なる状況に陥るので、単なる画像差分をとる方式では物体検出を精度良く行うことができない問題があった。   By the way, when an image difference formula is used in the image processing type object detection device 81, a projection difference image 87 between the non-projection image 84 and the projection image 86 is obtained when detecting an object from the photographed image. Although the detection is performed, the light projection difference image 87 is a simple difference between the two images 84 and 86, and thus the light projection difference image 87 is also affected by the external light 90 in the same manner as the images 84 and 86. It becomes an image. That is, as illustrated in FIG. 10, in the detection target 82 c reflected in the light projection difference image 87, the external light irradiation unit 91 irradiated with the external light 90 is not irradiated with the external light 90. The luminance (density value) is lower than 92, and the brightness difference image 87 also has nonuniform luminance on one image. In this case, the detection result of the detection target 82 is different depending on the presence or absence of the external light 90, so that there is a problem that the object detection cannot be performed with high accuracy by the method of taking a simple image difference.

本発明の目的は、撮影機器から得た撮影画像を用いて物体検出を行うに際して、例えば仮に検出対象が外部光を受けたとしてもその時の物体検出を精度良く行うことができる画像処理式物体検出装置を提供することにある。   An object of the present invention is to perform object detection using a photographed image obtained from a photographing device. For example, even if a detection target receives external light, the object detection at that time can be performed with high accuracy. To provide an apparatus.

前記問題点を解決するために、本発明では、少なくとも検出対象を撮影手段で撮影可能であり、その撮影時において少なくとも前記検出対象を照明手段で照明可能であり、前記照明手段で前記検出対象を照明していない時に前記撮影手段が撮影した非投光画像と、前記照明手段で前記検出対象を照明した時の前記撮影手段が撮影した投光画像とを連続的に取得し、前記非投光画像と前記投光画像との差分である投光差分画像を用いて前記検出対象を前記撮影画像から検出する画像処理式物体検出装置において、前記撮影手段により撮影される前記撮影画像と、当該撮影画像から導出される前記投光差分画像とを用いて、前記撮影手段の被写体である前記検出対象の一部分に外部光が部分照射されていても、撮影画像において当該外部光に起因する輝度不均一さが低く抑えられた補正画像を作成する補正画像作成手段と、前記補正画像作成手段により作成された前記補正画像から前記検出対象に対応する画像領域を抽出することにより前記検出対象を前記撮影画像から検出する抽出手段とを備えたことを要旨とする。   In order to solve the above problems, in the present invention, at least the detection target can be photographed by the photographing means, and at the time of photographing, at least the detection target can be illuminated by the illumination means, and the detection means is defined by the illumination means. The non-light-projecting image captured by the photographing means when not illuminated and the light-projected image photographed by the photographing means when the detection target is illuminated by the illumination means are continuously acquired, and the non-light-projecting In the image processing type object detection device that detects the detection target from the captured image using a projected difference image that is a difference between the image and the projected image, the captured image captured by the capturing unit, and the captured image Even if external light is partially irradiated to a part of the detection target that is a subject of the photographing unit using the light projection difference image derived from the image, it is caused by the external light in the photographed image. A corrected image creating means for creating a corrected image with reduced brightness non-uniformity, and the detection target by extracting an image area corresponding to the detection target from the corrected image created by the corrected image creating means And extracting means for detecting from the photographed image.

この構成によれば、撮影手段が検出対象を撮影するに際し、照明手段は検出対象への人工照明のオンオフを交互に行い、撮影手段は照明手段が検出対象を人工照明しない時に検出対象を撮影することで非投光画像を撮影するとともに、照明手段が検出対象を人工照明した時に検出対象を撮影することで投光画像を撮影する。このとき、補正画像作成手段は、撮影手段が撮影した撮影画像(例えば非投光画像)と、非投光画像及び投光画像の差分である投光差分画像とを用いて、撮影手段の被写体である検出対象の一部分に外部光が部分照射されていても、撮影画像においてこの影響が低く抑えられた補正画像を作成する。そして、抽出手段は、この補正画像から検出対象に対応する画像領域を切り出すことにより、撮影手段の撮影画像の中から検出対象を検出する。   According to this configuration, when the imaging unit captures the detection target, the illumination unit alternately turns on and off the artificial illumination on the detection target, and the imaging unit captures the detection target when the illumination unit does not artificially illuminate the detection target. Thus, the non-projected image is captured, and the projected image is captured by capturing the detection target when the illumination unit artificially illuminates the detection target. At this time, the corrected image creating means uses the photographed image (for example, a non-projected image) photographed by the photographing means and a projected difference image that is a difference between the non-projected image and the projected image. Even if a part of the detection target is partially irradiated with external light, a corrected image in which this influence is suppressed to be low in the captured image is created. Then, the extraction unit detects the detection target from the photographed image of the photographing unit by cutting out an image region corresponding to the detection target from the corrected image.

このため、本構成のように撮影手段の撮影画像から検出対象を検出する検出手法をとる場合、撮影手段により取り込まれた撮影画像は、撮影手段の被写体である検出対象の一部分に例えば仮に太陽光等の外部光が部分照射されていたとしても、補正画像処理手段が撮影画像に画像処理を加えることにより、この外部光照射を起因とする撮影画像の輝度不均一さを低く抑えた補正画像に補正される。よって、撮影手段が撮影した撮影画像には検出対象が輝度不均一さの少ない状態で映り出す状態となり、撮影手段の撮影画像から検出対象を検出するに際してこれを精度良く行うことが可能となる。   For this reason, when the detection method for detecting the detection target from the captured image of the imaging unit as in the present configuration is taken, the captured image captured by the imaging unit is assumed to be, for example, sunlight on a part of the detection target that is the subject of the imaging unit. Even if the external light is partially irradiated, the corrected image processing means adds image processing to the captured image, thereby reducing the brightness non-uniformity of the captured image due to the external light irradiation to a corrected image. It is corrected. Therefore, the detection target appears in the captured image captured by the capturing unit with less uneven brightness, and this can be accurately performed when detecting the detection target from the captured image of the capturing unit.

本発明では、前記補正画像作成手段は、前記非投光画像の中で前記外部光が映り出た画像領域である外部光照射部の輝度と該外部光が映り出ていない画像領域である外部光非照射部の輝度との間の差と、前記投光差分画像の中で前記外部光が映り出た画像領域である外部光照射部の輝度と該外部光が映り出ていない画像領域である外部光非照射部の輝度との間の差とを除算することにより、前記外部光に起因する撮影画像上の輝度不均一さを抑え得る定数を求め、前記投光差分画像の一画素に前記定数を乗算してこれを該一画素に対応する前記非投光画像の一画素に加えることを前記撮影画像の各々の画素ごとに行って、これら画素群から成る画像を前記補正画像として作成することを要旨とする。   In the present invention, the corrected image creating means includes the luminance of the external light irradiation unit that is an image region in which the external light is reflected in the non-projected image and an external image that is an image region in which the external light is not reflected. The difference between the luminance of the light non-irradiation part and the luminance of the external light irradiation part which is the image area in which the external light is reflected in the projection difference image and the image area in which the external light is not reflected By dividing the difference between the brightness of a certain external light non-irradiated portion and obtaining a constant that can suppress the brightness non-uniformity on the photographed image due to the external light, one pixel of the projected difference image Multiplying the constant and adding this to one pixel of the non-projected image corresponding to the one pixel is performed for each pixel of the photographed image, and an image composed of these pixel groups is created as the corrected image The gist is to do.

この構成によれば、補正画像の作成に必要な定数は、各種画像間の輝度の差を求めてこの輝度差を除算することで算出され、この補正値を用いて導出される補正画像は、投光差分画像の一画素に定数を乗算してこれを該一画素に対応する非投光画像の一画素に加えることを各々の画素ごとに行うことによって作成される。従って、補正画像の作成は、各種数値を加減乗除するという簡単な計算により行うことが可能となる。   According to this configuration, the constant necessary for creating the corrected image is calculated by calculating the luminance difference between the various images and dividing this luminance difference, and the corrected image derived using this correction value is: It is created by multiplying one pixel of the projected difference image by a constant and adding this to one pixel of the non-projected image corresponding to the one pixel for each pixel. Therefore, the correction image can be created by a simple calculation of adding, subtracting, and dividing various numerical values.

本発明では、前記輝度は、それぞれ対応する前記照射部の画像領域において前記撮影手段の各検出単位が出力する輝度の平均値であることを要旨とする。
この構成によれば、各種画像の中の各々対応する照射部(外部光照射部、外部光非照射部)の画像領域の輝度平均を算出しつつこの輝度平均を用いて定数を算出するので、外部光照射部や外部光非照射部が持つ輝度をより正確に導出することが可能である。よって、このように高特性を持つ定数を用いて補正画像を作成すれば、この補正画像の精度をより高いものとすることが可能となり、撮影手段の撮影画像から検出対象を検出する際の検出精度をより一層向上することが可能となる。
The gist of the present invention is that the luminance is an average value of luminance output by each detection unit of the photographing unit in the corresponding image area of the irradiation unit.
According to this configuration, while calculating the luminance average of the image area of the corresponding irradiation unit (external light irradiation unit, external light non-irradiation unit) in various images, the constant is calculated using this luminance average, It is possible to derive the luminance of the external light irradiation unit and the external light non-irradiation unit more accurately. Therefore, if a corrected image is created using constants having high characteristics in this way, the accuracy of the corrected image can be made higher, and detection when detecting a detection target from the captured image of the imaging means. The accuracy can be further improved.

本発明によれば、撮影機器から得た撮影画像を用いて物体検出を行うに際して、例えば仮に検出対象が外部光を受けたとしてもその時の物体検出を精度良く行うことができる。   According to the present invention, when performing object detection using a photographed image obtained from a photographing device, for example, even if the detection target receives external light, the object detection at that time can be accurately performed.

以下、本発明を具体化した画像処理式物体検出装置の一実施形態を図1〜図7に従って説明する。
図1に示すように、例えば車両運転者等の検出対象1を検出する一検出装置として、撮像機器が撮影した撮影画像から検出対象1そのものや或いはその動き等を検出する画像処理式物体検出装置2がある。画像処理式物体検出装置2には、この画像処理式物体検出装置2を統括制御するコントロールユニットとして働くコントローラ3と、検出対象1及びその背景4を撮影可能なカメラ5と、検出対象1及びその背景4を照射可能な照明装置6とが設けられている。なお、カメラ5が撮影手段に相当し、照明装置6が照明手段に相当する。
Hereinafter, an embodiment of an image processing type object detection apparatus embodying the present invention will be described with reference to FIGS.
As shown in FIG. 1, for example, as a detection device for detecting a detection target 1 such as a vehicle driver, an image processing type object detection device for detecting the detection target 1 itself or its movement from a captured image taken by an imaging device. There are two. The image processing type object detection device 2 includes a controller 3 that functions as a control unit that performs overall control of the image processing type object detection device 2, a camera 5 that can photograph the detection target 1 and its background 4, and the detection target 1 and its An illumination device 6 capable of irradiating the background 4 is provided. The camera 5 corresponds to the photographing unit, and the lighting device 6 corresponds to the lighting unit.

カメラ5は、検出対象1を画像認識すべく検出対象1から出た光がレンズ7を通して撮像面8に結像し、その撮像面8における明るさ度合いを電気信号に変換して出力する。カメラ5は、撮像面8の箇所に並設された複数のイメージセンサ9,9…を持つとともに、これらイメージセンサ9,9…の1つひとつの各画素が検出単位として働いて、検出した光の輝度に応じた値を持つ電気信号を画像データDpcとして出力する。カメラ5がカラー式の場合には、プリズムで光をRGBに分ける3板式や、1つのイメージセンサ9,9…ごとにカラーフィルタを並べる単板式等がある。また、カメラ5は、映像出力方式として画像データDpcの出力形式がアナログ信号であるアナログビデオ出力方式となっている。   The camera 5 forms an image on the imaging surface 8 through the lens 7 so that the light emitted from the detection target 1 is recognized in order to recognize the image of the detection target 1, and converts the brightness level on the imaging surface 8 into an electrical signal and outputs the electrical signal. The camera 5 has a plurality of image sensors 9, 9... Arranged in parallel at the location of the imaging surface 8, and each pixel of the image sensors 9, 9. An electric signal having a value corresponding to the luminance of the image is output as image data Dpc. When the camera 5 is a color type, there are a three-plate type in which light is divided into RGB by a prism, a single-plate type in which color filters are arranged for each of the image sensors 9, 9. The camera 5 is an analog video output method in which the output format of the image data Dpc is an analog signal as a video output method.

カメラ5は、図2に示すようにコントローラ3から撮影要求信号Skpを入力すると、その信号入力タイミングをシャッタタイミングとして画像撮影を行ってその撮影画像Picをコントローラ3に出力し、撮影要求信号Skpを入力する度に画像撮影及びその撮影画像出力を行って、撮影画像Picを連続的に出力することにより動画信号Sdpをコントローラ3に出力する。なお、撮影画像Picというのは、画像データDpcを画面表示した際の1枚の画像として表現された画像データDpc群のことを便宜上言うことにする。ところで、単位時間当たりに撮影要求信号Skpが多パルスでコントローラ3からカメラ5に出力されれば、カメラ5は短い間隔で撮影画像Picをコントローラ3に出力することになるので、この時間間隔Wを短くすればするほど単位時間内における撮影画像数が多くなり、動画をより連続的な映像で得ることが可能である。なお、この時間間隔Wは最小の値が一般的に決まっており、例えば1/30秒が一般的である。   When the camera 5 receives the shooting request signal Skp from the controller 3 as shown in FIG. 2, the camera 5 takes an image with the signal input timing as the shutter timing, outputs the shot image Pic to the controller 3, and receives the shooting request signal Skp. Each time an image is input, an image is captured and the captured image is output, and the captured image Pic is continuously output to output a moving image signal Sdp to the controller 3. Note that the photographed image Pic is a group of image data Dpc expressed as one image when the image data Dpc is displayed on the screen for convenience. By the way, if the imaging request signal Skp is output from the controller 3 to the camera 5 with multiple pulses per unit time, the camera 5 outputs the captured image Pic to the controller 3 at a short interval. The shorter the number, the larger the number of captured images within a unit time, and the more continuous video can be obtained. The time interval W is generally determined to have a minimum value, for example, 1/30 seconds is generally used.

また、画像処理式物体検出装置2には、カメラ5が検出対象1を撮影する際に検出対象1をその背景4に亘り人工照明を照射可能な照明装置6が設けられている。照明装置6は、カメラ5に隣接する位置に配置され、例えばLEDやランプ等を光源としている。照明装置6は、カメラ5が検出対象1(背景4を含む)を撮影する時に、照明のオンオフがカメラ5のシャッタタイミングに対応して切り換わるパルス照明が用いられ、より具体的に言うと、カメラ5がインターレース方式で画像撮影を行う場合、そのインターレース方式における偶奇フィールドごとにオンオフを切り換えることで検出対象1の照射を行う。照明装置6の照明強さは、検出対象1に外部光10が照射されていない時に検出対象1への照射動作を行っても、その明るさが気にならない程度の強度に設定されている。   Further, the image processing type object detection device 2 is provided with an illumination device 6 capable of irradiating the detection target 1 over the background 4 with artificial illumination when the camera 5 captures the detection target 1. The illumination device 6 is disposed at a position adjacent to the camera 5 and uses, for example, an LED or a lamp as a light source. The illumination device 6 uses pulse illumination in which on / off of illumination is switched corresponding to the shutter timing of the camera 5 when the camera 5 captures the detection target 1 (including the background 4). When the camera 5 captures an image by the interlace method, the detection target 1 is irradiated by switching on / off for each even / odd field in the interlace method. The illumination intensity of the illuminating device 6 is set to such an intensity that the brightness does not matter even if the irradiation operation is performed on the detection target 1 when the detection target 1 is not irradiated with the external light 10.

コントローラ3は、カメラ系各種データの伝送経路である第1ケーブル11を介してカメラ5に接続されるとともに、このケーブル11を介してカメラ5を統括制御する。また、コントローラ3は、照明装置系各種データの伝送経路である第2ケーブル12を介して照明装置6に接続され、このケーブル12を介して照明装置6を統括制御する。コントローラ3は、例えばCPU13やメモリ14(ROM、RAM)等の各種デバイスから成り、これら部品群を1部品として取り扱い可能となるようにユニット化されている。   The controller 3 is connected to the camera 5 via a first cable 11 that is a transmission path for various data of the camera system, and performs overall control of the camera 5 via this cable 11. The controller 3 is connected to the lighting device 6 via the second cable 12 that is a transmission path for various data of the lighting device system, and controls the lighting device 6 through the cable 12. The controller 3 includes various devices such as a CPU 13 and a memory 14 (ROM, RAM), for example, and is unitized so that these component groups can be handled as one component.

コントローラ3のメモリ14には、カメラ5から取得する画像データDpcを画像処理して画像データDpcから検出対象1を抽出することにより検出対象1を検出する画像処理プログラムDprが格納されている。本例の画像処理プログラムDprは、照明装置6を照明オフとした時にカメラ5で検出対象1(背景4も含む)を撮影した際に得る非投光画像15(図4参照)と、照明装置6を照明オンとした時にカメラ5で検出対象1(背景4も含む)を撮影した際に得る投光画像16(図5参照)とを取得して、これら画像15,16の差分である投光差分画像17(図6参照)を抽出し、検出対象1がその一部分に外部光10を受けていた時に撮影画像Picに生じ得る輝度不均一さ(画像ムラ)が低く抑えられた補正画像18(図7参照)をこの投光差分画像17を用いて算出し、この補正画像18から検出対象1を抽出する処理を、撮影画像取得の度に連続的に行うプログラムである。なお、非投光画像15及び投光画像16が撮影画像を構成する。   The memory 14 of the controller 3 stores an image processing program Dpr for detecting the detection target 1 by performing image processing on the image data Dpc acquired from the camera 5 and extracting the detection target 1 from the image data Dpc. The image processing program Dpr in this example includes a non-projection image 15 (see FIG. 4) obtained when the detection target 1 (including the background 4) is photographed by the camera 5 when the illumination device 6 is turned off, and the illumination device. 6 is obtained, and a projection image 16 (see FIG. 5) obtained when the detection target 1 (including the background 4) is photographed by the camera 5 when the illumination is turned on is obtained. An optical difference image 17 (see FIG. 6) is extracted, and a corrected image 18 in which luminance non-uniformity (image unevenness) that can occur in the photographed image Pic when the detection target 1 receives the external light 10 as a part thereof is suppressed to a low level. (See FIG. 7) is a program for calculating the projection difference image 17 and extracting the detection target 1 from the corrected image 18 continuously every time a captured image is acquired. Note that the non-projected image 15 and the projected image 16 constitute a captured image.

図3に示すように、コントローラ3には、画像処理式物体検出装置2の全体を制御するシステム制御部19と、カメラ5が撮影した画像データDpcをシステム制御部19から受け取りこれに画像処理を加えることで画像データDpcに映り込んだ検出対象1を検出する画像処理部20とが設けられている。なお、これらシステム制御部19及び画像処理部20は、CPU13と画像処理プログラムDprとが協同することにより機能的に生成されるのもであって、本例においてはこれをブロック図で表現している。なお、画像処理部20が補正画像作成手段及び抽出手段を構成する。   As shown in FIG. 3, the controller 3 receives from the system control unit 19 a system control unit 19 that controls the entire image processing type object detection device 2 and image data Dpc taken by the camera 5, and performs image processing on this. In addition, an image processing unit 20 that detects the detection target 1 reflected in the image data Dpc is provided. The system control unit 19 and the image processing unit 20 are functionally generated by the cooperation of the CPU 13 and the image processing program Dpr. In this example, this is expressed by a block diagram. Yes. The image processing unit 20 constitutes a corrected image creating unit and an extracting unit.

システム制御部19は、画像処理プログラムDprに沿いカメラ5に撮影要求信号Skpを出力してこれに画像撮影を行わせる際、その撮影走査方式としてインターレース方式を用いてカメラ5による画像撮影を行う。インターレース方式とは、カメラ5の画像を画面表示する際に目に対する画面のちらつきを少なくする目的で、カメラ走査時に水平走査線を1本おきに飛び越して走査し、これを2回繰り返すことによって1枚の画面を完成させる走査方式のことである。   When the system control unit 19 outputs a shooting request signal Skp to the camera 5 in accordance with the image processing program Dpr and causes the camera 5 to take an image, the system control unit 19 takes an image by the camera 5 using an interlace method as its shooting scanning method. The interlace method is to reduce the flickering of the screen with respect to the eyes when displaying the image of the camera 5 on the screen, and scans every other horizontal scanning line while scanning the camera and repeats this twice. This is a scanning method that completes a single screen.

また、システム制御部19は、画像処理プログラムDprに沿い照明装置6に人工照明を行わせる際、インターレース方式における偶奇フィールドごとに照明装置6のオンオフを切り換えて、検出対象1が人工照明されていない時のカメラ5の撮影画像Picである非投光画像15と、検出対象1が人工照明された時のカメラ5の撮影画像Picである投光画像16とを取得し、これら画像15,16を画像処理部20に出力する。システム制御部19は、カメラ5の撮影時に取得する非投光画像15と投光画像16とがほぼ同じ画像となるように、短い時間間隔でカメラ5に撮影動作を行わせて、非投光画像15と投光画像16とを連続的に取得する。   Further, when the system control unit 19 causes the illumination device 6 to perform artificial illumination according to the image processing program Dpr, the detection target 1 is not artificially illuminated by switching the illumination device 6 on and off for each even-odd field in the interlace method. The non-projected image 15 that is the captured image Pic of the camera 5 at the time and the projected image 16 that is the captured image Pic of the camera 5 when the detection target 1 is artificially illuminated are acquired, and these images 15 and 16 are obtained. The image is output to the image processing unit 20. The system control unit 19 causes the camera 5 to perform a shooting operation at a short time interval so that the non-projected image 15 and the projected image 16 acquired at the time of shooting by the camera 5 are substantially the same image, and the non-projected image The image 15 and the projected image 16 are acquired continuously.

画像処理部20は、システム制御部19から非投光画像15と投光画像16とを取得すると、これら画像15,16の差分である投光差分画像17を導出する。画像処理部20は、投光差分画像17を導出すると、例え仮にカメラ5の撮影画像Picに検出対象1に外部光10が一部分照射されていて撮影画像Picに輝度不均一さが生じていても、この撮影画像Picに補正を加えて輝度の不均一さが目立たない補正画像18を新たに作成する。そして、画像処理部20は、この補正画像18から検出対象1が映り出した画像領域を抽出し、これを検出対象1として検出する。   When the image processing unit 20 acquires the non-projected image 15 and the projected image 16 from the system control unit 19, the image processing unit 20 derives a projected difference image 17 that is a difference between the images 15 and 16. When the image processing unit 20 derives the light projection difference image 17, even if the external light 10 is partially irradiated on the detection target 1 on the captured image Pic of the camera 5 and the brightness nonuniformity occurs on the captured image Pic. Then, correction is made to the captured image Pic to newly create a corrected image 18 in which the uneven brightness is not noticeable. Then, the image processing unit 20 extracts an image area where the detection target 1 appears from the corrected image 18 and detects this as the detection target 1.

次に、本例の画像処理式物体検出装置2での補正画像18の作成手順を説明する。
ところで、太陽光や室内灯等の外部光10の照射角度によっては、検出対象1の一部分が外部光10によって照射され、検出対象1に照射される光量が部分的に不均一になる状況に陥る場合がある。このとき、カメラ5の被写体である検出対象1は、図1に示すように、検出対象1で外部光10が照射されている外部光照射箇所21(図1の非加飾領域)と、外部光10が照射されていない外部光非照射箇所22(図1の点領域)とで輝度が異なる値をとることになる。
Next, a procedure for creating the corrected image 18 in the image processing type object detection device 2 of this example will be described.
By the way, depending on the irradiation angle of the external light 10 such as sunlight or indoor light, a part of the detection target 1 is irradiated by the external light 10 and the amount of light irradiated on the detection target 1 is partially uneven. There is a case. At this time, as shown in FIG. 1, the detection target 1 that is the subject of the camera 5 includes an external light irradiation spot 21 (non-decorative area in FIG. 1) where the external light 10 is irradiated on the detection target 1, and an external The brightness differs depending on the external light non-irradiation point 22 (point area in FIG. 1) where the light 10 is not irradiated.

よって、カメラ5で非投光画像15を取得した場合、図4に示すように、非投光画像15において検出対象1で外部光10が照らされていない箇所の画像領域(以下、外部光非照射部23と記す)の輝度(以下、非投光画像光無側輝度La1と記す)は、非投光画像15において検出対象1で外部光10が照らされている箇所の画像領域(以下、外部光照射部24と記す)の輝度(非投光画像光有側輝度La2と記す)よりも低い値をとる状態となる。   Therefore, when the non-projected image 15 is acquired by the camera 5, as shown in FIG. 4, as shown in FIG. The luminance of the irradiation unit 23 (hereinafter referred to as non-projected image light no-side luminance La1) is the image area (hereinafter referred to as the non-projected image 15) where the external light 10 is illuminated by the detection target 1. It becomes a state that takes a value lower than the luminance of the external light irradiation unit 24 (denoted by the non-projected image light presence luminance La2).

また、これは投光画像16においても同様の事が言え、図5に示すように、投光画像16における外部光非照射部23の輝度(以下、投光画像光無側輝度Lb1と記す)は、投光画像16における外部光照射部24の輝度(以下、投光画像光有側輝度Lb2と記す)よりも低い値をとる状態となる。なお、検出対象1に照明装置6が光を人工照明した際、外部光非照射部23の輝度(投光画像光無側輝度Lb1)と、外部光照射部24の輝度(投光画像光有側輝度Lb2)とは、共に同じ輝度になる訳ではなく、人工照明を施しても元々暗い部分と元々明るい部分との明るさの大小関係は変化しないことから、投光画像光無側輝度Lb1と投光画像光有側輝度Lb2との間には輝度差が生じる。また、検出対象1に照明装置6が光を人工照明した際、外部光非照射部23と外部光照射部24と共に同じ増加量で輝度が増す訳ではなく、背景技術でも述べたように、元々暗い箇所に光を照射した時は僅かな光でも明るく見え、元々明るい箇所に光を照射してもそれほど明るく感じないのと同じように、この時は外部光非照射部23における輝度の増加量の方が、外部光照射部24における輝度の増加量よりも多くなる。   The same can be said for the projected image 16 as shown in FIG. 5. As shown in FIG. 5, the brightness of the external light non-irradiation part 23 in the projected image 16 (hereinafter referred to as the projected image light no-side brightness Lb1). Is a state that takes a value lower than the luminance of the external light irradiation unit 24 in the projected image 16 (hereinafter, referred to as the projected image light presence luminance Lb2). When the illumination device 6 artificially illuminates the detection target 1, the luminance of the external light non-irradiation unit 23 (projected image light non-side luminance Lb1) and the luminance of the external light irradiation unit 24 (projected image light present) The side luminance Lb2) is not necessarily the same luminance, and the brightness relationship between the originally dark portion and the originally bright portion does not change even when artificial lighting is applied. And a brightness difference Lb2 with the projected image light. Further, when the illumination device 6 artificially illuminates the detection target 1, the luminance does not increase with the same increase amount together with the external light non-irradiation unit 23 and the external light irradiation unit 24, but as described in the background art, The amount of increase in luminance in the external light non-irradiation unit 23 is the same as when light is applied to a dark place, even if a slight amount of light appears bright, and it does not feel so bright when light is originally applied to a bright place. This is larger than the increase in luminance in the external light irradiation unit 24.

このため、検出対象1に部分的に外部光10が照射された状態で、非投光画像15と投光画像16との差分である投光差分画像17をとった場合には、図6に示すように、投光差分画像17における外部光非照射部23の輝度(以下、投光画像光無側輝度Lc1)の方が、投光差分画像17における外部光照射部24の輝度(以下、投光画像光有側輝度Lc2と記す)よりも輝度が高い状態となる。即ち、投光差分画像17においては、非投光画像15や投光画像16とは異なり、外部光照射部24よりも外部光非照射部23の方が明るく映り出した輝度差を持った画像となる。   For this reason, when the projection difference image 17 which is the difference between the non-projection image 15 and the projection image 16 is taken in a state where the external light 10 is partially irradiated on the detection target 1, FIG. As shown, the brightness of the external light non-irradiation unit 23 in the light projection difference image 17 (hereinafter referred to as the light projection image light no-side luminance Lc1) is the brightness of the external light irradiation unit 24 in the light projection difference image 17 (hereinafter referred to as the following). The brightness is higher than the brightness Lc2 of the projected image light. That is, in the light projection difference image 17, unlike the non-light projection image 15 and the light projection image 16, an image having a luminance difference in which the external light non-irradiation unit 23 appears brighter than the external light irradiation unit 24. It becomes.

よって、外部光照射部24を見た場合には、非投光画像15の輝度である非投光画像光有側輝度La2が相対的に高い値をとり、投光差分画像17の輝度である投光画像光有側輝度Lc2が相対的に低い値をとる。また、外部光非照射部23を見た場合には、非投光画像15の輝度である非投光画像光無側輝度La1が相対的に低い値をとり、投光差分画像17の輝度である投光画像光無側輝度Lc1が相対的に高い値をとる。従って、外部光照射部24における非投光画像15の輝度と投光差分画像17の輝度との間の関係と、外部光非照射部23における非投光画像15の輝度と投光差分画像17の輝度との間の関係とは大小が対照的であることが分かる。即ち、非投光画像15で明るい画像領域は投光差分画像17では暗い画像領域となり、非投光画像15で暗い画像領域は投光差分画像17では明るい画像領域となる。   Therefore, when the external light irradiation unit 24 is viewed, the non-projected image light-side luminance La2 that is the luminance of the non-projected image 15 takes a relatively high value and is the luminance of the projected difference image 17. The brightness Lc2 with the projected image light is relatively low. When the external light non-irradiation unit 23 is viewed, the non-projected image light no-side luminance La1 that is the luminance of the non-projected image 15 takes a relatively low value, and the luminance of the projected difference image 17 A certain projected image light no-side luminance Lc1 takes a relatively high value. Therefore, the relationship between the luminance of the non-light-projected image 15 in the external light irradiation unit 24 and the luminance of the light-projected differential image 17, and the luminance of the non-light-projected image 15 in the external light non-irradiated unit 23 and the light-projected differential image 17. It can be seen that the relationship between the brightness and the brightness is in contrast. That is, a bright image area in the non-projected image 15 becomes a dark image area in the projected difference image 17, and a dark image area in the non-projected image 15 becomes a bright image area in the projected difference image 17.

従って、この輝度が大小関係逆であるという性質を利用して、次式(1) に示すように、非投光画像15における所定の一画素の輝度を非投光画像輝度Laとし、投光差分画像17における所定の一画素の輝度を投光差分画像輝度Lcとし、外部光10による輝度不均一さが解消された補正画像18を得る際に必要な定数をCとした場合、投光差分画像輝度Lcに定数Cを乗算した補正値Pxを、これと対応する画素が持つ非投光画像輝度Laに加えることにより新たな輝度Lxを算出して、外部光10を起因とする撮影画像Picの輝度不均一が低く抑えられた補正画像18を作成する。この新たな輝度Lxというのは、撮影画像Picの各々の画素について、非投光画像15において暗い部分の画素では大幅に明るく補正された輝度として求まり、非投光画像15において明るい部分の画素では少量のみ明るく補正された輝度として求まる値である。   Therefore, by utilizing the property that the luminance is opposite in magnitude, as shown in the following equation (1), the luminance of a predetermined pixel in the non-projected image 15 is set as the non-projected image luminance La, and the light is projected. When the luminance of a predetermined pixel in the difference image 17 is the projection difference image luminance Lc and the constant necessary for obtaining the corrected image 18 in which the luminance non-uniformity due to the external light 10 is eliminated is C, the projection difference A new brightness Lx is calculated by adding a correction value Px obtained by multiplying the image brightness Lc by a constant C to the non-projection image brightness La of the corresponding pixel, and the captured image Pic caused by the external light 10 is calculated. The corrected image 18 in which the luminance non-uniformity is suppressed to a low level is created. The new luminance Lx is obtained as the luminance corrected to be significantly brighter in the dark portion of the non-projected image 15 for each pixel of the captured image Pic, and in the bright portion of the non-projected image 15. This is a value obtained as the brightness corrected brightly only by a small amount.

新たな輝度Lx=非投光画像輝度La+(定数C×投光差分画像輝度Lc) … (1)
(但し、定数C×投光差分画像輝度Lc→補正値Px)
よって、撮影画像Picの各々の画素ごとに求められた新たな輝度Lxが集まった画像というのは、外部光10の非照射部分の画像(画素)は大きく明るさ補正されつつ外部光10の照射部分の画像(画素)は少量のみ明るさ補正された画像、即ち外部光10による影響が低く抑えられた画像となるはずである。従って、画像処理部20は、組となる非投光画像15及び投光画像16をシステム制御部19から取得すると、各々の画素ごとに新たな輝度Lxを算出してこの輝度Lxの集まりから成る画像を補正画像18として算出し、この補正画像18の算出を、組となる非投光画像15及び投光画像16を取得する度に行う。
New brightness Lx = non-projection image brightness La + (constant C × projection difference image brightness Lc) (1)
(However, constant C × light projection difference image luminance Lc → correction value Px)
Therefore, the image in which the new luminance Lx obtained for each pixel of the captured image Pic is gathered is that the image (pixel) of the non-irradiated portion of the external light 10 is greatly corrected for brightness and the external light 10 is irradiated. The partial image (pixel) should be an image whose brightness is corrected by a small amount, that is, an image in which the influence of the external light 10 is suppressed to a low level. Accordingly, when the image processing unit 20 acquires the non-projected image 15 and the projected image 16 to be paired from the system control unit 19, the image processing unit 20 calculates a new luminance Lx for each pixel and includes the collection of the luminance Lx. The image is calculated as a corrected image 18, and the corrected image 18 is calculated each time the non-projected image 15 and the projected image 16 forming a set are acquired.

また、定数Cは、補正画像18を外部光10による輝度不均一さの少ない画像とするために、撮影画像Picにおける外部光非照射部23の新たな輝度Lxと、同じく撮影画像Picにおける外部光照射部24の新たな輝度Lxとが同一レベルをとるような値に設定する必要がある。従って、非投光画像15における外部光照射部24の平均値を非投光画像明輝度平均Ka1とし、非投光画像15における外部光非照射部23の平均値を非投光画像暗輝度平均Ka2とし、投光差分画像17における外部光非照射部23の平均値を投光差分画像明輝度平均Kb1とし、投光差分画像17における外部光照射部24の平均値を投光差分画像暗輝度平均Kb2とすると、定数Cは次式(2) により算出される。   Further, the constant C is a new luminance Lx of the external light non-irradiation part 23 in the captured image Pic and the external light in the captured image Pic in order to make the corrected image 18 an image with less luminance nonuniformity due to the external light 10. It is necessary to set the value so that the new luminance Lx of the irradiation unit 24 takes the same level. Therefore, the average value of the external light irradiating unit 24 in the non-projected image 15 is set as the non-projected image bright luminance average Ka1, and the average value of the external light non-irradiating unit 23 in the non-projected image 15 is set as the non-projected image dark luminance average. Ka2, the average value of the external light non-irradiation unit 23 in the light projection difference image 17 is the light projection difference image bright luminance average Kb1, and the average value of the external light irradiation unit 24 in the light projection difference image 17 is the light projection difference image dark luminance. Assuming average Kb2, the constant C is calculated by the following equation (2).

定数C=(Ka1−Ka2)/(Kb1−Kb2) … (2)
即ち、定数Cは、非投光画像明輝度平均Ka1と非投光画像暗輝度平均Ka2との間の差(絶対値)を、投光差分画像明輝度平均Kb1と投光差分画像暗輝度平均Kb2との間の差(絶対値)で除算した値である。更に言い換えるならば、この定数Cは、非投光画像15の各々の画素において、投光差分画像17上で対応する各画素の輝度値を加える際に、その加算輝度を、元の投光差分画像17上の画素輝度を何倍にして加えるのかを決める係数に相当する。
Constant C = (Ka1-Ka2) / (Kb1-Kb2) (2)
That is, the constant C is the difference (absolute value) between the non-projected image bright brightness average Ka1 and the non-projected image dark brightness average Ka2, and the projected difference image bright brightness average Kb1 and the projected difference image dark brightness average. It is the value divided by the difference (absolute value) from Kb2. In other words, when the luminance value of each corresponding pixel on the projection difference image 17 is added to each pixel of the non-projection image 15, the constant C is obtained by adding the added luminance to the original projection difference. This corresponds to a coefficient that determines how many times the pixel luminance on the image 17 is added.

なお、非投光画像明輝度平均Ka1は、非投光画像15の画像領域全体において、その非投光画像15で輝度が第1閾値α以上で、しかも投光差分画像17で輝度が一定値β以上の画素が集合した画像領域の輝度平均を導出することで求まる。即ち、ここでは、非投光画像15において輝度が第1閾値α以上の画像領域を切り出すことで非投光画像15において外部光10が照射された画像領域を抽出し、投光差分画像17において輝度が第2閾値β以上の画像領域を切り出すことで投光差分画像17の中で検出対象1が映り込んだ画像領域を抽出することにより、非投光画像15に映り込んだ検出対象1において外部光照射部24(図4の薄い点領域)の画像領域を抽出し、その画像領域の平均輝度を算出している。   The non-projected image bright luminance average Ka1 is a value that is greater than or equal to the first threshold value α in the non-projected image 15 in the entire image area of the non-projected image 15 and has a constant luminance in the projected difference image 17. It is obtained by deriving the average luminance of the image area where pixels equal to or larger than β are gathered. That is, here, by extracting an image area having a luminance equal to or higher than the first threshold value α in the non-projected image 15, an image area irradiated with the external light 10 is extracted from the non-projected image 15. In the detection object 1 reflected in the non-projection image 15, the image area in which the detection object 1 is reflected is extracted from the light projection difference image 17 by cutting out the image area having the luminance equal to or higher than the second threshold value β. The image area of the external light irradiation unit 24 (the thin dot area in FIG. 4) is extracted, and the average luminance of the image area is calculated.

また、投光差分画像暗輝度平均Kb2は、投光差分画像17の画像領域全体において、非投光画像明輝度平均Ka1を算出する時と同じく、非投光画像15で輝度が第1閾値α以上で、しかも投光差分画像17で輝度が一定値β以上の画素が集合した画像領域の輝度平均を導出することで求まる。即ち、ここでは、投光差分画像17においてこの画像17に映り込んだ検出対象1における外部光照射部24(図6の濃い点領域)の画像領域を抽出し、その画像領域の平均輝度を算出している。   Further, the light projection difference image dark luminance average Kb2 is equal to the first threshold value α in the non-light projection image 15 as in the case of calculating the non-light projection image bright luminance average Ka1 in the entire image area of the light projection difference image 17. As described above, it is obtained by deriving the luminance average of the image area in which the pixels having the luminance of the fixed value β or more in the light projection difference image 17 are gathered. That is, here, the image area of the external light irradiation unit 24 (dark dot area in FIG. 6) in the detection target 1 reflected in the image 17 is extracted from the light projection difference image 17 and the average luminance of the image area is calculated. is doing.

更に、非投光画像暗輝度平均Ka2は、非投光画像15の画像領域全体において、投光差分画像17で輝度が第3閾値γ以上の画素が集合した画像領域の輝度平均を導出することで求まる。即ち、ここでは、非投光画像15において投光差分画像17で輝度が第3閾値γ以上の画像領域を切り出すことで、非投光画像15に映り込んだ検出対象1において外部光非照射部23(図4の濃い点領域)の画像領域を抽出し、その画像領域の平均輝度を算出している。   Further, the non-light-projected image dark luminance average Ka2 derives the luminance average of the image area in which the pixels having the luminance of the third threshold value γ or more in the light-projected difference image 17 are gathered in the entire image area of the non-light-projected image 15. It is obtained by. That is, in this case, the external light non-irradiation unit is detected in the detection target 1 reflected in the non-projected image 15 by cutting out the image region having the luminance equal to or higher than the third threshold γ in the projected difference image 17 in the non-projected image 15. The image area 23 (the dark dot area in FIG. 4) is extracted, and the average luminance of the image area is calculated.

また、投光差分画像明輝度平均Kb1は、投光差分画像17の画像領域全体において、その投光差分画像17で輝度が第3閾値γ以上の画素が集合した画像領域の輝度平均を導出することで求まる。即ち、ここでは、投光差分画像17において輝度が第3閾値γ以上の画像領域を切り出すことで、投光差分画像17において外部光非照射部23(図6の薄い点領域)の画像領域を抽出し、その画像領域の平均輝度を算出している。なお、検出対象1の後ろに見える背景4は投光差分値が極めて小さいことから、輝度平均Ka1,Ka2,Kb1,Kb2に含まれることはない。   Further, the light projection difference image bright luminance average Kb1 derives the luminance average of the image region in which the pixels having the luminance equal to or higher than the third threshold value γ in the light projection difference image 17 in the entire image region of the light projection difference image 17. It is determined by that. That is, here, by cutting out an image region having a luminance equal to or higher than the third threshold value γ in the light projection difference image 17, the image region of the external light non-irradiation part 23 (the thin dot region in FIG. 6) is extracted from the light projection difference image 17. The average luminance of the image area is calculated by extracting. Note that the background 4 that appears behind the detection target 1 has a very small light projection difference value, and thus is not included in the luminance averages Ka1, Ka2, Kb1, and Kb2.

次に、以上のように構成された画像処理式物体検出装置2の動作を説明する。
システム制御部19は、例えば画像処理式物体検出装置2の起動開始スイッチがオン操作されるなどしてカメラ撮影の開始要求操作が行われたとすると、画像処理プログラムDprを実行して起動を開始する。このとき、システム制御部19は、撮影要求信号Skpをカメラ5に出力して、検出対象1及びその背景4をカメラ5に撮影させる。カメラ5は、システム制御部19から撮影要求信号Skpを取得する度に画像撮影を行い、この撮影画像Picを連続的にシステム制御部19に出力することで動画信号Sdpを出力する。
Next, the operation of the image processing type object detection device 2 configured as described above will be described.
For example, when a camera shooting start request operation is performed, for example, when a start start switch of the image processing type object detection device 2 is turned on, the system control unit 19 executes the image processing program Dpr and starts the start. . At this time, the system control unit 19 outputs the photographing request signal Skp to the camera 5 to cause the camera 5 to photograph the detection target 1 and its background 4. The camera 5 captures an image every time it acquires a shooting request signal Skp from the system control unit 19, and outputs the moving image signal Sdp by continuously outputting the captured image Pic to the system control unit 19.

また、システム制御部19は、カメラ5に検出対象1(背景4も含む)の撮影を行わせる際、インターレース方式における偶奇フィールドごとに照明装置6のオンオフを切り換えて、検出対象1に人工照明を与える。よって、システム制御部19は、照明装置6が検出対象1を人工照明していない時にカメラ5から得る撮影画像Picを非投光画像15として取得し、照明装置6が検出対象1を人工照明した時にカメラ5から得る撮影画像Picを投光画像16として取得し、これら画像15,16を画像処理部20に出力する。なお、非投光画像15と投光画像16は、非常に短いシャッタ間隔で撮影された画像であることから、ほぼ同じ画像をとる。   In addition, when the system controller 19 causes the camera 5 to capture the detection target 1 (including the background 4), the illumination device 6 is switched on and off for each even / odd field in the interlace method, and the detection target 1 is artificially illuminated. give. Therefore, the system control unit 19 acquires the captured image Pic obtained from the camera 5 as the non-projected image 15 when the illumination device 6 is not artificially illuminating the detection target 1, and the illumination device 6 artificially illuminates the detection target 1. Sometimes, a captured image Pic obtained from the camera 5 is acquired as a projected image 16, and these images 15 and 16 are output to the image processing unit 20. Note that the non-projected image 15 and the projected image 16 are images taken at a very short shutter interval, and therefore take substantially the same image.

画像処理部20は、カメラ5から組となる非投光画像15及び投光画像16を取得すると、これら画像15,16の差分である投光差分画像17を導出する。続いて、投光差分画像17を導出した画像処理部20は、上式(1),(2)を用いて計算処理を行い、カメラ5から得る撮影画像Picの各々の画素ごとに新たな輝度Lxを算出する。この時に画像処理部20が行う計算処理として、まず画像処理部20は、上式(2) を用いて定数Cを算出する。即ち、画像処理部20は、非投光画像15と投光差分画像17とを用いて、非投光画像明輝度平均Ka1、非投光画像暗輝度平均Ka2、投光差分画像明輝度平均Kb1、投光差分画像暗輝度平均Kb2を算出し、これら輝度平均Ka1,Ka2,Kb1,Kb2から定数Cを算出する。   When the image processing unit 20 obtains a pair of the non-projected image 15 and the projected image 16 from the camera 5, the image processing unit 20 derives a projected difference image 17 that is a difference between the images 15 and 16. Subsequently, the image processing unit 20 that has derived the light projection difference image 17 performs calculation processing using the above formulas (1) and (2), and obtains a new luminance for each pixel of the captured image Pic obtained from the camera 5. Lx is calculated. As a calculation process performed by the image processing unit 20 at this time, first, the image processing unit 20 calculates a constant C using the above equation (2). That is, the image processing unit 20 uses the non-projected image 15 and the projected difference image 17 to use the non-projected image bright luminance average Ka1, the non-projected image dark luminance average Ka2, and the projected difference image bright luminance average Kb1. The light projection difference image dark luminance average Kb2 is calculated, and the constant C is calculated from these luminance averages Ka1, Ka2, Kb1, and Kb2.

定数Cを算出した画像処理部20は、続いて上式(1) を用いて、カメラ5から取得した撮影画像Picにおいて各々の画素ごとに新たな輝度Lxを求める。即ち、画像処理部20は、投光差分画像17をその画素単位で投光差分画像輝度Lcに定数Cを乗算し、この乗算により各々の画素ごとに導出される補正値Pxを、非投光画像15において各々対応する画素に加算することで、カメラ5の撮影画像Picにおいて各々の画素ごとに新たな輝度Lxを算出する。画像処理部20は、このようにして算出した新たな輝度Lxを持つ画素群から成る画像を補正画像18として認識する。   The image processing unit 20 that has calculated the constant C then obtains a new luminance Lx for each pixel in the captured image Pic acquired from the camera 5 using the above equation (1). That is, the image processing unit 20 multiplies the light projection difference image 17 by a constant C by the light projection difference image luminance Lc for each pixel, and calculates the correction value Px derived for each pixel by this multiplication as a non-light projection. By adding to the corresponding pixels in the image 15, a new luminance Lx is calculated for each pixel in the captured image Pic of the camera 5. The image processing unit 20 recognizes an image including a pixel group having the new luminance Lx calculated as described above as the corrected image 18.

この補正画像18は、図7に示すように、カメラ5の撮影対象である検出対象1にその一部分に外部光10が生じていたとしても、外部光10が照射されている部分が映り込む画像部分には少量の明るさ補正が行われ、外部光10が照射されていない部分が映り込む画像部分には多量の明るさ補正が行われることにより、一部分のみが明るくなるのではなく外部光10が原因となる輝度不均一さが解消された画像として作成される。このため、補正画像18に映り込む検出対象1は、例えば一部分が極端に明るかったり若しくは暗かったりする画像をとるのではなく、検出対象1の全体が正常な明暗でくっきりと見える状態に映り出すことになる。   As shown in FIG. 7, the corrected image 18 is an image in which a portion irradiated with the external light 10 is reflected even if the external light 10 is generated in a part of the detection target 1 that is a photographing target of the camera 5. A small amount of brightness correction is performed on the portion, and a large amount of brightness correction is performed on the image portion in which the portion that is not irradiated with the external light 10 is reflected. It is created as an image in which the luminance non-uniformity caused by is eliminated. For this reason, the detection target 1 reflected in the corrected image 18 does not take, for example, an image in which a part is extremely bright or dark, but appears in a state where the entire detection target 1 can be clearly seen in normal light and dark. become.

画像処理部20は、補正画像18を作成すると、この補正画像18において画像輝度が設定値以上となる箇所を検出対象1として抽出することで、検出対象1をカメラ5の撮影画像Picから検出する。画像処理部20は、組となる非投光画像15及び投光画像16を取得する度に、補正画像18を作成しつつその補正画像18から検出対象1が映り込んだ画像領域を抽出して検出対象1を撮影画像Picから検出する処理を行う。画像処理部20は、カメラ5の撮影画像Picから検出対象1を検出することで検出対象1の位置を認識したり、或いは検出対象1の時間的位置変化を見ることで検出対象1の動きを認識したりする。   When the corrected image 18 is created, the image processing unit 20 detects the detection target 1 from the photographed image Pic of the camera 5 by extracting the detection image 1 as a detection target 1 in the corrected image 18. . Each time the image processing unit 20 acquires the non-projected image 15 and the projected image 16 that form a pair, the image processing unit 20 creates the corrected image 18 and extracts an image region in which the detection target 1 is reflected from the corrected image 18. Processing to detect the detection target 1 from the captured image Pic is performed. The image processing unit 20 recognizes the position of the detection target 1 by detecting the detection target 1 from the captured image Pic of the camera 5, or detects the movement of the detection target 1 by looking at the temporal position change of the detection target 1. To recognize.

従って、本例においては、カメラ5から組となる非投光画像15と投光画像16とを取得する度に、これら画像15,16の差分である投光差分画像17を導出するとともに上式(1),(2)を用いて外部光10の影響を低く抑えた補正画像18を作成し、その補正画像18から検出対象1の画像部分を抽出して検出対象1の検出を行う。このため、例えば仮に検出対象1の一部分に外部光10が照射された状態であっても、カメラ5の撮影画像Picから最終的に取り出す補正画像18は外部光10の影響を低く抑えた画像として導き出される。よって、カメラ5から得られる最終的な撮影画像Pic(補正画像18)は検出対象1がくっきりと映り出た画像となるので、検出対象1はより正確に撮影画像Picに映り込むことになり、検出対象1を撮影画像Picから精度良く検出することが可能となる。   Accordingly, in this example, every time the paired non-projected image 15 and the projected image 16 are obtained from the camera 5, the projected difference image 17 which is the difference between these images 15 and 16 is derived and the above equation is obtained. Using (1) and (2), a corrected image 18 in which the influence of the external light 10 is kept low is created, and the image portion of the detection target 1 is extracted from the corrected image 18 to detect the detection target 1. For this reason, for example, even if a part of the detection target 1 is irradiated with the external light 10, the corrected image 18 finally extracted from the captured image Pic of the camera 5 is an image in which the influence of the external light 10 is suppressed to a low level. Derived. Therefore, since the final captured image Pic (corrected image 18) obtained from the camera 5 is an image in which the detection target 1 is clearly reflected, the detection target 1 is reflected in the captured image Pic more accurately. It becomes possible to detect the detection target 1 from the captured image Pic with high accuracy.

本実施形態の構成によれば、以下に記載の効果を得ることができる。
(1)照明装置6で検出対象1を人工照明しない時にカメラ5で撮影する非投光画像15と、照明装置6で検出対象1を人工照明した時にカメラ5で撮影する投光画像16との差分である投光差分画像17を求め、この投光差分画像17と非投光画像15とを用いて、検出対象1の一部分に外部光10が照射されることに起因して生じるカメラ5の撮影画像Picの輝度不均一さを低く抑え得る定数Cを算出し、この定数Cを用いて元の撮影画像Picを補正することで、画像上の輝度不均一さが低く抑えられた補正画像18を作成する。このため、補正画像18は外部光10の影響が取り除かれた画像となるので、補正画像18には検出対象1が輝度不均一さの少ないくっきりと映り出した状態をとることになる。よって、カメラ5の撮影画像Picから検出対象1を検出するに際して、撮影画像Picに画像処理を加えた後の補正画像18から検出対象1の抽出を行うようにすれば、検出対象1を精度良く検出することができる。
According to the configuration of the present embodiment, the following effects can be obtained.
(1) A non-projection image 15 photographed by the camera 5 when the illumination target 6 does not artificially illuminate the detection target 1 and a projection image 16 photographed by the camera 5 when the illumination target 6 artificially illuminates the detection target 1 A light projection difference image 17 that is a difference is obtained, and the light projection difference image 17 and the non-light projection image 15 are used to cause a part of the detection target 1 to be irradiated with the external light 10. A constant C that can suppress the brightness non-uniformity of the captured image Pic is calculated, and the original captured image Pic is corrected using the constant C, thereby correcting the brightness non-uniformity on the image to a low level. Create For this reason, the corrected image 18 is an image from which the influence of the external light 10 has been removed, so that the detection target 1 is clearly reflected in the corrected image 18 with little luminance nonuniformity. Therefore, when detecting the detection target 1 from the captured image Pic of the camera 5, if the detection target 1 is extracted from the corrected image 18 after image processing is applied to the captured image Pic, the detection target 1 is accurately detected. Can be detected.

(2)補正画像18を作成する際に必要な定数Cは、非投光画像15における外部光照射部24の輝度平均Ka1と外部光非照射部23の輝度平均Ka2との間の差分と、投光画像16における外部光非照射部23の輝度平均Kb1と外部光照射部24の輝度平均Kb2との間の差分とを除算することにより算出される。また、補正画像18は、投光差分画像の一画素に定数Cを乗算してこれを対応する非投光画像15の一画素に加えて新たな輝度Lxを算出することを、カメラ5の撮影画像Picの各々の画素ごとに行うことで作成される。このため、各種数値を加減乗除するという簡単な計算により補正画像18を作成することができる。   (2) The constant C necessary for creating the corrected image 18 is the difference between the luminance average Ka1 of the external light irradiation unit 24 and the luminance average Ka2 of the external light non-irradiation unit 23 in the non-projected image 15; It is calculated by dividing the difference between the luminance average Kb1 of the external light non-irradiation unit 23 and the luminance average Kb2 of the external light irradiation unit 24 in the projected image 16. Further, the corrected image 18 is obtained by multiplying one pixel of the light projection difference image by a constant C and calculating a new luminance Lx in addition to the one pixel corresponding to the non-light projection image 15. It is created by performing each pixel of the image Pic. Therefore, the corrected image 18 can be created by a simple calculation of adding, subtracting, dividing, and dividing various numerical values.

(3)定数Cは非投光画像15における外部光照射部24の輝度と外部光非照射部23の輝度との間の差分と、投光差分画像17における外部光非照射部23の輝度と外部光照射部24の輝度との間の差分とを除算することで算出されるが、この時に使用する各照射部23,24の輝度は各々の画像領域における輝度平均Ka1,Ka2,Kb1,Kb2が使用される。よって、この種の平均値(輝度平均Ka1,Ka2,Kb1,Kb2)というのは各画像15,17において各照射部23,24が持つ輝度をより好適に反映した値をとるので、輝度平均Ka1,Ka2,Kb1,Kb2を用いて定数Cを算出するようにすれば、定数Cを精度高く算出することができ、ひいては補正画像18を一層精度良く作成することができる。   (3) The constant C is the difference between the luminance of the external light irradiation unit 24 and the luminance of the external light non-irradiation unit 23 in the non-projection image 15, and the luminance of the external light non-irradiation unit 23 in the projection difference image 17. It is calculated by dividing the difference between the luminance of the external light irradiation unit 24 and the luminance of each irradiation unit 23, 24 used at this time is the luminance average Ka1, Ka2, Kb1, Kb2 in each image region. Is used. Therefore, this type of average value (brightness average Ka1, Ka2, Kb1, Kb2) is a value that more suitably reflects the luminance of each irradiation unit 23, 24 in each image 15, 17, and thus the luminance average Ka1. , Ka2, Kb1, and Kb2, the constant C can be calculated with high accuracy, and the corrected image 18 can be created with higher accuracy.

(4)組となる非投光画像15及び投光画像16が撮影される度に補正画像18の作成を行うので、補正画像18の作成は画像取得の度に逐次行われることになる。よって、カメラ5の撮影画像Picから検出対象1の検出を行うに際してはいつも補正画像18を用いて行うことになるので、カメラ5の撮影画像Picから検出対象1を検出する際にこれを高い精度で行うことができる。   (4) Since the corrected image 18 is created every time the non-projected image 15 and the projected image 16 forming a set are photographed, the corrected image 18 is sequentially created every time the image is acquired. Therefore, when the detection target 1 is detected from the captured image Pic of the camera 5, the correction image 18 is always used. Therefore, when the detection target 1 is detected from the captured image Pic of the camera 5, this is highly accurate. Can be done.

なお、実施形態はこれまでに述べた構成に限らず、以下の態様に変更してもよい。
・ 補正画像18の作成に用いる定数Cは、非投光画像15の外部光照射部24と外部光非照射部23との輝度差と、投光差分画像17の外部光照射部24と外部光非照射部23との輝度差とを除算することにより求めた値であることに限定されない。例えば、投光画像16の外部光照射部24と外部光非照射部23との輝度差と投光差分画像17の外部光照射部24と外部光非照射部23との輝度差とを除算した値でもよいし、或いは非投光画像15の外部光照射部24と外部光非照射部23との輝度差と、投光画像16の外部光照射部24と外部光非照射部23との輝度差との除算値でもよい。
Note that the embodiment is not limited to the configuration described so far, and may be modified as follows.
The constant C used to create the corrected image 18 is the luminance difference between the external light irradiation unit 24 and the external light non-irradiation unit 23 of the non-projected image 15, and the external light irradiation unit 24 and the external light of the light projection difference image 17. It is not limited to the value obtained by dividing the luminance difference from the non-irradiation part 23. For example, the luminance difference between the external light irradiation unit 24 and the external light non-irradiation unit 23 of the projected image 16 and the luminance difference between the external light irradiation unit 24 and the external light non-irradiation unit 23 of the light projection difference image 17 are divided. The brightness difference between the external light irradiation unit 24 and the external light non-irradiation unit 23 of the non-projected image 15 and the luminance between the external light irradiation unit 24 and the external light non-irradiation unit 23 of the projected image 16 may be used. It may be a value divided by the difference.

・ 補正画像18の作成に用いる定数Cは、画像15,17の各々における照射部23,24の輝度差の除算をとって算出する場合、この時の各照射部23,24の輝度は必ずしも各照射部23,24における画像領域の輝度平均に限定されない。例えば、この時の輝度を、各照射部23,24の画像領域内の画素の中で最も輝度の高い値のものを特定して、この輝度を用いて定数Cを算出してもよい。   When the constant C used to create the corrected image 18 is calculated by dividing the luminance difference between the irradiation units 23 and 24 in each of the images 15 and 17, the luminance of each irradiation unit 23 and 24 at this time is not necessarily It is not limited to the average brightness of the image area in the irradiation units 23 and 24. For example, the luminance at this time may be determined by specifying the pixel having the highest luminance among the pixels in the image areas of the irradiation units 23 and 24, and the constant C may be calculated using this luminance.

・ 定数Cを算出する際には閾値としてα,β,γを使用するが、これら閾値α,β,γの値は自由に変更してもよい。
・ カメラ5は、種類として様々なものが利用可能であり、例えばイメージセンサ9としてCCDを用いたCCDカメラや、イメージセンサ9としてCMOSセンサを用いたCMOSカメラ等を使用してもよい。
-When calculating the constant C, α, β, γ are used as thresholds, but the values of the thresholds α, β, γ may be freely changed.
Various types of cameras 5 can be used. For example, a CCD camera using a CCD as the image sensor 9 or a CMOS camera using a CMOS sensor as the image sensor 9 may be used.

・ 画像処理式物体検出装置2は、検出対象1として例えば車両の運転者を検出するものに限らず、カメラ5が撮影した撮影画像Picの中から画像処理により検出対象1を検出する必要のある装置や機器に広く応用可能である。   The image processing type object detection device 2 is not limited to detecting the vehicle driver, for example, as the detection target 1, and it is necessary to detect the detection target 1 by image processing from the captured image Pic taken by the camera 5. It can be widely applied to devices and equipment.

次に、上記実施形態及び別例から把握できる技術的思想について、それらの効果とともに以下に追記する。
(1)請求項1〜3のいずれかにおいて、前記補正画像作成手段は、前記非投光画像と前記投光画像と前記投光差分画像との中の少なくとも2つを値いて、前記外部光に起因する撮影画像上の輝度不均一さを抑え得る定数を求め、前記撮影手段が撮影した前記撮影画像を当該定数を用いて補正することにより前記補正画像を作成する。この構成によっても、本発明特有の効果を同様に得ることが可能となる。
Next, technical ideas that can be grasped from the above-described embodiment and other examples will be described below together with their effects.
(1) In any one of claims 1 to 3, the corrected image creating means is configured to calculate at least two of the non-light-projected image, the light-projected image, and the light-projected difference image, and the external light. The correction image is created by obtaining a constant capable of suppressing the luminance non-uniformity on the photographed image due to the image and correcting the photographed image photographed by the photographing means using the constant. Also with this configuration, it is possible to obtain the effects specific to the present invention in the same manner.

(2)請求項1〜3のいずれかにおいて、前記補正画像作成手段は、前記撮影手段が組を成す前記非投光画像及び前記投光画像を取得する度に前記補正画像の作成を逐次行う。この構成によれば、その時々に適した好適な補正画像が作成されるので、検出対象をより高い精度で検出することが可能となる。   (2) In any one of claims 1 to 3, the correction image creation means sequentially creates the correction image every time the non-light-projected image and the light-projected image that the photographing means forms a set. . According to this configuration, since a suitable corrected image suitable for the time is created, it becomes possible to detect the detection target with higher accuracy.

一実施形態の画像処理式物体検出装置の概略構成を示す構成図。1 is a configuration diagram illustrating a schematic configuration of an image processing type object detection device according to an embodiment. コントローラがカメラとやり取りする各種信号の波形を示す波形図。The wave form diagram which shows the waveform of the various signals which a controller communicates with a camera. 画像処理式物体検出装置を機能ブロックで表現したブロック図。The block diagram which expressed the image processing type object detection apparatus with the functional block. カメラにより撮影される非投光画像の画像図。The image figure of the non-projection image image | photographed with a camera. カメラにより撮影される投光画像の画像図。The image figure of the light projection image image | photographed with a camera. 非投光画像と投光画像との間の差分である投光差分画像の画像図。The image figure of the light projection difference image which is a difference between a non-light projection image and a light projection image. 撮影画像を補正して輝度不均一さが低減された補正画像の画像図。The image figure of the correction image by which the brightness | luminance nonuniformity was reduced by correct | amending a picked-up image. 従来における画像処理式物体検出装置の具体的構成を示す構成図。The block diagram which shows the specific structure of the image processing type object detection apparatus in the past. 検出対象の一部分に外部光が照射された状態を示すイメージ図。The image figure which shows the state by which external light was irradiated to a part of detection object. 各種画像における輝度の大小関係を示す概念図。The conceptual diagram which shows the magnitude relationship of the brightness | luminance in various images.

符号の説明Explanation of symbols

1…検出対象、2…画像処理式物体検出装置、5…撮影手段としてのカメラ、6…照明手段としての照明装置、10…外部光、15…撮影画像を構成する非投光画像、16…撮影画像を構成する投光画像、17…投光差分画像、18…補正画像、20…補正画像作成手段及び抽出手段を構成する画像処理部、23…外部光非照射部、24…外部光照射部、Pic…撮影画像、C…定数。   DESCRIPTION OF SYMBOLS 1 ... Detection object, 2 ... Image processing type object detection apparatus, 5 ... Camera as imaging | photography means, 6 ... Illumination device as illumination means, 10 ... External light, 15 ... Non-projection image which comprises a picked-up image, 16 ... Projected image constituting a projected image, 17... Projected difference image, 18... Corrected image, 20... Image processing unit constituting corrected image creating means and extracting means, 23. Part, Pic ... photographed image, C ... constant.

Claims (3)

少なくとも検出対象を撮影手段で撮影可能であり、その撮影時において少なくとも前記検出対象を照明手段で照明可能であり、前記照明手段で前記検出対象を照明していない時に前記撮影手段が撮影した非投光画像と、前記照明手段で前記検出対象を照明した時の前記撮影手段が撮影した投光画像とを連続的に取得し、前記非投光画像と前記投光画像との差分である投光差分画像を用いて前記検出対象を前記撮影画像から検出する画像処理式物体検出装置において、
前記撮影手段により撮影される前記撮影画像と、当該撮影画像から導出される前記投光差分画像とを用いて、前記撮影手段の被写体である前記検出対象の一部分に外部光が部分照射されていても、撮影画像において当該外部光に起因する輝度不均一さが低く抑えられた補正画像を作成する補正画像作成手段と、
前記補正画像作成手段により作成された前記補正画像から前記検出対象に対応する画像領域を抽出することにより前記検出対象を前記撮影画像から検出する抽出手段と
を備えたことを特徴とする画像処理式物体検出装置。
At least the detection target can be photographed by the photographing means, and at the time of photographing, at least the detection target can be illuminated by the illumination means, and the non-projection photographed by the photographing means when the detection target is not illuminated by the illumination means. A light image and a projected light that is a difference between the non-projected image and the projected image are obtained by continuously acquiring a light image and a projected image captured by the photographing unit when the detection unit is illuminated by the illumination unit. In the image processing type object detection device that detects the detection target from the captured image using a difference image,
Using the captured image captured by the imaging unit and the light projection difference image derived from the captured image, a part of the detection target that is a subject of the imaging unit is partially irradiated with external light. A corrected image creating means for creating a corrected image in which brightness non-uniformity caused by the external light in the captured image is suppressed, and
An image processing expression comprising: an extraction unit that detects the detection target from the captured image by extracting an image region corresponding to the detection target from the correction image generated by the correction image generation unit. Object detection device.
前記補正画像作成手段は、前記非投光画像の中で前記外部光が映り出た画像領域である外部光照射部の輝度と該外部光が映り出ていない画像領域である外部光非照射部の輝度との間の差と、前記投光差分画像の中で前記外部光が映り出た画像領域である外部光照射部の輝度と該外部光が映り出ていない画像領域である外部光非照射部の輝度との間の差とを除算することにより、前記外部光に起因する撮影画像上の輝度不均一さを抑え得る定数を求め、前記投光差分画像の一画素に前記定数を乗算してこれを該一画素に対応する前記非投光画像の一画素に加えることを前記撮影画像の各々の画素ごとに行って、これら画素群から成る画像を前記補正画像として作成することを特徴とする請求項1に記載の画像処理式物体検出装置。   The corrected image creating means includes an external light non-irradiation unit that is an image region in which the external light is not reflected and luminance of the external light irradiation unit that is an image region in which the external light is reflected in the non-projected image Between the brightness of the external light and the brightness of the external light irradiation unit, which is the image area in which the external light is reflected, in the light projection difference image and the external light non-existence, which is an image area in which the external light is not reflected By dividing the difference between the brightness of the irradiation unit and the brightness, a constant that can suppress brightness non-uniformity on the captured image caused by the external light is obtained, and one pixel of the light projection difference image is multiplied by the constant. Then, adding this to one pixel of the non-projected image corresponding to the one pixel is performed for each pixel of the photographed image, and an image composed of these pixel groups is created as the corrected image. The image processing type object detection device according to claim 1. 前記輝度は、それぞれ対応する前記照射部の画像領域において前記撮影手段の各検出単位が出力する輝度の平均値であることを特徴とする請求項2に記載の画像処理式物体検出装置。   3. The image processing type object detection device according to claim 2, wherein the luminance is an average value of luminance output by each detection unit of the photographing unit in the corresponding image area of the irradiation unit.
JP2007207973A 2007-08-09 2007-08-09 Object detector of image processing type Pending JP2009042098A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007207973A JP2009042098A (en) 2007-08-09 2007-08-09 Object detector of image processing type

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007207973A JP2009042098A (en) 2007-08-09 2007-08-09 Object detector of image processing type

Publications (1)

Publication Number Publication Date
JP2009042098A true JP2009042098A (en) 2009-02-26

Family

ID=40442981

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007207973A Pending JP2009042098A (en) 2007-08-09 2007-08-09 Object detector of image processing type

Country Status (1)

Country Link
JP (1) JP2009042098A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012088785A (en) * 2010-10-15 2012-05-10 Toyota Central R&D Labs Inc Object identification device and program
KR101389865B1 (en) 2013-02-28 2014-04-29 주식회사 펀진 System for image recognition and method using the same
US10397497B1 (en) 2017-08-14 2019-08-27 Apple Inc. Solar invariant imaging system for object detection

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012088785A (en) * 2010-10-15 2012-05-10 Toyota Central R&D Labs Inc Object identification device and program
KR101389865B1 (en) 2013-02-28 2014-04-29 주식회사 펀진 System for image recognition and method using the same
US10397497B1 (en) 2017-08-14 2019-08-27 Apple Inc. Solar invariant imaging system for object detection

Similar Documents

Publication Publication Date Title
US9386236B2 (en) Periodic fringe imaging with structured pattern illumination and electronic rolling shutter detection
JP4337353B2 (en) Flicker detection device, flicker correction device, imaging device, flicker detection program, and flicker correction program
JP4809443B2 (en) Automatic flicker correction in image capture devices
RU2627933C2 (en) Image capturing device and device control method
JP2010103746A (en) Imaging apparatus
JP2010286791A5 (en)
JP2006277085A (en) Optical pointing controller and pointing system using same device
JP6576028B2 (en) Image processing apparatus and image processing method
US9979876B2 (en) Imaging apparatus, imaging method, and storage medium
JP2011155396A (en) Image capture apparatus
JP5331766B2 (en) Imaging device
JP2008249430A (en) Two-dimensional information detecting method and its device
JP2013126165A (en) Imaging apparatus, imaging method, and program
JP2009042098A (en) Object detector of image processing type
WO2019044009A1 (en) Image generation control device, image generation control method, and image generation control program
JP6652303B2 (en) Flash band determination device, control method thereof, control program, and imaging device
JP2012085790A (en) Endoscopic system
JP5440245B2 (en) Imaging device
JP2017225073A (en) Imaging device and control method for the same, program and imaging system
JP2006252363A (en) Detector for object around vehicle, and method of detecting object around vehicle
JP2008199195A (en) Camera device and its control method
JP5818451B2 (en) Imaging apparatus and control method
JP2006074460A (en) Object detecting device and method
JP2007329604A (en) Fluorescent light flicker detection circuit
JP2017083788A (en) Display device and method for controlling display device