JP6123137B2 - Camera device - Google Patents

Camera device Download PDF

Info

Publication number
JP6123137B2
JP6123137B2 JP2013190833A JP2013190833A JP6123137B2 JP 6123137 B2 JP6123137 B2 JP 6123137B2 JP 2013190833 A JP2013190833 A JP 2013190833A JP 2013190833 A JP2013190833 A JP 2013190833A JP 6123137 B2 JP6123137 B2 JP 6123137B2
Authority
JP
Japan
Prior art keywords
image
unit
light
imaging unit
period
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013190833A
Other languages
Japanese (ja)
Other versions
JP2015056859A (en
Inventor
康洋 森
康洋 森
良彦 原野
良彦 原野
橋本 裕介
裕介 橋本
山中 睦裕
睦裕 山中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2013190833A priority Critical patent/JP6123137B2/en
Publication of JP2015056859A publication Critical patent/JP2015056859A/en
Application granted granted Critical
Publication of JP6123137B2 publication Critical patent/JP6123137B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Stroboscope Apparatuses (AREA)
  • Cameras In General (AREA)
  • Blocking Light For Cameras (AREA)
  • Studio Devices (AREA)

Description

本発明は、透明部材を通して透明部材の反対側の空間領域を撮像するカメラ装置に関する。   The present invention relates to a camera device that images a spatial region on the opposite side of a transparent member through the transparent member.

従来、所望の撮像目標物が撮像素子側から見て透明または半透明の物体の向こう側にある場合でも、物体への外光の映り込みの影響を受けずに、撮像目標物を鮮明に撮像した画像を得る技術が提案されている(たとえば、特許文献1参照)。特許文献1には、偏光フィルタを用いることにより、透明または半透明の物体で生じる反射光を軽減する技術が記載されている。   Conventionally, even when a desired imaging target is behind a transparent or translucent object as viewed from the image sensor side, the imaging target is clearly imaged without being affected by the reflection of external light on the object. There has been proposed a technique for obtaining such an image (see, for example, Patent Document 1). Patent Document 1 describes a technique for reducing reflected light generated in a transparent or translucent object by using a polarizing filter.

特開2010−109562号公報JP 2010-109562 A

特許文献1に記載された構成は、主として外光の写り込みを防止する技術であって、日中のように撮像目標物に照射される光の強度が高い場合には、透明または半透明の物体の向こう側にある撮像目標物を撮像可能と考えられる。しかしながら、夜間のように撮像目標物に照射される光が少ない場合は、透明または半透明の物体の向こう側にある撮像目標物を撮像することは困難である。   The configuration described in Patent Document 1 is a technique that mainly prevents external light from being reflected, and is transparent or translucent when the intensity of light irradiated to the imaging target is high, such as during the daytime. It can be considered that an imaging target located beyond the object can be imaged. However, when the amount of light irradiated to the imaging target is low, such as at night, it is difficult to image the imaging target behind the transparent or translucent object.

本発明は、夜間のように周囲の光が少ない場合でも、透明部材を通して所要の空間領域の画像を得ることを可能にしたカメラ装置を提供することを目的とする。   An object of the present invention is to provide a camera device that can obtain an image of a required spatial region through a transparent member even when the ambient light is low, such as at night.

本発明に係るカメラ装置は、特定方向の視野を有し画像を出力する撮像部と、前記視野の少なくとも一部に重なる第1の空間領域に光を照射する第1の照射部と、前記視野以外を含む第2の空間領域に光を照射する第2の照射部と、前記撮像部の視野に透明部材が存在する場合に、当該透明部材に対して前記撮像部の反対側である空間領域の画像を前記撮像部が出力した画像から抽出するために、前記第1の照射部が照射した光を用いて前記撮像部が撮像した第1の画像と、前記第2の照射部が照射した光を用いて前記撮像部が撮像した第2の画像とを用い、前記第1の画像と前記第2の画像とについて、同じ位置である2画素の画素値の少なくとも一方に所定の補正係数を乗じて差分を求め、この差分を画素値とする差分画像を生成する画像処理部と、前記撮像部と前記第1の照射部と前記第2の照射部と前記画像処理部との動作を制御する制御部とを備え、前記補正係数は、前記第1の画像から前記透明部材による反射光の成分を低減させるように設定されることを特徴とする。   The camera device according to the present invention includes an imaging unit that has a visual field in a specific direction and outputs an image, a first irradiation unit that irradiates light to a first spatial region that overlaps at least a part of the visual field, and the visual field When a transparent member is present in the field of view of the second irradiating unit that irradiates light to the second spatial region including other than the imaging unit, the spatial region that is opposite to the imaging unit with respect to the transparent member In order to extract the image of 1 from the image output by the imaging unit, the first image captured by the imaging unit using the light irradiated by the first irradiation unit and the second irradiation unit irradiated Using a second image picked up by the image pickup unit using light, a predetermined correction coefficient is applied to at least one of two pixel values at the same position for the first image and the second image. Multiplying to find the difference and generating a difference image with this difference as the pixel value A processing unit, and a control unit that controls operations of the imaging unit, the first irradiation unit, the second irradiation unit, and the image processing unit, and the correction coefficient is calculated from the first image It is set so that the component of the reflected light by a transparent member may be reduced.

このカメラ装置において、前記第1の照射部および前記第2の照射部は、前記撮像部と一体に結合されており、前記第1の照射部は、前記撮像部の光軸の向きに光を照射し、前記第2の照射部は、前記撮像部の視野を除く空間領域を前記第2の空間領域とすることが好ましい。   In this camera device, the first irradiation unit and the second irradiation unit are integrally coupled with the imaging unit, and the first irradiation unit emits light in the direction of the optical axis of the imaging unit. It is preferable that the second irradiating unit irradiates a spatial region excluding the field of view of the imaging unit as the second spatial region.

このカメラ装置において、前記制御部は、前記第1の照射部が光を照射する第1の期間と、前記第2の照射部が光を照射する第2の期間とが異なる期間になるように、前記第1の照射部および前記第2の照射部を制御し、かつ前記第1の期間に前記第1の画像を撮像し、前記第2の期間に前記第2の画像を撮像するように、前記撮像部を制御することが好ましい。   In this camera device, the control unit may be configured such that a first period in which the first irradiation unit irradiates light and a second period in which the second irradiation unit irradiates light are different. , Controlling the first irradiating unit and the second irradiating unit, capturing the first image during the first period, and capturing the second image during the second period. It is preferable to control the imaging unit.

このカメラ装置において、前記制御部は、前記第1の期間と前記第2の期間とを交互に生成するように、前記第1の照射部および前記第2の照射部を制御することがさらに好ましい。   In this camera device, it is further preferable that the control unit controls the first irradiation unit and the second irradiation unit so as to alternately generate the first period and the second period. .

このカメラ装置において、前記撮像部は、前記第1の期間に前記第1の画像を撮像する第1の撮像部と、前記第2の期間に前記第2の画像を撮像する第2の撮像部とを個別に備え、前記制御部は、前記第1の期間に前記第2の撮像部から前記第2の画像を出力させ、前記第2の期間に前記第1の撮像部から前記第1の画像を出力させることがさらに好ましい。   In this camera device, the imaging unit includes a first imaging unit that captures the first image during the first period, and a second imaging unit that captures the second image during the second period. The control unit causes the second imaging unit to output the second image during the first period, and causes the first imaging unit to output the first image during the second period. It is further preferable to output an image.

このカメラ装置において、前記第2の照射部は、光の放射方向が異なる複数の発光部を備えることが好ましい。   In this camera device, it is preferable that the second irradiation unit includes a plurality of light emitting units having different light emission directions.

このカメラ装置において、前記第1の照射部は、光を出力する発光部と、前記発光部から出力された光のうち特定の振動面を有する直線偏光を通す第1の偏光フィルタとを備え、前記撮像部は、前記第1の偏光フィルタを通る直線偏光の振動面に対して交差する方向の振動面を有する光を通過させる第2の偏光フィルタを備えることが好ましい。   In this camera device, the first irradiation unit includes a light emitting unit that outputs light, and a first polarizing filter that passes linearly polarized light having a specific vibration surface out of the light output from the light emitting unit, It is preferable that the imaging unit includes a second polarizing filter that allows light having a vibration surface in a direction intersecting with a vibration surface of linearly polarized light passing through the first polarizing filter to pass.

このカメラ装置において、前記発光部は、光源と、前記光源から放射され前記第1の偏光フィルタで反射された光を前記第1の空間領域の向きに拡散反射させる反射部材とを備えることがさらに好ましい。   In this camera device, the light emitting unit may further include a light source and a reflecting member that diffusely reflects the light emitted from the light source and reflected by the first polarizing filter in the direction of the first spatial region. preferable.

このカメラ装置において、前記制御部は、前記第1の照射部および前記第2の照射部がともに光を照射しない非照射期間を設けるように、前記第1の照射部および前記第2の照射部を制御し、前記第1の期間と前記第2の期間とに加えて前記非照射期間に撮像するように前記撮像部を制御し、前記画像処理部は、前記第1の期間に前記撮像部が撮像した画像と前記非照射期間に前記撮像部が撮像した画像とから、同じ位置の画素の画素値の差分を求め、この差分を画素値とする画像を前記第1の画像に用い、前記第2の期間に前記撮像部が撮像した画像と前記非照射期間に前記撮像部が撮像した画像とから、同じ位置の画素の画素値の差分を求め、この差分を画素値とする画像を前記第2の画像に用いることが好ましい。   In this camera device, the control unit includes the first irradiation unit and the second irradiation unit so as to provide a non-irradiation period in which neither the first irradiation unit nor the second irradiation unit emits light. And controlling the imaging unit so that imaging is performed in the non-irradiation period in addition to the first period and the second period, and the image processing unit is configured to control the imaging unit in the first period. From the image captured by the image capturing unit and the image captured by the image capturing unit during the non-irradiation period, a difference between pixel values of pixels at the same position is obtained, and an image using the difference as a pixel value is used for the first image. From the image captured by the imaging unit during the second period and the image captured by the imaging unit during the non-irradiation period, a difference between the pixel values of the pixels at the same position is obtained, and an image using the difference as the pixel value is determined as the pixel value. It is preferably used for the second image.

このカメラ装置において、前記撮像部は、前記第1の照射部および前記第2の照射部が照射する光の波長を選択的に透過させる光学フィルタを備えることが好ましい。   In this camera apparatus, it is preferable that the imaging unit includes an optical filter that selectively transmits a wavelength of light emitted by the first irradiation unit and the second irradiation unit.

このカメラ装置において、前記画像処理部は、前記第1の画像と前記第2の画像との少なくとも一方の画素の画素値に乗じる前記補正係数を、前記画素の位置に応じて設定したテーブルを備えることが好ましい。   In this camera device, the image processing unit includes a table in which the correction coefficient to be multiplied by a pixel value of at least one pixel of the first image and the second image is set according to the position of the pixel. It is preferable.

このカメラ装置において、前記画像処理部は、前記補正係数を異ならせて前記差分画像を生成し、前記差分画像から求められるエッジの個数に対する評価値が所定の条件を満たすときに、当該補正係数を採用することが好ましい。   In this camera device, the image processing unit generates the difference image by changing the correction coefficient, and sets the correction coefficient when an evaluation value for the number of edges obtained from the difference image satisfies a predetermined condition. It is preferable to adopt.

このカメラ装置において、前記画像処理部は、前記補正係数を異ならせて前記差分画像を生成し、前記差分画像から求められる画素値に対する評価値が所定の条件を満たすときに、当該補正係数を採用することが好ましい。   In this camera device, the image processing unit generates the difference image by changing the correction coefficient, and adopts the correction coefficient when an evaluation value for a pixel value obtained from the difference image satisfies a predetermined condition. It is preferable to do.

このカメラ装置において、前記制御部は、前記第1の画像と前記第2の画像とを、前記撮像部の1フレームを単位として生成することが好ましい。   In this camera device, it is preferable that the control unit generates the first image and the second image in units of one frame of the imaging unit.

このカメラ装置において、前記制御部は、前記第1の画像の画素値に所定の基準値を超える変化が生じたときに、前記第2の画像を取得することが好ましい。   In this camera device, it is preferable that the control unit obtains the second image when a pixel value of the first image exceeds a predetermined reference value.

このカメラ装置において、前記制御部は、前記第2の画像を一定の時間間隔で取得することが好ましい。   In this camera device, it is preferable that the control unit obtains the second image at regular time intervals.

このカメラ装置において、前記第1の照射部と前記第2の照射部とは、照射する光の波長が異なっており、前記撮像部は、前記第1の照射部から照射される光の波長を選択的に透過させる第1の光学フィルタを備える第1の撮像部と、前記第2の照射部から照射される光の波長を選択的に透過させる第2の光学フィルタを備える第2の撮像部とを備え、前記第1の画像は前記第1の撮像部が撮像した画像を用い、前記第2の画像は前記第2の撮像部が撮像した画像を用いることが好ましい。   In this camera device, the first irradiation unit and the second irradiation unit have different wavelengths of light to be irradiated, and the imaging unit determines the wavelength of light irradiated from the first irradiation unit. A first imaging unit including a first optical filter that selectively transmits, and a second imaging unit including a second optical filter that selectively transmits the wavelength of light emitted from the second irradiation unit. Preferably, the first image is an image captured by the first imaging unit, and the second image is an image captured by the second imaging unit.

このカメラ装置において、前記画像処理部は、異なる時刻に得られた複数の前記差分画像を用い、前記差分画像内の変化を検出することにより、前記第1の空間領域への侵入物を検出することが好ましい。   In this camera device, the image processing unit detects an intruder into the first space region by using a plurality of the difference images obtained at different times and detecting a change in the difference image. It is preferable.

本発明の構成によれば、撮像部の視野の少なくとも一部に重なる空間領域に光を照射する第1の照射部と、撮像部の視野以外を含む空間領域に光を照射する第2の照射部とを設け、第1の照射部から光を照射している期間に撮像した画像と、第2の照射部から光を照射している期間に撮像した画像とを用いて、透明部材の写り込みの影響を除去するから、夜間のように周囲の光が少ない場合でも、透明部材を通して所要の空間領域の画像を得ることが可能になる。   According to the configuration of the present invention, the first irradiation unit that irradiates light to a spatial region that overlaps at least part of the visual field of the imaging unit, and the second irradiation that irradiates light to a spatial region that includes other than the visual field of the imaging unit. A transparent member using an image captured during a period in which light is emitted from the first irradiation unit and an image captured in a period during which light is emitted from the second irradiation unit. Therefore, even when the ambient light is low, such as at night, an image of a required spatial region can be obtained through the transparent member.

実施形態1を示すブロック図である。1 is a block diagram illustrating a first embodiment. 実施形態1の使用例を示す平面図である。FIG. 3 is a plan view illustrating a usage example of the first embodiment. 実施形態1の動作例を示す図である。FIG. 6 is a diagram illustrating an operation example of the first embodiment. 実施形態1を示す概略構成図である。1 is a schematic configuration diagram illustrating a first embodiment. 実施形態1の要部の構成例を示す概略構成図である。FIG. 2 is a schematic configuration diagram illustrating a configuration example of a main part of the first embodiment. 実施形態1における画像の例を示す図である。3 is a diagram illustrating an example of an image in Embodiment 1. FIG. 実施形態1の要部の構成例を示す概略図である。FIG. 2 is a schematic diagram illustrating a configuration example of a main part of the first embodiment. 実施形態1の要部の構成例を示す概略図である。FIG. 2 is a schematic diagram illustrating a configuration example of a main part of the first embodiment. 実施形態1の要部の構成例を示すブロック図である。FIG. 3 is a block diagram illustrating a configuration example of a main part of the first embodiment. 実施形態2を示すブロック図である。FIG. 6 is a block diagram illustrating a second embodiment. 実施形態2の動作例を示す図である。10 is a diagram illustrating an operation example of Embodiment 2. FIG. 実施形態3を示すブロック図である。FIG. 6 is a block diagram illustrating a third embodiment.

(実施形態1)
図1に示すように、以下に説明するカメラ装置1は、撮像部10と第1の照射部11と第2の照射部12と画像処理部13と制御部14とを備える。撮像部10は、特定方向の視野20(図2参照)を有し画像を出力する。第1の照射部11は、視野20の少なくとも一部に重なる第1の空間領域21(図2参照)に光を照射する。第2の照射部12は、視野20以外を含む第2の空間領域22(図2参照)に光を照射する。
(Embodiment 1)
As shown in FIG. 1, the camera device 1 described below includes an imaging unit 10, a first irradiation unit 11, a second irradiation unit 12, an image processing unit 13, and a control unit 14. The imaging unit 10 has a visual field 20 (see FIG. 2) in a specific direction and outputs an image. The 1st irradiation part 11 irradiates light to the 1st space area | region 21 (refer FIG. 2) which overlaps at least one part of the visual field 20. FIG. The 2nd irradiation part 12 irradiates light to the 2nd space area | region 22 (refer FIG. 2) other than the visual field 20. FIG.

画像処理部13は、撮像部10の視野20に透明部材23が存在する場合に、透明部材23に対して撮像部10の反対側である空間領域の画像を撮像部10が出力した画像から抽出する。空間領域211の画像を抽出するために、第1の照射部11が照射した光を用いて撮像部10が撮像した第1の画像51(図6参照)と、第2の照射部12が照射した光を用いて撮像部10が撮像した第2の画像52(図6参照)とを用いる。画像処理部13は、第1の画像51と第2の画像52とについて、同じ位置である2画素の画素値の少なくとも一方に所定の補正係数を乗じて差分を求め、この差分を画素値とする差分画像53(図6参照)を生成する。制御部14は、撮像部10と第1の照射部11と第2の照射部12と画像処理部13との動作を制御する。補正係数は、第1の画像51から透明部材23による反射光の成分を低減させるように設定される。   When the transparent member 23 is present in the visual field 20 of the imaging unit 10, the image processing unit 13 extracts an image of a spatial region on the opposite side of the imaging unit 10 with respect to the transparent member 23 from the image output by the imaging unit 10. To do. In order to extract the image of the spatial region 211, the first image 51 (see FIG. 6) captured by the imaging unit 10 using the light irradiated by the first irradiation unit 11 and the second irradiation unit 12 emit the light. The second image 52 (see FIG. 6) captured by the imaging unit 10 using the light that has been used is used. The image processing unit 13 obtains a difference between the first image 51 and the second image 52 by multiplying at least one of the pixel values of two pixels at the same position by a predetermined correction coefficient, and this difference is calculated as the pixel value. The difference image 53 (see FIG. 6) to be generated is generated. The control unit 14 controls operations of the imaging unit 10, the first irradiation unit 11, the second irradiation unit 12, and the image processing unit 13. The correction coefficient is set so as to reduce the component of light reflected by the transparent member 23 from the first image 51.

また、第1の照射部11および第2の照射部12は、撮像部10と一体に結合されていることが望ましい。この場合、第1の照射部11は、撮像部10の光軸の向きに光を照射し、第2の照射部12は、撮像部10の視野を除く空間領域を第2の空間領域22とすることが望ましい。   Further, it is desirable that the first irradiation unit 11 and the second irradiation unit 12 are integrally coupled to the imaging unit 10. In this case, the first irradiating unit 11 irradiates light in the direction of the optical axis of the imaging unit 10, and the second irradiating unit 12 defines the spatial region excluding the visual field of the imaging unit 10 as the second spatial region 22. It is desirable to do.

さらに、制御部14は、第1の照射部11が光を照射する第1の期間41(図3参照)と、第2の照射部12が光を照射する第2の期間42(図3参照)とが異なる期間になるように、第1の照射部11および第2の照射部12を制御する。また、制御部14は、第1の期間41に第1の画像51を撮像し、第2の期間42に第2の画像52を撮像するように、撮像部10を制御することが望ましい。   Furthermore, the control unit 14 includes a first period 41 (see FIG. 3) in which the first irradiation unit 11 emits light, and a second period 42 (see FIG. 3) in which the second irradiation unit 12 emits light. The first irradiating unit 11 and the second irradiating unit 12 are controlled so as to be different from each other. In addition, it is desirable that the control unit 14 controls the imaging unit 10 so that the first image 51 is captured in the first period 41 and the second image 52 is captured in the second period 42.

本実施形態において、制御部14は、第1の期間41と第2の期間42とを交互に生成するように、第1の照射部11および第2の照射部12を制御する。   In the present embodiment, the control unit 14 controls the first irradiation unit 11 and the second irradiation unit 12 so as to alternately generate the first period 41 and the second period 42.

第2の照射部12は、図5に示すように、光の放射方向が異なる複数の発光部112を備えることが好ましい。   As shown in FIG. 5, the second irradiation unit 12 preferably includes a plurality of light emitting units 112 having different light emission directions.

また、第1の照射部11は、図7に示すように、光を出力する発光部112と、発光部112から出力された光のうち特定の振動面を有する直線偏光を通す第1の偏光フィルタ113とを備えることが好ましい。この場合、撮像部10は、第1の偏光フィルタ113を通る直線偏光の振動面に対して交差する方向の振動面を有する光を通過させる第2の偏光フィルタ103を備えることが望ましい。さらに、発光部112は、光源111と、光源111から放射され第1の偏光フィルタ113で反射された光を第1の空間領域21の向きに拡散反射させる反射部材114とを備えていてもよい。   In addition, as shown in FIG. 7, the first irradiating unit 11 includes a light emitting unit 112 that outputs light, and a first polarized light that passes linearly polarized light having a specific vibration surface out of the light output from the light emitting unit 112. It is preferable to include a filter 113. In this case, the imaging unit 10 preferably includes a second polarizing filter 103 that allows light having a vibration surface in a direction intersecting with the vibration surface of linearly polarized light passing through the first polarizing filter 113 to pass therethrough. Further, the light emitting unit 112 may include a light source 111 and a reflection member 114 that diffuses and reflects light emitted from the light source 111 and reflected by the first polarizing filter 113 in the direction of the first spatial region 21. .

撮像部10は、第1の照射部11および第2の照射部12が照射する光の波長を選択的に透過させる光学フィルタ(光学要素102)を備えることが望ましい。   The imaging unit 10 preferably includes an optical filter (optical element 102) that selectively transmits the wavelength of light emitted by the first irradiation unit 11 and the second irradiation unit 12.

また、画像処理部13は、第1の画像51と第2の画像52との少なくとも一方の画素の画素値に乗じる補正係数を、画素の位置に応じて設定したテーブル1321(図9参照)を備えることが望ましい。また、画像処理部13は、補正係数を異ならせて差分画像53を生成し、差分画像53から求められるエッジの個数に対する評価値が所定の条件を満たすときに、当該補正係数を採用することが望ましい。あるいはまた、画像処理部13は、補正係数を異ならせて差分画像53を生成し、差分画像53から求められる画素値に対する評価値が所定の条件を満たすときに、当該補正係数を採用することが望ましい。   Further, the image processing unit 13 sets a table 1321 (see FIG. 9) in which a correction coefficient to be multiplied by the pixel value of at least one pixel of the first image 51 and the second image 52 is set according to the pixel position. It is desirable to provide. Further, the image processing unit 13 generates the difference image 53 with different correction coefficients, and adopts the correction coefficient when the evaluation value for the number of edges obtained from the difference image 53 satisfies a predetermined condition. desirable. Alternatively, the image processing unit 13 may generate the difference image 53 with different correction coefficients, and adopt the correction coefficient when the evaluation value for the pixel value obtained from the difference image 53 satisfies a predetermined condition. desirable.

制御部14は、第1の画像51と第2の画像52とを、撮像部10の1フレームを単位として生成することが望ましい。また、制御部14は、第1の画像51の画素値に所定の基準値を超える変化が生じたときに、第2の画像52を取得するか、第2の画像52を一定の時間間隔で取得するようにしてもよい。   The control unit 14 desirably generates the first image 51 and the second image 52 in units of one frame of the imaging unit 10. Further, the control unit 14 acquires the second image 52 when the pixel value of the first image 51 exceeds a predetermined reference value, or acquires the second image 52 at a constant time interval. You may make it acquire.

以下、本実施形態の構成をさらに詳しく説明する。ここでは、図2のように、建物30の室内31において窓32の近くにカメラ装置1を配置し、室外32を監視の対象としてカメラ装置1により撮影する場合を想定する。カメラ装置1は、窓32から数cm〜数十cm程度離れて配置される。   Hereinafter, the configuration of the present embodiment will be described in more detail. Here, as shown in FIG. 2, it is assumed that the camera device 1 is arranged near the window 32 in the room 31 of the building 30 and the outdoor device 32 is taken as an object to be monitored by the camera device 1. The camera device 1 is arranged away from the window 32 by several cm to several tens of cm.

窓32には透明部材23である窓ガラス231が配置され、カメラ装置1は、窓ガラス231を通して室外32の空間領域211を撮影する。空間領域211は、カメラ装置1が備える撮像部10の視野20の範囲に含まれ、窓ガラス231に対して室外32となる空間領域を意味する。撮像部10は、濃淡画像またはカラー画像を出力するように構成されている。以下では、撮像部10が濃淡画像を出力する場合を例として説明する。撮像部10は、図4に示すように、CCDイメージセンサあるいはCMOSイメージセンサのような撮像素子101と、撮像素子101に入射する光を制御する受光用のレンズ(図示せず)を含む光学要素102とを備える。光学要素102の構成例は後述する。   A window glass 231, which is a transparent member 23, is disposed in the window 32, and the camera device 1 photographs the space region 211 in the outdoor 32 through the window glass 231. The spatial region 211 is included in the range of the visual field 20 of the imaging unit 10 provided in the camera device 1 and means a spatial region that is the outdoor 32 with respect to the window glass 231. The imaging unit 10 is configured to output a grayscale image or a color image. Hereinafter, a case where the imaging unit 10 outputs a grayscale image will be described as an example. As shown in FIG. 4, the imaging unit 10 includes an imaging element 101 such as a CCD image sensor or a CMOS image sensor, and an optical element including a light receiving lens (not shown) that controls light incident on the imaging element 101. 102. A configuration example of the optical element 102 will be described later.

図2に示すように、カメラ装置1は、撮像部10に加えて、第1の照射部11および第2の照射部12を備える。第1の照射部11が光を照射する第1の空間領域21は、撮像部10の視野20にほぼ一致する。第1の空間領域21は、視野20と一致していることは必須ではなく、少なくとも一部が視野20と重なり、かつ監視の対象である室外32の所要の空間領域211を含んでいればよい。要するに、第1の照射部11は、窓ガラス231に対する室外32であってカメラ装置1により監視しようとする空間領域211に、光を照射するように構成されていればよい。第1の照射部11から照射される光は、窓ガラス231を透過し、かつ室外32の空間領域211に到達する必要があるから、第1の照射部11の光出力は比較的大きいことが望ましい。   As shown in FIG. 2, the camera device 1 includes a first irradiation unit 11 and a second irradiation unit 12 in addition to the imaging unit 10. The first spatial region 21 to which the first irradiation unit 11 emits light substantially coincides with the visual field 20 of the imaging unit 10. It is not essential that the first spatial region 21 coincides with the visual field 20, and at least a part of the first spatial region 21 may overlap the visual field 20 and include the required spatial region 211 of the outdoor 32 to be monitored. . In short, the 1st irradiation part 11 should just be comprised so that light may be irradiated to the space area | region 211 which is the outdoor 32 with respect to the window glass 231, and is going to monitor with the camera apparatus 1. FIG. Since the light emitted from the first irradiation unit 11 needs to pass through the window glass 231 and reach the space region 211 in the outdoor 32, the light output of the first irradiation unit 11 may be relatively large. desirable.

一方、第2の照射部12が光を照射する第2の空間領域22は、撮像部10の視野20ではない空間領域を含む。第2の空間領域22は、撮像部10の視野20を除く空間領域であることが望ましいが、撮像部10の視野20を一部に含むことは許容される。また、第2の空間領域22は、室内31であって、できるだけ広い角度範囲の空間領域であることが望ましい。   On the other hand, the second spatial region 22 to which the second irradiation unit 12 emits light includes a spatial region that is not the field of view 20 of the imaging unit 10. The second spatial region 22 is desirably a spatial region excluding the visual field 20 of the imaging unit 10, but it is allowed to include the visual field 20 of the imaging unit 10 as a part. In addition, the second space region 22 is the room 31 and is desirably a space region having as wide an angular range as possible.

第1の照射部11および第2の照射部12は、上述した機能を満足するために、たとえば、図5に示す構成を備える。図示する構成例は、発光ダイオードのような光源111を備える発光部112,122をベース110に取り付けた構成であって、第1の照射部11と第2の照射部12とを一体に備える。ベース110は、表面1101(図5の上面)が平面であり、裏面1102が外向きに凸である曲面に形成されている。また、表面1101と裏面1102とには、それぞれ複数個の発光部112,122が、適宜の間隔で配置されている。ベース110の表面は、白色塗料の塗布などによって、拡散反射性が付与されていることが望ましい。   The first irradiation unit 11 and the second irradiation unit 12 have, for example, the configuration shown in FIG. 5 in order to satisfy the functions described above. The configuration example shown in the figure is a configuration in which light emitting units 112 and 122 including a light source 111 such as a light emitting diode are attached to a base 110, and includes a first irradiation unit 11 and a second irradiation unit 12 integrally. The base 110 is formed in a curved surface having a front surface 1101 (upper surface in FIG. 5) as a flat surface and a back surface 1102 protruding outward. In addition, a plurality of light emitting portions 112 and 122 are arranged at appropriate intervals on the front surface 1101 and the back surface 1102, respectively. Desirably, the surface of the base 110 is given diffuse reflectivity by application of a white paint or the like.

図5に示す構成例では、第1の照射部11を構成する個々の発光部112および第2の照射部12を構成する個々の発光部122は、いずれも光の照射範囲の中心線の方向が、ベース110の外周面の法線方向にほぼ一致するように配置されている。発光部112,122からの光の照射範囲の中心線の方向は、発光部112,122からの光出力の分布における最大出力の方向にほぼ一致する。   In the configuration example shown in FIG. 5, the individual light emitting units 112 constituting the first irradiation unit 11 and the individual light emitting units 122 constituting the second irradiation unit 12 are both in the direction of the center line of the light irradiation range. Are arranged so as to substantially coincide with the normal direction of the outer peripheral surface of the base 110. The direction of the center line of the light irradiation range from the light emitting units 112 and 122 substantially coincides with the direction of the maximum output in the distribution of the light output from the light emitting units 112 and 122.

上述した構成により、第1の照射部11を構成する発光部112は、ほぼ同じ向きに配置され、それぞれの発光部112の照射範囲はほぼ重複する。一方、第2の照射部12を構成する複数個の発光部122は、光の照射範囲の中心線が放射状になるように配置される。したがって、第2の照射部12は、広い角度範囲に光を照射することが可能になる。また、図5に示す形状のベース110に、発光部112,122が取り付けられているから、第1の照射部11が光を照射する第1の空間領域21と、第2の照射部12が光を照射する第2の空間領域22とは重複せずに独立した範囲になる。   With the above-described configuration, the light emitting units 112 constituting the first irradiation unit 11 are arranged in substantially the same direction, and the irradiation ranges of the respective light emitting units 112 substantially overlap. On the other hand, the plurality of light emitting units 122 constituting the second irradiation unit 12 are arranged such that the center line of the light irradiation range is radial. Therefore, the second irradiation unit 12 can irradiate light over a wide angle range. In addition, since the light emitting units 112 and 122 are attached to the base 110 having the shape shown in FIG. 5, the first spatial region 21 where the first irradiation unit 11 irradiates light and the second irradiation unit 12 include It becomes an independent range without overlapping with the second spatial region 22 that irradiates light.

図1に示すように、撮像部10による撮像のタイミングと、第1の照射部11から光を照射するタイミングと、第2の照射部12から光を照射するタイミングとは、制御部14が制御する。制御部14は、たとえば、図3(a)に示すように、第1の照射部11と第2の照射部12とから光を交互に照射する。以下、第1の照射部11から光を照射する期間を第1の期間41と呼び、第2の照射部12から光を照射する期間を第2の期間42と呼ぶ。   As shown in FIG. 1, the control unit 14 controls the timing of imaging by the imaging unit 10, the timing of irradiating light from the first irradiation unit 11, and the timing of irradiating light from the second irradiation unit 12. To do. For example, as illustrated in FIG. 3A, the control unit 14 alternately emits light from the first irradiation unit 11 and the second irradiation unit 12. Hereinafter, a period in which light is emitted from the first irradiation unit 11 is referred to as a first period 41, and a period in which light is emitted from the second irradiation unit 12 is referred to as a second period 42.

また、制御部14は、図3(b)(c)に示すように、第1の期間41と第2の期間42とに、それぞれ撮像部10に撮像を行わせる。したがって、撮像部10は、第1の期間41には第1の照射部11が照射した光を用いて撮像し、第2の期間42には第2の照射部12が照射した光を用いて撮像する。以下では、撮像部10が第1の期間41に撮像した画像を第1の画像51(図6参照)と呼び、撮像部10が第2の期間42に撮像した画像を第2の画像52(図6参照)と呼ぶ。   In addition, as illustrated in FIGS. 3B and 3C, the control unit 14 causes the imaging unit 10 to perform imaging in the first period 41 and the second period 42, respectively. Therefore, the imaging unit 10 captures an image using the light irradiated by the first irradiation unit 11 during the first period 41 and uses the light irradiated by the second irradiation unit 12 during the second period 42. Take an image. Hereinafter, an image captured by the imaging unit 10 in the first period 41 is referred to as a first image 51 (see FIG. 6), and an image captured by the imaging unit 10 in the second period 42 is a second image 52 ( This is referred to as FIG.

第1の期間41と第2の期間42との最小の期間は、撮像部10が1フレームの画像を撮像する期間であって、フレーム毎に第1の画像51と第2の画像52との一方とすることが可能である。この場合、第1の照射部11および第2の照射部12が光を照射する時間も1フレームの期間になる。言い換えると、制御部14は、撮像部10が1フレームの画像を撮像するたびに、第1の照射部11から光を照射する状態と、第2の照射部12から光を照射する状態とを選択するのである。なお、第1の期間41と第2の期間42とは、それぞれ複数フレームに跨がっていてもよい。   The minimum period between the first period 41 and the second period 42 is a period in which the imaging unit 10 captures an image of one frame, and the first image 51 and the second image 52 are captured for each frame. One can be. In this case, the time during which the first irradiation unit 11 and the second irradiation unit 12 irradiate light is also a period of one frame. In other words, each time the imaging unit 10 captures an image of one frame, the control unit 14 has a state in which light is emitted from the first irradiation unit 11 and a state in which light is emitted from the second irradiation unit 12. Make a choice. Note that each of the first period 41 and the second period 42 may extend over a plurality of frames.

撮像部10は、窓ガラス231を通して室外32の空間領域211を撮影するから、第1の画像51および第2の画像52には、それぞれ室外32の空間領域211の情報と、窓ガラス231に映った室内31の情報とが含まれる。一方、本実施形態は、窓ガラス231に映った室内31の情報を減殺ないし除去し、室外32の空間領域211に関する情報を抽出することを目的にしている。   Since the imaging unit 10 captures the space area 211 of the outdoor 32 through the window glass 231, the information on the space area 211 of the outdoor 32 and the window glass 231 are reflected in the first image 51 and the second image 52, respectively. Information on the room 31 is included. On the other hand, the present embodiment aims to reduce or remove information on the room 31 reflected on the window glass 231 and extract information on the space region 211 of the outdoor 32.

第1の画像51は、第1の照射部11が照射した光を用いて撮像部10が撮像した画像であるから、図6(a)のように、室外32の空間領域211からの光が比較的多く含まれ、しかも、窓ガラス231で反射する室内31からの光も比較的多く含まれる。一方、第2の画像52は、第2の照射部12が照射した光を用いて撮像部10が撮像した画像であるから、図6(b)のように、室外32の空間領域211からの光は少ないが、窓ガラス231で反射する室内31からの光は比較的多く含まれる。   Since the first image 51 is an image captured by the imaging unit 10 using the light irradiated by the first irradiation unit 11, the light from the spatial region 211 in the outdoor 32 is received as shown in FIG. A relatively large amount of light from the room 31 reflected by the window glass 231 is also included. On the other hand, the second image 52 is an image picked up by the image pickup unit 10 using the light emitted by the second irradiation unit 12, and therefore, as shown in FIG. Although the amount of light is small, a relatively large amount of light from the room 31 reflected by the window glass 231 is included.

いま、第1の画像51の画素値(濃淡値)のうち、空間領域211に対応する成分をJ11、窓ガラス231からの反射光に対応する成分をJ12とする。また、第2の画像52の画素値(濃淡値)のうち、空間領域211に対応する成分をJ21、窓ガラス231からの反射光に対応する成分をJ22とする。なお、第1の画像51および第2の画像52において、ノイズになる外光や照明はここでは無視する。ノイズになる光は、後述する光学フィルタを用いて低減されるほか、後述する技術によっても低減される。   Now, of the pixel values (light and shade values) of the first image 51, the component corresponding to the spatial region 211 is J11, and the component corresponding to the reflected light from the window glass 231 is J12. Of the pixel values (light and shade values) of the second image 52, the component corresponding to the spatial region 211 is J21, and the component corresponding to the reflected light from the window glass 231 is J22. Note that, in the first image 51 and the second image 52, external light and illumination that cause noise are ignored here. Light that becomes noise is reduced by using an optical filter described later and also by a technique described later.

上述した符号を用いると、J11>J21、かつJ12<J22が成立すると考えられる。要するに、空間領域211からの光は第1の画像51のほうが多く、室内31からの光は第2の画像52のほうが多いと考えられる。ここで、J12=ω・J22の関係が成立するように、適宜の補正係数ωを定めることができれば、J11+J12−ω(J21+J22)=J11−ω・J21であって、室内31からの光を除去できる。   If the above-mentioned codes are used, it is considered that J11> J21 and J12 <J22 are established. In short, it is considered that the light from the space region 211 is more in the first image 51 and the light from the room 31 is more in the second image 52. Here, if an appropriate correction coefficient ω can be determined so that the relationship of J12 = ω · J22 is established, J11 + J12−ω (J21 + J22) = J11−ω · J21 and light from the room 31 is removed. it can.

すなわち、第2の画像52のそれぞれの画素の画素値に適宜の補正係数ωを乗じて求めた値を、第2の画像52と同位置である第1の画像51の画素の画素値から減算することにより、窓ガラス231に映った室内31の情報を減殺ないし除去できる。したがって、適宜の補正係数ωを設定すれば、第1の画像51と第2の画像52とから、図6(c)のように窓ガラス231での反射光の成分をほぼ除去した差分画像53が得られる。   That is, a value obtained by multiplying the pixel value of each pixel of the second image 52 by an appropriate correction coefficient ω is subtracted from the pixel value of the pixel of the first image 51 at the same position as the second image 52. By doing so, the information of the room 31 reflected on the window glass 231 can be reduced or removed. Therefore, if an appropriate correction coefficient ω is set, the difference image 53 in which the component of the reflected light from the window glass 231 is substantially removed from the first image 51 and the second image 52 as shown in FIG. Is obtained.

なお、ω・J12=J22が成立するように、適宜に補正係数ωを設定すれば、ω(J11+J12)−(J21+J22)=ω・J11−J21であり、この処理によっても窓ガラス231での反射光の成分をほぼ除去することが可能である。このように、第1の画像51の画素値と第2の画像52の画素値とのどちらに補正係数ωを乗じてもよく、また、両方にそれぞれ補正係数を乗じることも可能であるが、以下では、第2の画像52の画素値に補正係数ωを乗じる場合を例にして説明する。なお、補正係数ωを定める技術については後述する。   If the correction coefficient ω is appropriately set so that ω · J12 = J22 is established, ω (J11 + J12) − (J21 + J22) = ω · J11−J21, and this processing also reflects on the window glass 231. It is possible to substantially remove the light component. In this way, either the pixel value of the first image 51 or the pixel value of the second image 52 may be multiplied by the correction coefficient ω, or both may be multiplied by the correction coefficient, Hereinafter, a case where the pixel value of the second image 52 is multiplied by the correction coefficient ω will be described as an example. A technique for determining the correction coefficient ω will be described later.

第1の画像51と第2の画像52とを用いて窓ガラス231での反射光を除去する処理は、画像処理部13が行う。画像処理部13は、プログラムに従って以下に説明する機能を実現するコンピュータであって、プログラムを処理するプロセッサと、インターフェイス用のデバイスとを、主なハードウェア要素として構成される。この種のコンピュータは、メモリをプロセッサと一体に備えるマイコン、あるいはプロセッサとは別にメモリを備える構成など、どのような構成であってもよい。   The image processing unit 13 performs the process of removing the reflected light from the window glass 231 using the first image 51 and the second image 52. The image processing unit 13 is a computer that realizes functions described below according to a program, and includes a processor that processes the program and an interface device as main hardware elements. This type of computer may have any configuration such as a microcomputer including a memory integrally with a processor, or a configuration including a memory separately from the processor.

プログラムは、ROM(Read Only Memory)にあらかじめ格納しておくか、プログラム支援装置から書き込むか、あるいは、インターネットのような電気通信回線を通してダウンロードを行うことによって画像処理部13に実装される。また、プログラムは、コンピュータで読取可能な記録媒体により提供されるようにしてもよい。   The program is installed in the image processing unit 13 by storing in advance in a ROM (Read Only Memory), writing from a program support apparatus, or downloading through an electric communication line such as the Internet. The program may be provided by a computer-readable recording medium.

画像処理部13は、図1に示すように、撮像部10が撮像した濃淡画像を記憶する記憶部131を備える。記憶部131は、第1の期間41に第1の照射部11の光を用いて撮像した第1の画像51と、第2の期間42に第2の照射部12の光を用いて撮像した第2の画像52とを記憶する。画像処理部13は、記憶部131が記憶している第2の画像52の画素値(濃淡値)に乗じる補正係数を定める係数決定部132と、係数決定部132が定めた補正係数を用いて、上述した演算(重み付き減算)を行う演算部133とを備える。   As illustrated in FIG. 1, the image processing unit 13 includes a storage unit 131 that stores a grayscale image captured by the imaging unit 10. The storage unit 131 images the first image 51 captured using the light of the first irradiation unit 11 during the first period 41 and the light of the second irradiation unit 12 during the second period 42. The second image 52 is stored. The image processing unit 13 uses a coefficient determination unit 132 that determines a correction coefficient by which the pixel value (shading value) of the second image 52 stored in the storage unit 131 is multiplied, and a correction coefficient that is determined by the coefficient determination unit 132. And a calculation unit 133 that performs the above-described calculation (weighted subtraction).

演算部133は、第2の画像52のそれぞれの画素の画素値に補正係数を乗じた値を求める。第1の画像51の画素と第2の画像52の画素とは一対一に対応しているから、演算部133は、対応している2個ずつの画素(つまり、同位置の画素)ごとに、第1の画像51の画素の画素値から、第2の画像52の画素値に補正係数を乗じた値を減算する。そして、演算部133は、減算結果を該当する画素の新たな画素値とする差分画像53を生成する。すなわち、演算部133は、図6(a)に示す第1の画像51と、図6(b)に示す第2の画像52とから、図6(c)に示す差分画像53を生成する。   The computing unit 133 obtains a value obtained by multiplying the pixel value of each pixel of the second image 52 by the correction coefficient. Since the pixels of the first image 51 and the pixels of the second image 52 have a one-to-one correspondence, the arithmetic unit 133 performs the operation for every two corresponding pixels (that is, pixels at the same position). Then, a value obtained by multiplying the pixel value of the second image 52 by the correction coefficient is subtracted from the pixel value of the pixel of the first image 51. Then, the calculation unit 133 generates a difference image 53 using the subtraction result as a new pixel value of the corresponding pixel. That is, the calculation unit 133 generates a difference image 53 illustrated in FIG. 6C from the first image 51 illustrated in FIG. 6A and the second image 52 illustrated in FIG.

上述のようにして形成された差分画像では、窓ガラス231からの反射光の成分が減殺され、室外32の空間領域211の情報を画像から抽出することが容易になる。したがって、演算部133で求めた差分画像に基づいて、空間領域211における画像上の特徴量を抽出することが可能になり、たとえば、侵入者に対する警戒などが可能になる。また、空間領域211に対して第1の照射部11から光を照射しているから、夜間のように周囲光が少ない場合でも、空間領域211を監視することが可能になる。   In the difference image formed as described above, the component of the reflected light from the window glass 231 is reduced, and it becomes easy to extract the information of the spatial region 211 of the outdoor 32 from the image. Therefore, it is possible to extract the feature amount on the image in the space region 211 based on the difference image obtained by the calculation unit 133, and for example, it is possible to be wary of an intruder. Moreover, since light is irradiated from the 1st irradiation part 11 with respect to the space area | region 211, even when there is little ambient light like nighttime, it becomes possible to monitor the space area | region 211. FIG.

上述した動作例において、制御部14は、第1の照射部11と第2の照射部12とから交互に光を照射させているが、時間経過に対して第2の画像52の変化が少ない場合は、第1の照射部11と第2の照射部12とから交互に光を照射しなくてもよい。たとえば、制御部14は、第2の照射部12から光を1回照射させた後、第1の照射部11から光を複数回照射させるという動作を繰り返すようにしてもよい。   In the operation example described above, the control unit 14 irradiates light alternately from the first irradiation unit 11 and the second irradiation unit 12, but the change in the second image 52 is less with time. In this case, it is not necessary to irradiate light alternately from the first irradiation unit 11 and the second irradiation unit 12. For example, the control unit 14 may repeat the operation of irradiating the light from the second irradiation unit 12 once and then irradiating the light from the first irradiation unit 11 a plurality of times.

このことから、第2の期間42は、一定の時間間隔で設けるほか、第2の画像52に変化が生じたときにのみ設けることが可能である。後者の場合、第2の期間を設けるために第2の画像52を用いることはできない。そこで、制御部14は、第1の画像51の画素値の変化を監視し、第1の画像51において画素値の代表値の差分(絶対値)が所定の基準値を超える場合に、第2の画像52を更新する。画素値の代表値は、平均値、最頻値、中央値、レンジ(最大値と最小値との差)などが用いられる。   For this reason, the second period 42 can be provided only when a change occurs in the second image 52 in addition to being provided at regular time intervals. In the latter case, the second image 52 cannot be used to provide the second period. Therefore, the control unit 14 monitors the change in the pixel value of the first image 51, and when the difference (absolute value) of the representative value of the pixel value in the first image 51 exceeds a predetermined reference value, The image 52 is updated. As the representative value of the pixel value, an average value, a mode value, a median value, a range (difference between the maximum value and the minimum value), or the like is used.

すなわち、第1の画像51には、窓ガラス231で反射した光が含まれているから、第2の画像52に変化が生じる場合には、第1の画像51も変化する。このことを利用して、第1の画像51の画素値に比較的大きい変化が生じたときに、第2の画像52を更新することによって、差分画像53から窓ガラス231での反射光の成分を低減させることが可能になる。   That is, since the first image 51 includes light reflected by the window glass 231, the first image 51 also changes when the second image 52 changes. Utilizing this fact, when a relatively large change occurs in the pixel value of the first image 51, the component of the reflected light from the difference image 53 and the window glass 231 is updated by updating the second image 52. Can be reduced.

限定する主旨ではないが、第1の照射部11および第2の照射部12から照射する光は、空間領域211に存在する人に光の照射を気付かれにくくするために、赤外線領域であることが望ましい。また、カメラ装置1が、ランプ、オブジェなどに組み込まれる場合には、第1の照射部11および第2の照射部12から照射する光は、可視光領域であってもよい。   Although it is not the main point to limit, the light irradiated from the 1st irradiation part 11 and the 2nd irradiation part 12 is an infrared region in order to make it difficult for the person who exists in the space area 211 to notice light irradiation. Is desirable. When the camera device 1 is incorporated in a lamp, an object, or the like, the light emitted from the first irradiation unit 11 and the second irradiation unit 12 may be a visible light region.

第1の照射部11および第2の照射部12から出力される光は、赤外線領域であるか可視光領域であるか、あるいはまた紫外線領域であるかにかかわらず、実質的に単波長であることが望ましい。つまり、第1の照射部11および第2の照射部12は、半値幅が狭く波長領域の広がりが少ない光を照射することが望ましい。   The light output from the first irradiation unit 11 and the second irradiation unit 12 is substantially a single wavelength regardless of whether it is an infrared region, a visible light region, or an ultraviolet region. It is desirable. That is, it is desirable that the first irradiating unit 11 and the second irradiating unit 12 irradiate light having a narrow half-value width and a small wavelength region.

このように、第1の照射部11および第2の照射部12が実質的に単波長の光を照射する場合、撮像部10の光学要素102(図4参照)として、波長に対する選択透過性を備える光学フィルタを用いることが望ましい。すなわち、撮像部10は、主として、第1の照射部11および第2の照射部12から照射した光を受光することが可能になり、第1の画像51および第2の画像52に対する室内31の照明光や室外32の自然光の影響が軽減される。要するに、主として第1の照射部11からの光を用いて第1の画像51を生成し、主として第2の照射部12からの光を用いて第2の画像52を生成することが可能になり、照明光や自然光により生じるノイズを抑制することが可能になる。   Thus, when the 1st irradiation part 11 and the 2nd irradiation part 12 irradiate substantially single wavelength light, as the optical element 102 (refer FIG. 4) of the imaging part 10, selective permeability with respect to a wavelength is provided. It is desirable to use an optical filter provided. That is, the imaging unit 10 can mainly receive light emitted from the first irradiation unit 11 and the second irradiation unit 12, and the interior of the room 31 with respect to the first image 51 and the second image 52 can be received. The influence of illumination light and natural light outside the room 32 is reduced. In short, it is possible to generate the first image 51 mainly using light from the first irradiation unit 11 and generate the second image 52 mainly using light from the second irradiation unit 12. It becomes possible to suppress noise caused by illumination light or natural light.

ところで、第1の照射部11は、撮像部10の光軸の方向に光を照射するから、第1の照射部11から照射された光が、透明部材23である窓ガラス231で正反射して撮像部10に入射する可能性がある。第1の照射部11から照射された光のうち、窓ガラス231で反射した後に、窓ガラス231で再反射して撮像部10に入射する光は、上述したように、第2の画像52を用いることによって減殺ないし除去することが可能である。しかしながら、第1の照射部11から照射され窓ガラス231で正反射して撮像部10に入射する光は、第2の画像52に含まれないから、第2の画像52を用いて減殺させることはできない。   By the way, since the 1st irradiation part 11 irradiates light in the direction of the optical axis of the imaging part 10, the light irradiated from the 1st irradiation part 11 reflects regularly with the window glass 231 which is the transparent member 23. May enter the imaging unit 10. Of the light irradiated from the first irradiation unit 11, the light reflected by the window glass 231, re-reflected by the window glass 231, and incident on the imaging unit 10, as described above, causes the second image 52 to be reflected. It can be reduced or eliminated by use. However, the light that is emitted from the first irradiation unit 11 and is regularly reflected by the window glass 231 and incident on the imaging unit 10 is not included in the second image 52, and is therefore reduced using the second image 52. I can't.

窓ガラス231で正反射した光の影響を軽減するために、図7に示すように、第1の照射部11に第1の偏光フィルタ113を備え、撮像部10に光学要素102(図4参照)として第2の偏光フィルタ103を備えることが望ましい。   In order to reduce the influence of the light regularly reflected by the window glass 231, as shown in FIG. 7, the first irradiation unit 11 includes a first polarizing filter 113, and the imaging unit 10 includes the optical element 102 (see FIG. 4). ) Is preferably provided with the second polarizing filter 103.

第1の偏光フィルタ113は、第1の照射部11に設けられた発光部112から出力された光のうち、特定の振動面を有する直線偏光を通す機能を有する。また、第2の偏光フィルタ103は、直線偏光を通す機能を有し、第1の偏光フィルタ113を通る直線偏光の振動面に対して、交差する方向の振動面を有する光を通過させるように配置される。   The first polarizing filter 113 has a function of passing linearly polarized light having a specific vibration surface out of the light output from the light emitting unit 112 provided in the first irradiation unit 11. The second polarizing filter 103 has a function of allowing linearly polarized light to pass therethrough so that light having an oscillating plane intersecting the linearly oscillating plane passing through the first polarizing filter 113 is allowed to pass. Be placed.

第1の偏光フィルタ113と第2の偏光フィルタ103との振動面は、一般的には直交していればよいが、必ずしも直交していなくてもよい。つまり、第1の照射部11から照射された光のうち、窓ガラス231で正反射し撮像部10の撮像素子101に入射する光が減少すればよい。この構成を採用することにより、窓ガラス231で正反射した光が撮像素子101に入射することによって撮像素子101の出力が飽和する現象を緩和できる。   The vibration planes of the first polarizing filter 113 and the second polarizing filter 103 are generally required to be orthogonal, but are not necessarily orthogonal. That is, among the light irradiated from the first irradiation unit 11, the light that is regularly reflected by the window glass 231 and incident on the imaging element 101 of the imaging unit 10 may be reduced. By adopting this configuration, it is possible to alleviate a phenomenon in which the output of the image sensor 101 is saturated when light regularly reflected by the window glass 231 enters the image sensor 101.

図7に示す構成例のように、第1の照射部11が第1の偏光フィルタ113を備える場合に、発光部112から偏光フィルタ113に向かう光束を増加させるために、図8のように反射部材114を設けてもよい。すなわち、発光部112は、光源111と反射部材114とにより構成され、反射部材114は、光源111の周囲のうち第1の空間領域21に光を照射する範囲以外を囲んでいる。反射部材114は、一面が開放されたボウル状の反射面を有し、この反射面には、白色塗料などによって拡散反射性が付与される。   When the first irradiation unit 11 includes the first polarizing filter 113 as in the configuration example illustrated in FIG. 7, in order to increase the light flux from the light emitting unit 112 to the polarizing filter 113, the reflection is performed as illustrated in FIG. 8. A member 114 may be provided. In other words, the light emitting unit 112 includes the light source 111 and the reflecting member 114, and the reflecting member 114 surrounds the area around the light source 111 other than the range in which the first spatial region 21 is irradiated with light. The reflecting member 114 has a bowl-shaped reflecting surface with one surface open, and diffuse reflecting property is imparted to the reflecting surface by a white paint or the like.

この構成により、光源111から放射され第1の偏光フィルタ113に向かわなかった光と、第1の偏光フィルタ113に照射されたが第1の偏光フィルタ113を通過しなかった光とは、反射部材114により第1の偏光フィルタ113に向かって反射される。そのため、光源111から放射された光のうち、第1の偏光フィルタ113を通過する光が、反射部材114を設けない場合よりも増加し、結果的に、第1の偏光フィルタ113による光の損失が抑制される。第1の偏光フィルタ113を通過して放射される光の強度が反射部材114を設けない構成と同じであるとすれば、光源111から放射する光の強度を低減させることが可能になる。つまり、光源111の個数、あるいは光源111に投入する電力の低減が可能になる。   With this configuration, the light emitted from the light source 111 and not directed to the first polarizing filter 113 and the light that has been irradiated to the first polarizing filter 113 but did not pass through the first polarizing filter 113 are reflected members. 114 is reflected toward the first polarizing filter 113. Therefore, among the light emitted from the light source 111, the light passing through the first polarizing filter 113 is increased as compared with the case where the reflecting member 114 is not provided, and as a result, the loss of light by the first polarizing filter 113. Is suppressed. If the intensity of the light emitted through the first polarizing filter 113 is the same as that of the configuration in which the reflecting member 114 is not provided, the intensity of the light emitted from the light source 111 can be reduced. That is, the number of light sources 111 or the power supplied to the light sources 111 can be reduced.

上述したように、第1の画像51と第2の画像52とから差分画像53を求める際に、補正係数を定めることが重要である。本実施形態では、補正係数は係数決定部132が定めている。係数決定部132は、図9に示すように、補正係数を格納したテーブル1321を備えることが望ましい。   As described above, it is important to determine the correction coefficient when obtaining the difference image 53 from the first image 51 and the second image 52. In the present embodiment, the coefficient determination unit 132 determines the correction coefficient. As shown in FIG. 9, the coefficient determination unit 132 preferably includes a table 1321 that stores correction coefficients.

ここで、演算部133は、第2の画像52における画素ごとの画素値(濃淡値)に一律に同じ補正係数を乗じることが考えられる。しかし、実際には、窓ガラス231で反射して撮像部10に入射する光の強度は第1の画像51の部位によって異なり、第2の画像52の全体に一律に同じ補正係数を適用すると、第1の画像51から窓ガラス231による反射光を低減できない可能性がある。これは、窓ガラス231により反射して撮像部10に入射する光の強度は、室内31に存在する物体との距離に依存するからである。   Here, it is conceivable that the calculation unit 133 uniformly multiplies the pixel value (gray value) for each pixel in the second image 52 by the same correction coefficient. However, actually, the intensity of the light reflected by the window glass 231 and incident on the imaging unit 10 varies depending on the part of the first image 51, and when the same correction coefficient is uniformly applied to the entire second image 52, There is a possibility that reflected light from the window glass 231 cannot be reduced from the first image 51. This is because the intensity of the light reflected by the window glass 231 and incident on the imaging unit 10 depends on the distance to the object existing in the room 31.

したがって、テーブル1321に格納される補正係数は、第2の画像52の領域に応じて設定されることが望ましい。そこで、係数決定部132は、第2の画像52から得られる情報(画素値の分布)に基づいて、領域の分割を行う領域分割部1322を備えている。領域分割部1322は、分割した領域ごとに補正係数を定め、定めた補正係数をテーブル1321に格納する。領域分割部1322は、第2の画像52を複数の領域に分割することが原則であるが、領域を分割する必要がない場合には第2の画像52の全体を1つの領域として扱う。   Therefore, it is desirable that the correction coefficient stored in the table 1321 is set according to the area of the second image 52. Therefore, the coefficient determination unit 132 includes a region division unit 1322 that performs region division based on information (pixel value distribution) obtained from the second image 52. The area dividing unit 1322 determines a correction coefficient for each divided area, and stores the determined correction coefficient in the table 1321. In principle, the area dividing unit 1322 divides the second image 52 into a plurality of areas, but handles the entire second image 52 as one area when it is not necessary to divide the area.

第2の画像52の領域ごとに補正係数を定めるために、領域分割部1322が、第2の画像52から得られる情報に基づいて領域の分割を行っている。第2の画像52から得られる情報のみを用いても、差分画像53において窓ガラス231で反射した成分を減殺することが可能であるが、差分画像53に基づいて補正係数を評価し、補正係数に反映させれば、窓ガラス231で反射した成分を、さらに低減させることが可能である。   In order to determine a correction coefficient for each area of the second image 52, the area dividing unit 1322 divides the area based on information obtained from the second image 52. Even if only the information obtained from the second image 52 is used, the component reflected by the window glass 231 in the difference image 53 can be attenuated. However, the correction coefficient is evaluated based on the difference image 53, and the correction coefficient If reflected in, the component reflected by the window glass 231 can be further reduced.

補正係数を評価するには、室外32の空間領域211に状態の変化が生じない期間において、差分画像53を求め、差分画像53に含まれるエッジの個数あるいは画素値を評価する。エッジは、画素値に対してsobelフィルタのようなエッジ強調フィルタを適用すれば簡単に求めることができる。エッジが検出されることは、画素値のばらつきが比較的大きいことを表している。一方、差分画像53において、窓ガラス231からの反射の成分が低減されていれば、エッジの個数は極小になると考えられる。   In order to evaluate the correction coefficient, the difference image 53 is obtained in a period in which the state of the space 32 in the outdoor 32 does not change, and the number of edges or the pixel value included in the difference image 53 is evaluated. The edge can be easily obtained by applying an edge enhancement filter such as a sobel filter to the pixel value. The detection of an edge indicates that the variation in pixel values is relatively large. On the other hand, in the difference image 53, if the component of reflection from the window glass 231 is reduced, the number of edges is considered to be minimal.

このことを利用し、領域分割部1322は、適宜に分割した領域ごとに補正係数を変化させ、エッジの個数が極小(あるいは閾値以下)になったときの補正係数を採用する。さらに、領域分割部1322は、隣接する領域の補正係数の差が所定範囲内であれば、領域を統合して同じ補正係数を適用する。このようにして統合された領域ごとの補正係数を、テーブル1321に格納しておくことにより、窓ガラス231で反射した光が低減された差分画像53を得ることが可能になる。   Utilizing this fact, the area dividing unit 1322 changes the correction coefficient for each appropriately divided area, and adopts the correction coefficient when the number of edges is minimized (or less than a threshold value). Furthermore, if the difference between the correction coefficients of adjacent areas is within a predetermined range, the area dividing unit 1322 integrates the areas and applies the same correction coefficient. By storing the correction coefficients for each region integrated in this way in the table 1321, it is possible to obtain the difference image 53 in which the light reflected by the window glass 231 is reduced.

エッジを評価する代わりに画素値を評価する場合も同様であって、窓ガラス231からの反射を除去できれば、画素値が極小になる(明るいほど画素値が大きくなるように定めている)。したがって、領域分割部1322は、領域ごとに補正係数を変化させ、領域ごとに求めた画素値の合計が極小(あるいは閾値以下)になったときの補正係数を採用すればよい。   The same applies to the case where the pixel value is evaluated instead of evaluating the edge. If the reflection from the window glass 231 can be removed, the pixel value becomes minimum (the pixel value is determined to increase as the brightness increases). Therefore, the area dividing unit 1322 may change the correction coefficient for each area and use the correction coefficient when the sum of the pixel values obtained for each area becomes minimum (or less than a threshold value).

上述した例において、差分画像53を用いて補正係数を決定する際には、差分画像53から抽出したエッジの個数あるいは画素値が、極小あるいは閾値以下になることを条件に用いているが、他の評価値を用いてもよい。要するに、領域分割部1322は、補正係数を変化させた差分画像53を求め、エッジの個数あるいは画素値に対する評価値が所定の条件を満たしたときに、そのときの補正係数を採用するのである。   In the example described above, when the correction coefficient is determined using the difference image 53, it is used on the condition that the number of edges or the pixel value extracted from the difference image 53 is minimal or less than a threshold value. The evaluation value may be used. In short, the area dividing unit 1322 obtains the differential image 53 with the correction coefficient changed, and adopts the correction coefficient at that time when the evaluation value for the number of edges or the pixel value satisfies a predetermined condition.

(実施形態2)
実施形態1は、第1の画像51と第2の画像52とを1台の撮像部10により撮像している。これに対して、本実施形態は、第1の画像51を撮像する第1の撮像部10Aと、第2の画像52を撮像する第2の撮像部10Bとを設けた構成を採用している。
(Embodiment 2)
In the first embodiment, the first image 51 and the second image 52 are captured by one imaging unit 10. In contrast, the present embodiment employs a configuration in which a first imaging unit 10A that captures the first image 51 and a second imaging unit 10B that captures the second image 52 are provided. .

すなわち、本実施形態のカメラ装置1は、図10、図11のように、撮像部10が、第1の期間41に第1の画像51を撮像する第1の撮像部10Aと、第2の期間42に第2の画像52を撮像する第2の撮像部10Bとを個別に備える。また、制御部14は、第1の期間41に第2の撮像部10Bから第2の画像52を出力させ、第2の期間42に第1の撮像部10Aから第1の画像51を出力させる。   That is, in the camera device 1 of the present embodiment, as illustrated in FIGS. 10 and 11, the imaging unit 10 includes the first imaging unit 10 </ b> A that captures the first image 51 in the first period 41, A second imaging unit 10B that captures the second image 52 in the period 42 is individually provided. In addition, the control unit 14 outputs the second image 52 from the second imaging unit 10B in the first period 41, and outputs the first image 51 from the first imaging unit 10A in the second period 42. .

以下、本実施形態をさらに詳しく説明する。図10に示すように、撮像部10は、それぞれ撮像素子101(図4参照)を備えた第1の撮像部10Aおよび第2の撮像部10Bを備える。光学要素102(図4参照)は、第1の撮像部10Aおよび第2の撮像部10Bとが個別に備えている場合を想定するが、第1の撮像部10Aと第2の撮像部10Bとが共用するように構成することも可能である。第1の撮像部10Aからは第1の画像51が出力され、第2の撮像部10Bからは第2の画像52が出力される。   Hereinafter, this embodiment will be described in more detail. As shown in FIG. 10, the imaging unit 10 includes a first imaging unit 10A and a second imaging unit 10B each including an imaging element 101 (see FIG. 4). Although it is assumed that the optical element 102 (see FIG. 4) includes the first imaging unit 10A and the second imaging unit 10B separately, the first imaging unit 10A and the second imaging unit 10B It can also be configured to be shared. A first image 51 is output from the first imaging unit 10A, and a second image 52 is output from the second imaging unit 10B.

制御部14は、図11(a)のように、第1の照射部11から光を照射する第1の期間41と、第2の照射部12から光を照射する第2の期間42とが互いに重複しないように、第1の照射部11および第2の照射部12から光を照射する期間を制御する。また、図11(b)のように、第1の撮像部10Aは第1の期間41に撮像し、図11(c)のように、第2の撮像部10Bは第2の期間42に撮像するように、制御部14に制御される。   As shown in FIG. 11A, the control unit 14 includes a first period 41 in which light is emitted from the first irradiation unit 11 and a second period 42 in which light is emitted from the second irradiation unit 12. The period for irradiating light from the first irradiation unit 11 and the second irradiation unit 12 is controlled so as not to overlap each other. In addition, as shown in FIG. 11B, the first imaging unit 10A takes an image in the first period 41, and as shown in FIG. 11C, the second imaging unit 10B takes an image in the second period 42. In this way, the control unit 14 controls.

実施形態1では、撮像部10が第1の期間41に撮像した画像は第1の画像51として第1の期間41に出力され、撮像部10が第2の期間42に撮像した画像は第2の画像52として第2の期間42に出力されている。これに対して、本実施形態では、第1の撮像部10Aが第1の期間41に撮像した画像は、第2の期間42に第1の画像51として出力され、第2の撮像部10Bが第2の期間42に撮像した画像は、第1の期間41に第2の画像として出力される。   In the first embodiment, the image captured by the imaging unit 10 in the first period 41 is output as the first image 51 in the first period 41, and the image captured by the imaging unit 10 in the second period 42 is the second period. The image 52 is output in the second period 42. On the other hand, in the present embodiment, the image captured by the first imaging unit 10A in the first period 41 is output as the first image 51 in the second period 42, and the second imaging unit 10B An image captured in the second period 42 is output as a second image in the first period 41.

ここにおいて、本実施形態において第1の撮像部10Aおよび第2の撮像部10Bの露光時間が、実施形態1における撮像部10の露光時間と等しく設定されると仮定する。この場合、本実施形態の構成では、第1の期間41および第2の期間42を、実施形態1の構成に比べて、第1の撮像部10Aおよび第2の撮像部10Bから画像を出力する時間分だけ短縮することが可能になる。   Here, in the present embodiment, it is assumed that the exposure times of the first imaging unit 10A and the second imaging unit 10B are set equal to the exposure time of the imaging unit 10 in the first embodiment. In this case, in the configuration of the present embodiment, the first period 41 and the second period 42 output images from the first imaging unit 10A and the second imaging unit 10B in comparison with the configuration of the first embodiment. It becomes possible to shorten the time.

ところで、第1の撮像部10Aおよび第2の撮像部10Bは、撮像素子101(図4参照)を備えており、第1の撮像部10Aおよび第2の撮像部10Bから画像を出力することは、撮像素子101から電荷を読み出すことである。撮像素子101から電荷を読み出す時間は、電荷の転送を伴うから、比較的長くなる。したがって、第1の撮像部10Aから第2の期間42に画像を出力し、第2の撮像部10Bから第1の期間41に画像を出力することによって、第1の期間41および第2の期間42を比較的大きく短縮できることになる。   By the way, the first imaging unit 10A and the second imaging unit 10B include the imaging element 101 (see FIG. 4), and outputting images from the first imaging unit 10A and the second imaging unit 10B is not possible. The charge is read from the image sensor 101. The time for reading out charges from the image sensor 101 is relatively long because it involves the transfer of charges. Accordingly, by outputting an image from the first imaging unit 10A in the second period 42 and outputting an image from the second imaging unit 10B in the first period 41, the first period 41 and the second period 42 can be shortened relatively large.

上述のように、第1の期間41および第2の期間42が短くなることにより、第1の画像51を得る時間間隔の短縮が可能になり、結果的に、空間領域211における時間変化を反映しやすくなる。言い換えると、上述した差分画像を出力するフレームレートを高めることができる。他の構成および動作は、実施形態1と同様である。   As described above, since the first period 41 and the second period 42 are shortened, the time interval for obtaining the first image 51 can be shortened, and as a result, the time change in the spatial region 211 is reflected. It becomes easy to do. In other words, the frame rate for outputting the above-described difference image can be increased. Other configurations and operations are the same as those of the first embodiment.

(実施形態3)
実施形態1および実施形態2は、第1の画像51を撮像するタイミングと第2の画像52を撮像するタイミングとが異なっているが、本実施形態は、第1の画像51と第2の画像52とを同時に撮像する構成を例示する。
(Embodiment 3)
The timing at which the first image 51 is captured is different from the timing at which the second image 52 is captured in the first embodiment and the second embodiment, but in the present embodiment, the first image 51 and the second image are different. The structure which images 52 simultaneously is illustrated.

本実施形態では、第1の照射部11と第2の照射部12とは、照射する光の波長が異なっている。また、撮像部10は、図12に示すように、第1の撮像部10Aと第2の撮像部10Bとを備える。第1の撮像部10Aは、第1の照射部11から照射される光の波長を選択的に透過させる第1の光学フィルタ104Aを備える。第2の撮像部10Bは、第2の照射部12から照射される光の波長を選択的に透過させる第2の光学フィルタ104Bを備える。第1の画像51は第1の撮像部10Aが撮像した画像を用い、第2の画像52は第2の撮像部10Bが撮像した画像を用いる。   In the present embodiment, the first irradiation unit 11 and the second irradiation unit 12 have different wavelengths of light to be irradiated. Further, as shown in FIG. 12, the imaging unit 10 includes a first imaging unit 10A and a second imaging unit 10B. The first imaging unit 10A includes a first optical filter 104A that selectively transmits the wavelength of light emitted from the first irradiation unit 11. The second imaging unit 10B includes a second optical filter 104B that selectively transmits the wavelength of light emitted from the second irradiation unit 12. The first image 51 uses an image captured by the first imaging unit 10A, and the second image 52 uses an image captured by the second imaging unit 10B.

すなわち、第1の撮像部10Aおよび第2の撮像部10Bの光学要素102は、波長選択性を備える第1の光学フィルタ104Aおよび第2の光学フィルタ104Bである。第1の光学フィルタ104Aと第2の光学フィルタ104Bとは、透過させる波長が異なっている。また、第1の照射部11は第1の光学フィルタ104Aを透過する波長の光を照射し、第2の照射部12は第2の光学フィルタ104Bを透過する波長の光を照射する。たとえば、第1の光学フィルタ104Aは、第1の照射部11が850nmの光を照射する場合には850nmの光を透過させるものが用いられる。第2の光学フィルタ104Bは、第2の照射部12が950nmの光を照射する場合には950nmの光を透過させるものが用いられる。   That is, the optical elements 102 of the first imaging unit 10A and the second imaging unit 10B are the first optical filter 104A and the second optical filter 104B having wavelength selectivity. The first optical filter 104A and the second optical filter 104B have different wavelengths for transmission. The first irradiation unit 11 emits light having a wavelength that passes through the first optical filter 104A, and the second irradiation unit 12 emits light having a wavelength that passes through the second optical filter 104B. For example, as the first optical filter 104A, one that transmits 850 nm light is used when the first irradiation unit 11 irradiates light of 850 nm. As the second optical filter 104B, a filter that transmits 950 nm light is used when the second irradiation unit 12 emits light of 950 nm.

この構成により、第1の照射部11と第2の照射部12とが同時に光を照射しても、それぞれの光は、第1の撮像部10Aと第2の撮像部10Bとに分離して受光される。つまり、第1の照射部11が第1の空間領域21に光を照射する期間と、第2の照射部12が第2の空間領域22に光を照射する期間とを重ね合わせることができる。   Even if the 1st irradiation part 11 and the 2nd irradiation part 12 irradiate light simultaneously by this structure, each light is isolate | separated into 10 A of 1st imaging parts, and the 2nd imaging part 10B. Received light. That is, the period in which the first irradiation unit 11 irradiates the first spatial region 21 with the period in which the second irradiation unit 12 irradiates the second spatial region 22 can be overlapped.

本実施形態の構成を採用することにより、第1の画像51と第2の画像52とが同時に得られるから、第2の空間領域22に移動する物体が存在している場合でも、第1の画像51と第2の画像52との間で位置のずれが生じない。すなわち、第2の空間領域22に移動する物体が存在している場合でも、窓ガラス231からの反射成分を減殺ないし除去した差分画像53が得られる。他の構成および動作は実施形態1と同様である。   By adopting the configuration of the present embodiment, the first image 51 and the second image 52 can be obtained at the same time. Therefore, even when there is an object moving in the second space region 22, the first image 51 and the second image 52 are obtained simultaneously. There is no positional shift between the image 51 and the second image 52. That is, even when an object moving in the second space region 22 exists, the difference image 53 in which the reflection component from the window glass 231 is reduced or removed is obtained. Other configurations and operations are the same as those of the first embodiment.

(実施形態4)
上述した各実施形態では、撮像部10は、第1の照射部11が光を照射する第1の期間41と、第2の照射部12が光を照射する第2の期間42とに撮像を行っている。言い換えると、撮像部10が撮像する期間には、第1の照射部11と第2の照射部12とのいずれかが光を照射している。
(Embodiment 4)
In each embodiment described above, the imaging unit 10 performs imaging in the first period 41 in which the first irradiation unit 11 irradiates light and the second period 42 in which the second irradiation unit 12 irradiates light. Is going. In other words, either the first irradiation unit 11 or the second irradiation unit 12 irradiates light during the period in which the imaging unit 10 captures an image.

本実施形態では、制御部14は、第1の照射部11および第2の照射部12がともに光を照射しない非照射期間を設けるように、第1の照射部11および第2の照射部12を制御する。また、制御部14は、第1の期間41と第2の期間42とに加えて非照射期間に撮像するように撮像部10を制御する。画像処理部13は、第1の期間41に撮像部10が撮像した画像と非照射期間に撮像部10が撮像した画像とから、同じ位置の画素の画素値の差分を求め、この差分を画素値とする画像を第1の画像51に用いる。また、画像処理部13は、第2の期間42に撮像部10が撮像した画像と非照射期間に撮像部10が撮像した画像とから、同じ位置の画素の画素値の差分を求め、この差分を画素値とする画像を第2の画像52に用いる。   In the present embodiment, the control unit 14 provides the first irradiation unit 11 and the second irradiation unit 12 so as to provide a non-irradiation period in which neither the first irradiation unit 11 nor the second irradiation unit 12 emits light. To control. In addition to the first period 41 and the second period 42, the control unit 14 controls the imaging unit 10 so as to capture an image during the non-irradiation period. The image processing unit 13 obtains the difference between the pixel values of the pixels at the same position from the image captured by the imaging unit 10 during the first period 41 and the image captured by the imaging unit 10 during the non-irradiation period. An image as a value is used for the first image 51. Further, the image processing unit 13 obtains a difference between pixel values of pixels at the same position from the image captured by the imaging unit 10 in the second period 42 and the image captured by the imaging unit 10 in the non-irradiation period. Is used as the second image 52.

すなわち、画像処理部13は、第1の画像51と第2の画像52とから差分画像53を生成する処理に先立って、ノイズを除去する前置処理を行う。前置処理では、上述したように、第1の期間41に撮像部10が撮像した画像と、非照射期間に撮像部10が撮像した画像とから、同じ位置の画素の画素値の差分を求め、この差分を画素値とした画像を第1の画像51とする。また、第2の期間42に撮像部10が撮像した画像と、非照射期間に撮像部10が撮像した画像とから、同じ位置の画素の画素値の差分を求め、この差分を画素値とした画像を第2の画像52とする。   That is, the image processing unit 13 performs a pre-processing for removing noise prior to processing for generating the difference image 53 from the first image 51 and the second image 52. In the pre-processing, as described above, a difference between pixel values of pixels at the same position is obtained from the image captured by the imaging unit 10 in the first period 41 and the image captured by the imaging unit 10 in the non-irradiation period. An image using the difference as a pixel value is defined as a first image 51. Moreover, the difference of the pixel value of the pixel of the same position is calculated | required from the image which the imaging part 10 imaged in the 2nd period 42, and the image which the imaging part 10 imaged in the non-irradiation period, and this difference was made into the pixel value. Let the image be the second image 52.

つまり、前置処理は、第1の照射部11が照射した光を用いて撮像した画像から、光を照射していない期間に撮像した画像の成分を除去し、第1の画像51に、第1の照射部11が照射した光の成分のみが含まれるようにする。同様に、前置処理は、第2の照射部12が照射した光を用いて撮像した画像から、光を照射していない期間に撮像した画像の成分を除去し、第2の画像52に、第2の照射部12が照射した光の成分のみが含まれるようにする。   That is, the preprocessing removes the components of the image captured during the period of no light irradiation from the image captured using the light irradiated by the first irradiation unit 11, and the first image 51 is changed to the first image 51. Only the light component irradiated by one irradiation unit 11 is included. Similarly, the pre-processing removes the component of the image captured during the period of not irradiating light from the image captured using the light irradiated by the second irradiation unit 12, Only the light component irradiated by the second irradiation unit 12 is included.

上述した前置処理が行われることにより、第1の画像51および第2の画像52は、照明光や自然光の成分をほとんど含まなくなる。しかも、差分画像53は、窓ガラス231による反射の影響が除去されているから、差分画像53に含まれる情報は、ほぼ室外32の空間領域211に関する情報のみになる。本実施形態の技術は、実施形態1、実施形態2、実施形態3のいずれにも適用可能である。   By performing the pre-processing described above, the first image 51 and the second image 52 contain almost no illumination light or natural light components. In addition, since the difference image 53 has the effect of reflection by the window glass 231 removed, the information included in the difference image 53 is almost only information related to the space region 211 of the outdoor 32. The technique of the present embodiment can be applied to any of the first embodiment, the second embodiment, and the third embodiment.

(使用例)
以下では、上述した実施形態において画像処理部13が生成した差分画像53を用いて室外32の空間領域211における侵入物を検出する動作について説明する。なお、以下の例では侵入物を侵入者とするが、他の侵入物であってもよい。差分画像53は、室外32の空間領域211の画像であるから、この画像の時間経過に伴う変化を監視することによって、空間領域211への侵入者を検出することが可能である。すなわち、画像処理部13は、異なる時刻に得られた複数の差分画像53を用い、差分画像53内の変化を検出することにより、第1の空間領域21への侵入物を検出する。
(Example of use)
Below, the operation | movement which detects the intruder in the space area 211 of the outdoor 32 using the difference image 53 which the image process part 13 produced | generated in embodiment mentioned above is demonstrated. In the following example, an intruder is an intruder, but another intruder may be used. Since the difference image 53 is an image of the space region 211 in the outdoor 32, it is possible to detect an intruder into the space region 211 by monitoring the change of the image over time. That is, the image processing unit 13 detects an intruder into the first space region 21 by using a plurality of difference images 53 obtained at different times and detecting a change in the difference image 53.

時間経過に伴う変化を監視する技術は、具体的には、以下に説明する2種類の技術の少なくとも一方が採用される。第1の技術は、差分画像53の複数フレームを用い、フレーム間の差分を算出することによって、差分画像53において移動する物体を検出する。この場合、画像処理部13は、差分画像53の複数フレームについて、エッジを抽出する処理を行い、隣接したフレーム間でエッジ上の画素の論理演算を行うことにより、背景の成分を除去し、移動する物体のエッジのみを抽出することが可能である。   Specifically, at least one of the two types of techniques described below is employed as a technique for monitoring changes over time. The first technique detects a moving object in the difference image 53 by using a plurality of frames of the difference image 53 and calculating a difference between the frames. In this case, the image processing unit 13 performs processing for extracting an edge for a plurality of frames of the difference image 53, performs a logical operation on pixels on the edge between adjacent frames, thereby removing background components and moving them. It is possible to extract only the edge of the object to be performed.

この原理を簡単に説明する。ここでは、説明を簡単にするために、2フレームの連続した差分画像53からエッジを抽出した画像(エッジ画像)を用い、2フレームのエッジ画像を、時間順に第1フレーム、第2フレームと呼ぶ。また、各フレームには移動する物体のエッジが含まれていると仮定する。また、エッジ画像の画素値は、2値であって、1と0との論理値として用いることができるものとする。   This principle will be briefly described. Here, in order to simplify the description, an image (edge image) obtained by extracting an edge from two frames of consecutive difference images 53 is used, and the two-frame edge images are referred to as a first frame and a second frame in time order. . Further, it is assumed that each frame includes an edge of a moving object. Further, the pixel value of the edge image is binary, and can be used as a logical value of 1 and 0.

第1フレーム、第2フレームにおいて、静止している物体のエッジは、2フレーム間で画素の排他的論理和を求めると除去される。静止している物体のエッジのうち、移動する物体に隠れている部分は抽出されていないから、2フレーム間の排他的論理和だけでは除去されない。ただし、移動する物体が存在するか否かを簡便に判断する場合には、静止している物体の一部が含まれていても実用上の問題はない。2フレーム間の排他的論理和を求めた結果、エッジが残っている場合には(画素の総数を求めればよい)、移動する物体が存在すると判断される。なお、排他的論理和の結果と他のフレームとの論理積を用いると、移動する物体に隠れている静止物体のエッジを除去し、移動する物体のエッジのみを抽出することが可能である。   In the first frame and the second frame, the edge of the stationary object is removed when the exclusive OR of the pixels is calculated between the two frames. Of the edge of the stationary object, the portion hidden by the moving object is not extracted, and therefore cannot be removed only by exclusive OR between two frames. However, when it is simply determined whether or not there is a moving object, there is no practical problem even if a part of the stationary object is included. As a result of obtaining the exclusive OR between two frames, if an edge remains (the total number of pixels may be obtained), it is determined that there is a moving object. If the logical product of the result of exclusive OR and other frames is used, it is possible to remove the edge of the stationary object hidden behind the moving object and extract only the edge of the moving object.

第2の技術は、空間領域211に侵入者が存在しないときに得られた差分画像53を背景画像とし、その後に得られた差分画像53を対象画像として、対象画像と背景画像との差分を用いて、空間領域211に侵入した物体を検出する。つまり、画像処理部13は、対象画像と背景画像とについて、同じ位置の画素の画素値の差分を求め、この差分を評価することにより、空間領域211に侵入者が存在するか否かを判断する。侵入者は、ペットのような動物と比較すると差分画像53に占める面積が大きいと考えられるから、上述のようにして求めた差分の合計、あるいは所定の基準値以上の差分が生じている領域の面積を評価すると、侵入者か否かを判断することが可能である。また、差分が生じている領域の形状を認識することによって、人か否かを判断するようにしてもよい。   The second technique uses a difference image 53 obtained when no intruder exists in the space area 211 as a background image, and uses the difference image 53 obtained thereafter as a target image, and calculates a difference between the target image and the background image. Using this, an object that has entered the space region 211 is detected. That is, the image processing unit 13 determines whether or not there is an intruder in the spatial region 211 by obtaining a difference between pixel values of pixels at the same position for the target image and the background image and evaluating the difference. To do. Since an intruder is considered to occupy a large area in the difference image 53 as compared with an animal such as a pet, the total of the differences obtained as described above or a region where a difference greater than a predetermined reference value has occurred. When the area is evaluated, it is possible to determine whether or not the person is an intruder. In addition, it may be determined whether or not the person is a person by recognizing the shape of the region where the difference occurs.

上述した第1の技術と第2の技術とは必要に応じて採用することが可能であって、画像処理部13は、移動する物体あるいは侵入者を検出したときに、検知信号を出力するように構成されていてもよい。この検知信号を警報の報知に用いることにより、侵入者などに対する監視装置を構成することが可能である。   The first technique and the second technique described above can be adopted as necessary, and the image processing unit 13 outputs a detection signal when a moving object or an intruder is detected. It may be configured. By using this detection signal for alarm notification, a monitoring device for an intruder or the like can be configured.

上記構成例では、カメラ装置1は、撮像部10と第1の照射部11と第2の照射部12とが一体に設けられている場合について説明した。撮像部10の視野20と、第1の照射部11が照明する第1の空間領域21と、第2の照射部12が照明する第2の空間領域22とが、上記構成例と同様の関係であれば、撮像部10と第1の照射部11と第2の照射部12とは一体でなくてもよい。   In the above configuration example, the camera device 1 has been described with respect to the case where the imaging unit 10, the first irradiation unit 11, and the second irradiation unit 12 are provided integrally. The visual field 20 of the imaging unit 10, the first spatial region 21 illuminated by the first irradiation unit 11, and the second spatial region 22 illuminated by the second irradiation unit 12 have the same relationship as in the above configuration example. If so, the imaging unit 10, the first irradiation unit 11, and the second irradiation unit 12 may not be integrated.

1 カメラ装置
10 撮像部
10A 第1の撮像部
10B 第2の撮像部
11 第1の照射部
12 第2の照射部
13 画像処理部
14 制御部
20 視野
21 第1の空間領域
22 第2の空間領域
23 透明部材
41 第1の期間
42 第2の期間
51 第1の画像
52 第2の画像
53 差分画像
103 第2の偏光フィルタ
112 発光部
113 第1の偏光フィルタ
114 反射部材
211 空間領域
DESCRIPTION OF SYMBOLS 1 Camera apparatus 10 Image pick-up part 10A 1st image pick-up part 10B 2nd image pick-up part 11 1st irradiation part 12 2nd irradiation part 13 Image processing part 14 Control part 20 Field of view 21 1st space area 22 2nd space Region 23 Transparent member 41 1st period 42 2nd period 51 1st image 52 2nd image 53 Difference image 103 2nd polarizing filter 112 Light emission part 113 1st polarizing filter 114 Reflective member 211 Spatial area

Claims (18)

特定方向の視野を有し画像を出力する撮像部と、
前記視野の少なくとも一部に重なる第1の空間領域に光を照射する第1の照射部と、
前記視野以外を含む第2の空間領域に光を照射する第2の照射部と、
前記撮像部の視野に透明部材が存在する場合に、当該透明部材に対して前記撮像部の反対側である空間領域の画像を前記撮像部が出力した画像から抽出するために、前記第1の照射部が照射した光を用いて前記撮像部が撮像した第1の画像と、前記第2の照射部が照射した光を用いて前記撮像部が撮像した第2の画像とを用い、前記第1の画像と前記第2の画像とについて、同じ位置である2画素の画素値の少なくとも一方に所定の補正係数を乗じて差分を求め、この差分を画素値とする差分画像を生成する画像処理部と、
前記撮像部と前記第1の照射部と前記第2の照射部と前記画像処理部との動作を制御する制御部とを備え、
前記補正係数は、前記第1の画像から前記透明部材による反射光の成分を低減させるように設定される
ことを特徴とするカメラ装置。
An imaging unit having a visual field in a specific direction and outputting an image;
A first irradiation unit that irradiates light to a first spatial region that overlaps at least a part of the visual field;
A second irradiating unit that irradiates light to a second spatial region including other than the visual field;
When a transparent member is present in the field of view of the imaging unit, the first region is used to extract an image of a spatial region on the opposite side of the imaging unit from the image output by the imaging unit with respect to the transparent member. The first image captured by the imaging unit using the light irradiated by the irradiation unit and the second image captured by the imaging unit using the light irradiated by the second irradiation unit are used. Image processing for obtaining a difference image by multiplying at least one of the pixel values of two pixels at the same position by a predetermined correction coefficient for one image and the second image, and generating a difference image using the difference as a pixel value And
A controller that controls operations of the imaging unit, the first irradiation unit, the second irradiation unit, and the image processing unit;
The camera device, wherein the correction coefficient is set so as to reduce a component of light reflected by the transparent member from the first image.
前記第1の照射部および前記第2の照射部は、前記撮像部と一体に結合されており、
前記第1の照射部は、前記撮像部の光軸の向きに光を照射し、
前記第2の照射部は、前記撮像部の視野を除く空間領域を前記第2の空間領域とする
請求項1記載のカメラ装置。
The first irradiation unit and the second irradiation unit are integrally coupled with the imaging unit,
The first irradiation unit irradiates light in the direction of the optical axis of the imaging unit,
The camera apparatus according to claim 1, wherein the second irradiating unit sets a spatial region excluding a field of view of the imaging unit as the second spatial region.
前記制御部は、
前記第1の照射部が光を照射する第1の期間と、前記第2の照射部が光を照射する第2の期間とが異なる期間になるように、前記第1の照射部および前記第2の照射部を制御し、かつ前記第1の期間に前記第1の画像を撮像し、前記第2の期間に前記第2の画像を撮像するように、前記撮像部を制御する
請求項1又は2記載のカメラ装置。
The controller is
The first irradiating unit and the first irradiating unit are arranged such that the first period in which the first irradiating unit irradiates light and the second period in which the second irradiating unit irradiates light are different. 2. The imaging unit is controlled so as to control two irradiation units, capture the first image during the first period, and capture the second image during the second period. Or the camera apparatus of 2.
前記制御部は、
前記第1の期間と前記第2の期間とを交互に生成するように、前記第1の照射部および前記第2の照射部を制御する
請求項3記載のカメラ装置。
The controller is
The camera device according to claim 3, wherein the first irradiation unit and the second irradiation unit are controlled so as to alternately generate the first period and the second period.
前記撮像部は、
前記第1の期間に前記第1の画像を撮像する第1の撮像部と、
前記第2の期間に前記第2の画像を撮像する第2の撮像部とを個別に備え、
前記制御部は、
前記第1の期間に前記第2の撮像部から前記第2の画像を出力させ、
前記第2の期間に前記第1の撮像部から前記第1の画像を出力させる
請求項3記載のカメラ装置。
The imaging unit
A first imaging unit that captures the first image during the first period;
A second imaging unit that captures the second image in the second period, and
The controller is
Outputting the second image from the second imaging unit in the first period,
The camera apparatus according to claim 3, wherein the first image is output from the first imaging unit during the second period.
前記第2の照射部は、光の放射方向が異なる複数の発光部を備える
請求項1又は2記載のカメラ装置。
The camera device according to claim 1, wherein the second irradiation unit includes a plurality of light emitting units having different light emission directions.
前記第1の照射部は、
光を出力する発光部と、
前記発光部から出力された光のうち特定の振動面を有する直線偏光を通す第1の偏光フィルタとを備え、
前記撮像部は、前記第1の偏光フィルタを通る直線偏光の振動面に対して交差する方向の振動面を有する光を通過させる第2の偏光フィルタを備える
請求項1又は2記載のカメラ装置。
The first irradiation unit includes:
A light emitting unit for outputting light;
A first polarizing filter that passes linearly polarized light having a specific vibration surface out of the light output from the light emitting unit;
The camera device according to claim 1, wherein the imaging unit includes a second polarizing filter that allows light having a vibration surface in a direction intersecting with a vibration surface of linearly polarized light passing through the first polarizing filter to pass.
前記発光部は、
光源と、
前記光源から放射され前記第1の偏光フィルタで反射された光を前記第1の空間領域の向きに拡散反射させる反射部材とを備える
請求項7記載のカメラ装置。
The light emitting unit
A light source;
The camera device according to claim 7, further comprising: a reflection member that diffuses and reflects light emitted from the light source and reflected by the first polarizing filter in a direction toward the first spatial region.
前記制御部は、
前記第1の照射部および前記第2の照射部がともに光を照射しない非照射期間を設けるように、前記第1の照射部および前記第2の照射部を制御し、
前記第1の期間と前記第2の期間とに加えて前記非照射期間に撮像するように前記撮像部を制御し、
前記画像処理部は、
前記第1の期間に前記撮像部が撮像した画像と前記非照射期間に前記撮像部が撮像した画像とから、同じ位置の画素の画素値の差分を求め、この差分を画素値とする画像を前記第1の画像に用い、
前記第2の期間に前記撮像部が撮像した画像と前記非照射期間に前記撮像部が撮像した画像とから、同じ位置の画素の画素値の差分を求め、この差分を画素値とする画像を前記第2の画像に用いる
請求項3記載のカメラ装置。
The controller is
Controlling the first irradiation unit and the second irradiation unit so as to provide a non-irradiation period in which neither the first irradiation unit nor the second irradiation unit emits light;
Controlling the imaging unit to image in the non-irradiation period in addition to the first period and the second period;
The image processing unit
From the image captured by the imaging unit during the first period and the image captured by the imaging unit during the non-irradiation period, a difference between pixel values of pixels at the same position is obtained, and an image using the difference as a pixel value is obtained. Used for the first image,
From the image captured by the imaging unit during the second period and the image captured by the imaging unit during the non-irradiation period, a difference between pixel values of pixels at the same position is obtained, and an image using the difference as a pixel value is obtained. The camera device according to claim 3, wherein the camera device is used for the second image.
前記撮像部は、
前記第1の照射部および前記第2の照射部が照射する光の波長を選択的に透過させる光学フィルタを備える
請求項1又は2記載のカメラ装置。
The imaging unit
The camera device according to claim 1, further comprising an optical filter that selectively transmits a wavelength of light emitted by the first irradiation unit and the second irradiation unit.
前記画像処理部は、
前記第1の画像と前記第2の画像との少なくとも一方の画素の画素値に乗じる前記補正係数を、前記画素の位置に応じて設定したテーブルを備える
請求項1又は2記載のカメラ装置。
The image processing unit
The camera device according to claim 1, further comprising a table in which the correction coefficient to be multiplied by a pixel value of at least one pixel of the first image and the second image is set according to a position of the pixel.
前記画像処理部は、
前記補正係数を異ならせて前記差分画像を生成し、前記差分画像から求められるエッジの個数に対する評価値が所定の条件を満たすときに、当該補正係数を採用する
請求項1又は2記載のカメラ装置。
The image processing unit
The camera device according to claim 1, wherein the difference image is generated by changing the correction coefficient, and the correction coefficient is employed when an evaluation value for the number of edges obtained from the difference image satisfies a predetermined condition. .
前記画像処理部は、
前記補正係数を異ならせて前記差分画像を生成し、前記差分画像から求められる画素値に対する評価値が所定の条件を満たすときに、当該補正係数を採用する
請求項1又は2記載のカメラ装置。
The image processing unit
The camera apparatus according to claim 1, wherein the difference image is generated by varying the correction coefficient, and the correction coefficient is employed when an evaluation value for a pixel value obtained from the difference image satisfies a predetermined condition.
前記制御部は、
前記第1の画像と前記第2の画像とを、前記撮像部の1フレームを単位として生成する
請求項1又は2記載のカメラ装置。
The controller is
The camera device according to claim 1, wherein the first image and the second image are generated in units of one frame of the imaging unit.
前記制御部は、
前記第1の画像の画素値に所定の基準値を超える変化が生じたときに、前記第2の画像を取得する
請求項1又は2記載のカメラ装置。
The controller is
The camera device according to claim 1, wherein the second image is acquired when a change in a pixel value of the first image that exceeds a predetermined reference value occurs.
前記制御部は、
前記第2の画像を一定の時間間隔で取得する
請求項1又は2記載のカメラ装置。
The controller is
The camera device according to claim 1, wherein the second image is acquired at a constant time interval.
前記第1の照射部と前記第2の照射部とは、照射する光の波長が異なっており、
前記撮像部は、
前記第1の照射部から照射される光の波長を選択的に透過させる第1の光学フィルタを備える第1の撮像部と、
前記第2の照射部から照射される光の波長を選択的に透過させる第2の光学フィルタを備える第2の撮像部とを備え、
前記第1の画像は前記第1の撮像部が撮像した画像を用い、前記第2の画像は前記第2の撮像部が撮像した画像を用いる
請求項1又は2記載のカメラ装置。
The first irradiating unit and the second irradiating unit have different wavelengths of light to be irradiated,
The imaging unit
A first imaging unit including a first optical filter that selectively transmits a wavelength of light emitted from the first irradiation unit;
A second imaging unit including a second optical filter that selectively transmits a wavelength of light emitted from the second irradiation unit;
The camera device according to claim 1, wherein the first image uses an image captured by the first imaging unit, and the second image uses an image captured by the second imaging unit.
前記画像処理部は、
異なる時刻に得られた複数の前記差分画像を用い、前記差分画像内の変化を検出することにより、前記第1の空間領域への侵入物を検出する
請求項1〜17のいずれか1項に記載のカメラ装置。
The image processing unit
The intruder into the first space region is detected by detecting a change in the difference image using a plurality of the difference images obtained at different times. The camera device described.
JP2013190833A 2013-09-13 2013-09-13 Camera device Active JP6123137B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013190833A JP6123137B2 (en) 2013-09-13 2013-09-13 Camera device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013190833A JP6123137B2 (en) 2013-09-13 2013-09-13 Camera device

Publications (2)

Publication Number Publication Date
JP2015056859A JP2015056859A (en) 2015-03-23
JP6123137B2 true JP6123137B2 (en) 2017-05-10

Family

ID=52820902

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013190833A Active JP6123137B2 (en) 2013-09-13 2013-09-13 Camera device

Country Status (1)

Country Link
JP (1) JP6123137B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101799334B1 (en) 2016-05-02 2017-12-20 주식회사 에스원 Wall Disappear and Invasion Sensing Device and Method thereof

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4544988B2 (en) * 2004-12-28 2010-09-15 セコム株式会社 Image sensing device
JP5161751B2 (en) * 2008-12-19 2013-03-13 パナソニック株式会社 Imaging apparatus and imaging system
JP2011002718A (en) * 2009-06-19 2011-01-06 Toshiba Corp Image pickup device

Also Published As

Publication number Publication date
JP2015056859A (en) 2015-03-23

Similar Documents

Publication Publication Date Title
TWI817996B (en) Adjusting camera exposure for three-dimensional depth sensing and two-dimensional imaging
KR101709817B1 (en) Ambient correction in rolling image capture system
US10191356B2 (en) Methods and apparatus relating to detection and/or indicating a dirty lens condition
US9411999B2 (en) Barcode reader having multiple sets of imaging optics
JP4915314B2 (en) Imaging apparatus and imaging control method
JP2019508717A5 (en) Method and apparatus for illumination invariant image sensor of automatic subject detection and vision system
US10582178B2 (en) Systems and methods for active depth imager with background subtract
CN107408201B (en) Digital camera unit with simultaneous structured and unstructured illumination
JP6110862B2 (en) Object distance determination from images
JP2016186793A (en) Enhanced contrast for object detection and characterization by optical imaging
US9787907B2 (en) Substance detection device
US20150219809A1 (en) Camera system, in particular for a vehicle, and method for ascertaining pieces of image information of a detection area
CN106461762A (en) Object detection system and method
JP6327753B2 (en) Pupil detection light source device, pupil detection device, and pupil detection method
JP2011130419A (en) Information processing device, information processing method, program, and electronic apparatus
JP2007093306A (en) Spatial information detection system
JP2014017114A (en) Illumination system
CN111982023A (en) Image capturing device assembly, three-dimensional shape measuring device, and motion detecting device
JP6123137B2 (en) Camera device
KR101341189B1 (en) Light sensor for detecting surface angle and sensing method using the same
JP6368593B2 (en) Image processing program, information processing system, and image processing method
US10829042B2 (en) Imaging apparatus with image sensor for detecting light in an atmospheric peak and vehicle having same
EP3430472B1 (en) Method of producing video images that are independent of the background lighting
JP5161751B2 (en) Imaging apparatus and imaging system
JPWO2020188689A1 (en) Driver condition monitoring device and driver condition monitoring method

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150312

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160418

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170112

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170317

R151 Written notification of patent or utility model registration

Ref document number: 6123137

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151