WO2015015718A1 - センサーアセンブリ - Google Patents

センサーアセンブリ Download PDF

Info

Publication number
WO2015015718A1
WO2015015718A1 PCT/JP2014/003611 JP2014003611W WO2015015718A1 WO 2015015718 A1 WO2015015718 A1 WO 2015015718A1 JP 2014003611 W JP2014003611 W JP 2014003611W WO 2015015718 A1 WO2015015718 A1 WO 2015015718A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensor assembly
lens
sensor
pixel
optical system
Prior art date
Application number
PCT/JP2014/003611
Other languages
English (en)
French (fr)
Inventor
式井 愼一
弘一 楠亀
Original Assignee
パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ filed Critical パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ
Priority to JP2015504453A priority Critical patent/JP6338567B2/ja
Priority to CN201480002521.9A priority patent/CN104662397B/zh
Priority to US14/431,114 priority patent/US9448118B2/en
Publication of WO2015015718A1 publication Critical patent/WO2015015718A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J5/02Constructional details
    • G01J5/08Optical arrangements
    • G01J5/0806Focusing or collimating elements, e.g. lenses or concave mirrors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/02Details
    • G01J1/04Optical or mechanical part supplementary adjustable parts
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J5/0022Radiation pyrometry, e.g. infrared or optical thermometry for sensing the radiation of moving bodies
    • G01J5/0025Living bodies
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J5/02Constructional details
    • G01J5/08Optical arrangements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J5/02Constructional details
    • G01J5/08Optical arrangements
    • G01J5/0808Convex mirrors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J5/10Radiation pyrometry, e.g. infrared or optical thermometry using electric radiation detectors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B17/00Systems with reflecting surfaces, with or without refracting elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/02Simple or compound lenses with non-spherical faces
    • G02B3/06Simple or compound lenses with non-spherical faces with cylindrical or toric faces
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/02Simple or compound lenses with non-spherical faces
    • G02B3/08Simple or compound lenses with non-spherical faces with discontinuous faces, e.g. Fresnel lens
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J5/10Radiation pyrometry, e.g. infrared or optical thermometry using electric radiation detectors
    • G01J2005/106Arrays

Definitions

  • the present invention relates mainly to a sensor assembly used in measuring far-infrared distribution.
  • a sensor assembly having a two-dimensional array sensor and imaging optics is used to obtain a two-dimensional image of infrared light.
  • cost reduction of the sensor assembly has been achieved.
  • Patent Document 1 discloses a technique for obtaining a two-dimensional image by scanning a line sensor in order to reduce the cost of the sensor assembly.
  • Patent Document 2 discloses an imaging optical system using a silicon or germanium lens.
  • the present invention provides a sensor assembly that can be manufactured inexpensively while maintaining detection sensitivity.
  • a sensor assembly is a plurality of pixels for detecting an electromagnetic wave, the line sensor having a plurality of pixels arranged in a line in a predetermined direction, and an image by the electromagnetic wave on the plurality of pixels.
  • the sensor assembly of the present invention can be manufactured inexpensively while maintaining detection sensitivity.
  • FIG. 1A is a side view (a) and a top view (b) of a sensor assembly according to Embodiment 1.
  • FIG. 1B is a front view of the sensor assembly in Embodiment 1.
  • FIG. 2A is a side view of the sensor assembly in Embodiment 1, and is a schematic view of the relationship between the width of the incident light of the imaging optical system and the light collection diameter.
  • FIG. 2B is an explanatory view of an image forming method in the first embodiment.
  • FIG. 3 is a schematic view (a) of a sensor used for the sensor assembly in Embodiment 1, a side view (b) and a top view (c) of the sensor assembly.
  • FIG. 4 is a side view (a) and a top view (b) of the sensor assembly in the first embodiment.
  • FIG. 5 is an explanatory view of the shape of the lens.
  • 6A and 6B are an explanatory view (a) regarding the Fresnel shape in the X direction and an explanatory view (b) regarding the condensing position on each pixel with respect to oblique incident light in the sensor assembly in Embodiment 1.
  • FIG. FIG. 7 is a side view (a) and a top view (b) of the sensor assembly in the first embodiment.
  • FIG. 8 is a schematic view (a) of a sensor used for the sensor assembly in Embodiment 1, a side view (b) and a top view (c) of the sensor assembly.
  • FIG. 9 is a side view (a) and a top view (b) of the sensor assembly in the second embodiment.
  • FIG. 10 is an explanatory diagram of an arrangement that makes it difficult to receive stray light in the sensor assembly according to the second embodiment.
  • FIG. 11 is an explanatory view (a) relating to an arrangement in which it is difficult to receive stray light in the sensor assembly according to the second embodiment, and an explanatory view (b) relating to an arrangement in which it is further difficult to receive stray light.
  • FIG. 12 is a cross-sectional view (a) and a top view (b) of the automobile when the sensor assembly is mounted on the automobile in the third embodiment.
  • FIG. 13 is an explanatory view of a configuration for preventing the influence of extraneous light when the sensor assembly is mounted on a car in the third embodiment.
  • FIG. 14 is an explanatory view of a configuration for preventing the influence of extraneous light when the sensor assembly is mounted on a car in the third embodiment.
  • FIG. 15 is an explanatory view (a) of acquiring a temperature distribution in a vehicle by scanning a sensor assembly in the third embodiment, and an explanatory view (b) regarding a sampling period at the time of scanning.
  • FIG. 16 is a side view (a) and a top view (b) of the sensor assembly in the fourth embodiment.
  • FIG. 17 is a front view of the sensor assembly in the fourth embodiment.
  • FIG. 18 is a schematic view showing a measurement range of the sensor assembly in the fourth embodiment.
  • Infrared rays in the near-infrared region with a wavelength of 0.7 to 2.5 micrometers are used for security applications such as night-vision cameras, or for remote control applications used for televisions and the like.
  • infrared rays in the mid-infrared region of 2.5 to 4.0 micrometers are often used to identify a substance based on an absorption spectrum specific to the measurement object by spectrometry of the transmission spectrum of the measurement object.
  • thermography In the far infrared region of 4.0 to 10 micrometers, there is a peak of the black body radiation spectrum near normal temperature. Therefore, the substance is detected by detecting infrared rays in the far infrared region emitted from the substance. Is used to measure the surface temperature of This usage is generally used to two-dimensionally capture the surface temperature of a substance as thermography.
  • a sensor assembly used for thermography or the like includes a two-dimensional array sensor and an imaging optical system for forming an image on the two-dimensional array sensor, as with a camera or the like in a visible region.
  • a bolometer etc. are conventionally used for the two-dimensional array sensor for far infrared rays.
  • a bolometer is a sensor that is warmed by incident far infrared radiation, and detects the temperature rise of the sensor due to the warming as a resistance value.
  • the bolometer has high image quality, it has a complicated and expensive mechanism for reading out, such as a circuit for supplying a current.
  • Patent Document 1 In recent years, in order to mount a sensor assembly to household appliances, such as an air conditioner, cost reduction of a sensor assembly is needed. Therefore, cost reduction is achieved by using an inexpensive sensor such as a thermopile or obtaining a two-dimensional image by scanning a line sensor (Patent Document 1).
  • Patent Document 2 using a lens or the like of silicon or germanium in an imaging optical system which is a component of a sensor assembly is also performed.
  • the present invention provides a sensor assembly that can be manufactured inexpensively while maintaining detection sensitivity.
  • a sensor assembly is a line sensor including a plurality of pixels for detecting an electromagnetic wave, the plurality of pixels being arranged in a line in a predetermined direction. And an imaging optical system for forming an image by an electromagnetic wave on a detection surface on the plurality of pixels, wherein the imaging optical system in a first direction orthogonal to the predetermined direction in a plane parallel to the detection surface Is different from the f-number of the imaging optical system in the second direction which is the predetermined direction.
  • the sensor assembly uses the imaging optical system having the larger one of the F numbers of the imaging optical system in the first and second directions as the F number of the first and second directions Rather, it is possible to increase the dose of electromagnetic waves detected by the pixels through the imaging optical system.
  • the sensor assembly can improve detection sensitivity over the above case.
  • the sensor assembly can maintain or increase the dose of the electromagnetic wave transmitted through the entire imaging optical system.
  • the transmittance of the electromagnetic wave of the material used for the imaging optical system is relatively low, the amount of the electromagnetic wave transmitted through the imaging optical system is reduced.
  • the amount of the electromagnetic waves passing through the imaging optical system is increased. Therefore, the dose of the electromagnetic wave transmitted as a whole of the imaging optical system can be maintained or increased by setting the increase to be equal to or larger than the decrease.
  • the sensor assembly can be manufactured inexpensively while maintaining detection sensitivity.
  • the f-number of the imaging optical system in the first direction is smaller than the f-number of the imaging optical system in the second direction.
  • the sensor assembly allows the sensor assembly to increase the dose of electromagnetic radiation transmitted through the imaging optics while keeping the line sensor pixel spacing the same as in the prior art.
  • the sensor assembly can be manufactured inexpensively while maintaining detection sensitivity using a line sensor of the same configuration as the conventional one.
  • the imaging optical system has a lens, and the f-number of the lens in the first direction is smaller than the f-number of the lens in the second direction.
  • the sensor assembly is specifically realized using lenses having different F-factors in the first and second directions as an imaging optical system.
  • the width of the lens in the first direction is greater than the width of the lens in the second direction.
  • the sensor assembly is specifically realized using lenses having different widths in the first and second directions as an imaging optical system.
  • the cross-sectional shape in the plane perpendicular to the first direction of the lens is different from the cross-sectional shape in the plane perpendicular to the second direction of the lens.
  • the sensor assembly is specifically realized using lenses having different cross-sectional shapes in the first and second directions as an imaging optical system.
  • the cross-sectional shape in a plane perpendicular to the second direction of the lens includes a Fresnel shape.
  • a Fresnel shape is used as a cross-sectional shape in a plane perpendicular to the second direction which may have relatively low accuracy among the first and second directions. In this way, it is possible to suppress the thickness of the imaging optical system while suppressing the influence of the line sensor on the detection accuracy of the electromagnetic wave.
  • the cross-sectional shape in the plane perpendicular to the first direction of the lens does not include the Fresnel shape.
  • the sensor assembly can maintain the detection accuracy of the electromagnetic wave.
  • the detection accuracy of the electromagnetic wave is lowered. Maintaining a desire for detection by the imaging optical system by not using a Fresnel shape in a cross-sectional shape in a plane perpendicular to the first direction which requires relatively high accuracy in the first and second directions it can.
  • the imaging optical system has a mirror, and the f-number of the mirror in the first direction is larger than the f-number of the mirror in the second direction.
  • the sensor assembly is specifically realized using mirrors with different F-factors in the first and second directions as imaging optics. That is, the sensor assembly can be realized by using a reflective imaging optical system instead of a transmissive imaging optical system.
  • the mirror is an off-axis parabolic mirror.
  • the sensor assembly further comprises a flat mirror.
  • the sensor assembly can be specifically configured to be difficult for the line sensor to receive stray light incident inside the sensor assembly. This allows the sensor assembly to focus the electromagnetic waves on the pixels of the line sensor with higher accuracy.
  • the width in each of the plurality of pixels in the first direction is larger than the width in each of the plurality of pixels in the second direction.
  • the electromagnetic wave includes far infrared rays having a wavelength of 8 to 10 micrometers.
  • the material of the lens is polyethylene.
  • the sensor assembly can be manufactured inexpensively by using a lens made of polyethylene as an imaging optical system.
  • each of the plurality of pixels is an infrared detector using a thermopile or a bolometer.
  • the sensor assembly is specifically realized by an infrared detector using a thermopile or bolometer.
  • Embodiment 1 In the present embodiment, a sensor assembly manufactured inexpensively and improving detection sensitivity will be described.
  • the sensor assembly in the present embodiment is an imaging optical system used for a line sensor, and can be manufactured inexpensively while maintaining detection sensitivity.
  • the sensor assembly 100 according to the present embodiment will be described with reference to FIGS. 1A and 1B.
  • FIG. 1A (a) is a side view of the sensor assembly 100
  • FIG. 1A (b) is a top view of the sensor assembly 100 as viewed in the direction of arrow A in FIG. 1A (a).
  • FIG. 1B is a front view of sensor assembly 100.
  • the X-axis direction is a direction passing through the sheet from the front to the back
  • the Y-axis direction is a direction from the bottom to the top of the sheet
  • the Z-axis direction is from left to right in the sheet It is the direction to go.
  • the X-axis direction is the direction from the bottom to the top of the paper
  • the Y-axis direction is the direction from the back to the front of the paper
  • the Z-axis direction from the left in the paper It is the direction to the right.
  • the X, Y and Z directions are directions as indicated by the coordinate axes.
  • the sensor assembly 100 comprises a sensor 101 and a lens 104.
  • the sensor 101 is a line sensor having a sensor substrate 103 and a pixel array 102.
  • the pixel array 102 is provided on the sensor substrate 103, and includes pixels 102a, 102b, 102c, 102d and 102e. Each of the pixels 102 a and the like detects an electromagnetic wave.
  • each of the pixels 102 a and the like will be described as detecting particularly far infrared rays.
  • the peak wavelength of infrared radiation emitted from a black body at normal temperature is in the vicinity of 8 to 10 micrometers. This wavelength range corresponds to far infrared radiation.
  • Each of the pixels 102 a and the like is realized by, for example, an infrared detector using a thermopile or a bolometer.
  • the surface on the side facing the lens 104 in the sensor 101 is a surface that detects an electromagnetic wave, this surface is also referred to as a detection surface.
  • the detection surface can also be referred to as the surface of the sensor 101 opposite to the sensor substrate 103.
  • the lens 104 focuses an electromagnetic wave on a detection surface on the sensor 101.
  • the lens 104 corresponds to an imaging optical system.
  • the material of the lens 104 is, for example, polyethylene. Polyethylene is transparent to infrared radiation of 8 to 10 micrometers.
  • the material of the lens 104 is not limited to polyethylene, and any material of resin that can transmit infrared rays of the above-mentioned wavelength and can be molded can be used.
  • the lens 104 is, for example, a spherical lens, and its shape will be described later.
  • Each of the pixels 102a, 102b, 102c, 102d and 102e has a length L both in width (length in the X-axis direction) and height (length in the Y-axis direction), and has a square shape in the XY plane.
  • the pixel 102 c of the sensor 101 and the lens 104 are provided on the optical axis 105.
  • the pixels 102a, 102b, 102c, 102d and 102e included in the pixel column 102 are arranged in the Y-axis direction.
  • a plurality of the respective pixels are arranged in the Y-axis direction, and only one pixel is provided in the X-axis direction which is a direction orthogonal to the direction of the arrangement. That is, the pixel array 102 is a so-called line sensor in which pixels are arranged in a line.
  • the X-axis direction may be expressed as a first direction
  • the Y-axis direction may be expressed as a second direction. That is, the present line sensor is a line sensor in which one pixel is arranged in the first direction and a plurality of pixels are arranged in the second direction, whereby the pixels are arranged in one row.
  • the mechanism of the operation of the sensor assembly 100 according to the present embodiment will be described.
  • the operation of the tangential surface of the sensor assembly 100 (the plane including the optical axis and the chief ray of each electromagnetic wave incident at each angle) will be described with reference to FIG. 1A (a).
  • the vertically incident light 106 is an electromagnetic wave emitted from a point not shown on the object plane and on the optical axis 105.
  • the vertically incident light 106 is vertically incident on the lens 104 as the vertically incident light 106.
  • the vertically incident light 106 is focused on the pixel 102 c on the optical axis 105.
  • an electromagnetic wave emitted from a not-shown point on the object surface and out of the optical axis 105 and obliquely incident on the lens 104 is referred to as obliquely incident light.
  • the obliquely incident light 107 is incident at the largest incident angle ⁇ 1 among the obliquely incident light.
  • the obliquely incident light 107 is condensed on the pixel 102 e farthest from the optical axis 105.
  • electromagnetic waves emitted from the object plane along the Y axis and incident on the lens 104 at an angle within the angle ⁇ 1 are all condensed at any position of the pixel row 102 in the tangential plane. .
  • the operation of the sensor assembly 100 in the sagittal plane (the plane including the optical axis and perpendicular to the tangential plane) will be described with reference to FIG. 1A (b). Since the pixels 102a, 102b, 102c, 102d and 102e are arranged in the Y-axis direction, only the width of one pixel of the pixel column 102 can be seen in (b) of FIG. 1A.
  • the vertically incident light 106 is vertically incident on the lens 104.
  • the vertically incident light 106 is focused at the center of the pixel array 102 on the optical axis 105.
  • the optical path of the oblique incident light 107 shown in (a) of FIG. 1A is projected to the optical path substantially the same as the vertical incident light 106 in (b) of FIG.
  • the light is collected at the center of the column 102 in the X-axis direction.
  • the condensing position on the pixel row 102 differs between the vertically incident light 106 and the obliquely incident light 107 in the Y-axis direction, as described with reference to FIG. 1A.
  • the vertically incident light 106 is condensed on the pixel 102c on the optical axis 105 in each of the tangential plane and the sagittal plane.
  • the focal length of the lens 104 is equal in each of the tangential plane and the sagittal plane, that is, the lens 104 is an optical axis symmetrical lens. In such a configuration, the image of the electromagnetic wave emitted from the linear region on the object surface can be imaged on the pixel array 102 by the lens 104.
  • FIG. 2A is a side view of the sensor assembly according to the present embodiment, and is a schematic view of the relationship between the width of the incident light of the imaging optical system and the diameter of the collected light.
  • (A) of FIG. 2A is a figure which shows the said relationship on the same scale as (a) of FIG. 1A etc., and (b) of FIG. 2A is an enlarged view which expands and shows only the said relationship.
  • the diameter (width) of the lens 104 be as large as possible because the detection sensitivity is higher as the amount of electromagnetic wave incident on each of the pixels 102a, 102b, 102c, 102d and 102e is larger.
  • increasing the diameter of the lens leads to an increase in spherical aberration.
  • the collection diameter at the collection position (here, on the pixel 102c) is R1.
  • the vertically incident light 108 having a width W3 larger than the width W1 is collected by the lens 104
  • the light collection diameter at the light collection position is R3.
  • R3 is larger than R1 under certain conditions due to the influence of spherical aberration. This is generally the case when the lens 104 is a spherical lens.
  • the effect of coma aberration is also remarkable for oblique incident light, so if the width of the electromagnetic wave incident on the lens 104 is large, the diameter of light collected on the pixel for the oblique incident light is It gets bigger.
  • the width of the luminous flux or the diameter of the light collection is large is also expressed as thick.
  • the term “ideal” refers to the case where the effects of spherical aberration and coma are not considered.
  • “realistic” refers to the case where the effects of spherical aberration and coma are taken into consideration.
  • the image obtained from the pixel row 102 is a blurred image.
  • the shape of the lens 104 is characterized.
  • the pixel row 102 is arranged such that the lens diameter D2 in the X-axis direction (first direction) in which the pixels of the sensor are formed of one pixel It is larger than the lens diameter D1 in the Y-axis direction (second direction) which is the direction.
  • the lens diameter in the X-axis direction and the like can also be referred to as the width of the lens in the X-axis direction and the like.
  • the F number in the X axis direction is smaller than the F number in the Y axis direction (second direction).
  • the example of the shape of the lens 104 is shown to each of (a) and (b) of FIG. 1B.
  • (A) of FIG. 1B corresponds to a spherical lens cut out with an ellipse having a major axis (diameter in the X axis direction) of D2 and a minor axis (diameter in the Y axis direction) of D1.
  • (B) of FIG. 1B corresponds to a spherical lens cut out in a rectangle having a long side (a side parallel to the X axis) D2 and a short side (a side parallel to the Y axis) D1.
  • the width in the X-axis direction is D2
  • the width in the Y-axis direction is D1.
  • the above is merely an example, and the shape of the lens 104 is not limited to these.
  • the shape of the lens 104 may be a shape obtained by cutting out a shape having a length in the X-axis direction longer than a length in the Y-axis direction from the spherical lens.
  • the shape may be any. That is, the figure may be a figure obtained by combining a triangle, a pentagon, other straight lines or curves, in addition to an ellipse ((a) in FIG. 1B) and a rectangle ((b) in FIG. 1B).
  • FIG. 1A are described as the side view and the top view of the sensor assembly 100, respectively. These can also be said to indicate the cross-sectional shape of the sensor assembly 100 in the plane perpendicular to the first direction and the cross-sectional shape of the sensor assembly 100 in the plane perpendicular to the second direction, respectively. Viewed in this way, the cross-sectional shape in a plane perpendicular to the first direction of the lens 104 can be said to be different from the cross-sectional shape in the plane perpendicular to the second direction of the lens 104.
  • the sensor assembly 100 has the following effects.
  • the size of the lens 104 in the X-axis direction which is a direction orthogonal to the arrangement direction of the pixel columns 102 of the sensor assembly 100, is greater than the size of the lens 104 in the Y-axis direction, which is the alignment direction of the pixel columns 102.
  • the imaging optical system configured by one lens is described, the present invention is effective even in an imaging optical system configured by a plurality of lenses.
  • the imaging optical system is composed of a plurality of lenses, it is sufficient to consider the f-number of the imaging optical system instead of the size of the lens. That is, the F number of the imaging optical system is smaller than the F number in the Y axis direction, which is the arrangement direction of the pixel lines 102, in the X axis direction which is a direction orthogonal to the arrangement direction of the pixel lines 102 of the sensor assembly 100 By doing this, it is possible to realize a sensor assembly that can simultaneously satisfy resolution and high detection sensitivity.
  • the lens size (effective diameter) and the f-number satisfy (Equation 1), so the f-number of the imaging optical system does not depend on the number of lenses. It can think in the same way paying attention.
  • the lens 104 described above may be a spherical lens, but may be an aspheric lens, which is not limited here.
  • FIG. 2B is an explanatory diagram of an image forming method in the present embodiment.
  • Forming an image using the sensor assembly 100 can be performed, for example, while scanning the base 101a on which the sensor 101 and the lens 104 are integrally mounted in the direction of arrow B as shown in (b) of FIG. 2B. It can be achieved by acquiring it. At this time, for example, each time the base 101a is moved by a distance corresponding to half the width of the pixel row 102, an image is taken, and a plurality of obtained images are processed to make the resolution higher than the width L of the pixel row 102. Images can be acquired. It is also called super resolution to obtain an image of high resolution in this way.
  • super resolution can be achieved by moving the base 101a so as to rotate the base 101a by half of the width of the pixel column L in the direction of the arrow B as described above.
  • the center of rotation when rotating the base 101 a may be anywhere, but can be, for example, the center E of the pixel row 102.
  • FIG. 3 is a schematic view (a) of the sensor used for the sensor assembly in the present embodiment, a side view (b) and a top view (c) of the sensor assembly.
  • Sensor assembly 200 is similar to sensor assembly 100 shown in FIG. 1A, except that it includes sensor 201 instead of sensor 101.
  • the sensor 201 includes a sensor substrate 203 and a pixel array 202.
  • the pixel column 202 is provided on the sensor substrate 203, and includes pixels 202a, 202b, 202c, 202d, and 202e. Further, the size of each pixel is not a square, and the length L2 in the X-axis direction orthogonal to the pixel arrangement direction (Y-axis direction) is longer than the length L1 in the arrangement direction.
  • the sensor assembly 200 further improves the detection sensitivity.
  • the detection sensitivity is improved by the width of each of the pixels in the first direction being larger than the width of each of the plurality of pixels in the second direction.
  • FIG. 4 is a side view (a) and a top view (b) of the sensor assembly in the present embodiment.
  • the sensor assembly 210 of FIG. 4 is similar to the sensor assembly 100 of FIG. 1A, except that it includes a lens 109 instead of the lens 104 in FIG. 1A.
  • the right side surface 109 a of the lens 109 is a continuous surface (or a continuous curved surface) similar to the lens 104 in the Y-axis direction.
  • the right side surface 109a of the lens 109 is a Fresnel surface in the X-axis direction, and differs from the lens 104 in this point.
  • the cross-sectional shape in a plane perpendicular to the second direction of the lens 109 includes a Fresnel shape.
  • the cross-sectional shape in a plane perpendicular to the first direction of the lens 109 does not include the Fresnel shape.
  • lenses used in the far infrared region are conventionally germanium or silicon in general. However, they are not only expensive but also hard and have high melting points, so they are difficult to mold. Therefore, polishing is used for processing but the shape that can be processed is limited, so there is only a spherical shape as a shape suitable for mass production.
  • the only resin material that can transmit light in the infrared region and that can be molded is polyethylene (including high density polyethylene), but since there is absorption inside the polyethylene, for applications where the lens becomes thicker Is not used.
  • the thickness T of this lens is 1.1 mm.
  • a Fresnel surface is made at least in the X axis direction which is a direction orthogonal to the arrangement direction of the pixel array 102 of the sensor assembly.
  • the transmittance does not easily decrease even if the lens diameter is increased.
  • the lens 109 can be manufactured with the required thickness (length) in the Y-axis direction of the lens 109, so it is possible to construct a bright lens that is inexpensive and has a high transmittance. This makes it possible to construct a sensor assembly that is both inexpensive and more sensitive.
  • the Fresnel shape of the right side surface 109a in the X-axis direction may be formed by making the same shape as the spherical (or aspherical) shape in the Y-axis direction into a Fresnel surface, as shown in FIG. It may be formed by making a shape different from a spherical (or aspherical) shape in the Y-axis direction into a Fresnel surface as in the above. Since there are a plurality of pixels in the Y-axis direction, the shapes of the lenses 104 and 109 in the Y-axis direction need to take into account the presence of oblique incident light.
  • the shape is an aspheric shape different from the Y-axis direction, but if it is a resin that can be molded like polyethylene, it can be easily processed.
  • the sensor assembly 210 may be configured.
  • the far infrared rays transmitted through the lens 109 and collected on the pixels 102c, 102d and 102e are referred to as vertical incident light 106 and oblique incident light 110 and 107, respectively.
  • the obliquely incident light 110 collected on the pixel 102 d located in the middle of the pixel 102 c on the optical axis 105 and the pixel 102 e at the end of the pixel array 102 is focused on the pixel 102 d (focused)
  • the shape of the Fresnel surface in the X-axis direction of the lens 109 may be determined.
  • the distance from the lens 109 to each pixel is different, and therefore, two or one (one on the optical axis) positions are in focus on the pixel array 102. Therefore, it is not possible to focus on all the positions on the pixel. Therefore, the oblique incident light 107 entering the pixel 102e forms a focus before entering the pixel 102e, and the vertical incident light 106 entering the pixel 102c virtually forms a focus behind the pixel 102c. Make it In this case, since the total defocus amount on each of the pixels 102c, 102d and 102e can be minimized, the beam diameter in the X-axis direction can be minimized. Therefore, it is possible to configure a sensor assembly with less variation in detection sensitivity for each pixel.
  • the temperature to be detected is a normal temperature
  • the peak wavelength of infrared rays emitted from the black body is in the vicinity of 8 to 10 micrometers.
  • polyethylene that transmits 8 to 10 micrometers of infrared light is taken as an example of the lens, but if it is possible to use a resin that can transmit far infrared light other than polyethylene, it is of course possible to use that resin Absent.
  • thermopile having sensitivity in the far infrared region
  • other materials capable of detecting far infrared radiation may also be used.
  • FIG. 7 is a side view (a) and a top view (b) of the sensor assembly in the present embodiment.
  • the sensor assembly 220 of FIG. 7 is similar to the sensor assembly 210 of FIG. 4 except that it comprises a lens 111 instead of the lens 109 in FIG.
  • the lens 111 differs from the lens 109 in that the left side surface 109b of the lens 109 is a flat surface, whereas the left side surface 111b of the lens 111 is a curved surface.
  • the lens 111 forms a meniscus lens in the Y-axis direction. By so doing, the thickness of the lens 111 can be reduced also in the YZ cross section.
  • the lens 111 can be configured to be thinner. By doing this, the amount of far infrared radiation incident on each pixel can be increased, so that it is possible to configure a sensor assembly with higher detection sensitivity.
  • the shapes of the respective lenses 104, 109 and 111 in the Y-axis direction are not continuous surfaces such as Fresnel surfaces but continuous surfaces.
  • it may be a Fresnel surface, but by setting the shape in the Y-axis direction as a continuous surface, for example, deterioration of the light collecting performance due to light scattering by each facet constituting the Fresnel surface can be eliminated. It has the effect of preventing.
  • FIG. 8 is a schematic view (a) of a sensor used for the sensor assembly in the present embodiment, a side view (b) and a top view (c) of the sensor assembly.
  • a sensor assembly 230 having a sensor 231 with three pixel rows will be described.
  • the sensor 231 has three pixel columns 234, 235 and 236.
  • the pixel column 234 includes pixels 232a, 232b, 232c, 232d and 232e.
  • the pixel column 235 includes pixels 232f, 232g, 232h, 232i and 232j.
  • the pixel column 236 has pixels 232 k, 232 l, 232 m, 232 n and 232 o.
  • each pixel is arranged in the Y-axis direction, and has a square shape of L1 in both height and width.
  • the pixel columns are arranged in parallel at an interval L3.
  • FIGS. 8B and 8C A sensor assembly 230 using a sensor 231 is shown in FIGS. 8B and 8C.
  • (B) of FIG. 8 is a side view of the sensor assembly 230
  • (c) of FIG. 8 is a top view as viewed from the direction of arrow A of (a) of FIG.
  • Sensor assembly 230 is similar to sensor assembly 100 shown in FIG. 1A, but instead of one pixel row 102 in sensor assembly 100, in sensor assembly 230, three pixel rows 234, 235 and 236 are spaced It differs in the point provided apart L3.
  • the width D2 in the X-axis direction of the lens 104 is larger than the width D1 in the Y-axis direction so that the light should be incident on the pixel column 234 even when the light collecting diameter in the X-axis direction on each pixel is large.
  • L3 is determined so that part or all of the electromagnetic wave does not enter the pixel columns 235 and 236.
  • the distance L3 between the pixel columns is determined so that part or all of the electromagnetic wave to be incident on the pixel column 235 or 236 does not enter the pixel column 234.
  • each pixel has a square shape of one side L1 in FIG. 8, as shown by the sensor 201, it may be a rectangle long in the X-axis direction. By doing so, even when the light collecting diameter in the X-axis direction on each pixel is increased, the light amount of the received electromagnetic wave is increased, so that a sensor assembly with higher detection sensitivity can be configured.
  • an image having the larger one of the F numbers of the imaging optical system in the first and second directions in common as the F number of the first and second directions It is possible to increase the dose of the electromagnetic wave detected in the pixel by passing through the imaging optical system compared to the case of using the optical system.
  • the sensor assembly can improve detection sensitivity over the above case.
  • the sensor assembly can maintain or increase the dose of the electromagnetic wave transmitted through the entire imaging optical system.
  • the transmittance of the electromagnetic wave of the material used for the imaging optical system is relatively low, the amount of the electromagnetic wave transmitted through the imaging optical system is reduced.
  • the amount of the electromagnetic waves passing through the imaging optical system is increased. Therefore, the dose of the electromagnetic wave transmitted as a whole of the imaging optical system can be maintained or increased by setting the increase to be equal to or larger than the decrease.
  • the sensor assembly can be manufactured inexpensively while maintaining detection sensitivity.
  • FIG. 9 is a side view (a) and a top view (b) of the sensor assembly 300 in the present embodiment.
  • the sensor assembly 300 is similar to the sensor assembly 200 of the first embodiment, but is not a transmission type imaging optical system using the lens 104, but a reflection type imaging optical system using the off-axis parabolic mirror 304. It differs in that it is. Along with that, the arrangement of the sensor 301 is changed to an appropriate position.
  • FIG. 9 is a side view of the sensor assembly 300
  • (b) of FIG. 9 is a top view of the sensor assembly 300 as viewed in the direction of arrow A of (a) of FIG.
  • the off-axis parabolic mirror 304 in FIG. 9 (b) is shown as semi-transparent for the sake of understanding, but it is not actually transparent.
  • the X axis direction is a direction in which the paper surface is penetrated from the front to the back
  • the Y axis direction is a direction from the bottom to the upper side
  • the axial direction is a direction from left to right in the drawing.
  • FIG. 9 is a side view of the sensor assembly 300
  • FIG. 9 is a top view of the sensor assembly 300 as viewed in the direction of arrow A of (a) of FIG.
  • the off-axis parabolic mirror 304 in FIG. 9 (b) is shown as semi-transparent for the sake of understanding, but it is not actually transparent.
  • the X axis direction is a direction
  • the X-axis is a direction from the bottom to the top of the paper
  • the Y-axis direction is a direction from the back to the front of the paper
  • the Z-axis is a direction from left to right in the paper There is.
  • Sensor assembly 300 comprises a sensor 301 and an off-axis parabolic mirror 304.
  • the sensor 301 includes a sensor substrate 303 and a pixel array 302.
  • the pixel column 302 is provided on the sensor substrate 303, and includes pixels 302a, 302b, 302c, 302d and 302e.
  • the off-axis parabolic mirror 304 focuses an electromagnetic wave on the detection surface on the sensor 301.
  • the off-axis parabolic mirror 304 corresponds to an imaging optical system.
  • FIG. 9 is a side view (a) and a top view (b) of the sensor assembly 300 in the present embodiment.
  • the vertically incident light 305 is an electromagnetic wave emitted from a point not shown on the object plane and on the optical axis 308.
  • the vertically incident light 305 is vertically incident along the optical axis 308 on the off-axis parabolic mirror 304 of the sensor assembly 300.
  • the vertically incident light 305 is reflected by the off-axis parabolic mirror 304 and is incident on the pixel 302 c on the sensor 301.
  • the focal point of the paraboloid constituting the off-axis parabolic mirror 304 is located on the pixel column 302, and the vertically incident light 305 is arranged to be collected at this focal position.
  • obliquely incident light An electromagnetic wave emitted obliquely from an unshown point on the object surface and out of the optical axis 308 and obliquely incident on the off-axis parabolic mirror 304 is referred to as obliquely incident light.
  • the obliquely incident lights 306 and 307 are, for example, obliquely incident light which is incident at the largest incident angle ⁇ 1.
  • Each of the obliquely incident light 306 and 307 condenses on the pixel 302a and 302e which is farthest from the pixel 302c which is the central pixel on the sensor.
  • any electromagnetic waves emitted parallel to the Y-axis from the object plane and incident on the off-axis parabolic mirror 304 at an angle within the angle ⁇ 1 are collected at any position of the pixel row 302. Do.
  • the pixels 302a, 302b, 302c, 302d, and 302e are slightly rotated counterclockwise around the Y-axis direction in the present embodiment.
  • vertically incident light 305 is directed to the off-axis parabolic mirror 304 along the optical axis 308 of the sensor assembly 300.
  • the vertically incident light 305 is reflected by the off-axis parabolic mirror 304 and condensed at the center of the pixel 302 c in the X-axis direction.
  • each of the obliquely incident lights 306 and 307 shown in FIG. 9A is reflected by the off-axis parabolic mirror 304 in FIG. 9B, and then collected in the vicinity of the pixels 302a and 302e. Light up. In this way, the electromagnetic wave emitted along the Y axis from the object plane can be imaged on the pixel row 302 by the off-axis parabolic mirror 304.
  • sagittal light of the vertically incident light 305 is reflected at the off-axis parabolic mirror 304 in a plane including the optical axis.
  • sagittal light of the obliquely incident light 306 and 307 is reflected not by a flat surface but by a curved surface.
  • the curvatures in the sagittal plane that the obliquely incident light beams 306 and 307 receive at the off-axis parabolic mirror 304 are different from each other.
  • sagittal light means light propagating through a sagittal plane.
  • both normal incident light 305 and oblique incident light 306 and 307 will be reflected in a plane that includes the optical axis 308 and the Y axis. Therefore, if the F number is the same, the condensed diameters of the obliquely incident lights 306 and 307 on the pixel column 302 in the X-axis direction are different from the condensed diameters of the pixel column direction.
  • tangential light refers to light propagating in a tangential plane.
  • the focusing diameter in the X-axis direction may be different from the focusing diameter in the Y-axis direction.
  • the F-number in the X-axis direction may be different from the F-number in the Y-axis direction.
  • by increasing the F number in the X direction it is possible to make the condensed diameter in the X direction on the pixel column 302 substantially equal to the condensed diameter in the Y axis direction.
  • the pixel rows are arranged in the direction orthogonal to the X-axis direction as in the present embodiment, in order to prevent the deterioration of the resolution due to the electromagnetic wave entering the pixel adjacent to the pixel
  • the condensing diameter in the pixel column direction (the direction in which the pixels are arranged) needs to be narrowed (small). Therefore, the sensor 301 and the off-axis parabolic mirror 304 are disposed so that the light collection diameter in the pixel column direction on each pixel is reduced.
  • the length of L5 is longer than the length of L4. Lengthen.
  • the arrangement diameter of the sensor 301 or the off-axis parabolic mirror 304 is determined so that the collection diameter in the pixel column direction becomes small, and the collection diameter in the X-axis direction on each pixel becomes large. Even in this case, it is possible to receive light without missing the light amount to be incident in each pixel. Then, while maintaining the resolution in the pixel column direction, the amount of the electromagnetic wave incident on each pixel is increased to simultaneously achieve high resolution and high detection sensitivity, and further reduce variation in the amount of incident light for each pixel. It will be possible.
  • the F number in the tangential direction may be reduced within the range in which the resolution in the pixel column direction does not deteriorate.
  • the amount of electromagnetic waves incident on each pixel can be increased while maintaining the resolution in the pixel column direction, so high resolution and high detection sensitivity can be achieved simultaneously.
  • FIG. 10 is an explanatory view of an arrangement that makes it difficult to receive stray light in the sensor assembly in the present embodiment.
  • the sensor 301 is turned counterclockwise in FIG. 10 about the X axis such that the focal point 310 of the off-axis parabolic mirror 304 is at any position on the pixel column 302. It may be rotated by a predetermined angle (angle ⁇ 1). In this state, for example, by providing the shield 309 or the like, it is possible to easily prevent the deterioration of the image quality due to the stray light.
  • the electromagnetic wave incident on the sensor 301 without being reflected by the off-axis parabolic mirror 304 is stray light, which corresponds to stray light 311a or 311b shown in FIG.
  • the sensor 301 is tilted in the counterclockwise direction around the X axis as in the present embodiment, the angle of vision is reduced only for stray light incident mainly from the upper right of the drawing. Instead, the presence of the shield 309 makes it possible to shield from stray light.
  • the sensor assembly 300 can reduce the effects of noise.
  • this effect is not an effect limited to the line sensor in which the sensor 301 is configured by the pixel array 302, and the same effect can be obtained even with a two-dimensional area sensor.
  • FIG. 11 is an explanatory view (a) relating to an arrangement in which it is difficult to receive stray light in the sensor assembly according to the second embodiment, and an explanatory view (b) relating to an arrangement in which it is further difficult to receive stray light.
  • the sensor assembly 320 is similar to the sensor assembly 300 except that the electromagnetic wave reflected by the off-axis parabolic mirror 304 is reflected by the flat mirror 321 before it is received by the pixel column 302 of the sensor 301.
  • the obliquely incident light 306 and 307 are illustrated in FIG. 9 or FIG. 10, the oblique incident light 306 and 307 are omitted in FIG. 11 for the sake of clarity.
  • the pixel row 302 side of the sensor 301 inevitably turns to the flat mirror side, so stray lights 311 c and 311 d that are mainly incident from the upper right of the drawing directly enter the pixel row 302. It will not be configured.
  • the emissivity of the mirror is as low as 0.1 or less, and even if the plane mirror 321 or the off-axis parabolic mirror 304 is disposed at a position close to the pixel column 302, it is unlikely to become a noise source.
  • the sensor assembly 320 can further reduce the influence of noise due to stray light. It is to be noted that stray light from other directions can be easily prevented from entering by enclosing the sensor assembly 320 by the housing 322 or the like, and therefore will not be described further here.
  • the sensor assembly 320 shown in FIG. 11 (b) is a component similar to the sensor assembly 320 of FIG. 11 (a) described above, but adds the requirements described below with respect to placement.
  • the vertically incident light 305 emitted from the off-axis parabolic mirror 304 toward the plane mirror 321 its chief ray is assumed to be incident at an angle of - ⁇ b with respect to the normal of the plane mirror 321.
  • ⁇ b is a positive value
  • the angle in the counterclockwise direction with respect to the normal of the plane mirror 321 is negative.
  • the vertically incident light 305 is incident on the plane mirror 321 at a negative angle.
  • a straight line be a straight line B.
  • an angle formed with the normal line of the plane mirror 321 is + ⁇ a as shown in FIG. 11B.
  • ⁇ a is a positive value
  • the vertically incident light 305 on the flat mirror 321 and the straight line B Stray light will be reflected in the opposite direction to the normal to the plane mirror 321. That is, since the light is reflected in the opposite direction to the sensor 301, stray light incident along the straight line B is not incident on the pixel row 302 on the sensor 301.
  • the sensor assembly 320 can further reduce the influence of noise due to stray light.
  • stray light from other directions can be easily prevented from entering by surrounding the sensor assembly 320 with the housing 322 or the like, and therefore will not be described further here. .
  • the effect of preventing stray light described with reference to FIG. 11 is not an effect limited to the line sensor in which the sensor 301 is configured by the pixel array 302, but is an effect similarly obtained even with a two-dimensional area sensor .
  • the sensor assembly in the present embodiment is specifically realized using mirrors having different F factors in the first and second directions as an imaging optical system. That is, the sensor assembly can be realized by using a reflective imaging optical system instead of a transmissive imaging optical system.
  • Embodiment 1 or 2 An example in which the sensor assembly described in Embodiment 1 or 2 is used inside a car will be described in the present embodiment.
  • FIG. 12 is a cross-sectional view (a) and a top view (b) of the automobile when the sensor assembly is mounted on the automobile in the third embodiment.
  • FIG. 12 (a) is a side view of an example in which the sensor assembly 502 is mounted inside the automobile 500
  • FIG. 12 (b) is a top view thereof.
  • the sensor assembly 502 is one of the sensor assemblies described in any of the first and second embodiments, and here is a sensor assembly of a temperature sensor which has sensitivity in the far infrared region and can measure a temperature distribution.
  • a driver 501 is driving on a car 500 and is driving, and the driver 501 is captured within the field of view 506 of the sensor assembly 502.
  • the human's thermal sensation feeling of being hot or cold
  • the amount of blood flow is large and the forehead close to the trunk, etc. has a small amount of fluctuation with respect to the ambient temperature, and is usually maintained at around 33 ° C.
  • the temperature of the cheeks, nose, and ears of the limbs or even the face is easily influenced by the ambient temperature, and is considered to be correlated with the thermal sensation to some extent. Therefore, if the temperature around the limbs or the face can be measured accurately, it is possible to estimate the human thermal sensation from the measurement result. For example, by controlling the air conditioning device based on the estimated thermal sensation, comfortable air conditioning in the automobile 500 can be maintained.
  • the temperature distribution of the face of the driver 501 is detected by the sensor assembly 502.
  • the sensor assembly 502 is rotatably disposed about the center of rotation 505, as shown in FIG. 12 (b).
  • the sensor assembly 502 can detect a temperature distribution while scanning a scanning range 507 including the face of the driver 501 by rotating about the rotation center 505.
  • the driver's 501 face is placed within the range of the field of view 506 of the sensor assembly 502. By doing this, it is possible to measure the temperature of the face during driving of the driver 501 in real time.
  • the temperature of the face of the driver 501 measured by the sensor assembly 502 is transmitted to the control unit 508 by a wire not shown.
  • the control unit 508 analyzes the measured temperature of the face, estimates the thermal sensation of the driver 501 mainly from the temperature of the cheek, nose, ears, etc., and controls the air conditioner 509 based on the estimation result.
  • the temperature, direction, wind power and the like of the air blown out from the air conditioner 509 are adjusted. By so doing, the driver 501 can always be kept in a comfortable state, and a stress-reduced driving environment can be provided.
  • the sensor assembly 502 is particularly susceptible to extraneous light incident from the rear window 504.
  • Sunlight has far infrared rays in its spectrum, and the amount of far infrared light is relatively large. Therefore, when sunlight directly enters the sensor assembly 502, it becomes noise and it becomes difficult to accurately measure the temperature distribution of the driver's 501 face.
  • the range of the field of view 506 of the sensor assembly 502 is arranged so as to be all below the horizontal direction with respect to the sensor assembly 502.
  • the sun is often located at or above the horizon or horizon, and is generally less likely to be below the horizon or horizon. Therefore, if the range of the field of view 506 of the sensor assembly 502 is lower than the horizontal direction with respect to the sensor assembly 502, sunlight will not be directly incident on the sensor assembly 502 substantially. By doing this, it is possible to suppress the generation of noise due to the far infrared rays contained in the sunlight being incident on the sensor assembly 502, and to reliably estimate the thermal sensation of the driver 501.
  • the arrangement of the sensor assembly 502 may be configured such that the rear window 504 does not fall within the field of view 506. This can prevent not only the sunlight 503 but also the extraneous light 510 from entering the sensor assembly 502.
  • a filter capable of cutting far infrared rays may be inserted into the rear window 504. Even by intentionally inserting a filter that cuts far infrared light into the rear window 504, foreign light including sunlight can be prevented from being directly incident on the sensor assembly 502. It is possible to suppress the generation of noise due to the infrared rays being incident on the sensor assembly 502 and to estimate the thermal sensation of the driver 501 with certainty.
  • the control unit 508 may be controlled. By locally adjusting the temperature, the direction, or the air volume of the air blown out, it is possible to provide the optimal local air conditioning according to each person riding the vehicle 500.
  • the thermal sensation of the driver 501 is estimated from the temperature distribution of the face of the driver 501 mainly on the cheeks, nose, ears, etc. in the above, it is of course possible to measure including the hand of the driver 501. By measuring not only the face but also the peripheral body surface temperature, the thermal sensation of the driver 501 can be more accurately estimated, and a more comfortable driving environment can be provided.
  • a filter for cutting far infrared rays is inserted into the rear window 504
  • a filter for cutting far infrared rays may be inserted not only into the rear window 504 but also into the window on the side of the car 500.
  • the sensor assembly 300 in the case where a mirror such as an off-axis parabolic mirror is used as an imaging optical system, it is assumed that extraneous light is incident on the sensor 301.
  • the sensor assembly 300 described in the second embodiment is attached to the vicinity of the ceiling of the automobile 500 as shown in FIG.
  • the sensor assembly 300 can prevent external light from being directly incident on the sensor 301 from the front of the automobile 500 by being surrounded by the housing 511 except where the far infrared rays are incident.
  • the temperature sensor 512 is attached near the ceiling of the car 500, the amount of stray light is calculated from the temperature and the emissivity of the ceiling of the car 500, and the temperature distribution obtained by entering the sensor 301 is corrected.
  • the temperature distribution of the driver 501 can be obtained by reducing the influence of the error.
  • a material having a low emissivity may be attached to the ceiling of the automobile 500. By doing so, the extraneous light itself can be reduced, and the influence of an error can be reduced when the temperature distribution of the face of the driver 501 is determined.
  • the sensor assembly 300 has been described above as an example, this is generally the case when a mirror is included in the sensor assembly, and is not limited to the form of the sensor assembly 300.
  • the sensor assembly 502 using a line sensor has been described as the sensor assembly, but in the embodiment described here, the sensor incorporated in the sensor assembly 502 is limited to the line sensor. Similar effects can be obtained even with a two-dimensional area sensor instead of the effect.
  • FIG. 15 is an explanatory view (a) of acquiring a temperature distribution in a vehicle by scanning a sensor assembly in the present embodiment, and an explanatory view (b) regarding a sampling cycle at the time of scanning.
  • a method of measuring the temperature distribution of a person in the vehicle 500 by scanning the sensor assembly 502 will be described with reference to FIG.
  • the sensor assembly 502 detects the temperature distribution of the person who is in the vehicle 500 while scanning the scanning range 507, for example, to scan the temperature distribution of the person while distinguishing the nose and cheeks It is necessary to scan at a sampling pitch of about 1 °.
  • the time taken for the sensor assembly 502 to perform one sampling is one second, and the scanning range of 160 ° is scanned, it takes 160 seconds for the sensor assembly 502 to scan from end to end. It becomes. This is not useful, especially if the room temperature needs to be adjusted early after boarding. Therefore, in the present embodiment, scanning by the sensor assembly 502 is performed as follows.
  • sampling is performed every 10 ° at the start of operation such as riding.
  • it is possible to detect at which position a person is present in 16 seconds ( 160/10) by first scanning across the scanning range.
  • the position where the driver 501 is detected is detected every 1 ° which is a required accuracy
  • the position of the passenger 513 is detected every 1 ° which is a required accuracy. .
  • sampling period and the scanning range described above are merely examples, and the present invention is not limited to these values.
  • the above-mentioned rough sampling timing may be other than the above-mentioned riding time (timing when the engine is turned on).
  • the door of the car 500 may be opened and closed in order to include the possibility of getting on and off of the person, or even if the person is not detected in the place where the person existed before (for example, the person Or the like) or other timing may be used.
  • the temperature range of the driver 501 may first be scanned to detect the temperature distribution of the driver. Normally, at the timing when the vehicle is turned on, there is a high possibility that the driver is on the driver's seat. On the other hand, the possibility that the passenger is on a seat other than the driver's seat at this timing is unknown. Therefore, at the timing when the engine is turned on, the existence range of the driver 501 is scanned to estimate the thermal sensation of the driver 501 from the temperature distribution of the driver 501, starting around the driver 501 and including other seats Based on the thermal sensation of the driver 501, control of the air conditioner 509 is started under the same conditions (temperature, air flow, etc.).
  • the scanning range 507 is scanned at intervals of 10 ° to identify the presence or absence of a passenger and, if there is a passenger, identify the location, and the wind direction of the air conditioner 509 becomes comfortable at the position where the passenger is present.
  • the air conditioner 509 is operated in consideration of only the surroundings of the driver 501.
  • the air conditioner 509 is controlled by estimating the thermal sensation of the passenger from the temperature distribution of the passenger by sampling the locations of the specified passenger every 1 °. In this way, even when the sampling speed is slow, it is possible to realize a comfortable in-vehicle air conditioner even when getting on the vehicle.
  • Embodiment 4 A sensor assembly 700 in the present embodiment will be described with reference to FIG.
  • FIG. 16 is a side view (a) and a top view (b) of a sensor assembly 700 according to the present embodiment.
  • FIG. 17 is a front view of a sensor assembly in the present embodiment.
  • the sensor assembly 700 is similar to the sensor assembly 100 according to the first embodiment, except that a lens 704 is provided instead of the lens 104 and a sensor 701 is provided instead of the sensor 101.
  • FIG. 16 (a) is a side view of the sensor assembly 700
  • FIG. 16 (b) is a top view of the sensor assembly 700 as viewed from the direction of arrow A in FIG. 16 (a).
  • the lens 704 focuses an electromagnetic wave on the detection surface on the sensor 701.
  • the lens 704 corresponds to an imaging optical system.
  • a pixel row 702 is arranged in the lens diameter D1 in the X-axis direction (first direction) in which the pixels of the sensor are formed of one pixel. It is smaller than the lens diameter D2 in the Y-axis direction (second direction) which is the direction. It can also be said that the F number in the X axis direction (first direction) is larger than the F number in the Y axis direction (second direction).
  • the sensor 701 includes a sensor substrate 703 and a pixel array 702.
  • the pixel column 702 is provided on the sensor substrate 703, and includes pixels 702a, 702b, 702c, 702d and 702e.
  • the surface on the side facing the lens 104 in the sensor 701 is also referred to as a detection surface.
  • the sensor 701 has five pixels will be described as an example, the number of pixels is not limited to this.
  • FIG. 17A corresponds to a spherical lens cut out with an ellipse having a major axis (diameter in the Y axis direction) of D2 and a minor axis (diameter in the X axis direction) of D1.
  • (B) of FIG. 17 corresponds to a spherical lens cut out in a rectangle having a long side (side parallel to the Y axis) D2 and a short side (side parallel to the X axis) D1.
  • the width in the X-axis direction is D1
  • the width in the Y-axis direction is D2.
  • the shape of the lens 704 is not limited to these.
  • the shape of the cut-out figure may be any shape. That is, the figure may be a figure obtained by combining a triangle, a pentagon, and other straight lines or curves in addition to an ellipse ((a) in FIG. 17) and a rectangle ((b) in FIG. 17).
  • FIG. 18 is a schematic view showing a measurement range of the sensor assembly in the present embodiment.
  • the pixels 702a, 702c, and 702e among the pixels included in the sensor 701 are illustrated for the sake of explanation.
  • pixels 102a, 102c and 102e among the pixels included in the sensor 101 are drawn.
  • the position of the pixel 702c which is the central pixel in the sensor 701 and the position of the pixel 102c which is the central pixel in the sensor 101 are drawn to coincide with each other.
  • FIG. 18 shows the range of the electromagnetic waves collected on the sensor 701 or the sensor 101 using the lens 704.
  • the electromagnetic waves emitted from the area included in the range 712 are collected on the sensor 701 (pixels 702 a to 702 e).
  • the electromagnetic waves emitted from the area included in the range 711 are collected on the sensor 101 (pixels 102 a to 102 e). Since the sensor 701 is longer than the sensor 101, the range 712 includes a wider angular range than the range 711. That is, although the sensor 701 and the sensor 101 have the same number of pixels, the sensor 701 can receive electromagnetic waves from a wider angle range.
  • the sensor assembly in the present embodiment can receive light from a wider angle range, it can receive electromagnetic waves coming from a wider area.
  • the sensor assembly according to the present invention is useful because it can achieve high sensitivity with an inexpensive configuration, is resistant to stray light, and can be used in automobiles.

Abstract

 センサーアセンブリ(100)は、電磁波を検出するための複数の画素であって、所定方向に一列に配列された複数の画素を有するセンサー(101)と、電磁波による像をセンサー(101)上の検出面に結像させるレンズ(104)とを備え、検出面に平行な面内で所定方向に直交する第一の方向におけるレンズ(104)のFナンバーは、所定方向である第二の方向におけるレンズ(104)のFナンバーと異なる。例えば、第一の方向におけるレンズ(104)のFナンバーは、第二の方向におけるレンズ(104)のFナンバーより小さい。

Description

センサーアセンブリ
 本発明は、主に遠赤外線分布を測定する際に用いるセンサーアセンブリに関する。
 赤外線の二次元像を得るために、二次元アレイセンサー及び結像光学系を有するセンサーアセンブリが用いられる。近年、エアコン等の家電機器へセンサーアセンブリを搭載するため、センサーアセンブリの低コスト化が図られている。
 特許文献1は、センサーアセンブリの低コスト化を目的として、ラインセンサーを走査することにより二次元画像を得る技術を開示する。
 特許文献2は、シリコン又はゲルマニウムのレンズを用いた結像光学系を開示する。
特開2010-133692号公報 特開平6-94991号公報
 しかしながら、シリコン又はゲルマニウム等の材料は高価であり、また、基本的に研磨でしか加工できないので安価に製造することが困難であるという問題がある。
 そこで、本発明は、検出感度を維持しながら安価に製造可能であるセンサーアセンブリを提供する。
 本発明の一態様に係るセンサーアセンブリは、電磁波を検出するための複数の画素であって、所定方向に一列に配列された複数の画素を有するラインセンサーと、電磁波による像を前記複数の画素上の検出面に結像させる結像光学系とを備え、前記検出面に平行な面内で前記所定方向に直交する第一の方向における前記結像光学系のFナンバーは、前記所定方向である第二の方向における前記結像光学系のFナンバーと異なる。
 本発明のセンサーアセンブリは、検出感度を維持しながら安価に製造可能である。
図1Aは、実施の形態1におけるセンサーアセンブリの側面図(a)と上面図(b)である。 図1Bは、実施の形態1におけるセンサーアセンブリの正面図である。 図2Aは、実施の形態1におけるセンサーアセンブリの側面図で、結像光学系入射光の幅と集光径の関係の模式図である。 図2Bは、実施の形態1における画像形成方法の説明図である。 図3は、実施の形態1におけるセンサーアセンブリに用いるセンサーの模式図(a)、センサーアセンブリの側面図(b)及び上面図(c)である。 図4は、実施の形態1におけるセンサーアセンブリの側面図(a)及び上面図(b)である。 図5は、レンズの形状の説明図である。 図6は、実施の形態1におけるセンサーアセンブリにおいて、X方向のフレネル形状に関する説明図(a)と、斜め入射光に対する各画素上での集光位置に関する説明図(b)である。 図7は、実施の形態1におけるセンサーアセンブリの側面図(a)及び上面図(b)である。 図8は、実施の形態1におけるセンサーアセンブリに用いるセンサーの模式図(a)、センサーアセンブリの側面図(b)及び上面図(c)である。 図9は、実施の形態2におけるセンサーアセンブリの側面図(a)及び上面図(b)である。 図10は、実施の形態2におけるセンサーアセンブリにおいて、迷光を受光しにくくなる配置に関する説明図である。 図11は、実施の形態2におけるセンサーアセンブリにおいて、迷光を受光しにくくなる配置に関する説明図(a)、及び、さらに迷光を受光しにくくなる配置に関する説明図(b)である。 図12は、実施の形態3において、センサーアセンブリを自動車に搭載した場合の、自動車の断面図(a)、及び、上面図(b)である。 図13は、実施の形態3において、センサーアセンブリを自動車に搭載した場合に、外来光の影響を防止する構成に関する説明図である。 図14は、実施の形態3において、センサーアセンブリを自動車に搭載した場合に、外来光の影響を防止する構成に関する説明図である。 図15は、実施の形態3において、センサーアセンブリを走査することで自動車内の温度分布を取得することの説明図(a)、及び、走査する際のサンプリング周期に関する説明図(b)である。 図16は、実施の形態4におけるセンサーアセンブリの側面図(a)と上面図(b)である。 図17は、実施の形態4におけるセンサーアセンブリの正面図である。 図18は、実施の形態4におけるセンサーアセンブリの測定範囲を示す模式図である。
(本発明の基礎となった知見)
 本発明者は、「背景技術」の欄において記載した、センサーアセンブリに関し、以下の問題が生じることを見出した。
 近年、赤外線を用いた様々なアプリケーションが開発されている。波長が0.7~2.5マイクロメータの近赤外領域の赤外線は、暗視カメラ等の防犯用途、又は、テレビ等に用いられるリモコン用途等がある。また、2.5~4.0マイクロメータの中赤外領域の赤外線は、測定対象の透過スペクトルの分光測定により、その測定対象固有の吸収スペクトルに基づいて物質を同定するのによく用いられる。
 さらに、4.0~10マイクロメータの遠赤外領域においては、常温近傍の黒体輻射スペクトルのピークが存在するので、物質から輻射されている遠赤外領域の赤外線を検出することで、物質の表面温度を非接触で測定するのに用いられる。この使い方は、一般に、サーモグラフィーとして、物質の表面温度を二次元的に捉えることに活用されている。サーモグラフィー等に用いられるセンサーアセンブリは、可視領域のカメラ等と同様に、二次元アレイセンサーと、二次元アレイセンサー上に結像させる結像光学系とを備える。
 遠赤外線用の二次元アレイセンサーには、従来、ボロメータ等が用いられている。ボロメータは、入射する遠赤外線によりセンサーが暖められ、暖められたことによるセンサーの温度上昇を抵抗値として検出するものである。ボロメータは、高画質である反面、電流を流すための回路等、読み出すための仕組みが複雑かつ高価である。
 近年、エアコン等の家電機器へセンサーアセンブリを搭載するため、センサーアセンブリの低コスト化が必要となる。そこで、サーモパイル等の安価なセンサーを用いること、又は、ラインセンサーを走査することにより二次元画像を得ること(特許文献1)により、低コスト化が図られている。
 また、センサーアセンブリの構成要素である結像光学系に、シリコン又はゲルマニウムのレンズ等を用いることも行われている(特許文献2)。
 しかしながら、シリコン又はゲルマニウム等の材料は高価であり、また、基本的に研磨でしか加工できないので安価に製造することが困難であるという問題がある。また、屈折率が高い反面、透過率が低く、センサーの感度が低下する懸念があった。
 そこで、本発明は、検出感度を維持しながら安価に製造可能であるセンサーアセンブリを提供する。
 このような問題を解決するために、本発明の一態様に係るセンサーアセンブリは、電磁波を検出するための複数の画素であって、所定方向に一列に配列された複数の画素を有するラインセンサーと、電磁波による像を前記複数の画素上の検出面に結像させる結像光学系とを備え、前記検出面に平行な面内で前記所定方向に直交する第一の方向における前記結像光学系のFナンバーは、前記所定方向である第二の方向における前記結像光学系のFナンバーと異なる。
 これによれば、センサーアセンブリは、第一及び第二の方向における結像光学系のFナンバーのうち大きい方を第一及び第二の方向のFナンバーとして共通に有する結像光学系を用いる場合よりも、当該結像光学系を通過して画素に検出される電磁波の線量を増加させることができる。よって、センサーアセンブリは、上記の場合よりも検出感度を向上させることができる。
 また、結像光学系に用いる材料の電磁波の透過率が比較的低い場合でも、センサーアセンブリは、結像光学系全体として透過させる電磁波の線量を維持し又は増大させることができる。結像光学系に用いる材料の電磁波の透過率が比較的低い場合、当該結像光学系を透過する電磁波の量が低下する。一方、上記のように第一及び第二の方向でFナンバーを異ならせることにより当該結像光学系を透過する電磁波の量を増加させる。よって、その増加分が、その低下分より大きく又は等しくなるようにすることで、結像光学系全体として透過させる電磁波の線量を維持し又は増加させることができる。
 よって、結像光学系にシリコン又はゲルマニウムのような高価かつ加工のコストが高い材料を用いる必要がなく、安価かつ加工のコストが低い材料を用いることができる。よって、センサーアセンブリは、検出感度を維持しながら安価に製造可能である。
 例えば、前記第一の方向における前記結像光学系のFナンバーは、前記第二の方向における前記結像光学系のFナンバーより小さい。
 これにより、センサーアセンブリは、ラインセンサーの画素の間隔を従来と同じにしたまま、結像光学系を透過させる電磁波の線量を増大させることができる。よって、センサーアセンブリは、従来と同様の構成のラインセンサーを用いて、検出感度を維持しながら安価に製造可能である。
 例えば、前記結像光学系は、レンズを有し、前記第一の方向における前記レンズのFナンバーは、前記第二の方向における前記レンズのFナンバーより小さい。
 これにより、センサーアセンブリは、第一及び第二の方向のFファクターが異なるレンズを結像光学系として用いて具体的に実現される。
 例えば、前記第一の方向における前記レンズの幅は、前記第二の方向における前記レンズの幅より大きい。
 これにより、センサーアセンブリは、第一及び第二の方向で幅が異なるレンズを結像光学系として用いて具体的に実現される。
 例えば、前記レンズの前記第一の方向に垂直な面における断面形状は、前記レンズの前記第二の方向に垂直な面における断面形状と異なる。
 これにより、センサーアセンブリは、第一及び第二の方向で断面形状が異なるレンズを結像光学系として用いて具体的に実現される。
 例えば、前記レンズの前記第二の方向に垂直な面における断面形状は、フレネル形状を含む。
 これにより、センサーアセンブリは、フレネルレンズを用いて厚みを抑えることができる。その際、第一及び第二の方向のうち比較的精度が低くてもよい第二の方向に垂直な面における断面形状にフレネル形状を用いる。このようにすれば、ラインセンサーによる電磁波の検出精度に与える影響を抑えながら、結像光学系の厚みを抑えることができる。
 例えば、前記レンズの前記第一の方向に垂直な面における断面形状は、フレネル形状を含まない。
 これにより、センサーアセンブリは、電磁波の検出精度を維持することができる。一般に、フレネルレンズを用いることで、結像光学系の厚みを抑えることができる一方、電磁波の検出精度が低下する。第一及び第二の方向のうち比較的高い精度が必要である第一の方向に垂直な面における断面形状にフレネル形状を用いないことで、結像光学系による検出願度を維持することができる。
 例えば、前記結像光学系は、ミラーを有し、前記第一の方向における前記ミラーのFナンバーは、前記第二の方向における前記ミラーのFナンバーより大きい。
 これにより、センサーアセンブリは、第一及び第二の方向のFファクターが異なるミラーを結像光学系として用いて具体的に実現される。つまり、センサーアセンブリは、透過型の結像光学系ではなく、反射型の結像光学系を用いて実現することができる。
 例えば、前記ミラーは、軸外し放物面鏡である。
 これにより、センサーアセンブリは、より高い精度でラインセンサーの画素に電磁波を集光させることができる。
 例えば、前記センサーアセンブリは、さらに、平面ミラーを有する。
 これにより、センサーアセンブリは、センサーアセンブリ内部に入射する迷光をラインセンサーが受光しにくくすることができる。これにより、センサーアセンブリは、より高い精度でラインセンサーの画素に電磁波を集光させることができる。
 例えば、(i)前記軸外し放物面鏡の端部のうちセンサーに近い一方、及び、前記センサーの端部のうち前記軸外し放物面鏡に近い一方を結ぶ直線と、前記平面ミラーとがなす角の角度が、(ii)前記軸外し放物面鏡から前記平面ミラーに入射する電磁波と前記平面ミラーとがなす角の角度と異なる。
 これにより、センサーアセンブリは、具体的に、センサーアセンブリ内部に入射する迷光をラインセンサーが受光しにくい構成をとることができる。これにより、センサーアセンブリは、より高い精度でラインセンサーの画素に電磁波を集光させることができる。
 例えば、前記複数の画素のそれぞれの前記第一の方向における幅は、前記複数の画素のそれぞれの前記第二の方向における幅より大きい。
 これにより、第二の方向において画素の検出面上の一点に電磁波が集光せず、第二の方向に若干の広がりを有する場合であっても、結像光学系を透過した電磁波のうちの大部分を画素が検出することができる。これにより、センサーアセンブリは、より高い検出感度で電磁波を検出することができる。
 例えば、前記電磁波は、8~10マイクロメータの波長を有する遠赤外線を含む。
 これにより、センサーアセンブリは、8~10マイクロメータの波長を有する遠赤外線を、高い検出感度で適切に検出することができる。
 例えば、前記レンズの材質は、ポリエチレンである。
 これにより、センサーアセンブリは、ポリエチレンの材質のレンズを結像光学系として用いることで、安価に製造される。
 例えば、前記複数の画素のそれぞれは、サーモパイル又はボロメータを用いた赤外線検出器である。
 これにより、センサーアセンブリは、サーモパイル又はボロメータを用いた赤外線検出器により具体的に実現される。
 以下、実施の形態について、図面を参照しながら説明する。
 なお、同じ要素には同じ符号を付しており、説明を省略する場合もある。また図面は、理解しやすくするためにそれぞれの構成要素を主体に模式的に示している。
 なお、以下で説明する実施の形態は、いずれも本発明の一具体例を示すものである。以下の実施の形態で示される数値、形状、構成要素、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。また全ての実施の形態において、各々の内容を組み合わせることも出来る。
 (実施の形態1)
 本実施の形態において、安価に製造され、かつ、検出感度を向上させるセンサーアセンブリについて説明する。なお、本実施の形態におけるセンサーアセンブリは、ラインセンサーに用いられる結像光学系であり、検出感度を維持しながら安価に製造可能である。
 本実施の形態におけるセンサーアセンブリ100に関して、図1A及び図1Bを用いて説明する。
 図1Aの(a)はセンサーアセンブリ100の側面図であり、図1Aの(b)はセンサーアセンブリ100を図1Aの(a)における矢印Aの方向から見た上面図である。図1Bは、センサーアセンブリ100の正面図である。
 図1Aの(a)においてX軸方向は、紙面を表から裏へ貫く方向であり、Y軸方向は、紙面内下から上へ向かう方向であり、Z軸方向は、紙面内左から右へ向かう方向である。同様に図1Aの(b)において、X軸方向は、紙面内下から上へ向かう方向であり、Y軸方向は、紙面を裏から表へ貫く方向であり、Z軸方向は紙面内左から右へ向かう方向である。その他の図においても、X、Y及びZ方向は、座標軸に示す通りの方向である。
 センサーアセンブリ100は、センサー101とレンズ104とを備える。
 センサー101は、センサー基板103と画素列102とを有するラインセンサーである。画素列102は、センサー基板103の上に設けられており、画素102a、102b、102c、102d及び102eを有する。画素102a等のそれぞれは電磁波を検出する。
 以降、画素102a等のそれぞれは、特に遠赤外線を検出するものとして説明する。一般に、常温である黒体から輻射される赤外線のピーク波長は8~10マイクロメータ近傍に存在する。この波長領域が遠赤外線に相当する。
 なお、画素102a等のそれぞれは、例えば、サーモパイル又はボロメータを用いた赤外線検出器により実現される。
 なお、センサー101におけるレンズ104と対向する側の面は電磁波を検出する面であるので、この面のことを検出面ともいう。検出面は、センサー101における、センサー基板103と反対側の面ということもできる。なお、センサー101が5個の画素を有する場合を例として説明するが、画素の数はこれに限られない。
 レンズ104は、電磁波をセンサー101上の検出面に結像させる。レンズ104は、結像光学系に相当する。レンズ104の材料は、例えば、ポリエチレンである。ポリエチレンは、8~10マイクロメートルの赤外線を透過する。なお、レンズ104の材料は、ポリエチレンでなくても、上記波長の赤外線を透過し、かつ、成型可能な樹脂の材料であれば用いることができる。レンズ104は、例えば、球面レンズであり、その形状に関しては後述する。
 各画素102a、102b、102c、102d及び102eは、幅(X軸方向の長さ)、及び、高さ(Y軸方向の長さ)ともに長さLであり、XY平面において正方形形状である。センサー101の画素102cとレンズ104とは光軸105の上に設けられている。
 画素列102に含まれる各画素102a、102b、102c、102d及び102eは、Y軸方向に並んで配列されている。上記の各画素は、Y軸方向に複数配列されており、その配列の方向と直交する方向であるX軸方向においては一画素しか設けられていない。つまり、画素列102は、画素が一列にならべられた所謂ラインセンサーである。
 以下、X軸方向を第一の方向と、Y軸方向を第二の方向とそれぞれ表現する場合もある。すなわち、本ラインセンサーは、第一の方向に画素が一つ配置され、第二の方向に画素が複数配列されることで、一列に画素が配置されたラインセンサーである。
 本実施の形態のセンサーアセンブリ100の動作の仕組みを説明する。図1Aの(a)を参照しながら、センサーアセンブリ100のタンジェンシャル面(光軸を含む面であって、各角度で入射する各電磁波の主光線を含む面)における動作を説明する。
 図1Aの(a)において、垂直入射光106は、物面上でかつ光軸105上の図示しない一点から発せられた電磁波である。垂直入射光106は、レンズ104に、垂直入射光106として垂直入射する。垂直入射光106は、光軸105上にある画素102cに集光する。
 また、物面上かつ光軸105外の図示しない一点から発せられてレンズ104に対して斜めに入射する電磁波を斜め入射光という。図1Aの(a)において、斜め入射光107は、斜め入射光のうち、最も大きな入射角θ1で入射するものである。斜め入射光107は、光軸105から最も遠い画素102eに集光する。
 このように、物面上からY軸に沿って発せられ、角度θ1以内の角度でレンズ104に入射する電磁波は、タンジェンシャル面内において、いずれも画素列102のいずれかの位置に集光する。
 図1Aの(b)を参照しながら、センサーアセンブリ100のサジタル面(光軸を含み、かつ、タンジェンシャル面に垂直な面)における動作を説明する。画素102a、102b、102c、102d及び102eは、Y軸方向に配列しているため、図1Aの(b)においては画素列102の1画素分の幅しか見えないようになる。
 図1Aの(a)のタンジェンシャル面と同様にサジタル面においても、垂直入射光106は、レンズ104に垂直入射する。垂直入射光106は、光軸105上にある画素列102の中心に集光する。
 また、図1Aの(a)で示した斜め入射光107の光路は、図1Aの(b)においては垂直入射光106とほぼ同じ光路に投影されることになり、光軸105上にある画素列102のX軸方向における中心に集光する。この時、垂直入射光106と斜め入射光107とで画素列102上での集光位置がY軸方向で異なるのは、図1Aの(a)についての説明の通りである。
 以上の通り、垂直入射光106は、タンジェンシャル面及びサジタル面のそれぞれにおいて光軸105上の画素102c上に集光している。また、タンジェンシャル面及びサジタル面のそれぞれにおいてレンズ104の焦点距離は等しく、つまり、レンズ104は、光軸対象なレンズである。このような構成において、物面上の線状の領域から出射された電磁波の像を、レンズ104により画素列102上に結像することができる。
 以下、レンズ104の形状について説明する。
 図2Aは、本実施の形態におけるセンサーアセンブリの側面図で、結像光学系入射光の幅と集光径の関係の模式図である。図2Aの(a)は、図1Aの(a)等と同じスケールで上記関係を示す図であり、図2Aの(b)は、上記関係のみを拡大して示す拡大図である。
 一般に、各画素102a、102b、102c、102d及び102eに入射する電磁波の光量が多ければ多いほど、検出感度がより高くなるので、レンズ104は、径(幅)がなるべく大きいのが望ましい。しかし、レンズの径を大きくすることは、球面収差を増大することに繋がる。
 例えば、図2Aにおいて、幅(Y軸方向の長さ)がW1である垂直入射光106をレンズ104で集光した場合の集光位置(ここでは画素102c上)における集光径はR1である。また、幅がW1よりも広いW3である垂直入射光108をレンズ104で集光した場合の集光位置での集光径はR3である。このとき、R1よりR3の方が、球面収差の影響によりある条件下において大きい。このことは一般にレンズ104が球面レンズである場合に顕著である。また、タンジェンシャル面においては、斜め入射光に対してはコマ収差の影響も顕著であるので、レンズ104に入射する電磁波の幅が大きい場合には斜め入射光に対する画素上での集光径はさらに大きくなる。
 なお、光束の幅、又は、集光径が大きいことを、太いとも表現する。また、「理想的」という場合には、球面収差及びコマ収差の影響を考えない場合のことをいう。一方、「現実的」という場合には、球面収差及びコマ収差の影響を考慮する場合のことをいう。
 これらの要因によりセンサー101の画素上での集光径が太くなると、例えば図2Aにおける垂直入射光106のように、理想的には画素102cに入射すべき光の一部が、現実的には画素102cに隣接する画素102b又は102dにも入射する。よって、理想的な場合に得られるべき解像度は、現実的には得られない。そのため現実的には、画素列102から得られる画像は、ぼやけた画像になってしまう。
 コマ収差又は球面収差の影響を低減するには、レンズ104に入射する光の太さを細くする必要がある。しかし、レンズに入射する光の太さを細くするとともに、レンズの大きさを一定以上大きくすることは、一般には困難である。すなわち、レンズの明るさ(光量)を向上(増大)させることと、収差の影響を低減することとの両立は、一般には困難である。
 上記課題を解決すべく、本実施の形態におけるセンサーアセンブリ100では、レンズ104の形状に特徴を持たせている。レンズ104は、図1Aの(b)に示されるように、センサーの画素が1画素で構成されているX軸方向(第一の方向)のレンズ径D2が、画素列102が配列されている方向であるY軸方向(第二の方向)のレンズ径D1よりも大きい。ここで、上記のX軸方向等のレンズ径とは、X軸方向等のレンズの幅ということもできる。
 また、X軸方向(第一の方向)のFナンバーが、Y軸方向(第二の方向)のFナンバーよりも小さいということもできる。
 図1Bの(a)及び(b)のそれぞれに、レンズ104の形状の例を示す。図1Bの(a)は、球面レンズを、長径(X軸方向の径)がD2であり短径(Y軸方向の径)がD1である楕円で切り抜いたものに相当する。図1Bの(b)は、球面レンズを、長辺(X軸に平行な辺)がD2であり短辺(Y軸に平行な辺)がD1である長方形で切り抜いたものに相当する。これらは、ともに、X軸方向の幅がD2であり、Y軸方向の幅がD1である。なお、上記はあくまで例示であり、レンズ104の形状はこれらに限られない。
 球面レンズを切り抜いてレンズ104を生成する場合には、レンズ104の形状は、X軸方向の長さがY軸方向の長さより長い形状を球面レンズから切り抜いた形状であればよく、切り抜く図形の形状はどんなものであってもよい。つまり、上記図形は、楕円(図1Bの(a))、長方形(図1Bの(b))の他にも、三角形、五角形、その他直線又は曲線を組み合わせて得られる図形であってよい。
 なお、上記において、図1Aの(a)及び(b)は、それぞれ、センサーアセンブリ100の側面図及び上面図として説明した。これらは、それぞれ、第一の方向に垂直な面におけるセンサーアセンブリ100の断面形状、及び、第二の方向に垂直な面におけるセンサーアセンブリ100の断面形状を示しているともいえる。このように見ると、レンズ104の第一の方向に垂直な面における断面形状は、レンズ104の第二の方向に垂直な面における断面形状と異なる、ということもできる。
 こうすることで、センサーアセンブリ100は、次のような効果を有する。
 まず、図1Aの(b)に示されるサジタル面においては、各画素のX軸方向に隣接する画素が存在しないため、X軸方向に関して各画素上でのビーム径が太くなったとしても、タンジェンシャル面のように解像度が悪化することはない。また、X軸方向のレンズ径D2が大きくなったことでレンズ104を透過する光量が増大するので、例えば垂直入射光106に関して、物面と光軸105との交点から出射して画素102cに入射する光量は増大する。その結果、センサーアセンブリ100は、解像度を維持したまま、光の検出感度を増大できるという効果を奏する。このように、センサーアセンブリ100の画素列102の配列方向に対して直交する方向であるX軸方向のレンズ104の大きさを、画素列102の配列方向であるY軸方向のレンズ104の大きさより大きくすることで、解像度と高い検出感度を同時に満足できるセンサーアセンブリを実現することができる。
 なお、本実施の形態においては、レンズ1枚により構成される結像光学系で説明したが、複数枚のレンズで構成される結像光学系においても本発明は効果を奏する。結像光学系を複数枚のレンズで構成する場合は、レンズの大きさではなく結像光学系のFナンバーについて考えればよい。すなわち、センサーアセンブリ100の画素列102の配列方向に対して直交する方向であるX軸方向に関して、結像光学系のFナンバーを、画素列102の配列方向であるY軸方向のFナンバーより小さくすることで、解像度と高い検出感度を同時に満足できるセンサーアセンブリを実現することができる。
 また、上で述べたようにレンズが1枚の場合、レンズの大きさ(有効径)とFナンバーとは、(式1)を満たすので、レンズ枚数によらず結像光学系のFナンバーに着目して同様に考えることができる。
  Fナンバー=焦点距離/レンズ有効径(直径)   (式1)
 また、上記で述べたレンズ104は、球面レンズでも構わないが、非球面レンズでも構わなく、ここではそれを制限するものではない。
 センサーアセンブリ100を用いて画像を形成する方法について、図2Bを参照しながら説明する。図2Bは、本実施の形態における画像形成方法の説明図である。
 センサーアセンブリ100を用いて画像を形成することは、例えば図2Bの(b)に示すような矢印Bの向きに、センサー101とレンズ104とを一体的に搭載したベース101aを走査しながら画像を取得することで達成することができる。その際、例えば、ベース101aを、画素列102の幅の半分の距離だけ動かすごとに画像を撮影し、得られた複数の画像を処理することにより、画素列102の幅Lよりも解像度の高い画像を取得することができる。このようにして高い解像度の画像を得ることを超解像ともいう。
 X方向に対しては、上で述べたような矢印Bの向きに画素列Lの幅の半分ずつベース101aを回転させるように動かすことで超解像を達成することができる。ここで、ベース101aを回転させる際の回転中心はどこであってもよいが、例えば、画素列102の中心Eとすることができる。画素列102の中心Eを回転中心としてセンサーアセンブリ100を回転させることで正確に画像を取得することができる。
 また、Y方向に対しては、図2Bの(a)の矢印C方向にレンズ104をずらすことにより、Y方向に画素列Lの幅の半分ずれた画像を取得することで、超解像を達成することができる。
 図3は、本実施の形態におけるセンサーアセンブリに用いるセンサーの模式図(a)、センサーアセンブリの側面図(b)及び上面図(c)である。センサーアセンブリ200は、図1Aに示したセンサーアセンブリ100と類似であるが、センサー101の代わりにセンサー201を備える点で異なる。
 センサー201はセンサー101と同様に、センサー基板203と画素列202とを有する。画素列202は、センサー基板203上に設けられており、画素202a、202b、202c、202d及び202eを有する。また、上記各画素の大きさは、正方形ではなく、画素の配列方向(Y軸方向)と直交するX軸方向の長さL2が、配列方向の長さL1より長い。こうすることにより、Y軸方向のレンズ径D1よりX軸方向のレンズ径D2の方が大きい場合に、画素列202上でのX軸方向の集光径が太くなった場合であっても、画素列202上で取りこぼしなく電磁波を受光できるようになる。その結果、センサーアセンブリ200は、さらに検出感度が向上する。
 言い換えれば、画素のそれぞれの第一の方向における幅は、複数の画素のそれぞれの前記第二の方向における幅より大きいことにより、検出感度が向上する。
 図4は、本実施の形態におけるセンサーアセンブリの側面図(a)及び上面図(b)である。図4のセンサーアセンブリ210は、図1Aのセンサーアセンブリ100と同様であるが、図1Aにおけるレンズ104の代わりにレンズ109を備える点で異なる。レンズ109の右側面109aは、Y軸方向にはレンズ104と同様の連続面(又は、連続曲面ともいえる)である。一方、レンズ109の右側面109aは、X軸方向にはフレネル面となっており、この点でレンズ104と異なる。
 言い換えれば、レンズ109の第二の方向に垂直な面における断面形状は、フレネル形状を含む。一方、レンズ109の第一の方向に垂直な面における断面形状は、フレネル形状を含まない。
 こうすることで、特に検出する光が遠赤外線域の場合は次のような効果を有する。
 上でも述べた通り、遠赤外領域において用いられるレンズは、従来、ゲルマニウム又はシリコンが一般的である。しかし、これらは高価であるばかりでなく、硬く、融点が高いので、成型することが困難である。そのため、加工には研磨が用いられるが加工できる形状に制約があるので、量産適正のある形状としては球面形状しかない。
 赤外領域の光を透過し、かつ、成型加工が可能な樹脂材料としては、唯一、ポリエチレン(高密度ポリエチレン含む)があるが、ポリエチレン内部での吸収が存在するので、レンズが厚くなる用途には用いられない。
 例えば、図5のように、レンズのコバの厚みk=0.5mm、レンズの直径D=10mm、レンズの曲率半径R=20mmとした場合、このレンズの厚みTは1.1mmになる。一方、レンズの直径Dを10mmから12mmに長くした場合、このレンズの厚みTは1.4mmになる。このレンズをポリエチレンで製作した場合、ポリエチレン1mm厚での内部透過率を15.9%、レンズ表面での透過率を95.6%とすると、直径D=10mmのレンズでは透過率が11%であるが、直径D=12mmのレンズでは透過率が6.7%と半分近くに低下する。すなわち、球面形状のレンズにおいては、レンズの直径を長くするとその分レンズの厚みが増し、透過率が低下してしまう。
 そこで、図4のレンズ109のように、レンズ109において、少なくともセンサーアセンブリの画素列102の配列方向に対して直交する方向であるX軸方向に関してフレネル面とする。フレネル面のレンズでは、レンズ直径を長くしても透過率が低下しにくい。これにより、レンズ109のY軸方向に関して必要な厚さ(長さ)でレンズ109を製作することができるため、安価でさらに透過率の高い、明るいレンズを構成することが可能になる。こうすることで、安価でかつさらに検出感度の高い、センサーアセンブリを構成することが可能になる。
 また、ここで右側面109aのX軸方向のフレネル形状は、Y軸方向における球面(または非球面)形状と同じ形状をフレネル面にすることで形成しても構わないが、図6の(a)のようにY軸方向における球面(または非球面)形状と異なる形状をフレネル面にすることで形成しても構わない。Y軸方向には複数の画素が存在するので、レンズ104や109のY軸方向の形状は斜め入射光の存在を考慮する必要があるが、X軸方向に関しては、画素列102が図6の(a)において光軸105上にのみ存在するため、光軸上に集光すれば良いことになり、コマ収差の影響を考慮する必要がない。そこで、右側面109aのフレネル面の各ファセットの傾きを、図6の(a)において各ファセットを透過した遠赤外線が画素列102に向けて進むように、すなわち、球面収差の影響を除去するように設定することが可能になる。一般に、その形状はY軸方向とは異なる非球面形状となるが、ポリエチレンのように成型が可能な樹脂等であれば容易に加工することができる。
 このようにすることで、レンズ109のX軸方向の幅D2が広くなったとしても、画素列102に精密に遠赤外線を集光することができ、さらに厚みを増大させることなくレンズ109の幅D2を限界まで広げることが可能なため、各画素が受光する遠赤外線の量を増大することが可能になる。以上により、さらに検出感度の高いセンサーアセンブリを構成することが可能になる。
 また、図6の(b)のように、センサーアセンブリ210を構成してもよい。レンズ109を透過して画素102c、102d及び102eのそれぞれに集光される遠赤外線をそれぞれ垂直入射光106、斜め入射光110及び107とする。光軸105上にある画素102cと、画素列102の端部の画素102eとの中間にある画素102dに集光する斜め入射光110が、画素102d上にちょうど集光する(ピントが合う)ように、レンズ109のX軸方向のフレネル面の形状を決定しても構わない。
 このような斜め入射光が存在する場合、レンズ109から各画素までの距離が異なるので、画素列102上でピントが合う位置は2箇所もしくは1箇所(光軸上)になる。そのため、画素上のすべての位置でピントをあわせることはできない。そこで、画素102eに入射する斜め入射光107は画素102eに入射する前にピントを形成し、また、画素102cに入射する垂直入射光106は、仮想的に画素102cの後方でピントを形成するようにする。この場合、画素102c、102d及び102eのそれぞれの上でのトータルのピントずれ量が最小化されることができるため、X軸方向のビーム径を最小化することができる。よって、画素毎で検出感度のばらつきが少ないセンサーアセンブリを構成することが可能になる。
 なお、ここではセンサーに入射する電磁波として遠赤外線を用いて説明した。検出する温度が常温であれば、黒体から輻射される赤外線のピーク波長は8~10マイクロメータ近傍に存在する。上の例ではレンズとしては8~10マイクロメートルの赤外線を透過するポリエチレンを例として上げたが、ポリエチレン以外でも遠赤外線を透過する、成型可能な樹脂があれば、もちろんその樹脂を用いても構わない。
 また、センサー101を構成する画素は、遠赤外線領域に感度を有するボロメータ又はサーモパイルが通常用いられるが、もちろんそれ以外でも遠赤外線を検出可能な素材があれば、それを用いても構わない。
 図7は、本実施の形態におけるセンサーアセンブリの側面図(a)及び上面図(b)である。図7のセンサーアセンブリ220は、図4のセンサーアセンブリ210と同様であるが、図4におけるレンズ109の代わりにレンズ111を備える点で異なる。レンズ111がレンズ109と異なる点は、レンズ109の左側面109bは平面であるのに対して、レンズ111の左側面111bは曲面である点である。そして、レンズ111はY軸方向にメニスカスレンズを形成している。こうすることで、YZ断面においてもレンズ111の厚みを薄くすることができる。
 しかも、図7の(b)に示すサジタル面はフレネル面で構成されているため、さらにレンズ111を薄く構成することができる。こうすることで、各画素に入射する遠赤外線の量を増大することができるため、さらに検出感度の高いセンサーアセンブリを構成することが可能になる。
 なお、これまでの実施例において、各レンズ104、109及び111のY軸方向の形状は、いずれもフレネル面等の離散的な面ではなく連続面で構成している。もちろんフレネル面でも構わないが、Y軸方向の形状を連続面とすることで、例えばフレネル面を構成する各ファセットによる光の散乱による集光性能の劣化をなくすことができるため、解像度の低下を防止する効果がある。
 また、これまではセンサーの中に画素列が一列のみ存在するラインセンサーを用いていたが、図8に示すように、複数の画素列を配列しても構わない。
 図8は、本実施の形態におけるセンサーアセンブリに用いるセンサーの模式図(a)、センサーアセンブリの側面図(b)及び上面図(c)である。図8を参照しながら、3列の画素列を有するセンサー231を有するセンサーアセンブリ230に関して説明する。
 図8の(a)に示されるように、センサー231は、3つの画素列234、235及び236を有する。
 画素列234は、画素232a、232b、232c、232d及び232eを有する。
 画素列235は、画素232f、232g、232h、232i及び232jを有する。
 画素列236は、画素232k、232l、232m、232n及び232oを有する。
 各画素列内で、各画素は、Y軸方向に配列されており、高さ、幅ともにL1の正方形形状である。各画素列は、間隔L3を隔てて平行に配置されている。
 図8の(b)及び図8の(c)にセンサー231を用いたセンサーアセンブリ230を示している。図8の(b)はセンサーアセンブリ230の側面図を、図8の(c)は図8の(a)の矢印A方向から見た上面図である。センサーアセンブリ230は図1Aに示したセンサーアセンブリ100と類似であるが、センサーアセンブリ100における1列の画素列102の代わりに、センサーアセンブリ230では、3列の画素列234、235及び236が、距離L3を隔てて設けられている点で異なる。
 この時、レンズ104のX軸方向の幅D2がY軸方向の幅D1より大きいことにより各画素上でのX軸方向の集光径が大きい場合であっても、画素列234に入射すべき電磁波の一部もしくは全部が画素列235や236に入射しないようにL3を決定する。同様に、画素列235又は236に入射すべき電磁波の一部もしくは全部が画素列234に入射しないように画素列間の距離L3を決定する。このようにすることで、解像度を維持したまま、各画素に入射する遠赤外線の量を増大することができるので、解像度と高い検出感度を維持したまま、一度に検出できる領域が3倍に増えるという効果を有する。
 なお、図8においては、各画素は一辺L1の正方形形状としたが、センサー201で示したように、X軸方向に長い長方形としても構わない。そうすることで、各画素上でのX軸方向の集光径が大きくなった場合であっても、受光する電磁波の光量が増えるので、さらに検出感度の高いセンサーアセンブリを構成することができる。
 以上のように、本実施の形態におけるセンサーアセンブリは、第一及び第二の方向における結像光学系のFナンバーのうち大きい方を第一及び第二の方向のFナンバーとして共通に有する結像光学系を用いる場合よりも、当該結像光学系を通過して画素に検出される電磁波の線量を増加させることができる。よって、センサーアセンブリは、上記の場合よりも検出感度を向上させることができる。
 また、結像光学系に用いる材料の電磁波の透過率が比較的低い場合でも、センサーアセンブリは、結像光学系全体として透過させる電磁波の線量を維持し又は増大させることができる。結像光学系に用いる材料の電磁波の透過率が比較的低い場合、当該結像光学系を透過する電磁波の量が低下する。一方、上記のように第一及び第二の方向でFナンバーを異ならせることにより当該結像光学系を透過する電磁波の量を増加させる。よって、その増加分が、その低下分より大きく又は等しくなるようにすることで、結像光学系全体として透過させる電磁波の線量を維持し又は増加させることができる。
 よって、結像光学系にシリコン又はゲルマニウムのような高価かつ加工のコストが高い材料を用いる必要がなく、安価かつ加工のコストが低い材料を用いることができる。よって、センサーアセンブリは、検出感度を維持しながら安価に製造可能である。
 (実施の形態2)
 図9を参照しながら、本実施の形態におけるセンサーアセンブリ300について説明する。
 図9は、本実施の形態におけるセンサーアセンブリ300の側面図(a)及び上面図(b)である。センサーアセンブリ300は実施の形態1のセンサーアセンブリ200と類似であるが、レンズ104を用いた透過型の結像光学系ではなく、軸外し放物面鏡304を用いた反射型の結像光学系である点で異なる。それに伴い、センサー301の配置が適切な位置に変更されている。
 図9の(a)は、センサーアセンブリ300の側面図であり、図9の(b)はセンサーアセンブリ300を図9の(a)の矢印Aの方向から見た上面図である。ここで、図9の(b)における軸外し放物面鏡304は、理解のために半透過で示したが、実際には透過していない。また、それぞれの図に座標軸にて示すように、図9の(a)においてX軸方向は、紙面を表から裏へ貫く方向とし、Y軸方向を紙面内下から上へ向かう方向とし、Z軸方向を紙面内左から右へ向かう方向としている。同様に、図9の(b)においてX軸は紙面内下から上へ向かう方向とし、Y軸方向は紙面を裏から表へ貫く方向とし、Z軸方向は紙面内左から右へ向かう方向としている。
 センサーアセンブリ300は、センサー301と、軸外し放物面鏡304とを備える。
 センサー301は、センサー基板303と画素列302とを有する。画素列302は、センサー基板303の上に設けられており、画素302a、302b、302c、302d及び302eを有する。
 軸外し放物面鏡304は、電磁波をセンサー301上の検出面に結像させる。軸外し放物面鏡304は、結像光学系に相当する。
 図9は、本実施の形態におけるセンサーアセンブリ300の側面図(a)及び上面図(b)である。まず、図9の(a)において、センサーアセンブリ300のタンジェンシャル面における動作を説明する。図9の(a)において、垂直入射光305は、物面上でかつ光軸308上の図示しない一点から発せられた電磁波である。垂直入射光305は、センサーアセンブリ300の軸外し放物面鏡304に対し、光軸308に沿って垂直入射する。垂直入射光305は、軸外し放物面鏡304にて反射し、センサー301上の画素302cに入射する。
 この構成において、画素列302上に、軸外し放物面鏡304を構成する放物面の焦点が位置しており、垂直入射光305はこの焦点位置に集光するように配置されている。
 また、物面上かつ光軸308外の図示していない一点から発せられて軸外し放物面鏡304に斜めに入射する電磁波を斜め入射光という。図9の(a)において、斜め入射光306及び307は、例えば最も大きな入射角θ1で入射する斜め入射光である。斜め入射光306及び307のそれぞれは、センサー上の中心画素である画素302cから最も離れた画素302a及び302eに集光する。以上のように、物面上からY軸に平行に発せられて、軸外し放物面鏡304に角度θ1以内の角度で入射する電磁波は、いずれも画素列302のいずれかの位置に集光する。
 図9の(b)を参照しながら、センサーアセンブリ300のサジタル面における動作を説明する。画素302a、302b、302c、302d及び302eは、本実施の形態においてはY軸方向を中心にして、反時計回り少し回転した位置となっている。
 図9の(a)のタンジェンシャル面と同様に、図9の(b)のサジタル面においても、垂直入射光305は、センサーアセンブリ300の光軸308に沿って軸外し放物面鏡304に垂直入射する。垂直入射光305は、軸外し放物面鏡304にて反射し、画素302cのX軸方向の中心に集光する。
 また、図9の(a)で示した斜め入射光306及び307のそれぞれは、図9の(b)においては軸外し放物面鏡304で反射されたあと、画素302a及び302eの近傍に集光する。このようにすることで、物面上からY軸に沿って発せられた電磁波を、軸外し放物面鏡304により画素列302上に結像することができる。
 以降、センサーアセンブリ300の効果を説明する。軸外し放物面鏡304に光が入射する時、垂直入射光305のサジタル光は、軸外し放物面鏡304において光軸を含む平面内で反射する。一方、斜め入射光306及び307のサジタル光は平面ではなく湾曲面で反射する。ここで、斜め入射光306及び307が軸外し放物面鏡304で受けるサジタル面内の曲率は互いに異なる。ここで、サジタル光とは、サジタル面を伝搬する光のことをいう。
 タンジェンシャル光に関しては、垂直入射光305と、斜め入射光306及び307とのいずれも、光軸308及びY軸を含む平面内にて反射されることになる。よって、同じFナンバーであれば、画素列302上における斜め入射光306及び307のX軸方向の集光径と、画素列方向の集光径とは互いに異なる。ここで、タンジェンシャル光とは、タンジェンシャル面を伝搬する光のことをいう。
 そこで、X軸方向の集光径とY軸方向の集光径とを異ならせてもよい。また、X軸方向のFナンバーとY軸方向のFナンバーとを異ならせてもよい。特に、X方向のFナンバーを大きくすることで、画素列302上のX方向の集光径とY軸方向の集光径とを略同等にすることができる。
 一方で、本実施の形態のように、画素列がX軸方向と直交する方向に配列される場合、本来入射すべき画素に隣接する画素に電磁波が入射することによる解像度の悪化を防止するため、画素列方向(画素の並び方向)の集光径を細く(小さく)しておく必要がある。そこで、各画素上における画素列方向の集光径が小さくなるように、センサー301及び軸外し放物面鏡304を配置する。
 さらに、本実施の形態において、各画素302a、302b、302c、302d及び302eのX軸方向とそれに直交する方向の長さをそれぞれL5及びL4とした時、L5の長さをL4の長さよりも長くする。こうすることにより、画素列方向の集光径が小さくなるようにセンサー301又は軸外し放物面鏡304の配置を決定することで、各画素上におけるX軸方向の集光径が大きくなったとしても、各画素で入射すべき光量を取りこぼしなく受光することができるようになる。そして、画素列方向の解像度を維持したまま、各画素に入射する電磁波の量を増大させ、高い解像度と高い検出感度とを同時に達成し、さらに画素毎に入射する光量のばらつきを低減することも可能になる。
 さらにこの時、軸外し放物面鏡304で構成する結像光学系のFナンバーに関して、画素列方向の解像度が悪化しない範囲で、タンジェンシャル方向のFナンバーを小さくしても構わない。そうすることで、画素列方向の解像度を維持したまま、各画素に入射する電磁波の量を増大することができるため、高い解像度と高い検出感度とを同時に達成することができる。
 図10は、本実施の形態におけるセンサーアセンブリにおいて、迷光を受光しにくくなる配置に関する説明図である。図10に示されるように、軸外し放物面鏡304の焦点310が画素列302上のいずれかの位置にあるように、センサー301を、X軸を中心に図10内において半時計回り方向に所定の角度(角度φ1)だけ回転させても構わない。この状態であれば、例えば遮蔽体309等を設けることで、容易に迷光による画質の悪化を防止することができる。
 センサーアセンブリ300において、軸外し放物面鏡304で反射せずにセンサー301に入射する電磁波が迷光であり、図10に示される迷光311a又は311bがそれに相当する。それに対して、本実施の形態のようにセンサー301がX軸を中心に半時計回り方向に傾けられていると、主に紙面右上から入射してくる迷光に対して見込み角が小さくなるだけではなく、遮蔽体309の存在により迷光から遮蔽することが可能になる。よって、センサーアセンブリ300は、ノイズの影響を低減することができる。なお、この効果は、センサー301が画素列302で構成されたラインセンサーに限定した効果ではなく、二次元エリアセンサーであっても同様な効果を得ることができる。
 図11は、実施の形態2におけるセンサーアセンブリにおいて、迷光を受光しにくくなる配置に関する説明図(a)、及び、さらに迷光を受光しにくくなる配置に関する説明図(b)である。
 センサーアセンブリ320は、センサーアセンブリ300と類似であるが、軸外し放物面鏡304で反射した電磁波がセンサー301の画素列302にて受光される前に平面ミラー321にて反射することが異なる。ここで、図9又は図10では斜め入射光306、307を図示していたが、図11においてはわかりやすくするために斜め入射光306、307の図示は省略している。
 このような構成とすることで、必然的にセンサー301の画素列302側が平面ミラー側を向くことになるため、主に紙面右上から入射してくる迷光311c及び311dが直接に画素列302に入射しないような構成となる。また、一般にミラーの輻射率は0.1以下と低く、画素列302に近接する位置に平面ミラー321又は軸外し放物面鏡304を配置しても、ノイズ源になりにくい。これらにより、センサーアセンブリ320は、さらに迷光によるノイズの影響が低減することができる。なお、他の方向からの迷光は、筐体322等によりセンサーアセンブリ320が囲われることで容易に入射を防止することができるので、ここではこれ以上は述べない。
 さらに、図11の(b)に示されるセンサーアセンブリ320は、上で説明した図11の(a)のセンサーアセンブリ320と同様の構成要素であるが、配置に関して以下で述べる要件を加える。軸外し放物面鏡304から平面ミラー321に向けて出射する垂直入射光305は、その主光線が平面ミラー321の法線に対して-θbの角度で入射するとする。ここで、θbは正の値とし、平面ミラー321の法線に対して反時計回り方向の角度をマイナスとしている。図11の(b)では、垂直入射光305は平面ミラー321に対してマイナスの角度で入射していることになる。
 次に、軸外し放物面鏡304のうちセンサー301に最も近い位置を点304aとし、センサー301のうち軸外し放物面鏡304に最も近い位置を301aとし、点304a及び点301aを通過する直線を直線Bとする。この直線Bが平面ミラー321と交わる点において、平面ミラー321の法線となす角が図11の(b)のように+θaとする。この時、θaは正の値とすると、仮に点304a及び点301aを通って直線Bに沿って平面ミラー321に迷光が入射した場合、平面ミラー321における垂直入射光305と、直線Bに沿った迷光は、平面ミラー321の法線に対して逆方向に反射することになる。すなわち、センサー301とは逆方向に反射することになるため、直線Bに沿って入射した迷光がセンサー301上の画素列302に入射することはなくなる。このように、センサーアセンブリ320は、さらに迷光によるノイズの影響が低減することができる。
 なお、図11の(b)においても、他の方向からの迷光は、筐体322等によりセンサーアセンブリ320が囲われることで容易に入射を防止することができるため、ここではこれ以上は述べない。
 なお、図11を用いて説明した迷光を防止する効果は、センサー301が画素列302で構成されたラインセンサーに限定した効果ではなく、二次元エリアセンサーであっても同様に得られる効果である。
 以上のように、本実施の形態におけるセンサーアセンブリは、第一及び第二の方向のFファクターが異なるミラーを結像光学系として用いて具体的に実現される。つまり、センサーアセンブリは、透過型の結像光学系ではなく、反射型の結像光学系を用いて実現することができる。
 (実施の形態3)
 実施の形態1又は2において説明したセンサーアセンブリを、自動車内部に用いる例について、本実施の形態において説明する。
 図12は、実施の形態3において、センサーアセンブリを自動車に搭載した場合の、自動車の断面図(a)、及び、上面図(b)である。図12の(a)は自動車500内部にセンサーアセンブリ502を取り付けた例の側面図であり、図12の(b)はその上面図である。
 センサーアセンブリ502は実施の形態1又は2のいずれかで説明したセンサーアセンブリのひとつであり、ここでは遠赤外線領域に感度を持ち温度分布を測定できる温度センサーのセンサーアセンブリである。
 自動車500には運転者501が乗車して運転しており、センサーアセンブリ502の視野506内に運転者501が捉えられている。一般に人の温冷感(暑い、寒いと思う感覚)は人の体表面温度からある程度推定可能とされている。例えば、血流量が多く体幹部に近い額等は周囲温度に対して変動量が少なく、通常33℃近傍に保たれている。一方、手足、又は、顔面であっても頬、鼻、耳部の温度は周囲温度の影響を受けやすく、温冷感とある程度相関があるとされている。よって、手足又は顔面周辺の温度を精度良く測定できると、その測定結果から人の温冷感を推定することが可能になる。例えば、推定された温冷感をもとに空調機器を制御することで、自動車500内の快適な空調を維持することができる。
 本実施の形態において、運転者501の顔面の温度分布を、センサーアセンブリ502で検出することを考える。そのために、センサーアセンブリ502は、図12の(b)に示すように、回転中心505を中心として回転可能に配置される。センサーアセンブリ502は、回転中心505を中心として回転することにより、運転者501の顔面を含む走査範囲507を走査しながら温度分布を検出することができる。また、上下方向においても図12の(a)に示すように、センサーアセンブリ502の視野506の範囲内に運転者501の顔面が入るように配置する。こうすることにより、運転者501の運転中の顔の温度をリアルタイムに測定することができる。
 センサーアセンブリ502により測定された運転者501の顔面の温度は、図示しない配線により制御部508に送信される。制御部508は、測定された顔面の温度を解析し、主に頬、鼻、耳等の温度から運転者501の温冷感を推定し、その推定結果を元に空調装置509を制御して空調装置509から吹き出される空気の温度、向き、風力等を調整する。こうすることにより、運転者501を常に快適な状態に保つことができるため、ストレスの軽減された運転環境を提供することができる。
 自動車500の周囲のウインドウから入射する外来光に関して考える。後部ウインドウ504はセンサーアセンブリ502の対向する場所に位置するので、センサーアセンブリ502は、特に後部ウインドウ504から入射する外来光の影響を受けやすい。
 外来光にはいくつか種類があるが、その一つとして太陽光がある。太陽光はそのスペクトルの中に遠赤外線を有し、かつ、遠赤外線の光量は比較的大きい。そのため、太陽光が直接にセンサーアセンブリ502に入射すると、ノイズとなり正確に運転者501の顔面の温度分布を測定するのが難しくなる。
 そこで、図12の(a)においては、センサーアセンブリ502の視野506の範囲が、センサーアセンブリ502からみてすべて水平方向以下になるように配置する。太陽は、水平線又は地平線と等しい高さか、それらより上に位置することが多く、水平線又は地平線より下の位置にあることは通常は考えにくい。そこで、センサーアセンブリ502の視野506の範囲を、センサーアセンブリ502からみて水平方向より下側にしておけば、太陽光が直接にセンサーアセンブリ502に入射することはほぼなくなる。こうすることで、太陽光に含まれる遠赤外線がセンサーアセンブリ502に入射することによるノイズの発生を抑え、確実に運転者501の温冷感を推定することが可能になる。
 さらに、図13に示すように、視野506の範囲内に後部ウインドウ504が入らないように、センサーアセンブリ502の配置を構成しても構わない。こうすることで、太陽光503だけでなく、それ以外の外来光510がセンサーアセンブリ502に入射することを防止することができる。
 なお、ここでいうそれ以外の外来光とは、例えば後方にいる自動車の、エンジンの熱により暖められたボンネットから発せられる遠赤外線、又は、自動車500の後方を歩く人等から発せられる遠赤外線があり得る。こうすることで、太陽光を含む外来光に含まれる遠赤外線がセンサーアセンブリ502に入射することによるノイズの発生を抑え、より確実に運転者501の温冷感を推定することが可能になる。
 さらには、後部ウインドウ504に遠赤外線をカット可能なフィルターを挿入しても構わない。後部ウインドウ504に意図的に遠赤外線をカットするフィルターを挿入することでも、太陽光を含む外来光が、センサーアセンブリ502に直接入射することを防止できるため、太陽光を含む外来光に含まれる遠赤外線がセンサーアセンブリ502に入射することによるノイズの発生を抑え、確実に運転者501の温冷感を推定することが可能になる。
 なお、ここでは自動車500に乗車している人が運転者501のみであるとして説明したが、もちろん運転者501以外の同乗者が乗車している場合でも有効である。運転者501以外の同乗者が乗車している場合、同乗者の顔面等の温度分布から温冷感を推定し、その同乗者にむけた最適な空調を同乗者の周囲で実現できるように、制御部508を制御しても構わない。吹き出す空気の温度、向き、又は、風量を局所的に調整することで、自動車500に乗っている人それぞれに応じた最適な局所空調を提供することが可能になる。
 さらに、上では運転者501の主に頬や鼻、耳等の顔面の温度分布から運転者501の温冷感を推定したが、もちろん運転者501の手まで含めて測定しても構わない。顔面だけではなく抹消の体表面温度まで測定することで、さらに正確に運転者501の温冷感を推定することが可能になり、さらに快適な運転環境を提供することが可能になる。
 また、上では後部ウインドウ504に遠赤外線をカットするフィルターを挿入することを述べたが、もちろん後部ウインドウ504だけではなく自動車500の側面のウインドウに遠赤外線をカットするフィルターを挿入しても構わない。こうすることでより確実に太陽光を含む外来光がセンサーアセンブリ502に直接に入射することを防止できる。そのため、太陽光を含む外来光に含まれる遠赤外線がセンサーアセンブリ502に入射することによるノイズの発生を抑え、確実に運転者501の温冷感を推定することが可能になる。
 次に、センサーアセンブリ300のように、軸外し放物面鏡のようなミラーを結像光学系として用いる場合に、センサー301に外来光が入射する場合を考える。ここでは図14のように、実施の形態2で説明したセンサーアセンブリ300を、自動車500の天井近傍に取り付けることを考える。センサーアセンブリ300は、遠赤外線を入射させる場所以外は、筐体511で囲われることにより、外来光が自動車500の前方からセンサー301に直接に入射することを防止できる。さらに、センサー301を自動車500の天井周辺に取り付けることにより、センサーアセンブリ300の上部から入射する、軸外し放物面鏡を経由した赤外線以外の赤外線は、すべて自動車500の天井からの赤外線となる。よって、自動車500の天井付近に温度センサー512を取り付けておき、その温度と自動車500の天井の輻射率から迷光の量を計算し、センサー301に入射して得られた温度分布を補正することで、運転者501の温度分布を誤差の影響を低減して求めることができる。なお、輻射率の低い素材を自動車500の天井に貼っておいても構わない。そうすることで、外来光自体を低減することができ、運転者501の顔面の温度分布を求める際に、誤差の影響を低減することができる。
 なお、上ではセンサーアセンブリ300を例にとって説明したが、これはセンサーアセンブリ内にミラーを有する場合には一般に当てはまるものであり、センサーアセンブリ300の形態に限定するものではない。
 なお、本実施の形態においては、センサーアセンブリとしてラインセンサーを用いたセンサーアセンブリ502を用いて説明していたが、ここで述べた実施例は、センサーアセンブリ502が内蔵するセンサーをラインセンサーに限定した効果ではなく、二次元エリアセンサーであっても同様な効果を得ることができる。
 図15は、本実施の形態において、センサーアセンブリを走査することで自動車内の温度分布を取得することの説明図(a)、及び、走査する際のサンプリング周期に関する説明図(b)である。図15を参照しながら、センサーアセンブリ502を走査することで自動車500内に乗車している人の温度分布を測定する方法に関して説明する。
 上でも述べた通り、センサーアセンブリ502は走査範囲507を走査しながら自動車500に乗車している人の温度分布を検出するが、例えば人の温度分布を鼻や頬を区別しながら走査するには、角度1°程度のサンプリングピッチで走査する必要がある。ここで、仮に、センサーアセンブリ502が一回のサンプリングを行うのに要する時間が1秒で、160°の走査範囲を走査するとした場合、センサーアセンブリ502が端から端まで走査するのに160秒必要となる。これでは、特に乗車直後で早期に室温調整する必要がある場合には、有用でない。そこで、本実施の形態では以下のようにセンサーアセンブリ502による走査を行う。
 図15の(a)のように、運転者501と同乗者513とが自動車500に乗車しており、かつ、走査範囲のうち運転者501がいる方の端から走査が始まった場合、同乗者513の温度分布はなかなか反映されない。そこで、乗車開始時には必要なサンプリング角度よりもおおきな角度で粗くサンプリングして、どの位置に人が存在するかを検出することを考える。
 例えば図15の(b)においては、乗車時等運転開始時には10°おきにサンプリングすることにした。こうして10°おきに粗くサンプリングすることでまず走査範囲の端から端まで走査することにより、16秒(=160/10)でどの位置に人が存在するかを検出することができる。その次に、例えば運転者501が検出された位置を、必要な精度である1°おきに検出し、次に同乗者513の位置を必要な精度である1°おきに検出するようにしている。こうすることで、無駄な走査を省き、乗車している人の温冷感をなるべく頻繁に推定することができるため、運転者501と同乗者513とを常に快適な状態に保つことができ、ストレスの軽減された乗車環境を提供することができる。
 なお、上で述べたサンプリング周期や走査範囲の値はあくまでも例であり、その値に限定するものではない。
 また、上で述べた粗くサンプリングするタイミングは、上で述べた乗車時(エンジンをONしたタイミング)以外であってもよい。例えば、人の乗り降りの可能性を含めるために自動車500のドアが開閉されたタイミングとしても構わないし、さらにはそれまで人が存在するとしていた場所に人が検出されなくなった場合(例えば人が自動車内を移動した等)でも構わないし、その他のタイミングであってもよい。
 さらに、例えばエンジンをONしたタイミングにおいて、まず初めに運転者501の存在範囲を走査して運転者の温度分布を検出しても構わない。通常自動車をONするタイミングにおいては、運転席に運転者が乗車している可能性が高い。一方、当該タイミングにおいて運転席以外の席に同乗者が乗車している可能性は不明である。そこで、エンジンをONしたタイミングにおいて運転者501の存在範囲を走査して運転者501の温度分布から運転者501の温冷感を推定し、運転者501の周囲を始め、他の席も含めて運転者501の温冷感を元に同じ条件(温度、風量等)で空調装置509の制御を開始する。
 次に、例えば10°おきで走査範囲507を走査し、同乗者の有無と、同乗者が存在する場合はその場所を特定し、空調装置509の風向を、同乗者がいる位置が快適になるように考慮して制御する。同乗者がいない場合には、運転者501の周囲のみを考慮して空調装置509を運転する。さらに、特定された同乗者の場所を1°おきにサンプリングすることで同乗者の温度分布から同乗者の温冷感を推定して空調装置509を制御する。こうすることで、サンプリング速度が遅い場合であっても、乗車してすぐでも快適な自動車内の空調装置を実現することができる。
 (実施の形態4)
 図16を参照しながら、本実施の形態におけるセンサーアセンブリ700について説明する。
 図16は、本実施の形態におけるセンサーアセンブリ700の側面図(a)と上面図(b)である。図17は、本実施の形態におけるセンサーアセンブリの正面図である。
 センサーアセンブリ700は実施の形態1のセンサーアセンブリ100と類似であるが、レンズ104に代えてレンズ704を備える点と、センサー101に代えてセンサー701を備える点とが異なる。
 図16の(a)は、センサーアセンブリ700の側面図であり、図16の(b)はセンサーアセンブリ700を図16の(a)の矢印Aの方向から見た上面図である。
 レンズ704は、レンズ104と同様、電磁波をセンサー701上の検出面に結像させる。レンズ704は、結像光学系に相当する。
 レンズ704は、図16の(b)に示されるように、センサーの画素が1画素で構成されているX軸方向(第一の方向)のレンズ径D1が、画素列702が配列されている方向であるY軸方向(第二の方向)のレンズ径D2よりも小さい。また、X軸方向(第一の方向)のFナンバーが、Y軸方向(第二の方向)のFナンバーよりも大きいということもできる。
 センサー701は、センサー基板703と画素列702とを有する。画素列702は、センサー基板703の上に設けられており、画素702a、702b、702c、702d及び702eを有する。なお、センサー701におけるレンズ104と対向する側の面を検出面ともいう。なお、センサー701が5個の画素を有する場合を例として説明するが、画素の数はこれに限られない。
 図17の(a)及び(b)のそれぞれは、レンズ704の形状の例である。図17の(a)は、球面レンズを、長径(Y軸方向の径)がD2であり短径(X軸方向の径)がD1である楕円で切り抜いたものに相当する。図17の(b)は、球面レンズを、長辺(Y軸に平行な辺)がD2であり短辺(X軸に平行な辺)がD1である長方形で切り抜いたものに相当する。これらは、ともに、X軸方向の幅がD1であり、Y軸方向の幅がD2である。なお、上記はあくまで例示であり、レンズ704の形状はこれらに限られない。
 球面レンズを切り抜いてレンズ704を生成する場合には、X軸方向の長さがY軸方向の長さより短い形状を球面レンズから切り抜けばよく、切り抜く図形の形状はどんなものであってもよい。つまり、上記図形は、楕円(図17の(a))、長方形(図17の(b))の他にも、三角形、五角形、その他直線又は曲線を組み合わせて得られる図形であってよい。
 以降で、実施の形態1におけるレンズ104と、レンズ704との差について説明する。
 図18は、本実施の形態におけるセンサーアセンブリの測定範囲を示す模式図である。図18において、説明のために、センサー701が備える画素のうち画素702a、702c及び702eが描かれている。また、併せて、センサー101が備える画素のうち画素102a、102c及び102eが描かれている。その際、センサー701における中央の画素である画素702cの位置と、センサー101における中央の画素である画素102cの位置とが一致するように描かれている。
 さらに、図18には、レンズ704を用いて、センサー701又はセンサー101に集光される電磁波の範囲が示されている。具体的には、センサー701(画素702a~702e)には、範囲712に含まれる領域内から発せられる電磁波が集光される。一方、センサー101(画素102a~102e)には、範囲711に含まれる領域内から発せられる電磁波が集光される。センサー701の方がセンサー101より長いので、範囲712の方が範囲711より広い角度範囲を含む。つまり、センサー701とセンサー101とは同じ画素数を有するが、センサー701の方が広い角度範囲からの電磁波を受光することができる。
 以上のように本実施の形態におけるセンサーアセンブリは、より広い角度範囲からの光を受光することができるので、より広い領域から到来する電磁波を受光することができる。
 以上、一つまたは複数の態様に係るセンサーアセンブリなどについて、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、一つまたは複数の態様の範囲内に含まれてもよい。
 本発明におけるセンサーアセンブリは、安価な構成で高い感度を達成することが可能であり、なおかつ迷光にも強く自動車内での使用も可能であり、有用である。
  100、200、210、220、230、300、320、502、700  センサーアセンブリ
  101、201、231、301、701  センサー
  101a  ベース
  102、202、234、235、236、302、702  画素列
  102a、102b、102c、102d、102e、202a、202b、202c、202d、202e、232a、232b、232c、232d、232e、232f、232g、232h、232i、232j、232k、232l、232m、232n、232o、302a、302b、302c、302d、302e、702a、702b、702c、702d、702e  画素
  103、203、233、303、703  センサー基板
  104、109、111、704  レンズ
  105、308  光軸
  106、108、305  垂直入射光
  107、110、306、307  斜め入射光
  109a、111a  右側面
  109b、111b  左側面
  304  軸外し放物面鏡
  309  遮蔽体
  310  焦点
  311a、311b、311c、311d  迷光
  321  平面ミラー
  322、511  筐体
  301a、304a  点
  500  自動車
  501  運転者
  503  太陽光
  504  後部ウインドウ
  505  回転中心
  506  視野
  507  走査範囲
  508  制御部
  509  空調装置
  510  外来光
  512  温度センサー
  513  同乗者

Claims (15)

  1.  電磁波を検出するための複数の画素であって、所定方向に一列に配列された複数の画素を有するラインセンサーと、
     電磁波による像を前記複数の画素上の検出面に結像させる結像光学系とを備え、
     前記検出面に平行な面内で前記所定方向に直交する第一の方向における前記結像光学系のFナンバーは、前記所定方向である第二の方向における前記結像光学系のFナンバーと異なる
     センサーアセンブリ。
  2.  前記第一の方向における前記結像光学系のFナンバーは、前記第二の方向における前記結像光学系のFナンバーより小さい
     請求項1に記載のセンサーアセンブリ。
  3.  前記結像光学系は、レンズを有し、
     前記第一の方向における前記レンズのFナンバーは、前記第二の方向における前記レンズのFナンバーより小さい
     請求項1又は2に記載のセンサーアセンブリ。
  4.  前記第一の方向における前記レンズの幅は、前記第二の方向における前記レンズの幅より大きい
     請求項3に記載のセンサーアセンブリ。
  5.  前記レンズの前記第一の方向に垂直な面における断面形状は、前記レンズの前記第二の方向に垂直な面における断面形状と異なる
     請求項3又は4に記載のセンサーアセンブリ。
  6.  前記レンズの前記第二の方向に垂直な面における断面形状は、フレネル形状を含む
     請求項3~5のいずれか1項に記載のセンサーアセンブリ。
  7.  前記レンズの前記第一の方向に垂直な面における断面形状は、フレネル形状を含まない
     請求項3~6のいずれか1項に記載のセンサーアセンブリ。
  8.  前記結像光学系は、ミラーを有し、
     前記第一の方向における前記ミラーのFナンバーは、前記第二の方向における前記ミラーのFナンバーより大きい
     請求項1又は2に記載のセンサーアセンブリ。
  9.  前記ミラーは、軸外し放物面鏡である
     請求項8に記載のセンサーアセンブリ。
  10.  前記センサーアセンブリは、さらに、平面ミラーを有する
     請求項9に記載のセンサーアセンブリ。
  11.  (i)前記軸外し放物面鏡の端部のうちセンサーに近い一方、及び、前記センサーの端部のうち前記軸外し放物面鏡に近い一方を結ぶ直線と、前記平面ミラーとがなす角の角度が、(ii)前記軸外し放物面鏡から前記平面ミラーに入射する電磁波と前記平面ミラーとがなす角の角度と異なる
     請求項10に記載のセンサーアセンブリ。
  12.  前記複数の画素のそれぞれの前記第一の方向における幅は、前記複数の画素のそれぞれの前記第二の方向における幅より大きい
     請求項1~11のいずれか一項に記載のセンサーアセンブリ。 
  13.  前記電磁波は、8~10マイクロメータの波長を有する遠赤外線を含む
     請求項1~12のいずれか1項に記載のセンサーアセンブリ。
  14.  前記レンズの材質は、ポリエチレンである
     請求項3~7のいずれか1項に記載のセンサーアセンブリ。
  15.  前記複数の画素のそれぞれは、サーモパイル又はボロメータを用いた赤外線検出器である
     請求項1~14のいずれか1項に記載のセンサーアセンブリ。
PCT/JP2014/003611 2013-07-31 2014-07-08 センサーアセンブリ WO2015015718A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015504453A JP6338567B2 (ja) 2013-07-31 2014-07-08 センサーアセンブリ
CN201480002521.9A CN104662397B (zh) 2013-07-31 2014-07-08 传感器组件
US14/431,114 US9448118B2 (en) 2013-07-31 2014-07-08 Sensor assembly

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013159787 2013-07-31
JP2013-159787 2013-07-31

Publications (1)

Publication Number Publication Date
WO2015015718A1 true WO2015015718A1 (ja) 2015-02-05

Family

ID=52431281

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/003611 WO2015015718A1 (ja) 2013-07-31 2014-07-08 センサーアセンブリ

Country Status (4)

Country Link
US (1) US9448118B2 (ja)
JP (1) JP6338567B2 (ja)
CN (1) CN104662397B (ja)
WO (1) WO2015015718A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017002346A1 (ja) * 2015-07-01 2017-01-05 パナソニックIpマネジメント株式会社 空調制御装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7313469B2 (ja) * 2019-03-20 2023-07-24 ウォード,マシュー,イー. マイクロledアレイを搭載したmems駆動光学パッケージ

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6079128U (ja) * 1983-11-08 1985-06-01 株式会社チノー 放射エネルギ−収集装置の光学系
JPS60147671A (ja) * 1984-01-13 1985-08-03 Mitsubishi Electric Corp 侵入監視方法および装置
JPH02115725A (ja) * 1988-10-25 1990-04-27 Nec Corp 光センサ校正装置
JPH04372828A (ja) * 1991-06-24 1992-12-25 Matsushita Electric Ind Co Ltd 熱画像検出装置
JPH07296269A (ja) * 1994-04-28 1995-11-10 Matsushita Electric Works Ltd 熱線式検知器
JPH09101204A (ja) * 1995-10-06 1997-04-15 Matsushita Electric Ind Co Ltd 焦電型赤外線検出装置
JPH09105668A (ja) * 1995-10-13 1997-04-22 Matsushita Electric Ind Co Ltd 焦電型赤外線センサ
JPH09145477A (ja) * 1995-11-20 1997-06-06 Tokyo Instr:Kk 分光器
JP2002228578A (ja) * 2001-01-30 2002-08-14 Anritsu Corp ガス検出装置及び該装置の焦点合わせ方法
JP2012026917A (ja) * 2010-07-26 2012-02-09 Mitsubishi Electric Corp 赤外線センサ及び空気調和機
JP2012198191A (ja) * 2011-03-07 2012-10-18 Ricoh Co Ltd 遠赤外線検出装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6079128A (ja) 1983-10-05 1985-05-04 Hokuetsu Kogyo Co Ltd エンジン駆動発電機制御方法
JPH0694991A (ja) 1992-09-10 1994-04-08 Matsushita Electric Ind Co Ltd 赤外広角単レンズ
GB2286042B (en) * 1994-01-27 1998-07-29 Security Enclosures Ltd Wide-angle infra-red detection apparatus
US6856407B2 (en) * 2000-09-13 2005-02-15 Nextengine, Inc. Method for depth detection in 3D imaging providing a depth measurement for each unitary group of pixels
US6876450B2 (en) * 2001-01-30 2005-04-05 Anritsu Corporation Laser absorption spectral diffraction type gas detector and method for gas detection using laser absorption spectral diffraction
CN1317568C (zh) * 2002-05-28 2007-05-23 佳能株式会社 光检测装置,x射线摄影方法和装置,以及光电变换元件
US7684094B2 (en) * 2004-09-13 2010-03-23 Canon Kabushiki Kaisha Image optical system and image reading apparatus equipped with same
JP4356026B2 (ja) * 2006-10-10 2009-11-04 ソニー株式会社 表示装置、受光方法、および情報処理装置
JP5300602B2 (ja) 2008-10-31 2013-09-25 三菱電機株式会社 空気調和機
CN105681633B (zh) * 2009-03-19 2019-01-18 数字光学公司 双传感器照相机及其方法
JP5789098B2 (ja) * 2010-12-16 2015-10-07 キヤノン株式会社 焦点検出装置およびその制御方法
JP5898481B2 (ja) * 2011-12-13 2016-04-06 キヤノン株式会社 撮像装置及び焦点検出方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6079128U (ja) * 1983-11-08 1985-06-01 株式会社チノー 放射エネルギ−収集装置の光学系
JPS60147671A (ja) * 1984-01-13 1985-08-03 Mitsubishi Electric Corp 侵入監視方法および装置
JPH02115725A (ja) * 1988-10-25 1990-04-27 Nec Corp 光センサ校正装置
JPH04372828A (ja) * 1991-06-24 1992-12-25 Matsushita Electric Ind Co Ltd 熱画像検出装置
JPH07296269A (ja) * 1994-04-28 1995-11-10 Matsushita Electric Works Ltd 熱線式検知器
JPH09101204A (ja) * 1995-10-06 1997-04-15 Matsushita Electric Ind Co Ltd 焦電型赤外線検出装置
JPH09105668A (ja) * 1995-10-13 1997-04-22 Matsushita Electric Ind Co Ltd 焦電型赤外線センサ
JPH09145477A (ja) * 1995-11-20 1997-06-06 Tokyo Instr:Kk 分光器
JP2002228578A (ja) * 2001-01-30 2002-08-14 Anritsu Corp ガス検出装置及び該装置の焦点合わせ方法
JP2012026917A (ja) * 2010-07-26 2012-02-09 Mitsubishi Electric Corp 赤外線センサ及び空気調和機
JP2012198191A (ja) * 2011-03-07 2012-10-18 Ricoh Co Ltd 遠赤外線検出装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017002346A1 (ja) * 2015-07-01 2017-01-05 パナソニックIpマネジメント株式会社 空調制御装置

Also Published As

Publication number Publication date
JP6338567B2 (ja) 2018-06-06
US9448118B2 (en) 2016-09-20
JPWO2015015718A1 (ja) 2017-03-02
CN104662397A (zh) 2015-05-27
US20150276490A1 (en) 2015-10-01
CN104662397B (zh) 2017-06-27

Similar Documents

Publication Publication Date Title
CN104776801B (zh) 信息处理装置和信息处理方法
AU2010215048B2 (en) Dual field-of-view optical imaging system with dual focus lens
US20030169491A1 (en) Impaired vision assist system and method
CN110753876B (zh) 图像投影装置
JP4973921B2 (ja) ヘッドアップディスプレイ装置
JP5440903B2 (ja) 撮像装置とステレオカメラ装置及び車外監視装置
US9377612B2 (en) IR microscope with image field curvature compensation, in particular with additional illumination optimization
CN110471182A (zh) 车辆用显示装置
JP2018205446A (ja) 表示システム、電子ミラーシステム及びそれを備える移動体
EP2857882A1 (en) Infrared optical assembly and infrared image capture device
WO2015015718A1 (ja) センサーアセンブリ
JP7037760B2 (ja) 画像投写装置及び移動体
CN109855594A (zh) 摄像装置、距离测量设备、车载系统和移动设备
JP5330741B2 (ja) 車載用観察装置
JP2014081477A (ja) 撮像装置
JP2019211664A (ja) 撮像装置
JP2015232506A (ja) アレイミラー系及び赤外線検知装置
JP4650469B2 (ja) 撮像装置及びレンズ異常診断システム
JP7281060B2 (ja) 撮像装置及び情報処理装置
JP7244129B1 (ja) ナイトビジョンカメラ
JPH11347016A (ja) 撮像装置
JP2013175130A (ja) 画像式車両感知器
KR101219872B1 (ko) 렌즈 모듈, 측방 감시 장치 및 방법
JP2022124808A (ja) 車室内撮影装置
JPH0743459B2 (ja) 反射光学系

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2015504453

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14832825

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14431114

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14832825

Country of ref document: EP

Kind code of ref document: A1