WO2017018150A1 - 光センサデバイス、光センサユニット及び光センサシステム - Google Patents

光センサデバイス、光センサユニット及び光センサシステム Download PDF

Info

Publication number
WO2017018150A1
WO2017018150A1 PCT/JP2016/070094 JP2016070094W WO2017018150A1 WO 2017018150 A1 WO2017018150 A1 WO 2017018150A1 JP 2016070094 W JP2016070094 W JP 2016070094W WO 2017018150 A1 WO2017018150 A1 WO 2017018150A1
Authority
WO
WIPO (PCT)
Prior art keywords
optical sensor
unit
filters
types
signal
Prior art date
Application number
PCT/JP2016/070094
Other languages
English (en)
French (fr)
Inventor
江副 利秀
沢野 充
大貴 瀧下
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2017531113A priority Critical patent/JPWO2017018150A1/ja
Publication of WO2017018150A1 publication Critical patent/WO2017018150A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/02Details
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/02Details
    • G01J1/04Optical or mechanical part supplementary adjustable parts
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/42Photometry, e.g. photographic exposure meter using electric radiation detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers
    • G01V8/20Detecting, e.g. by using light barriers using multiple transmitters or receivers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/20Filters
    • G02B5/22Absorbing filters

Definitions

  • the present invention relates to an optical sensor device, an optical sensor unit, and an optical sensor system using the optical sensor device, and more specifically, using a signal from an optical sensor including a filter having a difference in transmission spectrum half-value wavelength of 200 nm or less.
  • the present invention relates to an optical sensor device for obtaining a signal intensity of a wavelength, an optical sensor unit for determining whether or not an object is detected from detection data obtained by using the optical sensor device, and an optical sensor system using the optical sensor unit.
  • Patent Documents 1 to 3 disclose an infrared sensor, an infrared imaging device, and an infrared detection device that detect a human body or an object using infrared rays, respectively.
  • Patent Documents 4 and 5 disclose endoscope systems that detect blood vessel information in the human body using narrowband light.
  • Patent Document 6 discloses an object detection device that detects a three-dimensional shape and / or movement of a detection target object using narrowband light.
  • Patent Document 1 detects an infrared signal directly without passing through the output signal of the first infrared light receiving element that detects infrared light that has passed through a filter that cuts infrared light having a specific wavelength ⁇ 1 , for example, 5 ⁇ m or more.
  • an infrared sensor that is sensitive to infrared rays in the wavelength band ⁇ 1 to ⁇ 2 , for example, 5 ⁇ m to 14 ⁇ m, with the lower limit of the cut wavelength of the filter by taking the difference from the output signal of the second infrared light receiving element. .
  • Patent Document 1 further discloses that a filter for cutting light including visible light, for example, 1 ⁇ m or less, is attached to the front surfaces of the first and second infrared light receiving elements.
  • a filter for cutting light including visible light for example, 1 ⁇ m or less
  • an interference filter is not used, and it can be suitably used as a human sensor that detects the presence of a human body without being affected by the background temperature of the detection target.
  • Patent Document 2 detects infrared rays transmitted through a first infrared filter having an infrared wavelength transmission band of about 0.2 ⁇ m to 15 ⁇ m because infrared rays are emitted at a wavelength of 5 ⁇ m to 15 ⁇ m when a human body is present in the detection area.
  • the output of the first infrared detecting element for example, the thermopile element, and the second infrared detecting element (thermopile element) for detecting the infrared ray transmitted through the second infrared filter having an infrared wavelength transmission band of about 0.2 ⁇ m to 5 ⁇ m
  • An infrared detection device is disclosed in which the human body detection output obtained by differentially connecting the output becomes an output larger than a predetermined level, and the presence of the human body in the detection area can be detected.
  • the detection target can be stably detected even in a stationary state without being affected by a change in the ambient temperature of the infrared detection element and the background temperature.
  • Patent Document 3 discloses a first infrared detection element having a first infrared light receiving portion having sensitivity to a mid-infrared ray in a first infrared wavelength range, for example, 3 to 5 ⁇ m, and a second infrared wavelength range, for example, Disclosed is an infrared imaging device comprising: a second infrared detecting element having a second infrared light receiving portion sensitive to far infrared rays in a band of 8 to 12 ⁇ m; and a wavelength selection filter that does not transmit middle infrared rays but transmits far infrared rays. is doing.
  • Patent Literature 3 two-wavelength infrared rays can be simultaneously imaged using a single photodetecting element without using a spectroscopic means, and three objects that cannot be separated by mid-infrared rays or far-infrared infrared rays are effective. Can be separated.
  • Patent Documents 4 and 5 irradiate a subject tissue including a blood vessel in a body cavity with a plurality of narrowband light beams having different wavelength regions, and receive a plurality of narrowband signals received from the respective reflected light.
  • the endoscope system which calculates blood vessel information, such as oxygen saturation in a blood vessel, is disclosed.
  • an RGB color sensor provided with three color filters of R (red), G (green), and B (blue) is used as an image sensor.
  • a plurality of narrowband lights are generated by different lasers
  • Patent Document 5 a plurality of narrowband lights are converted from white light from a white light source to a bandpass filter, for example, a multiband pass filter.
  • a plurality of narrow band lights are generated by separating and transmitting the light.
  • the measurement accuracy of blood vessel information such as oxygen saturation related to blood vessels can be improved and the robustness can be improved without increasing the manufacturing cost and complicating the apparatus configuration. It is said.
  • Patent Document 6 irradiates an object to be detected with narrowband light such as a laser beam having a dodd pattern from a laser or LED (Light Emitting Diode: Light Emitting Diode), and applies the reflected light to a CMOS (Complementary Metal Oxide Semiconductor: Complementary (Metal, Oxide, Semiconductor)
  • CMOS Complementary Metal Oxide Semiconductor: Complementary (Metal, Oxide, Semiconductor
  • An object detection device is disclosed that increases the accuracy of distance detection by limiting only to the range to include, and detects the three-dimensional shape including the shape of the detection target object in the depth direction and the movement with high accuracy.
  • Japanese Patent Laid-Open No. 2005-207830 See Japanese Patent Application Laid-Open No. 05-256698. See JP-A-11-297973 JP 2014-194028 A JP 2013-063097 A Japanese Patent Laid-Open No. 2014-112033
  • infrared signals in a wide wavelength region of 5 ⁇ m to 14 ⁇ m or 5 ⁇ m to 15 ⁇ m are used. Although it is suitable for detecting the presence, there is a problem that it is impossible to detect the three-dimensional shape including the posture of the human body, the movement or the distance to each part of the human body with high accuracy.
  • the imaging device disclosed in Patent Document 3 uses a mid-infrared signal in a wide wavelength region of 3 to 5 ⁇ m and a far-infrared signal in a wide wavelength region of 8 to 12 ⁇ m. Although three objects can be separated by far-infrared rays, there is a problem that the three-dimensional shape, movement or distance to each part of the object cannot be detected with high accuracy.
  • This detection method can be used to grasp the form of an object in a building at the time of a disaster or accident at a power plant or factory, to grasp the form of an object around an automobile that is driving automatically, It is preferably used when grasping the form of an object of a biological tissue (such as a blood vessel) in a microscopic examination.
  • the detection method used in these cases requires a large amount of signals of a specific wavelength, for example, signals of narrowband light, for comparison with big data (data indicating characteristics) of an object accumulated in advance. Therefore, as a light receiving element for acquiring a specific narrow band light signal, a light receiving element (such as a CMOS image sensor) in which a band pass filter is arranged on an optical sensor as disclosed in Patent Document 6 is used. .
  • the light receiving element is required to be small and inexpensive, have high sensitivity, have a large number of elements per unit area, and have a high S / N ratio (signal-noise ratio).
  • the data indicating the characteristics of the object accumulated in advance is preferably accumulated on the network.
  • data accumulated on a network, data built on a network (hereinafter also referred to as “cloud”) or other database, or a collection of such data is referred to as “ Sometimes referred to as “big data”.
  • the signal becomes a signal containing a lot of noise. More specifically, the center wavelength of the spectrum of the object and the center wavelength of the spectrum of the band-pass filter substantially match, and the half-value wavelength of the spectrum of the object and the half-value wavelength of the spectrum of the band-pass filter are approximately the same. Even if they match, a signal containing a lot of noise may be obtained. This is because the peak of the transmission spectrum of the bandpass filter is lower than the peak of the spectrum of the object, and the detected signal intensity is reduced or the signal is reduced.
  • the object of the present invention is to solve the above-mentioned problems of the prior art, small in size, high in sensitivity even at a low price, high in S / N ratio, and capable of increasing the number of elements per unit area.
  • An optical sensor device capable of accurately acquiring a specific narrow-band light (reflected light) signal, for example, a signal of a specific wavelength, as a high-intensity and low-noise signal without reduction, and obtained by this optical sensor device
  • the optical sensor device transmits two or more filters and two or more filters each having a difference in half-wavelength of the transmission spectrum of 200 nm or less.
  • One or more optical sensors that detect light and output two or more types of output signals, and an arithmetic unit, and the arithmetic unit calculates a difference between two output signals of the two or more types of output signals. It is characterized in that the signal intensity of one or more specific wavelengths is obtained by performing inverse calculation from the waveform of the absorption spectrum of light transmitted through two corresponding filters of two or more filters.
  • the two or more types of filters are a plurality of sets of filter pairs composed of two filters having a transmission spectrum half-value wavelength difference of 200 nm or less, and one or more photosensors are a plurality of sets of filter pairs.
  • a plurality of optical sensors that respectively detect light transmitted through the two filters and output a plurality of sets of two output signals, and the arithmetic unit is configured to output two output signals output from the one or more optical sensors.
  • the difference is inversely calculated from the waveform of the absorption spectrum of the light transmitted through the two filters to obtain signal intensities of a plurality of sets of specific wavelengths.
  • 2 or more types of filters are each arrange
  • 2 or more types of filters are arrange
  • a signal having a specific wavelength can be obtained by arranging a plurality of two or more adjacent photosensors in a two-dimensional manner by arranging one or more photosensors having two or more types of filters or two or more types of filters. It is preferable to acquire the intensity as an image signal. Moreover, it is preferable that the signal intensity of a specific wavelength is measured by time resolution.
  • the multi-wavelength detection optical sensor device detects signals of two or more wavelengths, the two or more filters are filters having two or more different transmission spectra, and the calculation unit includes two or more types of filters. It is preferable to obtain the signal intensity of a specific wavelength.
  • a filter consists of a photocurable resin composition.
  • the film thickness of a filter is 10 micrometers or less.
  • the half value wavelength of the transmission spectrum of a filter is 700 nm or more.
  • an optical sensor unit includes the optical sensor device according to the first aspect that receives light from an object, and one or more types obtained in the optical sensor device.
  • One or more types of detection data selected from signal intensity of a specific wavelength, two-dimensional shape information of an object, and time change of one or more types of signal intensity of a specific wavelength, setting data corresponding to the object set in advance
  • a determination unit for determining whether the object is an object based on a comparison result of the comparison unit.
  • the preset setting data corresponding to the object is preferably setting data corresponding to the object accumulated on the network.
  • an optical sensor system determines an optical sensor unit according to the second aspect and an object to be discriminated, and an object from past data relating to the object. And a controller unit that determines a condition corresponding to the object based on the extracted feature of the object, and is preset as setting data corresponding to the object. .
  • the controller unit sets the setting data corresponding to the object accumulated on the network as the setting data, and instructs the optical sensor unit to start measurement.
  • the first aspect of the present invention it is small, inexpensive, high in sensitivity, has a high S / N ratio, can increase the number of elements per unit area, and can generate a specific narrowband light from an object. It is possible to provide an optical sensor device capable of accurately acquiring a high-intensity and low-noise signal without reducing the above-mentioned signal, for example, a signal having a specific wavelength. Further, according to the second aspect of the present invention, whether or not the object is an object from detection data based on a signal of a specific wavelength of the object obtained by the optical sensor device having the above effect, for example, detection data obtained as big data. It is possible to provide an optical sensor unit that can accurately determine, that is, accurately and reliably.
  • the optical sensor unit of the present invention in particular, at least one selected from a signal intensity of a specific wavelength from the object, a temporal change in the signal intensity, and a two-dimensional shape of the object obtained from the signal intensity. It is determined whether or not it is an object by comparing the detection data of the species with, for example, setting data corresponding to a preset object, for example, characteristic data, for example, setting data stored as big data on the network Therefore, it is possible to accurately and reliably determine. Further, according to the third aspect of the present invention, when the target is set, the setting data corresponding to the target for discrimination by the optical sensor unit of the present invention can be set accurately, and as a result It is possible to provide an optical sensor system that can accurately determine whether or not an object is present.
  • FIG. 2A is a schematic diagram illustrating an example of an array of two light receiving pixels in one set of the optical sensor in which two types of cut filters of the optical sensor device illustrated in FIG. 1 are respectively arranged.
  • FIG. 2B is a graph schematically showing an example of the spectral transmittance of two types of cut filters respectively arranged in a set of two light receiving pixels of the photosensor shown in FIG. 2A.
  • FIG. 2C schematically shows a spectrum of an object and a spectral transmittance of a specific wavelength of an optical sensor device obtained by two light receiving pixels in which two types of cut filters having the spectral transmittance shown in FIG.
  • FIG. 7A is a schematic diagram illustrating an example of an array of three light receiving pixels in one set of the optical sensor in which the three types of cut filters of the optical sensor device illustrated in FIG. 1 are respectively arranged.
  • FIG. 7A is a schematic diagram illustrating an example of an array of three light receiving pixels in one set of the optical sensor in which the three types of cut filters of the optical sensor device illustrated in FIG. 1 are respectively arranged.
  • FIG. 7B is a graph schematically showing an example of the spectral transmittance of three types of cut filters respectively arranged in a set of three light receiving pixels of the photosensor shown in FIG. 7A.
  • FIG. 7C shows the spectrum of an object and the spectral transmittances of two specific wavelengths of a multi-wavelength photosensor device obtained by three light receiving pixels in which three types of cut filters having the spectral transmittance shown in FIG. 7A are arranged.
  • FIG. 10 is an explanatory diagram schematically illustrating a specific application embodiment of the optical sensor system illustrated in FIG. 8, in which another example of the specific configuration of the optical sensor unit used in the optical sensor system is schematically illustrated. It is shown.
  • It is a flowchart which shows an example of the flow of the target object detection of the optical sensor system shown in FIG.8 and FIG.10. It is a graph which shows the extinction coefficient of two types of hemoglobin in the blood vessel of the human body to which the optical sensor unit and optical sensor system of this invention are applied.
  • FIG. 1 is a block diagram schematically showing an example of an optical sensor unit according to the present invention including the optical sensor device according to the first embodiment of the present invention.
  • An optical sensor unit 10 shown in FIG. 1 obtains a signal intensity of a specific wavelength by receiving a light source 14 that irradiates light as an active signal on an object 12 and reflected light reflected from the object 12 as a passive signal.
  • the optical sensor device 16 to output and the target object detection device 18 which discriminate
  • the reflected light reflected from the object 12 is not limited to the reflected light from the irradiation light from the specific light source 14, and sunlight, a fluorescent lamp, etc. without using the specific light source 14. It may be reflected light from indoor lights.
  • the optical sensor device 16 of the present embodiment corresponds to the lens 20 that collects the reflected light from the object 12, the optical sensor 22 that receives the reflected light collected by the lens 20, and each pixel of the optical sensor 22.
  • a signal processing unit 26 that performs predetermined signal processing on each signal (output signal of the optical sensor 22) and outputs a plurality of sets of two or more output signals, and a plurality of sets of two or more sets output from the signal processing unit 26 For each set, the difference between the two output signals for each set is inversely calculated from the waveform of the absorption spectrum of the light transmitted through the corresponding two filters 24 of the two or more filters 24 for each set.
  • a memory 30 for storing the signal intensity of the wavelength.
  • the optical sensor 22 and the filter 24 constitute a sensor assembly 25.
  • the received light signal intensity stored in the memory 30 is sent to the signal processing unit 26 in response to the reading of the signal processing unit 26.
  • the output signal intensity stored in the memory 30 and / or the signal intensity of a specific wavelength is sent to the calculation unit 28 in response to the reading of the calculation unit 28.
  • the optical sensor device 16 includes a central processing unit (CPU (central processing unit)), a semiconductor memory, and a storage device such as a hard disk or SSD (Solid state drive).
  • CPU central processing unit
  • a predetermined arithmetic program is installed in the storage device.
  • the arithmetic processing program is executed by the central processing unit, whereby the signal processing unit 26 and the arithmetic unit 28 operate.
  • the object detection device 18 of the present embodiment is based on the two-dimensional shape information of the object 12 obtained from the signal intensity of the specific wavelength obtained in the optical sensor device 16, the time change of the signal intensity, and the signal intensity of the specific wavelength.
  • a comparison unit 32 that compares one or more selected detection data with setting data corresponding to a preset object 12, and a determination that determines whether or not the object 12 is based on the comparison result of the comparison unit 32 Unit 34, and the signal intensity of the specific wavelength obtained in the optical sensor device 16, the time change of the signal intensity, the two-dimensional shape information of the object 12, and the setting data corresponding to the object 12 set in advance are stored.
  • an output unit 38 that outputs a discrimination result in the discrimination unit 34.
  • the optical sensor device 18 includes a central processing unit (CPU (central processing unit)), a semiconductor memory, and a storage device such as a hard disk and SSD (Solid state drive).
  • CPU central processing unit
  • a predetermined determination program is installed in the storage device. When the determination program is executed by the central processing unit, the comparison unit 32, the determination unit 34, and the output unit 38 operate.
  • the object 12 targeted by the optical sensor unit 10 or the optical sensor device 16 is used for obtaining the signal intensity of a signal having a specific wavelength of the reflected light, and is not particularly limited. Any device may be used as long as it can receive the reflected light and obtain the signal intensity of a signal having a specific wavelength.
  • facilities such as buildings and factories, or the inside thereof, in particular, an object to be detected in a dark place, a peripheral object such as an automobile during automatic driving, a living body such as a human body to be a health care target, for example, Biological tissues such as blood vessels in endoscopy, cultured cell colonies in regenerative medicine, and transparent objects that cannot be seen, such as organic gases in the air, such as toxic gases, PM2.5 (microparticulate matter) : Fine particles that pass through a sizing device having a particle size of 2.5 ⁇ m and a collection efficiency of 50%), organic solvents, liquids to be discriminated for the type of liquid, and the like.
  • the object 12 is preferably an object that is difficult to visually recognize in the visible light range but can be identified using infrared light.
  • Such an object 12 is picked up and imaged by the reflected light received by the optical sensor device 16, and its shape and / or state is grasped.
  • the light source 14 is for illuminating the object 12 so as to generate reflected light that can be received by the optical sensor 22 of the optical sensor device 16 from the object 12, and is not particularly limited. Can be used.
  • laser light sources LEDs, xenon lamps, fluorescent lamps, organic light emitters, orlets (organic EL displays (OELD: Organic Luminescence Display), incandescent bulbs, infrared heaters, UV (ultraviolet) light sources and quantum dots (wavelength conversion) ), Sunlight, a combination of sunlight and a lens and / or a mirror, for example, sunlight reflected and condensed by a mirror such as a concave mirror and / or a lens such as a convex lens.
  • OELD Organic Luminescence Display
  • the lens 20 is for condensing the reflected light from the object 12 on the optical sensor 22, and is not particularly limited. If the reflected light from the object 12 can be condensed on the optical sensor 22, the lens 20 is a conventionally known lens. It's okay.
  • the lens 20 may be a single lens that collects the entire reflected light from the object 12 to the size of the optical sensor 22, or the reflected light from the object 12 is converted into each pixel of the optical sensor 22.
  • a microlens array that condenses light may be collected, or reflected light collected by one lens may be condensed on each pixel of the optical sensor 22 by each microlens of the microlens array. good.
  • the optical sensor 22 constitutes a sensor assembly 25 together with a filter 24, receives reflected light from the object 12 through the filter 24, images the object 12, and acquires an imaging signal of the object 12.
  • the present invention is not particularly limited, and may be a conventionally known optical sensor such as an image sensor as long as the reflected light from the object 12 can be converted into an optical signal corresponding to the amount of received light for each pixel.
  • the photosensor 22 may be a CCD (Charge Coupled Device) image sensor, a CMOS image sensor, or the like.
  • the filter 24 constitutes a sensor assembly 25 together with the optical sensor 22, and is disposed on the front surface of each pixel of the optical sensor 22, that is, on the light receiving surface side.
  • the filter used in the present invention is composed of a combination of two or more filters having a difference in transmission spectrum half-value wavelength of 200 nm or less.
  • the combination of two or more types of filters is, for example, a combination of two or more types of cut filters that cut the short wavelength side, a combination of two or more types of cut filters that cut the long wavelength side, or a short wavelength side cut filter A combination with a long wavelength cut filter is available.
  • the filter 24 calculates the difference between two output signals among the two or more output signals output from each pixel of the optical sensor 22 to which the reflected light of the object 12 that has passed through the two or more types of filters is incident. It is used to calculate the signal intensity of one or more specific wavelengths by performing inverse calculation from the waveform of the absorption spectrum of the light transmitted through two corresponding filters of at least one type of filter.
  • the sum of the two types of output signals of each pixel by the reception of light transmitted through each filter and the reception of light that does not pass through any filter The difference between the output signal (reference) of the pixel by the pixel and the absorption spectrum of the light transmitted through the short wavelength side cut filter and the long wavelength side cut filter is inversely calculated, and one or more specific wavelength signals What is necessary is just to obtain
  • the filter 24 is a difference between two output signals output from two pixels of the photosensor 22 that has received light transmitted through two types of filters out of two or more types of filters having a predetermined difference in the half-value wavelength of the transmission spectrum. Is regarded as an output signal output from the pixel of the optical sensor 22 that has received the light transmitted through the band-pass filter whose half-value wavelength is equal to or less than a predetermined value corresponding to the predetermined difference. It includes at least two filters that can.
  • two types of short-wavelength cut filters are used as the filter 24 will be described as a representative example, but the present invention is not limited to this.
  • FIG. 2A shows an example of an array of two light receiving pixels in one set of a sensor assembly including a photosensor in which two types of cut filters of the photosensor unit shown in FIG. 1 are arranged.
  • FIG. 2B schematically shows an example of the spectral transmittance of two types of cut filters respectively disposed in one set of two light receiving pixels of the sensor assembly shown in FIG. 2C shows the spectrum of the object, and the spectral transmission of a specific wavelength of the optical sensor unit obtained by two light receiving pixels in which two types of cut filters having the spectral transmittance shown in FIG. 2B are arranged.
  • the rate is schematically shown.
  • a set of light receiving pixels including the light receiving pixels 25a and 25b of the sensor assembly 25 is used to obtain a signal intensity of a specific wavelength.
  • the light receiving pixel 25 a is formed by arranging the filter 24 a on the light receiving surface (not shown) of one pixel of the optical sensor 22.
  • the filter 24a is a filter that absorbs and cuts light on the short wavelength side, and as shown by a solid line in FIG. 2B, the spectral transmittance increases from the short wavelength side toward the long wavelength side.
  • a transmission spectrum A that is a spectral transmittance distribution having a curve is shown.
  • the transmission spectrum A shows the absorption spectrum of the light transmitted through the filter 24a, and has an absorption edge on the short wavelength side.
  • the light receiving pixel 25b is formed by arranging the filter 24b on the light receiving surface (not shown) of one pixel of the optical sensor 22.
  • the filter 24b is a filter that absorbs and cuts light on the short wavelength side, and is longer than the filter 24a by a predetermined wavelength, that is, by a predetermined wavelength of 200 nm or less at a half-value wavelength
  • a transmission spectrum B that is a spectral transmittance distribution having a curve in which the spectral transmittance increases from the short wavelength side toward the long wavelength side is shown.
  • the transmission spectrum B shows the absorption spectrum of the light transmitted through the filter 24b.
  • the transmission spectrum B has an absorption edge on the short wavelength side from the absorption edge of the transmission spectrum A, and exists on the long wavelength side by a predetermined wavelength of 200 nm or less at half-value wavelength.
  • the spectrum indicating the spectral transmittance distribution indicated by the dotted line in FIG. 2B represents the spectrum of the object 12.
  • the transmission spectrum obtained by subtracting (subtracting) the waveform of the transmission spectrum B from the waveform of the transmission spectrum A will be described with reference to FIGS. 2B and 2C.
  • FIG. 2B when the absorption edge of the transmission spectrum B is longer than the absorption edge of the transmission spectrum A by a predetermined wavelength, the spectral transmission of the transmission spectrum B from the spectral transmittance of the transmission spectrum A is achieved.
  • FIG. 2C When the rate is subtracted for each wavelength, as shown in FIG. 2C, a combined spectrum of the transmission spectrum A and the transmission spectrum B that is vertically inverted is obtained.
  • the filter used in the present invention is equivalent to the transmission spectrum of a bandpass filter having a predetermined wavelength width with a half-value wavelength of 200 nm or less.
  • the transmission spectrum equivalent to the band-pass filter indicated by the solid line and the alternate long and short dash line in FIG. 2C can substantially match the spectrum of the object 12 indicated by the dotted line. It can be seen that it is extremely useful.
  • the difference from the signal is equivalent to an output signal output from a light receiving pixel that receives light transmitted through a bandpass filter having a predetermined wavelength width of 200 nm or less at a half-value wavelength. Therefore, in the present invention, the difference between the output signal output from the light receiving pixel 25a and the output signal output from the light receiving pixel 25b is calculated by the calculation unit 28 described later, whereby the transmission between the filter 24a and the filter 24b is performed.
  • An output signal equivalent to the output signal of the transmitted light of the bandpass filter having a wavelength width equal to the difference between the half-value wavelengths of the spectrum can be acquired.
  • a small and inexpensive sensor assembly 25 in which a plurality of sets of light receiving pixels 25a and 25b using two cut filters 24a and 24b are arranged two-dimensionally, and an output output from one set of light receiving pixels 25a and 25b.
  • the calculation unit 28 for calculating the difference between signals an output signal having a specific wavelength with high sensitivity and good S / N ratio output from a light receiving pixel using a large and expensive bandpass filter.
  • a signal having a specific wavelength equivalent to the above can be obtained.
  • the calculation of the difference between the output signal output from the light receiving pixel 25a and the output signal output from the light receiving pixel 25b described above was performed by performing predetermined signal processing on each of the output signals by the signal processing unit 26 described later.
  • the signal intensity of a specific wavelength (a central wavelength having a predetermined wavelength width) is obtained by calculation in the calculation unit 28.
  • the calculation of the difference between the two output signals may be performed using an analog signal or a digital signal.
  • the calculation of the difference between the two output signals is preferably performed with a digital signal.
  • the sensor assembly 25 including the optical sensor 22 and the filter 24 may be arranged in parallel in rows and columns with a pair of light receiving pixels 25a and 25b as one set, or the sensor shown in FIG.
  • the light receiving pixels 25a and 25b may be arranged in a staggered manner, and the two light receiving pixels 25a and 25b may be used as a set of light receiving elements for obtaining a signal intensity of a specific wavelength.
  • the arrangement of the light receiving pixels 25a and 25b in the sensor assembly 25 is not particularly limited, and the paired light receiving pixels 25a and 25b are arranged close to each other, and a signal intensity of a specific wavelength is obtained from the light receiving pixels 25a and 25b. Any two arrangements may be used as long as two pixel signals to be obtained can be acquired.
  • the difference in half-value wavelength between the transmission spectrum A of the pair of filters 24a and the transmission spectrum B of the filter 24b used in the pair of light receiving pixels 25a and 25b of the sensor assembly 25 including the optical sensor 22 and the filter 24 is 200 nm or less. It is. That is, the absorption wavelengths of the filters 24a and 24b are different, the respective absorption edges are different, and the difference between the absorption edges is 200 nm or less at the half-value wavelength.
  • the object of the present invention Surrounding objects such as automobiles during automatic driving, for example, biological tissues such as blood vessels in endoscopy as described in Patent Documents 4 and 5, cultured in regenerative medicine as described in Japanese Patent Application No. 2015-041168 This is because it becomes difficult to individually discriminate or detect cell colonies, organic gas, PM2.5, organic liquid, liquid type, and the like.
  • a half-value wavelength is 200 nm or less.
  • the half-value wavelength difference is not particularly limited as long as it is 200 nm or less, and any number of half-value wavelength differences in the difference spectrum data necessary for determining the object 12 to be inspected. However, depending on the object 12, it may be 20 nm or less, 10 nm or less, or 5 nm or less.
  • the lower limit of the half-wavelength difference may be set according to the object 12 to be detected and is not particularly limited, but is preferably 1 nm or more from the viewpoint of manufacturability, and is 5 nm or more, or 10 nm or more. May be.
  • the filter 24a such as the filter 24a showing the transmission spectrum A and the filter 24b showing the transmission spectrum B is not particularly limited as long as it can be disposed on the light receiving surface of the optical sensor 22 and shows a necessary transmission spectrum.
  • the material of the filter 24 is not particularly limited, and a filter made of a photocurable resin composition is preferable.
  • the reason why a filter made of a photocurable resin composition is preferable is that, in order to create a filter pattern for obtaining a high-resolution two-dimensional image, photopatterning that facilitates obtaining high resolution is most preferable. This is because the functional resin composition is advantageous for forming a fine pattern, particularly a fine pattern.
  • a photocurable resin composition a polymeric compound, a polymerization initiator, and an alkali-soluble resin can be contained as main components.
  • the polymerizable compound for example, the description in paragraphs 0466 to 0494 of JP2012-208494A can be referred to, and the contents thereof are incorporated in the present specification. Only 1 type may be used for a polymeric compound and it may use 2 or more types together.
  • the compounding amount of the polymerizable compound can be 0.1 to 90% by mass of the solid content of the composition for forming an infrared transmitting film (hereinafter also referred to as “infrared transmitting composition”). ⁇ 50% by weight is preferred.
  • the description in paragraphs 0500 to 0547 of JP2012-208494A can be referred to, and the contents thereof are incorporated herein.
  • an oxime compound is preferable.
  • Specific examples of the oxime compound include compounds described in JP-A No. 2001-233842, compounds described in JP-A No. 2000-80068, and compounds described in JP-A No. 2006-342166.
  • IRGACURE-OXE01 manufactured by BASF
  • IRGACURE-OXE02 manufactured by BASF
  • IRGACURE-OXE03 manufactured by BASF
  • TR-PBG-304 manufactured by Changzhou Powerful Electronic New Materials Co., Ltd.
  • Adeka Arc There may be mentioned Luzu NCI-831 and Adeka Arcles NCI-930 (manufactured by ADEKA). Only one type of polymerization initiator may be used, or two or more types may be used in combination.
  • the blending amount of the polymerization initiator can be 0.1 to 20% by mass, preferably 0.5 to 5% by mass, based on the solid content of the infrared transmitting composition.
  • the alkali-soluble resin for example, the description in paragraphs 0558 to 0572 of JP2012-208494A can be referred to.
  • conventionally known photocurable resin compositions can be used in addition to the above-described ones.
  • the film thickness of the filter is not particularly limited, but is preferably 10 ⁇ m or less, and more preferably 3 ⁇ m or less.
  • the reason why it is preferable to set the film thickness of the filter 24 to 10 ⁇ m or less is that it is desired to reduce the thickness of the sensor assembly against the background of the demand for downsizing and thinning of the optical sensor device and the optical sensor unit. It is.
  • the half-value wavelength of the transmission spectrum of the filter is not particularly limited, and may be a visible region wavelength or an infrared region wavelength, but is preferably an infrared region wavelength of 700 nm or more, and preferably 750 nm or more. Is more preferable.
  • the optical sensor device 16 of the present invention is preferably an infrared sensor device used in an infrared sensor unit.
  • the reason why it is preferable to set the half-value wavelength of the transmission spectrum of the filter to an infrared region wavelength of 700 nm or more is that there are many characteristic absorption wavelengths of organic compounds in this region, so that the compound can be easily identified. It is also possible to detect an object in a dark place and to detect an object contained in a transparent object.
  • the cut filter 24b (infrared transmission film) showing the transmission spectrum B in FIG. 2B is produced using an infrared transmission film forming composition obtained by appropriately combining the following pigments with the photocurable resin composition. Specifically, the transmission spectrum of FIG. 5 is shown.
  • Diketopyrrolopyrrole pigment 1 The following structure (synthesized by the method described in JP-A-2009-263614) (colorant having an absorption maximum in the wavelength range of 800 to 900 nm) PR254: C.I. I. Pigment Red 254 -PB15: 6: C.I. I. Pigment Blue 15: 6 ⁇ PY139: Pigment Yellow 139 ⁇ PV23: Pigment Violet 23
  • the cut filter 24a (infrared transmitting film) showing the transmission spectrum A in FIG. 2 (B) is produced using an infrared transmitting film forming composition obtained by appropriately combining the following pigments with a photocurable resin composition. Specifically, the transmission spectrum of FIG. 6 is shown.
  • a mixed pigment composed of a red pigment (CI Pigment Red 254) and a yellow pigment (CI Pigment Yellow 139), a blue pigment (CI Pigment Blue 15: 6), and a purple pigment (C.I. Pigment Red 254).
  • Pigment Violet 23 A mixed pigment composed of a red pigment (CI Pigment Red 254) and a yellow pigment (CI Pigment Yellow 139), a blue pigment (CI Pigment Blue 15: 6), and a purple pigment (C.I. Pigment Red 254).
  • two types of cut filters that cut the short wavelength side are used as the filter 24.
  • the present invention is not limited to this, and three or more types of cut filters may be used. Two or more types of cut filters for cutting the sides may be used.
  • one type of specific wavelength is determined from the difference between output signals from two light receiving pixels each having two filters whose transmission spectra are adjacent to each other. Since signal intensity can be acquired, signal intensity of two or more types of specific wavelengths can be acquired.
  • three types of cut filters having different spectral transmittances shown in FIG. 7B may be used for each pixel of a set of three photosensors.
  • the three light receiving pixels 25a, 25b and 25c are arranged in a line.
  • Each of the filters 24a, 24b, and 24c shown in FIG. 7A has a spectral transmittance different from each other as shown in FIG. 7B, a difference between the half-value wavelengths of 200 nm or less, and a transmission spectrum A indicated by a solid line in FIG. 7B.
  • 7B shows a transmission spectrum B indicated by a one-dot chain line, and FIG.
  • FIG. 7B shows a transmission spectrum C indicated by a two-dot chain line. Therefore, in the set of the light receiving pixels 25a and 25b shown in FIG. 7A, the difference between the output signals to be output is the transmission spectrum A shown by the solid line in FIG. 7B of the filter 24a and the transmission spectrum shown by the dashed line in FIG. A signal intensity of a specific wavelength equivalent to a signal obtained from a light receiving pixel of a light receiving element using an equivalent bandpass filter having a transmission spectrum indicated by (AB) in FIG. 7C obtained by subtracting B is obtained. be able to.
  • the difference between the output signals output from the transmission spectrum B shown by the one-dot chain line in FIG. 7B of the filter 24b is two points in FIG. 7B of the filter 24c.
  • a specific wavelength equivalent to a signal obtained from a light receiving pixel of a light receiving element using an equivalent bandpass filter having a transmission spectrum indicated by (BC) in FIG. 7C, which is obtained by subtracting the transmission spectrum C indicated by a chain line. Can be obtained.
  • signal intensity of two types of specific wavelengths equivalent to the case of using two types of band-pass filters can be obtained using three types of cut filters having a difference in half-value wavelength of the transmission spectrum. .
  • the signal processing unit 26 performs predetermined signal processing, for example, pre-processing on a plurality of sets of two or more received light signals detected by the optical sensor 22 and outputs the signals as a plurality of sets of two or more output signals.
  • predetermined signal processing for example, pre-processing on a plurality of sets of two or more received light signals detected by the optical sensor 22 and outputs the signals as a plurality of sets of two or more output signals.
  • AFE Analog Front End
  • the output signal of each pixel of the photosensors 22 of the plurality of sets of light receiving pixels 25a and 25b of the sensor assembly 25 is subjected to, for example, noise removal by correlated double sampling and amplification by an amplifier.
  • the analog signal is converted into a digital signal by the / D converter, and is output to the arithmetic unit 28 as a digital image signal.
  • the signal processing unit 26 in order to ensure the accuracy of the signal, a range of intensity to be handled as a genuine signal, that is, a predetermined allowable minimum intensity and a predetermined allowable maximum intensity are determined in advance, and the predetermined allowable minimum intensity is determined. It is also possible to remove signals less than or less than a predetermined allowable maximum intensity as noise that is not a genuine signal.
  • the calculation unit 28 calculates the difference between the two types of output signals of the pair of light receiving pixels 25a and 25b in the state of an analog signal, the A / D converter is provided in the calculation unit 28.
  • the calculation unit 28 calculates two sets of two filters 24 corresponding to two or more types of filters 24 by subtracting the difference between the two types of output signals for each set from the plurality of types of two or more types of output signals output from the signal processing unit 26.
  • the inverse operation is performed from the waveform of the absorption spectrum of the transmitted light, and the signal intensity of one or more specific wavelengths is obtained for each set.
  • the calculation unit 28 calculates a difference between two types of output signals from the pair of light receiving pixels 25a and 25b of the sensor assembly 25 output from the signal processing unit 26 with a digital signal or an analog signal, and outputs a specific wavelength. Determine the signal strength of.
  • This calculation is performed for each of a plurality of sets of the light receiving pixels 25a and 25b, and is calculated as a plurality of image signals necessary for capturing the object 12 as an image. If the calculated image signal is a digital image signal, it is output to the object detection device 18 as it is. When the calculation of the difference between the two types of output signals is performed on an analog signal, the calculated analog image signal is converted into a digital signal by an A / D converter, and the target object is converted into a digital image signal. Needless to say, it is output to the detection device 18.
  • two or more types of filters 24 are arranged on the optical sensor 22, and two or more adjacent pixels of the optical sensor 22 are arranged in a two-dimensional manner to detect reflected light from the object 12. Then, by calculating the difference between the two types of output signals from the output signals of the light sensor 22 of the light transmitted through the two or more types of filters 24, the signal intensity of the specific wavelength is detected imagewise. Acquired as an image signal.
  • the optical sensor 22 automatically detects reflected light from the object 12 through the filter 24 at a predetermined sampling time interval, that is, at a predetermined time interval, and the calculation unit 28 obtains the signal intensity of a specific wavelength. ing.
  • the signal intensity of the specific wavelength is measured by time resolution by the optical sensor 22 and the calculation unit 28 including the filter 24. Therefore, the calculation unit 28 can obtain a temporal change (time differential value) of the signal intensity of the specific wavelength from the signal intensity of the specific wavelength at the preceding and following sampling times. In other words, the calculation unit 28 can obtain the time change (time differential value) of the image signal related to the specific wavelength.
  • the time change of the signal intensity of the specific wavelength may be obtained by simply obtaining the difference in signal intensity of the specific wavelength at the preceding and succeeding sampling times and dividing the difference by the time interval, but is not particularly limited.
  • the signal intensity of the specific wavelength is obtained as the digital image signal of the specific wavelength in the calculation unit 28, the light of the specific wavelength is extracted by extracting the signal of the predetermined signal intensity from the obtained image signal.
  • the two-dimensional shape information representing the shape of the object 12 extracted in step 1 can be obtained. Therefore, the time change of the image signal related to the specific wavelength obtained by the calculation unit 28 can be said to be information indicating the time change of the two-dimensional shape information of the object 12, for example, information indicating the movement of the object 12. .
  • the method for obtaining the two-dimensional shape information is not particularly limited, and can be obtained by a known method. From the above, in the calculation unit 28, it is preferable to obtain the two-dimensional shape information of the object 12 obtained from the time change of the signal intensity and the signal intensity of the specific wavelength in addition to the signal intensity of the specific wavelength.
  • the memory 30 temporarily stores the light reception signal detected by the optical sensor 22, the output signal output from the signal processing unit 26, and / or the signal intensity of the specific wavelength obtained by the calculation unit 28 as necessary. Is for. Accordingly, the light reception signal output from the optical sensor 22 can be sequentially processed by the signal processing unit 26, the output signal from the signal processing unit 26 can be sequentially calculated by the calculation unit 28, and the signal intensity of the specific wavelength calculated from the calculation unit 28 is obtained. Can be sequentially transmitted to the object detection device 18, the memory 30 may not be provided.
  • the memory 30 can receive the light reception signal from the optical sensor 22, temporarily store and store the light reception signal, and send the stored light reception signal to the signal processing unit 26. In this case, since the received light signal is an analog signal, the memory 30 includes an analog memory such as a sample hold.
  • the memory 30 can receive and store the processed output signal from the signal processing unit 26, and the arithmetic unit 28 can preferably read the output signal stored from the memory 30.
  • the memory 30 needs to be an analog memory, and when the processed output signal is a digital signal, the processed output signal is temporarily stored so as to be readable. Equipped with a digital memory.
  • the memory 30 since the signal intensity of the specific wavelength calculated from the calculation unit 28 is a digital signal, the memory 30 includes a digital memory.
  • the memory 30 is not particularly limited, and a known analog memory and / or a known digital memory can be used.
  • the memory 30 is preferably configured as a digital memory that stores a digital signal such as a processed output signal and a signal intensity of a specific wavelength. Further, it is preferable that the signal processing unit 26, the calculation unit 28, the memory 30 and the like of the optical sensor device 16 are integrated as described later.
  • the optical sensor device 16 of the present embodiment is basically configured as described above.
  • the comparison unit 32 detects the detection data detected by the optical sensor device 16, for example, the signal intensity of the specific wavelength calculated by the calculation unit 28, the time change of the signal intensity, and the signal intensity of the specific wavelength obtained from the signal 12 of the specific wavelength.
  • One or more types of detection data selected from the two-dimensional shape information are compared with setting data corresponding to a preset object 12 previously stored in the memory 36 or the like.
  • the detection data and setting data are preferably handled as two-dimensional image data.
  • the method of comparing the detection data and the setting data performed by the comparison unit 32 is not particularly limited, and pattern matching, for example, setting data is used as template image data, and the degree of coincidence between the detection image data and the template image data is determined.
  • a known method such as template matching for comparing the detected image data and the template image data may be performed.
  • the time change of the signal intensity of the specific wavelength and the two-dimensional shape information of the object 12 obtained from the signal intensity of the specific wavelength are calculated by the calculation unit 28 of the optical sensor device 16.
  • the present invention is not limited to this, and the comparison unit 32 may calculate from the signal intensity of a specific wavelength sent from the calculation unit 28.
  • the comparison result between the detection data and the setting data in the comparison unit 32 is sent to the determination unit 34 in the subsequent stage.
  • the discriminating unit 34 discriminates or detects (detects) whether or not the obtained detection data represents the object 12 based on the comparison result between the detection data obtained by the comparison unit 32 and the setting data. To do.
  • the determination of whether or not the object 12 is in the determination unit 34 can be determined, for example, by the degree of coincidence between the detection data obtained by the comparison unit 32 and the setting data.
  • the value of the degree of coincidence necessary to determine that the object 12 is the object 12 depends on the type, state, shape, and / or purpose of the detection / detection (detection) of the object 12 that is the object to be determined, and the object 12.
  • the object 12 Since it depends on the required discrimination / detection accuracy and the like, it may be set as appropriate according to the type, state, and shape of the object 12, and / or the purpose of discrimination / detection (detection), the required accuracy of discrimination / detection, etc. . That is, if the degree of coincidence according to the comparison result between the detection data and the set data is equal to or greater than the value set according to the object 12, the purpose and / or accuracy of the determination / detection, the object 12 is determined. You may set as follows. The determination result of whether or not the object 12 is in the determination unit 34 or the detection (detection) result (hereinafter represented by the determination result) is sent to the output unit 38.
  • the memory 36 stores the signal intensity of the specific wavelength obtained in the calculation unit 28 of the optical sensor device 16, the time change of the signal intensity of the specific wavelength obtained in the calculation unit 28 or the comparison unit 32, and the two-dimensional shape of the object 12.
  • Information and setting data corresponding to the preset object 12 are stored.
  • the signal intensity of the specific wavelength, its time change, the two-dimensional shape information of the target object 12, and the setting data corresponding to the preset target object 12 are digital data, and the memory 36 stores these digital data. Since it is a thing, it is a digital memory.
  • the memory 36 is not particularly limited, and a known digital memory can be used.
  • the memory 36 may receive and store the signal intensity of a specific wavelength, its temporal change, and the two-dimensional shape information of the object 12 from the calculation unit 28 of the optical sensor device 16, or may be stored by the comparison unit 32.
  • the signal intensity of the specific wavelength, the time change thereof, the two-dimensional shape information of the object 12, and the setting data may be read out, or the comparison result may be received from the comparison unit 32 and stored.
  • the comparison result stored by the determination unit 34 may be read out.
  • the memory 36 and the memory 30 may be integrated as one memory.
  • the output unit 38 outputs the discrimination result in the discrimination unit 34.
  • the output unit 38 is for outputting the data of the determination result to the outside of the optical sensor unit 10, and for example, the controller unit 41 (see FIG. 8 and FIG. 10, hereinafter referred to as “controller 41”) to be described later. It has a function of a communication unit that transmits the result data and receives a control signal of the optical sensor unit 10 from the controller 41.
  • the output unit 38 is not limited to this, and the determination result data is stored in an external memory, a hard disk, a PC (personal computer), a server such as a server 42 described later, or a USB (Universal Serial Bus) memory. It may be for outputting to various memories.
  • the output unit 38 may be a display device such as a display or a monitor that displays the determination result as a soft copy on a display screen, or may be a printer that prints a hard copy on a medium such as paper.
  • the comparison unit 32, the determination unit 34, the memory 36, and the like of the object detection device 18 are preferably integrated as described later.
  • the signal processing unit 26, the calculation unit 28, the memory 30, and the like of the optical sensor device 16 and the comparison unit 32, the determination unit 34, the memory 36, and the like of the object detection device 18 are integrated into an IC. You can keep it.
  • the object detection device 18 and the optical sensor unit 10 of the present embodiment are basically configured as described above.
  • FIG. 8 is a block diagram schematically showing an example of an optical sensor system according to the first embodiment of the present invention that includes a plurality of optical sensor units according to the first embodiment of the present invention shown in FIG. 8 includes a plurality of optical sensor units 10a, 10b,..., 10c, a controller unit 41, a server 42, and a big data memory 44.
  • the optical sensor units 10a, 10b,..., 10c of the optical sensor system 40 of the first embodiment shown in FIG. 8 are exactly the same as the optical sensor unit 10 of the first embodiment shown in FIG. Are denoted by the same reference numerals, and the description thereof is omitted.
  • Each of the plurality of optical sensor units 10b,..., 10c has the same configuration as the optical sensor unit 10a, but the set of filters 24a and 24b of each optical sensor unit 10a, 10b,.
  • Each light sensor unit may have the same light transmission spectrum, or may be different for each light sensor unit depending on the object 12. For example, when the inspection object is specified as one object 12, the same set of filters 24 a and 24 b may be used, and when the inspection object covers a plurality of objects 12, Accordingly, a set of filters 24a and 24b having an appropriate transmission spectrum may be used.
  • the controller unit 41 determines the object 12 to be discriminated, extracts the characteristics of the object 12 from the past data related to the object 12, and the conditions corresponding to the object 12 based on the extracted characteristics of the object 12 Are determined in advance as setting data corresponding to the object 12, and the determination results of the plurality of optical sensor units 10a, 10b,..., 10c are received, integrated, and transmitted to the server 42. In addition, in order to obtain the respective determination results, each of the plurality of optical sensor units 10a, 10b,..., 10c is controlled, and the setting data corresponds to the object 12 accumulated on the network. The setting data to be set is set, and each optical sensor unit 10a, 10b,..., 10c is instructed to start measurement.
  • the controller unit 41 includes a communication unit 50, an integration unit 52, an input unit 54, a condition determination unit 56, and a control signal generation unit 58.
  • the communication unit 50 is for performing communication with the optical sensor units 10a, 10b,..., 10c, and with the server 42, for example, wired or wireless communication, from the optical sensor units 10a, 10b, and 10c.
  • a communication signal a wired or wireless signal
  • the communication unit 50 communicates past data (big data or data extracted from big data) accumulated in the past regarding the target object 12 that is used to extract the characteristic condition of the target object 12 from the server 42.
  • the signal is received as a signal, the past data is sent to the condition determining unit 56, and the control signals of the optical sensor units 10a, 10b,. It is for sending.
  • the integration unit 52 determines each determination result from the plurality of optical sensor units 10a, 10b,..., 10c received by the communication unit 50 (the determination unit 34 of the object detection device 18 of each optical sensor unit 10a, 10b,. Are classified for each optical sensor unit 10a, 10b,..., 10c, and integrated, and integrated data of the integrated determination results is transmitted from the communication unit 50 to the server 42.
  • the input unit 54 is used to input various information about the target object 12 and / or various conditions, and a known input device such as a keyboard and a cursor is used.
  • the condition determining unit 56 determines an object to be discriminated or detected based on various information about the target object 12 input from the input unit 54 and / or various conditions, and the communication unit 50.
  • the feature condition representing the feature or the feature of the object 12 is extracted, and the feature of the extracted object 12 or Based on the characteristic condition, a condition corresponding to the object 12, for example, a detection condition for the object 12 is determined, set in advance as setting data corresponding to the object 12, and a plurality of optical sensor units 10 a, 10 b,. 10c, and other various sensor control conditions and the like.
  • the control signal generation unit 58 is for generating a control signal based on the detection condition and the control condition determined by the condition determination unit 56.
  • the control signal generation unit 58 is set for each of the generated control signals, for example, the plurality of optical sensor units 10a, 10b,..., 10c, and the setting data corresponding to the object 12 to be determined or detected. .., 10c is transmitted to the plurality of optical sensor units 10a, 10b,..., 10c via the communication unit 50.
  • the server 42 sends past data (big data or extracted data thereof) related to the object 12 to the controller unit 41, and the integrated data of the determination result corresponding to the object 12 sent from the controller unit 41 for each object 12. In addition, it is for classifying and accumulating as past data as necessary, and the determination condition of the condition determination unit 56 can be changed via the communication unit 60 and the integration unit 52. Is. There is an advantage that discrimination based on the latest information is always possible by automatically generating discrimination conditions from data accumulated in big data.
  • the server 42 includes a communication unit 60, a server main body 62, an output unit 63, and a database 64 included in the server main body 62.
  • the communication unit 60 is for performing wireless or wired communication with the controller unit 41, and the integrated data of the discrimination results of the optical sensor units 10a, 10b,. Are sent to the server main body 62, and conversely, the past data (big data or extracted data) relating to the object 12 is read from the database 64 in the server main body 62 and transmitted to the controller unit 41 as a communication signal. Furthermore, it is for receiving big data stored in the big data memory 44 such as a cloud or other database on the network via the Internet.
  • the server main body 62 is for providing necessary data, software, and services to clients such as the controller unit 41, and various data therein, in particular, data related to the target object 12 in the present invention.
  • the database 64 stores the integrated data of the discrimination results and past data on the integrated data.
  • the output unit 63 outputs various types of data handled by the server 42 and data related to the object 12, for example, integrated data of discrimination results and / or past data, and transmits and receives data in the same manner as the output unit 38. And a function for outputting and storing data in an external memory, a function for displaying data on a display screen as a soft copy, and a function for printing as a hard copy.
  • the optical sensor system of the first embodiment is basically configured as described above.
  • FIG. 9 is a block diagram schematically showing an example of an optical sensor system according to the second embodiment of the present invention that includes the optical sensor unit according to the second embodiment of the present invention.
  • the optical sensor system 40A of the second embodiment shown in FIG. 9 includes an integrated controller unit in which a plurality of optical sensor devices 16a, 16b,..., 16c, one object detection device 18a, and one controller unit 41a are integrated. 19, a server 42, and a big data memory 44.
  • the optical sensor system 40A of the second embodiment shown in FIG. 9 includes the optical sensor system 40 of the second embodiment shown in FIG. 8 and the object detection device 18 for each of the optical sensor units 10a, 10b,.
  • the optical sensor device 16a of the optical sensor system 40A has the same configuration except that the single object detection device 18a is integrated with the single controller unit 41a.
  • integrated unit 19 an integrated controller unit (hereinafter simply referred to as “integrated unit”) 19 are object detection devices 18a of the optical sensor unit 10 of the first embodiment shown in FIGS. Since the optical sensor device 16 and the object detection device 18 are included, the same components are denoted by the same reference numerals, and Description thereof will be omitted.
  • the optical sensor device 16 a includes a lens 20, an optical sensor 22, a filter array including a plurality of sets of two or more types of filters 24, a signal processing unit 26, and the like. , An arithmetic unit 28, a memory 30, and a communication unit 46 that wirelessly transmits detection data and control signals.
  • the communication unit 46 is sent from the calculation unit 28 such as the signal intensity of the specific wavelength calculated by the calculation unit 28 and acquired imagewise, the time change of the signal strength, and the two-dimensional shape information of the object 12.
  • the detection data is received from the calculation unit 28, converted into a radio signal, wirelessly transmitted to the object detection device 18a of the integration unit 19, and the plurality of optical sensor devices 16a, 16b, ..., 16c are controlled from the integration unit 19.
  • a control signal for example, a radio signal of a control signal such as a transmission timing such as a signal intensity of a specific wavelength is wirelessly received.
  • the plurality of optical sensor devices 16b,..., 16c all have the same configuration as the optical sensor device 16a, but the set of filters 24a and 24b of each optical sensor device 16a, 16b,.
  • the light transmission spectrum may be the same, or may be different for each optical sensor device depending on the object 12.
  • the same set of filters 24 a and 24 b may be used, and when the inspection object covers a plurality of objects 12, Accordingly, a set of filters 24a and 24b having an appropriate transmission spectrum may be used.
  • the integration unit 19 includes an object detection device 18a including a communication unit 48, an integration unit 53, a comparison unit 32, a determination unit 34, a memory 36, and an output unit 38, a communication unit 51, an input unit 54, a condition determination unit 56, And a controller unit 41a including a control signal generator 58.
  • 9 differs from the object detection device 18 shown in FIGS. 1 and 8 in that it includes a communication unit 48 and an integration unit 53. Further, the controller unit 41a shown in FIG. 9 does not have the integration unit 52 and the controller unit 41 shown in FIG. 8, and the function of the communication unit 51 is communication between the communication unit 50 and the server 42. It is different.
  • the communication unit 48 displays the signal intensity of a specific wavelength from the plurality of optical sensor devices 16a, 16b,..., 16c, the time change of the signal intensity, the two-dimensional shape information of the object 12, and the like. While receiving as a communication signal, it is for transmitting the control signal produced
  • the integration unit 53 outputs the signal intensity of a specific wavelength from the plurality of optical sensor devices 16a, 16b,..., 16c received by the communication unit 48, the time change of the signal intensity, and the two-dimensional shape information of the object 12 and the like. .., 16c are classified into each of the sensor devices 16a, 16b,..., 16c and integrated for each of the optical sensor devices 16a, 16b,.
  • the comparison unit 32 and the discrimination unit 34 serve as detection data for comparing data and discriminating an object.
  • the integration unit 53 may not be provided or may be passed through.
  • the communication unit 51 does not perform communication with the optical sensor units 10a, 10b,..., 10c, but performs communication with the server 42.
  • the communication function with 42 is the same.
  • the condition determining unit 56 has the same configuration as the condition determining unit 56 of the controller unit 41 shown in FIG. 8, but the conditions to be determined, that is, the control conditions are controlled by the plurality of optical sensor devices 16a, 16b,. It has the same function except that it is different in terms of conditions.
  • the control signal generator 58 has the same configuration as the control signal generator 56 of the controller unit 41 shown in FIG. 8, but the generated control data such as setting data and measurement start signal are a plurality of optical sensor devices 16a and 16b. ,..., 16c, and has the same function except that such control signals are transmitted to the plurality of optical sensor devices 16a, 16b,.
  • the server 42 sends past data (big data or extracted data thereof) related to the object 12 to the controller unit 41a of the integration unit 19, and the integrated data of the determination result corresponding to the object 12 sent from the controller unit 41a. It accumulates for each object 12, and is classified and accumulated as past data as necessary, and the determination condition of the condition determining unit 56 is changed via the communication units 60 and 51. It is also possible. There is an advantage that discrimination based on the latest information is always possible by automatically generating discrimination conditions from data accumulated in big data.
  • the server 42 has the same configuration as the server 42 shown in FIG.
  • the integration unit 53 is disposed between the communication unit 48 and the comparison unit 32 of the object detection device 18 a, but without the integration unit 53, the integration unit 53 is disposed downstream of the determination unit 34.
  • an integration unit having the same function as the integration unit 52 shown in FIG. 8 may be arranged in the object detection device 18a or in the controller unit 41a.
  • the integrated unit 19 includes the communication unit 51 and the output unit 38 having similar functions. However, the output unit 38 is provided by giving the communication unit 51 part or all of the functions of the output unit 38.
  • the communication unit 48 and the communication unit 51 may be integrated into a single communication unit.
  • the optical sensor system of the second embodiment is basically configured as described above.
  • FIG. 10 shows a specific application example of the photosensor system of the first embodiment shown in FIG.
  • An optical sensor system 40B illustrated in FIG. 10 includes a plurality of optical sensor units 17 (17a, 17b, 17c), a controller unit 41, a server 42, and a big data memory 44.
  • the plurality of optical sensor units 17 (17a, 17b, 17c) in the optical sensor system 40B shown in FIG. 10 includes the optical sensor units 10 (10a, 10b, 10c) shown in FIGS. Therefore, the same number is attached
  • the plurality of optical sensor units 17 have a target object 12 such as a building or factory equipment 12a, a living body 12b, for example, a living body tissue, or a surrounding object 12c such as an automobile during automatic driving. Therefore, infrared laser light is condensed by three kinds of condenser lenses 20c of the lens array 21b from three kinds of infrared lasers (light sources) 14 attached to the object 12 incidentally to the optical sensor unit 17, respectively.
  • the active signal Sa is irradiated, and three kinds of reflected light from the object 12 are received as the target signal Sp.
  • the reflected light incident on the optical sensor unit 17 includes not only the target signal Sp from the object 12 but also attenuation noise Na such as atmospheric absorption and scattering and environmental noise Ne such as ambient heat and reflected scattered light. It is.
  • the optical sensor unit 17 includes a lens 20 including a single large lens 20a and a microlens array 21a in which microlenses 20b are arranged in an array, as shown in FIG. 7A.
  • a filter (microfilter array) 24 in which three types of filters (microfilters) 24a, 24b, and 24c are arranged in an array, and an optical sensor 22 in which pixels are arranged corresponding to the filters 24a, 24b, and 24c.
  • the optical sensor unit 17 is provided with three types of infrared lasers 14 attached in the vicinity of the substrate of the optical sensor 22, and three types of lenses 20c in the lens array 21b attached in the vicinity of the macro lens array 21a. Is provided.
  • the macro lens array 21a constituting the lens 20 is an array of micro lenses 20b provided corresponding to the respective pixels of the optical sensor 22, and the micro lens 20b is condensed by the lens 20a to generate light.
  • the incident light incident on each pixel of the sensor 22 is collected.
  • the three types of filters 24a, 24b, and 24c of the filter 24 and the corresponding pixels of the photosensor 22 constitute three types of light receiving pixels 25a, 25b, and 25c.
  • the filter 24 and the optical sensor 22 constitute a sensor assembly 25B in which three types of light receiving pixels 25a, 25b, and 25c are arranged in an array.
  • the signal processing IC 66 is obtained by integrating the signal processing unit 26, the calculation unit 28, the memory 30 and the like shown in FIGS. 1 and 8 into an IC, and is obtained by a plurality of sets of three types of light receiving pixels 25a, 25b, and 25c. Three types of output signals (light reception signals) are preprocessed by the signal processing unit 26, and the difference between the two types of output signals of each set from the preprocessed signals, that is, a plurality of sets of three types of output signals, is obtained.
  • the signal intensity of two types of specific wavelengths is calculated as a digital image signal and sent to the data processing IC 68 at the subsequent stage.
  • the data processing IC 68 is an IC formed from the comparison unit 32, the control unit 26, the memory 36, etc.
  • the signal processing IC 66 obtains signal intensities of two types of specific wavelengths obtained as digital image signals.
  • One or more types of detection data selected from the two-dimensional shape information of the object 12 and the time change of the signal intensity of the specific wavelength are compared with setting data corresponding to the object 12 preset by the comparison unit 32.
  • the determination unit 34 determines whether the object 12 is present, and sends the determination result in the determination unit 34 to a subsequent IC, for example, the communication IC 72.
  • the system control IC 70 is for controlling the entire system configuration constituting the optical sensor unit 17, and is based on the control conditions and control signals of the optical sensor unit 17 itself and the control conditions and control signals received from the controller unit 41. Specifically, the optical sensor unit 17 itself controls the optical sensor 22, the signal processing IC 66, the data processing IC 68, the communication IC 72, the power supply IC 74, and the like.
  • the system control IC 70 receives the measurement start instruction signal from the controller unit 41, sets the measurement conditions and detection conditions from the controller unit 41, and determines the status of the object 12, and determines that measurement is possible. Then, control is performed to start the measurement.
  • the system control IC 70 compares the signal of the characteristic wavelength of the light transmitted through each filter 24, its temporal change, and the shape with a condition corresponding to the preset object 12, and determines whether or not the object 12 is present. You may do it. In this case, an inquiry regarding the determination may be made to the controller unit 41 as necessary. Further, after determining whether or not the object 12 is present, the determination result may be transmitted and reported to the controller unit 41 so that the optical sensor unit 17 waits for the next instruction.
  • the communication IC 72 is an IC formed from the output unit 38 functioning as the communication unit shown in FIG. 8, receives the determination result obtained by the data processing IC 68, converts it into a communication signal, transmits it to the controller unit 41, and A control signal for controlling the plurality of optical sensor units 17 (17a, 17b, 17c) is received from the controller unit 41.
  • the power supply IC 74 controls the power supply of the optical sensor unit 17.
  • FIG. 11 is a flowchart showing an example of a flow of object detection performed in the optical sensor system 40B of the first embodiment shown in FIG.
  • the controller unit 41 in step S10, the object 12 is determined and input from the input unit 54, for example.
  • the condition determination unit 56 extracts the feature condition of the object 12 from the big data (past data) obtained from the server 42 and / or the big data memory 44.
  • the condition determination unit 56 determines a detection condition corresponding to the target object 12 from the extracted characteristic conditions of the target object 12.
  • a measurement start signal instructing the start of measurement is transmitted from the control signal generation unit 58 of the controller unit 19 to each of the optical sensor units 17 (17a, 17b, 17c).
  • the system control IC 70 receives the measurement start instruction signal from the controller unit 41, sets the measurement conditions and detection conditions, and determines the status of the object 12, If it is determined that measurement is possible, control is performed to start measurement.
  • the laser 14 loaded with a specific signal (Sa) suitable for object detection is caused to emit light toward the object, and the laser light is emitted toward the object.
  • a light reception signal synchronized with a specific signal (Sa) is detected by the sensor assembly 25B including the filter 24 and the optical sensor 22, and a predetermined signal processing is performed by the signal processing IC 66 and transmitted through each filter 24.
  • the characteristic wavelength signal of the obtained light, its temporal change, and shape data are acquired.
  • step S24 the data processing IC 68 uses the characteristic wavelength signal of the light transmitted through each filter 24, its temporal change, and the shape data in the condition corresponding to the preset object 12 and the comparison unit 32.
  • the determination unit 34 determines whether the object 12 is compared or not. In this case, the system control IC 70 may make an inquiry to the controller unit 41 regarding the determination by the data processing IC 68 as necessary.
  • step S26 after the data processing IC 68 determines whether or not the object 12 is present, the determination result is transmitted to the controller unit 41, and the optical sensor unit 17 is set in a state of waiting for the next instruction.
  • step S28 when an inquiry is made from the system control IC 70 of the optical sensor unit 17 to the controller unit 41 regarding the determination by the data processing IC 68, the controller unit 41 uses the condition determination unit 56 in response to the inquiry.
  • the determination support information of the object 12 is determined while referring to the big data (past data), and the determination support information of the object 12 is transmitted to the system control IC 70 of the optical sensor unit 17.
  • the process returns to step S24, and the data processing IC 68 determines whether or not the object 12 is also using the determination support information of the object 12 obtained by the system control IC 70.
  • step S26 the determination result is transmitted to the controller unit 41, and the optical sensor unit 17 is set in a state of waiting for the next instruction.
  • step S30 the controller unit 41 issues an instruction to another device in response to the transmitted determination result, confirms the result, and issues a new instruction to the optical sensor unit 17. Thereafter, the process returns to step S18.
  • the optical sensor system and its object detection flow according to the first embodiment of the present invention are basically configured as described above.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Optics & Photonics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Geophysics (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Optical Filters (AREA)
  • Photometry And Measurement Of Optical Pulse Characteristics (AREA)
  • Geophysics And Detection Of Objects (AREA)

Abstract

光センサデバイスは、小型で、安価でも感度が高く、S/N比が高く、単位面積当たりの素子数を多くすることができ、対象物からの特定波長の信号を、低下させることなく高い強度でかつ低ノイズの信号として的確に取得することができる。光センサデバイスは、互いに透過スペクトルの半値波長が200nm以下の差を有する2種以上のフィルタと、2種以上のフィルタをそれぞれ透過した光を検出し、2種以上の出力信号を出力する1つ以上の光センサと、演算部と、を有し、演算部は、2種以上の出力信号の内の2つの出力信号の差分を2種以上のフィルタの対応する2つのフィルタを透過した光の吸収スペクトルの波形からそれぞれ逆演算して、1種以上の特定波長の信号強度を求める。光センサユニット、及び光センサシステムは、上記光センサデバイスを用いる。

Description

光センサデバイス、光センサユニット及び光センサシステム
 本発明は、光センサデバイス、光センサユニット及びこれを用いる光センサシステムに係り、詳しくは、互いに透過スペクトルの半値波長の差が200nm以下であるフィルタを備える光センサからの信号を用いて、特定波長の信号強度を求めるための光センサデバイス、これを用いて得られた検出データから対象物か否かを判別する光センサユニット及びこの光センサユニットを用いる光センサシステムに関する。
 近年、光を用いて、様々な対象物を検出する対象物検出装置が提案されている。対象物としては、例えば様々な建造物、又は様々な工場設備等が挙げられ、また、自動運転中の自動車等の周辺の物体、例えば他の自動車、路肩、建造物、信号機等の物体や、人間又は動物等の生体等が挙げられる。
 このような対象物検出装置としては、例えば、特許文献1~3には、それぞれ、赤外線を用いて、人体又は物体を検出する赤外線センサ、赤外線撮影装置、及び赤外線検出装置が開示されている。
 また、特許文献4及び5には、狭帯域光を用いて、人体内の血管情報を検出する内視鏡システムが開示されている。
 さらに、特許文献6には、狭帯域光を用いて、検出対象物体の3次元形状、及び/又は動きを検出する物体検出装置が開示されている。
 特許文献1は、特定波長λ1、例えば5μm以上の赤外線をカットするフィルタを透過した赤外線を検出する第1の赤外線受光素子の出力信号と、上述のフィルタを透過させずに直接赤外線を検出する第2の赤外線受光素子の出力信号との差分をとることにより、フィルタのカット波長を下限とする波長帯λ1~λ2、例えば5μm~14μmの赤外線に感度を有する赤外線センサを開示している。特許文献1は、更に、第1及び第2赤外線受光素子の前面に、可視光を含む、例えば1μm以下の光をカットするためのフィルタを取り付けることも開示している。特許文献1に開示の赤外線センサでは、干渉フィルタを用いず、検出対象物の背景温度に影響されないで、人体の存在を検出する人感センサとして好適に使用できるとしている。
 特許文献2は、検出エリア内に人体が存在すると、5μm~15μmの波長に赤外線が放射されるので、赤外線波長透過帯域が0.2μm~15μm程度の第1の赤外線フィルタを透過した赤外線を検出する第1の赤外線検出素子、例えばサーモパイル素子の出力と、赤外線波長透過帯域が0.2μm~5μm程度の第2の赤外線フィルタを透過した赤外線を検出する第2の赤外線検出素子(サーモパイル素子)の出力とを差動接続することにより得られる人体検出出力が所定レベルよりも大きい出力となり、検出エリア内の人体の存在を検出することができる赤外線検出装置を開示している。特許文献2では、赤外線検出素子の周囲温度の変化および背景温度等による影響を受けることなく検出対象を静止状態でも安定して検出することができるとしている。
 特許文献3は、第1の赤外波長域、例えば3~5μm帯域の中赤外線に感度をもつ第1の赤外線受光部を有する第1の赤外線検出素子と、第2の赤外波長域、例えば8~12μm帯域の遠赤外線に感度をもつ第2の赤外線受光部を有する第2の赤外線検出素子と、中赤外線は透過せず遠赤外線を透過させる波長選択フィルタとを具備する赤外線撮像装置を開示している。特許文献3では、分光手段を用いず、また単一の光検出素子を用いて2波長の赤外線を同時に撮像することができ、中赤外線又は遠赤外線の1波長の赤外線では分離できない3物体を効果的に分離することができるとしている。
 一方、特許文献4及び5は、体腔内の血管を含む被写体組織に互いに異なる波長領域の複数の狭帯域光を照射し、それぞれの反射光を受光した撮像素子から出力された複数の狭帯域信号を用いて血管内の酸素飽和度等の血管情報を算出する内視鏡システムを開示している。特許文献4及び5では、共に、撮像素子としてR(赤)色、G(緑)色、及びB(青)色の3色のカラーフィルタが設けられたRGBカラーセンサを用いているが、特許文献4では、複数の狭帯域光を、それぞれ異なるレーザによって生成しているのに対し、特許文献5では、白色光源からの白色光からバンドパスフィルタ、例えばマルチバンドパスフィルタで複数の狭帯域光を分離して透過させることによって複数の狭帯域光を生成している。特許文献4及び5では、製造コストの増加や装置構成の複雑化を招くことなく、血管に関する酸素飽和度等の血管情報の測定精度の向上を図ることができ、ロバスト性を向上させることができるとしている。
 特許文献6は、レーザやLED(発光ダイオード:Light Emitting Diode)からのドッドパターンを持つレーザ光等の狭帯域光を検出対象物体に照射し、その反射光をCMOS(相補性金属酸化膜半導体:Complementary Metal Oxide Semiconductor)イメージセンサ等の光検出器に入射させる際に、光検出器に入射する光の波長帯域を1以上のバンドパスフィルタを用いて絞り、照射された狭帯域光の波長帯域を含む範囲のみに制限することにより、距離検出の精度を高め、検出対象物体の奥行き方向の形状を含む3次元形状、及び動きを高精度に検出する物体検出装置を開示している。
特開2005-207830号公報 特開平05-256698号公報参照 特開平11-297973号公報参照 特開2014-194028号公報 特開2013-063097号公報 特開2014-112033号公報
 ところで、上述した特許文献1及び2に開示の従来の赤外線センサや検出装置では、5μm~14μm、又は5μm~15μmの広波長領域の赤外線の信号を用いるものであるので、検出エリア内の人体の存在の検出を行うには適しているが、人体の姿勢なども含めた3次元形状、動き又は人体の各部までの距離などを高精度に検出することができないという問題があった。
 また、特許文献3に開示の撮像装置でも、3~5μmの広波長領域の中赤外線の信号と8~12μmの広波長領域の遠赤外線の信号とを用いるものであるので、これらの中赤外線と遠赤外線とによって3物体を分離することはできるが、対象物の3次元形状、動き又は各部までの距離などを高精度に検出することができないという問題があった。
 一方、特許文献4~6に開示の技術のように、対象物の情報、例えば対象物の3次元形状、動き又は距離、若しくは状態を正確に得るためには、狭帯域光の信号を得ることが必要になる。
 このため、特許文献4に開示の内視鏡システムでは、対象物の形状及び状態、特に人体の血管情報(酸素飽和度)を得るためには、光源として、中心波長±10nmの狭帯域光を射出する高価なレーザを用いる必要があるし、特許文献5に開示の内視鏡システムでは、光源として、白色光光源と、高価なバンドパスフィルタを用いて、中心波長±10nmの狭帯域光を生成する必要がある。即ち、人体の血管情報(酸素飽和度)を得るためには、光源側において、狭帯域光を生成しておく必要があるという問題があった。
 これに対し、特許文献6に開示の技術では、対象物の3次元形状、動き又は距離を高精度に得るためには、太陽光、又は室内光等のレーザ光以外の光が存在している環境下で光源としてレーザを用いる際に、ドッドパターンを持つレーザ光以外の光がCMOSイメージセンサに入射するために、受光素子側において、高価なバンドパスフィルタを用いて、中心波長(830nm)±20nmの狭帯域に絞る必要がある。
 近年の検出装置においては、対象物(検出対象物)の3次元形状、動き、状態、又は対象物までの距離(以下、総称して「形態」という。)を正確に把握することが求められている。特に、対象物に照射した光の反射光を2次元配列の受光素子に受光して、得られた信号から2次元情報、及び/又は、3次元情報を取得し、次いで、取得した情報を、予め蓄積された対象物の特徴を示すデータと比較するという対象物の検出方法が求められている。
 この検出方法は、発電所又は工場等における災害又は事故発生時の建造物内で対象物の形態を把握する場合や、自動運転中の自動車周辺の対象物について形態を把握する場合や、内視鏡検査における生体組織(血管等)の対象物について形態を把握する場合等において、好ましく用いられる。これらの場合で用いられる検出方法は、予め蓄積された対象物のビッグデータ(特徴を示すデータ)と比較するための特定波長の信号、例えば狭帯域光の信号を大量に要する。したがって、特定の狭帯域光の信号を取得するための受光素子としては、特許文献6に開示されるような、光センサ上にバンドパスフィルタを配置した受光素子(CMOSイメージセンサ等)が用いられる。受光素子は、小型で、かつ、安価であり、感度も高く、単位面積当たりの素子数が多く、S/N比(信号雑音比:signal-noise ratio)が高いことが求められる。
 予め蓄積された対象物の特徴を示すデータは、好ましくは、ネットワーク上に蓄積される。
 本明細書において、ネットワーク上に蓄積されたデータ、ネットワーク上に構築されたデータベース(以下、「クラウド」ともいう。)又はその他のデータベースに蓄積されたデータ、あるいは、それらデータの集合体を、「ビッグデータ」という場合がある。
 しかしながら、受光素子自体を小型にかつ安価にして単位面積当たりの素子数を多くすると、感度が悪化し、S/N比が悪化してしまうという問題があった。特に、光センサにバンドパスフィルタを用いる場合には、その問題は顕著であり、また、検出バンド幅を狭くするのも困難であるという問題があった。
 感度が高く、S/N比が高く、検出バンド幅も狭く数百nm以下、例えば200nm以下の、バンドパスフィルタを用いた光センサは、大型で、高価となり、単位面積当たりの素子数が少なくなるという問題があった。
 また、図14の点線で示すようなスペクトルを有する対象物を検出しようとする時、図14の実線で示される従来のバンドパスフィルタを用いると、対象物のスペクトルに含まれていない他波長領域の信号も拾うことになり、ノイズを多く含む信号となってしまうという問題もあった。より詳細には、対象物のスペクトルの中心波長と、バンドパスフィルタのスペクトルの中心波長とが略一致し、かつ、対象物のスペクトルの半値波長と、バンドパスフィルタのスペクトルの半値波長とが略一致していても、ノイズを多く含む信号が得られることがあった。バンドパスフィルタの透過スペクトルのピークが、対象物のスペクトルのピークより低く、検出される信号強度が低下、または、信号が減少するからである。
 本発明の目的は、上記従来技術の問題点を解消し、小型であり、安価でも感度が高く、S/N比が高く、単位面積当たりの素子数を多くすることができ、対象物からの特定の狭帯域光(反射光)の信号、例えば特定波長の信号を、低下させることなく高い強度でかつ低ノイズの信号として的確に取得することができる光センサデバイス、この光センサデバイスで得られる対象物の特定波長の信号に基づく検出データから対象物であるかどうかを的確に、即ち正確かつ確実に判別することができる光センサユニット、及びこの光センサユニットで判別するための対象物に対応した設定データを的確に設定することができ、その結果対象物か否かを的確に判別することができる光センサシステムを提供することにある。
 上記目的を達成するために、本発明の第1の態様の光センサデバイスは、互いに透過スペクトルの半値波長が200nm以下の差を有する2種以上のフィルタと、2種以上のフィルタをそれぞれ透過した光を検出し、2種以上の出力信号を出力する1つ以上の光センサと、演算部と、を有し、演算部は、2種以上の出力信号の内の2つの出力信号の差分を2種以上のフィルタの対応する2つのフィルタを透過した光の吸収スペクトルの波形からそれぞれ逆演算して、1種以上の特定波長の信号強度を求めることを特徴とする。
 ここで、2種以上のフィルタは、互いに透過スペクトルの半値波長の差が200nm以下である2つのフィルタからなる複数組のフィルタ対であり、1つ以上の光センサは、複数組のフィルタ対のそれぞれの2つのフィルタを透過した光をそれぞれ検出し、複数組の2つの出力信号を出力する複数の光センサであり、演算部は、1つ以上の光センサから出力される2つの出力信号の差分を2つのフィルタを透過した光の吸収スペクトルの波形からそれぞれ逆演算して、複数組の特定波長の信号強度を求めるものであることが好ましい。
 また、2種以上のフィルタは、隣接する2つの光センサにそれぞれ配置されることが好ましい。
 また、2種以上のフィルタは、同じ1つの光センサに配置されることが好ましい。
 また、2種以上のフィルタを配置した1つの光センサ、又は2種以上のフィルタをそれぞれ配置し、かつ隣接する2つ以上の光センサを2次元状に複数組並べることにより、特定波長の信号強度を画像信号として取得することが好ましい。
 また、特定波長の信号強度は、時間分解で測定されることが好ましい。
 また、2種以上の波長の信号を検出する多波長検出光センサデバイスであって、2種以上のフィルタは、2種以上の異なる透過スペクトルを有するフィルタであり、演算部は、2種以上の特定波長の信号強度を求めるものであることが好ましい。
 また、フィルタが、光硬化性樹脂組成物からなることが好ましい。
 また、フィルタの膜厚が、10μm以下であることが好ましい。
 また、フィルタの透過スペクトルの半値波長が、700nm以上であることが好ましい。
 上記目的を達成するために、本発明の第2の態様の光センサユニットは、対象物からの光を受光する上記第1の態様の光センサデバイスと、光センサデバイスにおいて得られる1種以上の特定波長の信号強度、対象物の2次元形状情報、及び1種以上の特定波長の信号強度の時間変化から選ばれる1種以上の検出データを、予め設定された、対象物に対応する設定データと比較する比較部と、比較部の比較結果に基づいて対象物であるかどうかを判別する判別部と、を有することを特徴とする。
 ここで、対象物に対応する予め設定された設定データは、ネットワーク上に蓄積された対象物に対応する設定データであることが好ましい。
 上記目的を達成するために、本発明の第3の態様の光センサシステムは、上記第2の態様の光センサユニットと、判別するべき対象物を決定し、対象物に関する過去のデータから対象物の特徴を抽出し、抽出された対象物の特徴に基づいて対象物に対応する条件を決定し、対象物に対応する設定データとして予め設定しておくコントローラユニットと、を有することを特徴とする。
 ここで、コントローラユニットは、設定データとして、ネットワーク上に蓄積された対象物に対応する設定データを設定し、光センサユニットに測定開始を指示することが好ましい。
 また、複数の光センサユニットを有し、コントローラユニットは、複数の光センサユニットを制御することが好ましい。
 本発明の第1の態様によれば、小型であり、安価でも感度が高く、S/N比が高く、単位面積当たりの素子数を多くすることができ、対象物からの特定の狭帯域光の信号、例えば特定波長の信号を、低下させることなく高い強度でかつ低ノイズの信号として的確に取得することができる光センサデバイスを提供することができる。
 また、本発明の第2の態様によれば、上記効果を有する光センサデバイスで得られる対象物の特定波長の信号に基づく検出データ、例えばビッグデータとして得られる検出データから対象物であるか否かを的確に、即ち正確かつ確実に判別することができる光センサユニットを提供することができる。本発明の光センサユニットによれば、特に、対象物からの特定波長の信号強度、この信号強度の時間的な変化、及びこの信号強度から得られる対象物の2次元形状から選択される少なくとも1種の検出データと、予め設定された対象物に対応する、例えば特徴を表わす設定データ、例えばネットワーク上にビッグデータとして蓄積された設定データとを比較することにより、対象物であるかどうかを判別する的確に、即ち正確かつ確実に判別することができる。
 また、本発明の第3の態様によれば、対象物を設定した際に、本発明の光センサユニットで判別するための対象物に対応した設定データを的確に設定することができ、その結果対象物か否かを的確に判別することができる光センサシステムを提供することができる。
本発明の一実施形態に係る光センサデバイスを備える本発明に係る光センサユニットの一例を模式的に示すブロック図である。 図2Aは、図1に示す光センサデバイスの2種類のカットフィルタがそれぞれ配置された光センサの1組の2つの受光画素の配列の一例を示す模式図である。 図2Bは、図2Aに示す光センサの1組の2つの受光画素にそれぞれ配置される2種類のカットフィルタの分光透過率の一例を模式的に示すグラフである。 図2Cは、対象物のスペクトル、及び図2Bに示す分光透過率を持つ2種類のカットフィルタが配置された2つの受光画素によって得られる光センサデバイスの特定波長の分光透過率を模式的に示すグラフである。 本発明の光センサデバイスの複数組の受光画素の配列の一例を示す模式図である。 本発明の光センサデバイスの複数組の受光画素の配列の他の一例を示す模式図である。 図2Bに示す2種類のカットフィルタの一方の分光透過率の一具体例を示すグラフである。 図2Bに示す2種類のカットフィルタの他方の分光透過率の一具体例を示すグラフである。 図7Aは、図1に示す光センサデバイスの3種類のカットフィルタがそれぞれ配置された光センサの1組の3つの受光画素の配列の一例を示す模式図である。 図7Bは、図7Aに示す光センサの1組の3つの受光画素にそれぞれ配置される3種類のカットフィルタの分光透過率の一例を模式的に示すグラフである。 図7Cは、対象物のスペクトル、及び図7Aに示す分光透過率を持つ3種類のカットフィルタが配置された3つの受光画素によって得られる多波長光センサデバイスの2種の特定波長の分光透過率を模式的に示すグラフである。 図1に示す光センサユニットを複数備える本発明の一実施形態に係る光センサシステムの一例を模式的に示すブロック図である。 本発明の他の実施形態に係る光センサユニットを備える本発明の他の実施形態に係る光センサシステムの一例を模式的に示すブロック図である。 図10は、図8に示す光センサシステムの具体的な適用実施形態を模式的に示す説明図であり、光センサシステムに用いられる光センサユニットの具体的な構成の他の一例が模式的に示されている。 図8及び図10に示す光センサシステムの対象物検出のフローの一例を示すフローチャートである。 本発明の光センサユニット及び光センサシステムが適用される人体の血管中の2種のヘモグロビンの吸光係数を示すグラフである。 本発明の光センサユニット及び光センサシステムが適用される人体の血管中の主要成分の赤外線吸収スペクトルを示すグラフである。 対象物のスペクトル及び従来のバンドパスフィルタの分光透過率を模式的に示すグラフである。
 以下に、本発明に係る光センサデバイス、光センサユニット及び光センサシステムを添付の図面に示す好適実施形態を参照して詳細に説明する。
 図1は、本発明の第1実施形態に係る光センサデバイスを備える本発明に係る光センサユニットの一例を模式的に示すブロック図である。
 図1に示す光センサユニット10は、対象物12にアクティブ信号としての光を照射する光源14と、対象物12から反射される反射光をパッシブ信号として受光して特定波長の信号強度を求めて出力する光センサデバイス16と、光センサデバイス16で得られた特定波長の信号強度に基づく検出データから対象物12であるか否かを判別する対象物検出デバイス18とを有する。なお、本発明においては、対象物12から反射される反射光は、特定の光源14からの照射光による反射光に限定されず、特定の光源14を用いずに、太陽光や、蛍光灯などの屋内灯による反射光であっても良い。
 本実施形態の光センサデバイス16は、対象物12からの反射光を集光するレンズ20と、レンズ20によって集光された反射光を受光する光センサ22と、光センサ22の各画素に対応して設けられる複数組の2種以上のフィルタ24からなるフィルタアレイと、複数組の2種以上のフィルタ24を透過し、光センサ22で検出されて出力された複数組の2種以上の受光信号(光センサ22の出力信号)にそれぞれ所定の信号処理を施して複数組の2種以上の出力信号として出力する信号処理部26と、信号処理部26から出力された複数組の2種以上の出力信号の内、各組毎に2つの出力信号の差分を2種以上のフィルタ24の対応する2つのフィルタ24を透過した光の吸収スペクトルの波形からそれぞれ逆演算して、各組毎に1種以上の特定波長の信号強度を求める演算部28と、光センサ22で検出されて出力された受光信号強度、信号処理部26から出力される出力信号強度、及び/又は演算部28で求められた特定波長の信号強度を格納するメモリ30とを有する。
 ここで、光センサ22及びフィルタ24は、センサアセンブリ25を構成する。また、メモリ30に格納された受光信号強度は、信号処理部26の読み出しに応じて信号処理部26に送出される。又は、メモリ30に格納された出力信号強度、及び/又は特定波長の信号強度は、演算部28の読み出しに応じて演算部28に送出される。
 光センサデバイス16は、中央処理装置(CPU(central processing unit))、半導体メモリおよびハードディスクやSSD(Solid State Drive)等のストレージデバイスを備える。ストレージデバイスには、所定の演算プログラムがインストールされている。この演算プログラムが中央処理装置により実行されることで、信号処理部26および演算部28が動作する。
 本実施形態の対象物検出デバイス18は、光センサデバイス16において得られた特定波長の信号強度、その信号強度の時間変化、及び特定波長の信号強度から得られる対象物12の2次元形状情報から選ばれる1種以上の検出データを、予め設定された対象物12に対応する設定データと比較する比較部32と、比較部32の比較結果に基づいて対象物12であるかどうかを判別する判別部34と、光センサデバイス16において得られた特定波長の信号強度、その信号強度の時間変化、及び対象物12の2次元形状情報、並びに予め設定された対象物12に対応する設定データを格納するメモリ36と、判別部34における判別結果を出力する出力部38と、を有する。
 光センサデバイス18は、中央処理装置(CPU(central processing unit))、半導体メモリおよびハードディスクやSSD(Solid State Drive)等のストレージデバイスを備える。ストレージデバイスには、所定の判別プログラムがインストールされている。この判別プログラムが中央処理装置により実行されることで、比較部32、判別部34および出力部38が動作する。
 光センサユニット10又は光センサデバイス16が対象とする対象物12としては、その反射光の特定波長の信号の信号強度を得るために用いられるもので、特に制限的ではなく、直接、もしくは顕微鏡等を通して反射光を受光して特定波長の信号の信号強度を得ることができるものであればいかなるものであっても良い。例えば、建造物、及び工場等の設備、又はその内部、特に、暗所での検出対象となる物体、自動運転中の自動車等の周辺の物体、ヘルスケアの対象となる人体等の生体、例えば内視鏡検査における血管等の生体組織、再生医療における培養された細胞コロニー、更には、視認できない透明に見えるもの、例えば、空気中の有機ガス、例えば有毒ガス、PM2.5(微小粒子状物質:粒子径2.5μmで50%の捕集効率を持つ分粒装置を透過する微粒子)、有機溶媒、液体の種類の判別の対象となる液体等をあげることができる。特に、本発明では、対象物12としては、可視光域では視認し難いが、赤外光を用いて識別可能な対象物を対象とするのが好ましい。このような対象物12は、光センサデバイス16によって、その反射光が受光されて撮像され、その形状、及び/又は状態が把握される。
 光源14としては、対象物12から光センサデバイス16の光センサ22で受光可能な反射光を生成するように対象物12を照明するためのもので、特に制限的ではなく、従来公知の光源を用いることができる。例えば、レーザ光源、LED、キセノンランプ、蛍光灯、有機発光体、オーレットなどの(有機ELディスプレイ(OELD:Organic ElectroLuminescence Display)、白熱電球、赤外ヒータ、UV(紫外)光源と量子ドット(波長変換)との組み合わせ、太陽光、太陽光とレンズ及び/又はミラーとの組み合わせ、例えば凹面鏡等のミラー及び/又は凸レンズ等のレンズによる反射・集光した太陽光等を挙げることができる。
 以下に、光センサデバイス16の個々の構成要素について説明する。
 レンズ20は、対象物12からの反射光を光センサ22に集光するためのもので、特に制限的ではなく、対象物12からの反射光を光センサ22に集光できれば従来公知のレンズであって良い。例えば、レンズ20としては、対象物12からの反射光全体を光センサ22のサイズに集光する1枚のレンズであっても良いし、対象物12からの反射光を光センサ22の各画素にそれぞれ集光するマイクロレンズアレイであっても良いし、1枚のレンズによって集光された反射光をマイクロレンズアレイの各マイクロレンズによって光センサ22の各画素にそれぞれ集光するようにしても良い。
 光センサ22は、フィルタ24と共にセンサアセンブリ25を構成し、対象物12からの反射光を、フィルタ24を介して受光して対象物12を撮像し、対象物12の撮像信号を取得するためのもので、特に制限的ではなく、対象物12からの反射光を各画素毎に受光量に応じた光信号に変換できれば従来公知のイメージセンサ等の光センサであって良い。例えば、光センサ22としては、CCD(電荷結合素子:Charge Coupled Device)イメージセンサ、CMOSイメージセンサ等を挙げることができる。
 フィルタ24は、光センサ22と共にセンサアセンブリ25を構成し、光センサ22の各画素の前面、即ち受光面側に配置される。本発明で用いられるフィルタは、互いに透過スペクトルの半値波長が200nm以下の差を有する2種以上のフィルタの組み合わせからなる。2種以上のフィルタの組み合わせとは、例えば、短波長側をカットする2種以上のカットフィルタの組み合わせ、又は長波長側をカットする2種以上のカットフィルタの組み合わせ、もしくは短波長側カットフィルタと長波長側カットフィルタとの組み合わせ等がある。フィルタ24は、2種以上のフィルタを透過した対象物12の反射光が入射した光センサ22の各画素から出力される2種以上の出力信号の内の2つの出力信号の差分を上述の2種以上のフィルタの対応する2つのフィルタを透過した光の吸収スペクトルの波形からそれぞれ逆演算して、1種以上の特定波長の信号強度を求めるために用いられるものである。
 なお、短波長側カットフィルタと長波長側カットフィルタとの組み合わせの場合には、各フィルタを透過した光の受光による各画素の2種類の出力信号の和といずれのフィルタも透過しない光の受光による画素の1種類の出力信号(リファレンス)との差分を、短波長側カットフィルタおよび長波長側カットフィルタを透過した光の吸収スペクトルの波形からそれぞれ逆演算して、1種以上の特定波長の信号強度を求めればよい。
 フィルタ24は、透過スペクトルの半値波長に所定差を有する2種以上のフィルタの内の2種のフィルタを透過した光を受光した光センサ22の2つの画素から出力される2つの出力信号の差分として表される信号(信号強度)が、半値波長が上記所定差に相当する所定値以下であるバンドパスフィルタを透過した光を受光した光センサ22の画素から出力される出力信号と見做すことができる2つのフィルタを少なくとも含む。
 以下では、フィルタ24として、2種類の短波長側カットフィルタを用いる例を代表例として説明するが、本発明はこれに限定されない。
 図2(A)に、図1に示す光センサユニットの2種類のカットフィルタがそれぞれ配置された光センサからなるセンサアセンブリの1組の2つの受光画素の配列の一例を示す。図2(B)に、図2(A)に示すセンサアセンブリの1組の2つの受光画素にそれぞれ配置される2種類のカットフィルタの分光透過率の一例を模式的に示す。図2(C)に、対象物のスペクトル、及び図2(B)に示す分光透過率を持つ2種類のカットフィルタが配置された2つの受光画素によって得られる光センサユニットの特定波長の分光透過率を模式的に示す。
 図2(A)に示すように、本発明においては、センサアセンブリ25の受光画素25a及び25bからなる1組の受光画素が、特定波長の信号強度を得るために用いられる。
 ここで、受光画素25aは、フィルタ24aを光センサ22の1つの画素の受光面(図示せず)上に配置したものからなる。フィルタ24aは、短波長側の光が吸収されてカットされるフィルタであって、図2(B)に実線で示されるように、短波長側から長波長側に向かって分光透過率が増大する曲線を持つ分光透過率分布となる透過スペクトルAを示す。透過スペクトルAは、フィルタ24aを透過した光の吸収スペクトルを示し、短波長側に吸収端を有する。
 一方、受光画素25bは、フィルタ24bを光センサ22の1つの画素の受光面(図示せず)上に配置したものからなる。フィルタ24bは、フィルタ24aと同様に、短波長側の光が吸収されてカットされるフィルタであって、フィルタ24aよりも所定波長、即ち、半値波長で200nm以下の所定波長だけ長波長側において、短波長側から長波長側に向かって分光透過率が増大する曲線を持つ分光透過率分布となる透過スペクトルBを示す。透過スペクトルBは、フィルタ24bを透過した光の吸収スペクトルを示すが、透過スペクトルAの吸収端より、短波長側に吸収端を有し、半値波長で200nm以下の所定波長だけ長波長側に存在する。
 なお、図2(B)に点線で示される分光透過率分布を示すスペクトルは、対象物12のスペクトルを表わすものである。
 ここで、図2(B)および図2(C)を用いて、透過スペクトルAの波形から、透過スペクトルBの波形を差し引いて(引き算して)得られる透過スペクトルについて説明する。図2(B)に示すように、透過スペクトルBの吸収端が、透過スペクトルAの吸収端より、所定波長だけ長波長側にある場合、透過スペクトルAの分光透過率から透過スペクトルBの分光透過率を各波長毎に引き算すると、図2(C)に示すように、透過スペクトルAと、上下反転された透過スペクトルBとの合成スペクトルが得られる。このように、本発明で用いられるフィルタは、半値波長が200nm以下の所定波長幅を持つバンドパスフィルタの透過スペクトルと等価となる。
 図2(C)に実線及び一点鎖線で示される、バンドパスフィルタと等価である透過スペクトルは、点線で示される対象物12のスペクトルに略一致させることができており、対象物12の検出等に極めて有用であることが分かる。
 以上から、透過スペクトルAを示すフィルタ24aを透過した光を受光する受光画素25aから出力される出力信号と、透過スペクトルBを示すフィルタ24bを透過した光を受光する受光画素25bから出力される出力信号との差分は、半値波長で200nm以下の所定波長幅を持つバンドパスフィルタを透過した光を受光する受光画素から出力される出力信号と等価となる。
 したがって、本発明においては、受光画素25aから出力された出力信号と、受光画素25bから出力された出力信号との差分を後述する演算部28で演算することにより、フィルタ24aとフィルタ24bとの透過スペクトルの半値波長の差に等しい波長幅を持つバンドパスフィルタの透過光の出力信号と等価な出力信号を取得することができる。
 即ち、小型かつ安価で2つのカットフィルタ24a及び24bを用いた受光画素25a及び25bの組を複数組2次元上に配列したセンサアセンブリ25と、1組の受光画素25a及び25bから出力される出力信号の差分を演算する演算部28とを組み合わせた構成とすることにより、大型で高価なバンドパスフィルタを用いた受光画素から出力される高感度でS/N比も良好な特定波長の出力信号と等価な特定波長の信号を得ることができる。
 なお、上述した受光画素25aから出力された出力信号と、受光画素25bから出力された出力信号との差分の演算は、両出力信号をそれぞれ後述する信号処理部26で所定の信号処理を施した後、演算部28で演算することにより、特定波長(所定の波長幅の中心波長)の信号強度が求められる。なお、両出力信号の差分の演算は、アナログ信号で行っても良いし、デジタル信号で行っても良い。本発明では、両出力信号の差分の演算は、デジタル信号で行うことが好ましい。
 光センサ22及びフィルタ24からなるセンサアセンブリ25は、図3に示すように、一対の受光画素25a及び25bを1組として、行および列に平行に配列しても良いし、図4に示すセンサアセンブリ25Aのように、受光画素25a及び25bを千鳥状に配置して、2つの受光画素25a及び25bを特定波長の信号強度を得るための1組の受光素子として用いても良い。
 このように、センサアセンブリ25における受光画素25a及び25bの配列は、特に制限的ではなく、対を成す受光画素25a及び25bが近接して配置され、受光画素25a及び25bから特定波長の信号強度を得るための2つの画素信号を取得することができれば、どのように配置しても良い。
 光センサ22及びフィルタ24からなるセンサアセンブリ25の1組の受光画素25a及び25bにそれぞれ用いられる1組のフィルタ24aの透過スペクトルAとフィルタ24bの透過スペクトルBとは、半値波長の差が200nm以下である。即ち、フィルタ24a及び24bの吸収波長が異なり、それぞれの吸収端が異なり、吸収端の差が、半値波長で200nm以下である。
 その理由は、透過スペクトルの半値波長の差、即ち吸収スペクトルの吸収端の差が200nm超であると、本発明が対象とする建造物、又は工場設備等の内部、暗所下での物体、自動運転中の自動車等の周辺の物体、例えば特許文献4及び5に記載のような内視鏡検査における血管等の生体組織、特願2015-041168号明細書に記載の再生医療における培養された細胞コロニー、有機ガス、PM2.5、有機液体、液体の種類等を個別に判別、又は検知することが困難になるからである。半値波長の差が200nm超、例えば、数μm(数千nm)で区切られたスペクトルデータでは、特に、内視鏡検査における血管等の生体組織において、図12及び図13に示すような酸素化ヘモグロビンHbOと、還元(脱酸素化)ヘモグロビンHbとの判別を行うことが困難となるからである。
 これらの酸素化ヘモグロビンHbOと、還元(脱酸素化)ヘモグロビンHbとの両者のスペクトルの差を判別するには、1組のフィルタ24aの透過スペクトルAとフィルタ24bの透過スペクトルBとの差の半値波長が、200nm以下であることが好ましい。 なお、本発明においては、半値波長の差は、200nm以下であれば、特に制限的ではなく、検査対象の対象物12を判別するのに必要な差分スペクトルデータの半値波長の差であれば幾つであっても良いが、100nm以下が好ましく、より好ましくは50nm以下であり、対象物12によっては20nm以下でも、10nm以下でも、5nm以下であっても良い。
 なお、半値波長の差の下限値も、検出対象の対象物12に応じて設定すればよく、特に制限はないが、製造適性の点から、1nm以上が好ましく、5nm以上でも、10nm以上であっても良い。
 このような透過スペクトルAを示すフィルタ24a及び透過スペクトルBを示すフィルタ24b等のフィルタ24としては、光センサ22の受光面に配置でき、必要な透過スペクトルを示すものであれば、特に制限はない。
 例えば、フィルタ24の材質は、特に制限はなく、光硬化性樹脂組成物からなるフィルタが好ましい。
 光硬化性樹脂組成物からなるフィルタが好ましい理由は、高解像の二次元イメージを得るためのフィルターパターンを作成するには、高解像を得やすい光パターニングが最も好ましいからであり、光硬化性樹脂組成物は、細かいパターン、特に微細パターンの形成に有利だからである。
 光硬化性樹脂組成物としては、主たる成分として重合性化合物、重合開始剤、アルカリ可溶性樹脂を含有することができる。
 重合性化合物は、例えば特開2012-208494号公報の段落0466~0494の記載を参酌でき、この内容は本明細書に組み込まれる。重合性化合物は、1種のみ用いてもよいし、2種以上を併用してもよい。重合性化合物の配合量は、配合する場合、赤外線透過フィルム形成用組成物(以下、「赤外線透過組成物」とも言う。)の固形分の0.1~90質量%とすることができ、2~50質量%が好ましい。
 重合開始剤は、例えば特開2012-208494号公報の段落0500~0547の記載を参酌でき、この内容は本明細書に組み込まれる。重合開始剤としては、オキシム化合物が好ましい。オキシム化合物の具体例としては、特開2001-233842号公報記載の化合物、特開2000-80068号公報記載の化合物、特開2006-342166号公報記載の化合物を用いることができる。市販品では、IRGACURE-OXE01(BASF社製)、IRGACURE-OXE02(BASF社製)、IRGACURE-OXE03(BASF社製)、TR-PBG-304(常州強力電子新材料有限公司社製)、アデカアークルズNCI-831、アデカアークルズNCI-930(ADEKA社製)等が挙げられる。重合開始剤は、1種のみ用いてもよいし、2種以上を併用してもよい。重合開始剤の配合量は、配合する場合、赤外線透過組成物の固形分の0.1~20質量%とすることができ、0.5~5質量%が好ましい。
 アルカリ可溶性樹脂は、例えば特開2012-208494号公報の段落0558~0572の記載を参酌できる。なお、本発明においては、上記に示したものの他、従来公知の光硬化性樹脂組成物をも用いることができる。
 また、フィルタの膜厚は、特に制限されないが、10μm以下であることが好ましく、3μm以下であることがより好ましい。
 本発明において、フィルタ24の膜厚を10μm以下とすることが好ましい理由は、光センサデバイス、及び光センサユニットの小型化、及び薄型化の要求を背景として、センサアセンブリの薄型化が望まれるからである。
 また、フィルタの透過スペクトルの半値波長は、特に制限されず、可視領域波長でも、赤外領域波長であっても良いが、700nm以上の赤外領域波長であることが好ましく、750nm以上であることがより好ましい。即ち、本発明の光センサデバイス16は、赤外センサユニットに用いられる赤外センサデバイスであることが好ましい。
 本発明において、フィルタの透過スペクトルの半値波長を700nm以上の赤外領域波長とすることが好ましい理由は、この領域には有機化合物の特性吸収波長が多くあるため、化合物の判別を容易に行うことができ、また、暗所下での物体の検知、透明なものの中に含まれる物体の検知を容易に行うことができるからである。
 図2(B)の透過スペクトルBを示すカットフィルタ24b(赤外線透過フィルム)は、光硬化性樹脂組成物に、以下に示す顔料を適宜組み合わせて得られる赤外線透過フィルム形成用組成物を用いて作製され、具体的には、図5の透過スペクトルを示す。
・ジケトピロロピロール顔料1:下記構造(特開2009-263614号公報に記載の方法で合成した)(波長800~900nmの範囲に吸収極大を有する着色剤)
Figure JPOXMLDOC01-appb-C000001

・PR254  : C.I.Pigment Red 254
・PB15:6 : C.I.Pigment Blue 15:6
・PY139  : Pigment Yellow 139
・PV23   : Pigment Violet 23
 図2(B)の透過スペクトルAを示すカットフィルタ24a(赤外線透過フィルム)は、光硬化性樹脂組成物に、以下に示す顔料を適宜組み合わせて得られる赤外線透過フィルム形成用組成物を用いて作製され、具体的には、図6の透過スペクトルを示す。
・赤色顔料(C.I.Pigment Red 254)及び黄色顔料(C.I.Pigment Yellow 139)からなる混合顔料
・青色顔料(C.I.Pigment Blue 15:6)及び紫色顔料(C.I.Pigment Violet 23)からなる混合顔料
 上述した例では、フィルタ24として、短波長側をカットする2種類のカットフィルタを用いているが、本発明はこれに限定されず、3種類以上のカットフィルタを用いても良いし、長波長側をカットする2種類以上のカットフィルタを用いても良い。なお、3種類以上のカットフィルタを用いる多波長検出光センサデバイスの場合には、それぞれ互いに透過スペクトルが隣接する2つのフィルタを持つ2つの受光画素からの出力信号の差分から1種類の特定波長の信号強度を取得することができるので、2種類以上の特定波長の信号強度を取得することができる。
 例えば、図7Aに示すセンサアセンブリ25Bのように、3つの受光画素からなる1組の光センサの各画素に図7Bに示す異なる分光透過率を持つ3種類のカットフィルタをそれぞれ用いても良い。
 図7Aに示す多波長検出光センサデバイスのセンサアセンブリ25Bにおいては、光センサ22の3つの画素(図示せず)の受光面にそれぞれ配置された3つの異なるフィルタ24a、24b及び24cからなる1組の3つの受光画素25a、25b及び25cが一列に配列されている。
 図7Aに示すフィルタ24a、24b及び24cは、それぞれ、図7Bに示すように、互いに異なる分光透過率を示し、互いに半値波長が200nm以下の差を有し、図7Bに実線で示す透過スペクトルA、図7Bに一点鎖線で示す透過スペクトルB、及び図7Bに二点鎖線で示す透過スペクトルCを示す。
 したがって、図7Aに示す受光画素25aと25bの組では、それぞれ出力される出力信号の差分として、フィルタ24aの図7Bに実線で示す透過スペクトルAからフィルタ24bの図7Bに一点鎖線で示す透過スペクトルBを引き算することにより得られる、図7Cに(A-B)で示される透過スペクトルを持つ等価バンドパスフィルタを用いた受光素子の受光画素から得られる信号と等価な特定波長の信号強度を得ることができる。
 また、同様に、図7Aに示す受光画素25bと25cの組では、それぞれ出力される出力信号の差分として、フィルタ24bの図7Bに一点鎖線で示す透過スペクトルBからフィルタ24cの図7Bに二点鎖線で示す透過スペクトルCを引き算することにより得られる、図7Cに(B-C)で示される透過スペクトルを持つ等価バンドパスフィルタを用いた受光素子の受光画素から得られる信号と等価な特定波長の信号強度を得ることができる。
 このようにして、互いに透過スペクトルの半値波長の差がある3種類のカットフィルタを用いて、2種類のバンドパスフィルタを用いた場合と等価な2種類の特定波長の信号強度を得ることができる。
 同様にして、互いに透過スペクトルの半値波長の差がある4種類以上のカットフィルタを用いた場合にも、3種類以上のバンドパスフィルタを用いた場合と等価な3種類以上の特定波長の信号強度を得ることができる。
 上述した例では、2種類以上のフィルタを2種類以上の光センサ22の素子(画素)に個々に配置して、光センサ22の各素子から受光信号を検出しているが、本発明はこれに限定されず、2種類以上のフィルタを同じ1つの光センサ22の素子に配置して時分割で受光信号を検出するようにしても良い。
 信号処理部26は、光センサ22で検出された複数組の2種以上の受光信号にそれぞれ所定の信号処理、例えば前処理を施して複数組の2種以上の出力信号として出力するもので、例えば、相関二重サンプリング回路、アンプ(自動利得制御回路)、及びA/D(Analog/Digital)変換器等を含むアナログ処理回路(AFE:Analog Front End)等から構成される。センサアセンブリ25の複数組の受光画素25a及び25bの光センサ22の各画素の出力信号は、信号処理部26において、例えば、相関二重サンプリングによるノイズ除去、アンプによる増幅を行なわれ、さらに、A/D変換器によってアナログ信号からデジタル信号に変換されて、デジタルの画像信号として、演算部28に出力される。信号処理部26では、なお、信号の確度を確保するために、予め、真正な信号として扱う強度の範囲、即ち所定の許容最小強度及び所定の許容最大強度を定めておき、所定の許容最小強度未満の信号や所定の許容最大強度超の信号を真正な信号でないノイズとして除去するようにしても良い。また、演算部28による一対の受光画素25a及び25bの2種類の出力信号の差分の演算をアナログ信号の状態で行う場合には、A/D変換器は、演算部28内に設けられる。
 演算部28は、信号処理部26から出力された複数組の2種以上の出力信号の内、各組毎に2つの出力信号の差分を2種以上のフィルタ24の対応する2つのフィルタ24を透過した光の吸収スペクトルの波形からそれぞれ逆演算して、各組毎に1種以上の特定波長の信号強度を求めるものである。例えば、演算部28は、信号処理部26から出力されたセンサアセンブリ25の1組の受光画素25a及び25bからの2種類の出力信号の差分をデジタル信号で、又はアナログ信号で演算し、特定波長の信号強度を求める。この演算は、受光画素25a及び25bの1組ずつ、複数組について行われ、対象物12を画像として撮像するために必要とされる複数の画像信号として算出される。算出された画像信号がデジタル画像信号であれば、そのまま対象物検出デバイス18に出力される。なお、2種類の出力信号の差分の演算がアナログ信号で行われた場合には、算出されたアナログ画像信号は、A/D変換器によってデジタル信号に変換されて、デジタルの画像信号として対象物検出デバイス18に出力されるのは言うまでもない。
 光センサデバイス16においては、2種以上のフィルタ24が光センサ22にそれぞれ配置され、かつ光センサ22の隣接する2つ以上の画素を2次元状に複数組並べて対象物12の反射光を検出して、2種以上のフィルタ24を透過した光の光センサ22による出力信号から2種類の出力信号の差分を演算部28で演算することにより、特定波長の信号強度をイメージワイズに検出して画像信号として取得している。
 なお、光センサ22は、所定のサンプリングタイム間隔、即ち所定時間間隔で、フィルタ24を介して対象物12からの反射光を自動的に検出し、演算部28は、特定波長の信号強度を求めている。即ち、特定波長の信号強度は、フィルタ24を備える光センサ22及び演算部28によって、時間分解で測定される。したがって、演算部28は、前後のサンプリングタイムにおける特定波長の信号強度から、特定波長の信号強度の時間変化(時間微分値)を求めることができる。換言すれば、演算部28は、特定波長に関する画像信号の時間変化(時間微分値)を求めることができる。なお、特定波長の信号強度の時間変化は、例えば、単純に前後のサンプリングタイムにおける特定波長の信号強度の差を求め、その差を時間間隔で割り算することにより求めればよいが、特に制限されない。
 また、演算部28では、特定波長の信号強度は、特定波長のデジタル画像信号として求められているので、求められた画像信号から、所定の信号強度の信号を抽出することにより、特定波長の光で抽出された対象物12の形状を表わす2次元形状情報を求めることができる。したがって、演算部28で求められる特定波長に関する画像信号の時間変化は、対象物12の2次元形状情報の時間的な変化を表わす情報、例えば、対象物12の動きを表わす情報と言うこともできる。なお、2次元形状情報を求める方法も特に制限的ではなく、公知の方法で求めることができる。
 以上から、演算部28では、特定波長の信号強度に加え、その信号強度の時間変化、及び特定波長の信号強度から得られる対象物12の2次元形状情報を求めておくのが良い。
 メモリ30は、光センサ22で検出された受光信号、信号処理部26から出力される出力信号、及び/又は演算部28で求められた特定波長の信号強度を必要に応じて一時的に格納するためのものである。したがって、光センサ22から出力される受光信号を順次信号処理部26で処理でき、信号処理部26からの出力信号を順次演算部28で演算でき、演算部28から演算された特定波長の信号強度を順次対象物検出デバイス18に送信できれば、メモリ30は設けなくても良い。
 ここで、メモリ30は、光センサ22から受光信号を受け取って一時的に保存して格納することができ、格納した受光信号を信号処理部26に送り出すことができることが好ましい。この場合には、受光信号はアナログ信号であるので、メモリ30は、サンプルホールド等のアナログメモリを備える。
 また、メモリ30は、信号処理部26から処理済の出力信号を受け取って格納することができ、演算部28は、メモリ30から格納された出力信号を読み出すことができることが好ましい。この場合、メモリ30は、処理済出力信号がアナログ信号であればアナログメモリである必要があり、処理済出力信号がデジタル信号である時、処理済出力信号を読み出し可能に一時的に格納することができるデジタルメモリを備える。
 また、演算部28から演算された特定波長の信号強度はデジタル信号であるので、メモリ30は、デジタルメモリを備える。
 なお、メモリ30としては、特に制限的ではなく、公知のアナログメモリ、及び/又は公知のデジタルメモリを用いることができる。なお、メモリ30としては、処理済出力信号及び特定波長の信号強度等のデジタル信号を格納するデジタルメモリとして構成することが好ましい。
 また、光センサデバイス16の信号処理部26、演算部28、及びメモリ30等は、後述するようにIC化しておくことが好ましい。
 本実施形態の光センサデバイス16は、基本的に以上のように構成される。
 以下に、対象物検出デバイス18の個々の構成要素について説明する。
 比較部32は、光センサデバイス16において検出された検出データ、例えば演算部28において演算された特定波長の信号強度、その信号強度の時間変化、及び特定波長の信号強度から得られる対象物12の2次元形状情報から選ばれる1種以上の検出データを、先にメモリ36等に格納されている予め設定された対象物12に対応する設定データと比較するものである。なお、比較部32では、検出データ及び設定データは、2次元画像データとして扱うのが好ましい。また、比較部32で行う検出データと設定データとの比較の方法も、特に制限的ではなく、パターンマッチング、例えば、設定データをテンプレート画像データとし、検出画像データとテンプレート画像データとの一致度を求めるために、検出画像データとテンプレート画像データとの比較を行うテンプレートマッチング等の公知の方法により行えばよい。
 なお、上述した例では、特定波長の信号強度の時間変化、及び特定波長の信号強度から得られる対象物12の2次元形状情報は、光センサデバイス16の演算部28で算出しているが、本発明はこれに限定されず、比較部32において、演算部28から送られた特定波長の信号強度から算出するようにしても良い。
 比較部32における検出データと設定データとの比較結果は、後段の判別部34に送られる。
 判別部34は、比較部32で得られた検出データと設定データとの比較結果に基づいて、得られた検出データが対象物12を表わすものであるか否かを判別、又は検出(検知)する。判別部34における対象物12であるか否かの判別は、例えば比較部32で得られた検出データと設定データとの一致度によって決めることができる。対象物12であると判別するために必要な一致度の値は、判別対象である対象物12の種類、状態、形状、及び/又は判別・検出(検知)の目的、対象物12に応じて要求される判別・検知の精度等によって異なるので、対象物12の種類、状態、形状、及び/又は判別・検出(検知)の目的、判別・検知の要求精度等に応じて適宜設定すれば良い。即ち、検出データと設定データとの比較結果による一致度が、対象物12、判別・検出の目的及び/又は精度等に応じて設定された値以上であれば、対象物12であると判別するように設定しても良い。
 判別部34における対象物12であるか否かの判別結果、又は検出(検知)結果(以下では、判別結果で代表する)は、出力部38に送られる。
 メモリ36は、光センサデバイス16の演算部28において得られた特定波長の信号強度、演算部28又は比較部32において得られた特定波長の信号強度の時間変化、及び対象物12の2次元形状情報、並びに予め設定された対象物12に対応する設定データを格納するものである。特定波長の信号強度、その時間変化、対象物12の2次元形状情報、及び予め設定された対象物12に対応する設定データは、デジタルデータであり、メモリ36は、これらのデジタルデータを格納するものであるので、デジタルメモリである。メモリ36としては、特に制限的ではなく、公知のデジタルメモリを上げることができる。
 なお、メモリ36は、光センサデバイス16の演算部28から特定波長の信号強度、その時間変化、及び対象物12の2次元形状情報を受け取って格納しても良いし、比較部32によって格納している特定波長の信号強度、その時間変化、対象物12の2次元形状情報、及び設定データを読み出せるようにしても良いし、比較部32から比較結果を受け取って格納するようにしても良いし、判別部34によって格納している比較結果を読み出せるようにしても良い。
 また、メモリ36と、メモリ30とは、1つのメモリとして統合されていても良い。
 出力部38は、判別部34における判別結果を出力するものである。出力部38は、光センサユニット10の外部に判別結果のデータを出力するためのもので、例えば後述するコントローラユニット41(図8、図10参照、以下、「コントローラ41」ともいう。)に判別結果のデータを送信し、コントローラ41からの光センサユニット10の制御信号を受信する通信部の機能を有する。なお、出力部38は、これに限定されず、判別結果のデータを外部メモリ、ハードディスク、PC(パーソナルコンピュータ)、後述するサーバ42等のサーバ、USB(ユニバーサル・シリアル・バス:Universal Serial Bus)メモリ等の様々なメモリに出力するためのものであっても良い。更に、出力部38は、判別結果をソフトコピーとして表示画面に表示するディスプレイやモニタ等の表示装置であっても良いし、紙などの媒体にハードコピーとして印画するプリンタであっても良い。
 なお、少なくとも、対象物検出デバイス18の比較部32、判別部34、及びメモリ36等は、後述するようにIC化しておくことが好ましい。ここで、光センサデバイス16の信号処理部26、演算部28、及びメモリ30等と、対象物検出デバイス18の比較部32、判別部34、及びメモリ36等とは、共に一体化してIC化しておいても良い。
 本実施形態の対象物検出デバイス18及び光センサユニット10は、基本的に以上のように構成される。
 図8は、図1に示す本発明の第1実施形態に係る光センサユニットを複数備える本発明の第1実施形態に係る光センサシステムの一例を模式的に示すブロック図である。
 図8に示す第1実施形態の光センサシステム40は、複数の光センサユニット10a、10b、…、10cと、コントローラユニット41と、サーバ42と、ビッグデータメモリ44とを有する。
 図8に示す第1実施形態の光センサシステム40の光センサユニット10a、10b、…、10cは、それぞれ図1に示す第1実施形態の光センサユニット10と全く同一であるので同一の構成要素には同一の参照符号を付し、その説明を省略する。
 なお、複数の光センサユニット10b、…、10cは、いずれも光センサユニット10aと同一の構成を有するものであるが、各光センサユニット10a、10b、…、10cのフィルタ24a及び24bの組は、各光センサユニットにおいて光の透過スペクトルが同じであっても良いし、対象物12に応じて各光センサユニット毎に異なっていても良い。例えば、検査対象が1つの対象物12に特定されている場合には、同じフィルタ24a及び24bの組を用いれば良いし、検査対象が複数の対象物12にわたる場合には、各対象物12に応じて適切な透過スペクトルを持つフィルタ24a及び24bの組を用いれば良い。
 コントローラユニット41は、判別するべき対象物12を決定し、対象物12に関する過去のデータから対象物12の特徴を抽出し、抽出された対象物12の特徴に基づいて対象物12に対応する条件を決定し、対象物12に対応する設定データとして予め設定しておくものであり、複数の光センサユニット10a、10b、…、10cにおけるそれぞれの判別結果を受信し、統合してサーバ42に送信し、また、それぞれの判別結果を得るために、複数の光センサユニット10a、10b、…、10cをそれぞれ制御するものであり、また、設定データとして、ネットワーク上に蓄積された対象物12に対応する設定データを設定し、各光センサユニット10a、10b、…、10cにそれぞれ測定開始を指示するものである。ここで、コントローラユニット41は、通信部50と、統合部52と、入力部54と、条件決定部56と、制御信号生成部58とを有する。
 通信部50は、光センサユニット10a、10b、…、10cとの間、及びサーバ42との間の通信、例えば有線、又は無線通信を行うためのもので、光センサユニット10a、10b及び10cからの各判別結果を受け取り、それぞれ統合部52に送り、統合部52で統合された判別結果の統合データを有線、又は無線信号(以下、通信信号という)としてサーバ42に有線、又は無線送信するためのものである。また、通信部50は、サーバ42から、対象物12の特徴条件を抽出するのに用いられる、対象物12に関する過去に蓄積された過去データ(ビッグデータ又はビッグデータから抽出されたデータ)を通信信号として受信し、過去データを条件決定部56に送り、制御信号生成部58で生成された設定データ、測定開始信号などの各光センサユニット10a、10b、…、10cの制御信号を通信信号として送信するためのものである。
 統合部52は、通信部50で受信した複数の光センサユニット10a、10b、…、10cからの各判別結果(各光センサユニット10a、10b、…、10cの対象物検出デバイス18の判別部34における判別結果)等を光センサユニット10a、10b、…、10c毎に分類すると共に、纏めて統合するためのもので、統合された判別結果の統合データを通信部50からサーバ42に送信する。
 入力部54は、対象となる対象物12についての各種の情報、及び/又は各種の条件を入力するためのもので、キーボード、及びカーソル等の公知の入力デバイスが用いられる。
 条件決定部56は、入力部54から入力された対象となる対象物12についての各種の情報、及び/又は各種の条件に基づいて、判別、又は検出するべき対象物を決定し、通信部50を介してサーバ42から送られた、過去に蓄積された対象物12に関する過去データから、対象物12の特徴、又は特徴等を表わす特徴条件を抽出し、抽出された対象物12の特徴、又は特徴条件に基づいて対象物12に対応する条件、例えば対象物12に対する検出条件を決定し、対象物12に対応する設定データとして予め設定しておくと共に、複数の光センサユニット10a、10b、…、10c、並びにその他の各種のセンサ等の制御条件等を決定するためのものである。
 制御信号生成部58は、条件決定部56で決定された検出条件及び制御条件に基づいて制御信号を生成するためのものである。制御信号生成部58は、生成した制御信号、例えば、複数の光センサユニット10a、10b、…、10c毎に設定され、判別対象、又は検出対象となる対象物12に対応する設定データ、又は複数の光センサユニット10a、10b、…、10c毎に測定開始を指示する測定開始信号等を、通信部50を介して複数の光センサユニット10a、10b、…、10cに送信する。
 サーバ42は、対象物12に関する過去データ(ビッグデータ又はその抽出データ)をコントローラユニット41に送ると共に、コントローラユニット41から送られてきた対象物12に対応する判別結果の統合データを対象物12毎に蓄積し、また、必要に応じて過去データとして分類して蓄積するためのものであり、また、通信部60、統合部52を介して、条件決定部56の判別条件を変更することもできるものである。ビッグデータに蓄積されるデータから自動的に判別条件を生成することにより、常時最新の情報に基づいた判別ができるメリットがある。サーバ42は、通信部60と、サーバ本体62と、出力部63と、サーバ本体62内に有するデータベース64とを有する。
 通信部60は、コントローラユニット41との間の無線、又は有線通信を行うためのもので、コントローラユニット41から光センサユニット10a、10b、…、10cの判別結果の統合データを、通信部50を介して受信し、サーバ本体62に送ると共に、逆に、サーバ本体62内のデータベース64から対象物12に関する過去データ(ビッグデータ又はその抽出データ)を読み出して通信信号としてコントローラユニット41に送信し、更に、ネットワーク上のクラウド又は他のデータベース等のビッグデータメモリ44に蓄積されたビッグデータを、インターネットを介して受信するためのものである。
 サーバ本体62は、コントローラユニット41等のクライアントに対して、必要なデータ、ソフトウェア、及びサービスを提供するためのもので、内部に様々なデータ、特に、本発明において対象とする対象物12に関するデータ、判別結果の統合データ、及びこの統合データ等についての過去データ等を蓄積しているデータベース64を有する。
 出力部63は、サーバ42において取り扱われる各種のデータ、対象物12に関するデータ、例えば、判別結果の統合データ、及び/又は過去データを出力するものであり、出力部38と同様に、データを送受信する機能、データを外部メモリに出力して格納する機能、ソフトコピーとして表示画面に表示する機能、ハードコピーとして印画する機能の少なくとも1つを有するものであって良い。
 本第1実施形態の光センサシステムは、基本的に以上のように構成される。
 上述した第1実施形態の光センサシステム40の第1実施形態の光センサユニット10においては、1つの対象物検出デバイス18に対して1つの光センサデバイス16が設けられ、両者が有線で電気的に接続されるように構成されているが、本発明はこれに限定されず、両者が無線によって接続されるように構成されていても良いし、1つの対象物検出デバイスに対して複数の光センサデバイスが設けられていても良い。
 図9は、本発明の第2実施形態に係る光センサユニットを備える本発明の第2実施形態に係る光センサシステムの一例を模式的に示すブロック図である。
 図9に示す第2実施形態の光センサシステム40Aは、複数の光センサデバイス16a、16b、…、16cと、1つの対象物検出デバイス18a及び1つのコントローラユニット41aが一体化された統合コントローラユニット19と、サーバ42と、ビッグデータメモリ44とを有する。
 図9に示す第2実施形態の光センサシステム40Aは、図8に示す第2実施形態の光センサシステム40と、対象物検出デバイス18が光センサユニット10a、10b、…、10c毎に設けられておらず、1つの対象物検出デバイス18aとして1つのコントローラユニット41aに一体化された構成となっている点を除いて、同様の構成を有するものであり、光センサシステム40Aの光センサデバイス16a(16b、…、16c)及び統合コントローラユニット(以下単に、「統合ユニット」と言う。)19の対象物検出デバイス18aは、それぞれ図1及び図8に示す第1実施形態の光センサユニット10の光センサデバイス16及び対象物検出デバイス18を含むものであるので、同一の構成要素には同一の参照符号を付し、その説明を省略する。
 光センサデバイス16aは、図1及び図8に示す光センサデバイス16と同様に、レンズ20と、光センサ22と、多数組の2種以上のフィルタ24からなるフィルタアレイと、信号処理部26と、演算部28と、メモリ30とを有し、更に、検出データ及び制御信号の無線送信を行う通信部46とを有する。
 通信部46は、演算部28で演算され、イメージワイズに取得された特定波長の信号強度、その信号強度の時間変化、及び対象物12の2次元形状情報等の、演算部28から送られた検出データを演算部28から受け取り、無線信号に変換して、統合ユニット19の対象物検出デバイス18aに無線送信すると共に、統合ユニット19から複数の光センサデバイス16a、16b、…、16cを制御する制御信号、例えば特定波長の信号強度等の送信タイミング等の制御信号の無線信号を無線受信するものである。
 なお、複数の光センサデバイス16b、…、16cは、いずれも光センサデバイス16aと同一の構成を有するものであるが、各光センサデバイス16a、16b、…、16cのフィルタ24a及び24bの組は、各光センサユニットにおいて光の透過スペクトルが同じであっても良いし、対象物12に応じて各光センサデバイス毎に異なっていても良い。例えば、検査対象が1つの対象物12に特定されている場合には、同じフィルタ24a及び24bの組を用いれば良いし、検査対象が複数の対象物12にわたる場合には、各対象物12に応じて適切な透過スペクトルを持つフィルタ24a及び24bの組を用いれば良い。
 統合ユニット19は、通信部48、統合部53、比較部32、判別部34、メモリ36、及び出力部38を備える対象物検出デバイス18aと、通信部51、入力部54、条件決定部56、及び制御信号生成部58を備えるコントローラユニット41aとを有する。
 なお、図9に示す対象物検出デバイス18aは、図1及び図8に示す対象物検出デバイス18と、通信部48、及び統合部53を有している点で異なる。また、図9に示すコントローラユニット41aは、図8に示すコントローラユニット41と、統合部52を有しておらず、通信部51の機能が通信部50とサーバ42との間の通信である点で異なる。
 対象物検出デバイス18aにおいて、通信部48は、複数の光センサデバイス16a、16b、…、16cからの特定波長の信号強度、その信号強度の時間変化、及び対象物12の2次元形状情報等を通信信号として受信するとともに、制御信号生成部58で生成された制御信号を複数の光センサデバイス16a、16b、…、16cに通信信号として送信するためのものである。
 統合部53は、通信部48で受信した複数の光センサデバイス16a、16b、…、16cからの特定波長の信号強度、その信号強度の時間変化、及び対象物12の2次元形状情報等を光センサデバイス16a、16b、…、16c毎に分類し、光センサデバイス16a、16b、…、16c毎に統合して、各光センサデバイス16a、16b、…、16c毎に後段の対象物検出デバイス18aの比較部32及び判別部34においてデータの比較及び対象物の判別を行うための検出データとするためのものである。なお、光センサデバイス16a、16b、…、16cが、同一のフィルタ24a及び24bの組からなるものである時には、統合部53はなくても良いし、又はスルーするようにしても良い。
 通信部51は、図8に示す通信部50と異なり光センサユニット10a、10b、…、10cとの間の通信は行わないが、サーバ42との間の通信を行うためのものであり、サーバ42との間の通信機能は同様である。
 条件決定部56は、図8に示すコントローラユニット41の条件決定部56と同様の構成を有するが、決定する条件等、即ち制御条件等が複数の光センサデバイス16a、16b、…、16cの制御条件である点で異なる以外は、同様の機能を有する。
 制御信号生成部58は、図8に示すコントローラユニット41の制御信号生成部56と同様の構成を有するが、生成される設定データ及び測定開始信号等の制御信号が複数の光センサデバイス16a、16b、…、16cの制御信号であり、このような制御信号を、通信部48を介して複数の光センサデバイス16a、16b、…、16cに送信する点で異なる以外は、同様の機能を有する。
 サーバ42は、対象物12に関する過去データ(ビッグデータ又はその抽出データ)を統合ユニット19のコントローラユニット41aに送ると共に、コントローラユニット41aから送られてきた対象物12に対応する判別結果の統合データを対象物12毎に蓄積し、また、必要に応じて過去データとして分類して蓄積するためのものであり、また、通信部60、51を介して、条件決定部56の判別条件を変更することもできるものである。ビッグデータに蓄積されるデータから自動的に判別条件を生成することにより、常時最新の情報に基づいた判別ができるメリットがある。サーバ42は、図8に示すサーバ42と同一の構成を有する。
 なお、統合ユニット19においては、対象物検出デバイス18aの通信部48と比較部32との間に統合部53を配置しているが、統合部53を配置せずに、判別部34の後段に、例えば対象物検出デバイス18a内に、もしくはコントローラユニット41a内に、図8に示す統合部52と同様の機能を有する統合部を配置しても良い。
 また、統合ユニット19においては、同様の機能を有する通信部51及び出力部38を有しているが、通信部51に出力部38の機能の一部又は全部を持たせて出力部38を設けなくても良いし、更に、通信部48と通信部51とを統合して1つの通信部としても良い。
 本第2実施形態の光センサシステムは、基本的に以上のように構成される。
 次に、図10に、図8に示す本第1実施形態の光センサシステムの具体的な適用例を示す。
 図10に示す光センサシステム40Bは、複数の光センサユニット17(17a、17b、17c)と、コントローラユニット41と、サーバ42と、ビッグデータメモリ44とを有する。
 図10に示す光センサシステム40Bにおける、複数の光センサユニット17(17a、17b、17c)は、図1及び図8に示す光センサユニット10(10a、10b、10c)を含む構成である。したがって、光センサユニット10の構成と重複する複数の光センサユニット17の構成には、同一の番号を付し、その説明を省略する。
 複数の光センサユニット17(17a、17b、17c)は、建造物、又は工場設備等12a、生体12b、例えば生体組織、又は自動運転中の自動車等の周辺の物体12c等を対象物12とするもので、対象物12に光センサユニット17に付随的に取り付けられた3種の赤外レーザ(光源)14から赤外レーザ光をそれぞれレンズアレイ21bの3種の集光レンズ20cで集光してアクティブ信号Saとして照射し、対象物12からの3種の反射光をターゲット信号Spとして受光する。この時、光センサユニット17に入射する反射光には、対象物12からのターゲット信号Spのみならず、大気吸収及び散乱等の減衰ノイズNa及び周辺熱及び反射散乱光等の環境ノイズNeも含まれる。
 ここで、光センサユニット17は、図10に示すように、1枚の大型のレンズ20a、及びマイクロレンズ20bがアレイ状に配列されたマイクロレンズアレイ21aからなるレンズ20と、図7Aに示すような3種のフィルタ(マイクロフィルタ)24a、24b、及び24cがアレイ状に配列されたフィルタ(マイクロフィルタアレイ)24と、フィルタ24a、24b、及び24cに対応して画素が配置された光センサ22と、信号処理IC(集積回路;Integrated Circuit)66と、データ処理IC68と、システム制御IC70と、通信IC72と、電源IC74と、を有する。
 光センサユニット17には、光センサ22の基板に近接して付随する3種の赤外レーザ14が設けられており、マクロレンズアレイ21aに近接して付随するレンズアレイ21bの3種のレンズ20cが設けられている。
 レンズ20を構成する1枚のレンズ20aは、対象物12からの3種の反射光全体を集光するものである。レンズ20を構成するマクロレンズアレイ21aは、光センサ22の各画素に対応して設けられたマイクロレンズ20bがアレイ状に配列されたもので、マイクロレンズ20bは、レンズ20aで集光され、光センサ22の各画素に入射する入射光を集光するものである。
 なお、図7Aに示すように、フィルタ24の3種のフィルタ24a、24b、及び24cと、これらに対応する光センサ22の各画素とは、3種の受光画素25a、25b、及び25cを構成し、フィルタ24と光センサ22とは、上述の通り、3種の受光画素25a、25b、及び25cが複数組アレイ状の配列されたセンサアセンブリ25Bを構成する。
 信号処理IC66は、図1及び図8に示す信号処理部26、演算部28、及びメモリ30等をIC化したもので、複数組の3種の受光画素25a、25b、及び25cで得られた3種の出力信号(受光信号)を信号処理部26で前処理して、前処理された信号、即ち複数組の3種の出力信号から各組の2種類の2種の出力信号の差分を演算して2種類の特定波長の信号強度をデジタル画像信号として求め、後段のデータ処理IC68に送るものである。
 データ処理IC68は、図1及び図8に示す比較部32、制御部26、及びメモリ36等をIC化したもので、信号処理IC66でデジタル画像信号として求められた2種類の特定波長の信号強度、対象物12の2次元形状情報、及び特定波長の信号強度の時間変化から選ばれる1種以上の検出データを、比較部32で予め設定された、対象物12に対応する設定データと比較し、比較部32の比較結果に基づいて対象物12であるかどうかを判別部34で判別して、判別部34における判別結果を後段のIC、例えば通信IC72に送るものである。
 システム制御IC70は、光センサユニット17を構成する全体のシステム構成を制御するためのもので、光センサユニット17自体の制御条件及び制御信号や、コントローラユニット41から受信した制御条件及び制御信号に基づいて、光センサユニット17自体具体的には、光センサ22、信号処理IC66、データ処理IC68、通信IC72、及び電源IC74等を制御する。
 なお、システム制御IC70は、コントローラユニット41からの測定開始の指示信号を受けて、コントローラユニット41からの測定条件及び検出条件の設定、並びに対象物12の状況判断を行い、測定可能であると判断すれば、測定を開始するように制御する。
 また、システム制御IC70は、各フィルタ24を透過した光の特体波長の信号、その時間変化、形状を、予め設定した対象物12に対応する条件と比較し、対象物12かどうかを判断するようにしても良い。この場合には、必要に応じてコントローラユニット41に、判断に関して問合せを行っても良い。また、対象物12か否かの判断後、判断結果をコントローラユニット41に送信報告して、光センサユニット17を、次の指示を待つ状態としても良い。
 通信IC72は、図8に示す通信部として機能する出力部38をIC化したもので、データ処理IC68で得られた判別結果等を受け取り通信信号に変換して、コントローラユニット41に送信すると共に、コントローラユニット41から複数の光センサユニット17(17a、17b、17c)を制御する制御信号を受信するものである。
 電源IC74は、光センサユニット17の電源を制御するものである。
 図11は、図10に示す第1実施形態の光センサシステム40Bにおいて実施される対象物検出のフローの1例を示すフローチャートである。
 まず、コントローラユニット41において、ステップS10では、対象物12を決定し、例えば、入力部54から入力する。
 次に、ステップS12において、条件決定部56で、サーバ42及び/又はビッグデータメモリ44から得られたビッグデータ(過去データ)から対象物12の特徴条件を抽出する。
 次いで、ステップS14において、条件決定部56で、抽出された対象物12の特徴条件から対象物12に対応する検出条件を決定する。
 続いて、ステップS16において、コントローラユニット19の制御信号生成部58から各光センサユニット17(17a、17b、17c)に向けて、測定開始を指示する測定開始信号を送信する。
 次に、光センサユニット17において、ステップS18では、システム制御IC70で、コントローラユニット41からの測定開始の指示信号を受けて、測定条件及び検出条件の設定、並びに対象物12の状況判断を行い、測定可能であると判断すれば、測定を開始するように制御する。
 次に、ステップS20において、対象物検出に適した特定の信号(Sa)を載せたレーザ14を対象物方向に発光させて、レーザ光を対象物に向けて照射する。
 次に、ステップS22において、特定の信号(Sa)に同期した受光信号をフィルタ24及び光センサ22からなるセンサアセンブリ25Bによって検出し、信号処理IC66で規定の信号処理を行い、各フィルタ24を透過した光の特体波長の信号、その時間変化、形状のデータを取得する。
 次に、ステップS24において、データ処理IC68で、各フィルタ24を透過した光の特体波長の信号、その時間変化、形状のデータを、予め設定した対象物12に対応する条件と比較部32において比較し、対象物12か否かを判別部34で判断し、判別する。この場合には、システム制御IC70から、必要に応じてコントローラユニット41に、データ処理IC68での判断に関して問合せを行っても良い。
 次に、ステップS26において、データ処理IC68で、対象物12か否かの判断後、判断結果をコントローラユニット41に送信報告して、光センサユニット17を、次の指示を待つ状態とする。
 次に、ステップS28において、光センサユニット17のシステム制御IC70からコントローラユニット41に、データ処理IC68での判断に関して問い合せをした場合には、コントローラユニット41では、問い合せに応じて、条件決定部56で、ビッグデータ(過去データ)を参照しながら、対象物12の判断サポート情報を決定し、対象物12の判断サポート情報を光センサユニット17のシステム制御IC70に送信する。
 この後、ステップS24に戻り、データ処理IC68で、更に、システム制御IC70で得られた対象物12の判断サポート情報も用いて、対象物12かどうかを判断する。判断できれば、ステップS26に移り、判断結果をコントローラユニット41に送信報告して、光センサユニット17を、次の指示を待つ状態とする。
 この後、コントローラユニット41では、ステップS30において、送信された判断結果に対応して、他のデバイスに指示を出し、その結果を受けて確認し、光センサユニット17に新たな指示を行う。この後、ステップS18に戻る。
 本発明の第1実施形態の光センサシステム及びその対象物検出フローは、基本的に以上のように構成される。
 以上、本発明の光センサユニット及び光センサシステムについての種々の実施形態及び実施例を挙げて詳細に説明したが、本発明は、これらの実施形態及び実施例に限定されず、本発明の主旨を逸脱しない範囲において、種々の改良又は変更が可能である。
10、10a、10b、10c、17、17a、17b、17c 光センサユニット
12、12a、12b、12c 対象物
14 光源
16、16a、16b、16c 光センサデバイス
18、18a 対象物検出デバイス
19 統合コントローラユニット
20、20a、20b、20c レンズ
21a、21b マイクロレンズアレイ
22 光センサ
24、24a、24b フィルタ
25、25A、25B センサアセンブリ
25a、25b 受光画素
26 信号処理部
28 演算部
30、36 メモリ
32 比較部
34 判別部
38 出力部
40、40A、40B 光センサシステム
41、41a コントローラユニット
42 サーバ
44 ビッグデータメモリ
46、50、51、60 通信部
52、53 統合部
54 入力部
56 条件決定部
58 制御信号生成部
63 出力部
66 信号処理IC
68 データ処理IC
70 システム制御IC
72 通信IC
74 電源IC
Sa アクティブ信号
Sp ターゲット信号
Na 減衰ノイズ
Ne 環境ノイズ

Claims (15)

  1.  互いに透過スペクトルの半値波長の差が200nm以下である2種以上のフィルタと、
     前記2種以上のフィルタをそれぞれ透過した光を検出し、2種以上の出力信号を出力する1つ以上の光センサと、
     演算部と、を有し、
     前記演算部は、前記2種以上の出力信号の内の2つの出力信号の差分を前記2種以上のフィルタの対応する2つのフィルタを透過した光の吸収スペクトルの波形からそれぞれ逆演算して、1種以上の特定波長の信号強度を求める光センサデバイス。
  2.  前記2種以上のフィルタは、互いに透過スペクトルの半値波長の差が200nm以下である2つのフィルタからなる複数組のフィルタ対であり、
     前記1つ以上の光センサは、前記複数組のフィルタ対のそれぞれの前記2つのフィルタを透過した光をそれぞれ検出し、複数組の2つの出力信号を出力する複数の光センサであり、
     前記演算部は、前記2つの出力信号の差分を前記2つのフィルタを透過した光の吸収スペクトルの波形からそれぞれ逆演算して、複数組の前記特定波長の信号強度を求める請求項1に記載の光センサデバイス。
  3.  前記2種以上のフィルタは、隣接する2つの光センサにそれぞれ配置される請求項1又は2に記載の光センサデバイス。
  4.  前記2種以上のフィルタは、同じ1つの光センサに配置される請求項1又は2に記載の光センサデバイス。
  5.  前記2種以上のフィルタを配置した1つの光センサ、又は前記2種以上のフィルタをそれぞれ配置し、かつ隣接する2つ以上の光センサを2次元状に複数組並べることにより、前記特定波長の信号強度を画像信号として取得する請求項1~4のいずれか1項に記載の光センサデバイス。
  6.  前記特定波長の信号強度は、時間分解で測定される請求項1~5のいずれか1項に記載の光センサデバイス。
  7.  2種以上の波長の信号を検出する多波長検出光センサデバイスであって、
     前記2種以上のフィルタは、2種以上の異なる透過スペクトルを有するフィルタであり、
     前記演算部は、2種以上の特定波長の信号強度を求めるものである請求項1~6のいずれか1項に記載の光センサデバイス。
  8.  前記フィルタが、光硬化性樹脂組成物からなる請求項1~7のいずれか1項に記載の光センサデバイス。
  9.  前記フィルタの膜厚が、10μm以下である請求項1~8のいずれか1項に記載の光センサデバイス。
  10.  前記フィルタの透過スペクトルの半値波長が、700nm以上である請求項1~9のいずれか1項に記載の光センサデバイス。
  11.  対象物からの光を受光する請求項1~10のいずれか1項に記載の光センサデバイスと、
     前記光センサデバイスにおいて得られる前記1種以上の特定波長の信号強度、前記対象物の2次元形状情報、及び前記1種以上の特定波長の信号強度の時間変化から選ばれる1種以上の検出データを、予め設定された、前記対象物に対応する設定データと比較する比較部と、
     前記比較部の比較結果に基づいて前記対象物であるかどうかを判別する判別部と、を有することを特徴とする光センサユニット。
  12.  前記対象物に対応する予め設定された設定データは、ネットワーク上に蓄積された前記対象物に対応する前記設定データである請求項11に記載の光センサユニット。
  13.  請求項11に記載の光センサユニットと、
     判別するべき前記対象物を決定し、前記対象物に関する過去のデータから前記対象物の特徴を抽出し、抽出された前記対象物の特徴に基づいて前記対象物に対応する条件を決定し、前記対象物に対応する設定データとして予め設定しておくコントローラユニットと、を有することを特徴とする光センサシステム。
  14.  前記コントローラユニットは、前記設定データとして、ネットワーク上に蓄積された前記対象物に対応する設定データを設定し、前記光センサユニットに測定開始を指示する請求項13に記載の光センサシステム。
  15.  複数の前記光センサユニットを有し、
     前記コントローラユニットは、前記複数の光センサユニットを制御する請求項13又は14に記載の光センサシステム。
PCT/JP2016/070094 2015-07-29 2016-07-07 光センサデバイス、光センサユニット及び光センサシステム WO2017018150A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017531113A JPWO2017018150A1 (ja) 2015-07-29 2016-07-07 光センサデバイス、光センサユニット及び光センサシステム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015149927 2015-07-29
JP2015-149927 2015-07-29

Publications (1)

Publication Number Publication Date
WO2017018150A1 true WO2017018150A1 (ja) 2017-02-02

Family

ID=57884316

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/070094 WO2017018150A1 (ja) 2015-07-29 2016-07-07 光センサデバイス、光センサユニット及び光センサシステム

Country Status (3)

Country Link
JP (1) JPWO2017018150A1 (ja)
TW (1) TW201704722A (ja)
WO (1) WO2017018150A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018163766A1 (ja) * 2017-03-09 2018-09-13 富士フイルム株式会社 構造体、キットおよび光センサ
CN109800609A (zh) * 2017-11-17 2019-05-24 原相科技股份有限公司 传感器模块、感测单元、识别外围物件与定义环境的系统
WO2022003813A1 (ja) * 2020-06-30 2022-01-06 シャープ株式会社 電磁波センサ装置および表示装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190339362A1 (en) * 2018-05-03 2019-11-07 Mediatek Inc. Signature-based object detection method and associated apparatus

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05256698A (ja) * 1992-03-11 1993-10-05 Seikosha Co Ltd 赤外線検出装置
JPH11275429A (ja) * 1998-03-26 1999-10-08 Nippon Hoso Kyokai <Nhk> 波長選択型カメラ装置
JP2001159567A (ja) * 1999-12-02 2001-06-12 Mitsubishi Electric Corp 分光撮像方法および装置
JP2008021736A (ja) * 2006-07-11 2008-01-31 Toppan Printing Co Ltd 光センサ、フィルタおよびフィルタ製造方法
JP2010267086A (ja) * 2009-05-14 2010-11-25 Sony Corp 静脈撮像装置、位置ズレ補間方法およびプログラム
JP2011082859A (ja) * 2009-10-08 2011-04-21 Honda Motor Co Ltd 撮像装置、撮像システム及び演算方法
US20120200535A1 (en) * 2011-02-09 2012-08-09 Dornerworks, Ltd. System and method for improving machine vision in the presence of ambient light
JP2013235227A (ja) * 2011-12-14 2013-11-21 Rohm Co Ltd 光学フィルタ及びその製造方法並びに光検出装置、オートライト装置
JP2014238278A (ja) * 2013-06-06 2014-12-18 オプテックス株式会社 物体検出システム
WO2015059897A1 (ja) * 2013-10-23 2015-04-30 日本電気株式会社 映像撮影装置、映像撮影方法、符号型赤外カットフィルタ、および符号型特定色カットフィルタ

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05256698A (ja) * 1992-03-11 1993-10-05 Seikosha Co Ltd 赤外線検出装置
JPH11275429A (ja) * 1998-03-26 1999-10-08 Nippon Hoso Kyokai <Nhk> 波長選択型カメラ装置
JP2001159567A (ja) * 1999-12-02 2001-06-12 Mitsubishi Electric Corp 分光撮像方法および装置
JP2008021736A (ja) * 2006-07-11 2008-01-31 Toppan Printing Co Ltd 光センサ、フィルタおよびフィルタ製造方法
JP2010267086A (ja) * 2009-05-14 2010-11-25 Sony Corp 静脈撮像装置、位置ズレ補間方法およびプログラム
JP2011082859A (ja) * 2009-10-08 2011-04-21 Honda Motor Co Ltd 撮像装置、撮像システム及び演算方法
US20120200535A1 (en) * 2011-02-09 2012-08-09 Dornerworks, Ltd. System and method for improving machine vision in the presence of ambient light
JP2013235227A (ja) * 2011-12-14 2013-11-21 Rohm Co Ltd 光学フィルタ及びその製造方法並びに光検出装置、オートライト装置
JP2014238278A (ja) * 2013-06-06 2014-12-18 オプテックス株式会社 物体検出システム
WO2015059897A1 (ja) * 2013-10-23 2015-04-30 日本電気株式会社 映像撮影装置、映像撮影方法、符号型赤外カットフィルタ、および符号型特定色カットフィルタ

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018163766A1 (ja) * 2017-03-09 2018-09-13 富士フイルム株式会社 構造体、キットおよび光センサ
JPWO2018163766A1 (ja) * 2017-03-09 2019-12-26 富士フイルム株式会社 構造体、キットおよび光センサ
US10802186B2 (en) 2017-03-09 2020-10-13 Fujifilm Corporation Structure, kit, and optical sensor
CN109800609A (zh) * 2017-11-17 2019-05-24 原相科技股份有限公司 传感器模块、感测单元、识别外围物件与定义环境的系统
WO2022003813A1 (ja) * 2020-06-30 2022-01-06 シャープ株式会社 電磁波センサ装置および表示装置

Also Published As

Publication number Publication date
TW201704722A (zh) 2017-02-01
JPWO2017018150A1 (ja) 2018-02-22

Similar Documents

Publication Publication Date Title
US10516836B2 (en) Imaging device
WO2017018150A1 (ja) 光センサデバイス、光センサユニット及び光センサシステム
Benavides et al. Multispectral digital colposcopy for in vivo detection of cervical cancer
US7046359B2 (en) System and method for dynamic chemical imaging
TWI380117B (en) Method and system for wavelength-dependent imaging and detection using a hybrid filter
US20140194748A1 (en) Imaging device
US7956991B2 (en) Method and apparatus for interactive hyperspectral image subtraction
US20080144013A1 (en) System and method for co-registered hyperspectral imaging
US8263956B2 (en) Optical flow channel measuring instrument
CN101124461A (zh) 暗场化学成像的方法和设备
CA2444517A1 (en) Method and system for inspecting optical devices
WO2015111349A1 (ja) 多色蛍光画像分析装置
US11096586B1 (en) Systems for detecting carious lesions in teeth using short-wave infrared light
Spigulis et al. Multi-spectral skin imaging by a consumer photo-camera
JP4868879B2 (ja) 細胞状態検出装置
JP7355408B2 (ja) 撮像装置
WO2004038350A1 (ja) 光源ユニット、受光ユニット及びこれらを用いたマルチチャンネル光検出装置
JP2012189342A (ja) 顕微分光測定装置
JP2020193928A (ja) 2次元分光測定システム及びデータの処理方法
JP6682380B2 (ja) ガス画像センサ装置およびガス画像撮像測定装置およびガス画像撮像測定システム
CN113504185A (zh) 结合libs定标的多光谱农产品重金属含量检测建模系统
JP5191831B2 (ja) 被検体観測装置及び被検体観測装置の作動方法
KR20160014340A (ko) 형광수명 분석 시스템 및 그 분석 방법
JPH10227694A (ja) 発光現象識別装置
WO2023026742A1 (ja) 色素画像取得方法、色素画像取得装置、及び色素画像取得プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16830255

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017531113

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16830255

Country of ref document: EP

Kind code of ref document: A1