WO2017168711A1 - 撮像素子、撮像システムおよび撮像方法 - Google Patents

撮像素子、撮像システムおよび撮像方法 Download PDF

Info

Publication number
WO2017168711A1
WO2017168711A1 PCT/JP2016/060789 JP2016060789W WO2017168711A1 WO 2017168711 A1 WO2017168711 A1 WO 2017168711A1 JP 2016060789 W JP2016060789 W JP 2016060789W WO 2017168711 A1 WO2017168711 A1 WO 2017168711A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
subject
signal
pattern
chip
Prior art date
Application number
PCT/JP2016/060789
Other languages
English (en)
French (fr)
Inventor
航 船水
暁 大舘
洋二郎 手塚
高木 徹
奏太 中西
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Priority to PCT/JP2016/060789 priority Critical patent/WO2017168711A1/ja
Publication of WO2017168711A1 publication Critical patent/WO2017168711A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/42Photometry, e.g. photographic exposure meter using electric radiation detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/42Photometry, e.g. photographic exposure meter using electric radiation detectors
    • G01J1/44Electric circuits
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components

Definitions

  • the present invention relates to an imaging device, an imaging system, and an imaging method.
  • a light receiving unit having a plurality of pixels that output a light reception signal corresponding to the amount of received light and a pixel block including one or a plurality of pixels
  • An imaging device includes a detection unit that performs heterodyne detection on a light reception signal output from a pixel included in a corresponding pixel block at a reference frequency determined according to the frequency of intensity modulation.
  • a light source that irradiates the subject while moving the pattern in a third direction different from the first direction and the second direction, and the detector is configured to detect the first direction and the second direction.
  • the irradiation light having a pattern in which the intensity of light is periodically modulated in each of the first direction and the second direction different from the first direction is the first direction and
  • the object is irradiated while moving the pattern in a third direction different from the second direction, and the reference frequency determined in accordance with the period of light intensity and the moving speed in the pattern in the first direction and the second direction.
  • An outline of the configuration of the imaging system 200 is shown.
  • 2 shows an exemplary configuration of an imaging system 200.
  • An example of the configuration of the IV conversion unit 20 is shown.
  • An example of the configuration of the IV conversion unit 20 is shown.
  • An example of the configuration of the IV conversion unit 20 is shown.
  • 2 shows an exemplary configuration of an imaging system 200.
  • An example of a cross-sectional view of the intermediate layer 90 is shown.
  • An example of a cross-sectional view of the intermediate layer 90 is shown.
  • An example of a cross-sectional view of the intermediate layer 90 is shown.
  • 2 shows an exemplary configuration of an imaging system 200.
  • 1 illustrates an example of a configuration of an imaging system 200 according to a first embodiment. The penetration frequency dependency of the penetration length when the intensity modulation method is used is shown.
  • FIG. 2 shows an exemplary configuration of an imaging system 200 according to a second embodiment.
  • movement method of the imaging system 200 which concerns on Example 3 is shown.
  • 5 is a flowchart illustrating an example of the operation of the imaging system 200.
  • An example of the subject 2 having a biological sample 4 and a solution 5 is shown.
  • FIG. 1 shows an outline of the configuration of the imaging system 200.
  • the imaging system 200 includes a light source 1, an imaging element 100, and an output unit 3.
  • the imaging system 200 irradiates the subject 2 with irradiation light, receives the irradiation light scattered by the subject 2, and performs deep observation of the subject 2.
  • the imaging system 200 acquires an image having a depth corresponding to the frequency component included in the irradiation light.
  • the imaging system 200 according to the present specification acquires a deep observation image of the subject 2 by intensity modulation or spatial modulation heterodyne detection.
  • the irradiation light scattered by the subject 2 includes light that is scattered and returned from the subject 2 (that is, reflected light), light that passes through the subject 2 (that is, transmitted light), and the like.
  • the irradiation light scattered by the subject 2 may be simply referred to as scattered light.
  • the light source 1 irradiates the subject 2 with irradiation light whose intensity is modulated at a predetermined modulation frequency.
  • the modulation frequency of the irradiation light is determined according to the depth of the subject 2 to be imaged. The deeper position of the subject 2 can be observed as the modulation frequency of the irradiation light becomes lower, and the shallower position of the subject 2 can be observed as the modulation frequency of the irradiation light becomes higher.
  • the light source 1 of this example irradiates irradiation light having a wavelength in the near infrared region of 700 nm to 1100 nm.
  • the light source 1 may irradiate irradiation light having a wavelength in the near infrared region other than the above region, depending on the type of the subject 2 to be measured. Furthermore, irradiation light having a wavelength region other than the near infrared region, for example, a wavelength in the ultraviolet region may be irradiated.
  • the light source 1 modulates the intensity of the irradiation light with a modulation frequency corresponding to the depth of the observation region of the subject 2.
  • the light source 1 irradiates the subject 2 with irradiation light whose intensity such as a sine wave is periodically modulated.
  • the light source 1 may irradiate the subject 2 with a pulse wave having a predetermined period as irradiation light.
  • the intensity modulation method when the intensity modulation method is used, the light source 1 includes a predetermined frequency component in the irradiation light by modulating the intensity of the irradiation light. Thereby, the scattered light of the subject 2 having a depth corresponding to the modulation frequency of the irradiation light can be obtained.
  • the light source 1 emits irradiation light having a spatial frequency corresponding to the depth of the observation area of the subject 2.
  • the spatial frequency indicates the number of repetitions of modulation included in the unit length when the intensity of irradiation light is modulated with a spatial period.
  • the light source 1 irradiates the subject 2 with irradiation light having patterns having different spatial frequencies.
  • the irradiation light has a stripe pattern whose intensity is modulated in a predetermined direction.
  • the light source 1 generates irradiation light that is spatially modulated using a projector or an interferometer.
  • the projector is a near infrared projector having a wavelength of 850 nm and a display speed of 500 Hz.
  • the irradiation light pattern may be a one-dimensional stripe or a two-dimensional stripe.
  • the fringe pattern may be a pattern having a uniform stripe interval as shown by a sine wave function or a pattern having different stripe intervals. Even if the fringe intervals are different from each other, the circuit in the subsequent stage has information on the pattern of the irradiation light, so that processing according to the pattern of the irradiation light can be performed.
  • the image sensor 100 receives the irradiation light scattered by the subject 2 and performs heterodyne detection.
  • Heterodyne detection is a detection method that combines a frequency component of intensity modulation contained in a received light signal with a reference frequency component of intensity modulation contained in a reference signal to synthesize a signal having a lower frequency.
  • the image sensor 100 includes a light receiving unit 10 and a detection unit 11.
  • the image sensor 100 has a structure in which a plurality of chips are stacked.
  • the light receiver 10 and the detector 11 may be provided on the same chip or different chips.
  • the light receiving unit 10 has a plurality of pixels for receiving irradiation light scattered by the subject 2.
  • the plurality of pixels are two-dimensionally arranged on a predetermined light receiving surface.
  • Each pixel outputs a light reception signal corresponding to the amount of received light.
  • Each pixel outputs a light reception signal having a time waveform corresponding to the variation in the amount of received light.
  • the light reception signal is a current signal generated by irradiation light received by each pixel or a voltage signal obtained by converting the current signal.
  • the light receiving unit 10 outputs a light reception signal corresponding to the amount of light received by the plurality of pixels for each of the plurality of pixels.
  • the light receiving unit 10 includes a photodiode (PD), an avalanche photodiode (APD), or a phototransistor.
  • the detection unit 11 performs heterodyne detection by mixing the light reception signal output from the light reception unit 10 and a signal having a reference frequency corresponding to the frequency of intensity modulation of the light reception signal.
  • the reference frequency is a frequency slightly different from the frequency of intensity modulation.
  • the frequency of intensity modulation of the received light signal substantially coincides with the modulation frequency of the irradiation light emitted from the light source 1 to the subject 2.
  • the detection part 11 may acquire the information which shows the modulation frequency of the irradiation light which the light source 1 irradiated from the light source 1, and may adjust the reference frequency of a reference signal based on the said information.
  • the detector 11 is provided for each pixel block including one or a plurality of pixels.
  • Each pixel block may have one pixel. That is, the detection unit 11 may be provided for each pixel. In this case, the deep observation image of the subject 2 can be acquired at high speed. Each pixel block may have a plurality of pixels. In this case, the detection unit 11 selects a plurality of pixels by time division for each corresponding pixel block, and performs heterodyne detection of the received light signals from the respective pixels by time division. Thereby, the deep observation image of the subject 2 can be acquired without providing the detection unit 11 for each pixel of the light receiving unit 10. In one example, the detection unit 11 is provided for each pixel block having four pixels.
  • the output unit 3 outputs a deep observation image of the subject 2 based on the signal heterodyne detected by the detection unit 11.
  • the output unit 3 includes a reading circuit 60 and an image generation unit 80.
  • the output unit 3 may output and display the acquired deep observation image of the subject 2 on a display unit provided outside.
  • Read circuit 60 reads and calculates the signal heterodyne detected by the detector 11. For example, the readout circuit 60 performs post processing such as sum of squares, and calculates the amplitude component of the signal detected by the detection unit 11 through heterodyne detection.
  • the image generation unit 80 generates a signal necessary for the deep observation image of the subject 2 based on the calculation result of the readout circuit 60. For example, the image generation unit 80 generates a signal for generating a tomographic image (tomographic image).
  • the image generation unit 80 may include a smoothing filter.
  • the imaging system 200 is used for diffuse optical tomography (DOT: Diffuse Optical Tomography) as an example.
  • the diffuse light tomography is a technique for estimating the internal characteristics of the subject 2 by, for example, irradiating the subject 2 with the irradiation light and detecting the irradiation light propagating through the subject 2.
  • the imaging system 200 can be used to diagnose the state of the brain by detecting blood flow in the brain of the subject 2.
  • the imaging system 200 can be used as an endoscope to perform deep observation inside the body.
  • FIG. 2 shows a specific example of the configuration of the imaging system 200.
  • the light receiving unit 10 includes a plurality of pixel blocks 16. Each pixel block 16 has one or more pixels 14. Each pixel 14 includes a photoelectric conversion unit 12 and an IV conversion unit 20.
  • the detection unit 11 is provided for each pixel block 16. Each detector 11 performs heterodyne detection on the received light signals output from the respective pixel blocks 16 in parallel. Thereby, the processing speed of heterodyne detection can be improved.
  • Each detection unit 11 includes a multiplier circuit 32, a filter circuit 42, and a memory circuit 52.
  • the multiplication circuit 32 includes a multiplication unit 30 and a multiplication unit 35.
  • the filter circuit 42 includes a filter unit 40 and a filter unit 45.
  • the memory circuit 52 includes a storage unit 50 and a storage unit 55.
  • the imaging system 200 of this example further includes a reference signal generation unit 70.
  • the reference signal generation unit 70 may be provided outside the image sensor 100.
  • the photoelectric conversion unit 12 is, for example, a photodiode (PD), an avalanche photodiode (APD), or a phototransistor.
  • the photoelectric conversion unit 12 outputs a current corresponding to the amount of received light.
  • the IV conversion unit 20 outputs a light reception signal obtained by converting the current output from the photoelectric conversion unit 12 into a voltage.
  • the IV conversion unit 20 is not particularly limited as long as it is a circuit that converts the current output from the photoelectric conversion unit 12 into a voltage.
  • the IV conversion unit 20 includes a resistor or a transimpedance amplifier.
  • the multipliers 30 and 35 output a multiplication signal obtained by multiplying the light reception signal output from the IV conversion unit 20 by the reference voltage signal input from the reference signal generation unit 70.
  • the multipliers 30 and 35 in this example multiply the reference voltage signal so as to obtain multiplication signals that are out of phase with each other.
  • the multiplication unit 30 outputs a multiplication signal obtained by multiplying the light reception signal by a sine wave
  • the multiplication unit 35 outputs a multiplication signal obtained by multiplying the light reception signal by a cosine wave.
  • the amplitude of the received light signal can be calculated by acquiring the signals whose phases are shifted by ⁇ / 2 and calculating the sum of squares in the subsequent circuit.
  • the multipliers 30 and 35 have transistors in which the light reception signal is input to the emitter or collector terminal and the reference voltage signal is input to the gate terminal.
  • the filter units 40 and 45 perform a filtering process on a part of the frequency band of the multiplication signal output from the multiplication units 30 and 35.
  • the filter units 40 and 45 remove a band lower than a predetermined cutoff frequency from the multiplication signal.
  • the filter units 40 and 45 remove a stationary component such as background light and extract a frequency component for heterodyne detection.
  • the filter units 40 and 45 have a band pass filter (BPF) such as RC-LPF.
  • Storage units 50 and 55 temporarily store the output signals of filter units 40 and 45.
  • the storage units 50 and 55 include a sample hold circuit or an analog memory.
  • the capacitors may be formed of a wiring layer called MIM.
  • the base layer of the MIM becomes an empty space, and the filter units 40 and 45 can be formed in the space. Thereby, the exclusive area of the filter parts 40 and 45 and the memory
  • FIG. 3 shows an example of the configuration of the IV conversion unit 20.
  • the IV conversion unit 20 converts the current output from the photoelectric conversion unit 12 that is a photodiode into a voltage.
  • the IV conversion unit 20 includes an operational amplifier 21 and a feedback resistor R1.
  • the inverting input terminal of the operational amplifier 21 is connected to the photoelectric conversion unit 12, and the positive side input terminal is connected to a reference line such as the ground GND.
  • the feedback resistor R1 is connected between the inverting input terminal and the output terminal of the operational amplifier 21 so as to provide negative feedback.
  • the IV conversion unit 20 converts the current output from the photoelectric conversion unit 12 into a voltage.
  • FIG. 4 shows an example of the configuration of the IV conversion unit 20.
  • the IV conversion unit 20 of this example includes an operational amplifier 21 and a resistor R2.
  • the resistor R2 is connected between the positive input terminal and the negative input terminal of the operational amplifier 21. Further, one end of the resistor R2 is connected to the photoelectric conversion unit 12, and the other end is connected to a reference line such as the ground GND. With such a configuration, the IV conversion unit 20 converts the current output from the photoelectric conversion unit 12 into a voltage.
  • FIG. 5 shows an example of the configuration of the IV conversion unit 20.
  • the IV conversion unit 20 of this example includes an operational amplifier 21 and a transistor TR.
  • the inverting input terminal of the operational amplifier 21 is connected to the photoelectric conversion unit 12, and the positive side input terminal is connected to a reference line such as the ground GND.
  • the transistor TR is connected between the positive side input terminal and the negative side input terminal of the operational amplifier 21.
  • the transistor TR operates as a constant current source by a bias voltage applied to the gate terminal. With such a configuration, the IV conversion unit 20 converts the current output from the photoelectric conversion unit 12 into a voltage.
  • FIG. 6 shows an example of the configuration of the imaging system 200.
  • the image sensor 100 of this example has a stacked structure of a pixel chip 8, an intermediate layer 90, and a circuit chip 9.
  • the pixel chip 8 and the circuit chip 9 are examples of a first chip and a second chip.
  • Other basic circuit configurations are the same as those of the imaging system 200 shown in FIG.
  • one detection unit 11 is shown in FIG. 6, the image sensor 100 has a plurality of detection units 11.
  • the light receiving unit 10 and the multiplication circuit 32 are formed.
  • a memory circuit 52 is formed in the circuit chip 9.
  • the output unit 3 is provided outside the image sensor 100.
  • the intermediate layer 90 is disposed between the pixel chip 8 and the circuit chip 9.
  • the intermediate layer 90 has a filter circuit 42.
  • the filter circuit 42 has vias that penetrate the intermediate layer 90.
  • the filter circuit 42 is a through silicon via (TSV: Through-Silicon Via).
  • TSV Through-Silicon Via
  • FIG. 7 shows an example of a partial cross-sectional view of the intermediate layer 90.
  • the figure shows the shape of the intermediate layer 90 in a cross section parallel to the surface direction of the intermediate layer 90.
  • the intermediate layer 90 in this example includes a substrate 91, a resistance via 92, and a post 93.
  • the resistance via 92 and the post 93 function as the filter unit 40 or the filter unit 45.
  • One or more resistance vias 92 are formed in the intermediate layer 90 for each filter portion.
  • the resistance via 92 has a resistance component and a parasitic capacitance component. Therefore, it can function as a part of the filter circuit 42.
  • the resistance via 92 has an annular shape. In the center of the resistance via 92, a post 93 penetrating the resistance via 92 is disposed.
  • the post 93 is formed of the same dielectric material as the material of the substrate 91, for example.
  • FIG. 8 shows another example of a partial cross-sectional view of the intermediate layer 90.
  • the figure shows the shape of the intermediate layer 90 in a cross section parallel to the surface direction of the intermediate layer 90.
  • the intermediate layer 90 in this example includes a substrate 91, a resistance via 92, and a post 93.
  • the resistance via 92 and the post 93 function as the filter unit 40 or the filter unit 45.
  • the resistance via 92 has a plurality of posts 93 penetrating the substrate 91.
  • the post 93 is formed of the same dielectric material as the material of the substrate 91, for example.
  • FIG. 9 shows another example of a cross-sectional view of the intermediate layer 90.
  • the figure shows the shape of the intermediate layer 90 in a cross section parallel to the surface direction of the intermediate layer 90.
  • the intermediate layer 90 in this example includes a substrate 91, a resistance via 92, and an oxide film 94.
  • the resistance via 92 and the oxide film 94 function as the filter units 40 and 45.
  • the illustrated resistance via 92 is formed of a high resistance material such as polysilicon filled further inside the oxide film 94 formed on the inner surface of the through via formed in the substrate 91.
  • the effective cross-sectional area of the resistance via 92 formed of polysilicon or the like can be reduced, the electrical resistance value can be further increased, and the setting range of the cutoff frequency of the filter portions 40 and 45 can be further expanded.
  • FIG. 10 shows an example of the configuration of the imaging system 200.
  • the image sensor 100 of this example has a stacked structure of a pixel chip 8 and a circuit chip 9.
  • the light receiving unit 10 and the multiplication circuit 32 are formed on the same pixel chip 8.
  • the filter circuit 42 and the memory circuit 52 are formed in a layer different from the pixel chip 8.
  • the filter circuit 42 and the memory circuit 52 are formed on the circuit chip 9.
  • the output unit 3 is provided outside the image sensor 100.
  • the detector 11 can be easily provided for each pixel block including one or more pixels.
  • the light receiving unit 10 may be formed in the pixel chip 8, and the multiplication circuit 32, the filter circuit 42, and the memory circuit 52 that configure the detection unit 11 may be formed in the circuit chip 9.
  • the image sensor 100 includes the pixel chip 8 and the circuit chip 9, in other examples, the image sensor 100 may include a single chip.
  • the light receiving unit 10, the multiplier circuit 32, the filter circuit 42, and the memory circuit 52 are formed on the same chip.
  • FIG. 11 illustrates an example of the configuration of the imaging system 200 according to the first embodiment.
  • the imaging system 200 of this example captures a deep observation image of the subject 2 using an intensity modulation method. That is, the light source 1 irradiates the subject 2 with intensity-modulated irradiation light.
  • the light receiving unit 10 receives irradiation light scattered by the subject 2. In the figure, the light source 1, the subject 2, and the light receiving unit 10 are particularly illustrated.
  • FIG. 12 shows the modulation frequency dependence of the penetration length when the intensity modulation method is used.
  • the vertical axis represents the penetration length [mm] of the irradiation light to the subject 2, and the horizontal axis represents the modulation frequency [MHz] of the irradiation light.
  • the subject 2 in this example corresponds to a predetermined part A of the living body.
  • the penetration length is a distance at which the intensity of irradiation light incident on the subject 2 is 1 / e.
  • the intensity of the irradiation light decreases due to absorption and scattering in the subject 2. As the penetration length increases, the intensity of irradiation light is less likely to decrease due to scattering and absorption, and a deeper observation image of the subject 2 is obtained.
  • the penetration length varies depending on the modulation frequency of the irradiation light. In many cases, the penetration length decreases as the modulation frequency increases. For example, when it is desired to obtain an observation image having a penetration depth of 8 mm at a predetermined site A, the light source 1 irradiates the subject 2 with irradiation light whose intensity is modulated at 100 MHz. In this case, the detection unit 11 performs heterodyne detection for each pixel block by using, for example, a signal of 100.001 MHz as a reference frequency and mixing this with the light reception signal output from the light reception unit 10.
  • the penetration length is derived by solving the light diffusion equation of the irradiation light in the subject 2.
  • the light diffusion equation is expressed by the following equation.
  • c indicates the speed of light in the subject 2.
  • ⁇ a [mm ⁇ 1 ] represents the absorption coefficient of the subject 2
  • ⁇ ′ s [mm ⁇ 1 ] represents the equivalent scattering coefficient of the subject 2
  • D represents the diffusion coefficient related to the subject 2.
  • the wave vector is expressed by the following equation. Since the attenuation term is an imaginary part, this reciprocal is the penetration length.
  • the absorption coefficient ⁇ a [mm ⁇ 1 ] and the equivalent scattering coefficient ⁇ ′ s [mm ⁇ 1 ] of the subject 2 in advance, it is possible to obtain a penetration length corresponding to the modulation frequency of the irradiation light. it can.
  • the absorption coefficient ⁇ a and the equivalent scattering coefficient ⁇ ′ s of the part A of the living body are 0.005 [mm ⁇ 1 ] and 1 [mm ⁇ 1 ], respectively.
  • the absorption coefficient ⁇ a and the equivalent scattering coefficient ⁇ ′ s of the living body part B are 0.04 [mm ⁇ 1 ] and 1 [mm ⁇ 1 ], respectively, and the absorption coefficient ⁇ a of the living body part C is obtained.
  • the equivalent scattering coefficient ⁇ ′ s is 0.02 [mm ⁇ 1 ] and 0.5 [mm ⁇ 1 ], respectively.
  • the imaging system 200 can acquire the deep observation image of the subject 2 by acquiring the information related to the subject 2.
  • deep observation images having different penetration lengths may be simultaneously acquired by simultaneously irradiating a plurality of irradiation lights whose intensity is modulated at different modulation frequencies.
  • the light source 1 multiplexes and irradiates a plurality of irradiation lights intensity-modulated with different modulation frequencies.
  • the light receiving unit 10 receives the irradiation light scattered by the subject 2 by sampling at a frequency higher than the highest modulation frequency of the irradiation light.
  • the detection unit 11 includes the multiplication circuit 32 and the filter circuit 42 for each pixel block by the number of irradiation lights having different modulation frequencies, and performs heterodyne detection using a reference frequency corresponding to each modulation frequency. Thereby, the imaging system 200 can acquire the deep observation image of the heel penetration length corresponding to each modulation frequency.
  • FIG. 13 illustrates an example of a configuration of the imaging system 200 according to the second embodiment.
  • the imaging system 200 of this example captures a deep observation image of the subject 2 using a spatial modulation method.
  • the light source 1 irradiates the subject 2 with irradiation light having the modulation pattern 6.
  • the light source 1, the subject 2, and the light receiving unit 10 are particularly illustrated. Note that the direction in which the light source 1 irradiates the subject 2 with irradiation light is the z-axis direction, and the x-axis and y-axis are taken in the direction perpendicular to the z-axis direction.
  • the modulation pattern 6 has a pattern spatially modulated in the x-axis direction.
  • the modulation pattern 6 of this example is not modulated in the y-axis direction. That is, the modulation pattern 6 of this example has a one-dimensional periodic pattern modulated in the x-axis direction.
  • the modulation pattern 6 of this example has a periodic stripe pattern in the x-axis direction, but may be an aperiodic stripe pattern. If the image sensor 100 has information on the modulation pattern 6, processing according to the modulation pattern 6 can be executed by a subsequent circuit.
  • An arrow 7 indicates a direction in which the light source 1 moves the modulation pattern 6 of the irradiation light with respect to the subject 2.
  • Moving the modulation pattern 6 means moving the fringe pattern of the modulation pattern 6 within the same irradiation region without changing the irradiation region of the irradiation light. That is, the fringe pattern that reaches the end of the irradiation region on the downstream side in the moving direction disappears. Further, a fringe pattern corresponding to the modulation pattern 6 is generated with time from the end of the irradiation region on the upstream side in the movement direction.
  • the light source 1 of this example moves the modulation pattern 6 in the x-axis direction within the irradiation region of the irradiation light.
  • the object 2 is the case of the cylindrical shape, the absorption coefficient mu a and scattering coefficient mu 's changes in the curved surface of the object 2.
  • the light source 1 preferably moves the modulation pattern 6 in the long axis direction of the subject 2. As a result, the influence of changes in the absorption coefficient ⁇ a and the equivalent scattering coefficient ⁇ ′ s on the curved surface of the subject 2 is reduced.
  • the irradiation light that is spatially modulated in one dimension is expressed by the following equation.
  • DC is the direct current component of the modulation pattern 6
  • AC is the amplitude of the intensity modulation of the modulation pattern 6
  • f is the spatial frequency of intensity modulation of the modulation pattern 6
  • x is the position on the X axis
  • t is time
  • v is the modulation pattern 6
  • represents the initial phase of the modulation pattern 6.
  • the imaging system 200 extracts only the AC component from the signal obtained by moving the modulation pattern 6. For example, the imaging system 200 extracts an AC image component by locking in with a heterodyne camera or the like.
  • the AC component is represented by the following formula.
  • the imaging system 200 can basically extract an AC image component in the same way regardless of the intensity modulation method or the spatial modulation method.
  • the penetration length is derived by solving the light diffusion equation of the irradiation light in the subject 2.
  • the light diffusion equation and the diffusion coefficient are expressed by the following equations.
  • the imaging system 200 of this example can remove high-order optical noise and extract an AC component by using a lock-in amplifier. Further, the fringe scan error can be reduced by using the intensity modulation method and the spatial modulation method together. Note that the imaging system 200 may be provided with a crossed Nicol polarizer between the subject 2 and the subject 2 in order to reduce the influence of surface reflection.
  • the imaging system 200 of this example moves the irradiation position of the modulation pattern 6 on the subject 2.
  • the imaging system 200 corresponds to time-modulating the intensity of irradiation light at each position of the subject 2. That is, the imaging system 200 of this example can be considered as an example of an embodiment that images the subject 2 using the spatial modulation method and simultaneously captures a deep observation image of the subject 2 using the intensity modulation method. .
  • FIG. 14 illustrates an example of an operation method of the imaging system 200 according to the third embodiment.
  • the modulation pattern 6 of this example captures a deep observation image of the subject 2 using a spatial modulation method.
  • the light source 1 irradiates the subject 2 with irradiation light having the modulation pattern 6.
  • the light source 1, the subject 2, and the light receiving unit 10 are particularly illustrated. Note that the direction in which the light source 1 irradiates the subject 2 with irradiation light is the z-axis direction, and the x-axis and y-axis are taken in the direction perpendicular to the z-axis direction.
  • the modulation pattern 6 has a pattern spatially modulated in the x-axis direction and the y-axis direction. That is, the modulation pattern 6 of this example has a two-dimensional periodic pattern modulated in the x-axis direction and the y-axis direction.
  • the x-axis direction and the y-axis direction are examples of the first direction and the second direction.
  • Arrow 7 indicates the direction in which the light source 1 moves the modulation pattern 6 within the irradiation area of the irradiation light.
  • the light source 1 of this example moves the modulation pattern 6 in a third direction different from the x-axis direction and the y-axis direction. That is, the movement vector of the modulation pattern 6 has a component in the x-axis direction and a component in the y-axis direction.
  • the imaging system 200 of the present example sets the modulation pattern 6 and the moving direction so that the intensity modulation of the light irradiated at each position in the irradiation region of the irradiation light has two frequency components.
  • the intensity modulation of the light applied to each position of the subject 2 has the following two frequency components.
  • the first frequency component is a frequency component corresponding to the period of intensity modulation in the x-axis direction of the modulation pattern 6 and the moving speed of the modulation pattern 6 in the x-axis direction. That is, the first frequency component becomes higher as the period of intensity modulation in the x-axis direction of the modulation pattern 6 is smaller, and becomes higher as the moving speed in the x-axis direction is faster.
  • the second frequency component is a frequency component according to the intensity modulation period of the modulation pattern 6 in the y-axis direction and the moving speed of the modulation pattern 6 in the y-axis direction.
  • the light source 1 has an intensity modulation ratio of the modulation pattern 6 in the x-axis direction and the y-axis direction and a velocity in the x-axis direction and the y-axis direction so that the frequencies of the first frequency component and the second frequency component can be separated. Set the ratio.
  • the detection unit 11 heterodyne-detects the received light signal at a reference frequency based on the intensity modulation period of the modulation pattern 6 and the moving speed in the x-axis direction and the y-axis direction.
  • the detector 11 may generate corresponding reference frequency signals for the first frequency component and the second frequency component described above.
  • the light source 1 irradiates the subject 2 with a modulation pattern 6 having different light intensity modulation periods in the x-axis direction and the y-axis direction.
  • the light source 1 may set the movement direction of the modulation pattern 6 exactly in the middle between the x-axis direction and the y-axis direction. That is, the movement speed in the x-axis direction and the movement speed in the y-axis direction of the modulation pattern 6 may be set to be the same.
  • the intensity modulation of the light applied to each position of the subject 2 has two frequency components.
  • the light source 1 irradiates the subject 2 with a modulation pattern 6 having the same light intensity modulation period in the x-axis direction and the y-axis direction.
  • the light source 1 sets the movement direction of the modulation pattern 6 in a direction different from the middle between the x-axis direction and the y-axis direction. That is, the moving speed of the modulation pattern 6 is made different between the x-axis direction and the y-axis direction. Even with such a setting, the intensity modulation of the light applied to each position of the subject 2 has two frequency components.
  • the light source 1 may irradiate the modulation pattern 6 in which both the intensity modulation period and the moving speed of the light are different in the x-axis direction and the y-axis direction.
  • the ratio of the period of intensity modulation in the x-axis direction and the y-axis direction is not the same as the ratio of the moving speed (that is, the first frequency component and the second frequency component are not the same frequency). ),
  • the modulation pattern 6 is set.
  • FIG. 15 is a flowchart illustrating an example of the operation of the imaging system 200.
  • This flowchart is realized by the control unit of the imaging system 200 or each configuration shown in FIG.
  • the imaging system 200 includes steps S100 to S106.
  • the imaging system 200 determines a pattern of irradiation light emitted from the light source 1.
  • the spatial frequencies of the patterns in the first direction and the second direction are determined according to the two types of depths of the subject 2 to be observed.
  • the imaging system 200 may determine the two types of spatial frequencies based on the depth that the user wants to observe, or may acquire information on the depth or the spatial frequency from the outside.
  • step S102 the light source 1 irradiates the subject 2 with the irradiation light having the pattern determined in step S100 while moving the pattern in the third direction.
  • the intensity of light is periodically modulated in each of a first direction and a second direction different from the first direction.
  • the third direction is a direction that intersects both the first direction and the second direction. The light source 1 moves the pattern of irradiation light without changing the irradiation range.
  • step S104 the detection unit 11 performs heterodyne detection on the received light signal corresponding to the irradiation light (that is, scattered light) through the subject 2 at a predetermined reference frequency in the first direction and the second direction.
  • the reference frequency of this example is determined according to the light intensity cycle and the moving speed in the pattern of irradiation light.
  • step S106 when the readout circuit 60 calculates the signal output from the detection unit 11, the image generation unit 80 generates and outputs a deep observation image of the subject 2 based on the result.
  • the light source 1 emits irradiation light whose intensity is modulated at a modulation frequency corresponding to the depth of the observation region of the subject 2 in the intensity modulation method of the first embodiment, and in the spatial modulation method of the second embodiment. Irradiation light having a pattern with a spatial frequency corresponding to the depth of the observation region of the subject 2 is irradiated.
  • FIG. 16 shows an example of the subject 2 having the biological sample 4 and the solution 5.
  • the biological sample 4 to be imaged has a cylindrical shape
  • the solution 5 in this example is covered with a 1% concentration intralipid solution so that the subject 2 is a rectangular parallelepiped.

Abstract

受光した光の受光量に応じた受光信号を出力する画素を複数有する受光部と、1または複数の画素からなる画素ブロック毎に設けられ、受光した光の強度変調の周波数成分に応じて定められる基準周波数で、対応する画素ブロックに含まれる画素から出力される受光信号をヘテロダイン検波する検波部とを備える撮像素子を提供する。また、当該撮像素子と、第1の方向、および第1の方向と異なる第2の方向のそれぞれにおいて光の強弱が周期的に変調したパターンを有する照射光を、第1の方向および第2の方向と異なる第3の方向にパターンを移動させながら被写体に照射する光源とを備え、検波部は、第1の方向および第2の方向について、それぞれ光の強弱の周期に基づく周波数成分に応じて定められる基準周波数で、受光信号をヘテロダイン検波する撮像システムを提供する。

Description

撮像素子、撮像システムおよび撮像方法
 本発明は、撮像素子、撮像システムおよび撮像方法に関する。
 従来、ヘテロダイン検波を用いた撮像システムにおいて、画素配列の信号電荷を列毎に順次読み出した後にヘテロダイン検波することが知られている(例えば、特許文献1参照)。
 特許文献1 特開2001-272334号公報
 しかしながら、従来の撮像システムでは、画素配列の信号電荷を順次読み出した後にヘテロダイン検波するので、高速に2次元画像を取得することが困難であった。
 本発明の第1の態様においては、受光した光の受光量に応じた受光信号を出力する画素を複数有する受光部と、1または複数の画素からなる画素ブロック毎に設けられ、受光した光の強度変調の周波数に応じて定められる基準周波数で、対応する画素ブロックに含まれる画素から出力される受光信号をヘテロダイン検波する検波部とを備える撮像素子を提供する。
 本発明の第2の態様においては、第1の態様に記載の撮像素子と、第1の方向、および第1の方向と異なる第2の方向のそれぞれにおいて光の強弱が周期的に変調したパターンを有する照射光を、第1の方向および第2の方向と異なる第3の方向にパターンを移動させながら被写体に照射する光源とを備え、検波部は、第1の方向および第2の方向について、それぞれ光の強弱の周期に基づく変調周波数に応じて定められる基準周波数で、受光信号をヘテロダイン検波する撮像システムを提供する。
 本発明の第3の態様においては、第1の方向、および第1の方向と異なる第2の方向のそれぞれにおいて光の強弱が周期的に変調したパターンを有する照射光を、第1の方向および第2の方向と異なる第3の方向にパターンを移動させながら被写体に照射し、第1の方向および第2の方向について、パターンにおける光の強弱の周期および移動速度に応じて定められる基準周波数で、被写体を介した照射光に応じた受光信号をヘテロダイン検波する撮像方法を提供する。
 なお、上記の発明の概要は、本発明の特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
撮像システム200の構成の概要を示す。 撮像システム200の構成の一例を示す。 IV変換部20の構成の一例を示す。 IV変換部20の構成の一例を示す。 IV変換部20の構成の一例を示す。 撮像システム200の構成の一例を示す。 中間層90の断面図の一例を示す。 中間層90の断面図の一例を示す。 中間層90の断面図の一例を示す。 撮像システム200の構成の一例を示す。 実施例1に係る撮像システム200の構成の一例を示す。 強度変調方式を用いた場合における浸透長の変調周波数依存性を示す。 実施例2に係る撮像システム200の構成の一例を示す。 実施例3に係る撮像システム200の動作方法の一例を示す。 撮像システム200の動作の一例を示すフローチャートである。 生体試料4および溶液5を有する被写体2の一例を示す。
 以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
 図1は、撮像システム200の構成の概要を示す。撮像システム200は、光源1、撮像素子100および出力部3を備える。
 撮像システム200は、被写体2に照射光を照射し、被写体2によって散乱された照射光を受光して被写体2の深部観察を行う。撮像システム200は、照射光に含まれる周波数成分に応じた深さの画像を取得する。本明細書に係る撮像システム200は、強度変調方式又は空間変調方式のヘテロダイン検波により、被写体2の深部観察画像を取得する。なお、被写体2によって散乱された照射光には、散乱して被写体2から戻る光(即ち、反射光)や被写体2を通り抜ける光(即ち、透過光)などが挙げられる。本明細書において、被写体2によって散乱された照射光を単に散乱光と称する場合がある。
 光源1は、所定の変調周波数で強度変調した照射光を被写体2に照射する。照射光の変調周波数は、撮像する被写体2の深さに応じて決定される。照射光の変調周波数が低くなるほど被写体2の深い位置の観察が可能であり、照射光の変調周波数が高くなるほど被写体2の浅い位置の観察が可能となる。本例の光源1は、700nm~1100nmの近赤外領域の波長を有する照射光を照射する。なお、光源1は、測定対象である被写体2の種類に応じて、上記領域以外の近赤外領域の波長を有する照射光を照射してもよい。さらに、近赤外領域以外の波長領域、例えば、紫外領域の波長を有する照射光を照射してもよい。
 強度変調方式を用いる場合、光源1は、被写体2の観察領域の深さに応じた変調周波数で照射光の強度を変調させる。例えば、光源1は、正弦波等の強度が周期的に変調する照射光を被写体2に照射する。また、光源1は、所定の周期のパルス波を照射光として被写体2に照射してもよい。このように、強度変調方式を用いる場合、光源1は、照射光の強度を変調させることにより照射光に所定の周波数成分を含ませる。これにより、照射光の変調周波数に応じた深さの被写体2の散乱光が得られる。
 一方、空間変調方式を用いる場合、光源1は、被写体2の観察領域の深さに応じた空間周波数の照射光を照射する。空間周波数とは、照射光の強度が空間的な周期を持って変調されている場合に、単位長に含まれる変調の繰り返しの数を示す。光源1は、空間周波数の異なるパターンの照射光を被写体2に照射する。例えば、照射光は、所定の方向に強度が変調された縞パターンを有する。光源1は、プロジェクタ又は干渉計を用いて空間変調された照射光を生成する。一例において、プロジェクタは、波長850nmで、表示速度が500Hzの近赤外プロジェクタである。
 照射光のパターンは、一次元縞であっても、二次元縞であってもよい。また、縞パターンは、正弦波関数で示されるような縞間隔が均一なパターンであっても、縞間隔がそれぞれ異なるパターンであってもよい。縞間隔がそれぞれ異なるパターンであっても、照射光のパターンに関する情報を後段の回路が有することにより、照射光のパターンに応じた処理が可能となる。
 撮像素子100は、被写体2により散乱された照射光を受光して、ヘテロダイン検波する。ヘテロダイン検波とは、受光信号に含まれている強度変調の周波数成分と、基準信号に含まれている強度変調の基準周波数成分とを混合して、より低い周波数の信号を合成する検波方法である。撮像素子100は、受光部10および検波部11を備える。また、撮像素子100は、複数のチップが積層された構造を有する。受光部10および検波部11は、同一のチップに設けられても、それぞれ異なるチップに設けられてもよい。
 受光部10は、被写体2により散乱された照射光を受光するための複数の画素を有する。複数の画素は、所定の受光面において二次元に配列されている。それぞれの画素は、受光した光の受光量に応じた受光信号を出力する。それぞれの画素は、受光量の変動に応じた時間波形を有する受光信号を出力する。受光信号とは、一例において、各画素が受光した照射光により生成された電流信号または電流信号を変換した電圧信号である。また、受光部10は、複数の画素の受光量に応じた受光信号を複数の画素毎に出力する。例えば、受光部10は、フォトダイオード(PD)、アバランシェフォトダイオード(APD)又はフォトトランジスタを有する。
 検波部11は、受光部10の出力した受光信号と、受光信号の強度変調の周波数に対応する基準周波数の信号とを混合することによりヘテロダイン検波する。基準周波数とは、強度変調の周波数とわずかに相違する周波数である。受光信号の強度変調の周波数は、光源1が被写体2に照射した照射光の変調周波数と概ね一致する。このため、検波部11は、光源1が照射した照射光の変調周波数を示す情報を、光源1から取得して、当該情報に基づいて基準信号の基準周波数を調整してよい。検波部11は、それぞれ1または複数の画素を含む画素ブロック毎に設けられる。それぞれの画素ブロックは1つの画素を有してよい。つまり、検波部11は、画素毎に設けられてよい。この場合、被写体2の深部観察画像を高速に取得することができる。それぞれの画素ブロックは、複数の画素を有してもよい。この場合、検波部11は、対応する画素ブロック毎に、時分割で複数の画素をそれぞれ選択して、それぞれの画素からの受光信号を時分割でヘテロダイン検波する。これにより、受光部10の画素毎に検波部11を設けることなく被写体2の深部観察画像を取得できる。一例において検波部11は、4つの画素を有する画素ブロック毎に設けられる。
 出力部3は、検波部11がヘテロダイン検波した信号に基づいて、被写体2の深部観察画像を出力する。出力部3は、読出し回路60および画像生成部80を備える。出力部3は、取得した被写体2の深部観察画像を外部に設けられた表示部に出力して表示させてよい。
 読出し回路60は、検波部11がヘテロダイン検波した信号を読み出して計算する。例えば、読出し回路60は、2乗和等のポスト処理を行って、検波部11がヘテロダイン検波した信号の振幅成分を算出する。
 画像生成部80は、読出し回路60の計算結果に基づいて、被写体2の深部観察画像に必要な信号を生成する。例えば、画像生成部80は、トモグラフィ画像(断層画像)を生成するための信号を生成する。画像生成部80は、スムージングフィルタを有してもよい。
 本明細書に係る撮像システム200は、一例として、拡散光トモグラフィ(DOT:Diffuse Optical Tomography)に用いられる。拡散光トモグラフィは、例えば、被写体2に照射光を照射し、被写体2の内部を伝播した照射光を検出して、被写体2の内部特性を推定する技術である。例えば、たとえば、被写体2がヒトの場合、撮像システム200は、被写体2の脳内の血流を検出することにより、脳の状態を診断するために利用できる。また、撮像システム200は、内視鏡として利用することで、体内の深部観察を行うこともできる。
 図2は、撮像システム200の構成の具体例を示す。受光部10は、複数の画素ブロック16を有する。それぞれの画素ブロック16は、1以上の画素14を有する。それぞれの画素14は、光電変換部12およびIV変換部20を有する。
 検波部11は、画素ブロック16毎に設けられる。それぞれの検波部11は、それぞれの画素ブロック16から出力される受光信号を並行してヘテロダイン検波する。これにより、ヘテロダイン検波の処理速度を向上させることができる。
 それぞれの検波部11は、乗算回路32、フィルタ回路42およびメモリ回路52を有する。乗算回路32は、乗算部30および乗算部35を有する。フィルタ回路42は、フィルタ部40およびフィルタ部45を有する。メモリ回路52は、記憶部50および記憶部55を有する。本例の撮像システム200は、基準信号生成部70をさらに備える。基準信号生成部70は、撮像素子100の外部に設けられてもよい。
 光電変換部12は、例えばフォトダイオード(PD)、アバランシェフォトダイオード(APD)又はフォトトランジスタである。光電変換部12は、受光した光の受光量に応じた電流を出力する。IV変換部20は、光電変換部12の出力した電流を電圧に変換した受光信号を出力する。IV変換部20は、光電変換部12が出力した電流を電圧に変換する回路であれば特に限定されない。例えば、IV変換部20は、抵抗又はトランスインピーダンスアンプを有する。
 乗算部30,35は、IV変換部20の出力した受光信号と、基準信号生成部70から入力された基準電圧信号とを乗算した乗算信号を出力する。本例の乗算部30,35は、互いに位相がずれた乗算信号を取得するように基準電圧信号を乗算する。一例において乗算部30は、受光信号にsin波を乗算した乗算信号を出力し、乗算部35は、受光信号にcos波を乗算した乗算信号を出力する。このように位相がπ/2ずれた信号をそれぞれ取得して、後段の回路で2乗和を取ることにより、受光信号の振幅を算出することができる。例えば、乗算部30,35は、受光信号がエミッタまたはコレクタ端子に入力され、基準電圧信号がゲート端子に入力されるトランジスタを有する。
 フィルタ部40,45は、乗算部30,35が出力した乗算信号の周波数帯域の一部をフィルタリング処理する。フィルタ部40,45は、乗算信号から、予め定められたカットオフ周波数よりも低い帯域を除去する。これにより、フィルタ部40,45は、背景光のような定常的な成分を除去し、ヘテロダイン検波用の周波数成分を取り出す。例えば、フィルタ部40,45は、RC-LPF等のバンドパスフィルタ(BPF)を有する。
 記憶部50,55は、フィルタ部40,45の出力信号を一時的に記憶する。例えば、記憶部50,55は、サンプルホールド回路又はアナログメモリを有する。記憶部50,55がコンデンサを有する場合、コンデンサをMIMと呼ばれる配線層で形成してよい。この場合、MIMの下地の層が空きスペースとなり、そのスペースにフィルタ部40,45を形成することもできる。これにより、フィルタ部40,45および記憶部50,55の専有面積が低減される。
 図3は、IV変換部20の構成の一例を示す。IV変換部20は、フォトダイオードである光電変換部12の出力した電流を電圧に変換する。IV変換部20は、オペアンプ21および帰還抵抗R1を有する。オペアンプ21の反転入力端子は、光電変換部12に接続され、正側入力端子はグランドGND等の基準線に接続される。帰還抵抗R1は、負帰還となるようにオペアンプ21の反転入力端子と出力端子との間に接続される。このような構成により、IV変換部20は、光電変換部12の出力した電流を電圧に変換する。
 図4は、IV変換部20の構成の一例を示す。本例のIV変換部20は、オペアンプ21および抵抗R2を有する。抵抗R2は、オペアンプ21の正側入力端子と負側入力端子との間に接続される。また、抵抗R2の一端は光電変換部12に接続され、他端はグランドGND等の基準線に接続される。このような構成により、IV変換部20は、光電変換部12の出力した電流を電圧に変換する。
 図5は、IV変換部20の構成の一例を示す。本例のIV変換部20は、オペアンプ21およびトランジスタTRを有する。オペアンプ21の反転入力端子は、光電変換部12に接続され、正側入力端子はグランドGND等の基準線に接続される。また、トランジスタTRは、オペアンプ21の正側入力端子と負側入力端子との間に接続される。トランジスタTRは、ゲート端子に印加されたバイアス電圧により、定電流源として動作する。このような構成により、IV変換部20は、光電変換部12の出力した電流を電圧に変換する。
 図6は、撮像システム200の構成の一例を示す。本例の撮像素子100は、画素チップ8、中間層90および回路チップ9の積層構造を有する。画素チップ8および回路チップ9は、第1チップおよび第2チップの一例である。その他の基本的な回路構成は、図2で示した撮像システム200と同様である。図6においては、一つの検波部11を示しているが、撮像素子100は複数の検波部11を有する。画素チップ8には、受光部10および乗算回路32が形成される。また、回路チップ9には、メモリ回路52が形成される。出力部3は、撮像素子100の外部に設けられる。
 中間層90は、画素チップ8と回路チップ9との間に配置される。中間層90は、フィルタ回路42を有する。また、フィルタ回路42は、中間層90を貫通するビアを有する。例えば、フィルタ回路42は、シリコン貫通電極(TSV:Through-Silicon Via)である。このように、撮像素子100を積層構造で形成することにより、1以上の画素を含む画素ブロック毎に検波部11を容易に設けることができる。
 図7は、中間層90の部分断面図の一例を示す。同図は、中間層90の面方向と平行な断面における中間層90の形状を示す。本例の中間層90は、基板91、抵抗ビア92およびポスト93を有する。抵抗ビア92およびポスト93は、フィルタ部40またはフィルタ部45として機能する。中間層90には、フィルタ部毎に1以上の抵抗ビア92が形成されている。抵抗ビア92は、抵抗成分と寄生容量成分とを有する。このため、フィルタ回路42の一部として機能することができる。
 図示の断面において、抵抗ビア92は、環状の形状を有する。抵抗ビア92の中央には、抵抗ビア92を貫通するポスト93が配される。ポスト93は、例えば、基板91の材料と同じ誘電体材料により形成される。これにより、ポリシリコン等により形成された抵抗ビア92の実効的な断面積を減少させ、電気抵抗値を一層高くすることができる。これにより、フィルタ部40,45のカットオフ周波数の設定範囲を拡げることができる。
 図8は、中間層90の部分断面図の他の例を示す。同図は、中間層90の面方向と平行な断面における中間層90の形状を示す。本例の中間層90は、基板91、抵抗ビア92およびポスト93を有する。抵抗ビア92およびポスト93は、フィルタ部40またはフィルタ部45として機能する。
 図示の断面において、抵抗ビア92は、基板91を貫通する複数のポスト93を有する。ポスト93は、例えば、基板91の材料と同じ誘電体材料により形成される。これにより、ポリシリコン等により形成された抵抗ビア92の実効的な断面積を減少させて電気抵抗値を一層高くし、フィルタ部40,45のカットオフ周波数の設定範囲を一層拡げることができる。
 図9は、中間層90の断面図の他の例を示す。同図は、中間層90の面方向と平行な断面における中間層90の形状を示す。本例の中間層90は、基板91、抵抗ビア92および酸化膜94を有する。抵抗ビア92および酸化膜94は、フィルタ部40,45として機能する。
 図示の抵抗ビア92は、基板91に形成された貫通ビアの内面に形成された酸化膜94の更に内側に充填されたポリシリコン等の高抵抗材料により形成される。これにより、ポリシリコン等により形成された抵抗ビア92の実効的な断面積を減少させて電気抵抗値を一層高くし、フィルタ部40,45のカットオフ周波数の設定範囲を一層拡げることができる。
 図10は、撮像システム200の構成の一例を示す。本例の撮像素子100は、画素チップ8および回路チップ9の積層構造を有する。図6および図10の例では、受光部10および乗算回路32は、同一の画素チップ8に形成される。また、フィルタ回路42およびメモリ回路52は、画素チップ8とは異なる層に形成される。図10に示す例では、フィルタ回路42およびメモリ回路52は、回路チップ9に形成される。出力部3は、撮像素子100の外部に設けられる。このように、撮像素子100を積層構造で形成することにより、1以上の画素を含む画素ブロック毎に検波部11を容易に設けることができる。なお、画素チップ8に受光部10が形成され、回路チップ9に検波部11を構成する乗算回路32、フィルタ回路42およびメモリ回路52が形成されてもよい。
 また、図6および図10には、撮像素子100が画素チップ8および回路チップ9を有する構造を示したが、他の例では、撮像素子100は、単一のチップを有していてもよい。この場合、受光部10、乗算回路32、フィルタ回路42およびメモリ回路52は同一のチップに形成される。
 [実施例1]
 図11は、実施例1に係る撮像システム200の構成の一例を示す。本例の撮像システム200は、強度変調方式を用いて被写体2の深部観察画像を撮像する。即ち、光源1は、強度変調された照射光を被写体2に照射する。受光部10は、被写体2で散乱された照射光を受光する。同図では特に光源1、被写体2および受光部10について図示している。
 図12は、強度変調方式を用いた場合における浸透長の変調周波数依存性を示す。縦軸は被写体2への照射光の浸透長[mm]を示し、横軸は照射光の変調周波数[MHz]を示す。本例の被写体2は、生体の所定の部位Aに対応する。
 浸透長は、被写体2に入射した照射光の強度が1/eとなる距離である。照射光の強度は、被写体2における吸収および散乱により減少する。浸透長が大きい程、散乱および吸収により照射光の強度が減少しにくくなり、より深い被写体2の観察画像が得られる。浸透長は、照射光の変調周波数の大きさに応じて変化する。多くの場合、変調周波数が大きくなるに従い浸透長が短くなる。例えば、所定の部位Aにおいて、浸透長8mmの観察画像を得たい場合、光源1は、100MHzで強度変調された照射光を被写体2に照射する。この場合、検波部11は、基準周波数として例えば100.001MHzの信号を用いて、これと受光部10が出力した受光信号とを混合することにより、画素ブロック毎にヘテロダイン検波する。
 次に、浸透長の導出方法について説明する。浸透長は、被写体2における照射光の光拡散方程式を解くことにより導出される。例えば、光拡散方程式は次式で表される。
Figure JPOXMLDOC01-appb-M000001
 ここで、cは、被写体2における光速を示す。μ[mm-1]は、被写体2の吸収係数を示し、μ'[mm-1]は、被写体2の等価散乱係数を示し、Dは被写体2に関する拡散係数を示す。等価散乱係数μ'[mm-1]は、非等方散乱係数gを用いてμ'=(1-g)μsで表され、拡散係数Dは、D=1/(3×(μ+μ'))で表される。また、被写体2内の光源および照射光はそれぞれ次式で示される。
Figure JPOXMLDOC01-appb-M000002
 次に、交流成分(AC)および直流成分(DC)を分離すると、以下の式が得られる。
Figure JPOXMLDOC01-appb-M000003
 被写体2において、吸収係数μおよび等価散乱係数μ'の分布がなく一様な場合を考えると、ヘルムホルツ方程式となる。
Figure JPOXMLDOC01-appb-M000004
 即ち、波数ベクトルが次式で示されるようになる。減衰項は虚数部分であるので、この逆数が浸透長となる。
Figure JPOXMLDOC01-appb-M000005
 以上の通り、被写体2の吸収係数μ[mm-1]および等価散乱係数μ'[mm-1]を事前に取得することにより、照射光の変調周波数に応じた浸透長を得ることができる。例えば、被写体2が生体の場合、生体の部位Aの吸収係数μおよび等価散乱係数μ'は、それぞれ0.005[mm-1]および1[mm-1]となる。また、一例において、生体の部位Bの吸収係数μおよび等価散乱係数μ'は、それぞれ0.04[mm-1]および1[mm-1]となり、生体の部位Cの吸収係数μおよび等価散乱係数μ'は、それぞれ0.02[mm-1]および0.5[mm-1]となる。このように、撮像システム200は、被写体2に関する情報を取得しておくことにより、被写体2の深部観察画像を取得できる。
 なお、本例において、異なる変調周波数で強度変調された複数の照射光を同時に照射することで、異なる浸透長の深部観察画像を同時に取得してもよい。この場合、光源1は、異なる変調周波数で強度変調された複数の照射光を多重化して照射する。そして、受光部10は、照射光の最も高い変調周波数よりも高い周波数でサンプリングすることで、被写体2により散乱された照射光を受光する。検波部11は、画素ブロック毎に、変調周波数の異なる照射光の数だけ乗算回路32およびフィルタ回路42を有しており、それぞれの変調周波数に対応する基準周波数を用いてヘテロダイン検波する。これにより、撮像システム200は、それぞれの変調周波数に対応する 浸透長の深部観察画像を取得することができる。
 [実施例2]
 図13は、実施例2に係る撮像システム200の構成の一例を示す。本例の撮像システム200は、空間変調方式を用いて被写体2の深部観察画像を撮像する。光源1は、変調パターン6を有する照射光を被写体2に照射する。同図では特に光源1、被写体2および受光部10について図示している。なお、光源1が被写体2に対して照射光を照射する方向をz軸方向とし、z軸方向に対して垂直な方向にx軸およびy軸を取る。
 変調パターン6は、x軸方向に空間変調されたパターンを有する。一方、本例の変調パターン6は、y軸方向には変調されていない。即ち、本例の変調パターン6は、x軸方向に変調された1次元の周期パターンを有する。本例の変調パターン6は、x軸方向に周期的な縞パターンを有するが、非周期的な縞パターンであってもよい。撮像素子100が変調パターン6に関する情報を有していれば、後段の回路で変調パターン6に応じた処理を実行できる。
 矢印7は、光源1が被写体2に対する照射光の変調パターン6を移動させる向きを示す。変調パターン6を移動させるとは、照射光の照射領域を変化させずに、同一の照射領域内において変調パターン6の縞パターンを移動させることを指す。つまり、移動方向の下流側における当該照射領域の端部に到達した縞パターンは消滅する。また、移動方向の上流側における当該照射領域の端部からは、変調パターン6に応じた縞パターンが時間の経過とともに発生する。本例の光源1は、照射光の照射領域内において、変調パターン6をx軸方向に移動させる。また、被写体2が円柱状の場合、被写体2の曲面において吸収係数μおよび等価散乱係数μ'が変化する。光源1は、被写体2の長軸方向に変調パターン6を移動させることが好ましい。これにより被写体2の曲面における吸収係数μおよび等価散乱係数μ'の変化による影響が小さくなる。
 ここで、1次元的に空間変調された照射光は次式で表される。ただし、DCは変調パターン6の直流成分、ACは変調パターン6の強度変調の振幅、fは変調パターン6の強度変調の空間周波数、xはX軸における位置、tは時間、vは変調パターン6の移動速度、θは変調パターン6の初期位相を示す。
Figure JPOXMLDOC01-appb-M000006
 撮像システム200は、変調パターン6を移動することにより得られた信号からAC成分のみを抽出する。例えば、撮像システム200は、ヘテロダインカメラなどで、ロックインすることによりAC画像成分を抜き出す。AC成分は次式で表される。
Figure JPOXMLDOC01-appb-M000007
 撮像システム200は、強度変調方式又は空間変調方式のいずれの場合であっても基本的には同様の考え方でAC画像成分を抜き出すことができる。
 次に、浸透長の導出方法について説明する。浸透長は、被写体2における照射光の光拡散方程式を解くことにより導出される。例えば、光拡散方程式および拡散係数は次式で表される。
Figure JPOXMLDOC01-appb-M000008
Figure JPOXMLDOC01-appb-M000009
 また、空間周波数ドメインについて考える場合、AC信号のみを扱うので、次式が導かれる。
Figure JPOXMLDOC01-appb-M000010
Figure JPOXMLDOC01-appb-M000011
 ここで、被写体2の吸収係数μに分布がなく、一様な場合について考えると、次式が導かれる。
Figure JPOXMLDOC01-appb-M000012
Figure JPOXMLDOC01-appb-M000013
 次に、係数μについて方程式を解くと、次式で示される。浸透長は、μ'effの逆数で示される。
Figure JPOXMLDOC01-appb-M000014
 以上の通り、本例の撮像システム200は、ロックインアンプを用いることにより、高次光ノイズを除去し、AC成分を取り出すことができる。また、強度変調方式および空間変調方式を一緒に使用することにより、フリンジスキャン誤差を小さくできる。なお、撮像システム200は、表面反射の影響を低減させるために、被写体2との間にクロスニコルにした偏光子を設けてよい。
 なお、本例の撮像システム200は、変調パターン6の被写体2に対する照射位置を移動させている。言い換えれば、撮像システム200は、被写体2の各位置における照射光の強度を時間変調させることに対応する。即ち、本例の撮像システム200は、空間変調方式を用いて被写体2を撮像していると同時に、強度変調方式を用いて被写体2の深部観察画像を撮像する実施形態の一例として考えることもできる。
 [実施例3]
 図14は、実施例3に係る撮像システム200の動作方法の一例を示す。本例の変調パターン6は、空間変調方式を用いて被写体2の深部観察画像を撮像する。光源1は、変調パターン6を有する照射光を被写体2に照射する。同図では特に光源1、被写体2および受光部10について図示している。なお、光源1が被写体2に対して照射光を照射する方向をz軸方向とし、z軸方向に対して垂直な方向にx軸およびy軸を取る。
 変調パターン6は、x軸方向およびy軸方向に空間変調されたパターンを有する。即ち、本例の変調パターン6は、x軸方向およびy軸方向に変調された2次元の周期パターンを有する。x軸方向およびy軸方向は、第1の方向および第2の方向の一例である。
 矢印7は、光源1が、照射光の照射領域内で変調パターン6を移動させる向きを示す。本例の光源1は、変調パターン6をx軸方向およびy軸方向とは異なる第3の方向に移動させる。つまり、変調パターン6の移動ベクトルは、x軸方向の成分とy軸方向の成分を有する。
 本例の撮像システム200は、照射光の照射領域内において各位置に照射される光の強度変調が2つの周波数成分を有するように、変調パターン6および移動方向を設定する。被写体2の各位置に照射される光の強度変調は、下記の2つの周波数成分を有する。第1の周波数成分は、変調パターン6のx軸方向の強度変調の周期と、変調パターン6のx軸方向における移動速度とに応じた周波数成分である。つまり、第1の周波数成分は、変調パターン6のx軸方向の強度変調の周期が小さいほど高い周波数となり、x軸方向における移動速度が速いほど高い周波数となる。また、第2の周波数成分は、変調パターン6のy軸方向の強度変調の周期と、変調パターン6のy軸方向における移動速度とに応じた周波数成分である。光源1は、第1の周波数成分と第2の周波数成分の周波数が分離可能なように、変調パターン6のx軸方向およびy軸方向の強度変調比と、x軸方向およびy軸方向の速度比を設定する。
 検波部11は、x軸方向およびy軸方向について、変調パターン6の強度変調の周期と、移動速度とに基づく基準周波数で、受光信号をヘテロダイン検波する。検波部11は、上述した第1の周波数成分および第2の周波数成分について、それぞれ対応する基準周波数信号を生成してよい。
 一例として、光源1は、x軸方向とy軸方向とで、光の強度変調の周期が異なる変調パターン6を被写体2に照射する。この場合、光源1は、変調パターン6の移動方向を、x軸方向およびy軸方向のちょうど中間に設定してよい。つまり、変調パターン6のx軸方向における移動速度と、y軸方向における移動速度を同一に設定してよい。これにより、被写体2の各位置に照射される光の強度変調は、2つの周波数成分を有することになる。
 他の例では、光源1は、x軸方向とy軸方向とで、光の強度変調の周期が同一の変調パターン6を被写体2に照射する。この場合、光源1は、変調パターン6の移動方向を、x軸方向およびy軸方向の中間とは異なる方向に設定する。つまり、変調パターン6の移動速度を、x軸方向とy軸方向とで異ならせる。このような設定によっても、被写体2の各位置に照射される光の強度変調は、2つの周波数成分を有することになる。
 なお、光源1は、x軸方向とy軸方向とで、光の強度変調の周期および移動速度の双方が異なる変調パターン6を照射してもよい。ただし、x軸方向およびy軸方向における強度変調の周期の比と、移動速度の比が同一とならないように(すなわち、第1の周波数成分と第2の周波数成分とが同一周波数とならないように)、変調パターン6を設定する。
 図15は、撮像システム200の動作の一例を示すフローチャートである。本フローチャートでは、実施例3で示した、空間変調方式による被写体2の深部観察について説明する。本フローチャートは、撮像システム200が有する制御部または図1に示す各構成がそれぞれの処理を実行することで実現される。撮像システム200は、ステップS100~ステップS106を有する。
 ステップS100において、撮像システム200は、光源1が照射する照射光のパターンを決定する。本例においては、被写体2の観察したい2種類の深さに応じて、第1の方向および第2の方向のパターンの空間周波数が決定される。撮像システム200は、2種類の空間周波数について、ユーザが指定した、観察したい深さに基づいて決定してもよいし、外部から深さまたは空間周波数に関する情報を取得してもよい。
 ステップS102において、光源1は、ステップS100で決定されたパターンを有する照射光を、パターンを第3の方向に移動させながら被写体2に照射する。本例の照射光のパターンは、第1の方向、および第1の方向と異なる第2の方向のそれぞれにおいて光の強弱が周期的に変調している。また、第3の方向は、第1の方向、第2の方向のいずれにも交差する方向である。光源1は、照射範囲は変えずに照射光のパターンを移動させる。
 ステップS104において、検波部11は、第1の方向および第2の方向について、予め定められた基準周波数で、被写体2を介した照射光(即ち、散乱光)に応じた受光信号をヘテロダイン検波する。ここで、本例の基準周波数は、照射光のパターンにおける光の強弱の周期および移動速度に応じて定められる。
 ステップS106において、検波部11から出力された信号を読出し回路60が計算すると、画像生成部80は、その結果に基づいて被写体2の深部観察画像を生成し、出力する。なお、上述のフローチャートは実施例1、2でも適用可能である。ただし、ステップS102において、光源1は、実施例1の強度変調方式では被写体2の観察領域の深さに応じた変調周波数で強度変調された照射光を照射し、実施例2の空間変調方式では被写体2の観察領域の深さに応じた空間周波数によるパターンを有する照射光を照射する。
 図16は、生体試料4および溶液5を有する被写体2の一例を示す。例えば、撮像される生体試料4が円柱形状である場合、生体試料4が曲面を有するので、形状を正確に考慮することが困難である。そこで、被写体2の形状が曲面を有さないように、生体試料4の周囲を溶液5で覆うことにより、正確に生体試料4の深部観察画像を撮像できる。本例の溶液5は、被写体2が直方体となるように1%濃度のイントラリピッド溶液で覆っている。
 以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、請求の範囲の記載から明らかである。
 請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
1・・・光源、2・・・被写体、3・・・出力部、4・・・生体試料、5・・・溶液、6・・・変調パターン、7・・・矢印、8・・・画素チップ、9・・・回路チップ、10・・・受光部、11・・・検波部、12・・・光電変換部、14・・・画素、16・・・画素ブロック、20・・・IV変換部、21・・・オペアンプ、30・・・乗算部、32・・・乗算回路、35・・・乗算部、40・・・フィルタ部、42・・・フィルタ回路、45・・・フィルタ部、50・・・記憶部、52・・・メモリ回路、55・・・記憶部、60・・・読出し回路、70・・・基準信号生成部、80・・・画像生成部、90・・・中間層、91・・・基板、92・・・抵抗ビア、93・・・ポスト、94・・・酸化膜、100・・・撮像素子、200・・・撮像システム

Claims (17)

  1.  受光した光の受光量に応じた受光信号を出力する画素を複数有する受光部と、
     1または複数の画素からなる画素ブロック毎に設けられ、前記受光した光の強度変調の周波数に対応する基準周波数で、対応する前記画素ブロックに含まれる前記画素から出力される前記受光信号をヘテロダイン検波する検波部と
     を備える撮像素子。
  2.  前記検波部は、前記受光信号と前記基準周波数の信号とを乗算して乗算信号を出力する乗算回路を有する
     請求項1に記載の撮像素子。
  3.  前記受光部および前記乗算回路は同一の第1チップに形成され、
     前記検波部は、
     前記乗算信号から予め定められた周波数の信号を取り出すフィルタ回路と、
     前記フィルタ回路により取り出した信号を一時的に保持するメモリ回路と
     を前記第1チップとは異なる層に有する
     請求項2に記載の撮像素子。
  4.  前記メモリ回路は、前記第1チップに積層された第2チップに形成され、
     前記フィルタ回路は、前記第1チップと前記第2チップとの間に設けられた中間層を貫通するビアを含んで形成される
     請求項3に記載の撮像素子。
  5.  前記フィルタ回路および前記メモリ回路は、前記第1チップに積層された第2チップに形成される
     請求項3に記載の撮像素子。
  6.  前記受光部は、第1チップに形成され、
     前記検波部は、前記第1チップとは異なる層に形成される
     請求項1に記載の撮像素子。
  7.  前記検波部は、
     前記乗算信号から予め定められた周波数の信号を取り出すフィルタ回路と、
     前記フィルタ回路により取り出した信号を一時的に保持するメモリ回路と
     を有し、
     前記受光部、前記乗算回路、前記フィルタ回路および前記メモリ回路は、同一のチップに形成される
     請求項2に記載の撮像素子。
  8.  前記検波部は、それぞれの前記画素ブロックから出力される前記受光信号を、並行して前記ヘテロダイン検波する
     請求項1から7のいずれか一項に記載の撮像素子。
  9.  前記検波部は、複数の前記画素を含む前記画素ブロックに対して、それぞれの前記画素からの前記受光信号を時分割に前記ヘテロダイン検波する
     請求項1から8のいずれか一項に記載の撮像素子。
  10.  請求項1から9のいずれか一項に記載の撮像素子と、
     変調周波数で強度変調した照射光を被写体に照射する光源と
     を備え、
     前記検波部は、前記変調周波数を示す情報を取得し、前記被写体を介した前記照射光を前記受光部が受光して出力する前記受光信号を、前記情報に応じて調整した前記基準周波数でヘテロダイン検波する
     撮像システム。
  11.  前記光源は、前記被写体の観察領域の深さに応じた強度の前記照射光を照射する
     請求項10に記載の撮像システム。
  12.  前記光源は、前記被写体の観察領域の深さに応じた周波数成分を有する前記照射光を照射する
     請求項10または11に記載の撮像システム。
  13.  前記検波部が検波した信号を読み出して計算する読出し回路と、
     前記読出し回路の計算結果に基づいて、前記被写体のトモグラフィ画像を生成するための信号を生成する画像生成部と
     をさらに備える請求項10から12のいずれか一項に記載の撮像システム。
  14.  請求項1から9のいずれか一項に記載の撮像素子と、
     第1の方向、および前記第1の方向と異なる第2の方向のそれぞれにおいて光の強弱が周期的に変調したパターンを有する照射光を、前記第1の方向および前記第2の方向と異なる第3の方向に前記パターンを移動させながら被写体に照射する光源と
     を備え、
     前記検波部は、前記第1の方向および前記第2の方向について、それぞれ前記光の強弱の周期および移動速度に応じて定められる前記基準周波数で、前記受光信号をヘテロダイン検波する
     撮像システム。
  15.  前記光源は、前記第1の方向と前記第2の方向とで、光の強度変調の周期が異なるパターンを前記被写体に照射する
     請求項14に記載の撮像システム。
  16.  前記光源は、前記第1の方向と前記第2の方向で、前記パターンを移動させる速度を異ならせて前記照射光を照射する
     請求項14または15に記載の撮像システム。
  17.  第1の方向、および前記第1の方向と異なる第2の方向のそれぞれにおいて光の強弱が周期的に変調したパターンを有する照射光を、前記第1の方向および前記第2の方向と異なる第3の方向に前記パターンを移動させながら被写体に照射し、
     前記第1の方向および前記第2の方向について、前記パターンにおける前記光の強弱の周期および移動速度に応じて定められる基準周波数で、前記被写体を介した前記照射光に応じた受光信号をヘテロダイン検波する
     撮像方法。
PCT/JP2016/060789 2016-03-31 2016-03-31 撮像素子、撮像システムおよび撮像方法 WO2017168711A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/060789 WO2017168711A1 (ja) 2016-03-31 2016-03-31 撮像素子、撮像システムおよび撮像方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/060789 WO2017168711A1 (ja) 2016-03-31 2016-03-31 撮像素子、撮像システムおよび撮像方法

Publications (1)

Publication Number Publication Date
WO2017168711A1 true WO2017168711A1 (ja) 2017-10-05

Family

ID=59962824

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/060789 WO2017168711A1 (ja) 2016-03-31 2016-03-31 撮像素子、撮像システムおよび撮像方法

Country Status (1)

Country Link
WO (1) WO2017168711A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020085618A (ja) * 2018-11-22 2020-06-04 国立大学法人 奈良先端科学技術大学院大学 物体内部の光学特性を計測する計測装置及び方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01502537A (ja) * 1987-01-30 1989-08-31 ヒユーズ・エアクラフト・カンパニー 電磁放射線検知器からの信号を多重化する方法および装置
JPH10508736A (ja) * 1994-11-14 1998-08-25 ライカ アーゲー 強度変調された照射野の検出及び復調のための装置及び方法
JPH10510626A (ja) * 1994-12-02 1998-10-13 ノン−インヴェイシヴ テクノロジイ,インク. 生物学的組織の検査のための光学技術
JP2001272334A (ja) * 2000-03-24 2001-10-05 Japan Science & Technology Corp 2次元光ヘテロダイン走査検出システム
JP2003526091A (ja) * 2000-03-09 2003-09-02 フォトゲン インク 光学式画像形成のための方法および装置
JP2008266015A (ja) * 2007-04-16 2008-11-06 Toshiba Corp 記録媒体判定装置及び記録媒体に画像を形成する画像形成装置
JP2013113840A (ja) * 2011-11-25 2013-06-10 Asset-Wits Co Ltd 光学画像測定装置
WO2015152297A1 (ja) * 2014-03-31 2015-10-08 株式会社ニコン 検出素子、ロックイン検出装置、基板、および検出素子の製造方法
JP2015197345A (ja) * 2014-03-31 2015-11-09 国立大学法人 東京大学 検査システムおよび検査方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01502537A (ja) * 1987-01-30 1989-08-31 ヒユーズ・エアクラフト・カンパニー 電磁放射線検知器からの信号を多重化する方法および装置
JPH10508736A (ja) * 1994-11-14 1998-08-25 ライカ アーゲー 強度変調された照射野の検出及び復調のための装置及び方法
JPH10510626A (ja) * 1994-12-02 1998-10-13 ノン−インヴェイシヴ テクノロジイ,インク. 生物学的組織の検査のための光学技術
JP2003526091A (ja) * 2000-03-09 2003-09-02 フォトゲン インク 光学式画像形成のための方法および装置
JP2001272334A (ja) * 2000-03-24 2001-10-05 Japan Science & Technology Corp 2次元光ヘテロダイン走査検出システム
JP2008266015A (ja) * 2007-04-16 2008-11-06 Toshiba Corp 記録媒体判定装置及び記録媒体に画像を形成する画像形成装置
JP2013113840A (ja) * 2011-11-25 2013-06-10 Asset-Wits Co Ltd 光学画像測定装置
WO2015152297A1 (ja) * 2014-03-31 2015-10-08 株式会社ニコン 検出素子、ロックイン検出装置、基板、および検出素子の製造方法
JP2015197345A (ja) * 2014-03-31 2015-11-09 国立大学法人 東京大学 検査システムおよび検査方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020085618A (ja) * 2018-11-22 2020-06-04 国立大学法人 奈良先端科学技術大学院大学 物体内部の光学特性を計測する計測装置及び方法
JP7222524B2 (ja) 2018-11-22 2023-02-15 国立大学法人 奈良先端科学技術大学院大学 物体内部の光学特性を計測する計測装置及び方法

Similar Documents

Publication Publication Date Title
US10194805B2 (en) Intrinsic and swept-source raman spectroscopy
JP6764880B2 (ja) 偏光特性画像計測装置、偏光特性画像計測方法
US20070201033A1 (en) Methods and systems for performing angle-resolved fourier-domain optical coherence tomography
US20130296715A1 (en) Instrument and method for high-speed perfusion imaging
US20090069653A1 (en) Measurement apparatus
US20090118623A1 (en) Instrument and Method for High-Speed Perfusion Imaging
EP1332718A1 (en) Laser doppler perfusion imaging using a CMOS image sensor
JP5623540B2 (ja) 生体情報取得解析装置
JP2008261778A (ja) 光断層画像表示システム及び光断層画像表示方法
JP2005241464A (ja) 光画像計測装置
JP2006516722A (ja) イメージング方法及びその関連装置
US10416297B2 (en) Signal harmonic error cancellation method and apparatus
WO2017203525A1 (en) System and method for use in depth characterization of objects
JP2009293998A (ja) 干渉断層撮影装置
JP5990906B2 (ja) 測定装置、測定方法、プログラムおよび記録媒体
Bauer-Marschallinger et al. Fiber-optic annular detector array for large depth of field photoacoustic macroscopy
WO2017168711A1 (ja) 撮像素子、撮像システムおよび撮像方法
JP2005351839A (ja) 断層映像装置
US9600444B2 (en) Method for generating information signal
JP5927112B2 (ja) 電界スペクトル測定装置および物体測定装置
JP2012239715A (ja) 被検体情報取得装置及び被検体情報取得方法
US5807262A (en) Device for localizing an object in a turbid medium using a modulated light source
US10939060B2 (en) Image sensor, measuring device, and measuring method
CN107894204B (zh) 干涉仪及其成像方法
JP5171564B2 (ja) 音響光学トモグラフィー測定装置および測定方法

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16896928

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 16896928

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP