WO2018123377A1 - 撮像装置および撮像方法 - Google Patents

撮像装置および撮像方法 Download PDF

Info

Publication number
WO2018123377A1
WO2018123377A1 PCT/JP2017/042181 JP2017042181W WO2018123377A1 WO 2018123377 A1 WO2018123377 A1 WO 2018123377A1 JP 2017042181 W JP2017042181 W JP 2017042181W WO 2018123377 A1 WO2018123377 A1 WO 2018123377A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
optical path
path length
imaging
imaged
Prior art date
Application number
PCT/JP2017/042181
Other languages
English (en)
French (fr)
Inventor
佳祐 加藤
石川 直樹
Original Assignee
株式会社Screenホールディングス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Screenホールディングス filed Critical 株式会社Screenホールディングス
Priority to EP17885570.6A priority Critical patent/EP3561484A4/en
Priority to CN201780080487.0A priority patent/CN110114656B/zh
Priority to US16/467,356 priority patent/US10801830B2/en
Publication of WO2018123377A1 publication Critical patent/WO2018123377A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/47Scattering, i.e. diffuse reflection
    • G01N21/4795Scattering, i.e. diffuse reflection spatially resolved investigating of object in scattering medium
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/02041Interferometers characterised by particular imaging or detection techniques
    • G01B9/02044Imaging in the frequency domain, e.g. by using a spectrometer
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/02055Reduction or prevention of errors; Testing; Calibration
    • G01B9/02062Active error reduction, i.e. varying with time
    • G01B9/02064Active error reduction, i.e. varying with time by particular adjustment of coherence gate, i.e. adjusting position of zero path difference in low coherence interferometry
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/02055Reduction or prevention of errors; Testing; Calibration
    • G01B9/02075Reduction or prevention of errors; Testing; Calibration of particular errors
    • G01B9/02078Caused by ambiguity
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/02083Interferometers characterised by particular signal processing and presentation
    • G01B9/02084Processing in the Fourier or frequency domain when not imaged in the frequency domain
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/0209Low-coherence interferometers
    • G01B9/02091Tomographic interferometers, e.g. based on optical coherence
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/55Specular reflectivity
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N2021/178Methods for obtaining spatial resolution of the property being measured
    • G01N2021/1785Three dimensional
    • G01N2021/1787Tomographic, i.e. computerised reconstruction from projective measurements

Definitions

  • the present invention relates to a technique for imaging by detecting an interference light component between reflected light from an object to be imaged and reference light, and more particularly to a technique for imaging an object to be imaged in a light-transmitting container.
  • the technology that obtains the reflected light intensity distribution in the depth direction by interfering the signal light and the reference light each containing broadband components and Fourier transforming the spectrum of the interference light is the Fourier domain optical coherence tomography (Fourier) Domain Optical Coherence Tomography (FD-OCT).
  • FD-OCT Fourier domain optical coherence tomography
  • the wavelength in the spectrum of the interference light corresponds to the depth direction of the object to be imaged
  • tomographic information of the object to be imaged within the depth of field of the optical system can be acquired collectively. And high-speed imaging is possible.
  • imaging may be performed through a wall part (for example, the bottom part) of the light transmissive container.
  • the container wall surface acts as a strong reflecting surface, complex conjugate noise caused by the reflected light from the container wall surface is superimposed on the tomographic image.
  • the required image of the object to be picked up may overlap with the complex conjugate image of the container wall surface, which may cause a problem that accurate tomographic information of the object to be picked up cannot be obtained.
  • the present invention has been made in view of the above problems, and in a technique for capturing an image of an object to be picked up in a container using interference between reflected light from the object to be picked up and reference light, the container wall surface is configured with a simple configuration. It is an object of the present invention to provide a technique capable of obtaining a tomographic image with good image quality that is not affected by image noise caused by reflection of light.
  • a broadband low-coherence light emitted from a light source is achieved in order to achieve the above object. Is branched into the imaged object through the wall as the illumination light, and the reflected light of the imaged object emitted through the wall is collected by the object optical system.
  • Detection means for detecting interference light generated by interference between the signal light and the reference light generated from the other branched light, and outputting an interference signal corresponding to the detected interference light; and A signal processing unit for Fourier-transforming the spectrum of the interference light to obtain a reflected light intensity distribution of the imaging object in the incident direction of the illumination light, and creating a tomographic image from the reflected light intensity distribution; Object optics for objects And control means for changing and setting the optical path length of the focal depth in the incident direction and the reference beam. Then, the control means is configured such that a distance from the first surface on the imaging object side of the surface of the wall portion to the focal point of the object optical system is smaller than a predetermined threshold smaller than the thickness of the wall portion.
  • the optical path length of the reference light is set to a value equal to the optical path length of the illumination light to the first surface.
  • a broadband low-power emitted from a light source is achieved in order to achieve the above object.
  • One branched light from which the coherence light is branched is made incident on the object to be imaged as illumination light through the wall, and the reflected light of the object to be emitted emitted through the wall is collected by an object optical system.
  • the depth of focus in the incident direction of the object optical system with respect to the object to be imaged and the optical path length of the reference light can be changed and set from the first surface on the object to be imaged side of the surface of the wall part.
  • the optical path length of the reference light is increased to the first surface. Is set to a value equal to the optical path length of the illumination light.
  • the imaging principle of the present invention is based on the FD-OCT technique in which signal light including a broadband component interferes with reference light and a reflected light intensity distribution in the depth direction is obtained by Fourier transforming the spectrum of the interference light. .
  • signal light including a broadband component interferes with reference light
  • a reflected light intensity distribution in the depth direction is obtained by Fourier transforming the spectrum of the interference light.
  • complex conjugate images of the surface of the wall near the object to be imaged and the surface opposite to the object to be imaged across the surface are obtained. It may become noise by overlapping the image of the imaged object.
  • the complex conjugate image of the container wall surface appears conjugate to the position where the image of the container wall surface appears, that is, symmetrical to the reference reference plane defined by the optical path length of the reference light. Therefore, the appearance position depends on the setting of the reference reference plane. For this reason, it is conceivable that the complex conjugate image of the container wall surface is separated from the image of the imaged object by sufficiently separating the reference reference plane from the imaged object.
  • the position of the reference reference plane is set according to the focal depth of the object optical system. Specifically, the depth of focus is set so that the distance from the first surface on the imaging object side of the surface of the wall portion to the focal point of the object optical system is smaller than a predetermined threshold value smaller than the thickness of the wall portion.
  • the optical path length of the reference light is set equal to the optical path length of the illumination light up to the first surface.
  • the optical path length of the illumination light to the plane is the reference light
  • the optical path length of the reference light is set in this way, the complex conjugate image on the first surface appears at the same position as the real image on the first surface in the tomographic image.
  • the complex conjugate image of the second surface appears at a position separated from the first surface by the thickness of the wall in the tomographic image.
  • the complex conjugate image due to the container wall surface does not appear in the range where the distance from the first surface is smaller than the thickness of the wall part.
  • the distance from the focal position of the object optical system to the first surface is smaller than the wall thickness. Therefore, the focal position is included in a range without a complex conjugate image caused by the container wall surface. That is, in the vicinity of the focal plane, it is possible to acquire tomographic information of the object to be imaged without being affected by the complex conjugate noise caused by the container wall surface.
  • the thickness of the wall can be grasped in advance from the shape of the container used.
  • the influence of the complex conjugate noise caused by the container wall surface can be eliminated in the vicinity of the position corresponding to the focal depth of the object optical system. If there is a function for setting the optical path length of the reference light in conjunction with the setting of the focal depth of the object optical system, the above effect can be obtained. Therefore, a tomographic image from which the influence of complex conjugate noise is eliminated can be obtained with a simple apparatus configuration.
  • FIG. 1 is a principle diagram showing a configuration example of an image processing apparatus to which the present invention is applied. It is a figure explaining the imaging principle in this image processing apparatus. It is a figure explaining the imaging principle in this image processing apparatus. It is a figure which shows the specific structural example of an OCT apparatus. It is a figure which shows the specific structural example of an OCT apparatus. It is a figure which shows typically the positional relationship of the focal depth of an object optical system, and a reference reference plane. It is a figure which shows the relationship between the position of a reference standard surface, and reflected light intensity distribution. It is a figure which shows the relationship between the position of a reference standard surface, and reflected light intensity distribution.
  • FIG. 1 is a principle diagram showing a configuration example of an image processing apparatus to which the present invention is applied.
  • the image processing apparatus 1 performs tomographic imaging using spheroids (cell clumps) cultured in a medium as an object to be imaged, and performs image processing on the obtained tomographic images to create a three-dimensional image of the spheroids.
  • spheroids cell clumps
  • an to-be-imaged object is not limited to this.
  • XYZ orthogonal coordinate axes are set as shown in FIG.
  • the XY plane represents a horizontal plane.
  • the Z axis represents the vertical axis, and more specifically, the ( ⁇ Z) direction represents the vertical downward direction.
  • the image processing apparatus 1 includes a holding unit 10.
  • the holding unit 10 holds the container 11 in a substantially horizontal posture with its opening surface facing upward.
  • the container 11 is an instrument called a shallow dish-shaped dish having a transparent and uniform flat bottom made of, for example, glass or resin.
  • a predetermined amount of an appropriate medium M is injected into the container 11 in advance, and the spheroid Sp is cultured at the bottom 111 of the container 11 in the medium. Although only one spheroid Sp is illustrated in FIG. 1, a plurality of spheroids Sp may be cultured in one container 11.
  • the imaging unit 20 is disposed below the container 11 held by the holding unit 10.
  • the imaging unit 20 is an optical coherence tomography (OCT) apparatus that can capture a tomographic image of an object to be imaged in a non-contact and non-destructive (non-invasive) manner.
  • An imaging unit 20 that is an OCT apparatus includes a light source 21 that generates illumination light for an object to be imaged, a beam splitter 22, an object optical system 23, a reference mirror 24, a spectroscope 25, and a photodetector 26. I have.
  • the image processing apparatus 1 further includes a control unit 30 that controls the operation of the apparatus and a drive control unit 40 that controls the movable mechanism of the imaging unit 20.
  • the control unit 30 includes a central processing unit (CPU) 31, an A / D converter 32, a signal processing unit 33, a 3D restoration unit 34, an interface (IF) unit 35, an image memory 36, a memory 37, and the like.
  • the CPU 31 controls the operation of the entire apparatus by executing a predetermined control program, and the control program executed by the CPU 31 and data generated during the processing are stored in the memory 37.
  • the A / D converter 32 converts a signal output from the photodetector 26 of the imaging unit 20 according to the amount of received light into digital data.
  • the signal processing unit 33 performs appropriate signal processing based on the digital data output from the A / D converter 32 to create a tomographic image of the imaged object.
  • the 3D restoration unit 34 has a function of creating a three-dimensional image (3D image) of the captured cell cluster based on the image data of the plurality of created tomographic images.
  • the image data of the tomographic image created by the signal processing unit 33 and the image data of the stereoscopic image created by the 3D restoration unit 34 are appropriately stored and saved by the image memory 36.
  • the interface unit 35 is responsible for communication between the image processing apparatus 1 and the outside. Specifically, the interface unit 35 has a communication function for communicating with an external device, and a user interface function for receiving an operation input from the user and notifying the user of various information.
  • an input device 351 and a display unit 352 are connected to the interface unit 35.
  • the input device 351 is, for example, a keyboard, a mouse, a touch panel, or the like that can accept an operation input related to device function selection, operation condition setting, and the like.
  • the display unit 352 is, for example, a liquid crystal display that displays various processing results such as a tomographic image created by the signal processing unit 33 and a stereoscopic image created by the 3D restoration unit 34.
  • the CPU 31 gives a control command to the drive control unit 40, and in response to this, the drive control unit 40 causes the movable mechanism of the imaging unit 20 to perform a predetermined operation.
  • the spheroid (cell agglomeration) to be imaged is obtained by a combination of the scanning movement of the imaging unit 20 executed by the drive control unit 40 and the detection of the amount of received light by the photodetector 26. An image is acquired.
  • FIG. 2A and 2B are diagrams for explaining the imaging principle of the image processing apparatus. More specifically, FIG. 2A is a diagram showing an optical path in the imaging unit 20, and FIG. 2B is a diagram schematically showing a state of tomographic imaging of a spheroid. As described above, the imaging unit 20 functions as an optical coherence tomography (OCT) apparatus.
  • OCT optical coherence tomography
  • a low coherence light beam L1 including a broadband wavelength component is emitted from a light source 21 having a light emitting element such as a light emitting diode or a super luminescent diode (SLD).
  • the light beam L1 enters the beam splitter 22 and branches, and a part of the light L2 is directed to the container 11 as indicated by a broken line arrow, and a part of the light L3 is directed to the reference mirror 24 as indicated by a one-dot chain line arrow.
  • the light L2 directed toward the container 11 enters the container 11 through the object optical system 23. More specifically, the light L ⁇ b> 2 emitted from the beam splitter 22 enters the container bottom 111 through the object optical system 23.
  • the object optical system 23 converges the light L2 traveling from the beam splitter 22 toward the container 11 to the object to be imaged in the container 11 (in this case, spheroid Sp) and condenses the reflected light emitted from the object to be imaged. And has a function of directing it toward the beam splitter 22.
  • the object optical system 23 is typically represented by a single objective lens, but may be a combination of a plurality of optical elements.
  • the object optical system 23 is movable in the Z direction by a focus adjustment mechanism 41 provided in the drive control unit 40. Thereby, the focal position of the object optical system 23 with respect to the object to be imaged can be changed in the Z direction.
  • the focal position of the object optical system 23 in the depth direction (Z direction) is referred to as “focus depth”.
  • the optical axis of the object optical system 23 is parallel to the vertical direction, and is therefore perpendicular to the planar container bottom 111.
  • the arrangement direction of the object optical system 23 is determined so that the incident direction of the illumination light to the object optical system 23 is parallel to the optical axis and the optical center thereof coincides with the optical axis.
  • the spheroid Sp is not transparent to the light L2, the light L2 incident through the container bottom 111 is reflected by the surface of the spheroid Sp.
  • the spheroid Sp has a certain degree of transparency with respect to the light L2, the light L2 enters the spheroid Sp and is reflected by the internal structure.
  • the light L2 By using, for example, near infrared rays as the light L2, it is possible to make incident light reach the inside of the spheroid Sp. Reflected light from the spheroid Sp is emitted in various directions as scattered light. Of these, the light L4 emitted within the light collection range of the object optical system 23 is converged by the object optical system 23 and sent to the beam splitter 22.
  • the reference mirror 24 is movably supported by a mirror drive mechanism 42 provided in the drive control unit 40. Thereby, the reference mirror 24 can move its reflecting surface in a posture perpendicular to the incident direction of the light L3 and in a direction along the incident direction (Y direction in the drawing).
  • the light L3 incident on the reference mirror 24 is reflected by the reflecting surface and travels toward the beam splitter 22 as light L5 that travels in the reverse direction along the incident optical path. This light L5 becomes the reference light.
  • the optical path length of the reference light changes.
  • interference due to the phase difference occurs between the reflected light L4 and the reference light L5, but the spectral spectrum of the interference light varies depending on the depth of the reflecting surface. That is, the spectral spectrum of the interference light has information in the depth direction of the object to be imaged. Therefore, the reflected light intensity distribution in the depth direction of the object to be imaged can be obtained by spectrally detecting the interference light for each wavelength to detect the amount of light and performing Fourier transform on the detected interference signal.
  • the OCT imaging technique based on such a principle is called Fourier domain OCT (FD-OCT).
  • a spectroscope 25 is provided on the optical path of the interference light from the beam splitter 22 to the photodetector 26.
  • the spectroscope 25 for example, one using a prism, one using a diffraction grating, or the like can be used.
  • the interference light is spectrally separated for each wavelength component by the spectroscope 25 and received by the photodetector 26.
  • the interference signal output from the photodetector 26 according to the interference light detected by the photodetector 26 is Fourier-transformed, so that the reflection in the depth direction, that is, the Z direction, of the spheroid Sp at the incident position of the light beam L2.
  • a light intensity distribution is required.
  • a reflected light intensity distribution in a plane parallel to the XZ plane is obtained, and from that result, a tomographic image of the spheroid Sp having the plane as a cross section is created.
  • Can do a series of operations for acquiring one tomographic image It in a cross section parallel to the XZ plane by beam scanning in the X direction is referred to as one imaging.
  • a tomographic image is taken each time the beam incident position in the Y direction is changed in multiple stages.
  • a large number of tomographic images It obtained by tomographically imaging the spheroid Sp in a cross section parallel to the XZ plane can be obtained.
  • image data with sufficient resolution to grasp the three-dimensional structure of the spheroid Sp can be obtained.
  • the beam scanning in the X direction and the Y direction is performed by, for example, a method of changing the beam incident position in the XY direction using an optical component that changes an optical path such as a galvano mirror (not shown), the container 11 carrying the spheroid Sp, and the imaging unit 20. This can be realized by a method of moving either of them in the XY directions to change their relative positions.
  • the imaging unit 20 has the function of demultiplexing the light from the light source 21 into the illumination light and the reference light, and the function of synthesizing the signal light and the reference light to generate interference light. This is realized by the splitter 22.
  • optical fiber couplers as exemplified below may be used as those having such a demultiplexing / multiplexing function in the OCT apparatus.
  • 3A and 3B are diagrams showing a specific configuration example of the OCT apparatus.
  • the same reference numerals are given to configurations that are the same as or correspond to the configurations in the principle diagram described above. Its structure and function are basically the same as those in the above principle diagram unless otherwise specified, and detailed description thereof will be omitted. Further, since the OCT imaging principle for detecting interference light by the optical fiber coupler is basically the same as described above, detailed description is omitted.
  • the imaging unit 20a includes an optical fiber coupler 220 as a demultiplexer / multiplexer in place of the beam splitter 22.
  • One of the optical fibers 221 constituting the optical fiber coupler 220 is connected to the light source 21, and the low coherence light emitted from the light source 21 is branched by the optical fiber coupler 220 into light to the two optical fibers 222 and 224. Is done.
  • the optical fiber 222 constitutes an object system optical path. More specifically, the light emitted from the end portion of the optical fiber 222 enters the object optical system 23 via the collimator lens 223. Reflected light (signal light) from the imaging object enters the optical fiber 222 via the object optical system 23 and the collimator lens 223.
  • the other optical fiber 224 constitutes a reference system optical path. More specifically, light emitted from the end of the optical fiber 224 is incident on the reference mirror 24 via the collimator lens 225. Reflected light (reference light) from the reference mirror 24 enters the optical fiber 224 via the collimator lens 225. The signal light propagating through the optical fiber 222 interferes with the reference light propagating through the optical fiber 224 in the optical fiber coupler 220. The interference light enters the photodetector 26 via the optical fiber 226 and the spectroscope 25. As described above, the intensity distribution of the reflected light on the object to be imaged is obtained from the interference light received by the photodetector 26.
  • the optical fiber coupler 220 is provided in the imaging unit 20b.
  • the optical fiber 224 is not used, and a collimator lens 223 and a beam splitter 227 as an optical branching device are provided for the optical path of light emitted from the optical fiber 222.
  • the object optical system 23 and the reference mirror 24 are arrange
  • the focus adjustment mechanism 41 moves the object optical system 23 in the approach / separation direction with respect to the container 11. Thereby, it is possible to adjust the focal depth of the object optical system 23 with respect to the object to be imaged.
  • the mirror driving mechanism 42 moves the reference mirror 24 along the light incident direction. Thereby, the optical path length of the reference light can be changed.
  • the imaging operation by the image processing apparatus 1 will be described.
  • the same imaging operation is possible regardless of whether the imaging unit uses the beam splitter described above or an optical fiber coupler.
  • FIG. 4 is a diagram schematically showing the positional relationship between the focal depth of the object optical system and the reference standard plane.
  • 5A to 5C are diagrams showing the relationship between the position of the reference reference plane and the reflected light intensity distribution.
  • the position where the optical path length of the signal light is the same as the optical path length of the reference light is the reference position in the depth direction in the image.
  • the object system optical path through which the illumination light L2 and the signal light L4 propagate through the object optical system 23 refer to the position corresponding to the reflecting surface of the reference mirror 24 in the reference system optical path. This is referred to as a reference plane Sr.
  • the surface of the bottom portion 111 of the container 11 that is close to the spheroid Sp that is the object to be imaged (that is, the inner bottom surface that is in contact with the culture medium) is the upper bottom surface Sa
  • the bottom 111 of the container 11 is the opposite side of the upper bottom surface Sa.
  • the outer bottom surface is referred to as a lower bottom surface Sb.
  • a focal plane of the object optical system 23 that is, a plane that includes the object-side focal point FP of the object optical system 23 and is perpendicular to the optical axis AX of the object optical system 23 is denoted by reference numeral Sf.
  • the distance between the upper bottom surface Sa and the lower bottom surface Sb, that is, the thickness of the container bottom portion 111 is represented by the symbol T.
  • the distance between the upper bottom surface Sa and the focal plane Sf, that is, the distance from the inner bottom surface of the container 11 to the focal point FP is represented by the symbol D.
  • This distance D can be said to be the focal depth of the object optical system 23 when the inner bottom surface (upper bottom surface Sa) of the container 11 is the starting point.
  • the optical path length of light reflected from the reflection surface (from the light source 21 to the photodetector 26) is reflected by the reflection surface of the reference mirror 24. It becomes equal to the optical path length (from the light source 21 to the photodetector 26) of the light to be emitted.
  • the position in the depth direction of each reflecting surface in the vicinity of the object to be imaged is represented by the distance in the Z direction from the reference standard surface Sr.
  • a signal having a magnitude corresponding to the reflected light intensity from the reflecting surface is a reference standard surface Sr. Appears at a depth corresponding to the distance from the reflection surface (ie, the focal plane Sf).
  • signals corresponding to the reflected light from the reflecting surfaces at various depths appear at each position, and the reflected light intensity distribution is obtained by superimposing these signals.
  • the signal from the reflecting surface on the focal plane Sf is considered.
  • the flat surfaces Sa and Sb of the container bottom 111 are also strong reflecting surfaces, and in the reflected light intensity distribution, signals corresponding to these appear at positions corresponding to the distance from the reference reference surface Sr.
  • the signal P1f corresponding to the focal plane Sf, the signal P1a corresponding to the upper bottom surface Sa, and the signal P1b corresponding to the lower bottom surface Sb are distances from the reference reference surface Sr. Appears at a position corresponding to. Since these signals appear at different positions in the reflected light intensity distribution if the reflecting surfaces are separated in real space, they can be separated from each other if the resolution of the image processing apparatus 1 is sufficiently high.
  • a signal conjugate with a signal from each reflecting surface appears in principle at a position symmetrical to each reflecting surface with respect to the reference standard surface Sr. That is, the complex conjugate signal P2f appears at a position conjugate with the signal P1f corresponding to the focal plane Sf. Similarly, the complex conjugate signal P2a appears at a position conjugate with the signal P1a corresponding to the upper bottom surface Sa, and the complex conjugate signal P2b appears at a position conjugate with the signal P1b corresponding to the lower bottom surface Sb.
  • a signal from a reflection surface existing in real space may be referred to as “real signal” in order to distinguish it from a complex conjugate signal.
  • the complex conjugate signals P2f, P2a, P2b appear on the ( ⁇ Z) side, which is a calculated virtual space. Therefore, the reflected light intensity from the reflecting surface in the real space detected on the (+ Z) side is not affected.
  • the complex conjugate signal of the real signal that appears on the ( ⁇ Z) side may appear at the conjugate position on the (+ Z) side.
  • the shape and dimensions of the bottom surface of the container 11 carrying the object to be imaged can be grasped in advance. is there.
  • the upper bottom surface Sa and the lower bottom surface Sb become strong reflection surfaces in the container bottom 111, and there is no strong reflection surface between them. Therefore, the complex conjugate signal that appears is only due to the upper bottom surface Sa and the lower bottom surface Sb, and no other complex conjugate signal appears between them.
  • the complex conjugate signals P2a and P2b resulting from this appear as sharp peaks, and their spread is small.
  • the reference reference plane Sr is set at a certain position, it can be estimated in advance where the peak of the complex conjugate signal due to the upper bottom surface Sa and the lower bottom surface Sb appears in the reflected light intensity distribution. is there. Further, the positions of these peaks change according to the setting of the reference standard plane Sr, but the distance between the two peaks is determined by the thickness T of the container bottom 111 and is not changed with respect to the setting of the reference standard plane Sr.
  • a complex conjugate signal caused by the bottom surface of the container may appear at a position as far as possible from the focal plane Sf of the object optical system 23 and its vicinity. By doing so, it is possible to acquire a reflected light intensity distribution that is not affected by the complex conjugate noise at least in the focal depth and in the vicinity thereof.
  • FIG. 6A and 6B are diagrams for explaining the principle of the imaging operation in this image processing apparatus. More specifically, FIG. 6A is a diagram showing the positional relationship between the focal position and the complex conjugate signal resulting from the bottom surface in the image processing apparatus 1, and FIG. 6B is a single tomographic image composed of a plurality of partial images. It is a figure which shows a method typically. As shown in FIG. 6A, in the reflected light intensity distribution in the depth direction (Z direction), the actual signal P1f from the focal plane Sf appears at the position of the focal depth Zf of the object optical system 23.
  • the peak of the complex conjugate signal P2a corresponding to the upper bottom surface Sa of the container 11 and the peak of the complex conjugate signal P2b corresponding to the lower bottom surface Sb are changed in the Z direction according to the setting of the reference reference plane Sr, but the peak-to-peak distance is Is unchanged.
  • this region Re includes a position corresponding to the focal depth Zf, and is also a region where the best resolution can be obtained in the depth direction. Therefore, in the tomographic image obtained from the reflected light intensity distribution in the region Re, there is no influence of the complex conjugate noise due to the bottom surface of the container, and the image quality is good because it is detected in a focused state.
  • this region Re is referred to herein as an “effective region”, and its length in the Z direction is referred to as an “effective height” and is represented by the symbol Ze.
  • FD-OCT imaging can in principle capture a wide range in the depth direction.
  • a tomographic image that is not affected by the complex conjugate noise can be obtained only in the effective region Re sandwiched between the two peaks P2a and P2b of the complex conjugate signal.
  • the object to be imaged is a spheroid Sp
  • its height is about several ⁇ m to several hundred ⁇ m.
  • the thickness T of the container bottom 111 is generally several hundred ⁇ m to several mm. Therefore, there may be a case where the entire object to be captured fits in a tomographic image obtained by one imaging and a case where it does not.
  • the imaging position may be varied in the Z direction as described above to perform imaging a plurality of times.
  • the focal depth Zf of the object optical system 23 in accordance with the imaging range for each imaging of each partial image Ip.
  • the setting of the reference reference plane Sr is also changed in conjunction with the change of the focal depth Zf.
  • the reference reference plane is set according to the setting of the focal depth of the object optical system 23.
  • the reference reference plane is set by setting the optical path length of the reference light.
  • FIG. 7 is a diagram illustrating the principle of setting the reference reference plane according to the focal depth. As shown at the left end of FIG. 7, the distance between the upper bottom surface Sa and the lower bottom surface Sb of the container 11 is expressed as the thickness T of the container bottom, and the focal plane Sf including the focal point FP of the object optical system 23 and the upper bottom surface of the container 11. The distance from Sa is expressed as the focal depth D.
  • the real signals P1f, P1a, and P1b corresponding to the focal plane Sf, the upper bottom surface Sa, and the lower bottom surface Sb are the depths of the respective surfaces. Appears at a position corresponding to the direction position.
  • the complex conjugate signal of each signal is superimposed on the reflected light intensity distribution actually obtained by performing Fourier transform.
  • an attempt is made to derive a condition for the actual signal corresponding to the focal plane Sf to be sandwiched between the peaks of the complex conjugate signal corresponding to the bottom surface of the container.
  • the actual signal P1f corresponding to the focal plane Sf is sandwiched between the complex conjugate signals P2a and P2b caused by the bottom surface of the container, the actual signal P1f corresponding to the focal plane Sf is the upper portion as shown in FIG.
  • the actual signal P1f corresponding to the focal plane Sf is the upper portion as shown in FIG.
  • a condition is considered in which the real signal P1f corresponding to the focal plane Sf and the complex conjugate signal P2a caused by the upper bottom surface Sa overlap.
  • the Z-direction position of the standard reference surface Sr is represented by a symbol Zr
  • the distance from the lower bottom surface Sb of the container 11 to the standard reference surface Sr is represented by a symbol R.
  • the relationship is obtained.
  • the value D is uniquely determined if the depth of focus at the time of imaging is determined.
  • the value T is uniquely determined when the container 11 is determined.
  • the condition for the actual signal P1f corresponding to the focal plane Sf to be located between the peaks P2a and P2b of the complex conjugate signal corresponding to the bottom surface of the container is that the value R is expressed by the value represented by the above formula (1) and the formula (2 ) Between the values represented by). Therefore, the condition for this is: (D + T) / 2 ⁇ R ⁇ (D + 2T) / 2 (3) It is represented by Therefore, it is understood that the position of the reference reference plane Sr may be set according to the focal depth so that the value R satisfies the relationship of the above formula (3).
  • the position of the reference reference plane Sr may be set so that When such a condition is satisfied, the effective area Re has the same extent in the (+ Z) direction and the ( ⁇ Z) direction around the focal depth Zf.
  • the object optical system 23 has the same focus range (range within the depth of field) in the (+ Z) direction and the ( ⁇ Z) direction with the focus position FP as the center, the condition of the above formula (4) is satisfied.
  • FIG. 8A and FIG. 8B are views showing the concept when the peak of the complex conjugate signal has a certain spread.
  • the peaks P2a and P2b of the complex conjugate signal each have a spread of about 2 ⁇ .
  • the value ⁇ can be specified by, for example, the half width of the peak.
  • FIG. 8A corresponds to a case where the influence of the peak width is added to the case of FIG. That is, FIG. 8A shows a condition in which the real signal P1f does not completely coincide with the peak P2a of the complex conjugate signal, and appears at a position shifted to the peak P1a side of the other complex conjugate signal by about half the half width ⁇ of the peak P2a. ing. In such a case, it is avoided that the real signal P1f is blocked by the peak P2a of the complex conjugate signal.
  • the real signal P1f is shifted by about twice the half-value half width ⁇ of the peak P2a of the complex conjugate signal. You may make it appear in the position.
  • R (D + 2 ⁇ + T) / 2 (2b) It is represented by From these, the preferred range that the value R can take is: (D + 2 ⁇ + T) / 2 ⁇ R ⁇ (D-2 ⁇ + 2T) / 2 (3b) It is represented by
  • Equation (3) can be applied when the peak width of the complex conjugate signal is almost negligible.
  • Equation (3) can be applied when the peak of the complex conjugate signal has a relatively large spread, or when the level of the actual signal is small relative to the complex conjugate signal, etc., in order to more reliably eliminate the influence of the complex conjugate noise.
  • the formula (3b) is preferably applied. In the intermediate case, equation (3a) may be applied.
  • the extent of the complex conjugate signal due to the container bottom depends on the surface condition of the container bottom. That is, when the upper bottom surface Sa and the lower bottom surface Sb of the container 11 are high-precision smooth surfaces, the peak of the complex conjugate signal becomes sharp. The peak width increases as the surface roughness of the upper bottom surface Sa and the lower bottom surface Sb increases. Therefore, the spread of the complex conjugate signal can be estimated from the state of the bottom surface of the container.
  • conditional expressions (3), (3a), and (3b) are expressions indicating a preferable range of the value R representing the position of the reference standard plane corresponding to the focal depth D and the container bottom thickness T.
  • the value R returned by the function F (D, T) shown in the expression (5) is expressed by any one of the conditional expressions (3), (3a), (3b) with respect to the arbitrary values D, T. It suffices if the function F (D, T) is determined so as to fall within the range.
  • the position of the reference reference plane Sr is determined using the above equation (4) in order to effectively use the signal from the focusing range near the focal position of the object optical system 23. That is, when the thickness T of the container bottom and the focal depth D of the object optical system 23 with respect to the upper bottom surface Sa of the container are given, the reference standard when the lower bottom surface Sb of the container is used as a reference.
  • the position of the reference mirror 24 that defines the optical path length of the reference light is set so that the value R corresponding to the position of the surface becomes a value represented by Expression (4).
  • FIG. 9 is a flowchart showing an imaging operation in this image processing apparatus.
  • the CPU 31 acquires information on the bottom thickness T of the container 11 (step S102).
  • the aspect which a user inputs via the input device 351 may be sufficient, and the information according to the container 11 used is read from the database regarding the container previously registered in the memory 37. There may be. In this way, the CPU 31 acquires information regarding the bottom thickness T of the container 11.
  • the imaging of the object to be imaged is executed a plurality of times while changing and setting the depth of focus in multiple stages. That is, first, the focus depth D of the object optical system 23 is set to a predetermined initial value by the focus adjustment mechanism 41 (step S103). Next, the CPU 31 determines whether or not the set focal depth D is half or more of the container bottom thickness T (step S104).
  • the CPU 31 derives the position of the reference mirror 24 using the above equation (4). In response to this, the mirror driving unit 42 positions the reference mirror 24 at the obtained position (step S105).
  • the CPU 31 has a special case where the value R corresponding to the position of the reference reference plane matches the bottom thickness T of the container 11.
  • the mirror driving unit 42 is controlled so that the position of the reference mirror 24 is set so as to satisfy this condition (step S106). The reason for this will be described later.
  • broadband low-coherence light is emitted from the light source 21, and interference light between the signal light emitted from the imaged object and the reference light is detected.
  • the interference light is split by the spectroscope 25, the intensity for each wavelength component is detected by the photodetector 26, and the output signal of the photodetector 26 is given to the CPU 31 as spectral information.
  • the light irradiation to the object to be imaged and the detection of the interference light are executed a plurality of times while scanning the light incident position in the X direction, and the spectral spectrum information of the reflected light is acquired each time (step S107).
  • the signal processing unit 33 obtains the reflected light intensity distribution from the reflecting surface existing in the vicinity of the focal depth by performing Fourier transform on the spectral spectrum information given from the CPU 31 (step S108). Note that this calculation may be performed after completion of all imaging. As described above, it is within the effective region Re between the peaks of the complex conjugate signal corresponding to the container bottom that the reflected light intensity from the object to be imaged can be obtained effectively. A region outside the effective region Re may be excluded from the target for calculating the reflected light intensity distribution, and may be included in the processing target at the time of calculation of the reflected light intensity distribution and may be deleted during subsequent image composition. .
  • Imaging is repeated while changing the focal depth step by step (step S110) until the set value of the focal depth reaches a predetermined final value (step S109).
  • the step depth for changing the focal depth may be determined in advance, or may be set according to the bottom thickness T of the container 11.
  • the change step width is preferably equal to or less than the height Ze of the effective area Re.
  • the depth of field of the object optical system 23 may be smaller than the effective height Ze determined by the interval of the complex conjugate signal, for example, because the object optical system 23 has a high magnification or a large numerical aperture. obtain.
  • the effective area Re may be maintained while allowing the end of the effective area Re to partially deviate from the in-focus range of the object optical system 23, and the effective area Re may be maintained. It may be limited to a depth range determined by the depth of field.
  • the signal processing unit 33 synthesizes the partial images Ip acquired at the respective focal depths, so that the tomographic image It of the imaging object in one cross section parallel to the XZ plane is obtained. Is created (step S111). If the above-described imaging operation is repeated while changing the position in the Y direction as necessary, a plurality of tomographic images It having different positions in the Y direction can be obtained.
  • the 3D restoration unit 34 can create a stereoscopic image of the object to be imaged from these tomographic images It.
  • the reason for setting the position of the reference mirror 24 on the basis of the equation (4) is that two complex elements caused by the bottom surface of the container are used in order to effectively use the focusing range of the object optical system 23. This is because the focal position comes to the center of the conjugate signal. At this time, if the peak width of the complex conjugate signal is ignored, the range of the effective region Re becomes (T / 2) in the (+ Z) direction and the ( ⁇ Z) direction with the focus depth as the center (FIG. 7 ( d)).
  • FIG. 10 shows the reflected light peak position when the focal depth is less than half of the container bottom thickness.
  • the actual signal P1a corresponding to the upper bottom surface Sa of the container 11 appears at a position away from the actual signal P1f by the distance D. Since D ⁇ (T / 2), the effective area Re at this time is an area sandwiched between the real signal P1a corresponding to the upper bottom surface Sa of the container 11 and the complex conjugate signal P2b corresponding to the lower bottom surface Sb. It will be limited. That is, it is not meaningful to set the position of the reference mirror 24 so that the real signal P1f comes to the center of the two complex conjugate signals P2a and P2b, but rather the effective area Re is narrowed.
  • the effective area Re in this case is an area sandwiched between the real signal P1a corresponding to the upper bottom surface Sa of the container 11 or the complex conjugate signal P2a that is conjugate to this and the other complex conjugate signal P2b.
  • the effective area Re can be made wider than in the case shown in FIG.
  • imaging can be performed by effectively using the focusing range of the object optical system 23.
  • the number of necessary partial images Ip is reduced by utilizing the in-focus range of the object optical system 23 in each imaging to the maximum. It is possible to reduce the time required for creating the file.
  • the effective region Re that does not include the complex conjugate signal in the tomographic image is as follows. .
  • An area between the lower bottom surface Sb and the complex conjugate signal P2b appearing at a position separated by a distance is an effective area Re.
  • the focal plane Sf is located at any position as long as it is included in the effective region Re determined by the set value R. It will be good.
  • the threshold value can be any value within a numerical range larger than 0 and smaller than T.
  • the complex conjugate signals P2a and P2b have a certain extent in the depth direction.
  • the threshold value is determined within a range in which about half of the spread amount of the complex conjugate signal is excluded in each of the upper limit and the lower limit in the above range.
  • the image processing apparatus 1 of this embodiment is an imaging apparatus that uses the Fourier domain (FD) OCT imaging principle, and has a function for changing the focal depth of the object optical system 23. Yes. Then, when imaging is performed through the bottom of the container 11, the optical path length of the reference light that defines the reference reference plane is set by adjusting the position of the reference mirror 24 according to the setting of the focal depth. A calculation formula for deriving the position of the reference reference plane is given as a function of the focal depth D and the thickness T of the bottom of the container 11.
  • FD Fourier domain
  • the complex conjugate signal corresponding to the upper bottom surface Sa and the lower bottom surface Sb of the container 11 appears across the position corresponding to the focal depth. can do. Since the interval between the two complex conjugate signals is a constant value determined by the thickness T of the bottom of the container 11, as a result, it is possible to perform imaging with the influence of the complex conjugate noise removed in the range of the focal position and the constant width in the vicinity thereof. It becomes possible.
  • the reference light is transmitted so that the reference reference plane is at a position corresponding to the upper bottom surface Sa of the container 11 regardless of the setting of the focal position in the range.
  • the optical path length is set.
  • a tomographic image including a range wider than the interval between two complex conjugate signals in the depth direction can be obtained by synthesizing the results obtained by multiple times of imaging with different focal positions in the depth direction. It is possible to create. At this time, by changing the position of the reference mirror 24 along with the change of the focal position, it is possible to always eliminate the influence of the complex conjugate noise in the vicinity of the focal position. In addition, the image quality of the entire tomographic image can be improved by synthesizing the partial images in a relatively narrow range captured in the focused state to create a wider range of tomographic images.
  • the image processing apparatus 1 of this embodiment corresponds to the “imaging apparatus” of the present invention in which the spheroid Sp or the like is an “object to be imaged”.
  • the imaging units 20, 20 a, and 20 b function as “detection means” of the present invention
  • the CPU 31 of the control unit 30 serves as “control means” of the present invention
  • the signal processing unit 33 performs “signal processing” Each of these functions as a means.
  • the bottom part 111 of the container 11 is equivalent to the "wall part” of this invention, and the upper bottom face Sa and the lower bottom face Sb are the “1st surface” and “2nd surface” of this invention, respectively. It corresponds.
  • the value (T / 2) corresponds to the “threshold value” of the present invention.
  • the present invention is not limited to the above-described embodiment, and various modifications other than those described above can be made without departing from the spirit of the present invention.
  • the focal depth of the object optical system 23 is based on the value D calculated from the upper bottom surface Sa of the container 11 and the position of the reference standard surface Sr is the position of the container 11. It is represented by a value R calculated from the lower bottom surface Sb.
  • which position is used as a reference for representing each position is arbitrary, and processing substantially equivalent to the above technical idea can be realized by appropriately changing each expression according to the reference position.
  • the object to be imaged in the above embodiment is a spheroid Sp carried on a container 11 called a shallow dish type dish, but the kind of the object to be imaged and the container carrying the object is not limited to this.
  • an object to be imaged may be a cell or the like cultured in a well plate in which a plurality of wells capable of supporting a sample are provided on one plate.
  • the image processing apparatus 1 images an object to be imaged in the container via the bottom 111 of the container 11.
  • the imaging direction is not limited to this.
  • the present invention can be suitably applied also when imaging is performed through a side wall surface of a container that accommodates an object to be imaged.
  • the method for obtaining the value R is changed depending on whether the focal depth D is larger or smaller than half of the container bottom thickness T.
  • the method of obtaining the value R according to the equation (4) is also effective when the focal depth D is smaller than half the container bottom thickness T.
  • Expression (4) may be applied uniformly over the entire variable range of the focal depth D.
  • the formula (4) is adopted so that the focal position comes to the center of the region sandwiched between the peaks of the two complex conjugate signals caused by the bottom of the container.
  • the focal position does not necessarily have to be exactly halfway between the two peaks.
  • the depth of field of the object optical system is larger than the interval between two peaks, the entire area between the two peaks can be included in the in-focus range even if the focal position is shifted from the center of both peaks.
  • the quality of the obtained image is the same as that of the above embodiment.
  • the tomographic image It is obtained by synthesizing the partial images Ip picked up by setting the depth of focus in multiple stages.
  • the thickness of the container bottom and the depth of field of the object optical system are sufficiently large with respect to the height of the object to be imaged, it is possible to obtain an entire image of the object to be imaged in one image.
  • the effect of the complex conjugate noise due to the bottom surface of the container appears in the imaging result by setting the optical path length of the reference light so as to satisfy the above-described conditions according to the setting of the focal position. Can be prevented.
  • the resolution of the object optical system is not particularly limited, but the present invention is particularly effective when imaging with high magnification or high resolution is required.
  • the reason is as follows.
  • high magnification and high resolution are obtained, the depth of field of the object optical system becomes shallow. Therefore, even an FD-OCT apparatus that can capture images widely in the depth direction is essentially an image obtained by one imaging.
  • the range in the depth direction is limited. Therefore, there are cases where imaging is required a plurality of times for reasons not directly related to the technical idea of the present invention.
  • an image obtained by one imaging is not affected by complex conjugate noise, and the whole can be brought into a focused state. Therefore, it is possible to perform imaging with good image quality.
  • control unit 30 of the above embodiment a general-purpose processing device having a general configuration such as a personal computer or a workstation can be used. That is, the image pickup unit 20, the drive control unit 40, an image pickup apparatus having a minimum control function for operating them, a personal computer that functions as the control unit 30 by executing a control program that describes the above processing contents, and the like
  • the image processing apparatus 1 may be configured by a combination thereof.
  • the conjugate of the first surface image and the second surface in the tomographic image obtained from the reflected light intensity distribution obtained in one imaging may be an effective image area. According to such a configuration, an image area that does not include noise due to the conjugate image of the first surface and the second surface can be extracted as effective.
  • interference light is detected a plurality of times with different focal depths for the same object, and the optical path length of the reference light is set each time the focal depth is set.
  • the configuration may be such that the reflected light intensity distribution in the vicinity of each focal point is obtained from the result.
  • the depth range in which the reflected light intensity distribution from which complex conjugate noise is eliminated by one imaging is limited by the thickness of the container wall.
  • the thickness of the wall portion is T
  • the distance from the first surface to the focal point of the object optical system D when R is a distance from the second surface to a reference plane that is a virtual plane perpendicular to the optical path of the illumination light and the optical path length of the illumination light to the plane is equal to the optical path length of the reference light , (D + T) / 2 ⁇ R ⁇ (D + 2T) / 2
  • the optical path length of the reference light may be set so that this relationship is established.
  • the reference reference plane When the reference reference plane is set so that the value R satisfies such a condition, the appearance position of the conjugate image on the first surface and the second surface can be surely set to a position that sandwiches the focal point of the object optical system. . Therefore, the influence of complex conjugate noise in the vicinity of the focal point can be eliminated.
  • the reference reference plane according to the relationship between the depth of focus and the thickness of the wall, it is possible to eliminate the influence of complex conjugate noise caused by the wall at an arbitrary depth of focus.
  • the imaging apparatus further includes a reference mirror in which the detection unit is arranged in the optical path of the reference light and defines the optical path length of the reference light, and the control unit changes the position of the reference mirror to change the optical path of the reference light.
  • Such a configuration can change and set the optical path length of the reference light by changing the position of the reference mirror in accordance with the focal depth of the object optical system, and is suitable for carrying out the invention. Is.
  • the imaging method according to the present invention may include a step of acquiring information regarding the thickness of the wall before setting the optical path length of the reference light. According to such a configuration, it becomes easy to adjust the optical path length of the reference light so as to meet the above condition based on the setting value of the focal depth and the information on the thickness of the wall.
  • the present invention can be applied to FD-OCT imaging technology in general.
  • it can be suitably applied in the fields of medicine, biochemistry, and drug discovery for imaging cells or cell clumps cultured in a container such as a dish.
  • Imaging device 11 Container 20, 20a, 20b Imaging unit (detection means) 22 Beam splitter 23 Object optical system 24 Reference mirror 30 Control unit 31 CPU (control means) 33 Signal processing unit (signal processing means) 40 Drive control unit 41 Focus adjustment mechanism 42 Mirror drive mechanism 111 Bottom (wall) of (container 11) 220 optical fiber coupler Sa (top of container 11) upper bottom surface (first surface) Sb (bottom of container 11) bottom surface (second surface) Sf focal plane Sp spheroid (object to be imaged) Sr reference plane

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Engineering & Computer Science (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Mathematical Physics (AREA)
  • Optics & Photonics (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

本発明は、簡単な構成で、容器壁面での反射に起因する画像ノイズの影響のない画像品質の良好な断層画像を得ることを目的とする。光透過性の壁部を有する容器内に収容された被撮像物を断層撮像するFD-OCT撮像装置において、壁部の表面のうち被撮像物側の第1表面Saから物体光学系の焦点FPまでの距離Dが壁部の厚さTの半分よりも小さくなるように焦点深さを設定するとき、壁部の表面のうち被撮像物とは反対側の第2表面Sbから、照明光の光路に垂直な平面であって当該平面までの照明光の光路長が参照光の光路長と等しい参照基準面Srまでの距離が、壁部の厚さTに等しい値に設定される。

Description

撮像装置および撮像方法
 この発明は、被撮像物からの反射光と参照光との干渉光成分を検出して撮像を行う技術に関し、特に光透過性を有する容器内の被撮像物を撮像する技術に関するものである。
 医学や生化学の技術分野では、容器中で培養された細胞や微生物を観察することが行われる。観察対象となる細胞等に影響を与えることなく観察を行う方法として、顕微鏡等を用いて細胞等を撮像する技術が提案されている。このような技術の1つとして、光コヒーレンストモグラフィ技術を利用したものがある。この技術は、光源から出射される低コヒーレンス光を照明光として被撮像物に入射させ、被撮像物からの反射光(信号光)と光路長が既知である参照光との干渉光を検出することで、被撮像物からの反射光の深さ方向における強度分布を求めて断層画像化するものである。
 このうち、それぞれ広帯域成分を含む信号光と参照光とを干渉させ、干渉光のスペクトルをフーリエ変換することで深さ方向の反射光強度分布を得る技術は、フーリエドメイン光干渉断層撮像技術(Fourier Domain Optical Coherence Tomography;FD-OCT)と呼ばれる。FD-OCT技術では、干渉光のスペクトルにおける波長が被撮像物の深さ方向に対応する情報となるため、光学系の被写界深度内の被撮像物の断層情報を一括して取得することができ、高速撮像が可能である。
 FD-OCT技術においては、画像に複素共役ノイズと呼ばれるノイズが被撮像物の像に生じることが知られている。これは、フーリエ変換によって干渉光のスペクトルを深さ方向の反射光強度分布に変換するという原理上、不可避的に発生するものである。このようなノイズの影響を排除するための技術としては、例えば特許文献1に記載の技術がある。この技術は、複素共役ノイズをキャンセルするための従来技術である位相シフト法が複数回の撮像を要するという問題を解決するため、光路長の異なる2つの参照光をチョッパで切り替えながら信号光と干渉させるようにしたものである。
特開2010-164574号公報
 容器中に担持された細胞等を被撮像物とする場合、光透過性を有する容器の壁部(例えば底部)を介して撮像が行われる場合がある。このような場合、容器壁面が強い反射面として作用するため、断層画像には容器壁面からの反射光に起因する複素共役ノイズが重畳される。参照基準面の設定によっては、必要とされる被撮像物の像と容器壁面の複素共役像とが重なることがあり、被撮像物の正確な断層情報が得られないという問題が生じ得る。
 上記従来技術のノイズ除去方法は、このようなケースにも一定の効果を奏し得ると考えられる。しかしながら、容器壁部からの強い反射がある場合を想定したものではないため、この場合の実効性は不明である。また、複数の参照系を有する特殊な装置構成が必要となり、装置が複雑化、大型化して高コストになるという問題がある。このことから、このような複雑な装置構成を必要とせずに、容器壁面からの反射光に起因する複素共役ノイズの影響を抑制することのできる技術の確立が望まれる。
 この発明は上記課題に鑑みなされたものであり、被撮像物からの反射光と参照光との干渉を利用して容器内の被撮像物を撮像する技術において、簡単な構成で、容器壁面での反射に起因する画像ノイズの影響のない、画像品質の良好な断層画像を得ることのできる技術を提供することを目的とする。
 この発明の一の態様は、光透過性の壁部を有する容器内に収容された被撮像物を断層撮像する撮像装置において、上記目的を達成するため、光源から出射される広帯域の低コヒーレンス光が分岐された一の分岐光を照明光として前記壁部を介して前記被撮像物に入射させ、前記壁部を介して出射される前記被撮像物の反射光を物体光学系により集光した信号光と、他の一の分岐光から生成された参照光とが干渉して生じる干渉光を検出し、検出された前記干渉光に応じた干渉信号を出力する検出手段と、前記干渉信号に基づき、前記干渉光のスペクトルをフーリエ変換して前記照明光の入射方向における前記被撮像物の反射光強度分布を求め、該反射光強度分布から断層画像を作成する信号処理手段と、前記被撮像物に対する前記物体光学系の前記入射方向における焦点深さおよび前記参照光の光路長を変更設定する制御手段とを備える。そして、前記制御手段は、前記壁部の表面のうち前記被撮像物側の第1表面から前記物体光学系の焦点までの距離が、前記壁部の厚さより小さい所定の閾値よりも小さくなるように前記焦点深さを設定するとき、前記参照光の光路長を、前記第1表面までの前記照明光の光路長と等しい値に設定する。
 また、この発明の他の態様は、光透過性の壁部を有する容器内に収容された被撮像物を断層撮像する撮像方法において、上記目的を達成するため、光源から出射される広帯域の低コヒーレンス光が分岐された一の分岐光を照明光として前記壁部を介して前記被撮像物に入射させ、前記壁部を介して出射される前記被撮像物の反射光を物体光学系により集光した信号光と、他の一の分岐光から生成された参照光とが干渉して生じる干渉光を検出し、検出された前記干渉光に応じた干渉信号を出力する工程と、前記干渉信号に基づき、前記干渉光のスペクトルをフーリエ変換して前記照明光の入射方向における前記被撮像物の反射光強度分布を求め、該反射光強度分布から断層画像を作成する工程とを備える。そして、前記被撮像物に対する前記物体光学系の前記入射方向における焦点深さおよび前記参照光の光路長が変更設定可能であり、前記壁部の表面のうち前記被撮像物側の第1表面から前記物体光学系の焦点までの距離が、前記壁部の厚さより小さい所定の閾値よりも小さくなるように前記焦点深さが設定されるとき、前記参照光の光路長が、前記第1表面までの前記照明光の光路長と等しい値に設定される。
 この発明における撮像原理は、広帯域成分を含む信号光と参照光とを干渉させ、干渉光のスペクトルをフーリエ変換することで深さ方向の反射光強度分布を得る、FD-OCT技術によるものである。容器壁部を介したFD-OCT撮像では、壁部の表面のうち被撮像物に近い側の表面、および該表面を挟んで被撮像物とは反対側の表面それぞれの複素共役像が、被撮像物の像に重なってノイズとなり得る。
 容器壁面の複素共役像は、容器壁面の像が現れる位置に対して共役な、すなわち当該位置に対し参照光の光路長で規定される参照基準面に関して対称な位置に現れる。したがって、その出現位置は参照基準面の設定に依存する。このため、参照基準面を被撮像物から十分に離すことで、容器壁面の複素共役像を被撮像物の像から分離するという対応も考えられる。しかしながら、画像品質の点では参照基準面を被撮像物の近傍に設定することが望ましい。より具体的には、被撮像物からの反射光を集光する物体光学系の焦点面と参照基準面とが、できるだけ近いことが好ましい。
 そこで本発明では、参照基準面の位置が、物体光学系の焦点深さに応じて設定される。具体的には、壁部の表面のうち被撮像物側の第1表面から物体光学系の焦点までの距離が、壁部の厚さより小さい所定の閾値よりも小さくなるように焦点深さが設定されるとき、参照光の光路長が、第1表面までの照明光の光路長と等しい値に設定される。このことは、壁部の表面のうち被撮像物とは反対側の第2表面から、照明光の光路に直交する仮想的な平面であって当該平面までの照明光の光路長が参照光の光路長と等しい参照基準面までの距離と、壁部の厚さとが等しくなるように、参照光の光路長あるいは基準参照面の位置を設定することと等価である。このように参照光の光路長を設定するとき、第1表面の複素共役像は、断層画像における第1表面の実像と同じ位置に重なって現れる。一方、第2表面の複素共役像は、断層画像において第1表面から壁部の厚さ分だけ離れた位置に現れる。
 したがって、容器内の断層画像の深さ方向において、第1表面からの距離が壁部の厚さよりも小さい範囲には、容器壁面に起因する複素共役像は現れない。そして、物体光学系の焦点位置から第1表面までの距離は壁部の厚さより小さい。そのため、焦点位置は、容器壁面に起因する複素共役像のない範囲に含まれる。つまり、焦点面の近傍では、容器壁面に起因する複素共役ノイズの影響を受けずに被撮像物の断層情報を取得することが可能である。
 使用される容器の形状から、壁部の厚さを予め把握しておくことが可能である。また、撮像時において第1表面および第2表面が占める空間位置も推定可能である。したがって、第1表面の複素共役像が上記の位置に出現するような参照光の光路長を、焦点深さの設定に連動させて設定することが可能である。参照基準面を焦点面から大きく離して設定する必要がないので、画像品質も良好なものとすることができる。
 上記のように、本発明によれば、物体光学系の焦点深さに相当する位置の近傍において、容器壁面に起因する複素共役ノイズの影響を排除することができる。物体光学系の焦点深さの設定に連動させて参照光の光路長を設定する機能があれば、上記効果が得られる。そのため、簡単な装置構成で、複素共役ノイズの影響を排除した断層画像を取得することができる。
 この発明の前記ならびにその他の目的と新規な特徴は、添付図面を参照しながら次の詳細な説明を読めば、より完全に明らかとなるであろう。ただし、図面は専ら解説のためのものであって、この発明の範囲を限定するものではない。
本発明が適用された画像処理装置の構成例を示す原理図である。 この画像処理装置における撮像原理を説明する図である。 この画像処理装置における撮像原理を説明する図である。 OCT装置の具体的構成例を示す図である。 OCT装置の具体的構成例を示す図である。 物体光学系の焦点深さと参照基準面との位置関係を模式的に示す図である。 参照基準面の位置と反射光強度分布との関係を示す図である。 参照基準面の位置と反射光強度分布との関係を示す図である。 参照基準面の位置と反射光強度分布との関係を示す図である。 この画像処理装置における撮像動作の原理を説明する図である。 この画像処理装置における撮像動作の原理を説明する図である。 焦点深さに応じた参照基準面の設定原理を示す図である。 複素共役信号のピークが広がりを有する場合の考え方を示す図である。 複素共役信号のピークが広がりを有する場合の考え方を示す図である。 この画像処理装置における撮像動作を示すフローチャートである。 焦点深さが容器底部厚さの半分未満であるときの反射光ピーク位置を示す図である。
 図1は本発明が適用された画像処理装置の構成例を示す原理図である。この画像処理装置1は、培地中で培養されたスフェロイド(細胞集塊)を被撮像物として断層撮像し、得られた断層画像を画像処理して、スフェロイドの立体像を作成する。なお、ここでは培地中のスフェロイドを被撮像物とした例を説明するが、被撮像物はこれに限定されない。以下の各図における方向を統一的に示すために、図1に示すようにXYZ直交座標軸を設定する。ここでXY平面が水平面を表す。また、Z軸が鉛直軸を表し、より詳しくは(-Z)方向が鉛直下向き方向を表している。
 画像処理装置1は保持部10を備えている。保持部10は、容器11をその開口面を上向きにして略水平姿勢に保持する。容器11は、例えばガラス製または樹脂製の、透明で均質な平底を有する浅皿状のディッシュと呼ばれる器具である。容器11には予め適宜の培地Mが所定量注入されており、培地中では容器11の底部111にスフェロイドSpが培養されている。図1では1つのスフェロイドSpのみが記載されているが、1つの容器11内で複数のスフェロイドSpが培養されていてもよい。
 保持部10により保持された容器11の下方に、撮像ユニット20が配置される。撮像ユニット20には、被撮像物の断層画像を非接触、非破壊(非侵襲)で撮像することが可能な光干渉断層撮像(Optical Coherence Tomography;OCT)装置が用いられる。OCT装置である撮像ユニット20は、被撮像物への照明光を発生する光源21と、ビームスプリッタ22と、物体光学系23と、参照ミラー24と、分光器25と、光検出器26とを備えている。
 また、画像処理装置1はさらに、装置の動作を制御する制御ユニット30と、撮像ユニット20の可動機構を制御する駆動制御部40とを備えている。制御ユニット30は、CPU(Central Processing Unit)31、A/Dコンバータ32、信号処理部33、3D復元部34、インターフェース(IF)部35、画像メモリ36およびメモリ37などを備えている。
 CPU31は、所定の制御プログラムを実行することで装置全体の動作を司り、CPU31が実行する制御プログラムや処理中に生成したデータは、メモリ37に保存される。A/Dコンバータ32は、撮像ユニット20の光検出器26から受光光量に応じて出力される信号をデジタルデータに変換する。信号処理部33は、A/Dコンバータ32から出力されるデジタルデータに基づき適宜の信号処理を行って、被撮像物の断層画像を作成する。3D復元部34は、作成された複数の断層画像の画像データに基づいて、撮像された細胞集塊の立体像(3D像)を作成する機能を有する。信号処理部33により作成された断層画像の画像データおよび3D復元部34により作成された立体像の画像データは、画像メモリ36により適宜記憶保存される。
 インターフェース部35は画像処理装置1と外部との通信を担う。具体的には、インターフェース部35は、外部機器と通信を行うための通信機能と、ユーザからの操作入力を受け付け、また各種の情報をユーザに報知するためのユーザインターフェース機能とを有する。この目的のために、インターフェース部35には入力デバイス351および表示部352が接続されている。入力デバイス351は、装置の機能選択や動作条件設定などに関する操作入力を受け付け可能な例えばキーボード、マウス、タッチパネルなどである。表示部352は、信号処理部33により作成された断層画像や3D復元部34により作成された立体像など各種の処理結果を表示する、例えば液晶ディスプレイである。
 また、CPU31は駆動制御部40に制御指令を与え、これに応じて駆動制御部40は撮像ユニット20の可動機構に所定の動作を行わせる。次に説明するように、駆動制御部40により実行される撮像ユニット20の走査移動と、光検出器26による受光光量の検出との組み合わせにより、被撮像物であるスフェロイド(細胞集塊)の断層画像が取得される。
 図2Aおよび図2Bはこの画像処理装置における撮像原理を説明する図である。より具体的には、図2Aは撮像ユニット20における光路を示す図であり、図2Bはスフェロイドの断層撮像の様子を模式的に示す図である。前記したように、撮像ユニット20は光干渉断層撮像(OCT)装置として機能するものである。
 撮像ユニット20では、例えば発光ダイオードまたはスーパールミネッセントダイオード(SLD)などの発光素子を有する光源21から、広帯域の波長成分を含む低コヒーレンス光ビームL1が出射される。光ビームL1はビームスプリッタ22に入射して分岐し、破線矢印で示すように一部の光L2が容器11に向かい、一点鎖線矢印で示すように一部の光L3が参照ミラー24に向かう。
 容器11に向かった光L2は、物体光学系23を経て容器11に入射する。より具体的には、ビームスプリッタ22から出射される光L2は、物体光学系23を介して容器底部111に入射する。物体光学系23は、ビームスプリッタ22から容器11に向かう光L2を容器11内の被撮像物(この場合にはスフェロイドSp)に収束させる機能と、被撮像物から出射される反射光を集光してビームスプリッタ22に向かわせる機能とを有する。図では物体光学系23は単一の対物レンズにより代表的に表されているが、複数の光学素子が組み合わされたものであってもよい。
 物体光学系23は、駆動制御部40に設けられた焦点調整機構41により、Z方向に移動可能となっている。これにより、被撮像物に対する物体光学系23の焦点位置がZ方向に変更可能となっている。以下、深さ方向(Z方向)における物体光学系23の焦点位置を「焦点深さ」と称する。物体光学系23の光軸は鉛直方向と平行であり、したがって平面状の容器底部111に垂直である。また、物体光学系23への照明光の入射方向は光軸と平行であり、その光中心が光軸と一致するように、物体光学系23の配置が定められている。
 スフェロイドSpが光L2に対する透過性を有するものでなければ、容器底部111を介して入射した光L2はスフェロイドSpの表面で反射される。一方、スフェロイドSpが光L2に対してある程度の透過性を有するものである場合、光L2はスフェロイドSp内まで進入してその内部の構造物により反射される。光L2として例えば近赤外線を用いることで、入射光をスフェロイドSp内部まで到達させることが可能である。スフェロイドSpからの反射光は散乱光として種々の方向に放射される。そのうち物体光学系23の集光範囲内に放射された光L4が、物体光学系23で収束されてビームスプリッタ22へ送られる。
 参照ミラー24は、駆動制御部40に設けられたミラー駆動機構42により移動可能に支持されている。これにより、参照ミラー24は、その反射面を光L3の入射方向に対し垂直姿勢に、しかも該入射方向に沿った方向(図ではY方向)に移動可能となっている。参照ミラー24に入射した光L3は反射面で反射されて、入射光路を逆向きに辿るように進む光L5としてビームスプリッタ22に向かう。この光L5が参照光となる。ミラー駆動機構42により参照ミラー24の位置が変更されることにより、参照光の光路長が変化する。
 スフェロイドSpの表面もしくは内部の反射面で反射された反射光L4と、参照ミラー24で反射された参照光L5とは、ビームスプリッタ22を介して光検出器26に入射する。このとき、反射光L4と参照光L5との間で位相差に起因する干渉が生じるが、干渉光の分光スペクトルは反射面の深さにより異なる。つまり、干渉光の分光スペクトルは被撮像物の深さ方向の情報を有している。したがって、干渉光を波長ごとに分光して光量を検出し、検出された干渉信号をフーリエ変換することにより、被撮像物の深さ方向における反射光強度分布を求めることができる。このような原理に基づくOCT撮像技術は、フーリエドメイン(Fourier Domain)OCT(FD-OCT)と称される。
 この実施形態の撮像ユニット20は、ビームスプリッタ22から光検出器26に至る干渉光の光路上に分光器25が設けられている。分光器25としては、例えばプリズムを利用したもの、回折格子を利用したもの等を用いることができる。干渉光は分光器25により波長成分ごとに分光されて光検出器26に受光される。
 光検出器26が検出した干渉光に応じて光検出器26から出力される干渉信号をフーリエ変換することで、スフェロイドSpのうち、光ビームL2の入射位置における深さ方向、つまりZ方向の反射光強度分布が求められる。容器11に入射する光ビームL2をX方向に走査することで、XZ平面と平行な平面における反射光強度分布が求められ、その結果から当該平面を断面とするスフェロイドSpの断層画像を作成することができる。以下、本明細書では、X方向へのビーム走査によってXZ平面と平行な断面における1つの断層画像Itを取得する一連の動作を、1回の撮像と称することとする。
 Y方向におけるビーム入射位置を多段階に変更しながら、その都度断層画像の撮像が行われる。図2Bに示すように、スフェロイドSpをXZ平面と平行な断面で断層撮像した多数の断層画像Itを得ることができる。Y方向の走査ピッチを小さくすれば、スフェロイドSpの立体構造を把握するのに十分な分解能の画像データを得ることができる。X方向およびY方向へのビーム走査は、例えば図示しないガルバノミラー等の光路を変化させる光学部品を用いてビーム入射位置をXY方向に変化させる方法、スフェロイドSpを担持する容器11と撮像ユニット20とのいずれかをXY方向に移動させてこれらの相対位置を変化させる方法などにより実現可能である。
 なお、上記の原理説明では、撮像ユニット20において光源21からの光を照明光と参照光とに分岐させる分波機能、および信号光と参照光とを合成して干渉光を生じさせる機能がビームスプリッタ22により実現されている。一方、近年では、OCT装置においてこのような分波・合波機能を担うものとして、以下に例示するような光ファイバカプラが用いられる場合がある。
 図3Aおよび図3BはOCT装置の具体的構成例を示す図である。なお、理解を容易にするために、以下の説明では、上記した原理図の構成と同一のまたは相当する構成に同一符号を付すものとする。その構造および機能は、特に説明のない限り上記原理図のものと基本的に同じであり、詳しい説明は省略する。また、光ファイバカプラによる干渉光を検出するOCT撮像原理も基本的に上記と同じであるので、詳しい説明を省略する。
 図3Aに示す構成例では、撮像ユニット20aは、ビームスプリッタ22に代わる分波・合波器として光ファイバカプラ220を備えている。光ファイバカプラ220を構成する光ファイバの1つ221は光源21に接続されており、光源21から出射される低コヒーレンス光は、光ファイバカプラ220により2つの光ファイバ222,224への光に分岐される。光ファイバ222は物体系光路を構成する。より具体的には、光ファイバ222の端部から出射される光はコリメータレンズ223を介して物体光学系23に入射する。被撮像物からの反射光(信号光)は物体光学系23、コリメータレンズ223を介して光ファイバ222に入射する。
 他の光ファイバ224は参照系光路を構成する。より具体的には、光ファイバ224の端部から出射される光はコリメータレンズ225を介して参照ミラー24に入射する。参照ミラー24からの反射光(参照光)はコリメータレンズ225を介して光ファイバ224に入射する。光ファイバ222を伝搬する信号光と光ファイバ224を伝搬する参照光とが光ファイバカプラ220において干渉する。干渉光は、光ファイバ226および分光器25を介して光検出器26に入射する。光検出器26により受光された干渉光から被撮像物における反射光の強度分布が求められることは上記原理通りである。
 図3Bに示す例でも、撮像ユニット20bに光ファイバカプラ220が設けられる。ただし光ファイバ224は使用されず、光ファイバ222から出射される光の光路に対してコリメータレンズ223および光分岐器としてのビームスプリッタ227が設けられる。そして、前述の原理通り、ビームスプリッタ227により分岐される2つの光路にそれぞれ物体光学系23、参照ミラー24が配置される。このような構成ではビームスプリッタ227により信号光と参照光とが合成され、それにより生じた干渉光が光ファイバ222,226を通って光検出器26へ導かれる。
 これらの例では、図2Aの原理図では空間中を進行する、各光の光路の一部が光ファイバに置き換えられているが、動作原理は同じである。これらの例においても、焦点調整機構41が物体光学系23を容器11に対し接近・離間方向に移動させる。これにより、被撮像物に対する物体光学系23の焦点深さを調整することが可能である。また、ミラー駆動機構42が参照ミラー24を光の入射方向に沿って移動させる。これにより、参照光の光路長を変更可能である。
 以下、この画像処理装置1による撮像動作について説明する。撮像ユニットの構成は、上記したビームスプリッタを用いるもの、光ファイバカプラを用いるもののいずれであっても同じ撮像動作が可能である。
 図4は物体光学系の焦点深さと参照基準面との位置関係を模式的に示す図である。また、図5Aないし図5Cは参照基準面の位置と反射光強度分布との関係を示す図である。OCT撮像装置では、その原理上、信号光の光路長が参照光の光路長と同じになる位置が、画像における深さ方向の基準位置となる。
 以下の説明では、図4に示すように、物体光学系23を介して照明光L2および信号光L4が伝搬する物体系光路において、参照系光路における参照ミラー24の反射面と対応する位置を参照基準面Srと称する。また、容器11の底部111のうち被撮像物であるスフェロイドSpに近い側の表面(つまり培地と接触する内底面)を上部底面Sa、容器11の底部111のうち上部底面Saとは反対側の外底面を下部底面Sbと称する。さらに、物体光学系23の焦点面、つまり物体光学系23の物体側焦点FPを含み物体光学系23の光軸AXに垂直な平面を符号Sfにより表す。
 また、後の説明のために、上部底面Saと下部底面Sbとの距離、つまり容器底部111の厚さを符号Tにより表す。また、上部底面Saと焦点面Sfとの距離、つまり容器11の内底面から焦点FPまでの距離を符号Dにより表す。この距離Dは、容器11の内底面(上部底面Sa)を起点としたときの物体光学系23の焦点深さであるとも言える。
 物体系光路において参照基準面Srに仮想的な反射面があるとき、当該反射面で反射される光の(光源21から光検出器26までの)光路長は、参照ミラー24の反射面で反射される光の(光源21から光検出器26までの)光路長と等しくなる。被撮像物近傍にある各反射面の深さ方向位置は、参照基準面SrからのZ方向距離により表される。
 被撮像物(スフェロイドSp)が焦点面Sfに反射面を有するとき、フーリエ変換後の反射光強度分布においては、当該反射面からの反射光強度に対応する大きさの信号が、参照基準面Srから当該反射面(すなわち焦点面Sf)までの距離に対応する深さの位置に現れる。実際の被撮像物においては、種々の深さにある反射面からの反射光に対応する信号が各位置に現れ、反射光強度分布はそれらの信号が重畳されたものなる。ただし、ここでは理解を容易にするために、焦点面Sfにある反射面からの信号のみを考えることとする。
 容器底部111の平坦な表面Sa、Sbも強い反射面であり、反射光強度分布においては、これらに対応する信号が参照基準面Srからの距離に応じた位置にそれぞれ現れる。例えば図5Aに示すように、反射光強度分布においては焦点面Sfに対応する信号P1f、上部底面Saに対応する信号P1a、下部底面Sbに対応する信号P1bが、それぞれ参照基準面Srからの距離に応じた位置に現れる。これらの信号は、実空間において各反射面が離隔していれば反射光強度分布においても異なる位置に現れるため、画像処理装置1の分解能が十分に高ければ相互に分離が可能である。
 一方、FD-OCT撮像技術において得られる反射光強度分布では、参照基準面Srに関して各反射面と対称な位置に、各反射面からの信号と複素共役な信号が原理的に現れる。すなわち、焦点面Sfに対応する信号P1fと共役な位置にその複素共役信号P2fが現れる。同様に、上部底面Saに対応する信号P1aと共役な位置にその複素共役信号P2aが、下部底面Sbに対応する信号P1bと共役な位置にその複素共役信号P2bが、それぞれ現れる。以下では、実空間に存在する反射面からの信号を、複素共役信号と区別するために「実信号」ということがある。
 図5Aに示すように、参照基準面Srが容器11の下部底面Sbよりも下方にあるとき、複素共役信号P2f,P2a,P2bは計算上の仮想空間である(-Z)側に現れる。そのため、(+Z)側で検出される実空間における反射面からの反射光強度には影響を及ぼさない。しかしながら、図5Bおよび図5Cに示すように、参照基準面Srの設定によっては(-Z)側に現れる実信号の複素共役信号が(+Z)側の共役位置に現れることがある。
 例えば図5Bに示す例では、焦点面Sfと上部底面Saとの間に参照基準面Srがあり、上部底面Saおよび下部底面Sbに対応する複素共役信号P2a,P2bが(+Z)側に現れている。この場合でも、焦点面Sfに対応する実信号P1fは他の複素共役信号からは離隔しているので検出可能である。しかしながら、参照基準面Sfの設定が図5Bの例とは僅かに異なる図5Cに示す例では、焦点面Sfに対応する実信号P1fと上部底面Saに対応する複素共役信号P2aとが(+Z)領域で重なってしまっており、焦点面Sfに対応する信号P1fを単独で検出することが不可能となっている。
 このように、原理的には深さ方向の広い範囲を撮像可能なFD-OCT技術であっても、強い反射面として作用する容器底面を介した撮像においては、底面に対応する複素共役信号が被撮像物からの実信号と重なることで、実信号の検出が困難になる場合があり得る。特に底面が強い反射面として作用するとき、単なる画像ノイズのレベルを超えて、実信号自体を遮蔽してしまうことが起こり得る。したがって、容器底面に起因する複素共役ノイズの影響は、被撮像物自身に起因する複素共役ノイズよりも遥かに大きなものとなることがある。
 ところで、形状やサイズ、内部構造等が不特定であるスフェロイドSp等の被撮像物とは異なり、被撮像物を担持する容器11については、その底面の形状や寸法を予め把握することが可能である。すなわち、容器底部111において強い反射面となるのは上部底面Saと下部底面Sbとであり、両者の間に強い反射面は存在しない。したがって、現れる複素共役信号は上部底面Saおよび下部底面Sbに起因するもののみであり、それらの間には他の複素共役信号は現れない。
 また、上部底面Saおよび下部底面Sbが平滑な面であれば、これに起因する複素共役信号P2a,P2bは鋭いピークとなって現れその広がりは小さい。そして、参照基準面Srがある位置に設定されるとき、上部底面Saおよび下部底面Sbに起因する複素共役信号のピークが反射光強度分布においてどの位置に現れるかは事前に推定することが可能である。さらに、それらのピークの位置は参照基準面Srの設定に応じて変化するが、両ピーク間の距離は容器底部111の厚さTにより決まり、参照基準面Srの設定に対し不変である。
 これらのことから、参照基準面Srを適宜に設定し複素共役信号の出現位置を管理することで、少なくとも撮像対象とする一部の領域については容器底面の影響が現れないようにすることができると期待される。具体的には、次に説明するように、物体光学系23の焦点面Sfおよびその近傍からできるだけ離れた位置に、容器底面に起因する複素共役信号が現れるようにすればよい。こうすることで、少なくとも焦点深さおよびその近傍範囲で複素共役ノイズの影響を受けない反射光強度分布を取得することができる。
 図6Aおよび図6Bはこの画像処理装置における撮像動作の原理を説明する図である。より具体的には、図6Aはこの画像処理装置1における焦点位置と底面に起因する複素共役信号との位置関係を示す図であり、図6Bは一の断層画像を複数の部分画像から構成する方法を模式的に示す図である。図6Aに示すように、深さ方向(Z方向)の反射光強度分布においては、物体光学系23の焦点深さZfの位置に、焦点面Sfからの実信号P1fが現れる。容器11の上部底面Saに対応する複素共役信号P2aのピークおよび下部底面Sbに対応する複素共役信号P2bのピークは、参照基準面Srの設定に応じてZ方向に位置を変えるがピーク間距離は不変である。
 図6Aに示すように、複素共役信号の2つのピークが焦点深さZfに対応する位置を挟むように出現するとき、これらのピークに挟まれる領域Reの内部においては、容器底面に起因する複素共役ノイズの影響を受けることがない。この領域Reは焦点深さZfに対応する位置を含んでおり、深さ方向においては最も良好な分解能が得られる領域でもある。したがって、この領域Re内の反射光強度分布から得られる断層画像では、容器底面に起因する複素共役ノイズの影響がなく、しかも合焦状態で検出されているため画像品質も良好なものとなる。この意味において、この領域Reをここでは「有効領域」と称し、そのZ方向の長さを「有効高さ」と称し符号Zeにより表すこととする。
 FD-OCT撮像では原理的には深さ方向に広い範囲を一括して撮像することができる。しかしながら、図6Aから明らかなように、複素共役ノイズの影響を受けない断層画像を得ることができるのは、複素共役信号の2つのピークP2a,P2bに挟まれた有効領域Re内のみである。
 撮像対象とされる範囲のZ方向高さが有効高さZeよりも大きい場合には、図6Bに示すように、Z方向に撮像位置を異ならせて撮像された複数の部分画像IpをZ方向に並べて合成することにより、撮像対象範囲の全体をカバーする断層画像Itを作成することが可能である。
 被撮像物がスフェロイドSpであるとき、その高さは概ね数μmから数百μm程度である。一方、容器底部111の厚さTは、数百μmないし数mmのものが一般的である。したがって、1回の撮像で得られる断層画像に被撮像物の全体が収まる場合とそうでない場合とがあり得る。1回の撮像で得られる断層画像に被撮像物の全体が収まらない場合には、上記したようにZ方向に撮像位置を異ならせて複数回撮像を行えばよい。
 このとき、各部分画像Ipにおいて画像品質を良好なものとするために、各部分画像Ipの撮像ごとに、物体光学系23の焦点深さZfを撮像範囲に合わせて変更することが望ましい。ここで、焦点深さZfの変更に連動させて、参照基準面Srの設定も変更されることがさらに望ましい。容器底面に起因する複素共役ノイズの影響をなくすためには焦点深さZfの変更に伴って有効領域ReもZ方向に位置をシフトさせることが望ましく、そのために複素共役信号のピーク出現位置を焦点位置に連動させる必要があるからである。
 言い換えれば、撮像時の焦点深さZfに連動させて参照基準面Srの位置を変更することで、容器底面に起因する複素共役ノイズの影響がなく、しかも合焦状態で撮像された部分画像Ipを取得することができる。そして、焦点深さZfを異ならせた複数の部分画像Ipを合成することで、画像全体において容器底面に起因する複素共役ノイズの影響がなく、しかも各深さに合焦した優れた画像品質の断層画像Itを得ることができる。
 次に、上記条件に合致する参照基準面の設定方法について説明する。上記したように、この画像処理装置1の撮像動作においては、物体光学系23の焦点深さの設定に応じて参照基準面が設定される。参照基準面の設定は、参照光の光路長を設定することによってなされる。
 図7は焦点深さに応じた参照基準面の設定原理を示す図である。図7左端に示すように、容器11の上部底面Saと下部底面Sbとの距離が容器底部の厚さTとして表され、物体光学系23の焦点FPを含む焦点面Sfと容器11の上部底面Saとの距離が、焦点深さDとして表される。
 図7(a)に示されるように、フーリエ変換後の反射光強度分布においては、焦点面Sf、上部底面Saおよび下部底面Sbに対応する実信号P1f,P1a,P1bが、各面の深さ方向位置に応じた位置に現れる。実際にフーリエ変換を行って求められる反射光強度分布には、各信号の複素共役信号が重畳される。ここでは、焦点面Sfに対応する実信号が容器底面に対応する複素共役信号のピーク間に挟まれるための条件の導出を試みる。
 焦点面Sfに対応する実信号P1fが容器底面に起因する複素共役信号P2a,P2bに挟まれる条件を求めるために、図7(b)に示すように焦点面Sfに対応する実信号P1fが上部底面Saに起因する複素共役信号P2aと重なる条件と、図7(c)に示すように実信号P1fが下部底面Sbに起因する複素共役信号P2bと重なる条件とを考える。
 まず、図7(b)に示すように、焦点面Sfに対応する実信号P1fと上部底面Saに起因する複素共役信号P2aとが重なる条件を考える。ここで、基準参照面SrのZ方向位置を符号Zrで表し、容器11の下部底面Sbから基準参照面Srまでの距離を符号Rにより表すとする。そうすると、図7(b)に示す位置関係から、次式:
  R=D/2+T=(D+2T)/2 … (1)
の関係が得られる。値Dは撮像時の焦点深さが決まれば一意に決まる。値Tは容器11が決まれば一意に決まる。
 一方、図7(c)に示すように、焦点面Sfに対応する実信号P1fと下部底面Sbに起因する複素共役信号P2bとが重なる条件を考える。このとき、図7(c)に示す位置関係から、次式:
  R=(D+T)/2 … (2)
の関係が得られる。
 焦点面Sfに対応する実信号P1fが容器底面に対応する複素共役信号のピークP2a,P2bの間に位置するための条件は、値Rが上記式(1)で表される値と式(2)で表される値との間にあることである。したがって、このための条件は次式:
  (D+T)/2<R<(D+2T)/2 … (3)
により表される。したがって、値Rが上記式(3)の関係を満たすように、焦点深さに応じて参照基準面Srの位置を設定すればよいことがわかる。
 特別な例として、図7(d)に示すように、実信号P1fが2つの複素共役信号P2a,P2bのちょうど中間位置に現れる条件を考える。図7(d)に示す位置関係から、次式:
  R=D/2+3T/4 … (4)
となるように、参照基準面Srの位置が設定されればよい。このような条件が満たされるとき、有効領域Reは焦点深さZfを中心として(+Z)方向および(-Z)方向に同程度の広がりを有することになる。物体光学系23が焦点位置FPを中心として(+Z)方向および(-Z)方向に同程度の合焦範囲(被写界深度内の範囲)を有する場合、上記式(4)の条件を満たすように参照基準面Srの位置を設定することで、物体光学系23の合焦範囲を最も有効に活用して良好な画像品質で撮像を行うことが可能となる。
 なお、上記の考察は複素共役信号のピークP2a,P2bの広がりが無視できる場合に成り立つものである。これらのピークP2a,P2bの広がりが大きいとき、式(3)で表される値Rの範囲のうち上限および下限に近い領域では、これらのピークP2a,P2bが実信号P1fと不可分に重なってしまうことがあり得る。ピークの広がりを考慮した場合の条件は次のようにして求めることができる。
 図8Aおよび図8Bは複素共役信号のピークが一定の広がりを有する場合の考え方を示す図である。図8Aに示すように、複素共役信号のピークP2a,P2bがそれぞれ2Δ程度の広がりを有するものとする。値Δは例えばピークの半値半幅によって特定することができる。図8Aは図7(b)のケースにピーク幅の影響を加味した場合に相当する。すなわち、図8Aは、実信号P1fが複素共役信号のピークP2aと完全に一致せず、ピークP2aの半値半幅Δ程度だけもう1つの複素共役信号のピークP1a側にシフトした位置に現れる条件を示している。このようなケースでは、実信号P1fが複素共役信号のピークP2aによって遮蔽されてしまうことが回避される。
 このとき、図8Aに示す位置関係から次式:
  R=(D-Δ)/2+T=(D-Δ+2T)/2 … (1a)
が成り立つ。
 図示を省略するが、図7(c)のケースについても同様にピーク幅を加味すると、次式:
  R=(D+Δ+T)/2 … (2a)
の関係が成り立つ。これらの式(1a)、(2a)から、複素共役信号のピーク幅を考慮したときでも実信号P1fが遮蔽されないための条件は、次式:
  (D+Δ+T)/2<R<(D-Δ+2T)/2 … (3a)
となる。値Rが取り得る範囲は式(3)で示される範囲より狭くなるが、複素共役信号のピークの広がりによって実信号P1fが遮蔽されてしまうことはより確実に防止される。
 さらに実信号P1fと複素共役信号P2a,P2bとをより確実に分離可能とするために、図8Bに示されるように、実信号P1fが複素共役信号のピークP2aの半値半幅Δの2倍程度シフトした位置に現れるようにしてもよい。このための条件は次式:
  R=(D-2Δ)/2+T=(D-2Δ+2T)/2=D/2-Δ+T
       … (1b)
で表される。同様に、図7(c)に対応するケースは次式:
  R=(D+2Δ+T)/2 … (2b)
により表される。これらから、値Rが取り得る好ましい範囲は、次式:
  (D+2Δ+T)/2<R<(D-2Δ+2T)/2 … (3b)
により表される。
 被撮像物から得られる実信号と容器底面に起因する複素共役信号とをどの程度分離させる必要があるかに応じて、上記条件式(3)、(3a)、(3b)を使い分けることができる。具体的には、複素共役信号のピークの幅がほぼ無視できる場合には式(3)を適用することができる。一方、複素共役信号のピークが比較的大きな広がりを有している場合や、実信号のレベルが複素共役信号に対して小さい場合等には、複素共役ノイズの影響をより確実に排除するために、式(3b)が適用されることが好ましい。それらの中間的な場合には式(3a)が適用されればよい。
 容器底面に起因する複素共役信号の広がりの程度は、容器底面の表面状態に依存する。すなわち、容器11の上部底面Saおよび下部底面Sbが高精度の平滑面である場合、複素共役信号のピークは鋭くなる。上部底面Saおよび下部底面Sbの表面粗さが大きくなるほどピーク幅が広くなる。したがって、複素共役信号の広がりは容器底面の状態から見積もることが可能である。
 なお、上記の条件式(3)、(3a)、(3b)は焦点深さDおよび容器底部厚さTに対応する参照基準面の位置を表す値Rの好ましい範囲を示す式である。しかしながら、容器底部厚さTおよび焦点深さDに応じて参照基準面の位置を導出するに当たって、値Rにこのような幅を持たせることを要するものではない。すなわち、値Rは値D,Tを変数とする関数、すなわち次式:
  R=F(D,T) … (5)
を用いて一意に定められればよい。要するに、式(5)に示される関数F(D,T)が返す値Rが、任意の値D,Tに対して条件式(3)、(3a)、(3b)のいずれかで表される範囲に入るように、関数F(D,T)が定められていればよい。
 この実施形態では、物体光学系23の焦点位置近傍の合焦範囲からの信号を有効に活用するため、上記の式(4)を用いて参照基準面Srの位置が定められるものとする。すなわち、容器底部の厚さTと、容器の上部底面Saを基準としたときの物体光学系23の焦点深さDとが与えられたとき、容器の下部底面Sbを基準としたときの参照基準面の位置に対応する値Rが式(4)で示される値となるように、参照光の光路長を規定する参照ミラー24の位置が設定される。
 図9はこの画像処理装置における撮像動作を示すフローチャートである。被撮像物となるスフェロイドSpを担持する容器11が保持部10にセットされると(ステップS101)、CPU31は当該容器11の底部厚さTに関する情報を取得する(ステップS102)。この情報については、ユーザが入力デバイス351を介して入力する態様であってもよく、また予めメモリ37に登録されている容器に関するデータベースから、使用される容器11に応じた情報が読み出される態様であってもよい。このようにしてCPU31は容器11の底部厚さTに関する情報を取得する。
 被撮像物の撮像は、焦点深さを多段階に変更設定しながら複数回実行される。すなわち、最初に物体光学系23の焦点深さDが、焦点調整機構41により予め定められた初期値に設定される(ステップS103)。次に、CPU31は、設定された焦点深さDが、容器底部厚さTの半分以上であるか否かを判定する(ステップS104)。
 焦点深さDが容器底部厚さTの半分以上であるときには(ステップS104においてYES)、CPU31は上記した式(4)を用いて参照ミラー24の位置を導出する。これに応じて、ミラー駆動部42が参照ミラー24を求められた位置に位置決めする(ステップS105)。一方、焦点深さDが容器底部厚さTの半分より小さいときには(ステップS104においてNO)、CPU31は特殊なケースとして参照基準面の位置に対応する値Rが容器11の底部厚さTと一致するようにミラー駆動部42を制御し、この条件を満たすように参照ミラー24の位置が設定される(ステップS106)。このようにする理由については後述する。
 こうして焦点深さおよび参照基準面が設定された状態で、光源21から広帯域の低コヒーレンス光が出射され、被撮像物から出射される信号光と参照光との干渉光が検出される。干渉光は分光器25により分光されて波長成分ごとの強度が光検出器26により検出され、光検出器26の出力信号がスペクトル情報としてCPU31に与えられる。被撮像物への光照射および干渉光の検出は、光入射位置をX方向へ走査しながら複数回実行され、その都度反射光の分光スペクトル情報が取得される(ステップS107)。
 信号処理部33は、CPU31から与えられた分光スペクトル情報をフーリエ変換することで、焦点深さ付近に存在する反射面からの反射光強度分布を求める(ステップS108)。なお、この演算は、全ての撮像の終了後に行われてもよい。前記したように、被撮像物からの反射光強度を有効に求めることができるのは、容器底面に対応する複素共役信号のピークの間の有効領域Re内である。有効領域Reの外側の領域については反射光強度分布の算出対象から除外されてもよく、また反射光強度分布の算出時点では処理対象に含まれた上で後の画像合成時に削除されてもよい。
 焦点深さの設定値が所定の最終値に到達するまで(ステップS109)、焦点深さを1ステップずつ段階的に変更しながら(ステップS110)、撮像が繰り返される。焦点深さの変更ステップ幅については、予め定められていてもよく、また容器11の底部厚さTに応じてステップ幅が設定されてもよい。画像全体で合焦した断層画像を得るためには、変更ステップ幅は有効領域Reの高さZe以下であることが望ましい。
 なお、例えば物体光学系23が高倍率である、開口数が大きいなどの理由により、物体光学系23の被写界深度が、複素共役信号の間隔で決まる有効高さZeよりも小さい場合があり得る。この場合、有効領域Reの端部が物体光学系23の合焦範囲から部分的に外れることを許容した上で上記の有効領域Reを維持してもよく、また有効領域Reを物体光学系23の被写界深度で決まる深さの範囲に限定するようにしてもよい。
 撮像が終了すると(ステップS109においてYES)、信号処理部33は、各焦点深さで取得された部分画像Ipを合成することで、XZ平面に平行な1つの断面における被撮像物の断層画像Itを作成する(ステップS111)。必要に応じて、Y方向に位置を変えながら上記の撮像動作を繰り返せば、Y方向に位置の異なる複数の断層画像Itが得られる。3D復元部34は、これらの断層画像Itから被撮像物の立体像を作成することができる。
 次に、設定された焦点深さDが容器底部厚さの半分(T/2)よりも小さい場合に(ステップS104においてNO)、R=Tとして参照ミラー24の位置を設定する理由について説明する。これまで述べてきたように、式(4)に基づいて参照ミラー24の位置を設定する理由は、物体光学系23の合焦範囲を有効に利用するために、容器底面に起因する2つの複素共役信号の中央に焦点位置が来るようにするためである。このとき、複素共役信号のピーク幅を無視すれば、有効領域Reの範囲は焦点深さを中心として(+Z)方向および(-Z)方向にそれぞれ(T/2)ずつとなる(図7(d)参照)。
 図10は焦点深さが容器底部厚さの半分未満であるときの反射光ピーク位置を示す図である。図10(a)に示すように、焦点面Sfが容器11の上部底面Saに近く、焦点深さDが容器底部厚さTの半分より小さい場合を考える。このとき、式(4)に従って2つの複素共役信号P2a,P2bの中央に実信号P1fが来るように参照基準面を設定すると、図10(b)に示すように、2つの複素共役信号P2a,P2bが、実信号P1fの位置からそれぞれ(T/2)ずつ離れた位置に出現する。
 しかしながら、実信号P1fから距離Dだけ離れた位置に、容器11の上部底面Saに対応する実信号P1aが現れている。D<(T/2)であるから、このときの有効領域Reは、容器11の上部底面Saに対応する実信号P1aと、下部底面Sbに対応する複素共役信号P2bとに挟まれた領域に限定されてしまう。つまり、2つの複素共役信号P2a,P2bの中央に実信号P1fが来るように参照ミラー24の位置を設定する意義がなく、むしろ有効領域Reを狭くしてしまう。
 そこで、図10(c)に示すように、容器11の上部底面Saに対応する実信号P1aとこれに共役な複素共役信号P2aとが重なるように、つまりR=Tとなるように参照ミラー24の位置が設定される。この場合の有効領域Reは、容器11の上部底面Saに対応する実信号P1aまたはこれに共役で同じ位置に現れる複素共役信号P2aと、もう1つの複素共役信号P2bとで挟まれた領域となり、図10(b)に示す場合よりも有効領域Reを広くすることができる。
 これを可能とするために、図9の撮像動作においては、設定された焦点深さDについてD<(T/2)の関係が成立するとき、式(4)によらずR=Tとなるように参照ミラー24の位置が設定される。このことは、参照基準面Srを容器11の上部底面Saに一致させることと等価である。また、式(1)においてD=0とした場合に相当する。
 これにより、物体光学系23の合焦範囲を有効に利用して撮像を行うことができる。複数の部分画像Ipを合成して断層画像Itを作成する構成においては、各撮像における物体光学系23の合焦範囲を最大限に利用することで必要な部分画像Ipの数を削減し、画像の作成に要する時間を短縮することが可能になる。D<(T/2)の関係がそれぞれ成立する複数の焦点深さで撮像が行われる際にも、参照ミラー24は焦点深さの設定によらずR=Tとなる位置に固定される。参照ミラー24が移動する工程を省くことができるので、処理時間も短縮することが可能である。
 なお、このように参照基準面Srと容器11の上部底面Saとが一致するように参照ミラー24の位置を設定するとき、断層画像において複素共役信号を含まない有効領域Reは次のようになる。図10(c)に示されるように、参照基準面Srに対応する位置に(実信号P1aに重畳されて)現れる上部底面Saの複素共役信号P2aと、これから容器底部厚さTに対応する距離だけ離れた位置に現れる下部底面Sbの複素共役信号P2bとの間の領域が、有効領域Reである。したがって、焦点面Sfに現れる実信号P1fが複素共役ノイズの影響を受けないようにするという観点からは、焦点面Sfは、設定値Rにより決まる有効領域Re内に含まれる限り、どの位置にあってもよいことになる。
 言い換えれば、このように参照基準面Srを容器11の上部底面Saと一致させるような参照ミラー24の位置設定方法は、焦点面Sfと容器11の上部底面Saとの距離Dが底部厚さTよりも小さくなるように焦点深さが設定される場合の全般において有効に機能する。したがって、参照ミラー24の位置Zrの決定を式(4)に基づいて行うかR=Tとなるようにするかの場合分けについては、焦点深さの設定値Dと、底部厚さTよりも小さい適宜の閾値との比較に基づき判断することができる。すなわち、設定された焦点深さDが予め定められた閾値より大きければ式(4)に基づいて参照ミラー位置を決定し、小さければR=Tとなるように決定すればよい。
 なお、原理上は閾値は0より大きくTより小さい数値範囲内の任意の値とすることができる。しかしながら、現実には複素共役信号P2a,P2bが深さ方向においてある程度の広がりを有する。このことを考慮すれば、閾値は、上記範囲のうち上限および下限のそれぞれにおいて、複素共役信号の広がり量の半分程度が除外された範囲内で定められることが好ましい。
 本実施形態では、有効領域Reが焦点面Sfを含みかつその範囲が複素共役信号の広がりの影響を抑えてできるだけ広くなるようにするとの観点から、ステップS104の判断工程が次のように構成されている。式(4)によって焦点面Sfを有効領域Reの中央に位置させることのできる焦点深さDの範囲、すなわちD≧(T/2)においては、式(4)が適用される。一方、焦点深さDがこれより小さい場合にはR=Tとして参照ミラー位置が決められる。これは、上記した閾値を底部厚さの半分(T/2)に設定した場合に相当している。
 以上のように、この実施形態の画像処理装置1は、フーリエドメイン(FD)OCT撮像原理を利用した撮像装置であるが、物体光学系23の焦点深さを変更するための機能を有している。そして、容器11底部を介して撮像が行われる際、焦点深さの設定に応じて、参照基準面を規定する参照光の光路長が参照ミラー24の位置調整により設定される。参照基準面の位置を導出する計算式は、焦点深さDおよび容器11底部の厚さTの関数として与えられる。
 このような構成によれば、深さ方向の反射光強度分布において、容器11の上部底面Saと下部底面Sbとに対応する複素共役信号が焦点深さに対応する位置を挟んで出現するようにすることができる。2つの複素共役信号の間隔は容器11底部の厚さTにより決まる一定値であるので、結果として、焦点位置およびその近傍の一定幅の範囲において複素共役ノイズの影響を排除した撮像を行うことが可能となる。
 ただし、焦点深さが容器底部厚さの半分未満であるときには、その範囲における焦点位置の設定に関わらず、参照基準面が容器11の上部底面Saに対応する位置となるように、参照光の光路長が設定される。これにより、上部底面Saに起因する複素共役信号は上部底面Saに対応する位置に現れる一方、下部底面Sbに起因する複素共役信号は上部底面Saから容器底部厚さ分だけ離れた位置に現れることとなる。その結果、これらの間に現れる焦点位置の近傍からの信号が、複素共役ノイズの影響を受けることが防止される。
 必要に応じて、深さ方向に焦点位置を異ならせた複数回の撮像で得られた結果を合成することで、深さ方向において2つの複素共役信号の間隔よりも広い範囲を含む断層画像を作成することが可能である。このとき、焦点位置の変更に伴って参照ミラー24の位置を変更することにより、焦点位置の近傍では常に複素共役ノイズの影響を排除することができる。しかも合焦状態で撮像された比較的狭い範囲の部分画像を合成してより広範囲の断層画像を作成することで、断層画像全体の画像品質を良好なものとすることができる。
 以上説明したように、この実施形態の画像処理装置1は、スフェロイドSp等を「被撮像物」とする本発明の「撮像装置」に相当するものである。そして、撮像ユニット20,20a,20bがそれぞれ本発明の「検出手段」として機能し、制御ユニット30のうちCPU31が本発明の「制御手段」として、また信号処理部33が本発明の「信号処理手段」としてそれぞれ機能している。
 また、上記実施形態においては、容器11の底部111が本発明の「壁部」に相当し、その上部底面Saおよび下部底面Sbがそれぞれ本発明の「第1表面」および「第2表面」に相当している。また、値(T/2)が本発明の「閾値」に相当している。
 なお、本発明は上記した実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて上述したもの以外に種々の変更を行うことが可能である。例えば、上記実施形態における参照基準面Srの位置の導出処理では、物体光学系23の焦点深さが容器11の上部底面Saから起算した値Dによって、また参照基準面Srの位置が容器11の下部底面Sbから起算した値Rによって表されている。しかしながら、どの位置を基準として各位置を表すかは任意であり、基準位置に応じて各式を適宜改変することにより、上記技術思想と実質的に等価な処理を実現することが可能である。
 また例えば、上記実施形態の被撮像物は浅皿型のディッシュと呼ばれる容器11に担持されたスフェロイドSpであるが、被撮像物およびそれを担持する容器の種類はこれに限定されない。例えば、試料を担持可能な複数のウェルが1つのプレートに設けられたウェルプレートで培養された細胞等が被撮像物とされてもよい。
 また例えば、上記実施形態の画像処理装置1は、容器11の底部111を介して容器内の被撮像物を撮像する。しかしながら、撮像の方向はこれに限定されない。例えば被撮像物を収容する容器の側壁面を介して撮像を行う場合にも、本発明を好適に適用することが可能である。
 また例えば、上記実施形態では、焦点深さDが容器底部厚さTの半分よりも大きいか小さいかによって値Rの求め方が変更される。しかしながら、式(4)による値Rの求め方は、焦点深さDが容器底部厚さTの半分よりも小さい場合にも有効である。例えば有効領域Reの範囲が狭くなることが許容される状況であれば、焦点深さDの可変範囲の全体において一律に式(4)が適用されてもよい。
 また例えば、上記実施形態では容器底面に起因する2つの複素共役信号のピークに挟まれる領域の中央に焦点位置が来るように式(4)が採用されている。しかしながら、焦点位置が2つのピークのちょうど中間である必要は必ずしもない。例えば、2つのピークの間隔よりも物体光学系の被写界深度の方が大きければ、焦点位置が両ピークの中央からずれていても両ピーク間の領域全体を合焦範囲に含めることが可能であり、得られる画像の品質も上記実施形態と変わりないものとなる。式(4)に適宜のオフセットを加えた式、あるいは、図7(d)の値「T/2」を適宜に改変して式(4)と同様にして求めた式を用いて、このような焦点位置と複素共役信号のピークとの位置関係を実現することが可能である。
 また例えば、上記実施形態では、焦点深さを多段階に設定して撮像された部分画像Ipを合成することで断層画像Itが得られる。しかしながら、例えば被撮像物の高さに対して容器底部厚さおよび物体光学系の被写界深度が十分に大きければ、1回の撮像で被撮像物の全体像を得ることが可能である。この場合にも、焦点位置の設定に応じて、上記した条件を満たすように参照光の光路長が設定されることにより、撮像結果に容器底面に起因する複素共役ノイズの影響が現れるのを効果的に防止することができる。
 また、本発明において物体光学系の分解能は特に限定されないが、高倍率または高分解能での撮像を必要とする場合において本発明は特に有効である。その理由は以下の通りである。高倍率、高分解能を求めると物体光学系の被写界深度が浅くなるため、本来的には深さ方向に広く撮像可能なFD-OCT装置であっても、1回の撮像で得られる画像の深さ方向の範囲は限定される。したがって、本発明の技術思想とは直接関係のない理由で複数回の撮像が必要となる場合がある。このような場合に本発明を適用することで、1回の撮像で得られる画像は複素共役ノイズの影響がなく、また全体を合焦状態とすることができる。そのため、良好な画像品質で撮像を行うことが可能となる。
 また、上記実施形態の制御ユニット30としては、パーソナルコンピュータやワークステーション等の一般的な構成の汎用処理装置を用いることも可能である。すなわち、撮像ユニット20、駆動制御部40およびこれらの動作させるための最小限の制御機能を有する撮像装置と、上記処理内容を記述した制御プログラムを実行することで制御ユニット30として機能するパーソナルコンピュータ等との組み合わせにより、画像処理装置1が構成されてもよい。
 以上、具体的な実施形態を例示して説明してきたように、この発明においては、一の撮像において得られる反射光強度分布から求められる断層画像のうち第1表面の像と第2表面の共役像との間の領域が、有効な画像領域とされてもよい。このような構成によれば、第1表面および第2表面の共役像に起因するノイズを含まない画像領域を、有効なものとして抽出することができる。
 また、同一の被撮像物に対し焦点深さを互いに異ならせて複数回干渉光の検出が行われ、焦点深さを設定する度に参照光の光路長が設定され、得られた複数の検出結果から各々の焦点近傍における反射光強度分布が求められる構成であってもよい。本発明の原理によれば、一の撮像で複素共役ノイズを排除した反射光強度分布が得られる深さの範囲は、容器壁部の厚さにより制限される。焦点深さを互いに異ならせた複数回の検出結果を重ね合わせれば、容器壁部の厚さを超える範囲を含む、画像品質の良好な断層画像を得ることが可能となる。
 また、第1表面から物体光学系の焦点までの距離が閾値より大きくなるように焦点深さが設定されるときには、壁部の厚さをT、第1表面から物体光学系の焦点までの距離をD、第2表面から、照明光の光路に垂直な仮想的な平面であって当該平面までの照明光の光路長が参照光の光路長と等しい参照基準面までの距離をRとするとき、
  (D+T)/2<R<(D+2T)/2
の関係が成立するように、参照光の光路長が設定されてもよい。値Rがこのような条件を満たすように参照基準面が設定されるとき、第1表面および第2表面の共役像の出現位置を、確実に物体光学系の焦点を挟む位置とすることができる。したがって、焦点近傍における複素共役ノイズの影響を排除することができる。このように焦点の深さと壁部の厚さとの関係に応じて参照基準面を設定することで、任意の焦点深さにおいて壁部に起因する複素共役ノイズの影響をなくすことができる。
 また、この発明にかかる撮像装置は、検出手段が参照光の光路に配置されて参照光の光路長を規定する参照ミラーを備え、制御手段が、参照ミラーの位置を変化させて参照光の光路長を調整するミラー駆動機構と、物体光学系を駆動して焦点深さを調整する焦点調整機構とを備えるものであってもよい。このような構成は、物体光学系の焦点深さに応じて参照ミラーの位置を変化させることで参照光の光路長を変更設定することができるものであり、上記発明を実施するのに好適なものである。
 また、この発明にかかる撮像方法は、参照光の光路長を設定する前に、壁部の厚さに関する情報を取得する工程を備えるものであってもよい。このような構成によれば、焦点深さの設定値と壁部の厚さに関する情報とに基づき、参照光の光路長を上記条件に合致するように調整することが容易となる。
 以上、特定の実施例に沿って発明を説明したが、この説明は限定的な意味で解釈されることを意図したものではない。発明の説明を参照すれば、本発明のその他の実施形態と同様に、開示された実施形態の様々な変形例が、この技術に精通した者に明らかとなるであろう。故に、添付の特許請求の範囲は、発明の真の範囲を逸脱しない範囲内で、当該変形例または実施形態を含むものと考えられる。
 この発明は、FD-OCT撮像技術全般に適用することができる。特に、ディッシュ等の容器中で培養された細胞や細胞集塊を撮像する医学・生化学・創薬の分野において好適に適用することができる。
 1 画像処理装置(撮像装置)
 11 容器
 20,20a,20b 撮像ユニット(検出手段)
 22 ビームスプリッタ
 23 物体光学系
 24 参照ミラー
 30 制御ユニット
 31 CPU(制御手段)
 33 信号処理部(信号処理手段)
 40 駆動制御部
 41 焦点調整機構
 42 ミラー駆動機構
 111 (容器11の)底部(壁部)
 220 光ファイバカプラ
 Sa (容器11の)上部底面(第1表面)
 Sb (容器11の)下部底面(第2表面)
 Sf 焦点面
 Sp スフェロイド(被撮像物)
 Sr 基準参照面

Claims (13)

  1.  光透過性の壁部を有する容器内に収容された被撮像物を断層撮像する撮像装置において、
     光源から出射される広帯域の低コヒーレンス光が分岐された一の分岐光を照明光として前記壁部を介して前記被撮像物に入射させ、前記壁部を介して出射される前記被撮像物の反射光を物体光学系により集光した信号光と、他の一の分岐光から生成された参照光とが干渉して生じる干渉光を検出し、検出された前記干渉光に応じた干渉信号を出力する検出手段と、
     前記干渉信号に基づき、前記干渉光のスペクトルをフーリエ変換して前記照明光の入射方向における前記被撮像物の反射光強度分布を求め、該反射光強度分布から断層画像を作成する信号処理手段と、
     前記被撮像物に対する前記物体光学系の前記入射方向における焦点深さおよび前記参照光の光路長を変更設定する制御手段と
    を備え、
     前記制御手段は、
     前記壁部の表面のうち前記被撮像物側の第1表面から前記物体光学系の焦点までの距離が、前記壁部の厚さより小さい所定の閾値よりも小さくなるように前記焦点深さを設定するとき、
     前記参照光の光路長を、前記第1表面までの前記照明光の光路長と等しい値に設定する、
    撮像装置。
  2.  前記制御手段は、
     前記壁部の表面のうち前記被撮像物とは反対側の第2表面から、前記照明光の光路に直交する仮想的な平面であって当該平面までの前記照明光の光路長が前記参照光の光路長と等しい、参照基準面までの距離と、
     前記壁部の厚さと
    が等しくなるように、前記参照光の光路長を設定する請求項1に記載の撮像装置。
  3.  前記信号処理手段は、前記反射光強度分布から求められる前記断層画像のうち、前記第1表面の像と前記第2表面の共役像との間の領域を、有効な画像領域とする請求項2に記載の撮像装置。
  4.  前記信号処理手段は、同一の前記被撮像物に対し前記焦点深さを互いに異ならせて得られた複数の検出結果から、各々の焦点近傍における前記反射光強度分布を求める請求項2または3に記載の撮像装置。
  5.  前記制御手段は、前記第1表面から前記物体光学系の焦点までの距離が前記閾値より大きくなるように前記焦点深さを設定するとき、
     前記壁部の厚さをT、
     前記第1表面から前記物体光学系の焦点までの距離をD、
     前記第2表面から、前記照明光の光路に垂直な平面であって当該平面までの前記照明光の光路長が前記参照光の光路長と等しい参照基準面までの距離をRとするとき、
      (D+T)/2<R<(D+2T)/2
    の関係が成立するように、前記参照光の光路長を設定する請求項4に記載の撮像装置。
  6.  前記閾値は、前記壁部の厚さの半分である請求項1ないし5のいずれかに記載の撮像装置。
  7.  前記検出手段は、前記参照光の光路に配置されて前記参照光の光路長を規定する参照ミラーを有し、
     前記制御手段は、
     前記参照ミラーの位置を変化させて前記参照光の光路長を調整するミラー駆動機構と、
     前記物体光学系を駆動して前記焦点深さを調整する焦点調整機構と
    を有する、請求項1ないし6のいずれかに記載の撮像装置。
  8.  光透過性の壁部を有する容器内に収容された被撮像物を断層撮像する撮像方法において、
     光源から出射される広帯域の低コヒーレンス光が分岐された一の分岐光を照明光として前記壁部を介して前記被撮像物に入射させ、前記壁部を介して出射される前記被撮像物の反射光を物体光学系により集光した信号光と、他の一の分岐光から生成された参照光とが干渉して生じる干渉光を検出し、検出された前記干渉光に応じた干渉信号を出力する工程と、
     前記干渉信号に基づき、前記干渉光のスペクトルをフーリエ変換して前記照明光の入射方向における前記被撮像物の反射光強度分布を求め、該反射光強度分布から断層画像を作成する工程と
    を備え、
     前記被撮像物に対する前記物体光学系の前記入射方向における焦点深さおよび前記参照光の光路長を変更設定可能であり、
     前記壁部の表面のうち前記被撮像物側の第1表面から前記物体光学系の焦点までの距離が、前記壁部の厚さより小さい所定の閾値よりも小さくなるように前記焦点深さが設定されるとき、前記参照光の光路長が、前記第1表面までの前記照明光の光路長と等しい値に設定される撮像方法。
  9.  前記壁部の表面のうち前記被撮像物とは反対側の第2表面から、前記照明光の光路に直交する仮想的な平面であって当該平面までの前記照明光の光路長が前記参照光の光路長と等しい参照基準面までの距離と、
     前記壁部の厚さと
    が等しくなるように、前記参照光の光路長が設定される請求項8に記載の撮像方法。
  10.  前記反射光強度分布から求められる前記断層画像のうち前記第1表面の像と前記第2表面の共役像との間の領域が有効な画像領域とされる請求項9に記載の撮像方法。
  11.  同一の前記被撮像物に対し前記焦点深さを多段階に互いに異ならせて複数回前記干渉光の検出が行われ、前記焦点深さが設定される度に前記参照光の光路長が設定される請求項9または10に記載の撮像方法。
  12.  前記第1表面から前記物体光学系の焦点までの距離が前記閾値よりも大きくなるように前記焦点深さが設定されるとき、
     前記壁部の厚さをT、
     前記第1表面から前記物体光学系の焦点までの距離をD、
     前記第2表面から、前記照明光の光路に垂直な平面であって当該平面までの前記照明光の光路長が前記参照光の光路長と等しい参照基準面までの距離をRとするとき、
      (D+T)/2<R<(D+2T)/2
    の関係が成立するように前記参照光の光路長が設定される請求項11に記載の撮像方法。
  13.  前記参照光の光路長が設定される前に、前記壁部の厚さに関する情報を取得する工程を備える請求項9ないし12のいずれかに記載の撮像方法。
PCT/JP2017/042181 2016-12-26 2017-11-24 撮像装置および撮像方法 WO2018123377A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP17885570.6A EP3561484A4 (en) 2016-12-26 2017-11-24 IMAGING DEVICE AND IMAGING METHOD
CN201780080487.0A CN110114656B (zh) 2016-12-26 2017-11-24 摄像装置以及摄像方法
US16/467,356 US10801830B2 (en) 2016-12-26 2017-11-24 Imaging apparatus and imaging method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016250968A JP6702851B2 (ja) 2016-12-26 2016-12-26 撮像装置および撮像方法
JP2016-250968 2016-12-26

Publications (1)

Publication Number Publication Date
WO2018123377A1 true WO2018123377A1 (ja) 2018-07-05

Family

ID=62707478

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/042181 WO2018123377A1 (ja) 2016-12-26 2017-11-24 撮像装置および撮像方法

Country Status (5)

Country Link
US (1) US10801830B2 (ja)
EP (1) EP3561484A4 (ja)
JP (1) JP6702851B2 (ja)
CN (1) CN110114656B (ja)
WO (1) WO2018123377A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7253457B2 (ja) * 2019-06-25 2023-04-06 株式会社Screenホールディングス 補正方法、補正装置および撮像装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10325795A (ja) * 1996-08-04 1998-12-08 Matsushita Electric Ind Co Ltd 媒質の測定方法および測定装置
JP2008541096A (ja) * 2005-05-13 2008-11-20 ザ ジェネラル ホスピタル コーポレイション 化学的試料および生体試料の高感度検出用スペクトル領域光コヒーレンス反射計測を実行可能な装置、システム、および方法
JP2010164574A (ja) 2010-02-24 2010-07-29 Univ Of Tsukuba 多重化スペクトル干渉光コヒーレンストモグラフィー
US20110096291A1 (en) * 2009-09-22 2011-04-28 Buckland Eric L Systems for Extended Depth Fourier Domain Optical Coherence Tomography (FDOCT) and Related Methods
JP2012202761A (ja) * 2011-03-24 2012-10-22 Nikon Corp 光干渉断層撮影装置
JP2015072152A (ja) * 2013-10-02 2015-04-16 株式会社日立エルジーデータストレージ 光計測装置
JP2015175678A (ja) * 2014-03-14 2015-10-05 株式会社日立エルジーデータストレージ 光断層観察装置
US20160054116A1 (en) * 2014-08-25 2016-02-25 Board Of Trustees Of Michigan State University Scanning interferometry technique for through-thickness evaluation in multi-layered transparent structures
JP2016169948A (ja) * 2015-03-11 2016-09-23 株式会社日立エルジーデータストレージ 光計測装置及び光計測方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19733890C2 (de) 1996-08-04 2000-03-16 Matsushita Electric Ind Co Ltd Verfahren zum Vermessen eines Mediums und Vorrichtung dazu
JP2005351839A (ja) * 2004-06-14 2005-12-22 Fujinon Corp 断層映像装置
JP4505807B2 (ja) 2004-08-09 2010-07-21 国立大学法人 筑波大学 多重化スペクトル干渉光コヒーレンストモグラフィー
JP5339934B2 (ja) * 2009-01-22 2013-11-13 キヤノン株式会社 光断層撮像装置および光断層撮像方法
US9869852B2 (en) 2015-01-26 2018-01-16 Thorlabs, Inc. Microscopy system with auto-focus adjustment by low-coherence interferometry
JP6437364B2 (ja) 2015-03-30 2018-12-12 株式会社Screenホールディングス 信号処理方法および画像処理装置
JP6728007B2 (ja) 2016-09-23 2020-07-22 株式会社Screenホールディングス 撮像装置および撮像方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10325795A (ja) * 1996-08-04 1998-12-08 Matsushita Electric Ind Co Ltd 媒質の測定方法および測定装置
JP2008541096A (ja) * 2005-05-13 2008-11-20 ザ ジェネラル ホスピタル コーポレイション 化学的試料および生体試料の高感度検出用スペクトル領域光コヒーレンス反射計測を実行可能な装置、システム、および方法
US20110096291A1 (en) * 2009-09-22 2011-04-28 Buckland Eric L Systems for Extended Depth Fourier Domain Optical Coherence Tomography (FDOCT) and Related Methods
JP2010164574A (ja) 2010-02-24 2010-07-29 Univ Of Tsukuba 多重化スペクトル干渉光コヒーレンストモグラフィー
JP2012202761A (ja) * 2011-03-24 2012-10-22 Nikon Corp 光干渉断層撮影装置
JP2015072152A (ja) * 2013-10-02 2015-04-16 株式会社日立エルジーデータストレージ 光計測装置
JP2015175678A (ja) * 2014-03-14 2015-10-05 株式会社日立エルジーデータストレージ 光断層観察装置
US20160054116A1 (en) * 2014-08-25 2016-02-25 Board Of Trustees Of Michigan State University Scanning interferometry technique for through-thickness evaluation in multi-layered transparent structures
JP2016169948A (ja) * 2015-03-11 2016-09-23 株式会社日立エルジーデータストレージ 光計測装置及び光計測方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3561484A4

Also Published As

Publication number Publication date
JP2018105683A (ja) 2018-07-05
EP3561484A1 (en) 2019-10-30
CN110114656A (zh) 2019-08-09
EP3561484A4 (en) 2020-05-13
JP6702851B2 (ja) 2020-06-03
CN110114656B (zh) 2022-02-15
US20200096312A1 (en) 2020-03-26
US10801830B2 (en) 2020-10-13

Similar Documents

Publication Publication Date Title
JP6762810B2 (ja) 画像処理装置および画像処理方法
JP2020533570A (ja) 集積光子装置を用いる空間分割多重化光学コーヒレンストモグラフィー
JP5975522B2 (ja) 動的焦点移動型光干渉断層顕微鏡
CA2856570A1 (en) Spectroscopic instrument and process for spectral analysis
JP5527478B2 (ja) 光干渉断層観察装置、画像間の相対位置決定方法および画像間の相対位置決定プログラム
WO2019181073A1 (ja) 光干渉断層撮像装置および光干渉断層撮像方法
JP6628589B2 (ja) 撮像装置
JP2015096943A (ja) 走査型光学顕微鏡
KR20150043115A (ko) Oct 장치
JP6728007B2 (ja) 撮像装置および撮像方法
WO2018123377A1 (ja) 撮像装置および撮像方法
WO2018150744A1 (ja) 撮像方法および撮像装置
EP3162282A1 (en) Tomography device
JP6853728B2 (ja) 試料容器およびこれを用いる撮像方法
JP6908390B2 (ja) 撮像方法および撮像装置
EP2565625A1 (en) Optical measurement system and method for operating an optical measurement system
JP7006874B2 (ja) Octシステム及びoct方法
JP2021173723A (ja) 撮像装置および撮像方法
JP2021004749A (ja) 補正方法、補正装置および撮像装置
WO2010126368A1 (en) Scattered light collector, light focusing apparatus, method for controlling the focus of a focused light source and method for measuring the light scattered or originating from a point of an object

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17885570

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2017885570

Country of ref document: EP