WO2024024147A1 - 毛細胆管領域の特定又は評価の方法、装置及びプログラム - Google Patents

毛細胆管領域の特定又は評価の方法、装置及びプログラム Download PDF

Info

Publication number
WO2024024147A1
WO2024024147A1 PCT/JP2023/007107 JP2023007107W WO2024024147A1 WO 2024024147 A1 WO2024024147 A1 WO 2024024147A1 JP 2023007107 W JP2023007107 W JP 2023007107W WO 2024024147 A1 WO2024024147 A1 WO 2024024147A1
Authority
WO
WIPO (PCT)
Prior art keywords
refractive index
complex amplitude
image generation
index distribution
bile canaliculi
Prior art date
Application number
PCT/JP2023/007107
Other languages
English (en)
French (fr)
Inventor
康造 竹内
修 安彦
Original Assignee
浜松ホトニクス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 浜松ホトニクス株式会社 filed Critical 浜松ホトニクス株式会社
Publication of WO2024024147A1 publication Critical patent/WO2024024147A1/ja

Links

Images

Classifications

    • CCHEMISTRY; METALLURGY
    • C12BIOCHEMISTRY; BEER; SPIRITS; WINE; VINEGAR; MICROBIOLOGY; ENZYMOLOGY; MUTATION OR GENETIC ENGINEERING
    • C12MAPPARATUS FOR ENZYMOLOGY OR MICROBIOLOGY; APPARATUS FOR CULTURING MICROORGANISMS FOR PRODUCING BIOMASS, FOR GROWING CELLS OR FOR OBTAINING FERMENTATION OR METABOLIC PRODUCTS, i.e. BIOREACTORS OR FERMENTERS
    • C12M1/00Apparatus for enzymology or microbiology
    • CCHEMISTRY; METALLURGY
    • C12BIOCHEMISTRY; BEER; SPIRITS; WINE; VINEGAR; MICROBIOLOGY; ENZYMOLOGY; MUTATION OR GENETIC ENGINEERING
    • C12MAPPARATUS FOR ENZYMOLOGY OR MICROBIOLOGY; APPARATUS FOR CULTURING MICROORGANISMS FOR PRODUCING BIOMASS, FOR GROWING CELLS OR FOR OBTAINING FERMENTATION OR METABOLIC PRODUCTS, i.e. BIOREACTORS OR FERMENTERS
    • C12M3/00Tissue, human, animal or plant cell, or virus culture apparatus
    • CCHEMISTRY; METALLURGY
    • C12BIOCHEMISTRY; BEER; SPIRITS; WINE; VINEGAR; MICROBIOLOGY; ENZYMOLOGY; MUTATION OR GENETIC ENGINEERING
    • C12QMEASURING OR TESTING PROCESSES INVOLVING ENZYMES, NUCLEIC ACIDS OR MICROORGANISMS; COMPOSITIONS OR TEST PAPERS THEREFOR; PROCESSES OF PREPARING SUCH COMPOSITIONS; CONDITION-RESPONSIVE CONTROL IN MICROBIOLOGICAL OR ENZYMOLOGICAL PROCESSES
    • C12Q1/00Measuring or testing processes involving enzymes, nucleic acids or microorganisms; Compositions therefor; Processes of preparing such compositions
    • C12Q1/02Measuring or testing processes involving enzymes, nucleic acids or microorganisms; Compositions therefor; Processes of preparing such compositions involving viable microorganisms
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/41Refractivity; Phase-affecting properties, e.g. optical path length
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/48Biological material, e.g. blood, urine; Haemocytometers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/48Biological material, e.g. blood, urine; Haemocytometers
    • G01N33/483Physical analysis of biological material

Definitions

  • the present disclosure relates to a method, device, and program for identifying or evaluating bile canaliculi regions.
  • Bile canaliculi (also written as bile canaliculi or BC) are tubules formed between adjacent hepatocytes. The lumen of bile canaliculi is sealed by tight junctions between hepatocytes, and substances are exchanged via transporters on the cell membranes of hepatocytes. Bile acids synthesized in hepatocytes are secreted into the bile canaliculi, and drugs metabolized in hepatocytes are excreted. On the surface of hepatocytes facing the bile canaliculi, there are many minute projections called microvilli (also written as microvilli or MV) with lengths ranging from submicrometers to several micrometers.
  • microvilli also written as microvilli or MV
  • DILI Drug-induced liver injury
  • Patent Document 1 relating to a method for culturing hepatocytes, the area and number of bile canaliculi are used as indicators for evaluation of cultured hepatocytes.
  • Patent Document 2 describes an apparatus for evaluating candidate compounds susceptible to excretion into bile or blood by hepatocytes and liver metabolites of the candidate compounds, which promotes accumulation and excretion of liver metabolites in bile canaliculi-like structures.
  • An evaluation device characterized by the following is disclosed.
  • Patent Document 3 describes an in vitro method for screening candidate compounds that induce bile canalicular dysfunction, and uses morphological changes in the bile duct space and small or large molecules that can accumulate in the canaliculi and canalicular lumens as evaluation indicators. A method is disclosed in which the maximum amount of molecules is used.
  • Bile canaliculi are useful as an evaluation index for hepatocyte clusters and liver tissue, and as an analysis target for drug metabolism.
  • HE staining hematoxylin and eosin staining
  • Non-Patent Document 2 hematoxylin and eosin staining
  • electron microscopy and fluorescence microscopy electron microscopy is difficult to observe live cells and observe over time, so it is not suitable for use in combination with drug evaluation. Fluorescent microscopy requires fluorescent labeling.
  • an object of one aspect of the present disclosure is to provide a method, device, and program for non-invasively identifying or evaluating bile canaliculi regions.
  • the inventors have discovered that by using the refractive index distribution data of the observed object, it is possible to identify the bile canaliculi region included in the observed object, and that it is possible to evaluate the identified bile canaliculi region.
  • the first aspect of the present disclosure is a method of identifying bile canaliculi regions included in an observation object using refractive index distribution data of the observation object containing hepatocytes.
  • a second aspect of the present disclosure is a method of evaluating bile canaliculi regions based on parameters of bile canaliculi obtained from refractive index distribution data of an observation target containing hepatocytes.
  • a third aspect of the present disclosure provides a method according to the first aspect of the present disclosure (a method of identifying bile canaliculi regions included in an observation object using refractive index distribution data of an observation object containing hepatocytes).
  • the number of identified bile canaliculi regions and/or the method according to the second aspect of the present disclosure (evaluation of bile canaliculi regions based on parameters of bile canaliculi obtained from refractive index distribution data of an observation target containing hepatocytes)
  • This is a method of evaluating an observation object containing hepatocytes based on the evaluation of the bile canaliculi area obtained by the above method.
  • a fourth aspect of the present disclosure includes a step of culturing hepatocytes, a method according to the third aspect of the present disclosure (a method according to the first aspect of the present disclosure), and a step of culturing hepatocytes.
  • the number of bile canaliculi regions identified by the method according to the second aspect of the present disclosure (method of evaluating bile canaliculi regions using parameters of bile canaliculi obtained from refractive index distribution data); evaluating the observation object obtained by culture using a method for evaluating an observation object containing hepatocytes based on the evaluation of the bile canaliculi area obtained by This is a method for evaluating culture methods.
  • a fifth aspect of the present disclosure includes a step of adding a drug to an observation object containing hepatocytes, and a method according to the third aspect of the present disclosure (a method according to the first aspect of the present disclosure (using refractive index distribution data).
  • the number of bile canaliculi regions identified by the method according to the second aspect of the present disclosure (method for identifying bile canalicule regions included in an observation target)
  • a drug screening method comprising:
  • Another aspect includes a data acquisition unit that acquires refractive index distribution data of an observation target containing hepatocytes, and a data acquisition unit that uses the refractive index distribution data of the observation target to identify bile canaliculi regions included in the observation target.
  • a device for identifying bile canaliculi region comprising: a identifying section;
  • Another aspect includes a data acquisition unit that acquires refractive index distribution data of an observation target containing hepatocytes, and a data acquisition unit that uses the refractive index distribution data of the observation target to identify bile canaliculi regions included in the observation target.
  • the present invention is an evaluation device for bile canaliculi regions, including a specifying section and an evaluation section that evaluates bile canaliculi regions based on parameters of bile canaliculi obtained from refractive index distribution data.
  • Another aspect includes a data acquisition step of acquiring refractive index distribution data of an observation target containing hepatocytes, and identifying bile canaliculi regions included in the observation target using the refractive index distribution data of the observation target.
  • This is a program that causes a computer to execute specific steps.
  • Another aspect includes a data acquisition step of acquiring refractive index distribution data of an observation target containing hepatocytes, and identifying bile canaliculi regions included in the observation target using the refractive index distribution data of the observation target.
  • This is a program that causes a computer to execute a specifying step and an evaluation step of evaluating a bile canaliculi region based on parameters of bile canaliculi obtained from refractive index distribution data.
  • the present disclosure relates to the following [1] to [20].
  • [1] A method of identifying bile canaliculi regions included in an observation object using refractive index distribution data of the observation object containing hepatocytes.
  • [2] The method according to [1], wherein the identification of the bile canaliculi region is performed based on the fact that the region in the observation object has characteristics of bile canaliculi.
  • the feature of the bile canaliculi is that it is a substantially circular or substantially circular tube-shaped region existing between hepatocytes, a feature that the refractive index of the region is lower than that of the hepatocytes, and a refraction of the peripheral part of the region.
  • the method according to [2], comprising one or more features selected from the group consisting of features whose refractive index is higher than the refractive index of hepatocytes.
  • the feature of the bile canaliculi is that it is a substantially circular or substantially circular tube-shaped region existing between hepatocytes, the refractive index of the region is lower than the refractive index of the hepatocytes, and the refraction of the peripheral part of the region.
  • the method according to [2], comprising a feature where the refractive index is higher than the refractive index of hepatocytes.
  • the feature of the bile canaliculi described in [3] or [4] further includes a region derived from microvilli and having a refractive index higher than the refractive index of the entire region.
  • Method. [6] The method according to any one of [1] to [5], wherein the refractive index distribution data is refractive index tomographic data in a predetermined direction.
  • the parameters of the bile canaliculi are one or more selected from the group consisting of the area of a cross section perpendicular to the duct flow axis or a cross-sectional view, a refractive index, the number of microvilli, and the average length of microvilli.
  • [9] A step of identifying a bile canalicule region included in the observation target by the method according to any one of [1] to [6], based on the parameters of the bile canalicule in the identified bile canalicule region. The method according to [7] or [8], wherein the bile canaliculi region is evaluated.
  • a method of diagnosing a liver disease, a method of assisting in the diagnosis of a liver disease, or a method of collecting data for the diagnosis of a liver disease comprising: [17] A data acquisition unit that acquires refractive index distribution data of an observation object containing hepatocytes, and bile canaliculi included in the observation object by the method described in any one of [1] to [6].
  • a device for specifying a bile canalicule region comprising: a specifying section for specifying a region.
  • a data acquisition unit that acquires refractive index distribution data of an observation object containing hepatocytes, and bile canaliculi included in the observation object by the method described in any one of [1] to [6].
  • a device for evaluating bile canaliculi regions comprising: a specifying section that specifies a region; and an evaluation section that evaluates bile canaliculi regions by the method according to any one of [7] to [9].
  • a program that causes a computer to perform specific steps to identify an area.
  • refractive index distribution data can be used to evaluate methods for culturing hepatocyte clusters or to screen drugs.
  • FIG. 1 (hereinafter also referred to as " Figure A01”) is a diagram showing the configuration of an observation device 1A.
  • FIG. 2 (hereinafter also referred to as “ Figure A02”) is a diagram showing the configuration of the observation device 1B.
  • FIG. 3 (hereinafter also referred to as “ Figure A03”) is a diagram showing the configuration of the observation device 1C.
  • FIG. 4 (hereinafter also referred to as " Figure A04”) is a flowchart of refractive index distribution measurement method A.
  • FIG. 5 (hereinafter also referred to as " Figure A05”) (a), (b), and (c) are diagrams showing an example of scanning in the direction of light irradiation to the observation target S in the interference intensity image acquisition step S1. be.
  • FIG. 5 (hereinafter also referred to as " Figure A05”) (a), (b), and (c) are diagrams showing an example of scanning in the direction of light irradiation to the observation target S in the interference intensity image acquisition step
  • FIG. 6 (hereinafter also referred to as " Figure A06”) is a diagram illustrating the kernel function g.
  • FIG. 7 (hereinafter also referred to as " Figure A07")
  • FIG. 8 (hereinafter also referred to as " Figure A08")
  • Figure A08 (a), (b), and (c) are diagrams showing an example of scanning in the direction of light irradiation to the observation target S in the interference intensity image acquisition step S1.
  • FIG. 9 (hereinafter also referred to as " Figure A09”) is a flowchart of the two-dimensional phase image generation step S4 in the refractive index distribution measurement method A1.
  • FIG. 9 (hereinafter also referred to as " Figure A09”) is a flowchart of the two-dimensional phase image generation step S4 in the refractive index distribution measurement method A1.
  • FIG. 9 (hereinafter also referred to as " Figure A09”) is a flowchart of the two-dimensional phase image generation step S4 in the refractive index distribution measurement method A
  • FIG. 10 (hereinafter also referred to as " Figure A10”) is a flowchart of the two-dimensional phase image generation step S4 in the refractive index distribution measurement method A2.
  • FIG. 11 (hereinafter also referred to as " Figure A11”) is a diagram illustrating a kernel function.
  • FIG. 12 (hereinafter also referred to as “ Figure A12”) is a flowchart of the two-dimensional phase image generation step S4 in the refractive index distribution measurement method A3.
  • FIG. 13 (hereinafter also referred to as " Figure B01”) is a diagram showing the configuration of the observation device 1D.
  • FIG. 14 (hereinafter also referred to as " Figure B02”) is a diagram showing the configuration of the observation device 1E.
  • FIG. 15 (hereinafter also referred to as " Figure B03”) is a diagram showing the configuration of the observation device 1F.
  • FIG. 16 (hereinafter also referred to as “ Figure B04”) is a flowchart of refractive index distribution measurement method B.
  • FIG. 17 (hereinafter also referred to as " Figure B05”) is a diagram illustrating the order and images of each process of the second complex amplitude image generation step S63 and the two-dimensional phase image generation step S65.
  • FIG. 18 (hereinafter also referred to as " Figure B06”) is a diagram illustrating the order and images of each process of the second complex amplitude image generation step S63, the phase conjugate calculation step S64, and the two-dimensional phase image generation step S65. .
  • FIG. 19 is a diagram illustrating the order and images of each process of the second complex amplitude image generation step S63, the phase conjugate calculation step S64, and the two-dimensional phase image generation step S65.
  • FIG. 20 (hereinafter also referred to as “ Figure B08”) is a diagram illustrating the order and images of each process of the second complex amplitude image generation step S63, the phase conjugate calculation step S64, and the two-dimensional phase image generation step S65.
  • FIG. 21 (hereinafter also referred to as " Figure B09”) is a diagram illustrating the order and images of each process of the three-dimensional phase image generation step S66 and the refractive index distribution calculation step S67.
  • Figure B10 is a diagram illustrating an overview of phase conjugate calculation, and is a diagram showing input light and output light when an interference intensity image is captured by the imaging unit.
  • FIG. 23 (hereinafter also referred to as “ Figure B11”) is a diagram illustrating an overview of phase conjugate calculation, and is a diagram showing input light and output light when the relationship between light irradiation and imaging is reversed.
  • FIG. 24 (hereinafter also referred to as " Figure B12”) is a diagram illustrating image division, phase conjugate calculation, and image combination in phase conjugate calculation step S64.
  • FIG. 25 (hereinafter also referred to as " Figure C01”) is a diagram showing the configuration of the observation device 1G.
  • FIG. 26 (hereinafter also referred to as “ Figure C02”) is a diagram showing the configuration of the observation device 1H.
  • FIG. 27 (hereinafter also referred to as “ Figure C03”) is a diagram showing the configuration of the observation device 1I.
  • FIG. 28 (hereinafter also referred to as “ Figure C04”) is a flowchart of refractive index distribution measuring method C.
  • FIG. 29 (hereinafter also referred to as “ Figure C05”) is a flowchart of refractive index distribution measuring method C.
  • FIG. 30 (hereinafter also referred to as “ Figure C06”) is a diagram illustrating the relationship between the area including the observation target and the first to Jth blocks.
  • FIG. 31 (hereinafter also referred to as " Figure C07”) is a diagram illustrating the processing procedure in the first to J-th blocks.
  • FIG. 32 (hereinafter also referred to as “ Figure C08”) is a diagram illustrating the processing content of BPM.
  • FIG. 33 (hereinafter also referred to as “ Figure C09”) is a flowchart of the third complex amplitude image generation step S77.
  • FIG. 34 (hereinafter also referred to as " Figure C10”) is a diagram showing the configuration of the observation device 1J.
  • FIG. 35 is a diagram showing an example of a hepatocyte mass evaluated by the hepatocyte mass evaluation method according to the third aspect of the present disclosure.
  • FIG. 36 is a diagram illustrating an example of the evaluation method of the hepatocyte mass culturing method according to the fourth aspect of the present disclosure, in which evaluation is performed based on the number of bile canaliculi regions according to the number of days of culture of the hepatocyte mass.
  • FIG. 37 shows an example of the drug screening method according to the fifth aspect of the present disclosure, in which drugs that can cause cholestatic DILI are screened based on the cross-sectional area of bile canaliculi in hepatocyte clusters.
  • FIG. 38 shows the possibility of causing cholestatic DILI based on the length and/or number of microvilli in the bile canalicular region in a hepatocyte mass, regarding the method for screening drugs according to the fifth aspect of the present disclosure.
  • FIG. 2 is a diagram showing an example of screening a certain drug.
  • FIG. 39 shows a method for screening drugs according to the fifth aspect of the present disclosure for screening drugs that may cause cholestatic DILI based on changes in the length of microvilli over time after drug addition. It is a figure showing an example.
  • FIG. 40 is a diagram illustrating an example of evaluating a bile canalicule network formed by adding taurocholic acid to a hepatocyte mass according to the method for identifying bile canaliculi regions according to the first aspect of the present disclosure.
  • FIG. 41 is a diagram illustrating an example of inserting a drain and collecting the contents of bile canaliculi within a hepatocyte mass using the method for identifying bile canaliculi regions according to the first aspect of the present disclosure as a guide.
  • FIG. 42 is a diagram illustrating an example of assisting the diagnosis of liver disease in a clinical specimen of the liver using the number and/or length of microvilli as an index according to the method for evaluating the bile canaliculi region according to the second aspect of the present disclosure.
  • FIG. 43 is a diagram showing the results of identifying bile canaliculi regions in a two-dimensional liver culture using phase contrast and fluorescence microscopy in Example 1.
  • FIG. 44 is a diagram schematically showing the evaluation results of the bile canaliculi region of the two-dimensional liver culture using optical diffraction tomography (ODT) in Example 2.
  • FIG. 45 is a diagram showing detailed evaluation results of the bile canaliculi region of a two-dimensional liver culture using optical diffraction tomography (ODT) in Example 2.
  • FIG. 46 is a diagram schematically showing the evaluation results of the bile canaliculi region of the hepatocyte mass 1 using optical diffraction tomography (ODT) in Example 3.
  • FIG. 47 is a diagram showing detailed evaluation results of the bile canalicular region of hepatocyte mass 1 using optical diffraction tomography (ODT) in Example 3.
  • FIG. 48 is a diagram showing the evaluation results of the bile canalicular region of the hepatocyte mass 2 using optical diffraction tomography (ODT) in Example 3.
  • the observation target according to one embodiment contains hepatocytes.
  • Hepatocytes are cells derived from the liver and capable of forming bile canaliculi through tight junctions between adjacent hepatocytes.
  • the observation object according to one embodiment may contain both hepatocytes that have formed bile canaliculi and hepatocytes that have not formed bile canaliculi.
  • Hepatocytes may be cultured cells derived from the liver (including cell lines and primary cultured cells) or hepatocytes contained in isolated liver tissue, and the animal species from which the hepatocytes are derived may be Not particularly limited.
  • the culture may consist of one type of hepatocyte, or may contain two or more types of cells including at least one type of hepatocyte.
  • the observation target according to one embodiment is an object mainly composed of cells, but it also includes components that may be contained in tissue samples in addition to cells, such as extracellular matrix and neutral fat. May contain.
  • the observation target according to one embodiment may be a two-dimensional liver culture, a hepatocyte mass, or a liver tissue sample from the viewpoint that hepatocytes form tight junctions with each other.
  • two-dimensional liver cultures, hepatocyte clusters, and liver tissue samples may be used.
  • the observation target according to one embodiment may be a hepatocyte mass from the viewpoint of achieving an environment close to a physiological environment, high reproducibility, and ease of sample preparation.
  • a two-dimensional liver culture is a monolayer colony formed by two-dimensionally cultured hepatocytes on a plate dish or the like.
  • a hepatocyte mass is a cell mass formed by three-dimensionally cultured hepatocytes.
  • a liver tissue sample is a biological sample prepared from liver tissue isolated from animals including humans, and includes, for example, tissue slides, tissue blocks, tissue panels, tissue arrays, and the like. When the object to be observed is a hepatocyte mass, its maximum diameter is preferably 100 to 200 ⁇ m.
  • Refractive index distribution data is data indicating the three-dimensional distribution of refractive index for each voxel in the space containing the observed object, or data indicating the refractive index for each pixel in a tomographic plane in a predetermined direction of the space containing the observed object. This is data showing a two-dimensional distribution.
  • refractive index tomographic data is data indicating a two-dimensional distribution of refractive index for each pixel in a tomographic plane in a predetermined direction of a space including an observation target, out of refractive index distribution data.
  • Optical diffraction tomography is known as a method for measuring the refractive index distribution of an observation target without staining or invasively.
  • ODT is a technology that has developed quantitative phase imaging (QPI) into a technology capable of three-dimensional imaging, and can realize three-dimensional refractive index tomography of an object to be observed.
  • QPI quantitative phase imaging
  • the refractive index distribution measuring method A includes embodiments of refractive index distribution measuring methods A1 to A3.
  • the refractive index distribution measuring methods A1 to A3 are collectively referred to as the refractive index distribution measuring method A.
  • These refractive index distribution measurement methods A to C can realize three-dimensional refractive index tomography in which the influence of multiple scattered light is reduced even when the object to be observed is a multiple scatterer.
  • OCT optical coherence tomography
  • ODT optical coherence tomography
  • the resolution of OCT is about 10 ⁇ m
  • the resolution of ODT and refractive index distribution measurement methods A to C is about 1 ⁇ m.
  • OCT does not determine refractive index distribution, and biological interpretation of signals obtained by imaging is difficult. In these respects, ODT and refractive index distribution measurement methods A to C are superior to OCT.
  • FIG. A01 to A03 are diagrams showing the respective configurations of observation devices 1A to 1C that can be used when measuring the refractive index distribution by the refractive index distribution measuring method A.
  • Figure A01 is a diagram showing the configuration of the observation device 1A.
  • the observation device 1A includes a light source 11, a lens 12, a lens 21, a mirror 22, a lens 23, a condenser lens 24, an objective lens 25, a beam splitter 41, a lens 42, an imaging section 43, an analysis section 50, and the like.
  • the light source 11 outputs spatially and temporally coherent light, and is, for example, a laser light source.
  • the lens 12 is optically connected to the light source 11 , focuses the light output from the light source 11 onto the light incidence end 13 of the optical fiber 14 , and causes the light to enter the light incidence end 13 .
  • the optical fiber 14 guides the light incident on the light incident end 13 through the lens 12 to the fiber coupler 15 .
  • the fiber coupler 15 couples light between the optical fiber 14 and the optical fibers 16 and 17, and splits the light guided by the optical fiber 14 into two, and sends one branched light to the optical fiber. 16, and the other branched light is guided through an optical fiber 17.
  • the light guided by the optical fiber 16 is emitted from the light emitting end 18 as diverging light.
  • the light guided by the optical fiber 17 is emitted from the light emitting end 19 as diverging light.
  • the lens 21 is optically connected to the light output end 18 and collimates the light output from the light output end 18 as divergent light.
  • the mirror 22 is optically connected to the lens 21 and reflects the light arriving from the lens 21 to the lens 23.
  • the orientation of the reflective surface of mirror 22 is variable.
  • Lens 23 is optically connected to mirror 22.
  • Condenser lens 24 is optically connected to lens 23.
  • the lens 23 and the condenser lens 24 constitute, for example, a 4f optical system.
  • the lens 23 and the condenser lens 24 irradiate light onto the observation target S from a light irradiation direction that corresponds to the orientation of the reflective surface of the mirror 22 .
  • the objective lens 25 is optically connected to the condenser lens 24.
  • An observation target S is placed between the objective lens 25 and the condenser lens 24.
  • the objective lens 25 receives the light (object light) output from the condenser lens 24 and passed through the observation target S, and outputs the light to
  • the beam splitter 41 is optically connected to the objective lens 25 and is also optically connected to the light output end 19.
  • the beam splitter 41 combines the light output from the objective lens 25 (object light) and the light output from the light output end 19 (reference light), and outputs both lights to the lens 42. do.
  • the lens 42 is optically connected to the beam splitter 41 and collimates each of the object light and reference light arriving from the beam splitter 41 and outputs the collimated light to the imaging section 43 .
  • the imaging unit 43 is optically connected to the lens 42 and captures an interference fringe image (interference intensity image) resulting from interference between the object light and the reference light that have arrived from the lens 42 .
  • the direction of incidence of the reference light is inclined with respect to the direction of incidence of the object light onto the imaging surface of the imaging unit 43 .
  • the position where the object beam and the reference beam are combined by the beam splitter 41 may be at a later stage than the imaging lens, but considering the influence of aberration, the position where the object beam and the reference beam are combined by the beam splitter 41 may be at a position where the objective lens 25 and the lens 42 are combined as shown in the figure. It is desirable that it be between .
  • the analysis unit 50 is electrically connected to the imaging unit 43 and inputs the interference intensity image captured by the imaging unit 43.
  • the analysis unit 50 calculates the three-dimensional refractive index distribution of the observation target S by processing the input interference intensity image.
  • the analysis unit 50 may be a computer.
  • the analysis unit 50 includes an interference intensity image acquisition unit 51, a first complex amplitude image generation unit 52, a second complex amplitude image generation unit 53, a two-dimensional phase image generation unit 54, a three-dimensional phase image generation unit 55, and a refractive index distribution calculation unit. 56, a display section 57, and a storage section 58.
  • the interference intensity image acquisition unit 51 irradiates the observation object S with light along each of a plurality of light irradiation directions by changing the orientation of the reflective surface of the mirror 22. Further, the interference intensity image acquisition unit 51 acquires interference intensity images at the reference position for each of the plurality of light irradiation directions from the imaging unit 43.
  • the interference intensity image acquisition section 51 includes a CPU, has an output port for outputting a control signal for changing the orientation of the reflective surface of the mirror 22, and has an input port for inputting the interference intensity image from the imaging section 43. have There is no need to move the objective lens 25 in the optical axis direction.
  • the reference position is an image plane position that is in a conjugate relationship with the imaging plane of the imaging unit 43.
  • the first complex amplitude image generation section 52, the second complex amplitude image generation section 53, the two-dimensional phase image generation section 54, the three-dimensional phase image generation section 55, and the refractive index distribution calculation section 56 perform processing based on the interference intensity image. It includes a processing device such as a CPU, GPU, DSP, or FPGA.
  • the display unit 57 displays images to be processed, images being processed, images after processing, and the like, and includes, for example, a liquid crystal display.
  • the storage unit 58 stores various types of image data, and includes a hard disk drive, flash memory, RAM, ROM, and the like.
  • the first complex amplitude image generation section 52, the second complex amplitude image generation section 53, the two-dimensional phase image generation section 54, the three-dimensional phase image generation section 55, the refractive index distribution calculation section 56, and the storage section 58 are may be configured.
  • the storage unit 58 includes an interference intensity image acquisition unit 51, a first complex amplitude image generation unit 52, a second complex amplitude image generation unit 53, a two-dimensional phase image generation unit 54, a three-dimensional phase image generation unit 55, and a refractive index distribution calculation unit.
  • a program for causing the unit 56 to execute each process is also stored. This program may be stored in the storage unit 58 at the time of manufacturing or shipping the observation device 1A, or may be acquired via a communication line after shipping and stored in the storage unit 58, or a program may be stored in the storage unit 58 after shipping. What was recorded on the readable recording medium 2 may be stored in the storage unit 58.
  • the recording medium 2 is arbitrary, such as a flexible disk, CD-ROM, DVD-ROM, BD-ROM, or USB memory.
  • Figure A02 is a diagram showing the configuration of the observation device 1B.
  • the observation device 1B shown in FIG. A02 includes a lens 31, a mirror 32, a drive unit 33, a lens 34, etc. in addition to the configuration of the observation device 1A shown in FIG. A01.
  • the lens 31 is optically connected to the light output end 19 and collimates the light (reference light) output from the light output end 19 as divergent light.
  • the mirror 32 is optically connected to the lens 31 and reflects the light arriving from the lens 31 to the lens 34.
  • the lens 34 is optically connected to the mirror 32 and outputs the light arriving from the mirror 32 to the beam splitter 41.
  • the light output from the lens 34 is once condensed in front of the beam splitter 41, and then input to the beam splitter 41 as diverging light.
  • the beam splitter 41 combines the light output from the objective lens 25 (object light) and the light output from the lens 34 (reference light), makes both lights coaxial, and sends them to the lens 42. Output.
  • the imaging unit 43 captures an interference fringe image (interference intensity image) resulting from interference between the object light and the reference light that have arrived from the lens 42 .
  • the direction of incidence of the reference light is parallel to the direction of incidence of the object light onto the imaging surface of the imaging unit 43 .
  • the drive unit 33 moves the mirror 32 in a direction perpendicular to the reflective surface of the mirror 32.
  • the drive unit 33 is, for example, a piezo actuator.
  • the difference in optical path length (phase difference) between the object beam and the reference beam from the optical branching at the fiber coupler 15 to the combining at the beam splitter 41 is changed.
  • this optical path length difference differs, the interference intensity images captured by the imaging section 43 also differ.
  • the observation device is not limited to the configuration examples shown in Figures A01 and A02, and various modifications are possible.
  • the configurations of the observation device 1A and observation device 1B the object light transmitted through the observation target S is observed, but as in the configuration of the observation device 1C described below, the object light reflected by the observation target S is observed. Good too.
  • Figure A03 is a diagram showing the configuration of the observation device 1C.
  • the observation device 1C includes a light source 11, a lens 12, a lens 21, a mirror 22, a lens 23, an objective lens 25, a beam splitter 41, a lens 42, an imaging section 43, an analysis section 50, and the like.
  • a beam splitter 41 a lens 42
  • an imaging section 43 an analysis section 50, and the like.
  • the lens 21 is optically connected to the light output end 18 of the optical fiber 16 and collimates the light output from the light output end 18 as divergent light.
  • the mirror 22 is optically connected to the lens 21 and reflects the light arriving from the lens 21 to the lens 23.
  • the orientation of the reflective surface of mirror 22 is variable.
  • Lens 23 is optically connected to mirror 22.
  • Objective lens 25 is optically connected to lens 23.
  • a beam splitter 41 is arranged between the lens 23 and the objective lens 25.
  • the lens 23 and the objective lens 25 constitute, for example, a 4f optical system.
  • the lens 23 and the objective lens 25 irradiate light onto the observation target S from a light irradiation direction that corresponds to the orientation of the reflective surface of the mirror 22 .
  • the objective lens 25 inputs the light reflected by the observation target S (object light) and outputs the light to the beam splitter 41 .
  • the beam splitter 41 is optically connected to the objective lens 25 and also to the light output end 19 of the optical fiber 17.
  • the beam splitter 41 combines the light output from the objective lens 25 (object light) and the light output from the light output end 19 (reference light), and outputs both lights to the lens 42. do.
  • the lens 42 is optically connected to the beam splitter 41 and collimates each of the object light and reference light arriving from the beam splitter 41 and outputs the collimated light to the imaging section 43 .
  • the imaging unit 43 is optically connected to the lens 42 and captures an interference fringe image (interference intensity image) resulting from interference between the object light and the reference light that have arrived from the lens 42 .
  • the direction of incidence of the reference light is inclined with respect to the direction of incidence of the object light onto the imaging surface of the imaging unit 43 .
  • the position where the object beam and the reference beam are combined by the beam splitter 41 may be at a later stage than the imaging lens, but considering the influence of aberration, the position where the object beam and the reference beam are combined by the beam splitter 41 may be at a position where the objective lens 25 and the lens 42 are combined as shown in the figure. It is desirable that it be between .
  • a mechanism for changing the optical path length of the reference light (lens 31, mirror 32, drive unit 33, and lens 34 in Figure A02) is provided similarly to the observation device 1B ( Figure A02).
  • the difference in optical path length (phase difference) between the object beam and the reference beam from optical branching at the fiber coupler 15 to combining at the beam splitter 41 may be changed.
  • the direction of incidence of the reference light may be parallel to the direction of incidence of the object light onto the imaging surface of the imaging unit 43.
  • FIG. A04 is a flowchart of refractive index distribution measurement method A.
  • This refractive index distribution measuring method A is possible when using any of the observation devices 1A to 1C.
  • This refractive index distribution measurement method A includes an interference intensity image acquisition step S1, a first complex amplitude image generation step S2, a second complex amplitude image generation step S3, a two-dimensional phase image generation step S4, a three-dimensional phase image generation step S5, and A refractive index distribution calculation step S6 is provided.
  • the process of interference intensity image acquisition step S1 is performed by the interference intensity image acquisition section 51.
  • the process of the first complex amplitude image generation step S2 is performed by the first complex amplitude image generation section 52.
  • the second complex amplitude image generation step S3 is performed by the second complex amplitude image generation section 53.
  • the two-dimensional phase image generation step S4 is performed by the two-dimensional phase image generation section 54.
  • the three-dimensional phase image generation step S5 is performed by the three-dimensional phase image generation section 55.
  • the process of refractive index distribution calculation step S6 is performed by the refractive index distribution calculation unit 56.
  • the interference intensity image acquisition unit 51 irradiates the observation object S with light along each of a plurality of light irradiation directions by changing the orientation of the reflective surface of the mirror 22. Then, the interference intensity image acquisition unit 51 acquires interference intensity images at the reference position for each of the plurality of light irradiation directions from the imaging unit 43.
  • FIGS. A01 to A03 an xyz orthogonal coordinate system is shown for convenience of explanation.
  • the z-axis is parallel to the optical axis of the objective lens 25.
  • the direction of light irradiation onto the observation target S can be expressed by k x and k y of the wave number vectors (k x , k y , k z ) of the irradiated light.
  • FIGS. A05(a) to A05(c) are diagrams showing examples of scanning in the direction of light irradiation onto the observation target S in the interference intensity image acquisition step S1.
  • the position of each circle mark represents the light irradiation direction on a k x y plane with k x on the horizontal axis and ky on the vertical axis.
  • the scanning in the light irradiation direction may be arranged in a rectangular grid on the k x y plane as shown in Figure A05(a), or may be arranged in a rectangular grid pattern as shown in Figure A05(b).
  • each of a plurality of concentric circles in the k x k y plane may be arranged in a spiral shape in the k x k y plane as shown in Figure A05(c). It may be arranged as follows. In either case, scanning in the light irradiation direction is possible as long as the numerical aperture (NA) of the condenser lens 24 allows. Either raster scan or random scan may be used. In the case of raster scanning, there may or may not be a return scan.
  • NA numerical aperture
  • the first complex amplitude image generation section 52 determines the reference position based on the interference intensity image of the reference position acquired by the interference intensity image acquisition section 51 for each of the plurality of light irradiation directions. generate a complex amplitude image.
  • the first complex amplitude image generation unit 52 In the case of the observation device 1A ( Figure A01) and the observation device 1C ( Figure A03), the first complex amplitude image generation unit 52 generates a complex amplitude image based on one interference intensity image using the Fourier fringe analysis method. can do.
  • the first complex amplitude image generation unit 52 uses a phase shift method to generate three or more images with different optical path length differences (phase differences) between the object beam and the reference beam. A complex amplitude image can be generated based on the interference intensity image.
  • the two-dimensional Fourier transform of the complex amplitude image u(x, y, 0) at the reference position is U(k x , k y , 0)
  • the complex amplitude image u(x, y, d) at the position z d
  • the two-dimensional Fourier transform U(k x , k y , d) of this complex amplitude image u( x , y , d) is expressed by the following formula. i is an imaginary unit, and k 0 is the wave number of light in the object to be observed.
  • the two-dimensional phase image generation section 54 In the two-dimensional phase image generation step S4, the two-dimensional phase image generation section 54 generates a two-dimensional phase image for each of the plurality of positions based on the complex amplitude images in each of the plurality of light irradiation directions generated by the second complex amplitude image generation section 53. Generate a dimensional phase image.
  • the two-dimensional phase image generated here corresponds to a phase image centered on the focused position in the z direction. Details of the two-dimensional phase image generation step S4 will be described later.
  • the processes after the two-dimensional phase image generation step S4 may be performed. Further, in a second complex amplitude image generation step S3, a complex amplitude image at a certain z-direction position is generated for each of the plurality of light irradiation directions, and a two-dimensional phase image at the position is generated in a two-dimensional phase image generation step S4.
  • the unit process may be performed repeatedly while scanning the position in the z direction. The latter case is advantageous in that the capacity of the image data that the storage unit 58 should store can be reduced.
  • the three-dimensional phase image generation section 55 In the three-dimensional phase image generation step S5, the three-dimensional phase image generation section 55 generates a three-dimensional phase image based on the two-dimensional phase images of each of the plurality of positions generated by the two-dimensional phase image generation section 54.
  • the three-dimensional phase image generated here is an image whose variables are the positions x and y in the two-dimensional phase image and the position z of the two-dimensional phase image.
  • the refractive index distribution calculation unit 56 calculates the three-dimensional refractive index distribution of the observation target by deconvolution based on the three-dimensional phase image generated by the three-dimensional phase image generation unit 55. If the refractive index distribution of the object to be observed is n (x, y, z), the electric susceptibility distribution is f (x, y, z), and the refractive index of the background medium is n m , then there is a relationship between the two. There is a relationship expressed by equation (3) below.
  • the three-dimensional phase image ⁇ (x, y, z) generated by the three-dimensional phase image generation unit 55 is expressed by the kernel function g(x, y, z) and the electric susceptibility distribution f( x, y, z). Therefore, the three-dimensional refractive index distribution n(x, y, z) of the observation target can be determined by deconvolution based on the three-dimensional phase image ⁇ (x, y, z).
  • FIG. A06 is a diagram illustrating the kernel function g.
  • the center position where the value of the kernel function g is the largest is the origin, the vertical direction is the z-axis, and the horizontal direction is the direction perpendicular to the z-axis.
  • each process of the first complex amplitude image generation step S2, the second complex amplitude image generation step S3, the two-dimensional phase image generation step S4, the three-dimensional phase image generation step S5, and the refractive index distribution calculation step S6 is performed by a predetermined number of steps. It may be performed each time the interference intensity image of each of the light irradiation directions is acquired in the interference intensity image acquisition step S1 ( Figure A07), or the interference intensity image of one light irradiation direction is acquired in the interference intensity image acquisition step S1. It may be performed each time it is acquired ( Figure A08).
  • Figures A07 and A08 are diagrams illustrating an example of scanning in the light irradiation direction to the observation target S in the interference intensity image acquisition step S1.
  • the position of each circle mark represents the light irradiation direction on the k x ky plane with the horizontal axis as k x and the vertical axis as k y .
  • the light irradiation direction is changed sequentially, and the light irradiation direction when acquiring the (N+n)th interference intensity image is changed to the light irradiation direction when acquiring the nth interference intensity image. It matches the irradiation direction.
  • n is a positive integer
  • N is an integer of 2 or more.
  • each process of steps S2 to S6 is performed based on these first to Nth interference intensity images. is performed ( Figure A07(a)).
  • the (N+1)th to 2Nth interference intensity images are acquired in the interference intensity image acquisition step S1
  • each process of steps S2 to S6 is performed based on these (N+1)th to 2Nth interference intensity images. This is done ( Figure A07(b)).
  • the (2N+1)th to 3Nth interference intensity images are acquired in the interference intensity image acquisition step S1
  • each process of steps S2 to S6 is performed based on these (2N+1)th to 3Nth interference intensity images. It will be done. The same applies thereafter.
  • each process of steps S2 to S6 is performed based on these first to Nth interference intensity images. is performed ( Figure A08(a)).
  • the most recent N interference intensity images (second to (N+1)th )
  • the respective processes of steps S2 to S6 are performed based on the interference intensity image of ) (FIG. A08(b)).
  • each time an interference intensity image in one light irradiation direction is acquired in the interference intensity image acquisition step S1 the Since each process in steps S2 to S6 is performed based on a plurality of interference intensity images, a large number of images can be obtained per unit time by each process in steps S2 to S6.
  • the two-dimensional phase image generation section 54 generates a two-dimensional phase image for each of the plurality of positions based on the complex amplitude images in each of the plurality of light irradiation directions generated by the second complex amplitude image generation section 53. Generate a dimensional phase image.
  • the two-dimensional phase image generation step S4 differs depending on which of the refractive index distribution measurement methods A1 to A3 is used.
  • FIG. A09 is a flowchart of the two-dimensional phase image generation step S4 in the refractive index distribution measurement method A1.
  • the two-dimensional phase image generation step S4 in the refractive index distribution measurement method A1 corrects the phase of the complex amplitude image for each of the plurality of light irradiation directions based on the light irradiation direction in step S11 for each of the plurality of positions, and then A complex amplitude summation image representing the summation of the corrected complex amplitude images is generated, and in step S12, a two-dimensional phase image is generated based on this complex amplitude summation image.
  • step S11 is CASS (Collective Accumulation of Single Scattering) (Sungsam Kang, et al, “Imaging deep with a scattering medium using collective accumulation of single-scattered waves,” NATURE PHOTONICS, Vol.9, pp.253-258 (2015).) technology.
  • CASS Cold Accumulation of Single Scattering
  • the spatial frequency distribution of single scattered light that interacts with the object only once shifts depending on the light irradiation direction.
  • the spatial frequency distribution of multiple scattered light that has interacted with the object multiple times changes randomly depending on the direction of light irradiation.
  • the CASS technique utilizes the difference in the light irradiation direction dependence of the spatial frequency distribution of single scattered light and multiple scattered light.
  • step S11 the phase of the complex amplitude image in each of the plurality of light irradiation directions is corrected based on the light irradiation direction (that is, the spatial frequency distribution of the complex amplitude image is translated in parallel according to the light irradiation direction in the spatial frequency domain).
  • the spatial frequency distribution of the single scattered light component in the complex amplitude image can be made into a shape and arrangement that does not depend on the light irradiation direction, while the spatial frequency distribution of the multiple scattered light component in the complex amplitude image can be have a random shape and arrangement.
  • step S11 a complex amplitude summation image representing the sum of the plurality of complex amplitude images after correction is generated (that is, by performing synthetic aperture processing), the single scattered light component of the complex amplitude image is They are coherently added together while causing the multiple scattered light components of the complex amplitude image to cancel each other out.
  • the complex amplitude summation image generated in step S11 is one in which the influence of multiple scattered light is reduced.
  • the influence of multiple scattered light is reduced, speckles are suppressed, and the single-scattering to multiple scattering ratio (Single-scattering to Multi-scattering ratio) is reduced.
  • the scattering ratio (SMR) is improved.
  • FIG. A10 is a flowchart of the two-dimensional phase image generation step S4 in the refractive index distribution measurement method A2.
  • a complex differential interference image of each of the plurality of light irradiation directions is generated based on the complex amplitude image of each of the plurality of light irradiation directions.
  • a phase differential image is generated based on the sum of complex differential interference images for each of a plurality of light irradiation directions
  • a two-dimensional phase image is generated based on the phase differential image.
  • phase differential image ⁇ (x, y, z) generated in step S22 is q sum (x , y, d) is expressed by the following equation (7).
  • step S23 a two-dimensional phase image can be generated by integrating or deconvoluting this phase differential image ⁇ (x, y, z).
  • step S21 complex differential interference images may be generated for each of a plurality of mutually different shear directions on the complex amplitude image.
  • step S21 a plurality of light beams are generated for each of the plurality of mutually different shear directions on the image based on the complex amplitude image of each of the plurality of light irradiation directions.
  • a complex differential interference image is generated for each of the irradiation directions, and in step S22, a phase differential image is generated for each of the plurality of shear directions based on the sum of the complex differential interference images for each of the plurality of light irradiation directions, and in step S23, A two-dimensional phase image is generated based on phase differential images in each of a plurality of shear directions.
  • the phase differential image generated in step S22 based on the sum of the complex differential interference images of each of the plurality of light irradiation directions is one in which the influence of multiple scattered light is reduced.
  • the three-dimensional refractive index distribution finally obtained in the refractive index distribution calculation step S6 also has the influence of multiple scattered light reduced and speckles suppressed. Furthermore, when generating complex differential interference images for each of a plurality of mutually different shear directions on the complex amplitude image in step S21, it is necessary to suppress the appearance of line-shaped noise in the two-dimensional phase image obtained in step S23. Can be done.
  • phase differential image is generated by integrating or deconvoluting the phase differential image in step S23.
  • the phase differential image can also be treated as a two-dimensional phase image.
  • the phase differential generated in step S22 is The three-dimensional refractive index distribution of the observation target can be determined from the image (two-dimensional phase image).
  • the kernel shown in FIG. A11 is obtained by convolving and integrating the kernel shown in FIG. A06 and the kernel used in the deconvolution in step S23.
  • FIG. A12 is a flowchart of the two-dimensional phase image generation step S4 in the refractive index distribution measurement method A3.
  • the complex amplitude images of each of the plurality of light irradiation directions are divided into a plurality of batches, and for each of the plurality of batches, After correcting the phase of the complex amplitude images included in the batch based on the light irradiation direction, a complex amplitude summation image representing the sum of these corrected complex amplitude images is generated, and in step S32, the complex amplitude images of each of the plurality of batches are A complex differential interference image of each of the plurality of batches is generated based on the amplitude summation image, a phase differential image is generated in step S33 based on the summation of the complex differential interference images of each of the plurality of batches, and a phase differential image is generated in step S34.
  • a complex differential interference image of each of the plurality of batches is generated based on the amplitude summation image
  • step S31 of the refractive index distribution measurement method A3 is performed by dividing the complex amplitude images of each of the plurality of light irradiation directions into a plurality of batches, and then performing the process of step S11 of the refractive index distribution measurement method A1 for each of the plurality of batches. It corresponds to doing.
  • the processing in steps S32 and S33 of the refractive index distribution measurement method A3 corresponds to performing the processing in steps S21 and S22 of the refractive index distribution measurement method A2 for each of a plurality of batches.
  • the processing in step S34 of the refractive index distribution measurement method A3 corresponds to performing the processing in step S23 of the refractive index distribution measurement method A2.
  • step S32 complex differential interference images may be generated for each of a plurality of mutually different shear directions on the complex amplitude image.
  • the two-dimensional phase image generation step S4 generates a complex differential interference image of each of the plurality of batches for each of the plurality of mutually different shear directions on the image based on the complex amplitude summation image of each of the plurality of batches.
  • step S33 a phase differential image is generated for each of the plurality of shear directions based on the sum of the complex differential interference images of each of the plurality of batches, and in step S34, a phase differential image is generated based on the sum of the complex differential interference images of each of the plurality of shear directions. to generate a two-dimensional phase image.
  • Suppression of speckles in refractive index distribution measuring method A3 is comparable to that in refractive index distribution measuring method A1 and refractive index distribution measuring method A2.
  • the SMR improvement in refractive index distribution measurement method A3 is intermediate between that in refractive index distribution measurement method A1 and refractive index distribution measurement method A2.
  • phase differential image can also be treated as a two-dimensional phase image.
  • the phase differential image without performing step S34, in the deconvolution of refractive index distribution calculation step S6, the phase differential image (two-dimensional The three-dimensional refractive index distribution of the object to be observed can be determined from the phase image).
  • Figures B01 to B03 are diagrams showing the respective configurations of observation devices 1D to 1F that can be used when measuring the refractive index distribution by the refractive index distribution measuring method B.
  • the observation device 1D shown in FIG. B01 has the same optical system from the light source 11 to the imaging section 43, but the analysis section 50 is The difference is that an analysis section 60 is provided.
  • the observation device 1E shown in FIG. B02 has the same optical system from the light source 11 to the imaging section 43, but the analysis section 50 is The difference is that an analysis section 60 is provided.
  • the observation device 1F shown in FIG. B03 has the same optical system from the light source 11 to the imaging section 43 when compared with the configuration of the observation device 1C shown in FIG. The difference is that an analysis section 60 is provided.
  • the analysis unit 60 is electrically connected to the imaging unit 43 and inputs the interference intensity image captured by the imaging unit 43.
  • the analysis unit 60 calculates the three-dimensional refractive index distribution of the observation target S by processing the input interference intensity image.
  • the analysis unit 60 may be a computer.
  • the analysis unit 60 includes an interference intensity image acquisition unit 61, a first complex amplitude image generation unit 62, a second complex amplitude image generation unit 63, a phase conjugate calculation unit 64, a two-dimensional phase image generation unit 65, and a three-dimensional phase image generation unit. 66, a refractive index distribution calculation section 67, a display section 68, and a storage section 69.
  • the interference intensity image acquisition unit 61 irradiates the observation object S with light along each of a plurality of light irradiation directions by changing the orientation of the reflective surface of the mirror 22. Further, the interference intensity image acquisition unit 61 acquires interference intensity images at the reference position for each of the plurality of light irradiation directions from the imaging unit 43.
  • the interference intensity image acquisition section 61 includes a CPU, has an output port for outputting a control signal for changing the direction of the reflective surface of the mirror 22, and has an input port for inputting the interference intensity image from the imaging section 43. have There is no need to move the objective lens 25 in the optical axis direction.
  • the reference position is an image plane position that is in a conjugate relationship with the imaging plane of the imaging unit 43.
  • the first complex amplitude image generation unit 62, the second complex amplitude image generation unit 63, the phase conjugate calculation unit 64, the two-dimensional phase image generation unit 65, the three-dimensional phase image generation unit 66, and the refractive index distribution calculation unit 67 It performs processing based on images, and includes a processing device such as a CPU, GPU, DSP, or FPGA.
  • the display unit 68 displays images to be processed, images being processed, images after processing, and the like, and includes, for example, a liquid crystal display.
  • the storage unit 69 stores various types of image data, and includes a hard disk drive, flash memory, RAM, ROM, and the like.
  • First complex amplitude image generation section 62, second complex amplitude image generation section 63, phase conjugate calculation section 64, two-dimensional phase image generation section 65, three-dimensional phase image generation section 66, refractive index distribution calculation section 67, and storage section 69 may be configured by cloud computing.
  • the storage unit 69 includes an interference intensity image acquisition unit 61, a first complex amplitude image generation unit 62, a second complex amplitude image generation unit 63, a phase conjugate calculation unit 64, a two-dimensional phase image generation unit 65, and a three-dimensional phase image generation unit. It also stores programs for causing the refractive index distribution calculation unit 66 and the refractive index distribution calculation unit 67 to execute each process. This program may be stored in the storage unit 69 at the time of manufacturing or shipping the observation devices 1D to 1F, or may be acquired via a communication line after shipping and stored in the storage unit 69. , what was recorded on the computer-readable recording medium 2 may be stored in the storage unit 69.
  • the recording medium 2 is arbitrary, such as a flexible disk, CD-ROM, DVD-ROM, BD-ROM, or USB memory.
  • Interference intensity image acquisition unit 61 First complex amplitude image generation unit 62, second complex amplitude image generation unit 63, phase conjugate calculation unit 64, two-dimensional phase image generation unit 65, three-dimensional phase image generation unit 66, and refractive index distribution Details of the processing of each calculation unit 67 will be described later.
  • FIG. B04 is a flowchart of refractive index distribution measurement method B.
  • This refractive index distribution measuring method B is possible when using any of the observation devices 1D to 1F.
  • This refractive index distribution measurement method B includes an interference intensity image acquisition step S61, a first complex amplitude image generation step S62, a second complex amplitude image generation step S63, a phase conjugate calculation step S64, a two-dimensional phase image generation step S65, and a three-dimensional It includes a phase image generation step S66 and a refractive index distribution calculation step S67.
  • the process of interference intensity image acquisition step S61 is performed by the interference intensity image acquisition unit 61.
  • the process of the first complex amplitude image generation step S62 is performed by the first complex amplitude image generation section 62.
  • the second complex amplitude image generation step S63 is performed by the second complex amplitude image generation section 63.
  • the phase conjugate calculation step S64 is performed by the phase conjugate calculation unit 64.
  • the two-dimensional phase image generation step S65 is performed by the two-dimensional phase image generation section 65.
  • the three-dimensional phase image generation step S66 is performed by the three-dimensional phase image generation section 66.
  • the process of refractive index distribution calculation step S67 is performed by the refractive index distribution calculation unit 67.
  • the interference intensity image acquisition unit 61 irradiates the observation object S with light along each of the plurality of light irradiation directions by changing the orientation of the reflective surface of the mirror 22. Then, the interference intensity image acquisition unit 61 acquires interference intensity images at the reference position for each of the plurality of light irradiation directions from the imaging unit 43.
  • the first complex amplitude image generation section 62 determines the reference position based on the interference intensity image of the reference position acquired by the interference intensity image acquisition section 61 for each of the plurality of light irradiation directions. generate a complex amplitude image.
  • the first complex amplitude image generation unit 62 generates a complex amplitude image based on one interference intensity image using the Fourier fringe analysis method. can do.
  • the first complex amplitude image generation unit 62 uses a phase shift method to generate three or more images with different optical path length differences (phase differences) between the object beam and the reference beam.
  • a complex amplitude image can be generated based on the interference intensity image.
  • the interference intensity image acquisition step S61, the first complex amplitude image generation step S62, and the second complex amplitude image generation step S63 in the refractive index distribution measurement method B are respectively the interference intensity image acquisition step S1 and the first complex amplitude image generation step S63 in the refractive index distribution measurement method A. Processing similar to the first complex amplitude image generation step S2 and the second complex amplitude image generation step S3 is performed.
  • the phase conjugate calculation step S64 is performed after the second complex amplitude image generation step S63.
  • the phase conjugate calculation step S64 may be performed before the second complex amplitude image generation step S63 (described later). Further, when the second complex amplitude image generation step S63 generates a complex amplitude image at a certain z position from the complex amplitude image at the reference position through a plurality of stages, one stage and the next stage of the plurality of stages A phase conjugate calculation step S64 may be performed between (described later).
  • phase conjugate calculation unit 64 performs a phase conjugate calculation on the complex amplitude images of each of the plurality of irradiation directions to obtain a plurality of complex amplitude images when the relationship between light irradiation and imaging with respect to the observation object is reversed. A complex amplitude image is generated for each irradiation direction.
  • phase conjugate operation is an operation on a complex amplitude image based on the phase conjugate method, in which a transmission matrix representing the relationship between light irradiation and light output on the object is calculated, and its inverse matrix calculation and coordinate It is an operation involving conversion.
  • Phase conjugation methods include phase conjugation, time reversal method, time reversal, digital phase conjugation, and digital phase conjugation. It is called conjugate method (digital phase conjugate method) etc. In some cases. Details will be described later.
  • the two-dimensional phase image generation section 65 In the two-dimensional phase image generation step S65, the two-dimensional phase image generation section 65 generates complex complex signals in each of the plurality of light irradiation directions generated by the second complex amplitude image generation section 63 or the phase conjugate calculation section 64 for each of the plurality of positions.
  • a two-dimensional phase image is generated based on the amplitude image.
  • the two-dimensional phase image generated here corresponds to a phase image centered on the focused position in the z direction.
  • the phase image generated based on the complex amplitude image before the process of the phase conjugate calculation step S64 is set as a first phase image, and the phase image is obtained by performing the process of the phase conjugate calculation step S64.
  • the phase image generated based on the complex amplitude image is the second phase image, among the plurality of positions, for positions relatively close to the imaging unit, the two-dimensional phase image is mainly based on the first phase image. , and for positions relatively far from the imaging unit, two-dimensional phase images are generated mainly based on the second phase image.
  • the processes after the phase conjugate calculation step S64 may be performed. Further, in a second complex amplitude image generation step S63, a complex amplitude image at a certain z-direction position is generated for each of the plurality of light irradiation directions, and a two-dimensional phase image at the position is generated in a two-dimensional phase image generation step S65.
  • the unit process may be performed repeatedly while scanning the position in the z direction. The latter case is advantageous in that the capacity of the image data that the storage unit 69 should store can be reduced.
  • the three-dimensional phase image generation section 66 generates a three-dimensional phase image based on the two-dimensional phase images of each of the plurality of positions generated by the two-dimensional phase image generation section 65.
  • the three-dimensional phase image generated here is an image whose variables are the positions x and y in the two-dimensional phase image and the position z of the two-dimensional phase image.
  • the refractive index distribution calculation unit 67 calculates the three-dimensional refractive index distribution of the observation target by deconvolution based on the three-dimensional phase image generated by the three-dimensional phase image generation unit 66.
  • Two-dimensional phase image generation step S65, three-dimensional phase image generation step S66, and refractive index distribution calculation step S67 in refractive index distribution measurement method B are respectively two-dimensional phase image generation step S4 and three-dimensional phase image generation step S67 in refractive index distribution measurement method A. Processing similar to phase image generation step S5 and refractive index distribution calculation step S6 is performed.
  • FIG. B05 is a diagram illustrating the order and images of each process of the second complex amplitude image generation step S63 and the two-dimensional phase image generation step S65. This figure shows a mode in which the phase conjugate calculation step S64 is not performed.
  • the first complex amplitude image is generated in the first complex amplitude image generation step S62 using the free propagation equations of equations (1) and (2) above for each of the plurality of light irradiation directions.
  • a complex differential interference image is generated for each of the plurality of positions based on the complex amplitude images in each of the plurality of light irradiation directions generated in the second complex amplitude image generation step S63. , and a phase differential image is generated.
  • Figures B06 to B08 are diagrams for explaining the processing order and images of the second complex amplitude image generation step S63, the phase conjugate calculation step S64, and the two-dimensional phase image generation step S65. These figures show a mode in which the process of the phase conjugate calculation step S64 is performed before, during, or after the process of the second complex amplitude image generation step S63.
  • the first aspect shown in FIG. B06 corresponds to the flowchart in FIG. B04.
  • the phase conjugate calculation step S64 is performed after the second complex amplitude image generation step S63.
  • a phase conjugate calculation step S64 a phase conjugate calculation is performed on the complex amplitude images in each of the plurality of irradiation directions for each of the plurality of positions, thereby controlling the light irradiation and imaging of the observation target.
  • Complex amplitude images are generated for each of the plurality of irradiation directions when the relationship is reversed.
  • a complex differential interference image is generated for each of the plurality of positions based on the complex amplitude images of each of the plurality of light irradiation directions generated in the phase conjugate calculation step S64, and the phase A differential image is generated.
  • phase conjugate calculation step S64 is performed before the second complex amplitude image generation step S63.
  • Complex amplitude images are generated for each of a plurality of irradiation directions when the relationship between light irradiation and imaging of the object is reversed.
  • a second complex amplitude image generation step S63 images are generated in a phase conjugate calculation step S64 using the free propagation equations of equations (1) and (2) above for each of the plurality of light irradiation directions.
  • a complex differential interference image is generated for each of the plurality of positions based on the complex amplitude images in each of the plurality of light irradiation directions generated in the second complex amplitude image generation step S63.
  • a phase differential image is generated.
  • the second complex amplitude image generation step S63 when the second complex amplitude image generation step S63 generates complex amplitude images at each of a plurality of positions through two stages from the complex amplitude image at the reference position, the two stages A phase conjugate calculation step S64 is performed between the first stage and the second stage.
  • the first complex amplitude image is generated using the free propagation equations of equations (1) and (2) above for each of the plurality of light irradiation directions.
  • a phase conjugate calculation step S64 a phase conjugate calculation is performed on the complex amplitude images of each of the plurality of irradiation directions to calculate the plurality of irradiation directions when the relationship between light irradiation and imaging on the observation target is reversed. Respective complex amplitude images are generated.
  • phase conjugation is performed using the free propagation equations of equations (1) and (2) for each of the plurality of light irradiation directions.
  • a complex differential interference image is generated for each of the plurality of positions based on the complex amplitude images in each of the plurality of light irradiation directions generated in the second complex amplitude image generation step S63. , and a phase differential image is generated.
  • the number of times the phase conjugate calculation is performed on the complex amplitude image in the phase conjugate calculation step S64 differs between the first, second, and third aspects.
  • the entire processing time of the phase conjugate calculation step S64 is shorter in the third mode than in the first mode, and even shorter in the second mode.
  • FIG. B09 is a diagram illustrating the order and images of each process of the three-dimensional phase image generation step S66 and the refractive index distribution calculation step S67.
  • a three-dimensional phase image is generated based on the two-dimensional phase images of each of the plurality of positions generated in the two-dimensional phase image generation step S65.
  • a two-dimensional phase image generated based on the complex amplitude image before processing in phase conjugate calculation step S64 (a two-dimensional phase image generated in the manner shown in FIG. B05) is used. (phase image) is mainly employed.
  • a two-dimensional phase image (one of the modes shown in Figures B06 to B08) generated based on the complex amplitude image after performing the process of phase conjugate calculation step S64
  • a two-dimensional phase image (generated in Subsequently, in a refractive index distribution calculation step S67, a three-dimensional refractive index distribution of the observation target is determined by deconvolution based on the three-dimensional phase image generated in the three-dimensional phase image generation step S66.
  • each piece of refractive index distribution data that makes up the three-dimensional refractive index distribution (for example, two-dimensional refractive index distribution data that makes up the three-dimensional refractive index distribution in FIG. B09) can be refractive index tomographic data.
  • phase image generated based on the complex amplitude image before the process of phase conjugate calculation step S64 (the phase image generated in the manner shown in FIG. B05) is defined as a first phase image ⁇ 1 .
  • a phase image generated based on the complex amplitude image after performing the process of phase conjugate calculation step S64 (a phase image generated in any of the modes shown in FIGS. B06 to B08) is defined as a second phase image ⁇ 2 .
  • a weighting function ⁇ whose differential coefficient with respect to a variable z representing the distance from the imaging unit along the light propagation path is 0 or less is used. The value of the weighting function is 0 or more and 1 or less.
  • the weighting function ⁇ has a positive value (for example, 1) in the range where z is less than or equal to the threshold value z th and has a value of 0 in the other range. That is, the two-dimensional phase image is expressed by the following equation (8).
  • the weighting function ⁇ has a value depending on the position (x, y) in a plane perpendicular to the optical axis (z direction). That is, the two-dimensional phase image is expressed by the following equation (10).
  • FIG. B10 is a diagram showing input light U in ( kin ) and output light U out (r out ) when an interference intensity image is captured by the imaging unit.
  • U in ( kin ) represents the complex amplitude of the wave number k in of the light irradiated onto the observation target.
  • u out (r out ) represents the complex amplitude of the light output from the observation object at the position r out .
  • the relationship between U in ( kin ) and u out (r out ) is expressed by the following equation (11).
  • the n-th element U in ( kin n ) of the column vector U in represents the complex amplitude of a plane wave with wave number k in n .
  • the n-th element u out (r out n ) of the column vector u out represents the complex amplitude of light observed at the position r out n .
  • the matrix T (r out , k in ) with N rows and N columns represents a linear relationship between U in (k in ) and u out (r out ), and is called a transmission matrix.
  • Such a transmission matrix can represent the light scattering process in the observed object.
  • the elements T n1, n2 in the n1th row and n2th column of the matrix T (r out , k in ) are the complex values of light observed at the position r out n1 when a plane wave with a wave number k in n2 and an amplitude of 1 is input. Represents amplitude.
  • FIG. B11 is a diagram showing input light U out (k out ) and output light U in (r in ) when the relationship between light irradiation and imaging is reversed.
  • U out (k out ) represents the complex amplitude of the wave number k out of the light irradiated onto the observation target.
  • u in (r in ) represents the complex amplitude of the light output from the observation object at the position r in .
  • the relationship between U out (k out ) and u in (r in ) is expressed by equation (12) below.
  • the n-th element U out (k out n ) of the column vector U out represents the complex amplitude of a plane wave of wave number k out n .
  • the n-th element u in (r in n ) of the column vector u in represents the complex amplitude of light observed at position r in n .
  • the matrix S (r in , k out ) with N rows and N columns expresses the linear relationship between U out (k out ) and u in (r in ), and expresses the relationship between light irradiation and imaging. This is the transmission matrix when reversed.
  • U in (k in ) is expressed by Fourier transform of u in (r in ) as shown in equation (13) below.
  • U out (k out ) is expressed by Fourier transform of u out (r out ) as shown in equation (14) below.
  • the transmission matrix S(r in , k out ) when the relationship between light irradiation and imaging is reversed is a matrix representing the inverse Fourier transform and the transmission matrix T(r out , k in ) is expressed by the following equation (15).
  • phase conjugate calculation step S64 first, based on the complex amplitude image, a transmission matrix T (r out , kin ) is obtained when the interference intensity image is captured by the imaging unit. Next, based on this transmission matrix T (r out , k in ) and the above equation (15), a transmission matrix S (r in , k out ) when the relationship between light irradiation and imaging is reversed is determined. Then, based on this transmission matrix S(r in , k out ), a complex amplitude image is obtained when the relationship between light irradiation and imaging is reversed.
  • the input light U out n (k out ) in the n-th light irradiation direction among the plurality of light irradiation directions is expressed by the following equation (20), and the n-th element Only the value of is 1, and the values of other elements are 0.
  • the output light u in n (r in ) for this input light U out n (k out ) is expressed by the following equation (21).
  • This equation (21) represents the complex amplitude when the relationship between light irradiation and imaging is reversed. In this way, a complex amplitude image can be obtained when the relationship between light irradiation and imaging is reversed.
  • the transmission matrix T needs to be a square matrix in which the number of row elements and the number of column elements are equal to each other. That is, the matrix dimension in the wave number space on the light irradiation side for the observation target in the interference intensity image acquisition step S61 and the number of pixels of the complex amplitude image need to be equal to each other.
  • the dimensions of the matrix in the wave number space on the light irradiation side for the observation target at the time of interference intensity image acquisition step S61 should be made to match the number of pixels, or a partial range of the image obtained by the imaging unit should be made equal to the number of pixels. It is sufficient to use only the images of , for subsequent processing. However, since the number of pixels of the image obtained by the imaging unit is generally 1024 ⁇ 1024, for example, it is not easy to make the dimension of the matrix in the wave number space on the light irradiation side for the observation object the same as the number of pixels. Furthermore, using only a partial range of the image obtained by the imaging unit for subsequent processing leads to a decrease in resolution.
  • phase conjugate calculation step S64 the complex amplitude image is divided into a plurality of partial images each having the same number of pixels as the dimension of the matrix in the wave number space on the light irradiation side for the observed object, and It is preferable to perform a phase conjugate operation on each of the plurality of partial images, and then combine the plurality of partial images. At this time, any two or more of the plurality of partial images may have a common area.
  • Figures C01 to C03 are diagrams showing the respective configurations of observation devices 1G to 1I that can be used when measuring the refractive index distribution by the refractive index distribution measuring method C.
  • the observation device 1G shown in FIG. The difference is that an analysis section 70 is provided.
  • the observation device 1H shown in FIG. C02 has the same optical system from the light source 11 to the imaging section 43 as compared to the configuration of the observation device 1B shown in FIG.
  • the difference is that an analysis section 70 is provided.
  • the observation device 1I shown in FIG. C03 has the same optical system from the light source 11 to the imaging section 43 when compared with the configuration of the observation device 1C shown in FIG.
  • an analysis section 70 is provided.
  • the analysis unit 70 is electrically connected to the imaging unit 43 and inputs the interference intensity image captured by the imaging unit 43.
  • the analysis unit 70 calculates a three-dimensional refractive index distribution of the observation target S by processing the input interference intensity image.
  • the analysis unit 70 may be a computer.
  • the analysis unit 70 includes an interference intensity image acquisition unit 71, a first complex amplitude image generation unit 72, a second complex amplitude image generation unit 73, a two-dimensional phase image generation unit 74, a three-dimensional phase image generation unit 75, and a refractive index distribution calculation unit. section 76 , a third complex amplitude image generation section 77 , a display section 78 , and a storage section 79 .
  • the interference intensity image acquisition unit 71 irradiates the observation object S with light along each of a plurality of light irradiation directions by changing the orientation of the reflective surface of the mirror 22. Further, the interference intensity image acquisition unit 71 acquires interference intensity images at the reference position for each of the plurality of light irradiation directions from the imaging unit 43.
  • the interference intensity image acquisition unit 71 includes a CPU, has an output port for outputting a control signal for changing the orientation of the reflective surface of the mirror 22, and has an input port for inputting the interference intensity image from the imaging unit 43. have There is no need to move the objective lens 25 in the optical axis direction.
  • the reference position is an image plane position that is in a conjugate relationship with the imaging plane of the imaging unit 43.
  • the first complex amplitude image generation section 72, the second complex amplitude image generation section 73, the two-dimensional phase image generation section 74, the three-dimensional phase image generation section 75, the refractive index distribution calculation section 76, and the third complex amplitude image generation section 77 are , which performs processing based on the interference intensity image, and includes a processing device such as a CPU, GPU, DSP, or FPGA.
  • the display unit 78 displays images to be processed, images being processed, images after processing, and the like, and includes, for example, a liquid crystal display.
  • the storage unit 79 stores various types of image data, and includes a hard disk drive, flash memory, RAM, ROM, and the like.
  • the storage unit 79 may be configured by cloud computing.
  • the storage unit 79 includes an interference intensity image acquisition unit 71, a first complex amplitude image generation unit 72, a second complex amplitude image generation unit 73, a two-dimensional phase image generation unit 74, a three-dimensional phase image generation unit 75, and a refractive index distribution calculation unit.
  • a program for causing the unit 76 and the third complex amplitude image generating unit 77 to execute each process is also stored.
  • This program may be stored in the storage unit 79 at the time of manufacturing or shipping the observation devices 1G to 1I, or may be acquired via a communication line after shipping and stored in the storage unit 79.
  • what was recorded on the computer-readable recording medium 2 may be stored in the storage unit 79.
  • the recording medium 2 is arbitrary, such as a flexible disk, CD-ROM, DVD-ROM, BD-ROM, or USB memory.
  • Interference intensity image acquisition section 71 First complex amplitude image generation section 72, second complex amplitude image generation section 73, two-dimensional phase image generation section 74, three-dimensional phase image generation section 75, refractive index distribution calculation section 76, and third Details of each process of the complex amplitude image generation section 77 will be described later.
  • FIGS C04 and C05 are flowcharts of refractive index distribution measurement method C.
  • Figure C05 shows a part of the flowchart of Figure C04.
  • This refractive index distribution measuring method C is possible when using any of the observation devices 1G to 1I.
  • This refractive index distribution measurement method C includes an interference intensity image acquisition step S71, a first complex amplitude image generation step S72, a second complex amplitude image generation step S73, a two-dimensional phase image generation step S74, a three-dimensional phase image generation step S75, It includes a refractive index distribution calculation step S76 and a third complex amplitude image generation step S77.
  • the process of interference intensity image acquisition step S71 is performed by the interference intensity image acquisition section 71.
  • the process of the first complex amplitude image generation step S72 is performed by the first complex amplitude image generation section 72.
  • the process of the second complex amplitude image generation step S73 is performed by the second complex amplitude image generation section 73.
  • the two-dimensional phase image generation step S74 is performed by the two-dimensional phase image generation section 74.
  • the three-dimensional phase image generation step S75 is performed by the three-dimensional phase image generation section 75.
  • the process of refractive index distribution calculation step S76 is performed by the refractive index distribution calculation unit 76.
  • the process of the third complex amplitude image generation step S77 is performed by the third complex amplitude image generation section 77.
  • the interference intensity image acquisition unit 71 irradiates the observation object S with light along each of the plurality of light irradiation directions by changing the orientation of the reflective surface of the mirror 22. Then, the interference intensity image acquisition unit 71 acquires interference intensity images at the reference position for each of the plurality of light irradiation directions from the imaging unit 43.
  • the first complex amplitude image generation section 72 In the first complex amplitude image generation step S72, the first complex amplitude image generation section 72 generates a complex amplitude image based on the interference intensity image acquired by the interference intensity image acquisition section 71 for each of the plurality of light irradiation directions. do. In the case of the observation device 1G ( Figure C01) and the observation device 1I ( Figure C03), the first complex amplitude image generation unit 72 generates a complex amplitude image based on one interference intensity image using the Fourier fringe analysis method. can do. In the case of the observation device 1H ( Figure C02), the first complex amplitude image generation unit 72 uses a phase shift method to generate three or more images with different optical path length differences (phase differences) between the object beam and the reference beam.
  • a complex amplitude image can be generated based on the interference intensity image.
  • the complex amplitude image generated in the first complex amplitude image generation step S72 may be at the same reference position as the interference intensity image, or may be at another position generated based on the complex amplitude image at the reference position. It may be.
  • the second complex amplitude image generation section 73 calculates the distance from the imaging section 43 along the light propagation path for each of the plurality of light irradiation directions based on the complex amplitude image at the first position. Then, complex amplitude images are generated at each of a plurality of z-direction positions from the first position to the second position.
  • the two-dimensional phase image generation section 74 In the two-dimensional phase image generation step S74, the two-dimensional phase image generation section 74 generates a two-dimensional phase image for each of the plurality of positions based on the complex amplitude images in each of the plurality of light irradiation directions generated by the second complex amplitude image generation section 73. Generate a dimensional phase image.
  • the two-dimensional phase image generated here corresponds to a phase image centered on the focused position in the z direction.
  • the three-dimensional phase image generation unit 75 generates images from the first position to the second position based on the two-dimensional phase images of each of the plurality of positions generated by the two-dimensional phase image generation unit 74.
  • a three-dimensional phase image between The three-dimensional phase image generated here is an image whose variables are the positions x and y in the two-dimensional phase image and the position z of the two-dimensional phase image.
  • the refractive index distribution calculation unit 76 calculates the distance between the first position and the second position by deconvolution based on the three-dimensional phase image generated by the three-dimensional phase image generation unit 75. Obtain the three-dimensional refractive index distribution of the object to be observed.
  • the distribution calculation step S76 includes an interference intensity image acquisition step S1, a first complex amplitude image generation step S2, a second complex amplitude image generation step S3, a two-dimensional phase image generation step S4, and a three-dimensional phase image generation step S4 in the refractive index distribution measurement method A, respectively. Processing substantially similar to phase image generation step S5 and refractive index distribution calculation step S6 is performed.
  • the third complex amplitude image generation unit 77 In the third complex amplitude image generation step S77, the third complex amplitude image generation unit 77 generates the complex amplitude image at the first position used in the second complex amplitude image generation step S73 and the refraction image for each of the plurality of light irradiation directions.
  • a complex amplitude image at the second position is generated based on the three-dimensional refractive index distribution of the observation object between the first position and the second position calculated in the index distribution calculation step S76.
  • step S83 which includes a second complex amplitude image generation step S73, a two-dimensional phase image generation step S74, a three-dimensional phase image generation step S75, and a refractive index distribution calculation step S76, the distance from the imaging unit 43 along the light propagation path is calculated.
  • a three-dimensional refractive index distribution of the observation target from the first position to the second position is determined based on the complex amplitude image at the first position.
  • Each process of step S83 and third complex amplitude image generation step S77 is performed repeatedly. This will be explained using Figures C04 to C07.
  • FIG. C06 is a diagram illustrating the relationship between the area including the observation target and the first to Jth blocks.
  • the area including the observation target is divided into first to Jth blocks in order based on the distance from the imaging unit along the light propagation path (z direction).
  • J 3.
  • FIG. C07 is a diagram illustrating the processing procedure in the first to J-th blocks.
  • step S83 based on the complex amplitude image at the first position, complex amplitude images at each of a plurality of z-direction positions from the first position to the second position are calculated.
  • a two-dimensional phase image is generated, a three-dimensional phase image is generated between the first position and the second position, and a three-dimensional refractive index distribution is determined.
  • a complex amplitude image at the second position is generated based on the complex amplitude image at the first position and the three-dimensional refractive index distribution calculated at step S83.
  • the complex amplitude image at the second position of the (j+1)th block generated in the third complex amplitude image generation step S77 is used as the complex amplitude image at the first position of the next jth block, and the complex amplitude image at the first position of the next jth block is Each process of S83 and third complex amplitude image generation step S77 is performed. Once the three-dimensional refractive index distribution is obtained for each of the first to J-th blocks, the three-dimensional refractive index distribution of the entire object to be observed can be obtained by combining them.
  • the three-dimensional refractive index distribution of each of the first to Jth blocks (for example, the refractive index distribution of the first block, the refractive index distribution of the second block, and the refractive index distribution of the third block in Figure C07) is the refractive index It can be fault data.
  • step S83 second complex amplitude image generation step S73, two-dimensional phase image generation step S74, three-dimensional phase image
  • the generation step S75, the refractive index distribution calculation step S76), and the third complex amplitude image generation step S77 are performed in order. After that, the process returns to step S82.
  • step S83 second complex amplitude image generation step S73 , two-dimensional phase image generation step S74, three-dimensional phase image generation step S75, refractive index distribution calculation step S76), and third complex amplitude image generation step S77 are performed in order. After that, the process returns to step S82.
  • the J-th block it is determined that it is the final stage block in step S84 after step S83, and the process may be ended without proceeding to the third complex amplitude image generation step S77.
  • the J-th block may be determined to be the final block after the three-dimensional phase image generation step S75, and may be terminated without proceeding to the refractive index distribution calculation step S76. In this case, A three-dimensional phase image of the entire object to be observed is obtained.
  • the area containing the observation target may be divided into two blocks in order based on the distance from the imaging unit along the light propagation path (z direction), and in that case, the first block described above may be divided into two blocks. It is sufficient to perform the processing for the J-th block in the final stage.
  • step S83 second complex amplitude image generation step S73, two-dimensional phase image generation step S74, three-dimensional phase image generation Step S75, refractive index distribution calculation step S76), and third complex amplitude image generation step S77 may be performed only once in order.
  • a method is used in which the propagation of the optical wavefront is numerically calculated in consideration of the refractive index distribution of the medium.
  • BPM Beam Propagation Method
  • SSNP Split-Step Non-Paraxial
  • processing using BPM in the third complex amplitude image generation step S77 will be explained.
  • Figure C08 is a diagram illustrating the processing content of BPM.
  • This figure shows an arbitrary jth block.
  • the j-th block is divided into M (seven in this figure) slices (first to M-th slices) based on the distance from the imaging unit along the optical propagation path (z direction).
  • Classified into The thickness of each slice is on the order of a wavelength.
  • the thickness of each slice may be constant.
  • the thickness of each slice is set to a constant value ⁇ z.
  • the m-th slice among the first to M-th slices of the j-th block is from the position (z j-1 +(m-1) ⁇ z) to the position (z j-1 +m ⁇ z).
  • the thickness ⁇ z of each slice in the process of the third complex amplitude image generation step S77 is determined by the thickness ⁇ z of each slice in the process of the second complex amplitude image generation step S73.
  • the positional interval may be different from or may be the same as the positional interval when generating the amplitude image.
  • phase change o(x, y, z) given to the optical wavefront during back propagation through a slice of thickness ⁇ z at position z is expressed by the following equation (22).
  • k v in this equation (22) is the wave number of light in vacuum.
  • ⁇ n (x, y, z) is the difference between the refractive index distribution n (x, y, z) of the observed object at position z and the refractive index n b of the background (medium), and is expressed by the following equation (23).
  • cos ⁇ is expressed by the following equation (24).
  • Equation (25) performs a Fourier transform on the product of the complex amplitude u(x, y, z) of light and the phase change o(x, y, z), and calculates the result of this Fourier transform and P(k x , k y ; ⁇ z) to obtain the complex amplitude u(x, y, z+ ⁇ z) of the light at the position (z+ ⁇ z) after propagating through a slice of thickness ⁇ z.
  • P ⁇ z is a function for calculating light propagation of ⁇ z.
  • FIG. C09 is a flowchart of the third complex amplitude image generation step S77.
  • step S42 the interaction between the complex amplitude u(x, y, z) of the light and the phase change o(x, y, z) at the position z is determined.
  • step S43 the wavefront of the light after the interaction is propagated by a distance ⁇ z, and the complex amplitude u(x, y, z+ ⁇ z) of the light at the position z+ ⁇ z is determined.
  • step S44 z to which ⁇ z is added is set as a new z.
  • any of the refractive index distribution measurement methods A to C described above can realize three-dimensional refractive index tomography in which the influence of multiple scattered light is reduced even when the observation target is a multiple scatterer. Can be done. Any of the refractive index distribution measuring methods A to C is suitable for measuring the refractive index distribution of a three-dimensional culture as an observation object.
  • observation apparatus 1J shown in FIG. Be prepared.
  • the observation device 1J the light output from the light source 11 is guided by the optical fiber 14 and then emitted from the light output end 18 without being split into two.
  • the observation device 1J is different in that a mirror 44 is provided instead of the beam splitter 41.
  • the observation device 1J is not equipped with an interference optical system.
  • the imaging unit 43 can image an interference intensity image at a reference position due to self-interference of light that is irradiated onto the observation object S and passes through the observation object S along each of a plurality of light irradiation directions.
  • the analysis unit 70 can perform image processing similar to that described above using the interference intensity image due to such self-interference.
  • the three-dimensional refractive index distribution of the observation target S from the first position to the second position does not need to be a refractive index distribution based on a three-dimensional phase image, and the refractive index distribution can be obtained by obtaining a refractive index distribution. It may also be acquired using a separate device.
  • the observation device (1) receives multiple light irradiations from an imaging unit that captures an interference intensity image of the reference position of the light that is irradiated onto the observation target along each of the multiple light irradiation directions and passes through the observation target.
  • a first complex amplitude image generation unit that generates a complex amplitude image based on the interference intensity image for each of the plurality of light irradiation directions;
  • a refractive index distribution acquisition unit that acquires a three-dimensional refractive index distribution of the observation target between the first position and the second position with respect to the distance from the imaging unit along the light propagation path;
  • a second complex amplitude image generation unit (a second complex amplitude image generation unit of the observation devices 1A to 1D) that generates a complex amplitude image at the second position based on the complex amplitude image at the first position and the three-dimensional refractive index distribution for each of the plurality of light irradiation directions. (corresponding to a complex amplitude image generation section).
  • the refractive index distribution measurement method is as follows: (1) From an imaging unit that captures an interference intensity image at a reference position of light that is irradiated onto an observation object and passed through the observation object along each of a plurality of light irradiation directions. , an interference intensity image acquisition step of acquiring an interference intensity image at a reference position for each of the plurality of light irradiation directions, and (2) a first complex amplitude image for generating a complex amplitude image based on the interference intensity image for each of the plurality of light irradiation directions.
  • an amplitude image generation step and (3) a refractive index distribution acquisition step of acquiring a three-dimensional refractive index distribution of the observation target between the first position and the second position with respect to the distance from the imaging unit along the light propagation path. and (4) a second complex amplitude image generation step of generating a complex amplitude image at the second position based on the complex amplitude image at the first position and the three-dimensional refractive index distribution for each of the plurality of light irradiation directions. That's fine.
  • a first aspect of the present disclosure is a method of identifying bile canaliculi regions included in an observation object using refractive index distribution data of an observation object containing hepatocytes.
  • the bile canaliculi region is identified based on the fact that the region in the observation object has characteristics of bile canaliculi. That is, in one embodiment, a region in the observation object that has characteristics of bile canaliculi is identified as a bile canaliculi region. Further, in one embodiment, the bile canalicule region may be identified by a machine learning model using feature amounts corresponding to the fact that the region in the observation object has characteristics of the bile canalicule.
  • Features of the bile canaliculi include a feature that the region is a substantially circular or substantially circular tube-shaped region existing between hepatocytes, a feature that the refractive index of the region is lower than a refractive index of the hepatocytes, and a periphery of the region.
  • the feature of the bile canaliculi according to one embodiment includes one or more features selected from the group consisting of features in which the refractive index of the region is higher than the refractive index of the hepatocytes, and the feature of the bile canaliculi according to one embodiment is a substantially circular region having a region between the hepatocytes.
  • the refractive index of a region refers to statistical values such as the average value, median value, minimum value, or maximum value of the refractive index in the region.
  • the refractive index of hepatocytes refers to statistical values such as the average value, median value, minimum value, or maximum value of the refractive index in the whole or a part of the hepatocytes.
  • the substantially circular area refers to an area whose roundness is equal to or greater than a threshold value.
  • the above threshold value can be determined depending on the type and condition of the observation object and the type and content of hepatocytes contained in the observation object, and is different from the observation object (sample) in which bile canaliculi are identified.
  • a region having characteristics of other bile canaliculi can also be determined to be specified as a bile canalicule region. For example, if the sample is a hepatocyte mass, another hepatocyte mass can be used as a reference, or a two-dimensional liver culture can also be used.
  • the threshold value may be, for example, 65%, 70%, 75%, 80%, or 85%.
  • the substantially circular tubular region is a tubular region in which a cross section perpendicular to the tube flow axis of the region or a cross section as viewed from a tomographic plane in refractive index tomographic data is approximately circular.
  • the pipe flow axis is an axis formed by an axis formed by a collection of pipe cross-sectional centers (centers of gravity).
  • the periphery of a region is a concept that includes the part of the object to be observed that is not included in the region, the part adjacent to the region (adjacent part), and the part separated by a predetermined distance from the adjacent part, and the area where bile canaliculi are formed due to tight connections. This corresponds to the part near the lumen of the part occupied by hepatocytes that form the ductal wall.
  • the feature of the bile canaliculi further includes a feature having a region derived from microvilli and having a refractive index higher than the refractive index of the entire region.
  • the region derived from microvilli has a substantially linear shape or a curved shape (curved shape, spiral shape, etc.) when the refractive object distribution data is three-dimensional; If it is dimensional, it will be approximately linear, curved, or dotted.
  • the length is, for example, about 1 to 2 ⁇ m, but it is important to note that the type and condition of the observation object and the type and content of hepatocytes contained in the observation object Depending on the amount, it may be longer or shorter.
  • a second aspect of the present disclosure is a method of evaluating bile canaliculi regions based on parameters of bile canaliculi obtained from refractive index distribution data of an observation target containing hepatocytes.
  • the evaluation of the bile canaliculi area is performed based on parameters of the bile canaliculi. That is, in one embodiment, a bile canalicule region in an observation target where a bile canalicule parameter has a better value is evaluated to be a bile canalicule of higher quality.
  • the evaluation of the bile canaliculi region is performed by using feature amounts corresponding to the parameters of the bile canaliculi, and assuming that the bile canaliculi regions having better parameter values are bile canaliculi of higher quality. It may be performed by a trained machine learning model.
  • the parameters of the bile canaliculi include the area or circumference of a cross section perpendicular to the ductal flow axis or a cross-sectional view, a refractive index, a median value of the refractive index, the number of microvilli, and the average length of the microvilli.
  • the parameters of the bile canalicule include the area of the cross section perpendicular to the ductal flow axis or the cross section in a tomographic view, the refractive index, the number of microvilli, and and one or more parameters selected from the group consisting of average length of microvilli.
  • a region of bile canaliculi with larger cross-sectional areas may be determined to be bile canaliculi of high quality.
  • the refractive index is the refractive index of the bile canaliculi region, and in one embodiment, since it is thought that the refractive index increases as the space occupied by microvilli and the amount of content increases, the refractive index of the bile canaliculi region with a high refractive index is It may be evaluated that the bile canaliculi are of high quality.
  • the method for evaluating bile canaliculi regions may include, before evaluation, the step of identifying bile canaliculi regions included in the observation object using refractive index distribution data of the observation object. That is, a method for evaluating a bile canalicule region in one embodiment includes the steps of identifying a bile canalicule region included in an observation target using refractive index distribution data of the observation target; evaluating the bile canaliculi region based on the parameters of the method. In one embodiment, the method for evaluating bile canaliculi regions includes the steps of identifying bile canaliculi regions included in an observation object using refractive index distribution data of the observation object, and identifying the bile canaliculi regions included in the observation object.
  • the region in the object has the characteristics of bile canaliculi, and the characteristics of the bile canaliculi are approximately circular or circular canal-shaped regions existing between hepatocytes, and the refractive index of the region is the bile canaliculi region, based on the step of including features that are lower than the refractive index of the cells, as well as features in which the refractive index at the periphery of the region is higher than the refractive index of the hepatocytes, and the parameters of the bile canaliculi in the identified bile canalicule regions and evaluating.
  • a third aspect of the present disclosure provides a method according to the first aspect of the present disclosure (a method of identifying bile canaliculi regions included in an observation object using refractive index distribution data of an observation object containing hepatocytes).
  • the number of identified bile canaliculi regions and/or the method according to the second aspect of the present disclosure (evaluation of bile canaliculi regions based on parameters of bile canaliculi obtained from refractive index distribution data of an observation target containing hepatocytes)
  • This is a method of evaluating an observation object containing hepatocytes based on the evaluation of the bile canaliculi area obtained by the above method.
  • the observation object itself containing hepatocytes can be evaluated by the method of specifying and evaluating the bile canaliculi region. For example, in the example shown in FIG. 35, hepatocyte cluster A having a large number of bile canaliculi regions can be evaluated as a high quality hepatocyte cluster.
  • the method for evaluating an observation object containing hepatocytes can be used, for example, in the following manner.
  • the formation of bile canaliculi can be used as one of the indicators of differentiation of an observation object containing hepatocytes.
  • the differentiation of the observation object containing hepatocytes can be evaluated. That is, another aspect is a method of evaluating differentiation of an observation object containing hepatocytes using refractive index distribution data of the observation object containing hepatocytes.
  • the method for evaluating an observation object containing hepatocytes can be used for evaluating a method for culturing hepatocytes.
  • methods for culturing hepatocytes include sandwich culture, three-dimensional spheroid culture, hollow fiber bioreactor method, micropattern co-culture, perfusion multiwell plate culture, and microfluidic liver biochip.
  • Various culture methods such as culture methods and microfluidic multi-organ device culture methods have been developed, and it is important to evaluate the number of bile canaliculi regions included in observation objects containing hepatocytes cultured by these methods. Accordingly, the hepatocyte culture method can be evaluated.
  • the fourth aspect of the present disclosure includes the step of culturing hepatocytes, and the method according to the third aspect of the present disclosure (the method according to the first aspect of the present disclosure).
  • the number of bile canaliculi regions identified by the method according to the second aspect of the present disclosure (method for identifying bile canalicular regions obtained from refractive index distribution data); evaluating the observation object containing hepatocytes based on the evaluation of the bile canaliculi area obtained by the method).
  • This is a method for evaluating cell culture methods.
  • the evaluation of the hepatocyte culture method takes advantage of the ability to non-invasively identify and evaluate bile canaliculi regions. For example, as shown in FIG. It can also be done based on.
  • the method for evaluating an observation object containing hepatocytes can be used for drug screening.
  • bile canaliculi are the excretory route for hepatic metabolism, which is the main excretion method for drugs.
  • drug-induced liver injury DILI is one of the main factors behind the withdrawal from the market and restrictions on the use of approved drugs and the failure of new drugs to be approved for safety. It is known that abnormal morphology of bile canaliculi is observed in cases of mixed type DILI, especially in cholestatic type DILI.
  • a drug that causes an abnormal increase in the refractive index of the bile canaliculi region has an abnormal secretion of bile acids or liver metabolites or It becomes possible to exclude from development candidates a drug that can cause abnormal excretion, and a drug that causes abnormal morphology of bile canaliculi as a drug that can cause cholestatic DILI. If these phenomena, which were previously only revealed at the clinical stage, could be clarified in vitro, existing drugs would have to be withdrawn from the market or their use restricted, and new drugs would have to be approved for safety.
  • the fifth aspect of the present disclosure includes the step of adding a drug to an observation target containing hepatocytes, and the method according to the third aspect of the present disclosure (the method according to the first aspect of the present disclosure (refractive index distribution data).
  • the number of bile canaliculi regions identified by the method according to the second aspect of the present disclosure (method for identifying bile canaliculi regions included in an observation target using The observation object obtained by culture is evaluated using the method of evaluating the observation object containing hepatocytes based on the evaluation of the bile canalicule area obtained by the parameter of This method includes a step of evaluating.Drug screening can be performed using, for example, morphological abnormalities of bile canaliculi as an indicator, and in the example shown in FIG. Based on the cross-sectional area of the bile canaliculi region, drug A that causes dilation and drug B that causes contraction can be excluded from development candidates as drugs that can cause cholestatic DILI.
  • drug A causes shortening of microvilli
  • drug B causes shortening of microvilli
  • drug B causes shortening and reduction of microvilli.
  • Drug C can be excluded as a candidate for development as a drug that can cause cholestatic DILI. This can also be done based on changes over time in points, and in the example shown in FIG. can be excluded from development candidates.
  • the method for identifying bile canaliculi regions can be used, for example, in the following manner.
  • the method of identifying bile canaliculi regions can be used to evaluate bile canalicule network formation. It is known that bile canaliculi further form a three-dimensional network after formation and are responsible for the secretion and excretion of liver metabolites. By comprehensively specifying the bile canaliculi region included in the observation object, the formation of the bile canalicule network can be evaluated. Furthermore, in one embodiment, the formation of a bile canaliculi network induced by the addition of a bile acid that promotes network formation, such as taurocholic acid, may be evaluated, as in the example shown in FIG.
  • a bile canaliculi network induced by the addition of a bile acid that promotes network formation such as taurocholic acid
  • inhibition of bile canaliculi network formation by addition of a bile acid that inhibits network formation may be evaluated.
  • These evaluations can be performed based on changes over time at multiple time points, taking advantage of the ability to non-invasively identify the bile canaliculi region, and can also be performed using the volume of the bile canaliculi region as an evaluation index. You can also do that.
  • the method for identifying bile canaliculi regions can also be used as a guide for recovering contents from bile canaliculi.
  • Bile canaliculi are one of the main pathways of liver metabolism, and if it is possible to non-invasively identify bile canaliculi regions within an observation object containing hepatocytes, it is possible to identify them, as in the example shown in FIG.
  • a drain tube (drain) or a catheter can be inserted into the bile canalicule to collect the contents.
  • the recovered contents can be analyzed, for example, by mass spectrometry, liquid chromatography, gas chromatography, or the like.
  • the method for evaluating the bile canaliculi region can be used as a method for diagnosing liver disease in a clinical specimen of the liver, a method for assisting diagnosis of liver disease, or a method for collecting data for diagnosis of liver disease. can also be used.
  • abnormalities in bile canaliculi can occur in livers that have developed liver disease.
  • livers with Byler's disease there is a lesion called "Byler's Bile” in which there are extremely few microvilli in bile canaliculi. Is recognized.
  • cholestasis caused by liver disease enlargement of bile canaliculi, reduction of microvilli, and formation of blebs are observed.
  • Example 1 Identification of bile canaliculi region in two-dimensional liver culture using phase contrast and fluorescence microscopy
  • Human liver cancer-derived cells HepG2
  • DMEM medium containing 10% fetal bovine serum under conditions of 5% CO2, 37 degrees, and 100% humidity.
  • a two-dimensional liver culture was prepared. After removal of the medium, a Hanks' balanced salt solution containing calcium chloride and magnesium chloride of CLF (cholyl-lysyl-fluorescein, manufactured by Corning), a fluorescently labeled bile acid known to be secreted into bile canaliculi. (final concentration 2 ⁇ M) and incubated for 45 minutes under conditions of 5% CO2, 37°C, and 100% humidity.
  • CLF calcium chloride and magnesium chloride of CLF
  • a phase contrast microscope image and a fluorescence image were captured in the same field of view using an inverted microscope DM IL with LED (manufactured by Leica). An objective lens with a magnification of 20 times was used. The fluorescence image was obtained under the conditions of an excitation wavelength of 470 nm and a fluorescence wavelength of 500 to 550 nm. The results are shown in FIG. 43.
  • phase-contrast microscopic image confirmed the existence of a luminal structure (arrows 1 and 2 in the figure) between the cells, and the fluorescence image confirmed the accumulation of CLF in the luminal structure. From the above, the regions indicated by arrows 1 and 2 in the figure were identified as bile canaliculi regions.
  • Example 2 Evaluation of bile canaliculi region in two-dimensional liver culture using optical diffraction tomography (ODT)]
  • ODT optical diffraction tomography
  • the approximately circular area (circularity 86%) existing between hepatocytes. indicates the value in bile canaliculi 2)
  • the refractive index (1.336) is lower than that of hepatocytes (1.344)
  • the refractive index of the periphery is lower than that of hepatocytes.
  • a feature higher than the refractive index (1.344) was observed.
  • the region identified as the bile canaliculi region in Example 1 is further defined as a region originating from microvilli (MV) and bile canaliculi (BC).
  • MV microvilli
  • BC bile canaliculi
  • a feature was observed that had a region with a higher refractive index (1.344) than the refractive index of the cavity (1.333).
  • G represents the center of gravity of the bile canaliculi region.
  • Example 3 Evaluation of bile canaliculi region of hepatocyte mass using optical diffraction tomography (ODT)]
  • Human liver cancer-derived cells HepG2
  • EZSPHERE compartment with low cell adhesion
  • the cells were cultured for 3 days in a DMEM medium containing serum under conditions of 5% CO2, 37°C, and 100% humidity.
  • Dimethyl sulfoxide manufactured by Sigma-Aldrich was added thereto to a final concentration of 0.05%, and cultured for another day to prepare a hepatocyte mass.
  • hepatocyte mass 1 For the obtained hepatocyte mass (hepatocyte mass 1), refractive index distribution data was obtained using the observation device 1A and the ODT shown in refractive index distribution measurement method C. An objective lens with a magnification of 60 times was used. Typical refractive index tomographic data extracted from the obtained refractive index distribution data are shown in FIGS. 46 and 47. Tables 1 to 4 show parameters obtained from the refractive index distribution data obtained in Example 2 and the refractive index distribution data obtained for hepatocyte mass 1 in Example 3. FIG. 48 shows typical refractive index tomographic data extracted from refractive index distribution data obtained in the same manner for another hepatocyte mass (hepatocyte mass 2) prepared in the same manner.
  • bile canaliculi 1 in the figure has a larger cross-sectional area and cross-sectional circumference than bile canaliculi 2. It can be determined that bile canaliculi 1 is a higher quality bile canalicule because it has a large number of microvilli and a large refractive index and a large median value of the refractive index.
  • Second complex amplitude image generation section 64... Phase conjugate calculation section, 65... Two-dimensional phase image generation section, 66... Three-dimensional phase image generation section, 67... Refractive index distribution calculation section, 68... Display section, 69... Storage unit, 70... Analysis unit, 71... Interference intensity image acquisition unit, 72... First complex amplitude image generation unit, 73... Second complex amplitude image generation unit, 74... Two-dimensional phase image generation unit, 75... Three-dimensional phase Image generation section, 76... Refractive index distribution calculation section, 77... Third complex amplitude image generation section, 78... Display section, 79... Storage section.

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Organic Chemistry (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Wood Science & Technology (AREA)
  • Zoology (AREA)
  • Physics & Mathematics (AREA)
  • Immunology (AREA)
  • Analytical Chemistry (AREA)
  • Biotechnology (AREA)
  • Pathology (AREA)
  • General Physics & Mathematics (AREA)
  • Microbiology (AREA)
  • General Engineering & Computer Science (AREA)
  • Medicinal Chemistry (AREA)
  • Genetics & Genomics (AREA)
  • Molecular Biology (AREA)
  • Proteomics, Peptides & Aminoacids (AREA)
  • Biophysics (AREA)
  • Sustainable Development (AREA)
  • Hematology (AREA)
  • Urology & Nephrology (AREA)
  • Food Science & Technology (AREA)
  • Virology (AREA)
  • Cell Biology (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Apparatus Associated With Microorganisms And Enzymes (AREA)
  • Measuring Or Testing Involving Enzymes Or Micro-Organisms (AREA)
  • Investigating Or Analysing Biological Materials (AREA)

Abstract

肝細胞を含有する観察対象物の屈折率分布データを用いて、観察対象物に含まれる毛細胆管領域を特定する方法、及び肝細胞を含有する観察対象物の屈折率分布データから得られる毛細胆管のパラメータに基づいて、毛細胆管領域を評価する方法を開示する。

Description

毛細胆管領域の特定又は評価の方法、装置及びプログラム
 本開示は、毛細胆管領域を特定又は評価する方法、装置及びプログラムに関する。
 毛細胆管(胆汁細管、bile canaliculi又はBCとも表記する。)は、隣接する肝細胞間に形成される細管である。毛細胆管の管腔は、肝細胞間の密着結合により密閉されており、肝細胞の細胞膜上のトランスポーターを介して、物質の授受が行われている。毛細胆管には、肝細胞において合成された胆汁酸が分泌され、また、肝細胞において代謝された薬物等が排泄される。毛細胆管に面する肝細胞の表面には、微絨毛(microvilli又はMVとも表記する。)と呼ばれる長さサブマイクロメートルから数マイクロメートル程度の微細な突起が多数存在する。
 薬物性肝障害(DILI:Drug-Induced Liver Injury)は、患者に投与された薬物及び/又はその代謝物に起因する肝疾患の総称であり、既承認薬の市場撤退及び使用制限並びに新薬が安全性に関して承認に至らないことの主要因の1つである(非特許文献1)。
 毛細胆管と薬物に関し、肝細胞の培養方法に係る特許文献1では、培養された肝細胞の評価の指標として毛細胆管の面積及び数が用いられている。特許文献2には、肝細胞による胆汁中又は血液中排泄感受性の候補化合物及び該候補化合物の肝代謝物の評価装置であって、肝代謝物の毛細胆管様構造への蓄積と排泄を促進することを特徴とする評価装置が開示されている。特許文献3には、毛細胆管機能障害を誘発する候補化合物をスクリーニングするインビトロ方法であって、その評価指標として胆管空間の形態変化並びに細管及び細管腔内に蓄積することができる小分子又は大分子の最大量が用いられる方法が開示されている。
国際公開第2011/024592号 特開2020-028305号公報 特許第6644786号公報
Watkins, "Drug safety sciences and the bottleneck in drug development.", Clin. Pharmacol. Ther., 89, 788-790 (2011). Gissen et al., "Structural and functional hepatocyte polarity and liver disease", Journal of Hepatology, 63, 1023-1037 (2015).
 毛細胆管は、肝細胞塊及び肝組織の評価指標並びに薬物代謝の解析対象として有用である。しかし、代表的な組織染色法であるヘマトキシリン・エオジン染色(HE染色)によっては、毛細胆管領域の特定は困難であることが報告されている(非特許文献2)。また、現状用いられている毛細胆管領域の特定方法及び評価方法は電子顕微鏡法及び蛍光顕微鏡法であるが、電子顕微鏡法は生細胞観察及び経時観察が困難であるため薬物評価との併用には不適であり、蛍光顕微鏡法は蛍光標識が必須である。
 したがって、本開示の一側面の目的は、毛細胆管領域を非侵襲的に特定又は評価する方法、装置及びプログラムを提供することである。
 発明者らは、観察対象物の屈折率分布データを用いると、観察対象物に含まれる毛細胆管領域を特定可能であること、及び特定した毛細胆管領域の評価が可能であることを見出した。
 すなわち、本開示の第一側面は、肝細胞を含有する観察対象物の屈折率分布データを用いて、観察対象物に含まれる毛細胆管領域を特定する方法である。
 本開示の第二側面は、肝細胞を含有する観察対象物の屈折率分布データから得られる毛細胆管のパラメータに基づいて、毛細胆管領域を評価する方法である。
 本開示の第三側面は、本開示の第一側面に係る方法(肝細胞を含有する観察対象物の屈折率分布データを用いて、観察対象物に含まれる毛細胆管領域を特定する方法)により特定された毛細胆管領域の数、及び/又は本開示の第二側面に係る方法(肝細胞を含有する観察対象物の屈折率分布データから得られる毛細胆管のパラメータに基づいて毛細胆管領域を評価する方法)により得られた毛細胆管領域の評価に基づいて、肝細胞を含有する観察対象物を評価する方法である。
 本開示の第四側面は、肝細胞を培養するステップと、本開示の第三側面に係る方法(本開示の第一側面に係る方法(屈折率分布データを用いて観察対象物に含まれる毛細胆管領域を特定する方法)により特定された毛細胆管領域の数、及び/又は本開示の第二側面に係る方法(屈折率分布データから得られる毛細胆管のパラメータによって毛細胆管領域を評価する方法)により得られた毛細胆管領域の評価に基づいて、肝細胞を含有する観察対象物を評価する方法)を用いて、培養によって得られた観察対象物を評価するステップと、を含む、肝細胞の培養方法を評価する方法である。
 本開示の第五側面は、肝細胞を含有する観察対象物に薬物を添加するステップと、本開示の第三側面に係る方法(本開示の第一側面に係る方法(屈折率分布データを用いて観察対象物に含まれる毛細胆管領域を特定する方法)により特定された毛細胆管領域の数、及び/又は本開示の第二側面に係る方法(屈折率分布データから得られる毛細胆管のパラメータによって毛細胆管領域を評価する方法)により得られた毛細胆管領域の評価に基づいて、肝細胞を含有する観察対象物を評価する方法)を用いて、薬物を添加された観察対象物を評価するステップと、を含む、薬物のスクリーニング方法である。
 他の一側面は、肝細胞を含有する観測対象物の屈折率分布データを取得するデータ取得部と、観察対象物の屈折率分布データを用いて観察対象物に含まれる毛細胆管領域を特定する特定部と、を備える、毛細胆管領域の特定装置である。
 他の一側面は、肝細胞を含有する観測対象物の屈折率分布データを取得するデータ取得部と、観察対象物の屈折率分布データを用いて観察対象物に含まれる毛細胆管領域を特定する特定部と、屈折率分布データから得られる毛細胆管のパラメータに基づいて毛細胆管領域を評価する評価部と、を備える、毛細胆管領域の評価装置である。
 他の一側面は、肝細胞を含有する観測対象物の屈折率分布データを取得するデータ取得ステップと、観察対象物の屈折率分布データを用いて観察対象物に含まれる毛細胆管領域を特定する特定ステップと、をコンピュータに実行させるプログラムである。
 他の一側面は、肝細胞を含有する観測対象物の屈折率分布データを取得するデータ取得ステップと、観察対象物の屈折率分布データを用いて観察対象物に含まれる毛細胆管領域を特定する特定ステップと、屈折率分布データから得られる毛細胆管のパラメータに基づいて毛細胆管領域を評価する評価ステップと、をコンピュータに実行させるプログラムである。
 より詳細には、本開示は以下の[1]~[20]に関する。
[1]肝細胞を含有する観察対象物の屈折率分布データを用いて、観察対象物に含まれる毛細胆管領域を特定する方法。
[2]毛細胆管領域の特定が、観察対象物中の領域が毛細胆管の特徴を有することに基づいて行われる、[1]に記載の方法。
[3]上記毛細胆管の特徴が、肝細胞間に存在する略円形若しくは略円管形領域である特徴、領域の屈折率が肝細胞の屈折率よりも低い特徴、並びに領域の周縁部の屈折率が肝細胞の屈折率よりも高い特徴からなる群より選択される1つ以上の特徴を含む、[2]に記載の方法。
[4]上記毛細胆管の特徴が、肝細胞間に存在する略円形若しくは略円管形領域である特徴、領域の屈折率が肝細胞の屈折率よりも低い特徴、並びに領域の周縁部の屈折率が肝細胞の屈折率よりも高い特徴を含む、[2]に記載の方法。
[5]上記毛細胆管の特徴が、さらに、微絨毛に由来する領域であって、領域全体の屈折率よりも屈折率の高い領域を有する特徴を含む、[3]又は[4]に記載の方法。
[6]上記屈折率分布データが、所定の方向における屈折率断層データである、[1]~[5]のいずれか1つに記載の方法。
[7]肝細胞を含有する観察対象物の屈折率分布データから得られる毛細胆管のパラメータに基づいて、毛細胆管領域を評価する方法。
[8]前記毛細胆管のパラメータが、管流軸に垂直な断面若しくは断層面視の断面の面積、屈折率、微絨毛の本数並びに微絨毛の平均長さからなる群より選択される1つ以上のパラメータを含む、[7]に記載の方法。
[9][1]~[6]のいずれか1つに記載の方法によって、観察対象物に含まれる毛細胆管領域を特定するステップを含み、特定された毛細胆管領域における毛細胆管のパラメータに基づいて、毛細胆管領域を評価する、[7]又は[8]に記載の方法。
[10][1]~[6]のいずれか1つに記載の方法により特定された毛細胆管領域の数及び/又は[7]~[9]のいずれか1つに記載の方法により得られた毛細胆管領域の評価に基づいて、肝細胞を含有する観察対象物を評価する方法。
[11]肝細胞を培養するステップと、[10]に記載の方法を用いて、培養によって得られた観察対象物を評価するステップと、を含む、肝細胞の培養方法を評価する方法。
[12]肝細胞を含有する観察対象物に薬物を添加するステップと、[10]に記載の方法を用いて、薬物を添加された観察対象物を評価するステップと、を含む、薬物のスクリーニング方法。
[13]上記肝細胞を含有する観察対象物が2次元肝培養体、肝細胞塊及び肝臓組織試料からなる群より選択される、[1]~[12]のいずれか1つに記載の方法。
[14]上記肝細胞を含有する観察対象物が肝細胞塊及び肝臓組織試料からなる群より選択される、[1]~[12]のいずれか1つに記載の方法。
[15]上記肝細胞を含有する観察対象物が肝細胞塊である、[1]~[12]のいずれか1つに記載の方法。
[16]肝臓の臨床検体の屈折率分布データを取得するステップと、[7]~[10]のいずれか1つに記載の方法を用いて上記臨床検体に含まれる毛細胆管領域又は上記臨床検体を評価するステップと、を含む、肝疾患の診断方法、肝疾患の診断を補助する方法又は肝疾患の診断のためのデータを取集する方法。
[17]肝細胞を含有する観測対象物の屈折率分布データを取得するデータ取得部と、[1]~[6]のいずれか1つに記載の方法によって観察対象物中に含まれる毛細胆管領域を特定する特定部と、を備える、毛細胆管領域の特定装置。
[18]肝細胞を含有する観測対象物の屈折率分布データを取得するデータ取得部と、[1]~[6]のいずれか1つに記載の方法によって観察対象物中に含まれる毛細胆管領域を特定する特定部と、[7]~[9]のいずれか1つに記載の方法によって毛細胆管領域を評価する評価部と、を備える、毛細胆管領域の評価装置。
[19]肝細胞を含有する観測対象物の屈折率分布データを取得するデータ取得ステップと、[1]~[6]のいずれか1つに記載の方法によって観察対象物中に含まれる毛細胆管領域を特定する特定ステップと、をコンピュータに実行させるプログラム。
[20]肝細胞を含有する観測対象物の屈折率分布データを取得するデータ取得ステップと、[1]~[6]のいずれか1つに記載の方法によって観察対象物中に含まれる毛細胆管領域を特定する特定ステップと、[7]~[9]のいずれか1つに記載の方法によって毛細胆管領域を評価する評価ステップと、をコンピュータに実行させるプログラム。
 本開示の方法、装置又はプログラムによれば、屈折率分布データを用いて、観察対象物中の毛細胆管領域を非侵襲的に特定及び評価することができる。また、本開示の方法によれば、屈折率分布データを用いて、肝細胞塊の培養方法の評価又は薬物のスクリーニングを行うことができる。
図1(以下、「図A01」ともいう。)は、観察装置1Aの構成を示す図である。 図2(以下、「図A02」ともいう。)は、観察装置1Bの構成を示す図である。 図3(以下、「図A03」ともいう。)は、観察装置1Cの構成を示す図である。 図4(以下、「図A04」ともいう。)は、屈折率分布測定方法Aのフローチャートである。 図5(以下、「図A05」ともいう。)(a),(b),(c)は、干渉強度画像取得ステップS1における観察対象物Sへの光照射方向の走査の例を示す図である。 図6(以下、「図A06」ともいう。)は、カーネル関数gを説明する図である。 図7(以下、「図A07」ともいう。)(a),(b)は、干渉強度画像取得ステップS1における観察対象物Sへの光照射方向の走査の例を示す図である。 図8(以下、「図A08」ともいう。)(a),(b),(c)は、干渉強度画像取得ステップS1における観察対象物Sへの光照射方向の走査の例を示す図である。 図9(以下、「図A09」ともいう。)は、屈折率分布測定方法A1における2次元位相画像生成ステップS4のフローチャートである。 図10(以下、「図A10」ともいう。)は、屈折率分布測定方法A2における2次元位相画像生成ステップS4のフローチャートである。 図11(以下、「図A11」ともいう。)は、カーネル関数を説明する図である。 図12(以下、「図A12」ともいう。)は、屈折率分布測定方法A3における2次元位相画像生成ステップS4のフローチャートである。 図13(以下、「図B01」ともいう。)は、観察装置1Dの構成を示す図である。 図14(以下、「図B02」ともいう。)は、観察装置1Eの構成を示す図である。 図15(以下、「図B03」ともいう。)は、観察装置1Fの構成を示す図である。 図16(以下、「図B04」ともいう。)は、屈折率分布測定方法Bのフローチャートである。 図17(以下、「図B05」ともいう。)は、第2複素振幅画像生成ステップS63及び2次元位相画像生成ステップS65の各処理の順序及び画像を説明する図である。 図18(以下、「図B06」ともいう。)は、第2複素振幅画像生成ステップS63、位相共役演算ステップS64及び2次元位相画像生成ステップS65の各処理の順序及び画像を説明する図である。 図19(以下、「図B07」ともいう。)は、第2複素振幅画像生成ステップS63、位相共役演算ステップS64及び2次元位相画像生成ステップS65の各処理の順序及び画像を説明する図である。 図20(以下、「図B08」ともいう。)は、第2複素振幅画像生成ステップS63、位相共役演算ステップS64及び2次元位相画像生成ステップS65の各処理の順序及び画像を説明する図である。 図21(以下、「図B09」ともいう。)は、3次元位相画像生成ステップS66及び屈折率分布算出ステップS67の各処理の順序及び画像を説明する図である。 図22(以下、「図B10」ともいう。)は、位相共役演算の概要について説明する図であり、撮像部により干渉強度画像を撮像するときの入力光及び出力光を示す図である。 図23(以下、「図B11」ともいう。)は、位相共役演算の概要について説明する図であり、光照射及び撮像の関係を逆転させた場合の入力光及び出力光を示す図である。 図24(以下、「図B12」ともいう。)は、位相共役演算ステップS64における画像分割、位相共役演算及び画像結合を説明する図である。 図25(以下、「図C01」ともいう。)は、観察装置1Gの構成を示す図である。 図26(以下、「図C02」ともいう。)は、観察装置1Hの構成を示す図である。 図27(以下、「図C03」ともいう。)は、観察装置1Iの構成を示す図である。 図28(以下、「図C04」ともいう。)は、屈折率分布測定方法Cのフローチャートである。 図29(以下、「図C05」ともいう。)は、屈折率分布測定方法Cのフローチャートである。 図30(以下、「図C06」ともいう。)は、観察対象物を含む領域と第1~第Jのブロックとの関係を説明する図である。 図31(以下、「図C07」ともいう。)は、第1~第Jのブロックにおける処理の手順を説明する図である。 図32(以下、「図C08」ともいう。)は、BPMの処理内容を説明する図である。 図33(以下、「図C09」ともいう。)は、第3複素振幅画像生成ステップS77のフローチャートである。 図34(以下、「図C10」ともいう。)は、観察装置1Jの構成を示す図である。 図35は、本開示の第三側面に係る肝細胞塊の評価方法により評価される肝細胞塊の一例を示す図である。 図36は、本開示の第四側面に係る肝細胞塊の培養方法の評価方法について、肝細胞塊の培養日数に応じた毛細胆管領域の数に基づいて評価する場合の一例を示す図である。 図37は、本開示の第五側面に係る薬物のスクリーニング方法について、肝細胞塊中の毛細胆管の断面の面積に基づいて、胆汁うっ滞型DILIを引き起こす可能性のある薬物をスクリーニングする一例を示す図である。 図38は、本開示の第五側面に係る薬物のスクリーニング方法について、肝細胞塊中の毛細胆管領域の微絨毛の長さ及び/又は数に基づいて、胆汁うっ滞型DILIを引き起こす可能性のある薬物をスクリーニングする一例を示す図である。 図39は、本開示の第五側面に係る薬物のスクリーニング方法について、薬物添加後の経時的な微絨毛の長さの変化に基づいて、胆汁うっ滞型DILIを引き起こす可能性のある薬物をスクリーニングする一例を示す図である。 図40は、本開示の第一側面に係る毛細胆管領域の特定方法に従って、肝細胞塊にタウロコール酸を添加することにより形成される毛細胆管ネットワークを評価する例を示した図である。 図41は、本開示の第一側面に係る毛細胆管領域の特定方法をガイドとしてドレーンを挿入し、肝細胞塊内の毛細胆管の内容物を回収する例を示した図である。 図42は、本開示の第二側面に係る毛細胆管領域の評価方法に従って、微絨毛の数及び/又は長さを指標として、肝臓の臨床検体における肝疾患の診断を補助する一例を示した図である。 図43は、実施例1における、位相差及び蛍光顕微鏡を用いた2次元肝培養体の毛細胆管領域の特定の結果を示す図である。 図44は、実施例2における、光回折トモグラフィ(ODT)を用いた2次元肝培養体の毛細胆管領域の評価結果の概略を示す図である。 図45は、実施例2における、光回折トモグラフィ(ODT)を用いた2次元肝培養体の毛細胆管領域の詳細な評価結果を示す図である。 図46は、実施例3における、光回折トモグラフィ(ODT)を用いた肝細胞塊1の毛細胆管領域の評価結果の概略を示す図である。 図47は、実施例3における、光回折トモグラフィ(ODT)を用いた肝細胞塊1の毛細胆管領域の詳細な評価結果を示す図である。 図48は、実施例3における、光回折トモグラフィ(ODT)を用いた肝細胞塊2の毛細胆管領域の評価結果を示す図である。
 以下、実施の形態について図面を参照しながら具体的に説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。実際の形態は、これらの例示に限定されるものではない。
 一実施形態に係る観察対象物は、肝細胞を含有する。肝細胞とは、肝臓由来であり、隣接する肝細胞同士の密着結合により毛細胆管を形成し得る細胞を示す。一実施形態に係る観察対象物は、毛細胆管を形成した肝細胞及び毛細胆管を形成していない肝細胞の両者を含有し得る。肝細胞は、肝臓由来の培養細胞(セルライン及び初代培養細胞を含む)であっても、単離された肝臓組織に含まれる肝細胞であってもよく、肝細胞の由来となる動物種は特に限定されない。観察対象物が細胞の培養体である場合、培養体は1種の肝細胞からなってもよく、少なくとも1種の肝細胞を含む2種以上の細胞を含んでもよい。
 一実施形態に係る観察対象物は、細胞を主成分として構成される物体であるが、細胞の他にも組織試料に含有されることがあるコンポーネント、例えば細胞外マトリックス及び中性脂肪など、を含んでいてもよい。一実施形態に係る観察対象物は、肝細胞同士が密着結合を形成する観点から、2次元肝培養体、肝細胞塊及び肝臓組織試料であってもよい。また、同様の観点並びに判定及び評価対象となりうる毛細胆管の量及び質の担保の観点から、2次元肝培養体、肝細胞塊及び肝臓組織試料であってもよい。さらに、一実施形態に係る観察対象物は、生理的環境に近い環境、再現性の高さ及び試料調製の容易性を並立する観点から、肝細胞塊であってもよい。2次元肝培養体とは、平板ディッシュ上などで2次元培養された肝細胞により形成された単層のコロニーである。肝細胞塊とは、3次元培養された肝細胞により形成された細胞塊である。肝臓組織試料とは、ヒトを含む動物から単離された肝臓組織より作成された生体試料であり、例えば組織スライド、組織ブロック、組織パネル及び組織アレイなどが挙げられる。観察対象物が肝細胞塊である場合、その最大径は100~200μmであるとよい。
 屈折率分布データとは、観察対象物を含む空間中のボクセル毎の屈折率の3次元分布を示すデータ、又は観察対象物を含む空間の所定の方向における断層面内のピクセル毎の屈折率の2次元分布を示すデータである。また、屈折率断層データとは、屈折率分布データのうち、観察対象物を含む空間の所定の方向における断層面内のピクセル毎の屈折率の2次元分布を示すデータである。
 一実施形態に係る屈折率分布データを取得する方法(以下、「屈折率分布測定方法」ともいう。)は特に限定されないが、一例である方法について以下に詳述する。観察対象物の屈折率分布を非染色・非侵襲で測定する方法として、光回折トモグラフィ(Optical Diffraction Tomography、ODT)が知られている。ODTは、定量位相イメージング(Quantitative Phase Imaging、QPI)を3次元イメージング可能な技術に発展させたものであり、観察対象物の3次元屈折率トモグラフィを実現することができる。
 さらに以下に説明する屈折率分布測定方法A~Cが用いられる。屈折率分布測定方法Aには屈折率分布測定方法A1~A3の態様がある。屈折率分布測定方法A1~A3を総称して屈折率分布測定方法Aという。これらの屈折率分布測定方法A~Cは、観察対象物が多重散乱体である場合であっても、多重散乱光の影響が低減された3次元屈折率トモグラフィを実現することができる。
 なお、他の染色・非侵襲のイメージング技術として、光コヒーレンス・トモグラフィ(Optical Coherence Tomography、OCT)も知られている。しかし、OCTの分解能は10μm程度であるのに対して、ODT及び屈折率分布測定方法A~Cの分解能は1μm程度である。また、OCTは、屈折率分布を求めるものではなく、イメージングにより得られた信号の生物学的な解釈が難しい。これらの点で、ODT及び屈折率分布測定方法A~Cは、OCTより優位である。
 先ず、屈折率分布測定方法A(A1~A3)について説明する。図A01~図A03は、屈折率分布測定方法Aによる屈折率分布を測定する際に用いることができる観察装置1A~1Cの各構成を示す図である。
 図A01は、観察装置1Aの構成を示す図である。この観察装置1Aは、光源11、レンズ12、レンズ21、ミラー22、レンズ23、コンデンサレンズ24、対物レンズ25、ビームスプリッタ41、レンズ42、撮像部43及び解析部50などを備える。
 光源11は、空間的・時間的にコヒーレントな光を出力するものであり、例えばレーザ光源である。レンズ12は、光源11と光学的に接続されており、光源11から出力された光を光ファイバ14の光入射端13に集光して、その光を光入射端13に入射させる。光ファイバ14は、レンズ12により光入射端13に入射された光をファイバカプラ15へ導光する。ファイバカプラ15は、光ファイバ14と光ファイバ16,17との間で光を結合するものであり、光ファイバ14により導光されて到達した光を2分岐して、一方の分岐光を光ファイバ16により導光させ、他方の分岐光を光ファイバ17によりさせる。光ファイバ16により導光された光は光出射端18から発散光として出射される。光ファイバ17により導光された光は光出射端19から発散光として出射される。
 レンズ21は、光出射端18と光学的に接続されており、光出射端18から発散光として出力された光をコリメートする。ミラー22は、レンズ21と光学的に接続されており、レンズ21から到達した光をレンズ23へ反射させる。ミラー22の反射面の方位は可変である。レンズ23は、ミラー22と光学的に接続されている。コンデンサレンズ24は、レンズ23と光学的に接続されている。レンズ23及びコンデンサレンズ24は、例えば4f光学系を構成している。レンズ23及びコンデンサレンズ24は、ミラー22の反射面の方位に応じた光照射方向から観察対象物Sに対して光を照射する。対物レンズ25は、コンデンサレンズ24と光学的に接続されている。対物レンズ25とコンデンサレンズ24との間に観察対象物Sが配置される。対物レンズ25は、コンデンサレンズ24から出力されて観察対象物Sを経た光(物体光)を入力し、その光をビームスプリッタ41へ出力する。
 ビームスプリッタ41は、対物レンズ25と光学的に接続され、また、光出射端19とも光学的に接続されている。ビームスプリッタ41は、対物レンズ25から出力されて到達した光(物体光)と、光出射端19から出力されて到達した光(参照光)とを合波して、両光をレンズ42へ出力する。レンズ42は、ビームスプリッタ41と光学的に接続されており、ビームスプリッタ41から到達した物体光及び参照光それぞれをコリメートして撮像部43へ出力する。撮像部43は、レンズ42と光学的に接続されており、レンズ42から到達した物体光と参照光との干渉による干渉縞像(干渉強度画像)を撮像する。撮像部43の撮像面への物体光の入射方向に対して参照光の入射方向は傾斜している。ビームスプリッタ41により物体光と参照光とが合波される位置は、結像レンズより後段であってもよいが、収差の影響を考慮すると、図に示されるように対物レンズ25とレンズ42との間であるのが望ましい。
 解析部50は、撮像部43と電気的に接続されており、撮像部43により撮像された干渉強度画像を入力する。解析部50は、その入力した干渉強度画像を処理することにより、観察対象物Sの3次元屈折率分布を算出する。解析部50は、コンピュータであってよい。解析部50は、干渉強度画像取得部51、第1複素振幅画像生成部52、第2複素振幅画像生成部53、2次元位相画像生成部54、3次元位相画像生成部55、屈折率分布算出部56、表示部57及び記憶部58を備える。
 干渉強度画像取得部51は、ミラー22の反射面の方位を変化させることにより、観察対象物Sに対して複数の光照射方向それぞれに沿って光を照射させる。また、干渉強度画像取得部51は、複数の光照射方向それぞれについて基準位置における干渉強度画像を撮像部43から取得する。干渉強度画像取得部51は、CPUを含み、ミラー22の反射面の方位を変化させる為の制御信号を出力する出力ポートを有し、また、撮像部43から干渉強度画像を入力する入力ポートを有する。対物レンズ25を光軸方向に移動させる必要はない。基準位置は、撮像部43の撮像面に対して共役関係にある像面位置である。
 第1複素振幅画像生成部52、第2複素振幅画像生成部53、2次元位相画像生成部54、3次元位相画像生成部55及び屈折率分布算出部56は、干渉強度画像に基づいて処理を行うものであり、CPU、GPU、DSP又はFPGA等の処理装置を含む。表示部57は、処理すべき画像、処理途中の画像及び処理後の画像などを表示するものであり、例えば液晶ディスプレイを含む。記憶部58は、各種の画像のデータを記憶するものであり、ハードディスクドライブ、フラッシュメモリ、RAM及びROM等を含む。第1複素振幅画像生成部52、第2複素振幅画像生成部53、2次元位相画像生成部54、3次元位相画像生成部55、屈折率分布算出部56及び記憶部58は、クラウドコンピューティングによって構成されてもよい。
 記憶部58は、干渉強度画像取得部51、第1複素振幅画像生成部52、第2複素振幅画像生成部53、2次元位相画像生成部54、3次元位相画像生成部55及び屈折率分布算出部56に各処理を実行させるためのプログラムをも記憶する。このプログラムは、観察装置1Aの製造時又は出荷時に記憶部58に記憶されていてもよいし、出荷後に通信回線を経由して取得されたものが記憶部58に記憶されてもよいし、コンピュータ読み取り可能な記録媒体2に記録されていたものが記憶部58に記憶されてもよい。記録媒体2は、フレキシブルディスク、CD-ROM、DVD-ROM、BD-ROM、USBメモリなど任意である。
 干渉強度画像取得部51、第1複素振幅画像生成部52、第2複素振幅画像生成部53、2次元位相画像生成部54、3次元位相画像生成部55及び屈折率分布算出部56それぞれの処理の詳細については後述する。
 図A02は、観察装置1Bの構成を示す図である。この図A02に示される観察装置1Bは、図A01に示された観察装置1Aの構成に加えて、レンズ31、ミラー32、駆動部33及びレンズ34などを備える。
 レンズ31は、光出射端19と光学的に接続されており、光出射端19から発散光として出力された光(参照光)をコリメートする。ミラー32は、レンズ31と光学的に接続されており、レンズ31から到達した光をレンズ34へ反射させる。レンズ34は、ミラー32と光学的に接続されており、ミラー32から到達した光をビームスプリッタ41へ出力する。レンズ34から出力された光は、ビームスプリッタ41の手前で一旦集光された後、発散光としてビームスプリッタ41に入力される。ビームスプリッタ41は、対物レンズ25から出力されて到達した光(物体光)と、レンズ34から出力されて到達した光(参照光)とを合波して、両光を同軸にしてレンズ42へ出力する。撮像部43は、レンズ42から到達した物体光と参照光との干渉による干渉縞像(干渉強度画像)を撮像する。撮像部43の撮像面への物体光の入射方向に対して参照光の入射方向は平行である。
 駆動部33は、ミラー32の反射面に垂直な方向にミラー32を移動させる。駆動部33は例えばピエゾアクチュエータである。このミラー32の移動により、ファイバカプラ15における光分岐からビームスプリッタ41における合波に至るまでの物体光及び参照光それぞれの光路長の差(位相差)を変化させる。この光路長差が異なると、撮像部43により撮像される干渉強度画像も異なる。
 観察装置は、図A01及び図A02の構成例に限定されるものではなく、様々な変形が可能である。観察装置1A及び観察装置1Bの構成では観察対象物Sを透過した物体光を観察したが、以下に説明する観察装置1Cの構成のように観察対象物Sで反射された物体光を観察してもよい。
 図A03は、観察装置1Cの構成を示す図である。観察装置1Cは、光源11、レンズ12、レンズ21、ミラー22、レンズ23、対物レンズ25、ビームスプリッタ41、レンズ42、撮像部43及び解析部50などを備える。以下では、観察装置1A(図A01)と相違する点について主に説明する。
 レンズ21は、光ファイバ16の光出射端18と光学的に接続されており、光出射端18から発散光として出力された光をコリメートする。ミラー22は、レンズ21と光学的に接続されており、レンズ21から到達した光をレンズ23へ反射させる。ミラー22の反射面の方位は可変である。レンズ23は、ミラー22と光学的に接続されている。対物レンズ25は、レンズ23と光学的に接続されている。レンズ23と対物レンズ25との間にビームスプリッタ41が配置されている。レンズ23及び対物レンズ25は、例えば4f光学系を構成している。レンズ23及び対物レンズ25は、ミラー22の反射面の方位に応じた光照射方向から観察対象物Sに対して光を照射する。対物レンズ25は、観察対象物Sで反射された光(物体光)を入力し、その光をビームスプリッタ41へ出力する。
 ビームスプリッタ41は、対物レンズ25と光学的に接続され、また、光ファイバ17の光出射端19とも光学的に接続されている。ビームスプリッタ41は、対物レンズ25から出力されて到達した光(物体光)と、光出射端19から出力されて到達した光(参照光)とを合波して、両光をレンズ42へ出力する。レンズ42は、ビームスプリッタ41と光学的に接続されており、ビームスプリッタ41から到達した物体光及び参照光それぞれをコリメートして撮像部43へ出力する。撮像部43は、レンズ42と光学的に接続されており、レンズ42から到達した物体光と参照光との干渉による干渉縞像(干渉強度画像)を撮像する。撮像部43の撮像面への物体光の入射方向に対して参照光の入射方向は傾斜している。ビームスプリッタ41により物体光と参照光とが合波される位置は、結像レンズより後段であってもよいが、収差の影響を考慮すると、図に示されるように対物レンズ25とレンズ42との間であるのが望ましい。
 観察装置1C(図A03)の構成において、観察装置1B(図A02)と同様に参照光の光路長を変化させる機構(図A02中のレンズ31、ミラー32、駆動部33及びレンズ34)を設けて、ファイバカプラ15における光分岐からビームスプリッタ41における合波に至るまでの物体光及び参照光それぞれの光路長の差(位相差)を変化させてもよい。この場合、撮像部43の撮像面への物体光の入射方向に対して参照光の入射方向は平行であってよい。
 図A04は、屈折率分布測定方法Aのフローチャートである。この屈折率分布測定方法Aは、観察装置1A~1Cの何れを用いた場合においても可能なものである。この屈折率分布測定方法Aは、干渉強度画像取得ステップS1、第1複素振幅画像生成ステップS2、第2複素振幅画像生成ステップS3、2次元位相画像生成ステップS4、3次元位相画像生成ステップS5及び屈折率分布算出ステップS6を備える。
 干渉強度画像取得ステップS1の処理は干渉強度画像取得部51により行われる。第1複素振幅画像生成ステップS2の処理は第1複素振幅画像生成部52により行われる。第2複素振幅画像生成ステップS3の処理は第2複素振幅画像生成部53により行われる。2次元位相画像生成ステップS4の処理は2次元位相画像生成部54により行われる。3次元位相画像生成ステップS5の処理は3次元位相画像生成部55により行われる。屈折率分布算出ステップS6の処理は屈折率分布算出部56により行われる。
 干渉強度画像取得ステップS1において、干渉強度画像取得部51は、ミラー22の反射面の方位を変化させることにより、観察対象物Sに対して複数の光照射方向それぞれに沿って光を照射させる。そして、干渉強度画像取得部51は、複数の光照射方向それぞれについて基準位置における干渉強度画像を撮像部43から取得する。
 図A01~図A03それぞれにおいて説明の便宜のためにxyz直交座標系が示されている。z軸は対物レンズ25の光軸に対し平行である。基準位置は、撮像部43の撮像面に対して共役関係にある像面位置である。この位置をz=0とする。観察対象物Sへの光照射方向は、その照射光の波数ベクトル(k,k,k)のうちのk及びkにより表すことができる。
 図A05(a)~(c)は、干渉強度画像取得ステップS1における観察対象物Sへの光照射方向の走査の例を示す図である。この図では、横軸をkとし縦軸をkとしたk平面において各々の丸印の位置が光照射方向を表している。光照射方向の走査は、図A05(a)に示されるようにk平面において矩形格子状に配置されるようなものであってもよいし、図A05(b)に示されるようにk平面において同心の複数の円それぞれの周上に配置されるようなものであってもよいし、また、図A05(c)に示されるようにk平面において螺旋状に配置されるようなものであってもよい。何れの場合にも、コンデンサレンズ24の開口数(NA:Numerical Aperture)の許す限りで光照射方向の走査が可能である。ラスタスキャン及びランダムスキャンの何れであってもよい。ラスタスキャンの場合には、戻りスキャンが有ってもよいし無くてもよい。
 第1複素振幅画像生成ステップS2において、第1複素振幅画像生成部52は、複数の光照射方向それぞれについて、干渉強度画像取得部51により取得された基準位置の干渉強度画像に基づいて、基準位置の複素振幅画像を生成する。観察装置1A(図A01)及び観察装置1C(図A03)の場合には、第1複素振幅画像生成部52は、フーリエ縞解析法により、1枚の干渉強度画像に基づいて複素振幅画像を生成することができる。観察装置1B(図A02)の場合には、第1複素振幅画像生成部52は、位相シフト法により、物体光と参照光との間の光路長差(位相差)が互いに異なる3枚以上の干渉強度画像に基づいて複素振幅画像を生成することができる。
 第2複素振幅画像生成ステップS3において、第2複素振幅画像生成部53は、複数の光照射方向それぞれについて、第1複素振幅画像生成部52により生成された基準位置(z=0)の複素振幅画像に基づいて、複数のz方向位置それぞれの複素振幅画像を生成する。基準位置の複素振幅画像u(x,y,0)の2次元フーリエ変換をU(k,k,0)とすると、z=dの位置の複素振幅画像u(x,y,d)、及び、この複素振幅画像u(x,y,d)の2次元フーリエ変換U(k,k,d)は、下記式で表される。iは虚数単位であり、kは観察対象物中における光の波数である。
Figure JPOXMLDOC01-appb-M000001
Figure JPOXMLDOC01-appb-M000002
 2次元位相画像生成ステップS4において、2次元位相画像生成部54は、複数の位置それぞれについて、第2複素振幅画像生成部53により生成された複数の光照射方向それぞれの複素振幅画像に基づいて2次元位相画像を生成する。ここで生成される2次元位相画像は、フォーカスを合わせたz方向位置を中心とする位相画像に相当する。2次元位相画像生成ステップS4の詳細については後述する。
 なお、第2複素振幅画像生成ステップS3において複数の光照射方向それぞれについて複数の位置それぞれの複素振幅画像を全て生成した後に、2次元位相画像生成ステップS4以降の処理を行ってもよい。また、第2複素振幅画像生成ステップS3において複数の光照射方向それぞれについて或る1つのz方向位置の複素振幅画像を生成し、該位置の2次元位相画像を2次元位相画像生成ステップS4において生成する処理を単位として、z方向位置を走査しながら当該単位処理を繰り返し行ってもよい。後者の場合には、記憶部58が記憶しておくべき画像データの容量を小さくすることができる点でよい。
 3次元位相画像生成ステップS5において、3次元位相画像生成部55は、2次元位相画像生成部54により生成された複数の位置それぞれの2次元位相画像に基づいて3次元位相画像を生成する。ここで生成される3次元位相画像は、2次元位相画像中での位置x,y及び該2次元位相画像の位置zを変数とする画像である。
 屈折率分布算出ステップS6において、屈折率分布算出部56は、3次元位相画像生成部55により生成された3次元位相画像に基づいて、デコンボリューションにより観察対象物の3次元屈折率分布を求める。観察対象物の屈折率分布をn(x,y,z)とし、電気感受率分布をf(x,y,z)とし、背景の媒質の屈折率をnとすると、両者の間には下記(3)式の関係がある。3次元位相画像生成部55により生成された3次元位相画像Φ(x,y,z)は、下記(4)式のとおり、カーネル関数g(x,y,z)と電気感受率分布f(x,y,z)とのコンボリューションで表される。したがって、観察対象物の3次元屈折率分布n(x,y,z)は、3次元位相画像Φ(x,y,z)に基づいてデコンボリューションにより求めることができる。
Figure JPOXMLDOC01-appb-M000003
Figure JPOXMLDOC01-appb-M000004
 なお、カーネル関数gは、波動方程式の解に対応するグリーン関数に基づくものである。図A06は、カーネル関数gを説明する図である。この図において、カーネル関数gの値が最も大きい中心位置が原点であり、縦方向がz軸であり、横方向がz軸に垂直な方向である。
 また、第1複素振幅画像生成ステップS2、第2複素振幅画像生成ステップS3、2次元位相画像生成ステップS4、3次元位相画像生成ステップS5及び屈折率分布算出ステップS6の各処理は、所定の数の光照射方向それぞれの干渉強度画像が干渉強度画像取得ステップS1において取得される度に行われてもよいし(図A07)、1つの光照射方向の干渉強度画像が干渉強度画像取得ステップS1において取得される度に行われてもよい(図A08)。
 図A07及び図A08は、干渉強度画像取得ステップS1における観察対象物Sへの光照射方向の走査の例を示す図である。これらの図では、横軸をkとし縦軸をkとしたk平面において各々の丸印の位置が光照射方向を表している。これらの図に示される光照射方向の走査の例では、光照射方向を順次変更していき、第(N+n)の干渉強度画像取得時の光照射方向を第nの干渉強度画像取得時の光照射方向と一致させている。nは正の整数であり、Nは2以上の整数である。
 図A07に示される例では、第1~第Nの干渉強度画像が干渉強度画像取得ステップS1において取得されると、これら第1~第Nの干渉強度画像に基づいてステップS2~S6の各処理が行われる(図A07(a))。次に、第(N+1)~第2Nの干渉強度画像が干渉強度画像取得ステップS1において取得されると、これら第(N+1)~第2Nの干渉強度画像に基づいてステップS2~S6の各処理が行われる(図A07(b))。次に、第(2N+1)~第3Nの干渉強度画像が干渉強度画像取得ステップS1において取得されると、これら第(2N+1)~第3Nの干渉強度画像に基づいてステップS2~S6の各処理が行われる。以降も同様である。
 図A08に示される例では、第1~第Nの干渉強度画像が干渉強度画像取得ステップS1において取得されると、これら第1~第Nの干渉強度画像に基づいてステップS2~S6の各処理が行われる(図A08(a))。次に、第(N+1)の干渉強度画像が干渉強度画像取得ステップS1において取得されると、この第(N+1)の干渉強度画像を含む直近のN枚の干渉強度画像(第2~第(N+1)の干渉強度画像)に基づいてステップS2~S6の各処理が行われる(図A08(b))。次に、第(N+2)の干渉強度画像が干渉強度画像取得ステップS1において取得されると、この第(N+2)の干渉強度画像を含む直近のN枚の干渉強度画像(第3~第(N+2)の干渉強度画像)に基づいてステップS2~S6の各処理が行われる(図A08(c))。以降も同様にして、第(N+n)の干渉強度画像が干渉強度画像取得ステップS1において取得されると、この第(N+n)の干渉強度画像を含む直近のN枚の干渉強度画像(第(1+n)~第(N+n)の干渉強度画像)に基づいてステップS2~S6の各処理が行われる。
 図A07に示された例と比較すると、図A08に示された例では、1つの光照射方向の干渉強度画像が干渉強度画像取得ステップS1において取得される度に、その干渉強度画像を含む直近の複数の干渉強度画像に基づいてステップS2~S6の各処理が行われるので、ステップS2~S6の各処理により単位時間当たりに得られる各画像の数が多い。
 次に、屈折率分布測定方法Aにおける2次元位相画像生成ステップS4の詳細について説明する。2次元位相画像生成ステップS4において、2次元位相画像生成部54は、複数の位置それぞれについて、第2複素振幅画像生成部53により生成された複数の光照射方向それぞれの複素振幅画像に基づいて2次元位相画像を生成する。2次元位相画像生成ステップS4は、屈折率分布測定方法A1~A3の何れであるかによって異なる。
 図A09は、屈折率分布測定方法A1における2次元位相画像生成ステップS4のフローチャートである。屈折率分布測定方法A1における2次元位相画像生成ステップS4は、複数の位置それぞれについて、ステップS11において、複数の光照射方向それぞれの複素振幅画像の位相を光照射方向に基づいて補正した後、これら補正後の複素振幅画像の総和を表す複素振幅総和画像を生成し、ステップS12において、この複素振幅総和画像に基づいて2次元位相画像を生成する。
 ステップS11の処理は、CASS(Collective Accumulation of Single Scattering)(Sungsam Kang, et al, “Imaging deep within a scattering medium using collective accumulation of single-scattered waves,” NATURE PHOTONICS, Vol.9, pp.253-258 (2015).)技術によるものである。或る光照射方向に沿って対象物に照射されて該対象物を経た光のうち、対象物と一回のみ相互作用した単一散乱光の空間周波数分布は光照射方向に応じてシフトしているのに対して、対象物と複数回相互作用した多重散乱光の空間周波数分布は光照射方向によってランダムに変化する。CASS技術は、このような単一散乱光及び多重散乱光それぞれの空間周波数分布の光照射方向依存性の相違を利用する。
 すなわち、ステップS11では、複数の光照射方向それぞれの複素振幅画像の位相を光照射方向に基づいて補正する(つまり、空間周波数領域において複素振幅画像の空間周波数分布を光照射方向に応じて平行移動する)ことにより、複素振幅画像のうちの単一散乱光成分の空間周波数分布を光照射方向に依存しない形状及び配置とし、その一方で、複素振幅画像のうちの多重散乱光成分の空間周波数分布をランダムな形状及び配置とする。そして、ステップS11では、これら補正後の複数の複素振幅画像の総和を表す複素振幅総和画像を生成する(つまり、合成開口処理をする)ことにより、複素振幅画像のうちの単一散乱光成分をコヒーレントに足し合わせ、その一方で、複素振幅画像のうちの多重散乱光成分を互いに相殺させる。
 したがって、ステップS11で生成される複素振幅総和画像は、多重散乱光の影響が低減されたものとなる。そして、最終的に屈折率分布算出ステップS6で得られる3次元屈折率分布も、多重散乱光の影響が低減されて、スペックルが抑制され、単一散乱-多重散乱比(Single-scattering to Multi-scattering Ratio、SMR)が改善されたものとなる。
 図A10は、屈折率分布測定方法A2における2次元位相画像生成ステップS4のフローチャートである。屈折率分布測定方法A2における2次元位相画像生成ステップS4は、複数の位置それぞれについて、ステップS21において、複数の光照射方向それぞれの複素振幅画像に基づいて複数の光照射方向それぞれの複素微分干渉画像を生成し、ステップS22において、複数の光照射方向それぞれの複素微分干渉画像の総和に基づいて位相微分画像を生成し、ステップS23において、位相微分画像に基づいて2次元位相画像を生成する。
 z=dの位置の複素振幅画像をu(x,y,d)とすると、ステップS21で生成される複素微分干渉画像q(x,y,d)は下記(5)式で表される。δx及びδyのうち少なくとも一方は非0である。δx≠0,δy=0であれば、x方向をシアー方向とする複素微分干渉画像qが得られる。δx=0,δy≠0であれば、y方向をシアー方向とする複素微分干渉画像qが得られる。δx≠0,δy≠0であれば、x方向及びy方向の何れとも異なる方向をシアー方向とする複素微分干渉画像qが得られる。なお、複素微分干渉画像q(x,y,d)は、複素振幅画像u(x,y,d)を下記(6)式のように変換した後に(5)式で求めてもよい。
Figure JPOXMLDOC01-appb-M000005
Figure JPOXMLDOC01-appb-M000006
 複数の光照射方向それぞれの複素微分干渉画像qの総和をqsum(x,y,d)とすると、ステップS22で生成される位相微分画像φ(x,y,z)は、qsum(x,y,d)の位相として下記(7)式で表される。ステップS23では、この位相微分画像φ(x,y,z)を積分又はデコンボリューションすることにより、2次元位相画像を生成することができる。
Figure JPOXMLDOC01-appb-M000007
 なお、ステップS21において、複素振幅画像上の互いに異なる複数のシアー方向それぞれについて複素微分干渉画像を生成してもよい。この場合、2次元位相画像生成ステップS4は、複数の位置それぞれについて、ステップS21において、複数の光照射方向それぞれの複素振幅画像に基づいて該画像上の互いに異なる複数のシアー方向それぞれについて複数の光照射方向それぞれの複素微分干渉画像を生成し、ステップS22において、複数のシアー方向それぞれについて、複数の光照射方向それぞれの複素微分干渉画像の総和に基づいて位相微分画像を生成し、ステップS23において、複数のシアー方向それぞれの位相微分画像に基づいて2次元位相画像を生成する。
 ステップS22で複数の光照射方向それぞれの複素微分干渉画像の総和に基づいて生成される位相微分画像は、多重散乱光の影響が低減されたものとなる。そして、最終的に屈折率分布算出ステップS6で得られる3次元屈折率分布も、多重散乱光の影響が低減されて、スペックルが抑制されたものとなる。また、ステップS21において複素振幅画像上の互いに異なる複数のシアー方向それぞれについて複素微分干渉画像を生成する場合には、ステップS23で得られる2次元位相画像にライン状のノイズが現れるのを抑制することができる。
 ここでは、ステップS23において位相微分画像を積分又はデコンボリューションすることにより2次元位相画像を生成する場合を説明した。しかし、位相微分画像を2次元位相画像として扱うこともできる。この場合、ステップS23を行うことなく、屈折率分布算出ステップS67のデコンボリューションにおいて、ステップS23のデコンボリューションで用いたカーネルを含むカーネル(図A11)を用いることにより、ステップS22で生成された位相微分画像(2次元位相画像)から観察対象物の3次元屈折率分布を求めることができる。図A11に示されるカーネルは、図A06に示したカーネルとステップS23のデコンボリューションで用いるカーネルとを畳み込み積分することにより得られる。
 図A12は、屈折率分布測定方法A3における2次元位相画像生成ステップS4のフローチャートである。屈折率分布測定方法A3における2次元位相画像生成ステップS4は、複数の位置それぞれについて、ステップS31において、複数の光照射方向それぞれの複素振幅画像を複数のバッチに区分し、複数のバッチそれぞれについて、該バッチに含まれる複素振幅画像の位相を光照射方向に基づいて補正した後、これら補正後の複素振幅画像の総和を表す複素振幅総和画像を生成し、ステップS32において、複数のバッチそれぞれの複素振幅総和画像に基づいて複数のバッチそれぞれの複素微分干渉画像を生成し、ステップS33において、複数のバッチそれぞれの複素微分干渉画像の総和に基づいて位相微分画像を生成し、ステップS34において、位相微分画像に基づいて2次元位相画像を生成する。
 屈折率分布測定方法A3のステップS31の処理は、複数の光照射方向それぞれの複素振幅画像を複数のバッチに区分した上で、複数のバッチそれぞれについて屈折率分布測定方法A1のステップS11の処理を行うことに相当する。屈折率分布測定方法A3のステップS32,S33の処理は、複数のバッチそれぞれについて屈折率分布測定方法A2のステップS21,S22の処理を行うことに相当する。屈折率分布測定方法A3のステップS34の処理は、屈折率分布測定方法A2のステップS23の処理を行うことに相当する。
 なお、ステップS32において、複素振幅画像上の互いに異なる複数のシアー方向それぞれについて複素微分干渉画像を生成してもよい。この場合、2次元位相画像生成ステップS4は、ステップS32において、複数のバッチそれぞれの複素振幅総和画像に基づいて該画像上の互いに異なる複数のシアー方向それぞれについて複数のバッチそれぞれの複素微分干渉画像を生成し、ステップS33において、複数のシアー方向それぞれについて、複数のバッチそれぞれの複素微分干渉画像の総和に基づいて位相微分画像を生成し、ステップS34において、複数のシアー方向それぞれの位相微分画像に基づいて2次元位相画像を生成する。
 屈折率分布測定方法A3におけるスペックルの抑制は、屈折率分布測定方法A1及び屈折率分布測定方法A2と同程度である。屈折率分布測定方法A3におけるSMRの改善は、屈折率分布測定方法A1と屈折率分布測定方法A2との中間の程度である。
 ここでも、ステップS34において位相微分画像を積分又はデコンボリューションすることにより2次元位相画像を生成する場合を説明した。しかし、位相微分画像を2次元位相画像として扱うこともできる。この場合、ステップS34を行うことなく、屈折率分布算出ステップS6のデコンボリューションにおいて、ステップS34のデコンボリューションで用いたカーネルを含むカーネルを用いることにより、ステップS33で生成された位相微分画像(2次元位相画像)から観察対象物の3次元屈折率分布を求めることができる。
 次に、屈折率分布測定方法Bについて説明する。図B01~図B03は、屈折率分布測定方法Bによる屈折率分布を測定する際に用いることができる観察装置1D~1Fの各構成を示す図である。図B01に示される観察装置1Dは、図A01に示された観察装置1Aの構成と比較すると、光源11から撮像部43に到るまでの光学系については共通であるが、解析部50に替えて解析部60を備える点で相違する。図B02に示される観察装置1Eは、図A02に示された観察装置1Bの構成と比較すると、光源11から撮像部43に到るまでの光学系については共通であるが、解析部50に替えて解析部60を備える点で相違する。図B03に示される観察装置1Fは、図A03に示された観察装置1Cの構成と比較すると、光源11から撮像部43に到るまでの光学系については共通であるが、解析部50に替えて解析部60を備える点で相違する。
 解析部60は、撮像部43と電気的に接続されており、撮像部43により撮像された干渉強度画像を入力する。解析部60は、その入力した干渉強度画像を処理することにより、観察対象物Sの3次元屈折率分布を算出する。解析部60は、コンピュータであってよい。解析部60は、干渉強度画像取得部61、第1複素振幅画像生成部62、第2複素振幅画像生成部63、位相共役演算部64、2次元位相画像生成部65、3次元位相画像生成部66、屈折率分布算出部67、表示部68及び記憶部69を備える。
 干渉強度画像取得部61は、ミラー22の反射面の方位を変化させることにより、観察対象物Sに対して複数の光照射方向それぞれに沿って光を照射させる。また、干渉強度画像取得部61は、複数の光照射方向それぞれについて基準位置における干渉強度画像を撮像部43から取得する。干渉強度画像取得部61は、CPUを含み、ミラー22の反射面の方位を変化させる為の制御信号を出力する出力ポートを有し、また、撮像部43から干渉強度画像を入力する入力ポートを有する。対物レンズ25を光軸方向に移動させる必要はない。基準位置は、撮像部43の撮像面に対して共役関係にある像面位置である。
 第1複素振幅画像生成部62、第2複素振幅画像生成部63、位相共役演算部64、2次元位相画像生成部65、3次元位相画像生成部66及び屈折率分布算出部67は、干渉強度画像に基づいて処理を行うものであり、CPU、GPU、DSP又はFPGA等の処理装置を含む。表示部68は、処理すべき画像、処理途中の画像及び処理後の画像などを表示するものであり、例えば液晶ディスプレイを含む。記憶部69は、各種の画像のデータを記憶するものであり、ハードディスクドライブ、フラッシュメモリ、RAM及びROM等を含む。第1複素振幅画像生成部62、第2複素振幅画像生成部63、位相共役演算部64、2次元位相画像生成部65、3次元位相画像生成部66、屈折率分布算出部67及び記憶部69は、クラウドコンピューティングによって構成されてもよい。
 記憶部69は、干渉強度画像取得部61、第1複素振幅画像生成部62、第2複素振幅画像生成部63、位相共役演算部64、2次元位相画像生成部65、3次元位相画像生成部66及び屈折率分布算出部67に各処理を実行させるためのプログラムをも記憶する。このプログラムは、観察装置1D~1Fの製造時又は出荷時に記憶部69に記憶されていてもよいし、出荷後に通信回線を経由して取得されたものが記憶部69に記憶されてもよいし、コンピュータ読み取り可能な記録媒体2に記録されていたものが記憶部69に記憶されてもよい。記録媒体2は、フレキシブルディスク、CD-ROM、DVD-ROM、BD-ROM、USBメモリなど任意である。
 干渉強度画像取得部61、第1複素振幅画像生成部62、第2複素振幅画像生成部63、位相共役演算部64、2次元位相画像生成部65、3次元位相画像生成部66及び屈折率分布算出部67それぞれの処理の詳細については後述する。
 図B04は、屈折率分布測定方法Bのフローチャートである。この屈折率分布測定方法Bは、観察装置1D~1Fの何れを用いた場合においても可能なものである。この屈折率分布測定方法Bは、干渉強度画像取得ステップS61、第1複素振幅画像生成ステップS62、第2複素振幅画像生成ステップS63、位相共役演算ステップS64、2次元位相画像生成ステップS65、3次元位相画像生成ステップS66及び屈折率分布算出ステップS67を備える。
 干渉強度画像取得ステップS61の処理は干渉強度画像取得部61により行われる。第1複素振幅画像生成ステップS62の処理は第1複素振幅画像生成部62により行われる。第2複素振幅画像生成ステップS63の処理は第2複素振幅画像生成部63により行われる。位相共役演算ステップS64の処理は位相共役演算部64により行われる。2次元位相画像生成ステップS65の処理は2次元位相画像生成部65により行われる。3次元位相画像生成ステップS66の処理は3次元位相画像生成部66により行われる。屈折率分布算出ステップS67の処理は屈折率分布算出部67により行われる。
 干渉強度画像取得ステップS61において、干渉強度画像取得部61は、ミラー22の反射面の方位を変化させることにより、観察対象物Sに対して複数の光照射方向それぞれに沿って光を照射させる。そして、干渉強度画像取得部61は、複数の光照射方向それぞれについて基準位置における干渉強度画像を撮像部43から取得する。
 第1複素振幅画像生成ステップS62において、第1複素振幅画像生成部62は、複数の光照射方向それぞれについて、干渉強度画像取得部61により取得された基準位置の干渉強度画像に基づいて、基準位置の複素振幅画像を生成する。観察装置1D(図B01)及び観察装置1F(図B03)の場合には、第1複素振幅画像生成部62は、フーリエ縞解析法により、1枚の干渉強度画像に基づいて複素振幅画像を生成することができる。観察装置1E(図B02)の場合には、第1複素振幅画像生成部62は、位相シフト法により、物体光と参照光との間の光路長差(位相差)が互いに異なる3枚以上の干渉強度画像に基づいて複素振幅画像を生成することができる。
 第2複素振幅画像生成ステップS63において、第2複素振幅画像生成部63は、複数の光照射方向それぞれについて、第1複素振幅画像生成部62により生成された基準位置(z=0)の複素振幅画像に基づいて、複数のz方向位置それぞれの複素振幅画像を生成する。
 屈折率分布測定方法Bにおける干渉強度画像取得ステップS61、第1複素振幅画像生成ステップS62及び第2複素振幅画像生成ステップS63は、それぞれ、屈折率分布測定方法Aにおける干渉強度画像取得ステップS1、第1複素振幅画像生成ステップS2及び第2複素振幅画像生成ステップS3と同様の処理を行う。
 位相共役演算ステップS64は、第2複素振幅画像生成ステップS63の処理の後に行われる。位相共役演算ステップS64は、第2複素振幅画像生成ステップS63の処理の前に行われてもよい(後述)。また、第2複素振幅画像生成ステップS63が基準位置の複素振幅画像から複数段階を経て或るz位置の複素振幅画像を生成する場合には、その複数段階のうちの或る段階と次の段階との間において位相共役演算ステップS64が行われてもよい(後述)。位相共役演算ステップS64において、位相共役演算部64は、複数の照射方向それぞれの複素振幅画像に対して位相共役演算を行って、観察対象物に対する光照射及び撮像の関係を逆転させた場合の複数の照射方向それぞれの複素振幅画像を生成する。
 なお、位相共役演算は、位相共役法(phase conjugate method)に基づく複素振幅画像に対する演算であり、対象物における光照射と光出力との関係を表すトランスミッション行列を計算し、その逆行列計算と座標変換と含む演算である。位相共役法は、位相共役(phase conjugation)、時間反転法(time reversal method)、時間反転(time reversal)、デジタル位相共役(digital phase conjugation)、デジタル位相共役法(digital phase conjugate method)等と呼ばれる場合もある。詳細については後述する。
 2次元位相画像生成ステップS65において、2次元位相画像生成部65は、複数の位置それぞれについて、第2複素振幅画像生成部63又は位相共役演算部64により生成された複数の光照射方向それぞれの複素振幅画像に基づいて2次元位相画像を生成する。ここで生成される2次元位相画像は、フォーカスを合わせたz方向位置を中心とする位相画像に相当する。
 2次元位相画像生成ステップS65において、位相共役演算ステップS64の処理を行う前の複素振幅画像に基づいて生成される位相画像を第1位相画像とし、位相共役演算ステップS64の処理を行って求められた複素振幅画像に基づいて生成される位相画像を第2位相画像としたとき、複数の位置のうち、撮像部に対し相対的に近い位置については主として第1位相画像に基づいて2次元位相画像を生成し、撮像部に対し相対的に遠い位置については主として第2位相画像に基づいて2次元位相画像を生成する。
 なお、第2複素振幅画像生成ステップS63において複数の光照射方向それぞれについて複数の位置それぞれの複素振幅画像を全て生成した後に、位相共役演算ステップS64以降の処理を行ってもよい。また、第2複素振幅画像生成ステップS63において複数の光照射方向それぞれについて或る1つのz方向位置の複素振幅画像を生成し、該位置の2次元位相画像を2次元位相画像生成ステップS65において生成する処理を単位として、z方向位置を走査しながら当該単位処理を繰り返し行ってもよい。後者の場合には、記憶部69が記憶しておくべき画像データの容量を小さくすることができる点でよい。
 3次元位相画像生成ステップS66において、3次元位相画像生成部66は、2次元位相画像生成部65により生成された複数の位置それぞれの2次元位相画像に基づいて3次元位相画像を生成する。ここで生成される3次元位相画像は、2次元位相画像中での位置x,y及び該2次元位相画像の位置zを変数とする画像である。
 屈折率分布算出ステップS67において、屈折率分布算出部67は、3次元位相画像生成部66により生成された3次元位相画像に基づいて、デコンボリューションにより観察対象物の3次元屈折率分布を求める。
 屈折率分布測定方法Bにおける2次元位相画像生成ステップS65、3次元位相画像生成ステップS66及び屈折率分布算出ステップS67は、それぞれ、屈折率分布測定方法Aにおける2次元位相画像生成ステップS4、3次元位相画像生成ステップS5及び屈折率分布算出ステップS6と同様の処理を行う。
 図B05は、第2複素振幅画像生成ステップS63及び2次元位相画像生成ステップS65の各処理の順序及び画像を説明する図である。この図は、位相共役演算ステップS64の処理を行わない態様を示す。この態様では、第2複素振幅画像生成ステップS63において、複数の光照射方向それぞれについて、上記(1)式及び(2)式の自由伝搬の式により、第1複素振幅画像生成ステップS62で生成された基準位置(z=0)の複素振幅画像に基づいて、複数のz方向位置(この図ではz=z,z,z)それぞれの複素振幅画像が生成される。そして、2次元位相画像生成ステップS65において、複数の位置それぞれについて、第2複素振幅画像生成ステップS63で生成された複数の光照射方向それぞれの複素振幅画像に基づいて、複素微分干渉画像が生成され、さらに位相微分画像が生成される。
 図B06~図B08は、第2複素振幅画像生成ステップS63、位相共役演算ステップS64及び2次元位相画像生成ステップS65の各処理の順序及び画像を説明する図である。これらの図は、第2複素振幅画像生成ステップS63の処理の前、途中又は後で位相共役演算ステップS64の処理を行う態様を示す。
 図B06に示される第1態様は、図B04のフローチャートに対応するものである。この第1態様では、位相共役演算ステップS64は、第2複素振幅画像生成ステップS63の処理の後に行われる。第2複素振幅画像生成ステップS63において、複数の光照射方向それぞれについて、上記(1)式及び(2)式の自由伝搬の式により、第1複素振幅画像生成ステップS62で生成された基準位置(z=0)の複素振幅画像に基づいて、複数のz方向位置(この図ではz=z,z,z)それぞれの複素振幅画像が生成される。
 第1態様では、続いて、位相共役演算ステップS64において、複数の位置それぞれについて、複数の照射方向それぞれの複素振幅画像に対して位相共役演算が行われて、観察対象物に対する光照射及び撮像の関係を逆転させた場合の複数の照射方向それぞれの複素振幅画像が生成される。そして、2次元位相画像生成ステップS65において、複数の位置それぞれについて、位相共役演算ステップS64で生成された複数の光照射方向それぞれの複素振幅画像に基づいて、複素微分干渉画像が生成され、さらに位相微分画像が生成される。
 図B07に示される第2態様では、位相共役演算ステップS64は、第2複素振幅画像生成ステップS63の処理の前に行われる。位相共役演算ステップS64において、複数の光照射方向それぞれについて、第1複素振幅画像生成ステップS62で生成された基準位置(z=0)の複素振幅画像に対して位相共役演算が行われて、観察対象物に対する光照射及び撮像の関係を逆転させた場合の複数の照射方向それぞれの複素振幅画像が生成される。
 第2態様では、続いて、第2複素振幅画像生成ステップS63において、複数の光照射方向それぞれについて、上記(1)式及び(2)式の自由伝搬の式により、位相共役演算ステップS64で生成された基準位置(z=0)の複素振幅画像に基づいて、複数のz方向位置(この図ではz=z,z,z)それぞれの複素振幅画像が生成される。そして、2次元位相画像生成ステップS65において、複数の位置それぞれについて、第2複素振幅画像生成ステップS63で生成された複数の光照射方向それぞれの複素振幅画像に基づいて、複素微分干渉画像が生成され、さらに位相微分画像が生成される。
 図B08に示される第3態様では、第2複素振幅画像生成ステップS63が基準位置の複素振幅画像から2つの段階を経て複数の位置それぞれの複素振幅画像を生成する場合に、その2つの段階のうちの第1段階と第2段階との間において位相共役演算ステップS64が行われる。
 第3態様では、第2複素振幅画像生成ステップS63の第1段階において、複数の光照射方向それぞれについて、上記(1)式及び(2)式の自由伝搬の式により、第1複素振幅画像生成ステップS62で生成された基準位置(z=0)の複素振幅画像に基づいて、複数のz方向位置(この図ではz=z,z,z)それぞれの複素振幅画像が生成される。続いて、位相共役演算ステップS64において、複数の照射方向それぞれの複素振幅画像に対して位相共役演算が行われて、観察対象物に対する光照射及び撮像の関係を逆転させた場合の複数の照射方向それぞれの複素振幅画像が生成される。
 第3態様では、更に続いて、第2複素振幅画像生成ステップS63の第2段階において、複数の光照射方向それぞれについて、上記(1)式及び(2)式の自由伝搬の式により、位相共役演算ステップS64で生成されたz方向位置(z=z,z,z)の複素振幅画像に基づいて、z方向位置(z=z,z,z)それぞれの複素振幅画像が生成される。そして、2次元位相画像生成ステップS65において、複数の位置それぞれについて、第2複素振幅画像生成ステップS63で生成された複数の光照射方向それぞれの複素振幅画像に基づいて、複素微分干渉画像が生成され、さらに位相微分画像が生成される。
 これらの第1態様、第2態様及び第3態様の間では、位相共役演算ステップS64における複素振幅画像に対する位相共役演算の回数が異なる。位相共役演算ステップS64の全体の処理時間は、第1態様より第3態様の方が短く、第2態様では更に短い。
 図B09は、3次元位相画像生成ステップS66及び屈折率分布算出ステップS67の各処理の順序及び画像を説明する図である。3次元位相画像生成ステップS66において、2次元位相画像生成ステップS65で生成された複数の位置それぞれの2次元位相画像に基づいて3次元位相画像が生成される。このとき、撮像部に対し相対的に近い位置については、位相共役演算ステップS64の処理を行う前の複素振幅画像に基づいて生成された2次元位相画像(図B05の態様で生成された2次元位相画像)が主として採用される。一方、撮像部に対し相対的に遠い位置については、位相共役演算ステップS64の処理を行った後の複素振幅画像に基づいて生成された2次元位相画像(図B06~図B08の何れかの態様で生成された2次元位相画像)が主として採用される。続いて、屈折率分布算出ステップS67において、3次元位相画像生成ステップS66で生成された3次元位相画像に基づいて、デコンボリューションにより観察対象物の3次元屈折率分布が求められる。なお、3次元屈折率分布を構成する各屈折率分布データ(例えば、図B09において、3次元屈折率分布を構成する2次元の屈折率分布データ)は、屈折率断層データとなりえる。
 z方向の各位置の2次元位相画像の生成は、次のような3つの態様がある。位相共役演算ステップS64の処理を行う前の複素振幅画像に基づいて生成される位相画像(図B05の態様で生成される位相画像)を第1位相画像φとする。位相共役演算ステップS64の処理を行った後の複素振幅画像に基づいて生成される位相画像(図B06~図B08の何れかの態様で生成される位相画像)を第2位相画像φとする。光伝搬経路に沿った撮像部からの距離を表す変数zに対する微係数が0以下である重み関数αを用いる。重み関数の値は0以上1以下である。
 第1態様では、重み関数αは、zが閾値zth以下である範囲において正値(例えば1)であり、それ以外の範囲において値が0であるとする。すなわち、2次元位相画像は下記(8)式で表される。
Figure JPOXMLDOC01-appb-M000008
 第2態様では、重み関数αは、z方向の少なくとも一部範囲において連続的に値が変化するものとする。すなわち、2次元位相画像は下記(9)式で表される。
Figure JPOXMLDOC01-appb-M000009
 第3態様では、重み関数αは、光軸(z方向)に直交する面における位置(x,y)に応じた値を有するものとする。すなわち、2次元位相画像は下記(10)式で表される。
Figure JPOXMLDOC01-appb-M000010
 次に、図B10及び図B11を用いて、位相共役演算ステップS64による位相共役演算の内容について説明する。
 図B10は、撮像部により干渉強度画像を撮像するときの入力光Uin(kin)及び出力光uout(rout)を示す図である。Uin(kin)は、観察対象物へ照射される光の波数kinの複素振幅を表す。uout(rout)は、観察対象物から出力される光の位置routの複素振幅を表す。Uin(kin)とuout(rout)との間の関係は、下記(11)式で表される。列ベクトルUinの第n要素Uin(kin )は、波数kin の平面波の複素振幅を表す。列ベクトルuoutの第n要素uout(rout )は、位置rout で観測される光の複素振幅を表す。N行N列の行列T(rout,kin)は、Uin(kin)とuout(rout)との間の線形な関係を表すものであって、トランスミッション行列と呼ばれる。このようなトランスミッション行列により、観察対象物における光の散乱過程を表すことができる。行列T(rout,kin)の第n1行第n2列の要素Tn1,n2は、波数kin n2で振幅1の平面波が入力されたときに位置rout n1で観測される光の複素振幅を表す。
Figure JPOXMLDOC01-appb-M000011
 図B11は、光照射及び撮像の関係を逆転させた場合の入力光Uout(kout)及び出力光uin(rin)を示す図である。この場合、Uout(kout)は、観察対象物へ照射される光の波数koutの複素振幅を表す。uin(rin)は、観察対象物から出力される光の位置rinの複素振幅を表す。Uout(kout)とuin(rin)との間の関係は、下記(12)式で表される。列ベクトルUoutの第n要素Uout(kout )は、波数kout の平面波の複素振幅を表す。列ベクトルuinの第n要素uin(rin )は、位置rin で観測される光の複素振幅を表す。N行N列の行列S(rin,kout)は、Uout(kout)とuin(rin)との間の線形な関係を表すものであって、光照射及び撮像の関係を逆転させた場合のトランスミッション行列である。
Figure JPOXMLDOC01-appb-M000012
 Uin(kin)は、下記(13)式のようにuin(rin)のフーリエ変換で表される。Uout(kout)は、下記(14)式のようにuout(rout)のフーリエ変換で表される。(11)式~(14)式を用いると、光照射及び撮像の関係を逆転させた場合のトランスミッション行列S(rin,kout)は、逆フーリエ変換を表す行列とトランスミッション行列T(rout,kin)を用いて下記(15)式で表される。
Figure JPOXMLDOC01-appb-M000013
Figure JPOXMLDOC01-appb-M000014
Figure JPOXMLDOC01-appb-M000015
 位相共役演算ステップS64では、まず、複素振幅画像に基づいて、撮像部により干渉強度画像を撮像したときのトランスミッション行列T(rout,kin)を求める。次に、このトランスミッション行列T(rout,kin)及び上記(15)式に基づいて、光照射及び撮像の関係を逆転させた場合のトランスミッション行列S(rin,kout)を求める。そして、このトランスミッション行列S(rin,kout)に基づいて、光照射及び撮像の関係を逆転させた場合の複素振幅画像を求める。
 複数の光照射方向それぞれについて撮像部により干渉強度画像を撮像するときの第nの光照射方向の入力光のベクトルUin (kin)は、下記(16)式で表され、第n要素の値のみが1であって、他の要素の値が0である。この入力光Uin (kin)に対して、出力光uout (rout)は、下記(17)式で表される。この(17)式は、第nの光照射方向の際に得られた複素振幅に対応する。
Figure JPOXMLDOC01-appb-M000016
Figure JPOXMLDOC01-appb-M000017
 この(16)式及び上記(11)式から、下記(18)式が得られる。そして、複数の光照射方向それぞれについて同様に求めると、下記(19)式が得られる。このようにして、トランスミッション行列T(rout,kin)を求めることができる。さらに、この(19)式及び上記(15)式から、光照射及び撮像の関係を逆転させた場合のトランスミッション行列S(rin,kout)を求めることができる。
Figure JPOXMLDOC01-appb-M000018
Figure JPOXMLDOC01-appb-M000019
 光照射及び撮像の関係を逆転させた場合の複数の光照射方向のうちの第nの光照射方向の入力光Uout (kout)は、下記(20)式で表され、第n要素の値のみが1であって、他の要素の値が0である。この式から、この入力光Uout (kout)に対する出力光uin (rin)は、下記(21)式で表される。この(21)式は、光照射及び撮像の関係を逆転させた場合の複素振幅を表す。このようにして、光照射及び撮像の関係を逆転させた場合の複素振幅画像を求めることができる。
Figure JPOXMLDOC01-appb-M000020
Figure JPOXMLDOC01-appb-M000021
 光照射及び撮像の関係を逆転させた場合のトランスミッション行列S(rin,kout)を求める際に、上記(15)式に示されるとおり、トランスミッション行列T(rout,kin)の逆行列を計算する必要がある。したがって、トランスミッション行列Tは、行要素の数と列要素の数とが互いに等しい正方行列であることが必要である。すなわち、干渉強度画像取得ステップS61の際の観察対象物に対する光照射側波数空間における行列の次元(matrix dimension)と、複素振幅画像の画素数とは、互いに等しいことが必要である。
 両者を互いに等しくするには、干渉強度画像取得ステップS61の際の観察対象物に対する光照射側波数空間における行列の次元を画素数に一致させるか、撮像部により得られた画像のうち一部範囲の画像のみを爾後の処理に用いるかすればよい。しかし、一般には、撮像部により得られる画像の画素数は例えば1024×1024であることから、観察対象物に対する光照射側波数空間における行列の次元を画素数と同じにすることは容易ない。また、撮像部により得られた画像のうち一部範囲の画像のみを爾後の処理に用いることは、解像度の低下につながる。
 そこで、図B12に示されるように、位相共役演算ステップS64において、観察対象物に対する光照射側波数空間における行列の次元と同じ画素数を各々有する複数の部分画像に複素振幅画像を分割し、これら複数の部分画像それぞれに対して位相共役演算を行い、その後に複数の部分画像を結合するのがよい。このとき、複数の部分画像のうち何れか2以上の部分画像が共通の領域を有していてもよい。
 次に、屈折率分布測定方法Cについて説明する。図C01~図C03は、屈折率分布測定方法Cによる屈折率分布を測定する際に用いることができる観察装置1G~1Iの各構成を示す図である。図C01に示される観察装置1Gは、図A01に示された観察装置1Aの構成と比較すると、光源11から撮像部43に到るまでの光学系については共通であるが、解析部50に替えて解析部70を備える点で相違する。図C02に示される観察装置1Hは、図A02に示された観察装置1Bの構成と比較すると、光源11から撮像部43に到るまでの光学系については共通であるが、解析部50に替えて解析部70を備える点で相違する。図C03に示される観察装置1Iは、図A03に示された観察装置1Cの構成と比較すると、光源11から撮像部43に到るまでの光学系については共通であるが、解析部50に替えて解析部70を備える点で相違する。
 解析部70は、撮像部43と電気的に接続されており、撮像部43により撮像された干渉強度画像を入力する。解析部70は、その入力した干渉強度画像を処理することにより、観察対象物Sの3次元屈折率分布を算出する。解析部70は、コンピュータであってよい。解析部70は、干渉強度画像取得部71、第1複素振幅画像生成部72、第2複素振幅画像生成部73、2次元位相画像生成部74、3次元位相画像生成部75、屈折率分布算出部76、第3複素振幅画像生成部77、表示部78及び記憶部79を備える。
 干渉強度画像取得部71は、ミラー22の反射面の方位を変化させることにより、観察対象物Sに対して複数の光照射方向それぞれに沿って光を照射させる。また、干渉強度画像取得部71は、複数の光照射方向それぞれについて基準位置における干渉強度画像を撮像部43から取得する。干渉強度画像取得部71は、CPUを含み、ミラー22の反射面の方位を変化させる為の制御信号を出力する出力ポートを有し、また、撮像部43から干渉強度画像を入力する入力ポートを有する。対物レンズ25を光軸方向に移動させる必要はない。基準位置は、撮像部43の撮像面に対して共役関係にある像面位置である。
 第1複素振幅画像生成部72、第2複素振幅画像生成部73、2次元位相画像生成部74、3次元位相画像生成部75、屈折率分布算出部76及び第3複素振幅画像生成部77は、干渉強度画像に基づいて処理を行うものであり、CPU、GPU、DSP又はFPGA等の処理装置を含む。表示部78は、処理すべき画像、処理途中の画像及び処理後の画像などを表示するものであり、例えば液晶ディスプレイを含む。記憶部79は、各種の画像のデータを記憶するものであり、ハードディスクドライブ、フラッシュメモリ、RAM及びROM等を含む。第1複素振幅画像生成部72、第2複素振幅画像生成部73、2次元位相画像生成部74、3次元位相画像生成部75、屈折率分布算出部76、第3複素振幅画像生成部77及び記憶部79は、クラウドコンピューティングによって構成されてもよい。
 記憶部79は、干渉強度画像取得部71、第1複素振幅画像生成部72、第2複素振幅画像生成部73、2次元位相画像生成部74、3次元位相画像生成部75、屈折率分布算出部76及び第3複素振幅画像生成部77に各処理を実行させるためのプログラムをも記憶する。このプログラムは、観察装置1G~1Iの製造時又は出荷時に記憶部79に記憶されていてもよいし、出荷後に通信回線を経由して取得されたものが記憶部79に記憶されてもよいし、コンピュータ読み取り可能な記録媒体2に記録されていたものが記憶部79に記憶されてもよい。記録媒体2は、フレキシブルディスク、CD-ROM、DVD-ROM、BD-ROM、USBメモリなど任意である。
 干渉強度画像取得部71、第1複素振幅画像生成部72、第2複素振幅画像生成部73、2次元位相画像生成部74、3次元位相画像生成部75及び屈折率分布算出部76及び第3複素振幅画像生成部77それぞれの処理の詳細については後述する。
 図C04及び図C05は、屈折率分布測定方法Cのフローチャートである。図C05は、図C04のフローチャートの一部を示す。この屈折率分布測定方法Cは、観察装置1G~1Iの何れを用いた場合においても可能なものである。この屈折率分布測定方法Cは、干渉強度画像取得ステップS71、第1複素振幅画像生成ステップS72、第2複素振幅画像生成ステップS73、2次元位相画像生成ステップS74、3次元位相画像生成ステップS75、屈折率分布算出ステップS76及び第3複素振幅画像生成ステップS77を備える。
 干渉強度画像取得ステップS71の処理は干渉強度画像取得部71により行われる。第1複素振幅画像生成ステップS72の処理は第1複素振幅画像生成部72により行われる。第2複素振幅画像生成ステップS73の処理は第2複素振幅画像生成部73により行われる。2次元位相画像生成ステップS74の処理は2次元位相画像生成部74により行われる。3次元位相画像生成ステップS75の処理は3次元位相画像生成部75により行われる。屈折率分布算出ステップS76の処理は屈折率分布算出部76により行われる。第3複素振幅画像生成ステップS77の処理は第3複素振幅画像生成部77により行われる。
 干渉強度画像取得ステップS71において、干渉強度画像取得部71は、ミラー22の反射面の方位を変化させることにより、観察対象物Sに対して複数の光照射方向それぞれに沿って光を照射させる。そして、干渉強度画像取得部71は、複数の光照射方向それぞれについて基準位置における干渉強度画像を撮像部43から取得する。
 第1複素振幅画像生成ステップS72において、第1複素振幅画像生成部72は、複数の光照射方向それぞれについて、干渉強度画像取得部71により取得された干渉強度画像に基づいて、複素振幅画像を生成する。観察装置1G(図C01)及び観察装置1I(図C03)の場合には、第1複素振幅画像生成部72は、フーリエ縞解析法により、1枚の干渉強度画像に基づいて複素振幅画像を生成することができる。観察装置1H(図C02)の場合には、第1複素振幅画像生成部72は、位相シフト法により、物体光と参照光との間の光路長差(位相差)が互いに異なる3枚以上の干渉強度画像に基づいて複素振幅画像を生成することができる。第1複素振幅画像生成ステップS72において生成される複素振幅画像は、干渉強度画像と同じ基準位置のものであってもよいし、基準位置の複素振幅画像に基づいて生成された他の位置のものであってもよい。
 第2複素振幅画像生成ステップS73において、第2複素振幅画像生成部73は、複数の光照射方向それぞれについて、光伝搬経路に沿った撮像部43からの距離に関し第1位置の複素振幅画像に基づいて、第1位置から第2位置までの間の複数のz方向位置それぞれの複素振幅画像を生成する。
 2次元位相画像生成ステップS74において、2次元位相画像生成部74は、複数の位置それぞれについて、第2複素振幅画像生成部73により生成された複数の光照射方向それぞれの複素振幅画像に基づいて2次元位相画像を生成する。ここで生成される2次元位相画像は、フォーカスを合わせたz方向位置を中心とする位相画像に相当する。
 3次元位相画像生成ステップS75において、3次元位相画像生成部75は、2次元位相画像生成部74により生成された複数の位置それぞれの2次元位相画像に基づいて、第1位置から第2位置までの間の3次元位相画像を生成する。ここで生成される3次元位相画像は、2次元位相画像中での位置x,y及び該2次元位相画像の位置zを変数とする画像である。
 屈折率分布算出ステップS76において、屈折率分布算出部76は、3次元位相画像生成部75により生成された3次元位相画像に基づいて、デコンボリューションにより、第1位置から第2位置までの間の観察対象物の3次元屈折率分布を求める。
 屈折率分布測定方法Cにおける干渉強度画像取得ステップS71、第1複素振幅画像生成ステップS72、第2複素振幅画像生成ステップS73、2次元位相画像生成ステップS74、3次元位相画像生成ステップS75及び屈折率分布算出ステップS76は、それぞれ、屈折率分布測定方法Aにおける干渉強度画像取得ステップS1、第1複素振幅画像生成ステップS2、第2複素振幅画像生成ステップS3、2次元位相画像生成ステップS4、3次元位相画像生成ステップS5及び屈折率分布算出ステップS6と略同様の処理を行う。
 第3複素振幅画像生成ステップS77において、第3複素振幅画像生成部77は、複数の光照射方向それぞれについて、第2複素振幅画像生成ステップS73で用いた第1位置の複素振幅画像、及び、屈折率分布算出ステップS76で算出した第1位置から第2位置までの間の観察対象物の3次元屈折率分布に基づいて、第2位置の複素振幅画像を生成する。
 第2複素振幅画像生成ステップS73、2次元位相画像生成ステップS74、3次元位相画像生成ステップS75及び屈折率分布算出ステップS76を含むステップS83では、光伝搬経路に沿った撮像部43からの距離に関し第1位置の複素振幅画像に基づいて、第1位置から第2位置までの間の観察対象物の3次元屈折率分布を求める。ステップS83及び第3複素振幅画像生成ステップS77の各処理は繰り返し行われる。このことについて、図C04~図C07を用いて説明する。
 図C06は、観察対象物を含む領域と第1~第Jのブロックとの関係を説明する図である。この図に示されるように、光伝搬経路(z方向)に沿った撮像部からの距離に基づいて観察対象物を含む領域を順に第1~第Jのブロックに区分する。この図では、J=3としている。第1~第Jのブロックのうちの第jブロックは、z=zj-1からz=zまでの領域である。各第jブロックにおいて、撮像部に対し最も近いz=zj-1の位置(近端)を第1位置とし、撮像部に対し最も遠いz=zの位置(遠端)を第2位置とする。
 図C07は、第1~第Jのブロックにおける処理の手順を説明する図である。この図に示されるように、各第jブロックについて、ステップS83で、第1位置の複素振幅画像に基づいて、第1位置から第2位置までの間の複数のz方向位置それぞれの複素振幅画像及び2次元位相画像を生成し、第1位置から第2位置までの間の3次元位相画像を生成し更に3次元屈折率分布を求める。各第jブロックについて、第3複素振幅画像生成ステップS77で、第1位置の複素振幅画像、及び、ステップS83で算出した3次元屈折率分布に基づいて、第2位置の複素振幅画像を生成する。
 第3複素振幅画像生成ステップS77で生成された第(j+1)ブロックの第2位置の複素振幅画像は、次の第jブロックの第1位置の複素振幅画像として用いられて、第jブロックについてステップS83及び第3複素振幅画像生成ステップS77の各処理が行われる。第1~第Jのブロックそれぞれについて3次元屈折率分布が得られたら、これらを結合することで観察対象物の全体の3次元屈折率分布が得られる。なお、第1~第Jのブロックそれぞれの3次元屈折率分布(例えば、図C07の第1ブロックの屈折率分布、第2ブロックの屈折率分布及び第3ブロックの屈折率分布)は、屈折率断層データとなりえる。
 図C04及び図C05に示されるように、第1複素振幅画像生成ステップS72の後のステップS81においてj=0とされ、続くステップS82においてjの値が1増されてj=1とされて、第1ブロックについてステップS83及び第3複素振幅画像生成ステップS77の各処理が行われる。すなわち、撮像部に対し最も近い第1ブロックについては、第1複素振幅画像生成ステップS72で生成した複素振幅画像に基づいて、撮像部に対し最も近いz=zの位置(近端)を第1位置とし、撮像部に対し最も遠いz=zの位置(遠端)を第2位置として、ステップS83(第2複素振幅画像生成ステップS73、2次元位相画像生成ステップS74、3次元位相画像生成ステップS75、屈折率分布算出ステップS76)及び第3複素振幅画像生成ステップS77それぞれの処理が順に行われる。その後、ステップS82に戻る。
 第jブロック(ここでは、jは2以上J未満)については、第3複素振幅画像生成ステップS77で第(j-1)ブロックについて生成した複素振幅画像に基づいて、撮像部に対し最も近いz=zj-1の位置(近端)を第1位置とし、撮像部に対し最も遠いz=zの位置(遠端)を第2位置として、ステップS83(第2複素振幅画像生成ステップS73、2次元位相画像生成ステップS74、3次元位相画像生成ステップS75、屈折率分布算出ステップS76)及び第3複素振幅画像生成ステップS77それぞれの処理が順に行われる。その後、ステップS82に戻る。
 撮像部に対し最も遠い最終段ブロックである第Jブロックについては、第3複素振幅画像生成ステップS77で第(J-1)ブロックについて生成した複素振幅画像に基づいて、撮像部に対し最も近いz=zJ-1の位置(近端)を第1位置とし、撮像部に対し最も遠いz=zの位置(遠端)を第2位置として、ステップS83(第2複素振幅画像生成ステップS73、2次元位相画像生成ステップS74、3次元位相画像生成ステップS75、屈折率分布算出ステップS76)の処理が行われる。
 第Jブロックについては、ステップS83の後のステップS84において、最終段ブロックであると判断されて、第3複素振幅画像生成ステップS77に進むことなく終了すればよい。なお、第Jブロックについては、3次元位相画像生成ステップS75の後において、最終段ブロックであると判断されて、屈折率分布算出ステップS76に進むことなく終了してもよく、この場合には、観察対象物の全体の3次元位相画像が得られる。
 なお、光伝搬経路(z方向)に沿った撮像部からの距離に基づいて観察対象物を含む領域を順に2個のブロックに区分してもよく、その場合には、上述した第1ブロックについての処理及び最終段の第Jブロックについての処理を行えばよい。また、観察対象物を含む領域を複数のブロックに区分しなくてもよく、その場合には、ステップS83(第2複素振幅画像生成ステップS73、2次元位相画像生成ステップS74、3次元位相画像生成ステップS75、屈折率分布算出ステップS76)及び第3複素振幅画像生成ステップS77それぞれの処理を順に1回のみ行ってもよい。
 次に、第3複素振幅画像生成ステップS77の詳細について説明する。観察対象物に光を照射して干渉強度画像を取得する際に、各第jブロックにおいて、第2位置(z=z)の光波面は、第jブロックの内部を伝搬して第1位置(z=zj-1)に到達し更に撮像部まで伝搬する。そこで、第3複素振幅画像生成ステップS77において、第jブロックの屈折率分布を考慮した数値計算により、第1位置(z=zj-1)の光波面を第jブロックの内部を逆伝搬させることで、第2位置(z=z)の光波面を求める。すなわち、第3複素振幅画像生成ステップS77において、複数の光照射方向それぞれについて、第jブロックの第1位置(z=zj-1)の複素振幅画像及び第jブロックの屈折率分布に基づいて、第jブロックの第2位置(z=z)の複素振幅画像を生成する。この処理に際して、媒質の屈折率分布を考慮して光波面の伝搬を数値計算する手法が用いられる。このような不均一媒質伝搬の数値計算手法として、BPM(Beam Propagation Method)及びSSNP(Split-Step Non-Paraxial)等が知られている。以下では、第3複素振幅画像生成ステップS77においてBPMを用いた処理について説明する。
 図C08は、BPMの処理内容を説明する図である。この図は、任意の第jブロックを示している。この図に示されるように、光伝搬経路(z方向)に沿った撮像部からの距離に基づいて第jブロックをM個(この図では7個)のスライス(第1~第Mのスライス)に区分する。各スライスの厚みは波長程度である。
 各スライスの厚みは一定であってもよい。ここでは、各スライスの厚みを一定値のΔzとする。第jブロックの第1~第Mのスライスのうちの第mスライスは、位置(zj-1+(m-1)Δz)から位置(zj-1+mΔz)までである。第jブロックの第1位置(z=zj-1)から第2位置(z=z)へ向かって順に、第1~第Mのスライスにおいて順次に、屈折率分布に応じた位相変化を与えて光波面をΔzだけ逆伝搬させる。
 なお、第3複素振幅画像生成ステップS77の処理における各スライスの厚みΔzは、第2複素振幅画像生成ステップS73の処理で第1位置から第2位置までの間の複数のz方向位置それぞれの複素振幅画像を生成する際の位置間隔と、異なっていてもよいし、一致していてもよい。
 位置zにある厚みΔzのスライスを逆伝搬する際に光波面に与えられる位相変化o(x,y,z)は、下記(22)式で表される。この(22)式中のkは真空中での光の波数である。δn(x,y,z)は、位置zにおける観察対象物の屈折率分布n(x,y,z)と背景(媒質)の屈折率nとの差分であり、下記(23)式で表される。また、cosθは下記(24)式で表される。
Figure JPOXMLDOC01-appb-M000022
Figure JPOXMLDOC01-appb-M000023
Figure JPOXMLDOC01-appb-M000024
 第mスライスの位置(z=zj-1+(m-1)Δz)における光の複素振幅をu(x,y,z)とすると、第mスライスの内部を光が逆伝搬した後の位置(z+Δz)における光の複素振幅u(x,y,z+Δz)は、下記(25)式で表される。この(25)式中のP(k,k;Δz)は、下記(26)式で表される。(25)式は、光の複素振幅u(x,y,z)と位相変化o(x,y,z)との積をフーリエ変換し、このフーリエ変換の結果とP(k,k;Δz)との積を逆フーリエ変換することで、厚みΔzのスライスを伝搬した後の位置(z+Δz)における光の複素振幅u(x,y,z+Δz)を求めることを表している。PΔzは、Δzの光伝搬の演算を行う関数である。
Figure JPOXMLDOC01-appb-M000025
Figure JPOXMLDOC01-appb-M000026
 第jブロックの各スライスにおける光波面の伝搬は、下記(27)式~(29)式で表される。すなわち、第jブロックの第1位置(z=zj-1)における光の複素振幅をu(x,y,zj-1)とすると、第jブロックの第1スライスを伝搬した後の光の複素振幅u(x,y,zj-1+Δz)は、下記(27)式で表される。第jブロックの第(m-1)スライスを伝搬した後の光の複素振幅をu(x,y,zj-1+(m-1)Δz)とすると、第jブロックの第mスライスを伝搬した後の光の複素振幅u(x,y,zj-1+mΔz)は、下記(28)式で表される。第jブロックの第(M-1)スライスを伝搬した後の光の複素振幅をu(x,y,zj-1+(M-1)Δz)とすると、第jブロックの第Mスライスを伝搬した後の第2位置(z=z)における光の複素振幅u(x,y,z)は、下記(29)式で表される。
Figure JPOXMLDOC01-appb-M000027
Figure JPOXMLDOC01-appb-M000028
Figure JPOXMLDOC01-appb-M000029
 このようにして、第3複素振幅画像生成ステップS77において、第jブロックの屈折率分布を考慮した数値計算により、第1位置(z=zj-1)の光波面を第jブロックの内部をスライス毎に順次に逆伝搬させることで、第2位置(z=z)の光波面を求めることができる。
 図C09は、第3複素振幅画像生成ステップS77のフローチャートである。ステップS41において、位置zを、第jブロックの第1位置(z=zj-1)に初期化する。ステップS42において、位置zにおける光の複素振幅u(x,y,z)と位相変化o(x,y,z)との相互作用を求める。ステップS43において、その相互作用後の光の波面を距離Δzだけ伝搬させて、位置z+Δzにおける光の複素振幅u(x,y,z+Δz)を求める。ステップS44において、Δzを加算したzを新たなzとする。ステップS44において、位置zが第jブロックの第2位置(z=z)に未だ到達していないと判断されれば、ステップS42に戻って、ステップS42~S44を繰り返す。ステップS44において、位置zが第jブロックの第2位置(z=z)に到達したと判断されれば、第3複素振幅画像生成ステップS77の処理を終了する。終了時に取得された光の複素振幅が第jブロックの第2位置(z=z)における複素振幅となる。
 以上に説明した屈折率分布測定方法A~Cの何れも、観察対象物が多重散乱体である場合であっても、多重散乱光の影響が低減された3次元屈折率トモグラフィを実現することができる。屈折率分布測定方法A~Cの何れも、観察対象物としての3次元培養体の屈折率分布を測定するのによい。
 なお、自己干渉を用いる観察装置及び屈折率分布測定方法でもよい。例えば、図C10に示される観察装置1Jは、光源11、レンズ12、レンズ21、ミラー22、レンズ23、コンデンサレンズ24、対物レンズ25、ミラー44、レンズ42、撮像部43及び解析部70などを備える。これまでに説明した観察装置の構成と比較すると、観察装置1Jでは、光源11から出力された光は、光ファイバ14により導光された後、2分岐されることなく光出射端18から出射される点で相違する。また、観察装置1Jは、ビームスプリッタ41に替えてミラー44が設けられている点で相違する。観察装置1Jは、干渉光学系を備えていない。撮像部43は、複数の光照射方向それぞれに沿って観察対象物Sに照射されて観察対象物Sを経た光の自己干渉による基準位置の干渉強度画像を撮像することができる。解析部70は、このような自己干渉による干渉強度画像を用いて、これまでに説明したと同様の画像処理を行うことができる。
 また、第1位置から第2位置までの間の観察対象物Sの3次元屈折率分布は、3次元位相画像に基づく屈折率分布でなくてもよく、屈折率分布を取得できる屈折率分布取得装置を別途用いて取得してもよい。この場合、観察装置は、(1) 複数の光照射方向それぞれに沿って観察対象物に照射されて観察対象物を経た光の基準位置の干渉強度画像を撮像した撮像部から、複数の光照射方向それぞれの基準位置の干渉強度画像を取得する干渉強度画像取得部と、(2) 複数の光照射方向それぞれについて、干渉強度画像に基づいて複素振幅画像を生成する第1複素振幅画像生成部と、(3) 光伝搬経路に沿った撮像部からの距離に関し第1位置から第2位置までの間の、観察対象物の3次元屈折率分布を取得する屈折率分布取得部と、(4) 複数の光照射方向それぞれについて、第1位置の複素振幅画像及び3次元屈折率分布に基づいて第2位置の複素振幅画像を生成する第2複素振幅画像生成部(観察装置1A~1Dの第3複素振幅画像生成部に相当)と、を備えればよい。
 また、この場合、屈折率分布測定方法は、(1) 複数の光照射方向それぞれに沿って観察対象物に照射されて観察対象物を経た光の基準位置の干渉強度画像を撮像した撮像部から、複数の光照射方向それぞれの基準位置の干渉強度画像を取得する干渉強度画像取得ステップと、(2) 複数の光照射方向それぞれについて、干渉強度画像に基づいて複素振幅画像を生成する第1複素振幅画像生成ステップと、(3) 光伝搬経路に沿った撮像部からの距離に関し第1位置から第2位置までの間の、観察対象物の3次元屈折率分布を取得する屈折率分布取得ステップと、(4) 複数の光照射方向それぞれについて、第1位置の複素振幅画像及び3次元屈折率分布に基づいて第2位置の複素振幅画像を生成する第2複素振幅画像生成ステップと、を備えればよい。
 本開示の第一側面は、肝細胞を含有する観察対象物の屈折率分布データを用いて、観察対象物に含まれる毛細胆管領域を特定する方法である。一実施形態において、毛細胆管領域の特定は、観察対象物中の領域が毛細胆管の特徴を有することに基づいて行われる。すなわち、一実施形態において、観察対象物中の領域であって、毛細胆管の特徴を有する領域が、毛細胆管領域であると特定される。また、一実施形態において、毛細胆管領域の特定は、観察対象物中の領域が毛細胆管の特徴を有することに対応する特徴量を利用した機械学習モデルによって行われてもよい。
 一実施形態に係る毛細胆管の特徴は、領域が肝細胞間に存在する略円形若しくは略円管形領域である特徴、領域の屈折率が肝細胞の屈折率よりも低い特徴、並びに領域の周縁部の屈折率が肝細胞の屈折率よりも高い特徴からなる群より選択される1つ以上の特徴を含み、一実施形態に係る毛細胆管の特徴は、領域が肝細胞間に存在する略円形若しくは略円管形領域である特徴、領域の屈折率が肝細胞の屈折率よりも低い特徴、並びに領域の周縁部の屈折率が肝細胞の屈折率よりも高い特徴を含む。領域の屈折率とは、当該領域における屈折率の平均値、中央値、最小値又は最大値等の統計値を指す。また、肝細胞の屈折率とは、肝細胞全体又は一部における屈折率の平均値、中央値、最小値又は最大値等の統計値を指す。略円形領域とは、真円度が閾値以上である領域のことを表す。上記閾値は、観察対象物の種類及び状態並びに観察対象物に含まれる肝細胞の種類及び含有量などに応じて定めることができ、毛細胆管の特定を行う観察対象物(サンプル)とは別の観察対象物(リファレンス)の屈折率分布データにおいて他の毛細胆管の特徴を有する領域が毛細胆管領域と特定されるように定めることもできる。例えば、サンプルが肝細胞塊である場合には、リファレンスとして別の肝細胞塊を用いることができ、2次元肝培養体を用いることもできる。上記閾値は、例えば65%であってよく、70%であってもよく、75%であってもよく、80%であってもよく、85%であってもよい。略円管形領域とは、管状の領域であって、領域の管流軸に垂直な断面又は屈折率断層データにおける断層面視の断面が略円形となる領域のことである。管流軸とは、管の断面中心(重心)の集合により形成される軸線からなる軸である。領域の周縁部とは、領域に含まれない観察対象物の部分のうち、領域に隣接する部分(隣接部分)及び隣接部分から所定距離だけ離れた部分を含む概念であり、密着結合により毛細胆管の管壁を形成する肝細胞の占める部分のうち、管腔近傍の部分に相当する。
 一実施形態において、毛細胆管の特徴は、さらに、微絨毛に由来する領域であって、領域全体の屈折率よりも屈折率の高い領域を有する特徴を含む。一般に、微絨毛に由来する領域は、屈折物分布データが3次元である場合には略直線形状又は曲線形状(湾曲形状、螺旋形状など)となり、屈折物分布データが屈折率断層データ等の2次元である場合には、略直線形状、曲線形状又は点形状になる。微絨毛に由来する領域が略直線形状又は曲線形状である場合、その長さは例えば1~2μm程度であるが、観察対象物の種類及び状態並びに観察対象物に含まれる肝細胞の種類及び含有量などに応じて、より長くなることもあり、より短くなることもある。
 本開示の第二側面は、肝細胞を含有する観察対象物の屈折率分布データから得られる毛細胆管のパラメータに基づいて、毛細胆管領域を評価する方法である。一実施形態において、毛細胆管領域の評価は、毛細胆管のパラメータに基づいて行われる。すなわち、一実施形態において、観察対象物中の毛細胆管領域であって、毛細胆管のパラメータがより優れた値である毛細胆管領域が、より質が高い毛細胆管であると評価される。また、一実施形態において、毛細胆管領域の評価は、毛細胆管のパラメータに対応する特徴量を利用して、パラメータがより優れた値である毛細胆管領域が、より質が高い毛細胆管であるとして学習された機械学習モデルによって行われてもよい。
 一実施形態において、毛細胆管のパラメータは、管流軸に垂直な断面若しくは断層面視の断面の面積若しくは周囲長、屈折率、屈折率の中央値、微絨毛の本数並びに微絨毛の平均長さからなる群より選択される1つ以上のパラメータを含み、一実施形態において、毛細胆管のパラメータは、管流軸に垂直な断面若しくは断層面視の断面の面積、屈折率、微絨毛の本数並びに微絨毛の平均長さからなる群より選択される1つ以上のパラメータを含む。一実施形態においては、断面の面積について、太い毛細胆管ほど成熟した毛細胆管であると考えられることから、断面の面積が大きい毛細胆管領域を質が高い毛細胆管であると判断してもよい。屈折率は、毛細胆管領域の屈折率であり、一実施形態においては、微絨毛の占める空間及び内容物の量が多くなるほど屈折率が高くなると考えられることから、屈折率が高い毛細胆管領域を質が高い毛細胆管であると評価してもよい。一実施形態においては、微絨毛の本数及び長さについて、微絨毛の表面積が大きくなるほど毛細胆管への胆汁酸の分泌量及び肝代謝物の排泄量が多くなると考えられることから、微絨毛の数が多い毛細胆管領域ほど質が高い毛細胆管であると判断してもよく、微絨毛の平均長さが長い毛細胆管領域ほど質が高い毛細胆管であると判断してもよい。
 一実施形態において、毛細胆管領域を評価する方法は、評価する前に、観察対象物の屈折率分布データを用いて観察対象物に含まれる毛細胆管領域を特定するステップを含んでもよい。すなわち、一実施形態における毛細胆管領域を評価する方法は、観察対象物の屈折率分布データを用いて観察対象物に含まれる毛細胆管領域を特定するステップと、特定された毛細胆管領域における毛細胆管のパラメータに基づいて、毛細胆管領域を評価するステップと、を含む。一実施形態において、毛細胆管領域を評価する方法は、観察対象物の屈折率分布データを用いて観察対象物に含まれる毛細胆管領域を特定するステップであって、毛細胆管領域の特定が、観察対象物中の領域が毛細胆管の特徴を有することに基づいて行われ、上記毛細胆管の特徴が、肝細胞間に存在する略円形若しくは略円管形領域である特徴、領域の屈折率が肝細胞の屈折率よりも低い特徴、並びに領域の周縁部の屈折率が肝細胞の屈折率よりも高い特徴を含むステップと、特定された毛細胆管領域における毛細胆管のパラメータに基づいて、毛細胆管領域を評価するステップと、を含む。
 本開示の第三側面は、本開示の第一側面に係る方法(肝細胞を含有する観察対象物の屈折率分布データを用いて、観察対象物に含まれる毛細胆管領域を特定する方法)により特定された毛細胆管領域の数、及び/又は本開示の第二側面に係る方法(肝細胞を含有する観察対象物の屈折率分布データから得られる毛細胆管のパラメータに基づいて毛細胆管領域を評価する方法)により得られた毛細胆管領域の評価に基づいて、肝細胞を含有する観察対象物を評価する方法である。毛細胆管の数を指標として肝細胞を含有する観察対象物の質を評価することは一般的であり、また、肝細胞を含有する観察対象物に含まれる毛細胆管の質が高いほど肝細胞を含有する観察対象物自体の質が高いことは自明であるから、毛細胆管領域の特定方法及び評価方法により、肝細胞を含有する観察対象物自体を評価することができる。例えば、図35に示した例においては、毛細胆管領域の数が多い肝細胞塊Aを質の高い肝細胞塊であると評価することができる。
 一実施形態に係る肝細胞を含有する観察対象物の評価方法は、例えば以下のような態様で用いることができる。
 例えば、肝細胞を含有する観察対象物の分化の目安の1つとして、毛細胆管の形成を利用できることが知られているため、肝細胞を含有する観察対象物に含まれる毛細胆管領域の数を評価することによって、肝細胞を含有する観察対象物の分化を評価することができる。すなわち、他の一側面は、肝細胞を含有する観察対象物の屈折率分布データを用いて、肝細胞を含有する観察対象物の分化を評価する方法である。
 例えば、一実施形態に係る肝細胞を含有する観察対象物の評価方法は、肝細胞の培養方法の評価に用いることができる。肝細胞の培養方法としては、通常の平面培養に加えて、サンドイッチ培養法、3次元スフェロイド培養法、中空繊維バイオリアクター法、マイクロパターン共培養法、灌流マルチウェルプレート培養法、マイクロ流体肝バイオチップ培養法及びマイクロ流体多臓器デバイス培養法などの様々な培養方法が開発されているところ、これらの方法により培養された肝細胞を含有する観察対象物に含まれる毛細胆管領域の数を評価することによって、肝細胞の培養方法を評価することができる。すなわち、本開示の第四側面は、肝細胞を培養するステップと、本開示の第三側面に係る方法(本開示の第一側面に係る方法(屈折率分布データを用いて観察対象物に含まれる毛細胆管領域を特定する方法)により特定された毛細胆管領域の数、及び/又は本開示の第二側面に係る方法(屈折率分布データから得られる毛細胆管のパラメータによって毛細胆管領域を評価する方法)により得られた毛細胆管領域の評価に基づいて、肝細胞を含有する観察対象物を評価する方法)を用いて、培養によって得られた観察対象物を評価するステップと、を含む、肝細胞の培養方法を評価する方法である。肝細胞の培養方法の評価は、毛細胆管領域を非侵襲的に特定及び評価することができる利点を活かし、例えば図36に示すように、肝細胞塊の培養日数に応じた毛細胆管領域の数に基づいて行うこともできる。
 例えば、一実施形態に係る肝細胞を含有する観察対象物の評価方法は、薬物のスクリーニングに用いることができる。毛細胆管は、肝細胞において合成された胆汁酸の分泌先であることに加えて、薬物の主要な排泄方法である肝代謝の排泄経路である。また、薬物性肝障害(DILI)は、既承認薬の市場撤退及び使用制限並びに新薬が安全性に関して承認に至らないことの主要因の1つであり、肝細胞障害型、胆汁うっ滞型及び混合型等が存在するところ、特に胆汁うっ滞型DILIにおいては、毛細胆管の形態異常が見られることが知られている。したがって、一実施形態に係る肝細胞を含有する観察対象物の評価方法を用いたスクリーニングによって、例えば毛細胆管領域の屈折率の異常な上昇を引き起こす薬物は、胆汁酸又は肝代謝物の異常分泌又は異常排泄を引き起こしうる薬物であるとして、また、毛細胆管の形態異常を引き起こす薬物は、胆汁うっ滞型DILIを引き起こしうる薬物であるとして、それぞれ開発候補から除外することが可能となる。従来は臨床段階で始めて明らかとなっていたこれらの事象をインビトロにおいて明らかにすることができれば、事後的に既承認薬の市場撤退若しくは使用制限せざるを得なくなること及び新薬が安全性に関して承認に至らなくなることによって、臨床試験に対する莫大な費用及び時間の投資の失敗を未然に防止することができる。すなわち、本開示の第五側面は、肝細胞を含有する観察対象物に薬物を添加するステップと、本開示の第三側面に係る方法(本開示の第一側面に係る方法(屈折率分布データを用いて観察対象物に含まれる毛細胆管領域を特定する方法)により特定された毛細胆管領域の数、及び/又は(本開示の第二側面に係る方法(屈折率分布データから得られる毛細胆管のパラメータによって毛細胆管領域を評価する方法)により得られた毛細胆管領域の評価に基づいて、肝細胞を含有する観察対象物を評価する方法)を用いて、培養によって得られた観察対象物を評価するステップと、を含む、薬物のスクリーニング方法である。薬物のスクリーニングは、例えば毛細胆管の形態異常を指標として行うことができ、図37に示した例においては、肝細胞塊中の毛細胆管の拡張を引き起こす薬物A及び収縮を引き起こす薬物Bを、毛細胆管領域の断面の面積に基づいて、胆汁うっ滞型DILIを引き起こしうる薬物として開発候補から除外することができる。また、例えば微絨毛に着目した毛細胆管の形態異常を指標として行うこともでき、図38に示した例においては、微絨毛の短縮を引き起こす薬物A、微絨毛の減少を引き起こす薬物B並びに微絨毛の短縮及び減少を引き起こす薬物Cを、胆汁うっ滞型DILIを引き起こしうる薬物として開発候補から除外することができる。これらのスクリーニングは、毛細胆管領域を非侵襲的に特定及び評価することができる利点を活かし、複数のタイムポイントにおける経時的変化に基づいても行うことができ、図39に示した例においては、薬物添加後の培養日数に応じた微絨毛の短縮を引き起こす薬物を、胆汁うっ滞型DILIを引き起こしうる薬物として開発候補から除外することができる。
 また、一実施形態に係る毛細胆管領域を特定する方法は、例えば以下の態様で用いることができる。
 例えば、一実施形態に係る毛細胆管領域を特定する方法は、毛細胆管ネットワーク形成の評価に用いることができる。毛細胆管は、形成後にさらに3次元のネットワークを形成して肝代謝物の分泌や排泄を担うことが知られているところ、一実施形態に係る毛細胆管領域を特定する方法を用いて肝細胞を含有する観察対象物に含まれる毛細胆管領域を網羅的に特定することによって、毛細胆管ネットワークの形成を評価することができる。さらに、一実施形態においては、図40に示した例のように、タウロコール酸等のネットワーク形成を促進する胆汁酸の添加により誘発された毛細胆管ネットワークの形成を評価してもよい。また、一実施形態においては、リトコール酸等のネットワーク形成を阻害する胆汁酸の添加による毛細胆管ネットワークの形成阻害を評価してもよい。これらの評価は、毛細胆管領域を非侵襲的に特定することができる利点を活かし、複数のタイムポイントにおける経時的変化に基づいても行うことができ、また毛細胆管領域の体積を評価指標として行うこともできる。
 例えば、一実施形態に係る毛細胆管領域を特定する方法は、毛細胆管から内容物を回収するためのガイドとしても用いることができる。毛細胆管は肝代謝の主要経路の1つであるところ、肝細胞を含有する観察対象物内の毛細胆管領域を非侵襲的に特定することができれば、例えば図41に示す例のように、特定された毛細胆管にドレーンチューブ(ドレーン)又はカテーテルなどを挿入し、内容物を回収することができる。回収された内容物は、例えば質量分析、液体クロマトグラフィー、又はガスクロマトグラフィー等によって分析することができる。
 また、一実施形態に係る毛細胆管領域を評価する方法は、肝臓の臨床検体における肝疾患の診断方法、肝疾患の診断を補助する方法又は肝疾患の診断のためのデータを取集する方法としても用いることができる。肝疾患を発症した肝臓において毛細胆管の異常が生じうることが明らかとなっており、例えばByler病の肝臓においては、毛細胆管内の微絨毛が極めて少なくなる「Byler’s Bile」と呼ばれる病変が認められる。また、肝疾患由来の胆汁うっ滞においては、毛細胆管の拡大、微絨毛の減少及びブレブの形成が認められる。これらの知見は電子顕微鏡により明らかとなった知見であるが、一実施形態に係る屈折率分布データを用いた非侵襲的な毛細胆管領域の評価方法によれば、肝臓の臨床検体において、HE染色に代表される他の病理染色等と拮抗することなく、かつ簡便に毛細胆管の異常を検出することができる。屈折率分布データに基づいて毛細胆管の異常を検出することができれば、より早く、より多くの臨床検体を取扱うことが可能になると期待される。例えば図42に示した例では、臨床検体A~C中の毛細胆管領域を比較して、微絨毛が短い臨床検体B及び微絨毛が短く、かつ少ない臨床検体Cを、肝疾患を発症した肝臓の臨床検体である可能性が高いとする診断を補助することができる。
 以下、実施例等により、本開示について詳しく説明するが、本開示はこれらに限定されるものではない。
[実施例1:位相差及び蛍光顕微鏡を用いた2次元肝培養体の毛細胆管領域の特定]
 ヒト肝がん由来細胞(HepG2)をガラスボトムディッシュ(MatTek社製)に播種し、10%ウシ胎児血清を含むDMEM培地中、5% CO2、37度、100%湿度の条件下で5日間培養して、2次元肝培養体を調製した。培地を除去した後、毛細胆管に分泌されることが知られる蛍光標識された胆汁酸であるCLF(cholyl―lysyl―fluorescein、Corning社製)の、塩化カルシウムと塩化マグネシウムを含有するハンクス平衡塩溶液(終濃度2μM)を添加し、5% CO2、37℃、100%湿度の条件下で45分間インキュベートした。
 倒立顕微鏡DM IL LED(Leica社製)を用いて、位相差顕微鏡像及び蛍光像を同視野で撮像した。倍率20倍の対物レンズを用いた。蛍光像は、励起波長470nm、蛍光波長500~550nmの条件で取得した。結果を図43に示す。
 位相差顕微鏡像から、細胞と細胞の間に管腔構造(図中矢印1及び2)が存在することが確認され、蛍光像から、管腔構造にCLFの蓄積が確認された。以上から、図中矢印1及び2の領域が毛細胆管領域であると特定した。
[実施例2:光回折トモグラフィ(ODT)を用いた2次元肝培養体の毛細胆管領域の評価]
 実施例1で用いた2次元肝培養体について、観察装置1A及び屈折率分布測定方法A2に示したODTを用いて屈折率分布データを取得した。倍率60倍の対物レンズを用いた。得られた屈折率分布データから抽出した代表的な屈折率断層データを図44及び図45に示す。
 図44において、実施例1で毛細胆管領域と特定した領域(図中矢印1及び2)について、肝細胞間に存在する略円形領域(真円度86%。以下、段落中の括弧内の数値は、毛細胆管2における値を示す。)である特徴、屈折率(1.336)が肝細胞(1.344)よりも低い特徴、及び周縁部の屈折率(1.359)が肝細胞の屈折率(1.344)よりも高い特徴が認められた。加えて、図45において、実施例1で毛細胆管領域と特定した領域(図中矢印1及び2)について、さらに、微絨毛(MV)に由来する領域であって、毛細胆管(BC)の管腔の屈折率(1.333)よりも屈折率の高い(1.344)領域を有する特徴が認められた。図45において、Gは毛細胆管領域の重心を表す。
[実施例3:光回折トモグラフィ(ODT)を用いた肝細胞塊の毛細胆管領域の評価]
 ヒト肝がん由来細胞(HepG2)を細胞低接着性の区画を有する細胞培養容器(AGCテクノグラス製、「EZSPHERE」)に1ウェル当たり1.00x10細胞の密度で播種し、10%ウシ胎児血清を含むDMEM培地中、5% CO2、37℃、100%湿度の条件下で3日間培養した。そこに、ジメチルスルホキシド(シグマアルドリッチ社製)を終濃度0.05%となるように添加し、さらに1日培養して、肝細胞塊を調製した。
 得られた肝細胞塊(肝細胞塊1)について、観察装置1A及び屈折率分布測定方法Cに示したODTを用いて屈折率分布データを取得した。倍率60倍の対物レンズを用いた。得られた屈折率分布データから抽出した代表的な屈折率断層データを図46及び図47に示す。実施例2で取得した屈折率分布データ及び実施例3で肝細胞塊1について取得した屈折率分布データから得られたパラメータを表1~4に示す。また、同様の方法で調製した別の肝細胞塊(肝細胞塊2)について、同様の方法で取得した屈折率分布データから抽出した代表的な屈折率断層データを図48に示す。
Figure JPOXMLDOC01-appb-T000030
Figure JPOXMLDOC01-appb-T000031
Figure JPOXMLDOC01-appb-T000032
Figure JPOXMLDOC01-appb-T000033
 図46において、2次元肝培養体で見られた特徴と同様の特徴をもつ構造(毛細胆管)が肝細胞塊にも存在することが確認された。任意の断面を見ると、例えばZ=20.8μmには5つ、Z=28.8μmには1つ、Z=66.8μmには2つの毛細胆管が存在することが確認されたことから、肝細胞塊において屈折率分布データを用いて毛細胆管領域を特定できることが示された。
 図47において、毛細胆管の存在に加えて、それぞれの毛細胆管で、管腔の大きさ、微絨毛の数及び屈折率などが異なることが確認できたことから、肝細胞塊において屈折率分布データを用いて毛細胆管領域を評価できることが示された。さらに、例えば毛細胆管7において、毛細胆管領域の内部に管腔内構造Xが確認されたことから、実施例で用いた特徴及びパラメータ以外にも、屈折率分布データを用いることで、毛細胆管領域の特定若しくは評価、肝細胞塊の評価又は薬物スクリーニングなどに有用な特徴及びパラメータの存在を見出すことができる可能性があることが示唆された。
 図48において、毛細胆管領域の評価例として、例えば屈折率断層データにおける2つの毛細胆管領域のパラメータを比較すると、図中の毛細胆管1は毛細胆管2よりも断面の面積及び断面の周囲長が多く、微絨毛の数が多く、屈折率及び屈折率の中央値が大きいことから、毛細胆管1の方が質の高い毛細胆管である、と判断し得る。
 1A~1J…観察装置、2…記録媒体、11…光源、12…レンズ、13…光入射端、14…光ファイバ、15…ファイバカプラ、16,17…光ファイバ、18,19…光出射端、21…レンズ、22…ミラー、23…レンズ、24…コンデンサレンズ、25…対物レンズ、31…レンズ、32…ミラー、33…駆動部、34…レンズ、41…ビームスプリッタ、42…レンズ、43…撮像部、44…ミラー,50…解析部、51…干渉強度画像取得部、52…第1複素振幅画像生成部、53…第2複素振幅画像生成部、54…2次元位相画像生成部、55…3次元位相画像生成部、56…屈折率分布算出部、57…表示部、58…記憶部、60…解析部、61…干渉強度画像取得部、62…第1複素振幅画像生成部、63…第2複素振幅画像生成部、64…位相共役演算部、65…2次元位相画像生成部、66…3次元位相画像生成部、67…屈折率分布算出部、68…表示部、69…記憶部、70…解析部、71…干渉強度画像取得部、72…第1複素振幅画像生成部、73…第2複素振幅画像生成部、74…2次元位相画像生成部、75…3次元位相画像生成部、76…屈折率分布算出部、77…第3複素振幅画像生成部、78…表示部、79…記憶部。

 

Claims (15)

  1.  肝細胞を含有する観察対象物の屈折率分布データを用いて、観察対象物に含まれる毛細胆管領域を特定する方法。
  2.  毛細胆管領域の特定が、観察対象物中の領域が毛細胆管の特徴を有することに基づいて行われ、前記毛細胆管の特徴が、肝細胞間に存在する略円形若しくは略円管形領域である特徴、領域の屈折率が肝細胞の屈折率よりも低い特徴、並びに領域の周縁部の屈折率が肝細胞の屈折率よりも高い特徴を含む、請求項1に記載の方法。
  3.  前記毛細胆管の特徴が、さらに、微絨毛に由来する領域であって、領域全体の屈折率よりも屈折率の高い領域を有する特徴を含む、請求項2に記載の方法。
  4.  前記屈折率分布データが、所定の方向における屈折率断層データである、請求項3に記載の方法。
  5.  肝細胞を含有する観察対象物の屈折率分布データから得られる毛細胆管のパラメータに基づいて、毛細胆管領域を評価する方法であって、前記毛細胆管のパラメータが、管流軸に垂直な断面若しくは断層面視の断面の面積、屈折率、微絨毛の本数並びに微絨毛の平均長さのうち少なくとも1つのパラメータを含む、方法。
  6.  前記肝細胞を含有する観察対象物が肝細胞塊である、請求項1~5のいずれか1項に記載の方法。
  7.  請求項1~4のいずれか1項に記載の方法によって、観察対象物に含まれる毛細胆管領域を特定するステップを含み、特定された毛細胆管領域における毛細胆管のパラメータに基づいて、毛細胆管領域を評価する、請求項5に記載の方法。
  8.  請求項1~4のいずれか1項に記載の方法により特定された毛細胆管領域の数及び/又は請求項5に記載の方法により得られた毛細胆管領域の評価に基づいて、肝細胞を含有する観察対象物を評価する方法。
  9.  肝細胞を培養するステップと、
     請求項8に記載の方法を用いて、培養によって得られた観察対象物を評価するステップと、
    を含む、肝細胞の培養方法を評価する方法。
  10.  肝細胞を含有する観察対象物に薬物を添加するステップと、
     請求項8に記載の方法を用いて、薬物を添加された観察対象物を評価するステップと、
    を含む、薬物のスクリーニング方法。
  11.  前記肝細胞を含有する観察対象物が肝細胞塊である、請求項8に記載の方法。
  12.  肝細胞を含有する観測対象物の屈折率分布データを取得するデータ取得部と、請求項1~4のいずれか1項に記載の方法によって観察対象物中に含まれる毛細胆管領域を特定する特定部と、を備える、毛細胆管領域の特定装置。
  13.  肝細胞を含有する観測対象物の屈折率分布データを取得するデータ取得部と、請求項1~4のいずれか1項に記載の方法によって観察対象物中に含まれる毛細胆管領域を特定する特定部と、請求項5に記載の方法によって毛細胆管領域を評価する評価部と、を備える、毛細胆管領域の評価装置。
  14.  肝細胞を含有する観測対象物の屈折率分布データを取得するデータ取得ステップと、請求項1~4のいずれか1項に記載の方法によって観察対象物中に含まれる毛細胆管領域を特定する特定ステップと、をコンピュータに実行させるプログラム。
  15.  肝細胞を含有する観測対象物の屈折率分布データを取得するデータ取得ステップと、請求項1~4のいずれか1項に記載の方法によって観察対象物中に含まれる毛細胆管領域を特定する特定ステップと、請求項5に記載の方法によって毛細胆管領域を評価する評価ステップと、をコンピュータに実行させるプログラム。
PCT/JP2023/007107 2022-07-27 2023-02-27 毛細胆管領域の特定又は評価の方法、装置及びプログラム WO2024024147A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022119270A JP7348997B1 (ja) 2022-07-27 2022-07-27 毛細胆管領域の特定又は評価の方法、装置及びプログラム
JP2022-119270 2022-07-27

Publications (1)

Publication Number Publication Date
WO2024024147A1 true WO2024024147A1 (ja) 2024-02-01

Family

ID=88021707

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/007107 WO2024024147A1 (ja) 2022-07-27 2023-02-27 毛細胆管領域の特定又は評価の方法、装置及びプログラム

Country Status (2)

Country Link
JP (1) JP7348997B1 (ja)
WO (1) WO2024024147A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011024592A1 (ja) * 2009-08-26 2011-03-03 国立大学法人東京大学 肝細胞の培養方法
KR101855366B1 (ko) * 2016-11-08 2018-05-09 주식회사 토모큐브 간세포 내 지질을 3d 비표지 영상화 및 정량화하는 방법 및 장치
JP2020028305A (ja) * 2015-03-27 2020-02-27 国立研究開発法人農業・食品産業技術総合研究機構 肝代謝物の毛細胆管様構造への蓄積と排泄を促進する肝細胞培養装置、並びに該肝細胞培養装置を用いた胆汁中又は血液中排泄感受性の候補化合物及び該候補化合物の肝代謝物の評価方法
WO2022054305A1 (ja) * 2020-09-11 2022-03-17 浜松ホトニクス株式会社 観察装置および観察方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013226112A (ja) 2011-07-12 2013-11-07 Mitsubishi Chemical Medience Corp 肝細胞の培養方法
JP6644786B2 (ja) 2014-08-22 2020-02-12 ビオプレディク アンテルナシオナルBiopredic International 毛細胆管活性の機械的改変およびRhoキナーゼミオシンII経路およびジャンクションの透過性の調節、その検出方法およびその誘導体の使用

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011024592A1 (ja) * 2009-08-26 2011-03-03 国立大学法人東京大学 肝細胞の培養方法
JP2020028305A (ja) * 2015-03-27 2020-02-27 国立研究開発法人農業・食品産業技術総合研究機構 肝代謝物の毛細胆管様構造への蓄積と排泄を促進する肝細胞培養装置、並びに該肝細胞培養装置を用いた胆汁中又は血液中排泄感受性の候補化合物及び該候補化合物の肝代謝物の評価方法
KR101855366B1 (ko) * 2016-11-08 2018-05-09 주식회사 토모큐브 간세포 내 지질을 3d 비표지 영상화 및 정량화하는 방법 및 장치
WO2022054305A1 (ja) * 2020-09-11 2022-03-17 浜松ホトニクス株式会社 観察装置および観察方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ISHIMARU, ICHIROU: "3D-Time Series Compositional Distribution Measurement of Single Living Cells: Spectroscopy-Tomography of Single Cells.", BIO INDUSTRY, CMC, TOKYO,, JP, vol. 25, no. 2, 1 January 2008 (2008-01-01), JP , pages 55 - 66, XP009546639, ISSN: 0910-6545 *

Also Published As

Publication number Publication date
JP2024016956A (ja) 2024-02-08
JP7348997B1 (ja) 2023-09-21

Similar Documents

Publication Publication Date Title
Fei et al. Subvoxel light-sheet microscopy for high-resolution high-throughput volumetric imaging of large biomedical specimens
JP5969463B2 (ja) ラベル付けされた生体試料の画像化のための方法と装置
Reusch et al. Nonlinear optical microscopy and ultrasound imaging of human cervical structure
Thouvenin et al. Dynamic multimodal full-field optical coherence tomography and fluorescence structured illumination microscopy
Ding et al. Multiscale light-sheet for rapid imaging of cardiopulmonary system
Thouvenin et al. Full-field optical coherence tomography as a diagnosis tool: recent progress with multimodal imaging
Dickinson Multimodal imaging of mouse development: tools for the postgenomic era
Abraham et al. Minimally invasive multiphoton and harmonic generation imaging of extracellular matrix structures in lung airway and related diseases
Fei et al. Present application and perspectives of organoid imaging technology
Ding et al. Light-sheet imaging to elucidate cardiovascular injury and repair
Bennett et al. Advances in studying whole mouse brain vasculature using high-resolution 3D light microscopy imaging
Lu et al. Three-dimensional real-time imaging of cardiac cell motions in living embryos
Chen et al. Bessel-droplet foci enable high-resolution and high-contrast volumetric imaging of synapses and circulation in the brain in vivo
Kang et al. Mapping nanoscale topographic features in thick tissues with speckle diffraction tomography
JP7348997B1 (ja) 毛細胆管領域の特定又は評価の方法、装置及びプログラム
Zhang et al. Seeing through the surface: non-invasive characterization of biomaterial–tissue interactions using photoacoustic microscopy
Kang et al. Reflection-mode optical diffraction tomography for label-free imaging of thick biological specimens
Megens et al. Optical imaging innovations for atherosclerosis research: multiphoton microscopy and optical nanoscopy
WO2024029125A1 (ja) ネクローシスを起こした細胞の領域を決定する方法、装置及び情報処理プログラム
Masuyama et al. Homogeneous 2D and 3D alignment of cardiomyocyte in dilated cardiomyopathy revealed by intravital heart imaging
Mercado Developing high-frequency quantitative ultrasound techniques to characterize three-dimensional engineered tissues
WO2023095378A1 (ja) 評価方法、評価装置および情報処理プログラム
Miao et al. Phase-resolved dynamic wavefront imaging of cilia metachronal waves
Poobalasingam et al. Imaging the lung: the old ways and the new
WO2024029124A1 (ja) プログラムされた細胞死を起こした細胞の領域を決定する方法、決定部を備える装置及び決定ステップを含む情報処理プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23845887

Country of ref document: EP

Kind code of ref document: A1