WO2022224722A1 - 評価値の取得方法 - Google Patents

評価値の取得方法 Download PDF

Info

Publication number
WO2022224722A1
WO2022224722A1 PCT/JP2022/014972 JP2022014972W WO2022224722A1 WO 2022224722 A1 WO2022224722 A1 WO 2022224722A1 JP 2022014972 W JP2022014972 W JP 2022014972W WO 2022224722 A1 WO2022224722 A1 WO 2022224722A1
Authority
WO
WIPO (PCT)
Prior art keywords
phase
image
evaluation value
virtual
phase image
Prior art date
Application number
PCT/JP2022/014972
Other languages
English (en)
French (fr)
Inventor
武晴 谷
龍介 大▲崎▼
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to EP22791497.5A priority Critical patent/EP4328567A1/en
Priority to CN202280029279.9A priority patent/CN117203514A/zh
Priority to JP2023516375A priority patent/JPWO2022224722A1/ja
Publication of WO2022224722A1 publication Critical patent/WO2022224722A1/ja
Priority to US18/479,832 priority patent/US20240029253A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume, or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N15/14Electro-optical investigation, e.g. flow cytometers
    • G01N15/1434Electro-optical investigation, e.g. flow cytometers using an analyser being characterised by its optical arrangement
    • G01N15/1436Electro-optical investigation, e.g. flow cytometers using an analyser being characterised by its optical arrangement the optical arrangement forming an integrated apparatus with the sample container, e.g. a flow cell
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/0005Adaptation of holography to specific applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G01N15/01
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume, or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N15/14Electro-optical investigation, e.g. flow cytometers
    • G01N15/1434Electro-optical investigation, e.g. flow cytometers using an analyser being characterised by its optical arrangement
    • G01N2015/1454Electro-optical investigation, e.g. flow cytometers using an analyser being characterised by its optical arrangement using phase shift or interference, e.g. for improving contrast
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/04Processes or apparatus for producing holograms
    • G03H1/0443Digital holography, i.e. recording holograms with digital recording means
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/04Processes or apparatus for producing holograms
    • G03H1/08Synthesising holograms, i.e. holograms synthesized from objects or objects from holograms
    • G03H1/0866Digital holographic imaging, i.e. synthesizing holobjects from holograms
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/0005Adaptation of holography to specific applications
    • G03H2001/0033Adaptation of holography to specific applications in hologrammetry for measuring or analysing
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/04Processes or apparatus for producing holograms
    • G03H1/0443Digital holography, i.e. recording holograms with digital recording means
    • G03H2001/0447In-line recording arrangement
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/04Processes or apparatus for producing holograms
    • G03H1/08Synthesising holograms, i.e. holograms synthesized from objects or objects from holograms
    • G03H1/0866Digital holographic imaging, i.e. synthesizing holobjects from holograms
    • G03H2001/0875Solving phase ambiguity, e.g. phase unwrapping
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/04Processes or apparatus for producing holograms
    • G03H1/08Synthesising holograms, i.e. holograms synthesized from objects or objects from holograms
    • G03H1/0866Digital holographic imaging, i.e. synthesizing holobjects from holograms
    • G03H2001/0883Reconstruction aspect, e.g. numerical focusing
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H2210/00Object characteristics
    • G03H2210/50Nature of the object
    • G03H2210/55Having particular size, e.g. irresolvable by the eye
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H2240/00Hologram nature or properties
    • G03H2240/10Physical parameter modulated by the hologram
    • G03H2240/11Phase only modulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30044Fetus; Embryo

Definitions

  • the disclosed technique relates to a method of obtaining an evaluation value for evaluating an object.
  • a phase-contrast image of cells is generated from a hologram that captures an image of a cell that is an aggregate of a plurality of cells, and a shape index value corresponding to the phase-contrast image and the shape of the cell is used. Based on this, a determination method for determining the state of cells is described.
  • Japanese National Publication of International Patent Application No. 2012-531584 discloses a step of reconstructing phase and/or amplitude information of an object wavefront from interference fringes formed by superimposing an object beam and a reference beam; measuring a parameter indicative of the quality of the embryos or eggs from.
  • a phase image generated based on an interference image formed by interference between the object light that has passed through the cell and the reference light that is coherent with the object light is an image that shows the phase distribution of the object light that has passed through the cell. , which reflects the state of the cell. Therefore, it is possible to perform a cell quality assessment based on the phase image. For example, a total phase amount obtained by accumulating the phase amount for each pixel of the phase image can be used as the evaluation value of the cell.
  • FIG. 1 is a graph showing an example of the relationship between the relative value of the total phase amount derived from the phase image of embryonic cells at the 2-cell stage and the orientation (orientation angle) of the embryonic cells in the phase image.
  • the orientation angle means the angle formed by the plane along which the pixels of the phase image extend and the direction in which the two cells forming the embryo are arranged.
  • FIG. 2 exemplifies the line-of-sight direction with respect to embryonic cells when the orientation angles are 0°, 45°, and 90°. From FIG. 1, it can be understood that the total phase amount changes according to the change in the orientation (orientation angle) of the embryonic cells in the phase image.
  • the total phase amount derived for the same cell is preferably a constant value that does not depend on the orientation angle.
  • the disclosed technology has been made in view of the above points, and aims to suppress the influence of the orientation of the object on the evaluation value derived based on the phase image of the object to be evaluated. .
  • a method for obtaining an evaluation value according to the disclosed technology generates a phase image that indicates the phase distribution of light that has passed through an object, derives an evaluation value for the object based on the phase image, and obtains an evaluation value for the object according to the orientation of the object in the phase image. It includes correcting the evaluation value using a determined correction coefficient.
  • a phase image may be generated based on an interference image formed by interference between object light that has passed through the object and reference light that is coherent with the object light.
  • the evaluation value may be a total phase amount obtained by accumulating the phase amount for each pixel of the phase image.
  • a virtual object simulating the shape, size, and refractive index of the object may be created based on the phase image, and the correction coefficient may be derived using the virtual object.
  • a virtual phase image showing the phase distribution of light transmitted through a virtual object is generated, the virtual total phase amount obtained by integrating the phase amount for each image of the virtual phase image is derived, and the volume of the virtual object and the refraction of the virtual object are calculated.
  • a standard total phase amount obtained by multiplying by a ratio may be derived, and the ratio between the virtual total phase amount and the standard total phase amount may be derived as a correction coefficient.
  • a correction coefficient is derived for each case where the orientation of the virtual object is different, and the evaluation value is calculated by multiplying the evaluation value by the correction coefficient corresponding to the orientation of the object in the phase image used when deriving the evaluation value.
  • a correction value may be obtained.
  • the object may be a cell.
  • the object may be an embryonic cell at the two-cell stage, and the virtual object may have a three-dimensional structure in which two ellipsoids are connected.
  • FIG. 4 is a graph showing an example of the relationship between the relative value of the total phase amount derived from the phase image of embryonic cells and the orientation of the embryonic cells in the phase image.
  • FIG. 10 is a diagram showing the line-of-sight direction with respect to the embryonic cells in the phase image when the orientation angles are 0°, 45°, and 90°;
  • FIG. 4 is a flow diagram showing an example of a flow of an evaluation value acquisition method according to an embodiment of technology disclosed herein; 1 is a diagram showing an example of a configuration of a holography device according to an embodiment of technology disclosed;
  • FIG. 3 is a diagram showing an example of an interference image of embryonic cells at the 2-cell stage.
  • FIG. 6 is a diagram showing an example of a phase image of cells generated based on the interference image shown in FIG. 5;
  • FIG. FIG. 2 is a diagram illustrating the concept of a phase image according to embodiments of the disclosed technology;
  • FIG. 4 is a flow diagram illustrating an example of a method for deriving a correction factor according to embodiments of the disclosed technology;
  • FIG. 10 is a diagram showing an example of a phase image used for creating a virtual object;
  • FIG. 10 is a diagram showing an example of a virtual phase image and an amplitude image generated for each case where the orientation angle of a virtual object is changed from 0° to 90° in increments of 10°;
  • 4 is a graph showing an example of a correction coefficient for each orientation angle according to an embodiment of technology disclosed herein;
  • 10 is a diagram showing an example of the result of identifying orientation angles in phase images of embryonic cells.
  • 7 is a graph showing an example of a state of variation in total phase amounts before correction processing;
  • 7 is a graph showing an example of a state of variation in total phase amount after correction processing;
  • An evaluation value acquisition method generates a phase image indicating a phase distribution of light transmitted through an object to be evaluated, derives an evaluation value of the object based on the phase image, and obtains a phase image. correcting the evaluation value using a correction coefficient that is determined according to the orientation of the object.
  • FIG. 3 is a flow diagram showing an example of the flow of the evaluation value acquisition method according to the present embodiment.
  • step S1 an interference image (hologram) formed by interference between object light that has passed through an object to be evaluated and reference light that is coherent with the object light is obtained.
  • step S2 a phase image is generated based on the interference image acquired in step S1.
  • step S3 an evaluation value for evaluating the state of the evaluation target object is derived based on the phase image generated in step S2.
  • a correction coefficient for correcting the evaluation value is derived in step S4.
  • step S5 the evaluation value derived in step S3 is corrected using the correction coefficient derived in step S4.
  • FIG. 4 is a diagram showing an example configuration of a holography device 10 for generating an interference image of an object to be evaluated.
  • the object to be evaluated is a 2-cell embryonic cell.
  • the holography device 10 includes a branching filter 21 , reflecting mirrors 22 and 24 , an objective lens 23 , an imaging lens 25 , a combiner 26 and an imaging device 30 .
  • a cell 60 to be evaluated is placed between the reflecting mirror 22 and the objective lens 23 while being housed in a container 61 together with a culture medium.
  • a HeNe laser with a wavelength of 632.8 nm, for example, can be used for the laser light source 20 .
  • a linearly polarized laser beam L0 emitted from the laser light source 20 is split into two laser beams by the demultiplexer 21 .
  • One of the two laser beams is the object beam L1 and the other is the reference beam L2.
  • a beam splitter can be used as the demultiplexer 21 .
  • Object light L ⁇ b>1 is incident on reflecting mirror 22 .
  • the cell 60 is irradiated with the object light L1 whose traveling direction is bent by the reflecting mirror 22 .
  • the image of the object light L1 that has passed through the cell 60 is magnified by the objective lens 23.
  • the object light L1 that has passed through the objective lens 23 has its traveling direction bent by the reflecting mirror 24 and enters the multiplexer 26 via the imaging lens 25 .
  • the reference light L2 also enters the multiplexer 26 .
  • the object light L ⁇ b>1 and the reference light L ⁇ b>2 are combined by the combiner 26 and imaged on the imaging plane of the imaging device 30 .
  • a beam splitter can be used as the multiplexer 26 .
  • the imaging device 30 includes an imaging device such as a CMOS (Complementary Metal-Oxide-Semiconductor) image sensor, and generates image data of an interference image.
  • FIG. 5 is a diagram showing an example of an interference image of embryonic cells at the 2-cell stage.
  • Step S2 Generation of Phase Image: Step S2
  • the interference image (hologram) of the cell 60 acquired by the imaging device 30 is trimmed to a size of 2048 ⁇ 2048, for example, and then subjected to a two-dimensional Fourier transform.
  • the Fourier transform image obtained by this process can include images based on direct light, object light, and conjugate light.
  • the position of the object light is specified by specifying the amount of deviation of the object light from the direct light in the Fourier transform image. Extract the amplitude component.
  • the angular spectrum U(f x , f y ; 0) of the Fourier transform image of the wavefront u(x, y; 0) captured by the imaging plane of the imaging device 30 is obtained.
  • the transfer function H (f x , f y ; z) is a frequency response function (Fourier transform of an impulse response function (Green's function)).
  • the wavefront U (f x , f y ; z) at position z in the optical axis direction (z direction) is subjected to an inverse Fourier transform to obtain a solution at position z Derive u(x, y; z).
  • a phase image is generated by deriving the phase ⁇ for u(x, y; z) as shown in Equation (3) below.
  • phase in the phase image before unwrapping obtained by the above processing is convoluted to a value between 0 and 2 ⁇ . Therefore, for example, by applying a phase unwrapping method such as Unweighted Least Squares (unweighted least squares) or Flynn's Algorithm (Flynn's Algorithm) to join the parts above 2 ⁇ , the final A phase image can be obtained.
  • a phase unwrapping method such as Unweighted Least Squares (unweighted least squares) or Flynn's Algorithm (Flynn's Algorithm) to join the parts above 2 ⁇ .
  • a phase unwrapping method such as Unweighted Least Squares (unweighted least squares) or Flynn's Algorithm (Flynn's Algorithm) to join the parts above 2 ⁇
  • Many unwrapping methods have been proposed, and an appropriate one that does not cause phase mismatch may be selected as appropriate.
  • FIG. 6
  • FIG. 7 is a diagram showing the concept of the phase image IP.
  • the lower part of FIG. 7 is a three - dimensional representation of the phase amount at each pixel k of the phase image IP.
  • the upper part of FIG. 7 shows the phase amount at each pixel k of the phase image IP in grayscale on a plane.
  • phase image I The phase amount P at P is represented by the following equation (4).
  • phase in this specification is the phase of the electric field amplitude when light is regarded as an electromagnetic wave, and is used in a more general sense.
  • phase amount Pk at each pixel k of the phase image IP can be expressed by the following equation (5).
  • nk is the difference between the refractive index of the cell 60 and the surroundings of the cell 60 at the site corresponding to each pixel k of the phase image IP
  • dk corresponds to each pixel k of the phase image IP .
  • is the wavelength of the object light in the hologram optics.
  • the phase image of the cell 60 is an image showing the phase distribution of the object light L1 that has passed through the cell 60, and is also an image that shows the optical path length distribution of the object light that has passed through the cell 60.
  • the total phase amount P A is represented by the following equation (6). However, s is the area of each pixel k of the phase image, and vk is the volume of the cell 60 at the site corresponding to each pixel k of the phase image. As shown in equation (6), the total phase amount P A corresponds to the sum of the phase amounts P k for each pixel of the phase image of the cell 60 for all pixels k. The pixel values of the phase image correspond to the phase quantity Pk .
  • the total phase amount P A varies depending on the orientation (orientation angle) of the cell 60 in the phase image.
  • the orientation (orientation angle) of the cell 60 in the phase image corresponds to the orientation (orientation angle) of the cell 60 with respect to the optical axis of the object light L1.
  • the total phase amount P A derived for the same cell 60 is preferably a constant value that does not depend on the orientation angle.
  • the evaluation value acquisition method includes correcting the total phase amount PA as the evaluation value using a correction coefficient determined according to the orientation (orientation angle) of the cell 60 in the phase image. An example of the method of deriving the correction coefficient will be described below.
  • FIG. 8 is a flow diagram illustrating an example method for deriving correction factors.
  • a virtual object which is a three-dimensional model simulating the shape, size, and refractive index of the object to be evaluated, is created based on the phase image generated in step S2. Specifically, as shown in FIG. 9, each of the two cells that constitute the embryonic cell, which is the object to be evaluated, included in the phase image is regarded as an ellipsoid, and the two ellipsoids are connected in the minor axis direction. Create a virtual object with a three-dimensional structure.
  • the major axis, minor axis, center-to-center distance and refractive index n of the ellipsoid are measured from the phase image and applied to the virtual object.
  • the refractive index n is the refractive index difference with respect to the background (culture solution), and is expressed by Equation (7).
  • PQ1 is the phase amount (pixel value) at point Q1 of the phase image
  • DL is the thickness at point Q1, that is, the major axis of the ellipsoid. It is assumed that the refractive index of the virtual object is uniform over the entire area.
  • n P Q1 /D L (7)
  • a virtual phase image is generated that shows the phase distribution of light passing through the virtual object created in step S11.
  • a numerical calculation method for calculating light propagation such as the FDTD method (Finite-difference time-domain method) is used to generate an interference image of the virtual object. That is, an interference image of a virtual object is generated on a computer. After that, a phase image is generated by performing the same processing as in step S2 on the interference image of the virtual object generated on the computer.
  • a phase image generated for a virtual object is referred to herein as a virtual phase image. Note that it is preferable to determine the focus position when generating the virtual phase image by the same method as determining the focus position when generating the phase image of the evaluation target object. For example, it is possible to determine the focus position as the position where the dispersion of the amplitude image that can be generated from the interference image is minimized.
  • FIG. 10 is a diagram showing an example of a virtual phase image and a virtual amplitude image respectively generated when the direction (orientation angle) of the virtual object is changed from 0° to 90° in 10° steps.
  • step S13 the virtual phase image generated in step S12 is subjected to the same processing as in step S3 to derive the total phase amount. That is, the total phase amount is derived by applying the equation (6) to the virtual phase image.
  • the total phase quantity derived for the virtual phase image is referred to herein as the total virtual phase quantity PAV .
  • a virtual total phase amount PAV is derived for each case where the direction (orientation angle) of the virtual object is changed.
  • a standard total phase amount P AS is derived for the virtual object.
  • the standard total phase amount P AS is a standard value of the total phase amount in the virtual object, and is expressed by the following formula (8).
  • n is the difference in refractive index between the virtual object and its surroundings
  • V is the volume of the virtual object.
  • the standard total phase amount P AS is constant regardless of the direction (orientation angle) of the virtual object.
  • P AS n ⁇ V (8)
  • FIG. 11 is a graph showing an example of correction coefficients for each orientation angle derived by performing each of the above processes.
  • step S5 The total phase amount PA as an evaluation value derived in step S3 is corrected using the correction coefficient C derived in step S4.
  • the orientation (orientation angle) of the object to be evaluated is specified in the phase image used when deriving the total phase amount PA for the object to be evaluated.
  • FIG. 12 is a diagram showing an example of the result of specifying the orientation (orientation angle) in the phase image of embryonic cells. Note that the orientation (orientation angle) of the object may be identified visually, or may be identified using a known image recognition technique.
  • the correction coefficient C corresponding to the direction (orientation angle) of the specified object is extracted from among the correction coefficients C derived in step S4.
  • the correction value P X is obtained by multiplying the extracted correction coefficient C by the total phase amount P A as the evaluation value derived in step S3. That is, the correction value for the total phase amount PA is represented by the following equation (10).
  • P X C ⁇ P A (10)
  • FIG. 13A and 13B are graphs showing an example of the state of variation in the total phase amount derived based on the phase image of the same embryonic cell.
  • FIG. 13A is before correction processing
  • FIG. 13B is after correction processing.
  • Each plot in the graph is derived based on each of the phase images shown in FIG.
  • the correction processing reduced the variation in the total phase amount.
  • the variation coefficient of the total phase amount before the correction process was 0.031
  • the variation coefficient of the total phase amount after the correction process was 0.023.
  • the present embodiment exemplifies the case where the evaluation target is a cell, it is not limited to this aspect.
  • the technology disclosed herein can be evaluated not only for cells but also for all objects including industrial products that are transparent to object light.
  • the disclosed technology is particularly effective when the object to be evaluated has a non-spherical shape.
  • the evaluation value for evaluating the state of the object is the total phase amount, but the present invention is not limited to this aspect.
  • the phase density obtained by dividing the total phase quantity by the volume of the object the average phase quantity that is the average value of the pixel values in the phase image, the maximum phase quantity that is the maximum value of the pixel values in the phase image, and the variance of the pixel values in the phase image etc. can also be used as evaluation values.

Abstract

評価対象の物体の位相画像に基づいて導出される評価値について、当該物体の向きに起因する影響を抑制することができる評価値の取得方法を提供する。 評価値の取得方法は、物体を透過した光の位相分布を示す位相画像を生成し、位相画像に基づいて前記物体の評価値を導出し、位相画像における前記物体の向きに応じて定まる補正係数を用いて評価値を補正することを含む。

Description

評価値の取得方法
 開示の技術は、物体を評価するための評価値の取得方法に関する。
 デジタルホログラフィ技術を用いた細胞の評価方法に関する技術として、以下の技術が知られている。例えば、国際公開第2019/176427号には、複数の細胞の凝集体である細胞を撮像したホログラムから細胞の位相差画像を生成し、位相差画像と細胞の形状に応じた形状指標値とに基づいて、細胞の状態を判定する判定方法が記載されている。
 特表2012-531584号公報には、物体光と参照光とを重畳されることによって形成される干渉縞から物体波面の位相及び/又は振幅情報を再構築するステップと、位相及び/又は振幅情報から胚又は卵子の品質を示すパラメータを測定するステップと、を含む方法が記載されている。
 細胞を透過した物体光と、物体光に対してコヒーレントな参照光との干渉によって形成される干渉像に基づいて生成される位相画像は、細胞を透過した物体光の位相分布を示す画像であり、細胞の状態が反映される。従って、位相画像に基づいて、細胞の品質評価を行うことが可能である。例えば、位相画像の画素毎の位相量を積算して得られる総位相量を、当該細胞の評価値として用いることが可能である。
 しかしながら、細胞が非球体である場合、位相画像における細胞の向き(配向角)によって総位相量が変化することが判明した。図1は、2細胞期の胚細胞の位相画像から導出された総位相量の相対値と、位相画像における胚細胞の向き(配向角)との関係の一例を示すグラフである。なお、本明細書において配向角とは、位相画像の画素が延在する平面と、胚細胞を構成する2つの細胞が並ぶ方向とのなす角を意味する。図2には、配向角が0°、45°、90°の場合の、胚細胞に対する視線方向が例示されている。図1から位相画像における胚細胞の向き(配向角)の変化に応じて総位相量が変化していることが理解できる。
 位相画像における細胞の向き(配向角)はランダムであるため、配向角に応じて総位相量が変化すると総位相量のバラツキが大きくなる。その結果、総位相量に基づく細胞の品質評価の精度が低下する。総位相量を細胞の評価に使用する場合、同一の細胞について導出される総位相量は、配向角に依存しない一定値であることが好ましい。
 開示の技術は、上記の点に鑑みてなされたものであり、評価対象の物体の位相画像に基づいて導出される評価値について、当該物体の向きに起因する影響を抑制することを目的とする。
 開示の技術に係る評価値の取得方法は、物体を透過した光の位相分布を示す位相画像を生成し、位相画像に基づいて物体の評価値を導出し、位相画像における物体の向きに応じて定まる補正係数を用いて評価値を補正することを含む。
 位相画像は、物体を透過した物体光と物体光に対してコヒーレントな参照光との干渉によって形成される干渉像に基づいて生成してもよい。評価値は、位相画像の画素毎の位相量を積算して得られる総位相量であってもよい。
 位相画像に基づいて、物体の形状、寸法及び屈折率を模擬した仮想物体を作成し、仮想物体を用いて補正係数を導出してもよい。仮想物体を透過する光の位相分布を示す仮想位相画像を生成し、仮想位相画像の画像毎の位相量を積算して得られる仮想総位相量を導出し、仮想物体の体積と仮想物体の屈折率とを乗算して得られる標準総位相量を導出し、仮想総位相量と標準総位相量との比を補正係数として導出してもよい。
 仮想物体の向きが異なる場合のそれぞれについて、補正係数を導出し、評価値を導出する際に用いた位相画像における物体の向きに対応する補正係数を当該評価値に乗算することによって当該評価値の補正値を取得してもよい。
 物体が細胞であってもよい。物体が胚細胞の2細胞期であり、仮想物体が2つ楕円体を連結した立体構造を有していてもよい。
 開示の技術によれば、評価対象の物体の位相画像に基づいて導出される評価値について、当該物体の向きに起因する影響を抑制することが可能となる。
胚細胞の位相画像から導出された総位相量の相対値と、位相画像における胚細胞の向きとの関係の一例を示すグラフである。 配向角が0°、45°、90°の場合の、位相画像における胚細胞に対する視線方向を示す図である。 開示の技術の実施形態に係る評価値の取得方法の流れの一例を示すフロー図である。 開示の技術の実施形態に係るホログラフィー装置の構成の一例を示す図である。 2細胞期の胚細胞の干渉像の一例を示す図である。 図5に示す干渉像に基づいて生成された細胞の位相画像の一例を示す図である。 開示の技術の実施形態に係る位相画像の概念を示す図である。 開示の技術の実施形態に係る補正係数を導出する方法の一例を示すフロー図である。 仮想物体を作成に用いる位相画像の一例を示す図である。 仮想物体の配向角を0°から90°まで10°刻みで変化させた場合のそれぞれについて生成された仮想位相画像及び振幅像の一例を示す図である。 開示の技術の実施形態に係る配向角毎の補正係数の一例を示すグラフである。 胚細胞の位相画像において、配向角を特定した結果の一例を示す図である。 補正処理前における総位相量のバラツキの状態の一例を示すグラフである。 補正処理後における総位相量のバラツキの状態の一例を示すグラフである。
 以下、開示の技術の実施形態の一例を、図面を参照しつつ説明する。なお、各図面において同一または等価な構成要素及び部分には同一の参照符号を付与し、重複する説明は省略する。
 開示の技術の実施形態に係る評価値の取得方法は、評価対象の物体を透過した光の位相分布を示す位相画像を生成し、位相画像に基づいて上記物体の評価値を導出し、位相画像における上記物体の向きに応じて定まる補正係数を用いて上記評価値を補正することを含む。
 図3は、本実施形態に係る評価値の取得方法の流れの一例を示すフロー図である。ステップS1において、評価対象の物体を透過した物体光と、物体光に対してコヒーレントな参照光との干渉によって形成される干渉像(ホログラム)を取得する。ステップS2において、ステップS1において取得した干渉像に基づいて位相画像を生成する。ステップS3において、ステップS2において生成した位相画像に基づいて評価対象の物体の状態を評価するための評価値を導出する。ステップS4において評価値を補正するための補正係数を導出する。ステップS5において、ステップS3において導出した評価値を、ステップS4において導出した補正係数を用いて補正する。以下、上記の各ステップについて詳細に説明する。
(干渉像の取得:ステップS1)
 干渉像の取得方法について以下に説明する。図4は、評価対象の物体について干渉像を生成するためのホログラフィー装置10の構成の一例を示す図である。以下において、評価対象の物体が2細胞期の胚細胞である場合を例に説明する。
 ホログラフィー装置10は、分波器21、反射ミラー22、24、対物レンズ23、結像レンズ25、合波器26及び撮像装置30を含んで構成されている。評価対象の細胞60は、容器61内に培養液とともに収容された状態で反射ミラー22と対物レンズ23との間に配置される。
 レーザ光源20には、例えば波長632.8nmのHeNeレーザを用いることが可能である。レーザ光源20から出射された直線偏光であるレーザ光L0は、分波器21によって2つのレーザ光に分割される。2つのレーザ光の一方は物体光L1とされ、他方は参照光L2とされる。分波器21としてビームスプリッタを用いることができる。物体光L1は、反射ミラー22に入射する。反射ミラー22によって進行方向が曲げられた物体光L1は、細胞60に照射される。
 細胞60を透過した物体光L1による像は、対物レンズ23によって拡大される。対物レンズ23を透過した物体光L1は、反射ミラー24によって進行方向が曲げられて、結像レンズ25を介して合波器26に入射する。一方、参照光L2も合波器26に入射する。物体光L1及び参照光L2は合波器26によって合波され、撮像装置30の撮像面に結像される。合波器26としてビームスプリッタを用いることができる。
 物体光L1と参照光L2との干渉によって生じる干渉像(ホログラム)が撮像装置30によって撮像される。撮像装置30は、CMOS(Complementary Metal-Oxide-Semiconductor)イメージセンサ等の撮像素子を備え、干渉像の画像データを生成する。図5は、2細胞期の胚細胞の干渉像の一例を示す図である。
(位相画像の生成:ステップS2)
 干渉像から位相画像を取得する方法の一例について以下に説明する。はじめに、撮像装置30によって取得された細胞60の干渉像(ホログラム)を、例えば、2048×2048のサイズとなるようにトリミングを行った後、二次元フーリエ変換する。この処理によって得られるフーリエ変換画像は、直接光、物体光、共役光に基づく像を含み得る。
 次に、フーリエ変換画像における直接光に対する物体光のずれ量を特定することで物体光の位置を特定し、例えば、半径250pixelの円形開口のマスクを用いた周波数フィルタリング処理により、物体光のみの複素振幅成分を抜き出す。
 次に、例えば、角スペクトル法を適用して任意の空間位置の細胞60の位相を示す画像を復元する。具体的には、撮像装置30の撮像面で捉えた波面u(x,y;0)のフーリエ変換画像の角スペクトルU(f,f;0)を求める。次に、下記の(1)式に示すように、角スペクトルU(f,f;0)に伝達関数H(f,f;z)を乗算することで、光軸方向(z方向)の任意の位置zにおける波面を再生する。ここで、伝達関数H(f,f;z)は、周波数応答関数(インパルス応答関数(グリーン関数)のフーリエ変換)である。
Figure JPOXMLDOC01-appb-M000001
 次に、下記の(2)式に示すように、光軸方向(z方向)の位置zにおける波面U(f,f;z)について逆フーリエ変換を実施することで、位置zにおける解u(x,y;z)を導出する。
Figure JPOXMLDOC01-appb-M000002
 次に、下記の(3)式に示すように、u(x,y;z)についての位相φを導出することで位相画像を生成する。
Figure JPOXMLDOC01-appb-M000003
 上記の処理によって得られるアンラッピング前の位相画像における位相は、0~2πの値に畳みこまれている。そこで、例えば、Unweighted Least Squares(重みなし最小2乗法)またはFlynn's Algorithm(フリンのアルゴリズム)などの位相接続(アンラッピング)手法を適用して2π以上の部分も接合していくことで、最終的な位相画像を得ることができるなお、アンラッピングの手法は数多く提案されており、位相不整合を生じない適切なものを適宜選択すればよい。図6は、図5に示す干渉像に基づいて生成された細胞60の位相画像の一例を示す図である。
 図7は、位相画像Iの概念を示す図である。図7下段は、位相画像Iの各画素kにおける位相量を三次元表示したものである。図7上段は、位相画像Iの各画素kにおける位相量を平面上にグレースケールで示したものである。
 ここで、位相画像Iの同一焦点面内に存在するバックグラウンド(細胞60の存在しない領域)の位相をPとし、細胞60の存在する領域の位相をPとしたとき、位相画像Iにおける位相量Pは、下記の(4)式によって表わされる。また、本明細書中における「位相」という用語は、光を電磁波とみなした場合の電場振幅の位相であり、より一般的な意味で使用される。
Figure JPOXMLDOC01-appb-M000004
 位相画像Iの各画素kにおける位相量Pは、下記(5)式によって表わすことができる。但し、nは位相画像Iの各画素kに対応する部位における細胞60の屈折率と細胞の周囲との屈折率の差であり、dは位相画像Iの各画素kに対応する部位における細胞60の厚さであり、λはホログラム光学系における物体光の波長である。
Figure JPOXMLDOC01-appb-M000005
(評価値の導出:ステップS3)
 細胞60の位相画像は、細胞60を透過した物体光L1の位相分布を示す画像であり、細胞60を透過した物体光の光路長分布を示した画像でもある。細胞60内における光路長は、細胞60と細胞の周囲との屈折率の差と細胞60の厚さの積に相当することから、細胞60の位相画像は、(5)式にも示されているように、細胞60の屈折率及び厚さ(形状)の情報を含んでいる。細胞60の位相画像には、細胞60の状態が反映されるので、位相画像に基づいて細胞60の品質評価を行うことが可能である。具体的には、総位相量Pを細胞60の評価値として用いることが可能である。
 総位相量Pは、下記の(6)式によって表わされる。但し、sは位相画像の各画素kの面積であり、vは位相画像の各画素kに対応する部位における細胞60の体積である。(6)式に示されるように、総位相量Pは、細胞60の位相画像の画素毎の位相量Pを、全ての画素kについて積算したものに相当する。位相画像の画素値は位相量Pに対応している。
Figure JPOXMLDOC01-appb-M000006
(補正係数の導出:ステップS4)
 図1に示すように、総位相量Pは、位相画像における細胞60の向き(配向角)によって変化する。位相画像における細胞60の向き(配向角)は、物体光L1の光軸に対する細胞60の向き(配向角)に対応する。同一の細胞60について導出される総位相量Pは、配向角に依存しない一定値であることが好ましい。本実施形態に係る評価値の取得方法は、評価値としての総位相量Pを、位相画像における細胞60の向き(配向角)に応じて定まる補正係数を用いて補正することを含む。補正係数の導出方法の一例について以下に説明する。
 図8は、補正係数を導出する方法の一例を示すフロー図である。ステップS11において、ステップS2において生成した位相画像に基づいて、評価対象の物体の形状、寸法及び屈折率を模擬した三次元モデルである仮想物体を作成する。具体的には、図9に示すように、位相画像に含まれる、評価対象の物体である胚細胞を構成する2つの細胞の各々を楕円体とみなし、2つの楕円体が短径方向に連結した立体構造を有する仮想物体を作成する。楕円体の長径、短径、中心間距離及び屈折率nを位相画像から測定し、これらを仮想物体に適用する。屈折率nは、バックグランド(培養液)に対する屈折率差であり、(7)式によって表される。(7)式において、PQ1は、位相画像の点Q1における位相量(画素値)であり、Dは、点Q1における厚さ、すなわち楕円体の長径である。仮想物体の屈折率は、全域に亘り均一であるものとする。
n=PQ1/D ・・・(7)
 ステップS12において、ステップS11において作成した仮想物体を透過する光の位相分布を示す仮想位相画像を生成する。具体的には、FDTD法(Finite-difference time-domain method)等の光伝搬を計算する数値計算手法を用いて、仮想物体について干渉像を生成する。すなわち、仮想物体の干渉像は計算機上で生成される。その後、計算機上で生成された仮想物体の干渉像について、ステップS2と同様の処理を行うことで位相画像を生成する。仮想物体について生成される位相画像を本明細書において仮想位相画像と称する。なお、仮想位相画像を生成する際のフォーカス位置を、評価対象の物体について位相画像を生成する際のフォーカス位置を定める場合と同様の手法によって定めることが好ましい。例えば、干渉像から生成され得る振幅像の分散が最小となる位置をフォーカス位置として定めることが可能である。
 仮想物体の向き(配向角)を変化させた場合のそれぞれについて仮想位相画像を生成する。図10は、仮想物体の向き(配向角)を0°から90°まで10°刻みで変化させた場合のそれぞれについて生成された仮想位相画像及び仮想振幅画像の一例を示す図である。
 ステップS13において、ステップS12において生成された仮想位相画像について、ステップS3と同様の処理を行うことで総位相量を導出する。すなわち、仮想位相画像について(6)式を適用することで総位相量を導出する。仮想位相画像について導出される総位相量を、本明細書において仮想総位相量PAVと称する。仮想物体の向き(配向角)を変化させた場合のそれぞれについて仮想総位相量PAVを導出する。
 ステップS14において、仮想物体について標準総位相量PASを導出する。標準総位相量PASは、仮想物体における総位相量の標準値であり、下記の(8)式によって表される。(8)式において、nは仮想物体と周囲との屈折率の差であり、Vは仮想物体の体積である。標準総位相量PASは、仮想物体の向き(配向角)によらず一定である。
AS=n×V ・・・(8)
 ステップS15において、ステップS13において導出した仮想総位相量PAVと、ステップS14において導出した標準総位相量PASとの比を補正係数Cとして導出する。すなわち、補正係数Cは、下記の(9)式によって表される。仮想物体の向き(配向角)を変化させた場合のそれぞれについて導出した仮想総位相量PAVを用いて、仮想物体の向き(配向角)を変化させた場合のそれぞれについて補正係数Cを導出する。
C=PAS/PAV ・・・(9)
 図11は、上記の各処理を行うことによって導出された配向角毎の補正係数の一例を示すグラフである。
(評価値の補正:ステップS5)
 ステップS3において導出した評価値としての総位相量Pを、ステップS4において導出した補正係数Cを用いて補正する。具体的には、評価対象の物体について総位相量Pを導出する際に使用した位相画像において、当該物体の向き(配向角)を特定する。図12は、胚細胞の位相画像において、その向き(配向角)を特定した結果の一例を示す図である。なお、物体の向き(配向角)は目視によって特定してもよいし、公知の画像認識技術を用いて特定してもよい。
 次に、ステップS4において導出した補正係数Cのうち、特定した物体の向き(配向角)に対応する補正係数Cを抽出する。そして、抽出した補正係数Cを、ステップS3において導出した評価値としての総位相量Pに乗算することで補正値Pを取得する。すなわち、総位相量Pの補正値は、下記の(10)式によって表される。
=C×P ・・・(10)
 図13A、図13Bは、それぞれ、同一の胚細胞の位相画像に基づいて導出された総位相量のバラツキの状態の一例を示すグラフであり、図13Aは補正処理前のものであり、図13Bは補正処理後のものである。なお、グラフ中の各プロットは、図12に示す位相画像の各々に基づいて導出されたものである。図13Aと図13Bとを比較して明らかなように、補正処理を行うことで、総位相量のバラツキが小さくなった。具体的には、補正処理前における総位相量の変動係数が0.031であったのに対して、補正処理後における総位相量の変動係数は0.023であった。
 以上のように、開示の技術に係る評価値の取得方法によれば、評価対象の物体の位相画像に基づいて導出される評価値について、当該物体の向きに起因する影響を抑制することが可能となる。これにより、評価値を安定的に取得することができ、評価値のバラツキを抑制することが可能となる。
 なお、本実施形態では、評価対象が細胞である場合を例示したが、この態様に限定されてない。開示の技術は、細胞に限らず、物体光に対して透過性を有する、工業製品を含むあらゆる物体を評価対象とすることができる。開示の技術は、評価対象物体の形状が非球体である場合に特に有効である。また、本実施形態では、物体の状態を評価するための評価値として総位相量を例示したが、この態様に限定されない。例えば総位相量を当該物体の体積で除算した位相密度、位相画像における画素値の平均値である平均位相量、位相画像における画素値の最大値である最大位相量、位相画像における画素値の分散等を評価値として用いることも可能である。
 なお、2021年4月21日に出願された日本国特許出願2021-072083の開示は、その全体が参照により本明細書に取り込まれる。また、本明細書に記載された全ての文献、特許出願および技術規格は、個々の文献、特許出願、および技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。

Claims (8)

  1.  物体を透過した光の位相分布を示す位相画像を生成し、
     前記位相画像に基づいて前記物体の評価値を導出し、
     前記位相画像における前記物体の向きに応じて定まる補正係数を用いて前記評価値を補正する
     評価値の取得方法。
  2.  前記位相画像は、前記物体を透過した物体光と前記物体光に対してコヒーレントな参照光との干渉によって形成される干渉像に基づいて生成される
     請求項1に記載の取得方法。
  3.  前記評価値は、前記位相画像の画素毎の位相量を積算して得られる総位相量である
     請求項1又は請求項2に記載の取得方法。
  4.  前記位相画像に基づいて、前記物体の形状、寸法及び屈折率を模擬した仮想物体を作成し、前記仮想物体を用いて前記補正係数を導出する
     請求項1から請求項3のいずれか1項に記載の取得方法。
  5.  前記仮想物体を透過する光の位相分布を示す仮想位相画像を生成し、
     前記仮想位相画像の画像毎の位相量を積算して得られる仮想総位相量を導出し、
     前記仮想物体の体積と前記仮想物体の屈折率とを乗算して得られる標準総位相量を導出し、
     前記仮想総位相量と前記標準総位相量との比を前記補正係数として導出する
     請求項4に記載の取得方法。
  6.  前記仮想物体の向きが異なる場合のそれぞれについて、前記補正係数を導出し、
     前記評価値を導出する際に用いた位相画像における前記物体の向きに対応する補正係数を当該評価値に乗算することによって当該評価値の補正値を取得する
     請求項4又は請求項5に記載の取得方法。
  7.  前記物体が細胞である
     請求項1乃至請求項6のいずれか1項に記載の取得方法。
  8.  前記物体が2細胞期の胚細胞であり、
     前記仮想物体が2つ楕円体を連結した立体構造を有する
     請求項4乃至請求項6のいずれか1項に記載の取得方法。
PCT/JP2022/014972 2021-04-21 2022-03-28 評価値の取得方法 WO2022224722A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP22791497.5A EP4328567A1 (en) 2021-04-21 2022-03-28 Method for acquiring evaluation value
CN202280029279.9A CN117203514A (zh) 2021-04-21 2022-03-28 评价值的获取方法
JP2023516375A JPWO2022224722A1 (ja) 2021-04-21 2022-03-28
US18/479,832 US20240029253A1 (en) 2021-04-21 2023-10-03 Method for acquiring evaluation value

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021072083 2021-04-21
JP2021-072083 2021-04-21

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/479,832 Continuation US20240029253A1 (en) 2021-04-21 2023-10-03 Method for acquiring evaluation value

Publications (1)

Publication Number Publication Date
WO2022224722A1 true WO2022224722A1 (ja) 2022-10-27

Family

ID=83722170

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/014972 WO2022224722A1 (ja) 2021-04-21 2022-03-28 評価値の取得方法

Country Status (5)

Country Link
US (1) US20240029253A1 (ja)
EP (1) EP4328567A1 (ja)
JP (1) JPWO2022224722A1 (ja)
CN (1) CN117203514A (ja)
WO (1) WO2022224722A1 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006051813A1 (ja) * 2004-11-09 2006-05-18 Hitachi Medical Corporation 細胞培養装置、画像処理装置及び細胞検出システム
JP2012531584A (ja) 2009-06-25 2012-12-10 フェイズ ホログラフィック イメージング ペーホーイー アーベー デジタルホログラフィック撮像による卵又は胚の分析
JP2013531787A (ja) * 2010-05-25 2013-08-08 アリックス インコーポレイテッド 粒子の運動度および/または細胞の分散を求めるためのホログラフィック変動顕微鏡装置および方法
JP2015053879A (ja) * 2013-09-11 2015-03-23 大日本印刷株式会社 検体画像管理システム及び検体画像管理プログラム
WO2019175959A1 (ja) * 2018-03-13 2019-09-19 株式会社島津製作所 細胞状態判定方法及び細胞状態判定装置
WO2019176427A1 (ja) 2018-03-12 2019-09-19 富士フイルム株式会社 判定方法
WO2020066348A1 (ja) * 2018-09-28 2020-04-02 富士フイルム株式会社 判定方法
WO2020188813A1 (ja) * 2019-03-20 2020-09-24 株式会社島津製作所 細胞解析装置
JP2021072083A (ja) 2019-10-29 2021-05-06 臨海藍冰科技有限公司 メインフレームサーバーケーブル接続設備

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006051813A1 (ja) * 2004-11-09 2006-05-18 Hitachi Medical Corporation 細胞培養装置、画像処理装置及び細胞検出システム
JP2012531584A (ja) 2009-06-25 2012-12-10 フェイズ ホログラフィック イメージング ペーホーイー アーベー デジタルホログラフィック撮像による卵又は胚の分析
JP2013531787A (ja) * 2010-05-25 2013-08-08 アリックス インコーポレイテッド 粒子の運動度および/または細胞の分散を求めるためのホログラフィック変動顕微鏡装置および方法
JP2015053879A (ja) * 2013-09-11 2015-03-23 大日本印刷株式会社 検体画像管理システム及び検体画像管理プログラム
WO2019176427A1 (ja) 2018-03-12 2019-09-19 富士フイルム株式会社 判定方法
WO2019175959A1 (ja) * 2018-03-13 2019-09-19 株式会社島津製作所 細胞状態判定方法及び細胞状態判定装置
WO2020066348A1 (ja) * 2018-09-28 2020-04-02 富士フイルム株式会社 判定方法
WO2020188813A1 (ja) * 2019-03-20 2020-09-24 株式会社島津製作所 細胞解析装置
JP2021072083A (ja) 2019-10-29 2021-05-06 臨海藍冰科技有限公司 メインフレームサーバーケーブル接続設備

Also Published As

Publication number Publication date
EP4328567A1 (en) 2024-02-28
CN117203514A (zh) 2023-12-08
US20240029253A1 (en) 2024-01-25
JPWO2022224722A1 (ja) 2022-10-27

Similar Documents

Publication Publication Date Title
Ma et al. Numerical reconstruction of digital holograms for three-dimensional shape measurement
JP6412017B2 (ja) サンプルに対する干渉撮像データにおける波面を特徴付けるための方法及び干渉撮像装置
US10845760B2 (en) Digital holographic reconstruction device and method using single generation phase shifting method
CN107003638B (zh) 数字全息摄像装置以及数字全息图生成方法
JP6817642B2 (ja) エリプソメトリ装置およびエリプソメトリ方法
JP2003097922A (ja) 表面形状測定装置及びその方法、プログラム並びに記憶媒体
JP7231946B2 (ja) 表面形状計測装置および表面形状計測方法
JP6862255B2 (ja) 撮像装置、撮像方法および撮像プログラム
TW201237359A (en) Three dimensional surface profilometer and microscopy, and the method using the same
Escamilla et al. Three-dimensional surface measurement based on the projected defocused pattern technique using imaging fiber optics
Psota et al. Multiple angle digital holography for the shape measurement of the unpainted tympanic membrane
CN112740092A (zh) 用于非均匀介质的非侵入性光学表征的方法和系统
WO2020261826A1 (ja) 画像処理装置、評価システム、画像処理プログラム及び画像処理方法
WO2022224722A1 (ja) 評価値の取得方法
Ralston et al. Phase stability technique for inverse scattering in optical coherence tomography
CN109884869A (zh) 一种基于双瞳孔外差计算全息成像系统及方法
WO2023233827A1 (ja) 位相画像取得方法及び定量データ取得方法
KR20190072020A (ko) 결함 검출 방법 및 장치
JP2003222508A (ja) 表面形状測定装置及び表面形状測定方法
Gowda et al. Diffraction based image synthesis
Kozacki et al. Holographic contouring with multiple incidence angles
Muroi et al. Compensation for reconstructed image distortion using camera model with lens distortion in incoherent digital holography
JP7046211B2 (ja) 判定方法
CN113432731B (zh) 一种光栅横向剪切干涉波前重建过程中的补偿方法
JP3871183B2 (ja) 光学素子の3次元形状測定方法及び測定装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22791497

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023516375

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2022791497

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2022791497

Country of ref document: EP

Effective date: 20231121