WO2022195754A1 - データ処理方法、データ処理装置、三次元観察装置、学習方法、学習装置及び記録媒体 - Google Patents

データ処理方法、データ処理装置、三次元観察装置、学習方法、学習装置及び記録媒体 Download PDF

Info

Publication number
WO2022195754A1
WO2022195754A1 PCT/JP2021/010772 JP2021010772W WO2022195754A1 WO 2022195754 A1 WO2022195754 A1 WO 2022195754A1 JP 2021010772 W JP2021010772 W JP 2021010772W WO 2022195754 A1 WO2022195754 A1 WO 2022195754A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
estimated
learning
neural network
measured
Prior art date
Application number
PCT/JP2021/010772
Other languages
English (en)
French (fr)
Inventor
岡村俊朗
渡部智史
Original Assignee
株式会社エビデント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社エビデント filed Critical 株式会社エビデント
Priority to JP2023506581A priority Critical patent/JPWO2022195754A1/ja
Priority to PCT/JP2021/010772 priority patent/WO2022195754A1/ja
Publication of WO2022195754A1 publication Critical patent/WO2022195754A1/ja
Priority to US18/464,510 priority patent/US20230419112A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/41Refractivity; Phase-affecting properties, e.g. optical path length
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/59Transmissivity
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]

Definitions

  • the present invention relates to a data processing method, a data processing device, a three-dimensional observation device, a learning method, a learning device and a recording medium.
  • Patent Document 1 A microscope using a Deep Neural Network is disclosed in Patent Document 1.
  • learning is performed using high-resolution images and low-resolution images. Since it uses a trained Deep Neural Network, images with improved image quality can be output at high speed.
  • Image quality is, for example, spatial resolution, depth of field, SN ratio, and contrast.
  • the Deep Neural Network will output results with low estimation accuracy.
  • the estimated three-dimensional optical characteristics of an object may differ greatly from the three-dimensional optical characteristics of the actual object. is difficult.
  • the present invention has been made in view of such problems, and includes a data processing method, a data processing apparatus, a three-dimensional observation apparatus and a recording medium for generating an index that indicates the reliability of estimation, and a method that indicates the reliability of estimation.
  • An object of the present invention is to provide a learning method, a learning device, and a recording medium for generating indices.
  • a data processing method comprises: an input step of inputting the measured data into the neural network; an estimation step of generating estimated data from measured data; a recovery step of generating recovered data from the estimated data; a calculating step of calculating the reliability of the estimated data based on the measured data and the restored data;
  • a neural network is a trained model, Measurement data is data obtained by measuring light transmitted through an object, The estimated data is data of the three-dimensional optical properties of the object estimated from the measured data, The three-dimensional optical property is a refractive index distribution or an absorptance distribution,
  • a forward propagation operation is performed on the estimated data, The forward propagation calculation is characterized in that the wavefront passing through the interior of the object estimated from the measurement data is obtained sequentially in the direction in which the light travels.
  • a data processing method comprises: an input step of inputting the measured data into the neural network; an estimation step of generating estimated data from measured data; a recovery step of generating recovered data from the estimated data; a calculation step of calculating the reliability of the estimated data based on the measured data and the restored data; a learning step in which the neural network learns with an amount inversely proportional to the reliability as a loss,
  • Measurement data is data obtained by measuring light transmitted through an object,
  • the estimated data is data of the three-dimensional optical properties of the object estimated from the measured data,
  • the three-dimensional optical property is a refractive index distribution or an absorptance distribution
  • a forward propagation operation is performed on the estimated data,
  • the forward propagation calculation is characterized in that the wavefront passing through the interior of the object estimated from the measurement data is obtained sequentially in the direction in which the light travels.
  • a data processing apparatus may comprise: comprising a memory, a processor, and The memory stores measurement data, the processor performs an estimation process to estimate the three-dimensional optical properties of the object;
  • the three-dimensional optical property is a refractive index distribution or an absorptance distribution
  • the estimation process is an input step of inputting the measured data into the neural network; an estimation step of generating estimated data from measured data; a recovery step of generating recovered data from the estimated data; a calculating step of calculating the reliability of the estimated data based on the measured data and the restored data;
  • a neural network is a trained model, Measurement data is data obtained by measuring light transmitted through an object, The estimated data is data of the three-dimensional optical properties of the object estimated from the measured data, In the estimation, using a neural network, In reconstruction, a forward propagation operation is performed on the estimated data, The forward propagation calculation is characterized in that the wavefront passing through the interior of the object estimated from the measurement data is obtained sequentially in the direction in which the
  • a data processing apparatus may comprise: comprising a memory, a processor, and The memory stores measurement data, the processor performs an estimation process to estimate the three-dimensional optical properties of the object;
  • the three-dimensional optical property is a refractive index distribution or an absorptance distribution
  • the estimation process is an input step of inputting the measured data into the neural network; an estimation step of generating estimated data from measured data; a recovery step of generating recovered data from the estimated data; a calculation step of calculating the reliability of the estimated data based on the measured data and the restored data; a learning step in which the neural network learns with an amount inversely proportional to the reliability as a loss,
  • Measurement data is data obtained by measuring light transmitted through an object,
  • the estimated data is data of the three-dimensional optical properties of the object estimated from the measured data,
  • a forward propagation calculation is characterized in that the wavefront passing through the interior of
  • recording media include: A computer-readable recording medium recording a program for causing a computer having a memory and a processor to perform estimation processing,
  • the estimation process estimates the three-dimensional optical properties of the object,
  • the three-dimensional optical property is a refractive index distribution or an absorptance distribution, to the processor, a process of inputting the measured data stored in the memory into a neural network; a process of generating estimated data from measured data; a process of generating restored data from estimated data; a process of calculating the reliability of the estimated data based on the measured data and the restored data;
  • a neural network is a trained model, Measurement data is data obtained by measuring light transmitted through an object, The estimated data is data of the three-dimensional optical properties of the object estimated from the measured data, In the estimation, using a neural network, In reconstruction, a forward propagation operation is performed on the estimated data, The forward propagation calculation is characterized in that the wavefront passing through the interior of the object estimated from the measurement data is obtained sequentially in
  • recording media include: A computer-readable recording medium recording a program for causing a computer having a memory and a processor to perform estimation processing,
  • the estimation process estimates the three-dimensional optical properties of the object,
  • the three-dimensional optical property is a refractive index distribution or an absorptance distribution, to the processor, a process of inputting the measured data stored in the memory into a neural network; a process of generating estimated data from measured data; a process of generating restored data from estimated data; a process of calculating the reliability of the estimated data based on the measured data and the restored data;
  • Execute the processing that the neural network learns with the amount inversely proportional to the reliability as the loss
  • Measurement data is data obtained by measuring light transmitted through an object
  • the estimated data is data of the three-dimensional optical properties of the object estimated from the measured data,
  • a forward propagation calculation is characterized in that the wavefront passing
  • a neural network training method comprises: A learning method for a neural network that calculates the reliability of estimated data, The reliability of the estimated data is calculated based on the measured data and the restored data, Measurement data is data obtained by measuring light transmitted through an object, The estimated data is data of the three-dimensional optical properties of the object estimated from the measured data, The three-dimensional optical property is a refractive index distribution or an absorptance distribution, The restored data is data generated by performing a forward propagation operation on the estimated data, In the forward propagation calculation, the wavefront passing through the interior of the object estimated from the measurement data is obtained in order in the direction in which the light travels, A first learning step of learning using a first learning data set; a second learning step of learning using a second learning data set; The first learning step and the second learning step are repeatedly performed, The first learning data set includes first data, first correction data, teacher data indicating true among true and false, The second learning data set includes first data, second correction data, teacher data indicating false among
  • a learning device may: comprising a memory, a processor, and The memory stores measurement data, The processor performs learning processing on a neural network that calculates the reliability of the estimated data, The reliability of the estimated data is calculated based on the measured data and the restored data, Measurement data is data obtained by measuring light transmitted through an object, The estimated data is data of the three-dimensional optical properties of the object estimated from the measured data, The three-dimensional optical property is a refractive index distribution or an absorptance distribution, The restored data is data generated by performing a forward propagation operation on the estimated data, In the forward propagation calculation, the wavefront passing through the interior of the object estimated from the measurement data is obtained in order in the direction in which the light travels, The learning process is A first learning step of learning using a first learning data set; a second learning step of learning using a second learning data set; The first learning step and the second learning step are repeatedly performed, The first learning data set includes first data, first correction data, teacher data indicating true among
  • recording media include: A computer-readable recording medium recording a program for causing a computer having a memory and a processor to perform learning processing for a neural network,
  • the neural network calculates the reliability of the estimated data based on the measured data and the restored data
  • Measurement data is data obtained by measuring light transmitted through an object
  • the estimated data is data of the three-dimensional optical properties of the object estimated from the measured data
  • the three-dimensional optical property is a refractive index distribution or an absorptance distribution
  • the restored data is data generated by performing a forward propagation operation on the estimated data, In the forward propagation calculation, the wavefront passing through the interior of the object estimated from the measurement data is obtained in order in the direction in which the light travels,
  • the first learning step and the second learning step are repeatedly performed,
  • the first learning data set includes first data, first correction data, teacher data indicating true among true and false,
  • a data processing method a data processing device, a three-dimensional observation device, and a recording medium for generating an index indicating the reliability of estimation, a learning method, a learning device, and a method for generating an index indicating the reliability of estimation.
  • a recording medium can be provided.
  • FIG. 4 is a diagram showing how an image of an optical image of an object is acquired; 4 is a flowchart of a data processing method according to the first embodiment; It is a figure which shows the data processing method of 1st Embodiment.
  • FIG. 4 is a diagram for explaining a forward propagation operation; FIG. It is a figure which shows the 1st preparation method. It is a figure which shows learning data. It is a figure which shows the preparation method of reconfiguration
  • FIG. 1st preparation method It is a figure which shows learning data.
  • 2nd creation method It is a figure which shows learning data.
  • 3rd preparation method It is a figure which shows learning data.
  • FIG. 4 shows how an image of an optical image of an object is acquired
  • FIG. 2 shows a U-Net
  • 6 is a flow chart of a data processing method of the second embodiment
  • It is a figure which shows the data processing method of 2nd Embodiment.
  • It is a figure which shows the mode of learning in DNN.
  • It is a figure which shows the method of calculating reliability.
  • FIG. 10 is a diagram showing processing in calculating reliability in the second DNN; It is a figure which shows the data for learning.
  • FIG. 10 is a diagram showing how learning is performed in the second DNN; It is a figure which shows the 1st presentation method. It is a figure which shows the 2nd presentation method.
  • It is a figure which shows the data processing apparatus of this embodiment.
  • 1 is a diagram showing a three-dimensional observation device of a first embodiment;
  • FIG. It is a figure which shows the three-dimensional observation apparatus of 2nd Embodiment.
  • the three-dimensional optical properties can be known, for example, by estimation.
  • a neural network is used to estimate the three-dimensional optical characteristics of an object.
  • a three-dimensional optical property is a refractive index distribution or an absorptance distribution.
  • a neural network has an input layer, an output layer, and one hidden layer.
  • a DNN has an input layer, an output layer, and multiple hidden layers.
  • an optical image of the object can be obtained by using an optical system.
  • An optical image of an object reflects three-dimensional optical properties.
  • the optical image of the object is preferably a magnified image. A magnified image makes it possible to easily obtain the data necessary for estimating the three-dimensional optical characteristics from the captured image.
  • FIG. 1 is a diagram showing how an optical image of an object is acquired.
  • FIG. 1A is a diagram showing a specific example of an image acquisition method.
  • FIG. 1B is a diagram showing images of a plurality of XY cross-sections.
  • FIG. 1(c) is a diagram showing an image of the XZ cross section. Objects are drawn large for ease of explanation.
  • the Z axis is an axis parallel to the optical axis AX.
  • the X-axis is an axis perpendicular to the optical axis AX.
  • the Y-axis is an axis orthogonal to the X-axis and the Z-axis.
  • an object 1 is illuminated with illumination light 2.
  • Object 1 is illuminated with illumination light 2 .
  • Light transmitted through the object 1 enters the imaging unit 3 .
  • the imaging unit 3 has an optical system 4 and an imaging device 5 .
  • an optical image IM is formed on the imaging plane IP.
  • the optical image IM is a magnified image of the object 1 .
  • the position of the imaging plane IP is conjugate with the position Zfo.
  • the optical image IM is thus the optical image of the object 1 at the position Zfo.
  • a position Zfo is the focus position of the optical system 4 .
  • the imaging plane of the imaging element 5 is located on the imaging plane IP.
  • An image Imea (x, y) can be acquired by capturing the optical image IM with the image sensor 5 .
  • An image Imea(x, y) is an image of the optical image IM, and is an image in the XY section.
  • the object 1 and the imaging unit 3 should be relatively moved in the Z-axis direction.
  • the object 1 is held by a stage and the stage is moved in the Z-axis direction.
  • the optical system 4 may be formed by an infinity correction objective lens and an imaging lens, and only the infinity correction objective lens may be moved in the Z-axis direction.
  • the data necessary for estimating the three-dimensional optical properties can be obtained from multiple images Imea (x, y). Also, as shown in FIG. 1C, an image Imea(x, z) of the XZ cross section can be obtained from a plurality of images Imea(x, y).
  • the data processing method of this embodiment will be described using the data processing method of the first embodiment and the data processing method of the second embodiment.
  • the data processing method of the first embodiment includes an input step of inputting measured data to a neural network, an estimation step of generating estimated data from the measured data, a restoring step of generating restored data from the estimated data, and and a calculating step of calculating the reliability of the estimated data based on the data.
  • the neural network is a trained model
  • the measurement data is data obtained by measuring the light transmitted through the object
  • the estimated data is the three-dimensional optical property data of the object estimated from the measurement data.
  • the three-dimensional optical property is a refractive index distribution or an absorptance distribution.
  • a neural network is used, in the restoration, forward propagation calculation is performed on the estimated data, and in the forward propagation calculation, the wavefront passing through the interior of the object estimated from the measurement data is sequentially obtained in the direction of light travel.
  • FIG. 2 is a flowchart of the data processing method of the first embodiment.
  • FIG. 3 is a diagram showing the data processing method of the first embodiment.
  • the image shown in FIG. 3 is an image of the XZ cross section.
  • the object is shown as an image O(x,z) for ease of viewing. Description will be made with reference to FIGS. 2 and 3.
  • FIG. 3 is a diagram showing the data processing method of the first embodiment.
  • the image shown in FIG. 3 is an image of the XZ cross section.
  • the object is shown as an image O(x,z) for ease of viewing. Description will be made with reference to FIGS. 2 and 3.
  • FIG. 1 is a flowchart of the data processing method of the first embodiment.
  • FIG. 3 is a diagram showing the data processing method of the first embodiment.
  • the image shown in FIG. 3 is an image of the XZ cross section.
  • the object is shown as an image O(x,z) for ease of viewing. Description will be made with reference to FIGS. 2
  • the data processing method of the first embodiment has steps S1, S2, S3, and S4.
  • Step S1 is an input step.
  • measurement data is input to the neural network.
  • the measurement data is data necessary for estimating the three-dimensional optical properties, and is obtained by measuring light transmitted through the object.
  • An optical image of an object is formed by light transmitted through the object. Measurement data can thus be obtained from the image of the optical image of the object.
  • the optical system 4 forms an optical image of the object.
  • An image of the optical image of the object is obtained by capturing the optical image of the object.
  • Measurement data are obtained from the image of the optical image of the object.
  • the image Imea(x,z) is an image representing the measurement data.
  • a neural network is used in the data processing method of the first embodiment.
  • This neural network is a trained model.
  • a trained model is a trained neural network.
  • the DNN is also a learned DNN.
  • Neural networks use parameters such as weights and biases.
  • a trained model uses trained parameters. Since the parameters are optimally set, accurate estimation can be performed.
  • step S1 measurement data is input to the neural network.
  • measurement data is input to the DNN.
  • step S2 is executed.
  • Step S2 is an estimation step.
  • estimated data is generated from the measured data.
  • the estimated data is data of the three-dimensional optical properties of the object estimated from the measured data.
  • the light from the focused position and the light from the out-of-focus position form an optical image of the object.
  • Light from the focused position forms a clear optical image, but light from the out-of-focus position does not form a clear optical image.
  • a clear optical image is not formed because the clear optical image is superimposed on the unclear optical image. As a result, a clear image cannot be obtained.
  • the thickness of the object shown in FIG. 3 is as thick as the object 1 shown in FIG. 1(a). Therefore, the optical image of the object is not sharp. Since the optical image is not sharp, the image Imea(x,z) is also not sharp.
  • the image Imea(x, z) to be measured differs greatly from the image O(x, z) of the object to be measured. It is difficult for an observer to guess the image O(x,z) by looking at the image Imea(x,z).
  • DNN calculates estimated data from measured data.
  • the image Oest(x,z) is an image representing the estimated data.
  • the observer can infer the image O(x,z) of the observed object by viewing the image Oest(x,z).
  • the image estimated by DNN is greatly influenced by learning data. If the learning data does not include an image O(x,z) close to the object to be observed and the corresponding image Imea(x,z), highly accurate estimation data Oest(x,z) cannot be generated.
  • the generated estimated data Oest(x,z) is likely to produce an image close to the image O(x,z) contained in the training data. It cannot be determined whether the generated image Oest(x,z) of the estimated data represents the image O(x,z) of the observed object.
  • Step S3 is a restoration step.
  • restored data is generated from the estimated data.
  • reconstruction a forward propagation operation is performed on the estimated data.
  • wavefronts passing through the interior of the estimated object are obtained sequentially in the direction in which light travels.
  • the measurement data is obtained from the image of the optical image of the object.
  • the estimated data is data of the estimated three-dimensional optical properties of the object. Therefore, if the optical image can be calculated from the estimated data, data similar to the measured data (hereinafter referred to as "restored data”) can be obtained.
  • the restored data is the data obtained from the optical image of the estimated object (hereinafter referred to as the "estimated optical image").
  • Measurement data is data obtained from an image of an optical image of an object. Since both the measured data and the reconstructed data are data obtained from the optical image, it is possible to compare the measured data and the reconstructed data. By comparing the measured data and the reconstructed data, it can be determined whether or not the estimated data correctly represents the three-dimensional optical properties of the object.
  • Forward propagation operation is performed to obtain restored data from estimated data.
  • Various kinds of operations are performed in the forward propagation operation.
  • a wavefront passing through the interior of the object can be calculated, for example, by the beam propagation method.
  • the beam propagation method replaces the estimated object with multiple thin layers. Then, the wavefront change when light passes through each layer is sequentially calculated.
  • FIG. 4 is a diagram for explaining the forward propagation calculation.
  • FIG. 4A is a diagram for explaining the beam propagation method.
  • FIG. 4(b) is a diagram for explaining processing in the forward propagation calculation.
  • the wavefront propagation is Fresnel propagation. Description will be made by replacing the wavefront with an electric field.
  • the solid line represents the complex index of refraction of the object.
  • the dotted line represents the electric field (light scalar field). Arrows represent Fresnel propagation.
  • the beam propagation method is a method of repeatedly calculating Fresnel propagation between thin layers.
  • the electric field Eout1 on the output side is obtained using the electric field Ein1 on the incident side and the complex refractive index N1.
  • the electric field Ein2 on the incident side at the position P2 is obtained.
  • Propagation from the electric field Eout1 to the electric field Ein2 is Fresnel propagation.
  • the electric field Eout2 on the output side can be obtained. Beam propagation is such propagation that repeats Fresnel propagation while reflecting the complex refractive index of the object.
  • the beam propagation method can be used to calculate the electric field on the output side from the electric field on the incident side.
  • the output-side electric field Eout at the position PN can be obtained.
  • the electric field Eout represents the wavefront emitted from the estimated object.
  • the forward propagation calculation obtains an estimated optical image from the estimated object.
  • the estimated optical image corresponds to the optical image of the object.
  • an imaging optical system is used as shown in FIG. 4(b).
  • the object can be obtained from the estimated object ⁇ est(x,z) and the incident wavefront Win.
  • a propagated outgoing wavefront Wout can be obtained by the beam propagation method. From the outgoing wavefront Wout, the electric field at each focus position Fo1, Fo2 when the objective lens 10 is scanned in the optical axis direction can be obtained by Fresnel propagation. If the aberrations of the objective lens 10 and the imaging lens 11 are small, the intensity distribution of these electric fields corresponds to the image Imea (x, z) of the measurement data.
  • the intensity distribution image Iest(x,z) obtained by such forward propagation calculation is an image representing the restored data.
  • step S4 is executed.
  • Step S4 is a calculation step.
  • the reliability of the estimated data is calculated based on the measured data and the restored data.
  • both the measured data and the reconstructed data are data obtained from optical images, so it is possible to compare the measured data and the reconstructed data. By comparing the measured data and the reconstructed data, it can be determined whether or not the estimated data correctly represents the three-dimensional optical properties of the object.
  • the measured optical image will also be an image that is not in the learning data.
  • the estimated object image generated by the DNN from this optical image is likely to resemble the estimated object image included in the learning data.
  • the optical image as the restored data obtained by the forward propagation calculation using the estimated image of the estimated object is also an optical image included in the learning data.
  • the measured optical image is not included in the learning data, but the optical image of the restored data is included in the learning data. Since the measured optical image and the restored optical image are different, in this case, it can be determined that the estimated image of the object generated by the DNN does not correctly represent the three-dimensional optical properties of the measured object.
  • a learned model is used to calculate the three-dimensional optical characteristics of an object. Therefore, the three-dimensional optical characteristics of the object can be calculated in a short time. Further, the reliability is calculated for the calculated three-dimensional optical characteristics of the object. Therefore, whether or not the estimated three-dimensional optical properties correctly represent the three-dimensional optical properties of the object can be determined based on the reliability.
  • the learning data has learning input data and learning output data.
  • FIG. 5 is a diagram showing the first creation method.
  • FIG. 5A is a diagram showing the flow of processing in the first creation method.
  • FIG. 5B is a diagram showing an image of reconstructed data.
  • the images shown in FIGS. 5(a) and 5(b) are images of the XZ cross section.
  • the object is shown as an image O(x,z) for ease of viewing.
  • reconstruction data is generated from learning input data.
  • the optical system 4 forms an optical image of the object.
  • First comparison data is obtained from the optical image.
  • Image SC1(x, z) represents the image of the first comparison data.
  • the first comparison data can be used for learning input data.
  • An image SC1(x, z) represents an image of learning input data.
  • model data An object model is used in the reconstruction calculation. Since the optical property values are unknown, the values in the object model data (hereinafter referred to as "model data") are estimated values.
  • an initial value is set to the estimated value. Any value may be used for the estimated value.
  • the image SM(x,z) represents the image of the model data when the estimated values are set to the initial values.
  • forward propagation calculations are performed using model data.
  • a forward propagation operation yields an optical image of the object model.
  • Second comparison data is obtained from the optical image of the object model.
  • Image SC2(x, z) represents the image of the second comparison data.
  • the estimated value is the same as the optical property value.
  • the optical image of the object and the optical image of the object model are different. In this case, the estimated value is different from the optical property value.
  • the wavefront forming the optical image of the object model (hereinafter referred to as "estimated wavefront") differs from the wavefront forming the optical image of the object. Therefore, for example, the difference between the first comparison data and the second comparison data is used to correct the estimated wavefront.
  • Backpropagation calculation is performed using the corrected estimated wavefront.
  • a backpropagation operation yields a new estimate. Replace the model data values with the new estimated values. That is, update the estimated value.
  • the forward propagation calculation, correction of the estimated wavefront, back propagation calculation, and update of the estimated value are repeated until the difference between the first comparison data and the second comparison data becomes smaller than the threshold.
  • the model data when the difference between the first comparison data and the second comparison data becomes smaller than the threshold is used as reconstructed data.
  • An image SO(x, z) shown in FIG. 5(b) represents an image of reconstructed data.
  • the reconstructed data can be used for training output data.
  • FIG. 6 is a diagram showing learning data.
  • the image shown in FIG. 6 is an image of the XZ cross section.
  • reconstruction calculations it is possible to obtain reconstruction data corresponding to the object, that is, learning output data.
  • a large amount of learning data is required for learning. Therefore, a large number of learning output data are also required.
  • reconstruction calculations should be performed for a large number of objects.
  • FIG. 6 shows first comparison data images and reconstructed data images for object 1, object 2, and object N.
  • object 1, object 2 and object N are illuminated with the same illumination angle, eg 0°.
  • O1(x,z), O2(x,z) and ON(x,z) are described to indicate the correspondence between the object and the first comparison data image and the correspondence between the object and the reconstructed data. ing.
  • O1(x,z) represents object 1;
  • O2(x,z) represents object 2;
  • ON(x,z) represents object N;
  • An image SC11 (x, z) represents an image of the first comparison data of the object 1.
  • Image SC12(x,z) represents the image of the first comparison data of object 2.
  • FIG. An image SC1N(x,z) represents an image of the first comparison data of the object N.
  • An image SO1 (x, z) represents an image of reconstruction data of the object 1.
  • Image SO2(x,z) represents an image of the reconstructed data of object 2 .
  • the image SON(x,z) represents an image of the reconstructed data of object N.
  • the first comparison data is used as learning input data, and the reconstructed data is used as learning output data.
  • the number of objects is N
  • the number of learning input data and the number of learning output data are also N.
  • the more the first comparison data in one object the higher the accuracy of the reconstruction data.
  • the object may be illuminated at a plurality of illumination angles, and the first comparison data may be obtained from optical images at each illumination angle.
  • FIG. 7 is a diagram showing a method of creating reconstruction data.
  • the image shown in FIG. 7 is an image of the XZ cross section.
  • the first comparison data 1 is data obtained from the optical image of the object when the illumination angle ⁇ ILL is 0°.
  • An image SC ⁇ 1 (x, z) represents an image of the first comparison data 1 .
  • the first comparison data 2 is data obtained from the optical image of the object when the illumination angle ⁇ ILL is -40°.
  • An image SC ⁇ 2(x, z) represents an image of the first comparison data 2 .
  • the first comparison data 3 is data obtained from the optical image of the object when the illumination angle ⁇ ILL is -30°.
  • An image SC ⁇ 3 (x, z) represents an image of the first comparison data 3 .
  • the first comparison data N is data obtained from an optical image of the object when the illumination angle ⁇ ILL is 40°.
  • An image SC ⁇ N(x, z) represents an image of the first comparison data N.
  • the first comparison data 1, the first comparison data 2, the first comparison data 3, and the first comparison data N have different illumination angles. Therefore, they have different information regarding optical characteristic values.
  • the accuracy of the reconstruction data can be improved.
  • FIG. 8 is a diagram showing the second creation method.
  • the image shown in FIG. 8 is an image of the XZ cross section.
  • forward propagation calculation and back propagation calculation are repeated in order to obtain reconstructed data (learning output data).
  • Forward-propagation and back-propagation operations take a lot of time. If it takes a long time to obtain one piece of reconstructed data, it takes an enormous amount of time to obtain a large number of reconstructed data.
  • one reconstruction data is transformed.
  • a large amount of reconstruction data that is, a large amount of learning output data can be obtained in a short time.
  • data transformation for example, enlargement, reduction, rotation, and noise addition may be performed.
  • Learning requires learning input data paired with learning output data.
  • the learning input data is the first comparison data.
  • First comparison data is obtained from an optical image of the object.
  • the deformed reconstructed data corresponds to the object.
  • the deformed reconstructed data is regarded as an object, and the forward propagation calculation is performed using the deformed reconstructed data. By doing so, data corresponding to the optical image of the object can be obtained from the deformed reconstruction data.
  • the second comparison data is obtained from the model data by performing the forward propagation calculation. Data corresponding to the optical image of the object corresponds to the second comparison data. In the second creation method, the second comparison data is used as learning input data.
  • the reconstructed data that has been enlarged is referred to as enlarged reconstructed data.
  • the reconfigured data that has been reduced is referred to as reduced reconfigured data.
  • the reconstructed data that has been rotated is referred to as rotated reconstructed data.
  • An image SO1 (x, z) represents an image of enlarged reconstruction data.
  • Image SO2(x,z) represents an image of reduced reconstruction data.
  • the image SON(x,z) represents an image of rotational reconstruction data.
  • the image SC21 (x, z) represents the image of the second comparison data obtained from the enlarged reconstruction data.
  • Image SC22(x,z) represents the image of the second comparison data obtained from the reduced reconstruction data.
  • the image SC2N(x, z) represents an image of the rotational reconstruction data second comparison data.
  • FIG. 9 is a diagram showing learning data.
  • the image shown in FIG. 9 is an image of the XZ cross section.
  • FIG. 9 shows an image of the second comparison data and an image of the deformed reconstruction data for the object 1 and the object N.
  • Modified reconstructed data is data obtained by transforming reconstructed data. Due to the large number of images, not all images will be described.
  • O1(x, z) and ON(x, z) are described to indicate the correspondence between the object and the second comparison data image, and the correspondence between the object and deformation reconstruction data.
  • O1(x,z) represents object 1;
  • ON(x,z) represents object N;
  • the image SC211 (x, z) represents the image of the second comparison data obtained from the deformation reconstruction data of the object 1.
  • Image SC21N(x, z) represents an image of second comparison data obtained from the deformation reconstruction data of object N.
  • An image SO11 (x, z) represents an image of deformation reconstruction data of the object 1.
  • An image SON1(x,z) represents an image of deformation reconstruction data of the object N.
  • the second comparison data is used as learning input data
  • the deformed reconstruction data is used as learning output data.
  • the number of objects is N
  • the number of learning input data and the number of learning output data are N or more.
  • FIG. 10 is a diagram showing the third creation method.
  • the image shown in FIG. 10 is an image of the XZ cross section.
  • first comparison data (learning input data) and reconstructed data (learning output data) are generated from an object.
  • second creation method reconstructed data is generated from an object, and deformed data (learning input data) and second comparison data (learning input data) are obtained from the reconstructed data.
  • objects are used in the first creation method and the second creation method.
  • Virtual object data corresponds to reconstructed data. Therefore, similar to the second creation method, the forward propagation calculation is performed using the virtual object data. By doing so, data corresponding to the optical image of the object can be obtained from the virtual object data.
  • the second comparison data is obtained from the model data by performing the forward propagation calculation. Data corresponding to the optical image of the object corresponds to the second comparison data. In the third creation method, the second comparison data is used as learning input data.
  • An image O'1 (x, z) represents an image of the data of the virtual object 1.
  • An image O′2(x,z) represents an image of the data of the virtual object 2.
  • An image O'N(x, z) represents an image of the data of the virtual object N.
  • the image SC21 (x, z) represents the image of the second comparison data obtained from the data of the virtual object 1.
  • An image SC22(x,z) represents an image of second comparison data obtained from the data of the virtual object 2.
  • FIG. An image SC2N(x, z) represents an image of the data second comparison data of the virtual object N.
  • FIG. 11 is a diagram showing learning data.
  • the image shown in FIG. 11 is an image of the XZ cross section.
  • the image SC21 (x, z) represents the image of the second comparison data obtained from the data of the virtual object 1.
  • An image SC22(x,z) represents an image of second comparison data obtained from the data of the virtual object 2.
  • FIG. Image SC2N(x, z) represents an image of second comparison data obtained from virtual object N data.
  • An image O'1 (x, z) represents an image of the data of the virtual object 1.
  • An image O′2(x,z) represents an image of the data of the virtual object 2.
  • An image O'N(x, z) represents an image of the data of the virtual object N.
  • the second comparison data is used as learning input data
  • the virtual object data is used as learning output data.
  • the number of virtual objects is N
  • the number of learning input data and the number of learning output data are N.
  • virtual objects can be easily created in a short time, and the number of created objects is not limited.
  • FIG. 12 is a diagram showing how learning is performed in the DNN.
  • the image shown in FIG. 12 is an image of the XZ cross section.
  • a learning dataset is used for learning in DNN.
  • the learning data set has learning input data and learning output data.
  • the first comparison data in the first creation method, the second comparison data in the second creation method, or the second comparison data in the third creation method are used.
  • Reconstruction data in the first creation method, deformed reconstruction data in the second creation method, or virtual object data in the third creation method are used as learning output data.
  • learning estimation data is output from learning input data.
  • a state in which the learning estimation data matches the learning output data is an ideal state.
  • the learning estimation data does not match the learning output data.
  • the difference between the ideal state and the poorly learned state can be represented by a loss function.
  • the state of insufficient learning includes the state of no learning.
  • Various parameters are used in DNN estimation.
  • a loss function is used to search for optimal parameters.
  • searching for the optimum parameter a parameter that minimizes the value of the loss function is searched.
  • the comparison between learning estimation data and learning output data is repeated. Each time the learning estimation data and the learning output data are compared, the output of the loss function is fed back to the DNN.
  • Optimum parameters can be obtained by repeating the comparison between the learning estimation data and the learning output data and the feedback of the output of the loss function to the DNN.
  • U-Net for example, can be used for image area detection.
  • FIG. 13 is a diagram showing U-Net.
  • FIG. 13(a) is a diagram showing the configuration of the U-Net.
  • FIG. 13(b) is a schematic diagram of a data shape.
  • "64" represents the number of channels or the number of feature maps.
  • "256 ⁇ 3" represents the number of pixels.
  • processing in the direction of arrow A is processing called encoding or downsampling.
  • Processing in the direction of arrow B is processing called decoding or upsampling.
  • the features of the input data are extracted by alternately repeating convolution and pooling. As the process progresses in the direction of arrow A, the feature area is subdivided. Therefore, instead of reducing the number of pixels, the number of channels or the number of feature maps increases.
  • decoding deconvolution is performed to create output data of the same size as the input data.
  • regions with the same characteristics are partitioned. Therefore, the image in the output data is rougher than the image in the input data.
  • positional information of areas with features can be obtained. Therefore, during decoding, position information obtained by encoding is used to create output data.
  • FIG. 13(a) the transfer of position information from encoding to decoding is represented by "Copy".
  • the data processing method of the second embodiment includes an input step of inputting measured data to a neural network, an estimation step of generating estimated data from the measured data, a restoring step of generating restored data from the estimated data, and the measured data and the restored data. It has a calculation step of calculating the reliability of the estimated data based on the data, and a learning step of learning by the neural network using an amount inversely proportional to the reliability as a loss.
  • the measurement data is data obtained by measuring the light transmitted through the object
  • the estimated data is data of the three-dimensional optical characteristics of the object estimated from the measurement data
  • the three-dimensional optical characteristics are the refractive index distribution. or absorption distribution.
  • a neural network is used, in the restoration, forward propagation calculation is performed on the estimated data, and in the forward propagation calculation, the wavefront passing through the interior of the object estimated from the measurement data is sequentially obtained in the direction of light travel.
  • FIG. 14 is a flowchart of the data processing method of the second embodiment.
  • the same steps as those in FIG. 2 are denoted by the same numbers, and descriptions thereof are omitted.
  • FIG. 15 is a diagram showing the data processing method of the second embodiment.
  • the image shown in FIG. 15 is an image of the XZ cross section.
  • the same numbers and the same terms are used for the same configurations as in FIG. 3, and the description thereof is omitted. Description will be made with reference to FIGS. 14 and 15.
  • FIG. 14 and 15 is a diagram showing the data processing method of the second embodiment.
  • the image shown in FIG. 15 is an image of the XZ cross section.
  • the same numbers and the same terms are used for the same configurations as in FIG. 3, and the description thereof is omitted. Description will be made with reference to FIGS. 14 and 15.
  • FIG. 14 and 15 will be made with reference to FIGS. 14 and 15.
  • the data processing method of the second embodiment has steps S1, S2, S3, S4, and S5.
  • Step S5 is an output step.
  • learning is performed by a neural network using an amount inversely proportional to the reliability as a loss.
  • the neural network is not a trained model. Therefore, learning is performed to search for the optimum parameters.
  • step S5 a quantity inversely proportional to the reliability is obtained from the comparison of the measured data and the restored data.
  • a quantity inversely proportional to confidence is input to the DNN.
  • the degree of divergence of the restored data from the measured data can be found from the amount inversely proportional to the reliability.
  • Learning can be done in the DNN by inputting a quantity DNN that is inversely proportional to the reliability. As a result, reliability can be calculated with higher accuracy.
  • the estimated data by comparing the measured data and the restored data, it is possible to judge whether the estimated data correctly represent the three-dimensional optical characteristics of the object. As the learning progresses in the DNN, it is possible to obtain more accurate three-dimensional optical properties of the object in the estimated data.
  • FIG. 16 is a diagram showing the state of learning in DNN.
  • the image shown in FIG. 16 is an image of the XZ cross section.
  • Fig. 16 shows how learning is performed using a plurality of measured data. Processing in comparative minimization yields a quantity that is inversely proportional to confidence.
  • the more data used for learning the more accurately the reliability can be calculated. As a result, more accurate three-dimensional optical properties of the object can be obtained in the estimated data.
  • the reliability can be calculated by multiplying the sum of absolute values by a coefficient that is inversely proportional.
  • Reliability can be calculated by comparing with a preset threshold value. The threshold can be obtained in advance by experiment.
  • the sum of absolute values can be normalized and compared to a threshold.
  • the reliability can be easily calculated.
  • the correlation peak is represented by the following equation.
  • er itself may be used as the reliability, or er may be multiplied by a coefficient to obtain the reliability.
  • the reliability may be calculated by comparing er with a preset threshold value. For example, if er is greater than a preset threshold of 0.5, the reliability may be calculated as 1.0 (a value indicating high reliability).
  • Mx,y,z are measurement data
  • cMx,y,z are restored data
  • max() is a function to find the maximum value (peak), is.
  • a correlation function corr() between measured data and restored data is expressed by the following equation.
  • x1, x2 are the images of the intensity distribution for which the correlation is calculated;
  • r1, r2 are spatial coordinates x, y, z, is.
  • correlation peaks can be used to calculate reliability.
  • the degree of correlation spread specifically, the degree of spread around the peak may be used to calculate the reliability. The smaller the spread, the higher the confidence.
  • fit around the corr() peak using the following formula to obtain px, py, pz, and s.
  • s is small, the reliability is high.
  • x, y, z are spatial coordinates
  • px, py, pz are the spatial coordinates of the peak position
  • s is the standard deviation.
  • the data processing method of the present embodiment it is preferable to calculate the sum of squares of the difference between the measured data and the restored data, and calculate the reliability based on the magnitude of the sum of squares of the difference.
  • the reliability can be obtained by multiplying the sum of squares of the differences between the measured data and the restored data by a coefficient.
  • Reliability can be calculated by comparing with a preset threshold value.
  • the threshold can be obtained in advance by experiment.
  • the sum of absolute values can be normalized and compared to a threshold.
  • Mx,y,z are measurement data
  • cMx,y,z are restored data
  • the data processing method of this embodiment has a first neural network and a second neural network, wherein the first neural network is a neural network, the second neural network is a trained model, and the second neural network is a trained model.
  • a neural network is used to calculate the reliability.
  • FIG. 17 is a diagram showing a method of calculating reliability. The same numbers and the same terms are used for the same configurations as in FIG. 3, and the description thereof is omitted.
  • the data processing method of this embodiment has a first neural network and a second neural network.
  • the first neural network is the neural network in the data processing method of the first embodiment or the neural network in the data processing method of the second embodiment.
  • the second neural network is a trained model. Confidence is calculated using a second neural network.
  • a first DNN is a first neural network.
  • a second DNN is a second neural network. Since the first DNN is the same as the DNN shown in FIG. 3, the description is omitted.
  • the second DNN is a trained model. Measured data and reconstructed data are input to the second DNN. In the second DNN, reliability is calculated from measured data and reconstructed data.
  • FIG. 18 is a diagram showing processing for calculating reliability in the second DNN.
  • the second DNN has CNN, FC, and softmax.
  • a CNN is a Convolutional Neural Network.
  • Convolution Neural Network performs convolution and pooling. Convolution detects the grayscale pattern of the image and extracts the features of the object. In pooling, even if the position of an object fluctuates, it is considered to be the same object. Features are extracted from images by convolution and pooling.
  • FC is Full Connection.
  • Full Connection feature variables are output from the image data from which the features have been extracted.
  • softmax a value from 0 to 1 is calculated based on the feature variables. Since the calculated value represents probability, the calculated value is used as the reliability.
  • the first DNN is the DNN shown in FIG. Therefore, the first DNN calculates estimated data. In contrast, the second DNN calculates reliability. Therefore, learning in the second DNN is different than learning in the first DNN. Learning in the second DNN will be explained.
  • the second neural network preferably performs learning using the first learning data set group and the second learning data set group.
  • the first learning data set group has a plurality of first learning data sets, and the first learning data set includes first data, first correction data, and teacher data indicating true or false.
  • the second learning data set group has a plurality of second learning data sets, and the second learning data sets include first data, second correction data, and teacher data indicating false among true and false.
  • the first correction data is data obtained by subjecting the first data to correction processing
  • the second correction data is data obtained by subjecting the second data to correction processing
  • the second data differs from the first data.
  • the first data and second data are data obtained by measuring light transmitted through an object, or data generated by performing forward propagation calculations on an object model that models the three-dimensional optical characteristics of an object. be.
  • FIG. 19 is a diagram showing learning data.
  • FIG. 19A is a diagram showing generation of learning data.
  • FIG. 19(b) is a diagram showing the relationship between learning input data and learning output data.
  • the learning data has multiple data groups.
  • Data group A, data group B, and data group Z are shown in FIG. 19(a).
  • the data group has basic data and modified data.
  • Basic data in one data group is different from basic data in another data group.
  • the image in the basic data of the data group A is different from the image in the basic data of the data group B and the image in the basic data of the data group Z.
  • Transformed data is data obtained by transforming the basic data.
  • data transformation for example, enlargement, reduction, rotation, and noise addition may be performed.
  • FIG. 19(a) shows the basic data, the first modified data, the second modified data, and the Nth modified data.
  • the first modified data noise is added to the basic data.
  • the second modified data rotates the basic data.
  • the Nth modified data the basic data is enlarged or the basic data is reduced.
  • basic data A basic data A, first modified data a1, second modified data a2, and Nth modified data an are illustrated.
  • data group B basic data B, first modified data b1, second modified data b2, and Nth modified data bn are illustrated.
  • data group Z basic data Z, first transformed data z1, second transformed data z2, and Nth transformed data zn are illustrated.
  • the reliability calculation uses measured data and restored data.
  • data corresponding to the measured data hereinafter referred to as "first corresponding data”
  • data corresponding to the restored data hereinafter referred to as “second corresponding data”
  • Basic data is used for the first corresponding data.
  • Modified data is used for the second correspondence data.
  • the first corresponding data corresponds to the first data described above.
  • the second corresponding data corresponds to the above-described first correction data or second correction data.
  • the first corresponding data and the second corresponding data can be selected from one data group.
  • the basic data B is selected as the first corresponding data
  • the second modified data b2 is selected as the second corresponding data.
  • the second modified data b2 is data obtained by modifying the basic data B. FIG. Therefore, the degree of similarity between the second modified data b2 and the basic data B is high.
  • first corresponding data and the second corresponding data can be selected from two data groups. For example, from data group A, basic data A is selected as first corresponding data, and from data group B, first modified data b1 is selected as second corresponding data.
  • the first modified data b1 is not data obtained by modifying the basic data A. As shown in FIG. Therefore, the degree of similarity between the first modified data b1 and the basic data A is low.
  • the degree of similarity between the two data is high.
  • the degree of similarity between the two data is low.
  • the degree of similarity can be regarded as reliability.
  • learning input data is created by variously changing the combination of the first correspondence data and the second correspondence data.
  • learning output data is obtained.
  • Numerical values in the learning output data are values of the softmax function and can be used as values representing reliability.
  • the first learning data set is data set 1 shown in FIG. 19(b).
  • the second learning data set is data set 2 shown in FIG. 19(b).
  • the True value is 1.0 and the False value is 0.0.
  • the learning output data of the data set 1 is teacher data showing true among true and false.
  • the Learning output data of data set 2 is teacher data that indicates false among true and false.
  • the first learning data set includes the first correspondence data, the second correspondence data, and teacher data that indicates true or false.
  • the data group to which the second correspondence data belongs is the same as the data group to which the first correspondence data belongs.
  • the second learning data set includes the first correspondence data, the second correspondence data, and teacher data that indicates false among true and false.
  • the data group to which the second correspondence data belongs differs from the data group to which the first correspondence data belongs.
  • the measurement data shown in FIG. 3, the first comparison data shown in FIG. 5, or the second comparison data shown in FIG. 5 can be used.
  • the first correspondence data may be data generated by generating an object model that models the three-dimensional optical characteristics of an object and performing forward propagation calculation on the generated object model.
  • This data is the same kind of data as the measurement data and corresponds to the measurement data.
  • FIG. 20 is a diagram showing how the second DNN learns.
  • the image shown in FIG. 20 is an image of the XZ cross section.
  • Measurement data is used as basic data.
  • measurement data is data obtained by measuring light transmitted through an object. Since the measured data is used as the basic data, the deformed data is also data obtained by deforming the measured data.
  • Learning in the second DNN is basically the same as learning in the DNN shown in FIG. Therefore, detailed description is omitted.
  • the difference between learning in the second DNN and learning in the DNN shown in FIG. 12 is as follows.
  • the type of learning output data is the type of learning input data In the second DNN, the type of learning output data differs from the type of learning input data. In the DNN shown in FIG. 12, the type of learning output data is the same as the type of learning input data. For example, in the second DNN, numerical values are output from two images. In the DNN shown in FIG. 12, one image is output from one image.
  • the data processing method of this embodiment preferably further comprises a presentation step of presenting the reliability.
  • the data processing method of the embodiment can obtain the reliability. Therefore, various presentations can be made using reliability.
  • a sound can only be played if the confidence is low. Reliability can be presented to the user through display or sound.
  • FIG. 21 is a diagram showing the first presentation method.
  • FIG. 21(a) is a flow chart of the first presentation method.
  • 21(b) and 21(c) are diagrams showing presentation examples. The same steps as those in FIG. 1 are denoted by the same numbers, and descriptions thereof are omitted.
  • the first presentation method has steps S5, S6, and S7.
  • step S5 a comparison is made between the threshold value and the reliability value. If the confidence value is greater than the threshold, then step S6 is executed. If the confidence value is equal to the threshold or if the confidence value is greater than the threshold, perform step S6. if the confidence value is less than the threshold, performing step S7;
  • step S6 “TRUE” is displayed in step S6. As shown in FIG. 21(b), the characters “TRUE” can be displayed together with the image. In step S7, “FALSE” is displayed. As shown in FIG. 21(c), the characters “FALSE” can be displayed together with the image.
  • the threshold value to be compared with the reliability value does not have to be one.
  • two thresholds can be used to display the words “high confidence,” “medium confidence,” and “low confidence.”
  • the display may be performed only in either step S6 or step S7. Also, different colors may be displayed in steps S6 and S7. For example, blue can be displayed in step S6, and red can be displayed in step S7. LEDs of each color can be used.
  • FIG. 22 is a diagram showing a second presentation method.
  • FIG. 22(a) is a diagram showing presentation when the reliability is high.
  • FIG. 22B is a diagram showing presentation when the reliability is medium.
  • FIG. 22(c) is a diagram showing presentation when reliability is low.
  • a numerical value is output in the second DNN. Therefore, the numerical value of reliability can be obtained based on the numerical value output from the second DNN. As a result, the reliability can be expressed numerically as shown in FIGS.
  • the perimeter of the image may be colored according to the confidence value. For example, if the confidence is medium, the image is surrounded by yellow. If the confidence is low, the image is circled in red.
  • the data processing device of this embodiment will be described using the data processing device of the first embodiment and the data processing device of the second embodiment.
  • the data processing device of the first embodiment comprises a memory and a processor, the memory stores measurement data, the processor executes estimation processing for estimating the three-dimensional optical properties of an object, and the three-dimensional optical
  • the properties are refractive index distributions or absorptance distributions.
  • the estimation process includes an input step of inputting measured data to the neural network, an estimation step of generating estimated data from the measured data, a restoration step of generating restored data from the estimated data, and an estimation based on the measured data and the restored data. and a calculating step of calculating the reliability of the data.
  • a neural network is a trained model
  • measurement data is data obtained by measuring light transmitted through an object
  • estimated data is data on the three-dimensional optical characteristics of an object estimated from the measurement data.
  • a neural network is used, in the restoration, forward propagation calculation is performed on the estimated data, and in the forward propagation calculation, the wavefront passing through the interior of the object estimated from the measurement data is sequentially obtained in the direction of light travel.
  • a data processing apparatus includes a memory and a processor, the memory stores measurement data, the processor performs estimation processing for estimating the three-dimensional optical properties of an object, and the three-dimensional optical properties is the refractive index profile or the absorptance profile.
  • the estimation process includes an input step of inputting measured data to the neural network, an estimation step of generating estimated data from the measured data, a restoration step of generating restored data from the estimated data, and an estimation based on the measured data and the restored data. It has a calculation step of calculating the reliability of data and a learning step of learning by the neural network using an amount inversely proportional to the reliability as a loss.
  • Measured data is data obtained by measuring light transmitted through an object
  • estimated data is data on the three-dimensional optical characteristics of the object estimated from the measured data.
  • a neural network is used, in the restoration, forward propagation calculation is performed on the estimated data, and in the forward propagation calculation, the wavefront passing through the interior of the object estimated from the measurement data is sequentially obtained in the direction of light travel.
  • FIG. 23 is a diagram showing the data processing device of this embodiment.
  • the data processing device 20 has a memory 21 and a processor 22 .
  • the memory 21 stores measurement data.
  • the processor 22 executes processing for calculating the reliability of the estimated data.
  • a three-dimensional optical property is a refractive index distribution or an absorptance distribution.
  • the data processing device 20 uses the data processing method of the first embodiment or the data processing method of the second embodiment. Therefore, detailed description is omitted.
  • the three-dimensional observation device of this embodiment will be explained using the three-dimensional observation device of the first embodiment and the three-dimensional observation device of the second embodiment.
  • the three-dimensional observation apparatus of the first embodiment includes the data processing apparatus of the first embodiment or the data processing apparatus of the second embodiment, a light source that emits light to illuminate an object, and receives light that has passed through the object. , and a sensor that generates a signal.
  • FIG. 24 is a diagram showing the three-dimensional observation device of the first embodiment. The same numbers are assigned to the same configurations as in FIG. 23, and the description thereof is omitted.
  • the three-dimensional observation device 30 has a light source 31 and a sensor 32.
  • Light source 31 emits light that illuminates object 33 .
  • the light emitted from the light source 31 illuminates the object 33 .
  • An object 33 is held by a Petri dish 34 .
  • the sensor 32 receives the light transmitted through the object 33 and generates a signal (hereinafter referred to as "detection signal").
  • the detection signal is input to the data processing device 20.
  • the data processor 20 generates data from the detection signal. Data may be generated from the detection signal and the generated data may be input to the data processing device 20 .
  • the generated data is data obtained by measuring light transmitted through the object 33 . Therefore, in the data processing device 20, the reliability is calculated using the measurement data.
  • a three-dimensional observation apparatus includes a light source, a sensor, an illumination system that irradiates an object with illumination light, and an optical system that guides the illumination light to the object and guides the light transmitted through the object to the sensor. .
  • FIG. 25 is a diagram showing a three-dimensional observation device according to the second embodiment. The same numbers are assigned to the same configurations as in FIG. 24, and the description thereof is omitted.
  • the three-dimensional observation device 40 has a light source 41, a collimator lens 42, a half mirror 43, a mirror 44, an illumination system 50, a detection system 60, a half mirror 45, and a sensor 46.
  • the light source 41 emits light that illuminates the object 33 .
  • Sensor 46 receives the light transmitted through object 33 and generates a signal.
  • An object 33 is held by a Petri dish 34 .
  • the light emitted from the light source 41 enters the collimator lens 42 .
  • Parallel light is emitted from the collimator lens 42 .
  • the parallel light enters the half mirror 43 .
  • Reflected light and transmitted light are emitted from the half mirror 43 .
  • An object 33 is positioned in the optical path along which the transmitted light travels. None is placed in the optical path along which the reflected light travels.
  • the transmitted light is reflected by the mirror 44 and enters the illumination system 50 .
  • the illumination system 50 has lenses 51 and 52 .
  • the object 33 is irradiated with parallel light emitted from the illumination system 50 .
  • the parallel light emitted from the object 33 enters the detection system 60 .
  • the detection system 60 has an objective lens 61 , a mirror 62 and an imaging lens 63 .
  • the parallel light incident on the objective lens 61 is condensed by the objective lens 61 and then incident on the imaging lens 63 . Diverging light is incident on the imaging lens 63 .
  • the focal position of the imaging lens 63 matches the condensing position of the objective lens 61 . Therefore, parallel light is emitted from the imaging lens 63 .
  • the parallel light enters the half mirror 45 .
  • Parallel light reflected by the half mirror 43 enters the half mirror 45 .
  • the parallel light that has passed through the object 33 passes through the half mirror 43, and the parallel light that has not passed through the object 33 is reflected by the half mirror 43. Therefore, parallel light that has passed through the object 33 and parallel light that has not passed through the object 33 are incident on the sensor 46 . As a result, interference fringes are formed. The interference fringes are captured by sensor 46 . A detection signal is output from the sensor 46 .
  • the detection signal is input to the data processing device 20.
  • the data processor 20 generates data from the detection signal. Data may be generated from the detection signal and the generated data may be input to the data processing device 20 .
  • the generated data is data obtained by measuring light transmitted through the object 33 . Therefore, in the data processing device 20, the reliability is calculated using the measurement data.
  • the light illuminating the object 33 is deflected by the mirror 44. It is thus possible to illuminate the object 33 with different illumination angles. In this case, as shown in FIG. 7, the accuracy of reconstructed data can be improved.
  • the three-dimensional observation device of this embodiment further include a presentation unit that presents the degree of reliability.
  • the three-dimensional observation device 30 includes a display section 35.
  • the three-dimensional observation device 40 has a display section 35 .
  • the display unit 35 is a presentation unit.
  • An example of the display unit 35 is a monitor.
  • the reliability can be displayed. Confidence can be displayed with restored data.
  • a speaker can be provided instead of the display unit 35.
  • the reliability can be output as sound information from a speaker.
  • the display unit 35 and the speaker can be collectively referred to as a presentation unit.
  • the recording medium of this embodiment will be described using the recording medium of the first embodiment and the recording medium of the second embodiment.
  • the recording medium of the first embodiment is a computer-readable recording medium recording a program.
  • a recording medium records a program for causing a computer having a memory and a processor to perform estimation processing.
  • a three-dimensional optical property of the object is estimated.
  • a three-dimensional optical property is a refractive index distribution or an absorptance distribution.
  • a neural network is a trained model
  • measurement data is data obtained by measuring light transmitted through an object
  • estimated data is data on the three-dimensional optical characteristics of an object estimated from the measurement data.
  • a neural network is used, in the restoration, forward propagation calculation is performed on the estimated data, and in the forward propagation calculation, the wavefront passing through the interior of the object estimated from the measurement data is sequentially obtained in the direction of light travel.
  • the recording medium of the second embodiment is a computer-readable recording medium recording a program.
  • a recording medium records a program for causing a computer having a memory and a processor to perform estimation processing.
  • a three-dimensional optical property of the object is estimated.
  • a three-dimensional optical property is a refractive index distribution or an absorptance distribution.
  • Measured data is data obtained by measuring light transmitted through an object
  • estimated data is data on the three-dimensional optical characteristics of the object estimated from the measured data.
  • a neural network is used, in the restoration, forward propagation calculation is performed on the estimated data, and in the forward propagation calculation, the wavefront passing through the interior of the object estimated from the measurement data is sequentially obtained in the direction of light travel.
  • the learning method of this embodiment is a learning method for a neural network that calculates the reliability of estimated data, and the reliability of estimated data is calculated based on measured data and restored data.
  • the measurement data is data obtained by measuring the light transmitted through the object
  • the estimated data is data of the three-dimensional optical characteristics of the object estimated from the measurement data
  • the three-dimensional optical characteristics are the refractive index distribution. or absorption distribution.
  • the restored data is data generated by performing forward propagation calculations on the estimated data.
  • the wavefronts passing through the interior of the object estimated from the measured data are obtained in order in the direction in which the light travels.
  • the learning method of the present embodiment includes a first learning step of learning using the first learning data set and a second learning step of learning using the second learning data set. The two learning steps are performed iteratively.
  • the first learning data set includes first data, first correction data, and teacher data indicating true of true/false
  • the second learning data set includes first data, second corrected data, and false of true/false.
  • the first correction data is data obtained by subjecting the first data to correction processing
  • the second correction data is data obtained by subjecting the second data to correction processing
  • the second data differs from the first data.
  • the first data and second data are data obtained by measuring light transmitted through an object, or data generated by performing forward propagation calculations on an object model that models the three-dimensional optical characteristics of an object. be.
  • the correction processing applied to the first data and the correction processing applied to the second data preferably include at least one of deformation processing, rotation processing, and noise addition processing.
  • the learning device of this embodiment includes a memory and a processor.
  • the memory stores measurement data, and the processor performs learning processing on a neural network that calculates the reliability of estimated data.
  • the reliability of the estimated data is calculated based on the measured data and the restored data, the measured data is data obtained by measuring the light transmitted through the object, and the estimated data is the object estimated from the measured data.
  • the three-dimensional optical property is a refractive index distribution or an absorptance distribution.
  • the restored data is data generated by performing forward propagation calculations on the estimated data.
  • the wavefronts passing through the interior of the object estimated from the measured data are obtained in order in the direction in which the light travels.
  • the learning process has a first learning step of learning using the first learning data set and a second learning step of learning using the second learning data set, the first learning step and the second learning step , is repeated.
  • the first learning data set includes first data, first correction data, and teacher data indicating true of true/false
  • the second learning data set includes first data, second corrected data, and false of true/false.
  • the first correction data is data obtained by subjecting the first data to correction processing
  • the second correction data is data obtained by subjecting the second data to correction processing
  • the second data differs from the first data.
  • the first data and second data are data obtained by measuring light transmitted through an object, or data generated by performing forward propagation calculations on an object model that models the three-dimensional optical characteristics of an object. be.
  • the recording medium of this embodiment will be described using the recording medium of the third embodiment.
  • the recording medium of the third embodiment is a computer-readable recording medium recording a program.
  • a recording medium stores a program for causing a computer having a memory and a processor to perform learning processing for a neural network.
  • the neural network calculates the reliability of the estimated data based on the measured data and the restored data, the measured data is data obtained by measuring the light transmitted through the object, and the estimated data is derived from the measured data. It is the estimated three-dimensional optical property data of the object, and the three-dimensional optical property is the refractive index distribution or the absorptance distribution.
  • the restored data is data generated by performing forward propagation calculations on the estimated data.
  • the wavefronts passing through the interior of the object estimated from the measured data are obtained in order in the direction in which the light travels.
  • the first learning data set includes first data, first correction data, and teacher data indicating true of true/false
  • the second learning data set includes first data, second corrected data, and false of true/false.
  • the first correction data is data obtained by subjecting the first data to correction processing
  • the second correction data is data obtained by subjecting the second data to correction processing
  • the second data differs from the first data.
  • the first data and second data are data obtained by measuring light transmitted through an object, or data generated by performing forward propagation calculations on an object model that models the three-dimensional optical characteristics of an object. be.
  • the present invention provides a data processing method, a data processing apparatus, a three-dimensional observation apparatus, and a recording medium for generating an index indicating the reliability of estimation, a learning method, a learning apparatus, and a recording medium for generating an index indicating the reliability of estimation.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

推定の信頼度が分かる指標を生成するデータ処理方法を提供する。 データ処理方法は、測定データをニューラルネットワークに入力する入力ステップS1と、測定データから推定データを生成する推定ステップS2と、推定データから復元データを生成する復元ステップS3と、測定データと復元データに基づいて、推定データの信頼度を算出する算出ステップS4と、を有する。ニューラルネットワークは、学習済みモデルであり、測定データは、物体を透過した光を測定することで得られたデータであり、推定データは、測定データから推定した物体の3次元光学特性のデータであり、3次元光学特性は、屈折率分布又は吸収率分布である。推定では、ニューラルネットワークを用い、復元では、推定データに対して順伝播演算を行い、順伝播演算では、測定データから推定した物体の内部を通過する波面を、光が進行する方向に順次求める。

Description

データ処理方法、データ処理装置、三次元観察装置、学習方法、学習装置及び記録媒体
 本発明は、データ処理方法、データ処理装置、三次元観察装置、学習方法、学習装置及び記録媒体に関する。
 Deep Neural Networkを用いた顕微鏡が特許文献1に開示されている。この顕微鏡では、高分解能画像と低分解能の画像を用いて、学習が行われている。学習済みのDeep Neural Networkを用いているので、画質が向上した画像を、高速で出力することができる。画質は、例えば、空間分解能、被写界深度、SN比、コントラストである。
米国特許出願公開第2019/0333199号明細書
 Deep Neural Networkでは、場合によっては、推定精度の低い結果を出力してしまう。例えば、物体の3次元光学特性の推定では、推定した3次元光学特性が、実物の3次元光学特性とは大きく異なることがある、そのため、推定結果を信頼して良いのか否か、判断することが困難である。
 本発明は、このような課題に鑑みてなされたものであって、推定の信頼度が分かる指標を生成するデータ処理方法、データ処理装置、三次元観察装置及び記録媒体、推定の信頼度が分かる指標を生成するための学習方法、学習装置及び記録媒体を提供することを目的とする。
 上述した課題を解決し、目的を達成するために、本発明の少なくとも幾つかの実施形態に係るデータ処理方法は、
 測定データをニューラルネットワークに入力する入力ステップと、
 測定データから推定データを生成する推定ステップと、
 推定データから復元データを生成する復元ステップと、
 測定データと復元データに基づいて、推定データの信頼度を算出する算出ステップと、を有し、
 ニューラルネットワークは、学習済みモデルであり、
 測定データは、物体を透過した光を測定することで得られたデータであり、
 推定データは、測定データから推定した物体の3次元光学特性のデータであり、
 3次元光学特性は、屈折率分布又は吸収率分布であり、
 推定では、ニューラルネットワークを用い、
 復元では、推定データに対して順伝播演算を行い、
 順伝播演算では、測定データから推定した物体の内部を通過する波面を、光が進行する方向に順次求めることを特徴とする。
 また、本発明の少なくとも幾つかの実施形態に係るデータ処理方法は、
 測定データをニューラルネットワークに入力する入力ステップと、
 測定データから推定データを生成する推定ステップと、
 推定データから復元データを生成する復元ステップと、
 測定データと復元データに基づいて、推定データの信頼度を算出する算出ステップと、
 信頼度に反比例する量を損失として、ニューラルネットワークが学習する学習ステップと、を有し、
 測定データは、物体を透過した光を測定することで得られたデータであり、
 推定データは、測定データから推定した物体の3次元光学特性のデータであり、
 3次元光学特性は、屈折率分布又は吸収率分布であり、
 推定では、ニューラルネットワークを用い、
 復元では、推定データに対して順伝播演算を行い、
 順伝播演算では、測定データから推定した物体の内部を通過する波面を、光が進行する方向に順次求めることを特徴とする。
 また、本発明の少なくとも幾つかの実施形態に係るデータ処理装置は、
 メモリと、プロセッサと、を備え、
 メモリは、測定データを記憶し、
 プロセッサは、物体の3次元光学特性を推定する推定処理を実行し、
 3次元光学特性は、屈折率分布又は吸収率分布であり、
 推定処理は、
 測定データをニューラルネットワークに入力する入力ステップと、
 測定データから推定データを生成する推定ステップと、
 推定データから復元データを生成する復元ステップと、
 測定データと復元データに基づいて、推定データの信頼度を算出する算出ステップと、を有し、
  ニューラルネットワークは、学習済みモデルであり、
 測定データは、物体を透過した光を測定することで得られたデータであり、
 推定データは、測定データから推定した物体の3次元光学特性のデータであり、
 推定では、ニューラルネットワークを用い、
 復元では、推定データに対して順伝播演算を行い、
 順伝播演算では、測定データから推定した物体の内部を通過する波面を、光が進行する方向に順次求めることを特徴とする。
 また、本発明の少なくとも幾つかの実施形態に係るデータ処理装置は、
 メモリと、プロセッサと、を備え、
 メモリは、測定データを記憶し、
 プロセッサは、物体の3次元光学特性を推定する推定処理を実行し、
 3次元光学特性は、屈折率分布又は吸収率分布であり、
 推定処理は、
 測定データをニューラルネットワークに入力する入力ステップと、
 測定データから推定データを生成する推定ステップと、
 推定データから復元データを生成する復元ステップと、
 測定データと復元データに基づいて、推定データの信頼度を算出する算出ステップと、
 信頼度に反比例する量を損失として、ニューラルネットワークが学習する学習ステップと、を有し、
 測定データは、物体を透過した光を測定することで得られたデータであり、
 推定データは、測定データから推定した物体の3次元光学特性のデータであり、
 推定では、ニューラルネットワークを用い、
 復元では、推定データに対して順伝播演算を行い、
 順伝播演算では、測定データから推定した物体の内部を通過する波面を、光が進行する方向に順次求めることを特徴とする。
 また、本発明の少なくとも幾つかの実施形態に係る記録媒体は、
 メモリとプロセッサを備えたコンピュータに推定処理を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
 推定処理では、物体の3次元光学特性を推定し、
 3次元光学特性は、屈折率分布又は吸収率分布であり、
 プロセッサに、
 メモリに記憶した測定データを、ニューラルネットワークに入力する処理と、
 測定データから推定データを生成する処理と、
 推定データから復元データを生成する処理と、
 測定データと復元データに基づいて、推定データの信頼度を算出する処理と、を実行させ、
 ニューラルネットワークは、学習済みモデルであり、
 測定データは、物体を透過した光を測定することで得られたデータであり、
 推定データは、測定データから推定した物体の3次元光学特性のデータであり、
 推定では、ニューラルネットワークを用い、
 復元では、推定データに対して順伝播演算を行い、
 順伝播演算では、測定データから推定した物体の内部を通過する波面を、光が進行する方向に順次求めることを特徴とする。
 また、本発明の少なくとも幾つかの実施形態に係る記録媒体は、
 メモリとプロセッサを備えたコンピュータに推定処理を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
 推定処理では、物体の3次元光学特性を推定し、
 3次元光学特性は、屈折率分布又は吸収率分布であり、
 プロセッサに、
 メモリに記憶した測定データを、ニューラルネットワークに入力する処理と、
 測定データから推定データを生成する処理と、
 推定データから復元データを生成する処理と、
 測定データと復元データに基づいて、推定データの信頼度を算出する処理と、
 信頼度に反比例する量を損失として、ニューラルネットワークが学習する処理と、を実行させ、
 測定データは、物体を透過した光を測定することで得られたデータであり、
 推定データは、測定データから推定した物体の3次元光学特性のデータであり、
 推定では、ニューラルネットワークを用い、
 復元では、推定データに対して順伝播演算を行い、
 順伝播演算では、測定データから推定した物体の内部を通過する波面を、光が進行する方向に順次求めることを特徴とする。
 また、本発明の少なくとも幾つかの実施形態に係るニューラルネットワークの学習方法は、
 推定データの信頼度を算出するニューラルネットワークに対する学習方法であって、
 推定データの信頼度は、測定データと復元データとに基づいて算出され、
 測定データは、物体を透過した光を測定することで得られたデータであり、
 推定データは、測定データから推定した物体の3次元光学特性のデータであり、
 3次元光学特性は、屈折率分布又は吸収率分布であり、
 復元データは、推定データに対して順伝播演算を行って生成したデータであり、
 順伝播演算では、測定データから推定した物体の内部を通過する波面を、光が進行する方向に順に求め、
 第1学習データセットを用いて学習する第1学習ステップと、
 第2学習データセットを用いて学習する第2学習ステップと、を有し、
 第1学習ステップと第2学習ステップは、繰り返し実施され、
 第1学習データセットは、第1データ、第1補正データ、真偽のうち真を示す教師データを含み、
 第2学習データセットは、第1データ、第2補正データ、真偽のうち偽を示す教師データを含み、
 第1補正データは、第1データに補正処理を施したデータであり、
 第2補正データは、第2データに補正処理を施したデータであり、
 第2データは、第1データと異なり、
 第1データおよび第2データは、物体を透過した光を測定することで得られたデータ、若しくは、物体の3次元光学特性をモデル化した物体モデルに順伝播演算を行うことで生成したデータであることを特徴とする。
 また、本発明の少なくとも幾つかの実施形態に係る学習装置は、
 メモリと、プロセッサと、を備え、
 メモリは、測定データを記憶し、
 プロセッサは、推定データの信頼度を算出するニューラルネットワークに対して学習処理を実行し、
 推定データの信頼度は、測定データと復元データとに基づいて算出され、
 測定データは、物体を透過した光を測定することで得られたデータであり、
 推定データは、測定データから推定した物体の3次元光学特性のデータであり、
 3次元光学特性は、屈折率分布又は吸収率分布であり、
 復元データは、推定データに対して順伝播演算を行って生成したデータであり、
 順伝播演算では、測定データから推定した物体の内部を通過する波面を、光が進行する方向に順に求め、
 学習処理は、
 第1学習データセットを用いて学習する第1学習ステップと、
 第2学習データセットを用いて学習する第2学習ステップと、を有し、
 第1学習ステップと第2学習ステップは、繰り返し実施され、
 第1学習データセットは、第1データ、第1補正データ、真偽のうち真を示す教師データを含み、
 第2学習データセットは、第1データ、第2補正データ、真偽のうち偽を示す教師データを含み、
 第1補正データは、第1データに補正処理を施したデータであり、
 第2補正データは、第2データに補正処理を施したデータであり、
 第2データは、第1データと異なり、
 第1データおよび第2データは、物体を透過した光を測定することで得られたデータ、若しくは、物体の3次元光学特性をモデル化した物体モデルに順伝播演算を行うことで生成したデータであることを特徴とする。
 また、本発明の少なくとも幾つかの実施形態に係る記録媒体は、
 メモリとプロセッサを備えたコンピュータにニューラルネットワークに対する学習処理を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
 ニューラルネットワークは、測定データと復元データとに基づいて推定データの信頼度を算出し、
 測定データは、物体を透過した光を測定することで得られたデータであり、
 推定データは、測定データから推定した物体の3次元光学特性のデータであり、
 3次元光学特性は、屈折率分布又は吸収率分布であり、
 復元データは、推定データに対して順伝播演算を行って生成したデータであり、
 順伝播演算では、測定データから推定した物体の内部を通過する波面を、光が進行する方向に順に求め、
 第1学習データセットを用いて学習する第1学習ステップと、
 第2学習データセットを用いて学習する第2学習ステップと、を有し、
 第1学習ステップと第2学習ステップは、繰り返し実施され、
 第1学習データセットは、第1データ、第1補正データ、真偽のうち真を示す教師データを含み、
 第2学習データセットは、第1データ、第2補正データ、真偽のうち偽を示す教師データを含み、
 第1補正データは、第1データに補正処理を施したデータであり、
 第2補正データは、第2データに補正処理を施したデータであり、
 第2データは、第1データと異なり、
 第1データおよび第2データは、物体を透過した光を測定することで得られたデータ、若しくは、物体の3次元光学特性をモデル化した物体モデルに順伝播演算を行うことで生成したデータであることを特徴とする。
 本発明によれば、推定の信頼度が分かる指標を生成するデータ処理方法、データ処理装置、三次元観察装置及び記録媒体、推定の信頼度が分かる指標を生成するための学習方法、学習装置及び記録媒体を提供することができる。
物体の光学像の画像を取得する様子を示す図である。 第1実施形態のデータ処理方法のフローチャートである。 第1実施形態のデータ処理方法を示す図である。 順伝播演算を説明するための図である。 第1の作成方法を示す図である。 学習データを示す図である。 再構成データの作成方法を示す図である。 第2の作成方法を示す図である。 学習データを示す図である。 第3の作成方法を示す図である。 学習データを示す図である。 DNNにおける学習の様子を示す図である。 U-Netを示す図である。 第2実施形態のデータ処理方法のフローチャートである。 第2実施形態のデータ処理方法を示す図である。 DNNにおける学習の様子を示す図である。 信頼度を算出する方法を示す図である。 第2DNNにおける信頼度の算出における処理を示す図である。 学習用データを示す図である。 第2DNNにおける学習の様子を示す図である。 第1の提示方法を示す図である。 第2の提示方法を示す図である。 本実施形態のデータ処理装置を示す図である。 第1実施形態の三次元観察装置を示す図である。 第2実施形態の三次元観察装置を示す図である。
 実施例の説明に先立ち、本発明のある態様にかかる実施形態の作用効果を説明する。なお、本実施形態の作用効果を具体的に説明するに際しては、具体的な例を示して説明することになる。しかし、後述する実施例の場合と同様に、それらの例示される態様はあくまでも本発明に含まれる態様のうちの一部に過ぎず、その態様には数多くのバリエーションが存在する。したがって、本発明は例示される態様に限定されるものではない。
 物体が小さい場合、物体の3次元光学特性を直接知ることは困難である。この場合、3次元光学特性は、例えば、推定によって知ることができる。本実施形態のデータ処理方法では、ニューラルネットワークを用いて、物体の3次元光学特性の推定を行う。3次元光学特性は、屈折率分布又は吸収率分布である。
 以下では、ニューラルネットワークとしてDeep Neural Network(以下、「DNN」という)を用いた場合について説明する。ニューラルネットワークは、入力層と、出力層と、1つの隠れ層と、を有する。これに対して、DNNは、入力層と、出力層と、複数の隠れ層を有する。
 物体が小さい場合、光学系を用いることで、物体の光学像が得られる。物体の光学像には、3次元光学特性が反映されている。物体の光学像は拡大像であると良い。拡大像だと、撮像した画像から、3次元光学特性の推定に必要なデータを容易に得ることができる。
 図1は、物体の光学像の画像を取得する様子を示す図である。図1(a)は、画像の取得方法の具体例を示す図である。図1(b)は、複数のXY断面の画像を示す図である。図1(c)は、XZ断面の画像を示す図である。説明を容易にするために、物体は大きく描いている。
 Z軸は、光軸AXと平行な軸である。X軸は、光軸AXと直交する軸である。Y軸は、X軸及びZ軸と直交する軸である。
 図1(a)示すように、物体1には、照明光2が照射される。物体1は、照明光2で照明される。物体1を透過した光は、撮像ユニット3に入射する。撮像ユニット3は、光学系4と、撮像素子5と、を有する。
 光学系4では、光学像IMが結像面IPに形成される。光学像IMは、物体1の拡大像である。結像面IPの位置は、位置Zfoと共役である。よって、光学像IMは、位置Zfoにおける物体1の光学像である。位置Zfoは、光学系4の合焦位置である。
 結像面IPには、撮像素子5の撮像面が位置している。撮像素子5で光学像IMを撮像することで、画像Imea(x,y)を取得することができる。画像Imea(x,y)は光学像IMの画像であって、XY断面における画像である。
 物体1の厚みは厚い。物体1全体について、物体1の光学像の画像を取得するためには、位置Zfoを位置Z1から位置Z2の間で移動させながら、画像Imea(x,y)を取得すれば良い。その結果、図1(b)に示すように、複数の画像Imea(x,y)を取得することができる。
 複数の画像Imea(x,y)の取得では、物体1と撮像ユニット3を、Z軸方向に相対移動させれば良い。物体1の移動では、物体1をステージで保持し、ステージをZ軸方向に移動させれば良い。また、光学系4を無限遠補正対物レンズと結像レンズで形成し、無限遠補正対物レンズだけをZ軸方向に移動させても良い。
 複数の画像Imea(x,y)から、3次元光学特性の推定に必要なデータが得られる。また、図1(c)に示すように、複数の画像Imea(x,y)から、XZ断面の画像Imea(x,z)を得ることができる。
 本実施形態のデータ処理方法を、第1実施形態のデータ処理方法と、第2実施形態のデータ処理方法を用いて説明する。
 第1実施形態のデータ処理方法は、測定データをニューラルネットワークに入力する入力ステップと、測定データから推定データを生成する推定ステップと、推定データから復元データを生成する復元ステップと、測定データと復元データに基づいて、推定データの信頼度を算出する算出ステップと、を有する。
 ニューラルネットワークは、学習済みモデルであり、測定データは、物体を透過した光を測定することで得られたデータであり、推定データは、測定データから推定した物体の3次元光学特性のデータであり、3次元光学特性は、屈折率分布又は吸収率分布である。
 推定では、ニューラルネットワークを用い、復元では、推定データに対して順伝播演算を行い、順伝播演算では、測定データから推定した物体の内部を通過する波面を、光が進行する方向に順次求める。
 図2は、第1実施形態のデータ処理方法のフローチャートである。図3は、第1実施形態のデータ処理方法を示す図である。図3に図示されている画像は、XZ断面の画像である。図3では、見易さのために、物体を画像O(x,z)で示している。図2と図3を参照しながら説明する。
 第1実施形態のデータ処理方法は、ステップS1と、ステップS2と、ステップS3と、ステップS4と、を有する。
 ステップS1は、入力ステップである。ステップS1では、測定データをニューラルネットワークに入力する。測定データは、3次元光学特性の推定に必要なデータであって、物体を透過した光を測定することで得られる。物体の光学像は、物体を透過した光で形成される。よって、物体の光学像の画像から、測定データを得ることができる。
 図3に示すように、光学系4によって、物体の光学像が形成される。物体の光学像を撮像することで、物体の光学像の画像が得られる。物体の光学像の画像から、測定データが得られる。画像Imea(x,z)は、測定データを表す画像である。
 第1実施形態のデータ処理方法では、ニューラルネットワークを用いる。このニューラルネットワークは、学習済みモデルである。学習済みモデルは、学習済みのニューラルネットワークである。DNNも、学習済みのDNNである。
 ニューラルネットワークでは、重みやバイアス等のパラメータが用いられる。学習済みモデルでは、学習済みのパラメータが用いられている。パラメータが最適に設定されているので、的確な推定が行える。
 上述のように、ステップS1では、測定データをニューラルネットワークに入力する。図3では、測定データがDNNに入力されている。ステップS1が終わると、ステップS2を実行する。
 ステップS2は、推定ステップである。ステップS2では、測定データから推定データを生成する。推定データは、測定データから推定した物体の3次元光学特性のデータである。
 物体の厚みが厚い場合、合焦位置からの光と非合焦位置からの光で、物体の光学像が形成される。合焦位置からの光では鮮明な光学像は形成されるが、非合焦位置からの光では鮮明な光学像は形成されない。鮮明な光学像に鮮明でない光学像が重なるため、鮮明な光学像は形成されない。その結果、鮮明な画像を取得することができない。
 図3に示す物体の厚みは、図1(a)に示す物体1と同じように厚い。そのため、物体の光学像は鮮明でない。光学像は鮮明でないので、画像Imea(x,z)も鮮明でない。
 図3に示すように、測定される画像Imea(x,z)は測定する物体の画像О(x、z)は大きく異なる。画像Imea(x,z)を観て画像О(x,z)を観察者が推察するのは困難である。
 図3に示すように、DNNによって、測定データから推定データを算出する。画像Oest(x,z)は、推定データを表す画像である。観察者は画像Оest(x,z)を観ることで、観察する物体の画像О(x,z)を推察できる。
 DNNによって推定される画像は、学習データの影響を大きく受ける。観察する物体に近い画像О(x,z)とそれに対応する画像Imea(x,z)が学習データに含まれていない場合、精度の高い推定データОest(x,z)を生成できない。生成された推定データОest(x,z)は、学習データに含まれている画像О(x,z)に近い画像を生成する可能性が高い。生成された推定データの画像Оest(x,z)が観察している物体の画像О(x、z)を表しているか否かの判断はできない。
 ステップS3は、復元ステップである。ステップS3では、推定データから復元データを生成する。復元では、推定データに対して順伝播演算を行う。順伝播演算では、推定した物体の内部を通過する波面を、光が進行する方向に順次求める。
 測定データは、物体の光学像の画像から得られる。推定データは、推定した物体の3次元光学特性のデータである。よって、推定データから光学像を算出することができれば、測定データと同様のデータ(以下、「復元データ」という)が得られる。
 推定データを推定物体のデータとすると、復元データは推定物体の光学像(以下、「推定光学像」という)から得たデータである。測定データは、物体の光学像の画像から得たデータである。測定データと復元データは共に光学像から得たデータであるので、測定データと復元データとの比較は可能である。測定データと復元データを比較することで、推定データが物体の3次元光学特性を正しく表しているか否かの判断ができる。
 推定データから復元データを得るために、順伝播演算を行う。順伝播演算では、様々な種類の演算が行われる。物体の内部を通過する波面は、例えば、ビーム伝播法で算出することができる。ビーム伝播法では、推定物体を複数の薄い層に置き換える。そして、光が各層を通過する際の波面変化を逐次計算する。
 図4は、順伝播演算を説明するための図である。図4(a)は、ビーム伝播法を説明するための図である。図4(b)は、順伝播演算における処理を説明する図である。
 波面の伝播は、フレネル伝播である。波面を電場に置き換えて説明する。図4(a)において、実線は、物体の複素屈折率を表している。点線は、電場(光のスカラ場)を表している。矢印は、フレネル伝播を表している。薄い層間を、フレネル伝播を繰り返し演算していく手法がビーム伝播法である。
 ビーム伝播法について説明する。位置P1では、入射側の電場Ein1と複素屈折率N1を用いて、出射側の電場Eout1を求める。
 電場Eout1から、位置P2における入射側の電場Ein2を求める。電場Eout1から電場Ein2までの伝播は、フレネル伝播である。電場Ein2と複素屈折率N2を用いて、出射側の電場Eout2を求めることができる。このように物体の複素屈折率を反映しながら、繰り返しフレネル伝播を繰り返す伝播がビーム伝播である。
 このように、ビーム伝播法を用いて、入射側の電場から出射側の電場の算出を行うことがきる。その結果、位置PNにおける出射側の電場Eoutを求めることができる。推定物体から出射する波面の位置が位置PNの場合、電場Eoutが推定物体から出射する波面を表している。
 順伝播演算について説明する。順伝播演算では、推定物体から推定光学像を求める。推定光学像は、物体の光学像に相当する。測定の時には、図4(b)に示すように結像光学系を利用する。対物レンズ10を光軸方向に走査しながら、結像レンズ11の結像位置13で電場の強度分布を測定することで、測定データの画像Imea(x,z)を得ることができる。
 観察する物体О(x,z)の推定物体Оest(x,z)を取得しているので、入射波面Winを既知とすれば、推定物体Оest(x,z)と入射波面Winから、物体を伝播した出射波面Woutをビーム伝播法で求めることができる。出射波面Woutから、対物レンズ10を光軸方向に走査したときの各合焦位置Fo1、Fo2での電場をフレネル伝播で求めることができる。これらの電場の強度分布は、対物レンズ10と結像レンズ11の収差が小さければ、測定データの画像Imea(x,z)に相当する。このような順伝播演算で求めた、強度分布の画像Iest(x,z)は復元データを表す画像である。
 ステップS3が終わると、ステップS4を実行する。
 ステップS4は、算出ステップである。ステップS4では、測定データと復元データに基づいて、推定データの信頼度を算出する。
 上述のように、測定データと復元データは共に光学像から得たデータであるので、測定データと復元データとの比較は可能である。測定データと復元データを比較することで、推定データが物体の3次元光学特性を正しく表しているか否かの判断ができる。
 例えば、学習データに無い形状の物体を測定した場合、測定された光学像も学習データには無い画像になる。しかし、この光学像からDNNで生成した物体の推定画像は、学習データに含まれている物体の推定画像に似ている可能性が高い。
 したがって、推定された物体の推定画像を使って順伝播演算で求める復元データとしての光学像も、学習データに含まれる光学像になる。測定した光学像は学習データに含まず、復元データの光学像は学習データに含まれる。測定した光学像と、復元した光学像は異なるので、この場合は、DNNで生成した物体の推定画像は、測定した物体の3次元光学特性を正しく表していないと判断できる。
 測定データに対する復元データの乖離が小さいほど、推定した3次元光学特性は、物体の3次元光学特性に近づく。例えば、測定データに対する復元データの乖離の大きさを信頼度とすると、測定データと復元データに基づいて、推定データの信頼度を算出することができる。
 第1実施形態のデータ処理方法では、学習済みモデルを用いて、物体の3次元光学特性を算出している。そのため、短時間で、物体の3次元光学特性を算出することができる。更に、算出した物体の3次元光学特性について、信頼度を算出している。そのため、推定した3次元光学特性が物体の3次元光学特性を正しく表しているか否かを、信頼度に基づいて判断することができる。
 学習済みモデルを使用するためには、ニューラルネットワークにおいて予め学習を行っておく必要がある。学習を行うためには、学習データが必要である。学習データの作成方法について説明する。学習データは、学習入力データと、学習出力データと、を有する。
 (第1の作成方法)
 図5は、第1の作成方法を示す図である。図5(a)は、第1の作成方法における処理の流れを示す図である。図5(b)は、再構成データの画像を示す図である。図5(a)と図5(b)に図示されている画像は、XZ断面の画像である。図5(a)では、見易さのために、物体を画像O(x,z)で示している。
 第1の作成方法では、再構成演算を行う。再構成演算では、学習入力データから、再構成データが生成される。
 上述のように、物体が非常に小さい場合、物体の3次元光学特性の値(以下、「光学特性値」という)を、直接取得することは困難である。そこで、光学系4で物体の光学像を形成する。光学像から第1比較データが得られる。画像SC1(x,z)は、第1比較データの画像を表している。第1比較データは、学習入力データに用いることができる。画像SC1(x,z)は、学習入力データの画像を表している。
 再構成演算では、物体モデルを用いる。光学特性値は不明なので、物体モデルのデータ(以下、「モデルデータ」という))における値は、推定値である。
 再構成演算の開始時、推定値に初期値が設定される。推定値には、どのような値を用いても良い。画像SM(x,z)は、推定値に初期値が設定されたときのモデルデータの画像を表している。
 再構成演算では、モデルデータを用いて順伝播演算が行われる。順伝播演算によって、物体モデルの光学像が得られる。物体モデルの光学像から、第2比較データが得られる。画像SC2(x,z)は、第2比較データの画像を表している。
 第1比較データと第2比較データが同じ場合、物体の光学像と物体モデルの光学像は同じである。この場合、推定値は光学特性値と同じである。第1比較データと第2比較データが異なる場合、物体の光学像と物体モデルの光学像は異なる。この場合、推定値は光学特性値と異なる。
 第1比較データと第2比較データが異なる場合、物体モデルの光学像を形成した波面(以下、「推定波面」という)は、物体の光学像を形成した波面と異なる。そこで、例えば、第1比較データと第2比較データとの差を使って、推定波面を補正する。
 補正した推定波面を用いて、逆伝播演算が行われる。逆伝播演算によって、新たな推定値が得られる。モデルデータの値を、新たな推定値に置き換える。すなわち、推定値を更新する。
 順伝播演算、推定波面の補正、逆伝播演算、推定値の更新は、第1比較データと第2比較データとの差が閾値よりも小さくなるまで繰り返す。
 第1比較データと第2比較データとの差が閾値よりも小さくなったときのモデルデータを、再構成データとする。図5(b)に示す画像SO(x,z)は、再構成データの画像表している。再構成データは、学習出力データに用いることができる。
 図6は、学習データを示す図である。図6に図示されている画像は、XZ断面の画像である。
 再構成演算を行うことで、物体に対応する再構成データ、すなわち、学習出力データを得ることができる。学習を行うためには、多くの学習データが必要である。よって、学習出力データも多数必要である。多数の学習出力データを得るためには、多数の物体について、再構成演算を行えば良い。
 物体の数をNとする。図6には、物体1、物体2、及び物体Nについて、第1比較データの画像と再構成データの画像が示されている。物体1、物体2、及び物体Nは、同じ照明角度、例えば、0°で照明されている。
 図6では、物体の画像は表示されていない。物体と第1比較データ画像との対応関係、及び物体と再構成データとの対応関係を示すために、O1(x,z)、O2(x,z)及びON(x,z)を記載している。O1(x,z)は、物体1を表している。O2(x,z)は、物体2を表している。ON(x,z)は、物体Nを表している。
 画像SC11(x,z)は、物体1の第1比較データの画像を表している。画像SC12(x,z)は、物体2の第1比較データの画像を表している。画像SC1N(x,z)は、物体Nの第1比較データの画像を表している。
 画像SO1(x,z)は、物体1の再構成データの画像を表している。画像SO2(x,z)は、物体2の再構成データの画像を表している。画像SON(x,z)は、物体Nの再構成データの画像を表している。
 第1の作成方法では、第1比較データが学習入力データとして用いられ、再構成データが学習出力データとして用いられる。物体の数がNの場合、学習入力データの数と学習出力データの数もNになる。
 再構成演算では、1つの物体における第1比較データが多いほど、再構成データの正確さが高まる。1つの物体における第1比較データを増やすには、例えば、複数の照明角度で物体を照明し、各照明角度の光学像から第1比較データを得れば良い。
 図7は、再構成データの作成方法を示す図である。図7に図示されている画像は、XZ断面の画像である。
 第1比較データ1は、照明角度θILLが0°のときの物体の光学像から得たデータである。画像SCθ1(x,z)は、第1比較データ1の画像を表している。第1比較データ2は、照明角度θILLが-40°のときの物体の光学像から得たデータである。画像SCθ2(x,z)は、第1比較データ2の画像を表している。
 第1比較データ3は、照明角度θILLが-30°のときの物体の光学像から得たデータである。画像SCθ3(x,z)は、第1比較データ3の画像を表している。第1比較データNは、照明角度θILLが40°のときの物体の光学像から得たデータである。画像SCθN(x,z)は、第1比較データNの画像を表している。
 第1比較データ1、第1比較データ2、第1比較データ3、及び第1比較データNでは、照明角度が互いに異なる。そのため、光学特性値に関して、互いに異なる情報を有する。再構成演算に第1比較データ1、第1比較データ2、第1比較データ3、及び第1比較データNを用いることで、再構成データの正確さを高めることができる。
 (第2の作成方法)
 図8は、第2の作成方法を示す図である。図8に図示されている画像は、XZ断面の画像である。
 図6で説明したように、学習を行うためには、多くの学習データが必要である。第1の作成方法では、再構成データ(学習出力データ)を得るために、順伝播演算と逆伝播演算を繰り返している。順伝播演算と逆伝播演算には、多くの時間を要する。1つの再構成データを得るための時間が長いと、多数の再構成データを得るために膨大な時間を要する。
 第2の作成方法では、1つの再構成データを変形させる。このようにすることで、多数の再構成データ、すなわち、多数の学習出力データを短時間で得ることができる。データの変形では、例えば、拡大、縮小、回転、ノイズ付加を行えば良い。
 学習には、学習出力データと対になる学習入力データが必要である。学習入力データは、第1比較データである。第1比較データは、物体の光学像から得られる。ただし、第2の作成方法では、変形させた再構成データが物体に相当する。
 そこで、変形させた再構成データを物体と見なして、変形させた再構成データを用いて順伝播演算を行う。このようにすることで、変形させた再構成データから、物体の光学像に相当するデータが得られる。
 図5(a)では、順伝播演算を行うことで、モデルデータから第2比較データを得ている。物体の光学像に相当するデータは、第2比較データに相当する。第2の作成方法では、第2比較データが、学習入力データとして用いられる。
 拡大を行った再構成データを、拡大再構成データとする。縮小を行った再構成データを、縮小再構成データとする。回転を行った再構成データを、回転再構成データとする。
 画像SO1(x,z)は、拡大再構成データの画像を表している。画像SO2(x,z)は、縮小再構成データの画像を表している。画像SON(x,z)は、回転再構成データの画像を表している。
 画像SC21(x,z)は、拡大再構成データから得た第2比較データの画像を表している。画像SC22(x,z)は、縮小再構成データから得た第2比較データの画像を表している。画像SC2N(x,z)は、回転再構成データ第2比較データの画像を表している。
 図9は、学習データを示す図である。図9に図示されている画像は、XZ断面の画像である。
 図9には、物体1と物体Nについて、第2比較データの画像と変形再構成データの画像が示されている。変形再構成データは、再構成データを変形させたデータである。画像の数が多いので、全ての画像について説明しない。
 図9では、物体の画像は表示されていない。物体と第2比較データ画像との対応関係、及び物体と変形再構成データとの対応関係を示すために、O1(x,z)とON(x,z)を記載している。O1(x,z)は、物体1を表している。ON(x,z)は、物体Nを表している。
 画像SC211(x,z)は、物体1の変形再構成データから得た第2比較データの画像を表している。画像SC21N(x,z)は、物体Nの変形再構成データから得た第2比較データの画像を表している。
 画像SO11(x,z)は、物体1の変形再構成データの画像を表している。画像SON1(x,z)は、物体Nの変形再構成データの画像を表している。
 第2の作成方法では、第2比較データが学習入力データとして用いられ、変形再構成データが学習出力データとして用いられる。物体の数がNの場合、学習入力データの数と学習出力データの数はN以上になる。
 (第3の作成方法)
 図10は、第3の作成方法を示す図である。図10に図示されている画像は、XZ断面の画像である。
 第1の作成方法では、物体から、第1比較データ(学習入力データ)と再構成データ(学習出力データ)を生成している。第2の作成方法では、物体から再構成データを生成し、再構成データから、変形させたデータ(学習入力データ)と第2比較データ(学習入力データ)を求めている。このように、第1の作成方法と第2の作成方法では、物体が用いられている。
 これに対して、第3の生成方法では、物体は用いられない。物体の代わりに、計算機によって生成されたデータ(以下、「仮想物体データ」という)が用いられる。
 仮想物体データは、再構成データに相当する。そこで、第2の作成方法と同様に、仮想物体データを用いて順伝播演算を行う。このようにすることで、仮想物体データから、物体の光学像に相当するデータが得られる。
 図5(a)では、順伝播演算を行うことで、モデルデータから第2比較データを得ている。物体の光学像に相当するデータは、第2比較データに相当する。第3の作成方法では、第2比較データが、学習入力データとして用いられる。
 画像O’1(x,z)は、仮想物体1のデータの画像を表している。画像O’2(x,z)は、仮想物体2のデータの画像を表している。画像O’N(x,z)は、仮想物体Nのデータの画像を表している。
 画像SC21(x,z)は、仮想物体1のデータから得た第2比較データの画像を表している。画像SC22(x,z)は、仮想物体2のデータから得た第2比較データの画像を表している。画像SC2N(x,z)は、仮想物体Nのデータ第2比較データの画像を表している。
 図11は、学習データを示す図である。図11に図示されている画像は、XZ断面の画像である。
 画像SC21(x,z)は、仮想物体1のデータから得た第2比較データの画像を表している。画像SC22(x,z)は、仮想物体2のデータから得た第2比較データの画像を表している。画像SC2N(x,z)は、仮想物体Nデータから得た第2比較データの画像を表している。
 画像O’1(x,z)は、仮想物体1のデータの画像を表している。画像O’2(x,z)は、仮想物体2のデータの画像を表している。画像O’N(x,z)は、仮想物体Nのデータの画像を表している。
 第3の作成方法では、第2比較データが学習入力データとして用いられ、仮想物体のデータが学習出力データとして用いられる。仮想物体の数がNの場合、学習入力データの数と学習出力データの数はNになる。ただし、仮想物体は短い時間で容易に作成でき、しかも、作成できる数も制限されない。
 (DNNにおける学習)
 図12は、DNNにおける学習の様子を示す図である。図12に図示されている画像は、XZ断面の画像である。
 DNNにおける学習では、学習データセットが用いられる。学習データセットは、学習入力データと学習出力データを有する。
 学習入力データには、第1の作成方法における第1比較データ、第2の作成方法における第2比較データ、又は第3の作成方法における第2比較データが用いられる。
 学習出力データには、第1の作成方法における再構成データ、第2の作成方法における変形再構成データ、又は第3の作成方法における仮想物体データが用いられる。
 学習では、学習入力データから学習推定データが出力される。学習推定データが学習出力データと一致している状態が、理想の状態である。しかしながら、学習が不十分な状態では、学習推定データは学習出力データと一致しない。理想の状態と学習が不十分な状態との差は、ロス関数で表すことができる。学習が不十分な状態には、学習をしていない状態も含まれる。
 DNNにおける推定では、様々なパラメータが用いられる。学習では、最適なパラメータの探索に、ロス関数が用いられる。最適なパラメータの探索では、ロス関数の値が最も小さくなるようなパラメータを探索する。
 学習では、学習推定データと学習出力データとの比較を繰り返す。学習推定データと学習出力データとの比較を行うたびに、ロス関数の出力をDNNへフィードバックする。学習推定データと学習出力データとの比較と、ロス関数の出力のDNNへのフィードバックを繰り返すことで、最適なパラメータを求めることができる。
 学習入力データから学習推定データを出力する処理では、画像の領域検出が行われる。画像の領域検出には、例えば、U-Netを用いることができる。
 図13は、U-Netを示す図である。図13(a)は、U-Netの構成を示す図である。図13(b)は、データ形状の模式図である。図13(b)において、「64」は、チャンネル数又は特徴量マップの数を表している。「256^3」は、画素数を表している。
 矢印Aの方向の処理は、エンコード又はダウンサンプリングと呼ばれる処理である。矢印Bの方向の処理は、デコード又はアップサンプリングと呼ばれる処理である。
 エンコードでは、畳み込みとプーリングを交互に繰り返すことで、入力データの特徴を抽出する。矢印Aの方向に処理が進むにつれて、特徴を持つ領域が細分化される。そのため、画素数が減少する代わりに、チャンネル数又は特徴量マップの数が増加する。
 デコードでは、逆畳み込みを行うことで、入力データと同じサイズの出力データを作成する。出力データでは、同じ特徴を持つ領域で区分けされる。そのため、出力データにおける画像は、入力データにおける画像に比べて粗い画像になる。
 エンコードでは、特徴を持つ領域の位置情報が得られる。そこで、デコードの際に、エンコードで得た位置情報を出力データの作成に使用する。図13(a)では、エンコードからデコードへの位置情報の受け渡しは、「Copy」で表わされている。
 第2実施形態のデータ処理方法は、測定データをニューラルネットワークに入力する入力ステップと、測定データから推定データを生成する推定ステップと、推定データから復元データを生成する復元ステップと、測定データと復元データに基づいて、推定データの信頼度を算出する算出ステップと、信頼度に反比例する量を損失として、ニューラルネットワークが学習する学習ステップと、を有する。
 測定データは、物体を透過した光を測定することで得られたデータであり、推定データは、測定データから推定した物体の3次元光学特性のデータであり、3次元光学特性は、屈折率分布又は吸収率分布である。
 推定では、ニューラルネットワークを用い、復元では、推定データに対して順伝播演算を行い、順伝播演算では、測定データから推定した物体の内部を通過する波面を、光が進行する方向に順次求める。
 図14は、第2実施形態のデータ処理方法のフローチャートである。図2と同じと同じステップには同じ番号を付し、説明は省略する。図15は、第2実施形態のデータ処理方法を示す図である。図15に図示されている画像は、XZ断面の画像である。図3と同じ構成には同じ番号と同じ用語を用い、説明は省略する。図14と図15を参照しながら説明する。
 第2実施形態のデータ処理方法は、ステップS1と、ステップS2と、ステップS3と、ステップS4と、ステップS5と、を有する。
 ステップS5は、出力ステップである。ステップS5では、信頼度に反比例する量を損失として、ニューラルネットワークで学習する。
 第2実施形態のデータ処理方法では、ニューラルネットワークは学習済みモデルではない。そのため、学習を行うことで、最適なパラメータを探索する。
 ステップS5では、測定データと復元データとの比較から、信頼度に反比例する量が得られる。図15に示すように、信頼度に反比例する量は、DNNに入力される。信頼度に反比例する量から、測定データに対する復元データの乖離の度合いが分かる。信頼度に反比例する量DNNに入力することで、DNNにおいて学習を行うことができる。その結果、より高い精度で信頼度を算出することができる。
 また、測定データと復元データを比較することで、推定データが物体の3次元光学特性を正しく表しているか否かの判断ができる。DNNにおける学習が進むことで、推定データにおいて、より正しい物体の3次元光学特性を得ることができる。
 第2実施形態のデータ処理方法では、学習モードと推定モードの切り替えが行われる。学習モードでは、信頼度に反比例する量がDNNに入力される。推定モードでは、信頼度が出力される。
 図16は、DNNにおける学習の様子を示す図である。図16に図示されている画像は、XZ断面の画像である。
 図16では、複数の測定データを用いて学習を行う様子が示されている。比較最小化における処理で、信頼度に反比例する量が得られる。
 学習に使用するデータが多ければ多いほど、より高い精度で信頼度を算出することができる。その結果、推定データにおいて、より正しい物体の3次元光学特性を得ることができる。
 本実施形態のデータ処理方法では、測定データと復元データとの差を算出し、差に基づいて信頼度を算出することが好ましい。
 測定データと復元データとで対応するデータの差の絶対値和求め、絶対値和を指標として信頼度を算出することができる。例えば、絶対値和に反比例する係数を乗じて信頼度を算出することができる。予め設定しておいた閾値と比較することで信頼度を算出することができる。閾値は予め実験で求めておくことができる。絶対値和を正規化して閾値と比較することができる。
 測定データと復元データとの差を用いることで、簡単に信頼度を算出することができる。
 本実施形態のデータ処理方法では、測定データと復元データとの相関を算出し、相関に基づいて信頼度を算出することが好ましい。
 相関のピークは、以下の式で表わされる。erそのものを信頼度としてもよいし、erに係数を乗じて信頼度としてもよい。また、erを予め設定しておいた閾値と比較することで信頼度を算出してもよい。例えば、erが予め設定した閾値0.5より大きい場合、信頼度を1.0(信頼度が高いと示す値)と算出してもよい。
Figure JPOXMLDOC01-appb-M000001
 ここで、
 Mx,y,zは、測定データ、
 cMx,y,zは、復元データ、
 max()は、最大値(ピーク)を求める関数、
である。
 測定データと復元データとの相関関数corr()は、以下の式で表わされる。
Figure JPOXMLDOC01-appb-M000002
 ここで、
 x1、x2は、相関を計算する、強度分布の画像、
 r1、r2は、空間座標x,y,z、
である。
 測定データと復元データとの相関を用いることで、高い精度で信頼度を算出することができる。
 以上説明したように、信頼度の算出に相関のピークを利用することができる。しかしながら、信頼度の算出に、相関の広がり具合、具体的には、ピーク周辺の広がり具合を利用してもよい。広がりが小さいほど、信頼度が高くなる。例えば、corr()のピーク周辺を下式でフィッティングし、px,py,pz,sを求める。sが小さい時、信頼度が高い。
Figure JPOXMLDOC01-appb-M000003
 ここで、
 x、y、zは、空間座標、
 px、py、pzは、ピーク位置の空間座標、
 s標準偏差
である。
 本実施形態のデータ処理方法では、測定データと復元データとの差の二乗和を算出し、差の二乗和の大きさに基づいて信頼度を算出することが好ましい。
 例えば、測定データと復元データとの差の二乗和に係数を乗じて信頼度とすることができる。予め設定しておいた閾値と比較することで信頼度を算出することができる。閾値は予め実験で求めておくことができる。絶対値和を正規化して閾値と比較することができる。
 測定データと復元データとの差の二乗和は、以下の式で表わされる。
Figure JPOXMLDOC01-appb-M000004
 ここで、
 Mx,y,zは、測定データ、
 cMx,y,zは、復元データ、
である。
 測定データと復元データとの差の二乗和を用いることで、高い精度で信頼度を算出することができる。
 本実施形態のデータ処理方法は、第1ニューラルネットワークと、第2ニューラルネットワークと、を有し、第1ニューラルネットワークは、ニューラルネットワークであり、第2ニューラルネットワークは、学習済みモデルであり、第2ニューラルネットワークを用いて、信頼度を算出することが好ましい。
 図17は、信頼度を算出する方法を示す図である。図3と同じ構成には同じ番号と同じ用語を用い、説明は省略する。
 本実施形態のデータ処理方法は、第1ニューラルネットワークと、第2ニューラルネットワークと、を有する。第1ニューラルネットワークは、第1実施形態のデータ処理方法におけるニューラルネットワーク、又は第2実施形態のデータ処理方法におけるニューラルネットワークである。
 第2ニューラルネットワークは、学習済みモデルである。第2ニューラルネットワークを用いて、信頼度を算出する。
 第1ニューラルネットワークと第2ニューラルネットワークを用いた場合について説明する。第1DNNは、第1ニューラルネットワークである。第2DNNは、第2ニューラルネットワークである。第1DNNは、図3に示すDNNと同じなので、説明は省略する。
 第2DNNは、学習済みモデルである。第2DNNには、測定データと復元データが入力される。第2DNNでは、測定データと復元データから信頼度が算出される。
 図18は、第2DNNにおける信頼度の算出における処理を示す図である。第2DNNは、CNNと、FCと、softmaxと、を有する。
 CNNは、Convolutional Neural Networkである。Convolution Neural Networkでは、畳み込みとプーリングを行う。畳み込みでは、画像の濃淡パターンを検出して、物体の特徴を抽出する。プーリングでは、物体の位置が変動しても同一の物体であると見なす処理を行う。畳み込みとプーリングによって、画像から特徴部分を抽出する。
 FCは、Full Connectionである。Full Connectionでは、特徴部分が取り出された画像データから、特徴変数を出力する。softmaxでは、特徴変数を元に0から1までの値を算出する。算出された値は確率を表すので、算出された値を信頼度として用いる。
 第1DNNは、図3に示すDNNである。よって、第1DNNは、推定データを算出する。これに対して、第2DNNは信頼度を算出する。そのため、第2DNNにおける学習は、第1DNNにおける学習と異なる。第2DNNにおける学習について説明する。
 本実施形態のデータ処理方法では、第2ニューラルネットワークは、第1学習データセット群と第2学習データセット群を用いて学習を行うことが好ましい。
 第1学習データセット群は、複数の第1学習データセットを有し、第1学習データセットは、第1データ、第1補正データ、及び真偽のうち真を示す教師データを含む。
 第2学習データセット群は、複数の第2学習データセットを有し、第2学習データセットは、第1データ、第2補正データ、及び真偽のうち偽を示す教師データを含む。
 第1補正データは、第1データに補正処理を施したデータであり、第2補正データは、第2データに補正処理を施したデータであり、第2データは、第1データと異なる。
 第1データおよび第2データは、物体を透過した光を測定することで得られたデータ、若しくは、物体の3次元光学特性をモデル化した物体モデルに順伝播演算を行うことで生成したデータである。
 図19は、学習用データを示す図である。図19(a)は、学習用データの生成を示す図である。図19(b)は、学習入力データと学習出力データの関係を示す図である。
 学習用データは、複数のデータ群を有する。図19(a)には、データ群A、データ群B、及びデータ群Zが図示されている。
 図19(a)に示すように、データ群は、基本データと、変形データと、を有する。1つのデータ群における基本データは、他のデータ群における基本データと異なる。データを用いて画像を生成した場合、データ群Aの基本データにおける画像は、データ群Bの基本データにおける画像、及びデータ群Zの基本データにおける画像と異なる。
 変形データは、基本データを変形したデータである。データの変形では、例えば、拡大、縮小、回転、ノイズ付加を行えば良い。
 変形データの数は1以上であれば良い。図19(a)には、基本データ、第1変形データ、第2変形データ、及び第N変形データが図示されている。第1変形データでは、基本データにノイズを付加している。第2変形データでは、基本データを回転している。第N変形データでは、基本データを拡大、又は、基本データを縮小している。
 データ群Aについては、基本データA、第1変形データa1、第2変形データa2、及び第N変形データanが図示されている。データ群Bについては、基本データB、第1変形データb1、第2変形データb2、及び第N変形データbnが図示されている。データ群Zについては、基本データZ、第1変形データz1、第2変形データz2、及び第N変形データznが図示されている。
 図18に示すように、信頼度の算出では、測定データと復元データを使用する。第2ニューラルネットワークにおける学習では、学習用データの中から、測定データに対応するデータ(以下、「第1対応データ」という)と、復元データに対応するデータ(以下、「第2対応データ」という)を選択する。
 第1対応データには、基本データが用いられる。第2対応データには、変形データが用いられる。第1対応データは、上述の第1データに相当する。第2対応データは、上述の第1補正データ、又は第2補正データに対応する。
 第1対応データと第2対応データは、1つのデータ群から選択することができる。例えば、データ群Bの中から、第1対応データとして基本データBを選択し、第2対応データとして第2変形データb2を選択する。第2変形データb2は、基本データBを変形したデータである。そのため、第2変形データb2と基本データBとの類似の度合いは高い。
 また、第1対応データと第2対応データは、2つのデータ群から選択することができる。例えば、データ群Aの中から、第1対応データとして基本データAを選択し、データ群Bの中から、第2対応データとして第1変形データb1を選択する。第1変形データb1は、基本データAを変形したデータではない。そのため、第1変形データb1と基本データAとの類似の度合いは低い。
 このように、第1対応データとして選択したデータと第2対応データとして選択したデータが同じデータ群から選択したデータの場合、2つのデータの類似の度合いは高い。これに対して、第1対応データとして選択したデータと第2対応データとして選択したデータが異なるデータ群から選択したデータの場合、2つのデータの類似の度合いは低い。
 類似の度合いは、信頼度とみなすことができる。図19(b)に示すように、第2DNNににおける第では、第1対応データと第2対応データの組み合わせを様々に変えて、学習入力データを作成する。学習入力データを第2DNNに入力することで、学習出力データが得られる。学習出力データにおける数値は、softmax関数の値で、信頼度を表す値として用いることができる。
 一点鎖線で示すように、学習入力データと学習出力データを1つのセットと捉えると、学習では、2種類の学習データセットが用いられる。第1学習データセットは、図19(b)に示すデータセット1である。第2学習データセットは、図19(b)に示すデータセット2である。
 データセット1の学習出力データでは、Trueの値が1.0で、Falseの値が0.0である。出力結果の真偽を表すデータを教師データとすると、データセット1の学習出力データは、真偽のうち真を示す教師データである。
 データセット2の学習出力データでは、Trueの値が0.0で、Falseの値が1.0である。よって、データセット2の学習出力データは、真偽のうち偽を示す教師データである。
 第1学習データセットは、第1対応データ、第2対応データ、及び真偽のうち真を示す教師データを含んでいる。第1学習データセットでは、第2対応データが属するデータ群は、第1対応データが属するデータ群と同じである。
 第2学習データセットは、第1対応データ、第2対応データ、及び真偽のうち偽を示す教師データを含んでいる。第2学習データセットでは、第2対応データが属するデータ群は、第1対応データが属するデータ群と異なる。
 第1対応データは、例えば、図3に示す測定データ、図5に示す第1比較データ、又は図5に示す第2比較データを用いることができる。
 また、第1対応データは、物体の3次元光学特性をモデル化した物体モデルを生成し、生成した物体モデルに順伝播演算を行うことで生成したデータであってもよい。このデータは測定データと同種のデータであり、測定データに対応する。
 (第2DNNにおける学習)
 図20は、第2DNNにおける学習の様子を示す図である。図20に図示されている画像は、XZ断面の画像である。
 図20では、信頼度は、2つのデータが類似しているか否かの判断に用いることができる。基本データに測定データを使用している。上述のように、測定データは、物体を透過した光を測定することで得られたデータである。基本データに測定データを使用しているので、変形データも測定データを変形したデータである。
 第2DNNにおける学習は、図12に示すDNNにおける学習と基本的に同じである。よって、詳細な説明は省略する。第2DNNにおける学習と図12に示すDNNにおける学習との違いは、以下の通りである。
 (I)学習入力データの数
 第2DNNでは、学習入力データの数は2つである。図12に示すDNNでは、学習入力データの数は1つである。
 (II)学習出力データの種類が学習入力データの種類
 第2DNNでは、学習出力データの種類が学習入力データの種類と異なる。図12に示すDNNでは学習出力データの種類が学習入力データの種類と同じである。例えば、第2DNNでは、2つの画像から数値が出力されている。図12に示すDNNでは、1つの画像から1つの画像が出力されている。
 本実施形態のデータ処理方法は、信頼度を提示する提示ステップを、更に備えることが好ましい。
 上述のように、実施形態のデータ処理方法では、信頼度を求めることができる。そのため、信頼度を使って様々な提示を行うことができる。
 また、信頼度を使って様々な音を出すことができる。例えば、信頼度が低い場合にのみ音を出すことができる。表示や音によりユーザに信頼度を提示することができる。
 (第1の提示方法)
 図21は、第1の提示方法を示す図である。図21(a)は、第1の提示方法のフローチャートである。図21(b)と図21(c)は、提示例を示す図である。図1と同じと同じステップには同じ番号を付し、説明は省略する。
 第1の提示方法は、ステップS5と、ステップS6と、ステップS7と、を有する。
ステップS5では、閾値と信頼度の値との比較が行われる。信頼度の値が閾値よりも大きい場合、ステップS6を実行する。信頼度の値が閾値と等しいか、又は信頼度の値が閾値よりも大きい場合、ステップS6を実行する。信頼度の値が閾値よりも小さい場合、ステップS7を実行する、
 ステップS6では「TRUE」を表示する。図21(b)に示すように、画像と共に「TRUE」の文字を表示することができる。ステップS7では「FALSE」を表示する。図21(c)に示すように、画像と共に「FALSE」の文字を表示することができる。
 信頼度の値と比較する閾値は1つでなくても良い。例えば、2つの閾値を使用して「信頼度高」「信頼度中」「信頼度低」という文字を表示することができる。
 ステップS6とステップS7とのうちいずれか一方でのみ表示を行っても良い。また、ステップS6とS7で異なる色を表示してもよい。例えば、ステップS6では青色、ステップS7では赤色を表示することができる。各色のLEDを使用することができる。
 (第2の提示方法)
 図22は、第2の提示方法を示す図である。図22(a)は、信頼度が高い場合の提示を示す図である。図22(B)は、信頼度が中くらいの場合の提示を示す図である。図22(c)は、信頼度が低い場合の提示を示す図である。
 第2DNNでは、数値が出力される。そのため、第2DNNから出力された数値に基づいて、信頼度の数値を求めることができる。その結果、図22(a)、図22(b)、及び図22(c)に示すように、信頼度を数値で表すことができる。信頼度の値に応じて、画像の周囲を色付けしても良い。例えば、信頼度が中くらいの場合、画像の周囲を黄色で囲む。信頼度が低い場合、画像の周囲を赤色で囲む。
 また、以下の文章を表示しても良い。
 (i)信頼度が中くらいの場合
 「再構成結果が間違っている可能性があります。」
 (ii)信頼度が低い場合
 「再構成結果が間違っています。再測定してください。」
 本実施形態のデータ処理装置を、第1実施形態のデータ処理装置と、第2実施形態のデータ処理装置を用いて説明する。
 第1本実施形態のデータ処理装置は、メモリと、プロセッサと、を備え、メモリは、測定データを記憶し、プロセッサは、物体の3次元光学特性を推定する推定処理を実行し、3次元光学特性は、屈折率分布又は吸収率分布である。
 推定処理は、測定データをニューラルネットワークに入力する入力ステップと、測定データから推定データを生成する推定ステップと、推定データから復元データを生成する復元ステップと、測定データと復元データに基づいて、推定データの信頼度を算出する算出ステップと、を有する。
 ニューラルネットワークは、学習済みモデルであり、測定データは、物体を透過した光を測定することで得られたデータであり、推定データは、測定データから推定した物体の3次元光学特性のデータである。
 推定では、ニューラルネットワークを用い、復元では、推定データに対して順伝播演算を行い、順伝播演算では、測定データから推定した物体の内部を通過する波面を、光が進行する方向に順次求める。
 第2実施形態のデータ処理装置は、メモリと、プロセッサと、を備え、メモリは、測定データを記憶し、プロセッサは、物体の3次元光学特性を推定する推定処理を実行し、3次元光学特性は、屈折率分布又は吸収率分布である。
 推定処理は、測定データをニューラルネットワークに入力する入力ステップと、測定データから推定データを生成する推定ステップと、推定データから復元データを生成する復元ステップと、測定データと復元データに基づいて、推定データの信頼度を算出する算出ステップと、信頼度に反比例する量を損失として、ニューラルネットワークが学習する学習ステップと、を有する。
 測定データは、物体を透過した光を測定することで得られたデータであり、推定データは、測定データから推定した物体の3次元光学特性のデータである。
 推定では、ニューラルネットワークを用い、復元では、推定データに対して順伝播演算を行い、順伝播演算では、測定データから推定した物体の内部を通過する波面を、光が進行する方向に順次求める。
 図23は、本実施形態のデータ処理装置を示す図である。データ処理装置20は、メモリ21と、プロセッサ22と、を備える。メモリ21は、測定データを記憶する。プロセッサ22は、推定データの信頼度を算出する処理を実行する。3次元光学特性は、屈折率分布又は吸収率分布である。
 データ処理装置20では、第1実施形態のデータ処理方法、又は第2実施形態のデータ処理方法が用いられる。よって、詳細な説明は省略する。
 本実施形態の三次元観察装置を、第1実施形態の三次元観察装置と、第2実施形態の三次元観察装置を用いて説明する。
 第1実施形態の三次元観察装置は、第1実施形態のデータ処理装置、又は第2実施形態のデータ処理装置と、物体を照明する光を出射する光源と、物体を透過した光を受光し、信号を生成するセンサと、を有する。
 図24は、第1実施形態の三次元観察装置を示す図である。図23と同じ構成については同じ番号を付し、説明は省略する。
 三次元観察装置30は、光源31と、センサ32と、を有する。光源31は、物体33を照明する光を出射する。光源31から出射した光で、物体33が照明される。物体33は、シャーレ34で保持されている。センサ32は、物体33を透過した光を受光し、信号(以下、「検出信号」という)を生成する。
 検出信号は、データ処理装置20に入力される。データ処理装置20では、検出信号から、データが生成される。検出信号からデータを生成し、生成したデータをデータ処理装置20に入力しても良い。生成されたデータは、物体33を透過した光を測定することで得られるデータである。よって、データ処理装置20では、測定データを用いて信頼度が算出される。
 第2実施形態の三次元観察装置は、光源と、センサと、物体に照明光を照射する照明系と、照明光を物体に導き、物体を透過した光をセンサに導く光学系と、を有する。
 図25は、第2実施形態の三次元観察装置を示す図である。図24と同じ構成については同じ番号を付し、説明は省略する。
 三次元観察装置40は、光源41と、コリメートレンズ42と、ハーフミラー43と、ミラー44と、照明系50と、検出系60と、ハーフミラー45と、センサ46と、を有する。
 光源41は、物体33を照明する光を出射する。センサ46は、物体33を透過した光を受光し、信号を生成する。物体33は、シャーレ34で保持されている。
 光源41から出射した光は、コリメートレンズ42に入射する。コリメートレンズ42から、平行光が出射する。平行光は、ハーフミラー43に入射する。ハーフミラー43から、反射光と透過光が出射する。透過光が進行する光路には、物体33が位置している。反射光が進行する光路には、何も配置されていない。
 透過光はミラー44で反射され、照明系50に入射する。照明系50は、レンズ51と、レンズ52と、を有する。照明系50から出射した平行光は、物体33に照射される。物体33から出射した平行光は、検出系60に入射する。
 検出系60は、対物レンズ61と、ミラー62と、結像レンズ63を有する。対物レンズ61に入射した平行は、対物レンズ61で集光された後、結像レンズ63に入射する。結像レンズ63には、発散光が入射する。
 結像レンズ63の焦点位置は、対物レンズ61における集光位置と一致している。よって、結像レンズ63から平行光が出射する。平行光は、ハーフミラー45に入射する。ハーフミラー45には、ハーフミラー43で反射した平行光が入射する。
 物体33を通過した平行光はハーフミラー43を通過し、物体33を通過しない平行光はハーフミラー43で反射される。そのため、センサ46に、物体33を通過した平行光と物体33を通過しない平行光が入射する。その結果、干渉縞が形成される。干渉縞はセンサ46で撮像される。センサ46から、検出信号が出力される。
 検出信号は、データ処理装置20に入力される。データ処理装置20では、検出信号から、データが生成される。検出信号からデータを生成し、生成したデータをデータ処理装置20に入力しても良い。生成されたデータは、物体33を透過した光を測定することで得られるデータである。よって、データ処理装置20では、測定データを用いて信頼度が算出される。
 三次元観察装置40では、ミラー44で、物体33を照明する光が偏向される。そのため異なる照明角度で物体33を照明することができる。この場合、図7で示すように、再構成データの正確さを高めることができる。
 本実施形態の三次元観察装置は、信頼度を提示する提示部を更に備えることが好ましい。
 図24に示すように、三次元観察装置30は表示部35を備える。また、図25に示すように、三次元観察装置40は表示部35を備える。表示部35は提示部である。表示部35の一例は、モニタである。表示部35を備えることで、信頼度を表示することができる。信頼度は、復元データと共に表示することができる。
 表示部35の代わりに、スピーカを備えることができる。信頼度をスピーカから音情報として出力することができる。表示部35とスピーカはまとめて提示部とすることができる。
 本実施形態の記録媒体を、第1実施形態の記録媒体と、第2実施形態の記録媒体を用いて説明する。
 第1実施形態の記録媒体は、プログラムを記録したコンピュータ読み取り可能な記録媒体である。記録媒体には、メモリとプロセッサを備えたコンピュータに推定処理を実行させるためのプログラムが記録されている。
 推定処理では、物体の3次元光学特性を推定する。3次元光学特性は、屈折率分布又は吸収率分布である。
 プロセッサに、メモリに記憶した測定データを、ニューラルネットワークに入力する処理と、測定データから推定データを生成する処理と、推定データから復元データを生成する処理と、測定データと復元データに基づいて、推定データの信頼度を算出する処理と、を実行させる。
 ニューラルネットワークは、学習済みモデルであり、測定データは、物体を透過した光を測定することで得られたデータであり、推定データは、測定データから推定した物体の3次元光学特性のデータである。
 推定では、ニューラルネットワークを用い、復元では、推定データに対して順伝播演算を行い、順伝播演算では、測定データから推定した物体の内部を通過する波面を、光が進行する方向に順次求める。
 第2実施形態の記録媒体は、プログラムを記録したコンピュータ読み取り可能な記録媒体である。記録媒体には、メモリとプロセッサを備えたコンピュータに推定処理を実行させるためのプログラムが記録されている。
 推定処理では、物体の3次元光学特性を推定する。3次元光学特性は、屈折率分布又は吸収率分布である。
 プロセッサに、メモリに記憶した測定データを、ニューラルネットワークに入力する処理と、測定データから推定データを生成する処理と、推定データから復元データを生成する処理と、測定データと復元データに基づいて、推定データの信頼度を算出する処理と、信頼度に反比例する量を損失として、ニューラルネットワークが学習する処理と、を実行させる。
 測定データは、物体を透過した光を測定することで得られたデータであり、推定データは、測定データから推定した物体の3次元光学特性のデータである。
 推定では、ニューラルネットワークを用い、復元では、推定データに対して順伝播演算を行い、順伝播演算では、測定データから推定した物体の内部を通過する波面を、光が進行する方向に順次求める。
 本実施形態の学習方法は、推定データの信頼度を算出するニューラルネットワークに対する学習方法であって、推定データの信頼度は、測定データと復元データとに基づいて算出される。
 測定データは、物体を透過した光を測定することで得られたデータであり、推定データは、測定データから推定した物体の3次元光学特性のデータであり、3次元光学特性は、屈折率分布又は吸収率分布である。
 復元データは、推定データに対して順伝播演算を行って生成したデータであり、順伝播演算では、測定データから推定した物体の内部を通過する波面を、光が進行する方向に順に求める。
 本実施形態の学習方法では、第1学習データセットを用いて学習する第1学習ステップと、第2学習データセットを用いて学習する第2学習ステップと、を有し、第1学習ステップと第2学習ステップは、繰り返し実施される。
 第1学習データセットは、第1データ、第1補正データ、真偽のうち真を示す教師データを含み、第2学習データセットは、第1データ、第2補正データ、真偽のうち偽を示す教師データを含む。
 第1補正データは、第1データに補正処理を施したデータであり、第2補正データは、第2データに補正処理を施したデータであり、第2データは、第1データと異なる。
 第1データおよび第2データは、物体を透過した光を測定することで得られたデータ、若しくは、物体の3次元光学特性をモデル化した物体モデルに順伝播演算を行うことで生成したデータである。
 本実施形態の学習方法では、第1データに施す補正処理と第2データに施す補正処理は、変形処理、回転処理及びノイズ付加処理のうち、少なくとも1つの処理を含むことが好ましい。
 本実施形態の学習装置は、メモリと、プロセッサと、を備え、メモリは、測定データを記憶し、プロセッサは、推定データの信頼度を算出するニューラルネットワークに対して学習処理を実行する。
 推定データの信頼度は、測定データと復元データとに基づいて算出され、測定データは、物体を透過した光を測定することで得られたデータであり、推定データは、測定データから推定した物体の3次元光学特性のデータであり、3次元光学特性は、屈折率分布又は吸収率分布である。
 復元データは、推定データに対して順伝播演算を行って生成したデータであり、順伝播演算では、測定データから推定した物体の内部を通過する波面を、光が進行する方向に順に求める。
 学習処理は、第1学習データセットを用いて学習する第1学習ステップと、第2学習データセットを用いて学習する第2学習ステップと、を有し、第1学習ステップと第2学習ステップは、繰り返し実施される。
 第1学習データセットは、第1データ、第1補正データ、真偽のうち真を示す教師データを含み、第2学習データセットは、第1データ、第2補正データ、真偽のうち偽を示す教師データを含む。
 第1補正データは、第1データに補正処理を施したデータであり、第2補正データは、第2データに補正処理を施したデータであり、第2データは、第1データと異なる。
 第1データおよび第2データは、物体を透過した光を測定することで得られたデータ、若しくは、物体の3次元光学特性をモデル化した物体モデルに順伝播演算を行うことで生成したデータである。
 本実施形態の記録媒体を、第3実施形態の記録媒体を用いて説明する。
 第3実施形態の記録媒体は、プログラムを記録したコンピュータ読み取り可能な記録媒体である。記録媒体には、メモリとプロセッサを備えたコンピュータにニューラルネットワークに対する学習処理を実行させるためのプログラムが記録されている。
 ニューラルネットワークは、測定データと復元データとに基づいて推定データの信頼度を算出し、測定データは、物体を透過した光を測定することで得られたデータであり、推定データは、測定データから推定した物体の3次元光学特性のデータであり、3次元光学特性は、屈折率分布又は吸収率分布である。
 復元データは、推定データに対して順伝播演算を行って生成したデータであり、順伝播演算では、測定データから推定した物体の内部を通過する波面を、光が進行する方向に順に求める。
 第1学習データセットを用いて学習する第1学習ステップと、第2学習データセットを用いて学習する第2学習ステップと、を有し、第1学習ステップと第2学習ステップは、繰り返し実施される。
 第1学習データセットは、第1データ、第1補正データ、真偽のうち真を示す教師データを含み、第2学習データセットは、第1データ、第2補正データ、真偽のうち偽を示す教師データを含む。
 第1補正データは、第1データに補正処理を施したデータであり、第2補正データは、第2データに補正処理を施したデータであり、第2データは、第1データと異なる。
 第1データおよび第2データは、物体を透過した光を測定することで得られたデータ、若しくは、物体の3次元光学特性をモデル化した物体モデルに順伝播演算を行うことで生成したデータである。
 本発明は、推定の信頼度が分かる指標を生成するデータ処理方法、データ処理装置、三次元観察装置及び記録媒体、推定の信頼度が分かる指標を生成するための学習方法、学習装置及び記録媒体に適している。
 1 物体
 2 照明光
 3 撮像ユニット
 4 光学系
 5 撮像素子
 10 対物レンズ
 11 結像レンズ
 12 物体
 12’ 推定物体
 13 結像面
 20 データ処理装置
 21 メモリ
 22 プロセッサ
 30 三次元観察装置
 31 光源
 32 センサ
 33 物体
 34 シャーレ
 35 表示部
 40 三次元観察装置
 41 光源
 42 コリメートレンズ
 43 ハーフミラー
 44 ミラー
 45 ハーフミラー
 46 センサ
 50 照明系
 51、52 レンズ
 60 検出系
 61 対物レンズ
 62 ミラー
 63 結像レンズ
 IM 光学像
 IP 結像面
 Zfo 合焦位置
 P1、P2、PN 位置
 Ein1、Eout1、Ein2、Eout2、Eout 電場
 N1、N2 複素屈折率
 Win 入射波面
 Wout 出射波面
 Fo1Fo2 合焦位置
 θILL 照明角度

Claims (19)

  1.  測定データをニューラルネットワークに入力する入力ステップと、
     前記測定データから推定データを生成する推定ステップと、
     前記推定データから復元データを生成する復元ステップと、
     前記測定データと前記復元データに基づいて、前記推定データの信頼度を算出する算出ステップと、を有し、
     前記ニューラルネットワークは、学習済みモデルであり、
     前記測定データは、物体を透過した光を測定することで得られたデータであり、
     前記推定データは、前記測定データから推定した前記物体の3次元光学特性のデータであり、
     前記3次元光学特性は、屈折率分布又は吸収率分布であり、
     前記推定では、前記ニューラルネットワークを用い、
     前記復元では、前記推定データに対して順伝播演算を行い、
     前記順伝播演算では、前記測定データから推定した前記物体の内部を通過する波面を、光が進行する方向に順次求めることを特徴とするデータ処理方法。
  2.  測定データをニューラルネットワークに入力する入力ステップと、
     前記測定データから推定データを生成する推定ステップと、
     前記推定データから復元データを生成する復元ステップと、
     前記測定データと前記復元データに基づいて、前記推定データの信頼度を算出する算出ステップと、
     前記信頼度に反比例する量を損失として、前記ニューラルネットワークが学習する学習ステップと、を有し、
     前記測定データは、物体を透過した光を測定することで得られたデータであり、
     前記推定データは、前記測定データから推定した前記物体の3次元光学特性のデータであり、
     前記3次元光学特性は、屈折率分布又は吸収率分布であり、
     前記推定では、前記ニューラルネットワークを用い、
     前記復元では、前記推定データに対して順伝播演算を行い、
     前記順伝播演算では、前記測定データから推定した前記物体の内部を通過する波面を、光が進行する方向に順次求めることを特徴とするデータ処理方法。
  3.  前記測定データと前記復元データとの差を算出し、
     前記差に基づいて前記信頼度を算出することを特徴とする請求項1又は2に記載のデータ処理方法。
  4.  前記測定データと前記復元データとの相関を算出し、
     前記相関に基づいて前記信頼度を算出することを特徴とする請求項1又は2に記載のデータ処理方法。
  5.  前記測定データと前記復元データとの差の二乗和を算出し、
     前記差の二乗和の大きさに基づいて前記信頼度を算出することを特徴とする請求項1又は2に記載のデータ処理方法。
  6.  第1ニューラルネットワークと、第2ニューラルネットワークと、を有し、
     前記第1ニューラルネットワークは、前記ニューラルネットワークであり、
     前記第2ニューラルネットワークは、学習済みモデルであり、
     前記第2ニューラルネットワークを用いて、前記信頼度を算出することを特徴とする請求項1又は2に記載のデータ処理方法。
  7.  前記第2ニューラルネットワークは、第1学習データセット群と第2学習データセット群を用いて学習を行い、
     前記第1学習データセット群は、複数の第1学習データセットを有し、
     前記第1学習データセットは、第1データ、第1補正データ、及び真偽のうち真を示す教師データを含み、
     前記第2学習データセット群は、複数の第2学習データセットを有し、
     前記第2学習データセットは、前記第1データ、第2補正データ、及び真偽のうち偽を示す教師データを含み、
     前記第1補正データは、前記第1データに補正処理を施したデータであり、
     前記第2補正データは、第2データに補正処理を施したデータであり、
     前記第2データは、前記第1データと異なり、
     前記第1データおよび前記第2データは、前記物体を透過した光を測定することで得られたデータ、若しくは、前記物体の3次元光学特性をモデル化した物体モデルに順伝播演算を行うことで生成したデータであることを特徴とする請求項6に記載のデータ処理方法。
  8.  前記信頼度を提示する提示ステップを、更に備えることを特徴とする請求項1に記載のデータ処理方法。
  9.  メモリと、プロセッサと、を備え、
     前記メモリは、測定データを記憶し、
     前記プロセッサは、物体の3次元光学特性を推定する推定処理を実行し、
     前記3次元光学特性は、屈折率分布又は吸収率分布であり、
     前記推定処理は、
     前記測定データをニューラルネットワークに入力する入力ステップと、
     前記測定データから推定データを生成する推定ステップと、
     前記推定データから復元データを生成する復元ステップと、
     前記測定データと前記復元データに基づいて、前記推定データの信頼度を算出する算出ステップと、を有し、
     前記ニューラルネットワークは、学習済みモデルであり、
     前記測定データは、前記物体を透過した光を測定することで得られたデータであり、
     前記推定データは、前記測定データから推定した前記物体の3次元光学特性のデータであり、
     前記推定では、前記ニューラルネットワークを用い、
     前記復元では、前記推定データに対して順伝播演算を行い、
     前記順伝播演算では、前記測定データから推定した前記物体の内部を通過する波面を、光が進行する方向に順次求めることを特徴とするデータ処理装置。
  10.  メモリと、プロセッサと、を備え、
     前記メモリは、測定データを記憶し、
     前記プロセッサは、物体の3次元光学特性を推定する推定処理を実行し、
     前記3次元光学特性は、屈折率分布又は吸収率分布であり、
     前記推定処理は、
     前記測定データをニューラルネットワークに入力する入力ステップと、
     前記測定データから推定データを生成する推定ステップと、
     前記推定データから復元データを生成する復元ステップと、
     前記測定データと前記復元データに基づいて、前記推定データの信頼度を算出する算出ステップと、
     前記信頼度に反比例する量を損失として、前記ニューラルネットワークが学習する学習ステップと、を有し、
     前記測定データは、前記物体を透過した光を測定することで得られたデータであり、
     前記推定データは、前記測定データから推定した前記物体の3次元光学特性のデータであり、
     前記推定では、前記ニューラルネットワークを用い、
     前記復元では、前記推定データに対して順伝播演算を行い、
     前記順伝播演算では、前記測定データから推定した前記物体の内部を通過する波面を、光が進行する方向に順次求めることを特徴とするデータ処理装置。
  11.  請求項9又は10に記載のデータ処理装置と、
     前記物体を照明する光を出射する光源と、
     前記物体を透過した光を受光し、信号を生成するセンサと、を有することを特徴とする三次元観察装置。
  12.  前記物体に照明光を照射する照明系と、
     前記照明光を前記物体に導き、前記物体を透過した光を前記センサに導く光学系と、を有することを特徴とする請求項11に記載の三次元観察装置。
  13.  前記信頼度を提示する提示部を更に備えることを特徴とする請求項11又は12に記載の三次元観察装置。
  14.  メモリとプロセッサを備えたコンピュータに推定処理を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
     前記推定処理では、物体の3次元光学特性を推定し、
     前記3次元光学特性は、屈折率分布又は吸収率分布であり、
     前記プロセッサに、
     前記メモリに記憶した測定データを、ニューラルネットワークに入力する処理と、
     前記測定データから推定データを生成する処理と、
     前記推定データから復元データを生成する処理と、
     前記測定データと前記復元データに基づいて、前記推定データの信頼度を算出する処理と、を実行させ、
     前記ニューラルネットワークは、学習済みモデルであり、
     前記測定データは、物体を透過した光を測定することで得られたデータであり、
     前記推定データは、前記測定データから推定した前記物体の3次元光学特性のデータであり、
     前記推定では、前記ニューラルネットワークを用い、
     前記復元では、前記推定データに対して順伝播演算を行い、
     前記順伝播演算では、前記測定データから推定した前記物体の内部を通過する波面を、光が進行する方向に順次求めることを特徴とするプログラムを記録したコンピュータ読み取り可能な記録媒体。
  15.  メモリとプロセッサを備えたコンピュータに推定処理を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
     前記推定処理では、物体の3次元光学特性を推定し、
     前記3次元光学特性は、屈折率分布又は吸収率分布であり、
     前記プロセッサに、
     前記メモリに記憶した測定データを、ニューラルネットワークに入力する処理と、
     前記測定データから推定データを生成する処理と、
     前記推定データから復元データを生成する処理と、
     前記測定データと前記復元データに基づいて、前記推定データの信頼度を算出する処理と、
     前記信頼度に反比例する量を損失として、前記ニューラルネットワークが学習する処理と、を実行させ、
     前記測定データは、物体を透過した光を測定することで得られたデータであり、
     前記推定データは、前記測定データから推定した前記物体の3次元光学特性のデータであり、
     前記推定では、前記ニューラルネットワークを用い、
     前記復元では、前記推定データに対して順伝播演算を行い、
     前記順伝播演算では、前記測定データから推定した前記物体の内部を通過する波面を、光が進行する方向に順次求めることを特徴とするプログラムを記録したコンピュータ読み取り可能な記録媒体。
  16.  推定データの信頼度を算出するニューラルネットワークに対する学習方法であって、
     前記推定データの信頼度は、測定データと復元データとに基づいて算出され、
     前記測定データは、物体を透過した光を測定することで得られたデータであり、
     前記推定データは、前記測定データから推定した前記物体の3次元光学特性のデータであり、
     前記3次元光学特性は、屈折率分布又は吸収率分布であり、
     前記復元データは、前記推定データに対して順伝播演算を行って生成したデータであり、
     前記順伝播演算では、前記測定データから推定した前記物体の内部を通過する波面を、光が進行する方向に順に求め、
     第1学習データセットを用いて学習する第1学習ステップと、
     第2学習データセットを用いて学習する第2学習ステップと、を有し、
     前記第1学習ステップと前記第2学習ステップは、繰り返し実施され、
     前記第1学習データセットは、第1データ、第1補正データ、真偽のうち真を示す教師データを含み、
     前記第2学習データセットは、前記第1データ、第2補正データ、真偽のうち偽を示す前記教師データを含み、
     前記第1補正データは、前記第1データに補正処理を施したデータであり、
     前記第2補正データは、第2データに補正処理を施したデータであり、
     前記第2データは、前記第1データと異なり、
     前記第1データおよび前記第2データは、前記物体を透過した光を測定することで得られたデータ、若しくは、前記物体の3次元光学特性をモデル化した物体モデルに順伝播演算を行うことで生成したデータであることを特徴とするニューラルネットワークの学習方法。
  17.  前記第1データに施す補正処理と前記第2データに施す補正処理は、変形処理、回転処理及びノイズ付加処理のうち、少なくとも1つの処理を含むことを特徴とする請求項16に記載のニューラルネットワークの学習方法。
  18.  メモリと、プロセッサと、を備え、
     前記メモリは、測定データを記憶し、
     前記プロセッサは、推定データの信頼度を算出するニューラルネットワークに対して学習処理を実行し、
     前記推定データの信頼度は、前記測定データと復元データとに基づいて算出され、
     前記測定データは、物体を透過した光を測定することで得られたデータであり、
     前記推定データは、前記測定データから推定した前記物体の3次元光学特性のデータであり、
     前記3次元光学特性は、屈折率分布又は吸収率分布であり、
     前記復元データは、前記推定データに対して順伝播演算を行って生成したデータであり、
     前記順伝播演算では、前記測定データから推定した前記物体の内部を通過する波面を、光が進行する方向に順に求め、
     前記学習処理は、
     第1学習データセットを用いて学習する第1学習ステップと、
     第2学習データセットを用いて学習する第2学習ステップと、を有し、
     前記第1学習ステップと前記第2学習ステップは、繰り返し実施され、
     前記第1学習データセットは、第1データ、第1補正データ、真偽のうち真を示す教師データを含み、
     前記第2学習データセットは、前記第1データ、第2補正データ、真偽のうち偽を示す前記教師データを含み、
     前記第1補正データは、前記第1データに補正処理を施したデータであり、
     前記第2補正データは、第2データに補正処理を施したデータであり、
     前記第2データは、前記第1データと異なり、
     前記第1データおよび前記第2データは、前記物体を透過した光を測定することで得られたデータ、若しくは、前記物体の3次元光学特性をモデル化した物体モデルに順伝播演算を行うことで生成したデータであることを特徴とする学習装置。
  19.  メモリとプロセッサを備えたコンピュータにニューラルネットワークに対する学習処理を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
     前記ニューラルネットワークは、測定データと復元データとに基づいて推定データの信頼度を算出し、
     前記測定データは、物体を透過した光を測定することで得られたデータであり、
     前記推定データは、前記測定データから推定した前記物体の3次元光学特性のデータであり、
     前記3次元光学特性は、屈折率分布又は吸収率分布であり、
     前記復元データは、前記推定データに対して順伝播演算を行って生成したデータであり、
     前記順伝播演算では、前記測定データから推定した前記物体の内部を通過する波面を、光が進行する方向に順に求め、
     第1学習データセットを用いて学習する第1学習ステップと、
     第2学習データセットを用いて学習する第2学習ステップと、を有し、
     前記第1学習ステップと前記第2学習ステップは、繰り返し実施され、
     前記第1学習データセットは、第1データ、第1補正データ、真偽のうち真を示す教師データを含み、
     前記第2学習データセットは、前記第1データ、第2補正データ、真偽のうち偽を示す前記教師データを含み、
     前記第1補正データは、前記第1データに補正処理を施したデータであり、
     前記第2補正データは、第2データに補正処理を施したデータであり、
     前記第2データは、前記第1データと異なり、
     前記第1データおよび前記第2データは、前記物体を透過した光を測定することで得られたデータ、若しくは、前記物体の3次元光学特性をモデル化した物体モデルに順伝播演算を行うことで生成したデータであることを特徴とするプログラムを記録したコンピュータ読み取り可能な記録媒体。
     
PCT/JP2021/010772 2021-03-17 2021-03-17 データ処理方法、データ処理装置、三次元観察装置、学習方法、学習装置及び記録媒体 WO2022195754A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2023506581A JPWO2022195754A1 (ja) 2021-03-17 2021-03-17
PCT/JP2021/010772 WO2022195754A1 (ja) 2021-03-17 2021-03-17 データ処理方法、データ処理装置、三次元観察装置、学習方法、学習装置及び記録媒体
US18/464,510 US20230419112A1 (en) 2021-03-17 2023-09-11 Data processing method and learning method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/010772 WO2022195754A1 (ja) 2021-03-17 2021-03-17 データ処理方法、データ処理装置、三次元観察装置、学習方法、学習装置及び記録媒体

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/464,510 Continuation US20230419112A1 (en) 2021-03-17 2023-09-11 Data processing method and learning method

Publications (1)

Publication Number Publication Date
WO2022195754A1 true WO2022195754A1 (ja) 2022-09-22

Family

ID=83320135

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/010772 WO2022195754A1 (ja) 2021-03-17 2021-03-17 データ処理方法、データ処理装置、三次元観察装置、学習方法、学習装置及び記録媒体

Country Status (3)

Country Link
US (1) US20230419112A1 (ja)
JP (1) JPWO2022195754A1 (ja)
WO (1) WO2022195754A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016017533A1 (ja) * 2014-07-29 2016-02-04 国立大学法人浜松医科大学 識別装置および識別方法
KR20170140473A (ko) * 2016-06-10 2017-12-21 주식회사 토모큐브 3차원 굴절률 토모그램과 딥러닝을 이용한 비염색 비표지 세포 종류 구분 방법 및 장치
CN107958475A (zh) * 2017-12-19 2018-04-24 清华大学 基于深度学习生成网络的变角度光照层析方法及装置
US20190333199A1 (en) * 2018-04-26 2019-10-31 The Regents Of The University Of California Systems and methods for deep learning microscopy

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016017533A1 (ja) * 2014-07-29 2016-02-04 国立大学法人浜松医科大学 識別装置および識別方法
KR20170140473A (ko) * 2016-06-10 2017-12-21 주식회사 토모큐브 3차원 굴절률 토모그램과 딥러닝을 이용한 비염색 비표지 세포 종류 구분 방법 및 장치
CN107958475A (zh) * 2017-12-19 2018-04-24 清华大学 基于深度学习生成网络的变角度光照层析方法及装置
US20190333199A1 (en) * 2018-04-26 2019-10-31 The Regents Of The University Of California Systems and methods for deep learning microscopy

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
QU YURUI, ZHU HUANZHENG, SHEN YICHEN, ZHANG JIN, TAO CHENNING, GHOSH PINTU, QIU MIN: "Inverse design of an integrated-nanophotonics optical neural network", SCIENCE BULLETIN, ZHONGGUO KEXUE ZAZHISHE, CN, vol. 65, no. 14, 1 July 2020 (2020-07-01), CN , pages 1177 - 1183, XP055971590, ISSN: 2095-9273, DOI: 10.1016/j.scib.2020.03.042 *

Also Published As

Publication number Publication date
JPWO2022195754A1 (ja) 2022-09-22
US20230419112A1 (en) 2023-12-28

Similar Documents

Publication Publication Date Title
US11790510B2 (en) Material testing of optical test pieces
JP4594114B2 (ja) 画像処理装置および屈折率分布測定装置
JP2022516467A (ja) 深層学習を使用した表面への2次元蛍光波伝播システムと方法
US12020165B2 (en) System and method for transforming holographic microscopy images to microscopy images of various modalities
US20240184359A1 (en) Eye tracking in near-eye displays
Zhu et al. DNF: diffractive neural field for lensless microscopic imaging
US20200110017A1 (en) Method for determining parameters of a particle
CN111008945A (zh) 基于机器学习的多像质参数自适应像差矫正方法及装置
Gao et al. Distortion correction for particle image velocimetry using multiple-input deep convolutional neural network and Hartmann-Shack sensing
Abdulaziz et al. Robust real-time imaging through flexible multimode fibers
Guo et al. Dynamic imaging through random perturbed fibers via physics-informed learning
US11386594B2 (en) Holographic reconstruction method
WO2022195754A1 (ja) データ処理方法、データ処理装置、三次元観察装置、学習方法、学習装置及び記録媒体
CN102109329A (zh) 厚度信息获取装置、方法和程序以及显微镜
Rawat et al. cGAN-assisted imaging through stationary scattering media
Buat et al. Learning scene and blur model for active chromatic depth from defocus
Heizmann et al. Imaging and analysis of forensic striation marks
US20220189026A1 (en) Method for detecting a cell event
JP7133718B2 (ja) 屈折率分布推定システム
RU2693532C1 (ru) Способ повышения точности геометрических измерений, проводимых с помощью стереоскопического устройства на основе призменно-линзовой оптической системы
Picos et al. Evolutionary correlation filtering based on pseudo-bacterial genetic algorithm for pose estimation of highly occluded targets
Zhang et al. Depth error correction for plenoptic cameras based on an innovative AR system combining geometrical waveguide and micro-lens array
Cao et al. Effects of Imperfection and Noise on the Image Reconstruction Through a Multimode Fiber with a Neural Network
Hughes et al. Improved resolution in fiber bundle inline holographic microscopy using multiple illumination sources
US20230273418A1 (en) Method and illumination device of the adaptive optics in transmission or reflection microscopy

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21931506

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023506581

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21931506

Country of ref document: EP

Kind code of ref document: A1