WO2022163230A1 - 粒子径推定方法、学習モデル生成方法、粒子径推定装置、及びコンピュータプログラム - Google Patents

粒子径推定方法、学習モデル生成方法、粒子径推定装置、及びコンピュータプログラム Download PDF

Info

Publication number
WO2022163230A1
WO2022163230A1 PCT/JP2021/047522 JP2021047522W WO2022163230A1 WO 2022163230 A1 WO2022163230 A1 WO 2022163230A1 JP 2021047522 W JP2021047522 W JP 2021047522W WO 2022163230 A1 WO2022163230 A1 WO 2022163230A1
Authority
WO
WIPO (PCT)
Prior art keywords
particle
particle size
particles
learning model
scattered light
Prior art date
Application number
PCT/JP2021/047522
Other languages
English (en)
French (fr)
Inventor
嘉健 安藤
哲也 森
Original Assignee
株式会社堀場製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社堀場製作所 filed Critical 株式会社堀場製作所
Priority to JP2022578159A priority Critical patent/JPWO2022163230A1/ja
Publication of WO2022163230A1 publication Critical patent/WO2022163230A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/02Investigating particle size or size distribution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Definitions

  • the present invention relates to a particle size estimation method, a learning model generation method, a particle size estimation device, and a computer program for estimating the particle size of particles contained in a sample.
  • Patent Literature 1 discloses a technique for measuring particle diameters by a particle tracking method.
  • the particle tracking method multiple particles dispersed in a dispersion medium are irradiated with light of multiple wavelengths, moving images of the multiple particles are acquired, and the diffusion coefficient of each particle is calculated from the moving speed of each particle. Since the diffusion coefficient is a value related to the particle size, the particle size of each particle is calculated based on the diffusion coefficient to obtain the particle size distribution.
  • the particle tracking method With the particle tracking method, it takes a long time to acquire moving images and calculate the particle size distribution. Moreover, in order to adjust the measurement conditions such as the intensity ratio of light of a plurality of wavelengths, it is necessary to conduct a preliminary experiment, and the preliminary experiment also requires a long time. Therefore, there is a demand for a technique capable of estimating the particle size in a shorter period of time.
  • the present invention has been made in view of such circumstances, and an object of the present invention is to provide a particle size estimation method capable of estimating a particle size in a short time by using a learning model, and a learning model. It is to provide a generation method, a particle size estimation device, and a computer program.
  • a liquid dispersion medium in which a plurality of particles are dispersed is irradiated with light, an image of scattered light from the dispersion medium is generated, and from the image, from each particle Input the generated feature amount of each particle to a learning model that outputs the particle diameter of the particle when the particle feature amount is input, and the learning It is characterized by acquiring the particle diameter of each particle output by the model.
  • a feature amount of each particle is generated based on an image obtained by photographing scattered light from a liquid dispersion medium in which a plurality of particles are dispersed, and a particle of each particle is generated using a learning model.
  • the feature quantity includes the intensity of scattered light from each particle.
  • the learning model outputs the particle size when the feature amount of the particle is input. Since the feature quantity such as the intensity of the scattered light changes according to the particle diameter, it is possible to generate a learning model that outputs the particle diameter by learning when the feature quantity including the intensity of the scattered light is input. It is not necessary to spend a long time acquiring moving images and calculating the distribution of particle sizes to estimate the particle size. Therefore, it is possible to estimate the particle diameters of a plurality of particles in a shorter time than conventionally.
  • the particle size estimation method includes irradiating a liquid dispersion medium in which a plurality of particles are dispersed with light of a plurality of wavelengths, generating an image of scattered light from the dispersion medium, and generating the image , a characteristic amount of each particle including the intensity of scattered light of a plurality of wavelengths from each particle is generated.
  • a feature amount of each particle is generated based on an image obtained by photographing scattered light of a plurality of wavelengths from a liquid dispersion medium in which a plurality of particles are dispersed, and using a learning model, Estimate the particle size of each particle.
  • the feature quantity includes the intensity of scattered light of multiple wavelengths from each particle.
  • the learning model outputs the particle size when the feature amount of the particle is input.
  • the intensity of scattered light at each wavelength changes according to the particle size. Therefore, it is possible to generate a learning model that outputs the particle diameter when the feature amount of the particle is input. It is not necessary to spend a long time acquiring moving images and calculating the distribution of particle sizes to estimate the particle size. Therefore, it is possible to estimate the particle diameters of a plurality of particles in a shorter time than conventionally.
  • the particle size estimation method according to the present invention is characterized in that the feature quantity includes an intensity ratio of scattered light of a plurality of wavelengths from each particle.
  • the particle feature amount includes the intensity ratio of scattered light of multiple wavelengths. Since the intensity ratio of scattered light of multiple wavelengths changes according to the particle diameter, a learning model is generated by learning that outputs the particle diameter when a feature value including the intensity ratio of scattered light of multiple wavelengths is input. It is possible. Therefore, the learning model can be used to estimate the particle size of each particle.
  • the particle size estimation method according to the present invention is characterized in that the feature quantity includes the area within the image of the scattered lights of a plurality of wavelengths from each particle.
  • the particle feature quantity includes the area within the image of the scattered light of multiple wavelengths. Since the area of scattered light changes according to the particle diameter, it is possible to generate a learning model that outputs the particle diameter when a feature amount including the area of scattered light of multiple wavelengths is input. Therefore, the learning model can be used to estimate the particle size of each particle.
  • the feature quantity consists of the intensity of scattered light of a plurality of wavelengths from the particles and the area of the scattered light of a plurality of wavelengths from the particles in the image
  • the learning The model is characterized in that the feature quantities of the plurality of particles and the particle diameters of the plurality of particles measured by a particle tracking method are used as training data for learning.
  • a learning model is trained using feature quantities consisting of the intensity and area of scattered light of multiple wavelengths from particles and particle diameters measured by the particle tracking method as training data. Since the learning model is learned using the results of the particle tracking method, it is possible to obtain a particle size close to the value obtained by the particle tracking method.
  • the learning model calculates the particle size of the particles when inputting the characteristic amount of the particles and the viscosity, temperature, or refractive index of the dispersion medium in which the particles are dispersed. It is characterized in that the viscosity, temperature, or refractive index of the dispersion medium in which the plurality of particles are dispersed is input to the learning model, in addition to the characteristic amount of each generated particle.
  • the learning model outputs the particle diameter when the feature amount of the particles and the viscosity, temperature, or refractive index of the dispersion medium in which the particles are dispersed are input.
  • the diffusion coefficient of particles varies depending on the viscosity and temperature of the dispersion medium.
  • the scattered light is affected by the refractive index of the dispersion medium. Therefore, it is possible to generate a learning model that outputs the particle size when the viscosity, temperature, or refractive index of the dispersion medium is input in addition to the feature amount of the particle.
  • the image includes a plurality of still images obtained by photographing the scattered light multiple times, or a moving image obtained by continuously photographing the scattered light, and the plurality of still images or the moving image From the image, for each particle, a plurality of sets of feature values corresponding to the passage of time are generated, and the learning model learns to output the particle diameter of the particles when the plurality of sets of feature values of the particles are input. It is characterized by inputting a plurality of sets of feature quantities generated for each particle to the learning model.
  • multiple sets of feature values are generated for each particle based on multiple still images or moving images obtained by photographing scattered light.
  • the learning model outputs the particle size when multiple pairs of feature quantities are input. More information about the scattered light scattered by the particles is utilized to more accurately estimate particle size.
  • the particle size estimation method according to the present invention is characterized by generating the particle size distribution of the plurality of particles based on the obtained particle size of each particle.
  • the particle size distribution of the plurality of particles is obtained by estimating the particle size of each of the plurality of particles. Based on the obtained particle size distribution, it is possible to investigate or adjust the substance containing the particles.
  • a learning model generation method is a method for generating a plurality of particles from each particle, obtained from an image obtained by capturing scattered light from a dispersion medium of a liquid in which a plurality of particles are dispersed and irradiated with light of a plurality of wavelengths.
  • Acquired training data including the feature amount of each particle including the intensity of the scattered light of the wavelength and the particle size of each particle measured by the particle tracking method, and entered the feature amount of the particle based on the training data. It is characterized by generating a learning model that outputs the particle diameter of the particle when the particle is detected.
  • the feature amount of particles obtained from an image of scattered light from a liquid dispersion medium in which a plurality of particles are dispersed and the particle diameter measured by a particle tracking method are used as training data.
  • the learning model is learned.
  • a learning model is generated that outputs the particle size when the feature amount of the particle is input.
  • a particle size estimation device includes an irradiation unit for irradiating a liquid dispersion medium in which a plurality of particles are dispersed with light of a plurality of wavelengths, and an image for generating an image of scattered light from the dispersion medium.
  • a generation unit, a feature amount generation unit that generates a feature amount of each particle including the intensity of scattered light of a plurality of wavelengths from each particle from the image, and a feature amount of each particle when the feature amount is input for each particle and a learning model that outputs the particle size.
  • the particle size estimating apparatus generates and learns the feature amount of each particle based on an image obtained by photographing scattered light of a plurality of wavelengths from a liquid dispersion medium in which a plurality of particles are dispersed.
  • a model is used to estimate the particle size of each particle.
  • the feature quantity includes the intensity of scattered light of multiple wavelengths from each particle.
  • the learning model outputs the particle size when the feature amount of the particle is input. It is possible to estimate the particle diameters of a plurality of particles in a shorter time than in the past without the need to spend a long time acquiring moving images and calculating the particle diameter distribution for estimating particle diameters.
  • the particle size estimation device is characterized in that the image generation unit has a single imaging device and generates an image of scattered light captured by the imaging device.
  • the particle size estimation device generates an image showing scattered light captured by a single imaging device. Therefore, the particle size estimating device can generate an image obtained by photographing the scattered lights of a plurality of wavelengths generated at the same time. The particle size estimator can more accurately generate a feature quantity according to the difference in wavelengths than when estimating the particle size based on scattered light of a plurality of wavelengths generated at different timings.
  • the particle size estimation device further comprises a particle size distribution calculator that calculates the particle size distribution of the plurality of particles based on the particle size of each particle, and a display that displays the particle size distribution. It is characterized by
  • the particle size estimation device calculates and displays the particle size distribution of a plurality of particles. It shows how the particle size is distributed among a plurality of particles. Based on the obtained particle size distribution, it is possible to investigate or adjust the substance containing the particles.
  • a computer program calculates a feature amount of each particle, including the intensity of scattered light of a plurality of wavelengths from each particle, based on an image obtained by photographing scattered light from a liquid dispersion medium in which a plurality of particles are dispersed.
  • a process of inputting the feature value of each generated particle to a learning model that outputs the particle size of the particle when the feature value of the particle is input, and acquiring the particle size of each particle output by the learning model. is executed by a computer.
  • a computer program generates a feature amount of each particle based on an image of scattered light of a plurality of wavelengths from a liquid dispersion medium in which a plurality of particles are dispersed, and a learning model is generated. is used to estimate the particle size of each particle.
  • the learning model outputs the particle size when the feature amount of the particle is input. It is possible to estimate the particle diameters of a plurality of particles in a shorter time than in the past without the need to spend a long time acquiring moving images and calculating the particle diameter distribution for estimating particle diameters.
  • the present invention it is possible to estimate the particle size of multiple particles in a shorter time than before. Therefore, the present invention has excellent effects such as shortening the time required for the preliminary experiment by performing the process of estimating the particle diameter as a preliminary experiment for the particle tracking method.
  • FIG. 1 is a block diagram showing the configuration of a particle size estimation device according to Embodiment 1.
  • FIG. 3 is a block diagram showing an example of the internal functional configuration of an information processing unit;
  • FIG. 4 is a conceptual diagram showing an example of functions of a learning model;
  • FIG. 4 is a conceptual diagram showing a configuration example of a learning model;
  • 1 is a block diagram showing a configuration example of a learning device for learning a learning model;
  • FIG. 4 is a flow chart showing a procedure of processing for generating a learning model; 4 is a flowchart showing a procedure of particle size estimation processing executed by a particle size estimation device.
  • FIG. 4 is a schematic diagram showing an example of a particle size distribution graph;
  • FIG. 10 is a conceptual diagram showing a function example of a learning model that uses the feature amount of a dispersion medium;
  • 2 is a block diagram showing the configuration of a particle size estimation device according to Embodiment 2.
  • FIG. 3 is a block diagram
  • FIG. 1 is a block diagram showing the configuration of a particle size estimation device 1 according to Embodiment 1.
  • the particle size estimation device 1 executes a particle size estimation method.
  • the particle size estimation device 1 irradiates light onto a liquid dispersion medium in which a plurality of particles are dispersed, generates an image of scattered light from the dispersion medium, and estimates the particle size of each particle based on the generated image. process.
  • the particle diameter is the equivalent sphere diameter, which corresponds to the diameter of a sphere assuming that the particle is a perfect sphere.
  • the particle size may be a geometric diameter observable with a microscope such as an equivalent circle diameter or Feret diameter, a sieve diameter, an equivalent diffusion coefficient diameter, or a Stokes diameter.
  • Sample 3 is a liquid dispersion medium in which a plurality of particles to be processed for estimating the particle size are dispersed.
  • a particle is part of a powder that is used as one of the materials of the artifact.
  • the liquid dispersion medium is, for example, water or an organic solvent. Sample 3 is housed in a transparent cell.
  • the particle size estimation device 1 includes an irradiation unit 11 for irradiating the sample 3 with light.
  • the irradiation section 11 has a plurality of laser light sources 111 , 112 and 113 .
  • the laser light sources 111, 112 and 113 emit laser light of different wavelengths. For example, the laser light source 111 emits red laser light, the laser light source 112 emits green laser light, and the laser light source 113 emits blue laser light.
  • the particle size estimation device 1 has a mirror 141 , a half mirror 142 and a half mirror 143 .
  • a laser beam from the laser light source 111 is reflected by the mirror 141 and passes through the half mirrors 142 and 143 .
  • a laser beam from the laser light source 112 is reflected by the half mirror 142 and passes through the half mirror 143 .
  • a laser beam from the laser light source 113 is reflected by the half mirror 143 .
  • the laser beams emitted by the laser light sources 111, 112 and 113 are collectively applied to the sample 3.
  • FIG. The same position of the sample 3 is irradiated with laser beams of a plurality of wavelengths.
  • the irradiation unit 11 irradiates the sample 3 with light of a plurality of wavelengths.
  • the light with which the sample 3 is irradiated is indicated by solid arrows.
  • the light irradiated to the sample 3 is scattered by particles contained in the sample 3 to generate scattered light.
  • scattered light is indicated by dashed arrows.
  • the particle size estimation device 1 includes a lens 151 , a filter 152 , and an imaging unit 12 that captures scattered light generated from the sample 3 . Scattered light from the sample 3 is collected by the lens 151 , passes through the filter 152 , and enters the imaging section 12 .
  • the imaging unit 12 has a single imaging device 121 .
  • the photographing unit 12 is configured to generate a still color image as an image obtained by photographing the scattered light from the sample 3 using the imaging device 121 .
  • the particle size estimation apparatus 1 includes an optical system for irradiating the sample 3 with light from the irradiation unit 11 and causing scattered light to enter the imaging unit 12 .
  • An optical system is composed of a plurality of optical components such as lenses and mirrors.
  • Mirror 141, half mirrors 142 and 143, lens 151, and filter 152 are included in the optical system.
  • the optical system may include optical components (not shown) other than mirror 141 , half mirrors 142 and 143 , lens 151 and filter 152 .
  • the particle size estimation device 1 includes a control unit 13.
  • the control unit 13 includes a calculation unit that executes calculations for controlling each unit of the particle size estimation device 1, and a memory.
  • the irradiation unit 11 and the imaging unit 12 are connected to the control unit 13 .
  • the control unit 13 controls the irradiation unit 11 and the imaging unit 12 .
  • the control unit 13 can adjust various conditions such as the emission intensity of the laser light sources 111 , 112 and 113 when generating an image.
  • the particle size estimation device 1 includes an information processing section 2 that performs information processing for estimating the particle size based on an image.
  • the information processing section 2 is connected to the control section 13 .
  • FIG. 2 is a block diagram showing an example of the internal functional configuration of the information processing section 2.
  • the information processing section 2 is configured using a computer such as a personal computer.
  • the information processing section 2 includes a calculation section 21 , a memory 22 , a drive section 23 , a storage section 24 , an operation section 25 , a display section 26 and an interface section 27 .
  • the calculation unit 21 is configured using, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), or a multi-core CPU.
  • the calculation unit 21 may be configured using a quantum computer.
  • the memory 22 stores temporary data generated along with computation.
  • the memory 22 is, for example, a RAM (Random Access Memory)
  • the drive unit 23 reads information from a recording medium 20 such as an optical disc.
  • the storage unit 24 is non-volatile, such as a hard disk.
  • the operation unit 25 accepts information such as text by accepting an operation from the user.
  • the operating unit 25 is, for example, a keyboard, pointing device, or touch panel.
  • the display unit 26 displays images.
  • the display unit 26 is, for example, a liquid crystal display or an EL display (Electroluminescent Display).
  • the interface section 27 is connected to the control section 13 .
  • the interface unit 27 transmits and receives data to and from the control unit 13 .
  • the calculation unit 21 causes the drive unit 23 to read the computer program 241 recorded on the recording medium 20 and causes the storage unit 24 to store the read computer program 241 .
  • the calculation unit 21 executes processing necessary for the information processing unit 2 according to the computer program 241 .
  • the computer program 241 may be downloaded from outside the information processing section 2 .
  • the information processing section 2 does not have to include the drive section 23 .
  • the information processing section 2 may be configured using a plurality of computers.
  • the information processing section 2 and the control section 13 may be integrally configured.
  • one computer may serve as both the functions of the control unit 13 and the information processing unit 2 .
  • the information processing section 2 may be connected to the control section 13 via a communication network such as the Internet. A part or all of the functions of the information processing section 2 may be implemented in the cloud.
  • the particle size estimation device 1 generates an image of the scattered light generated from the sample 3, generates a feature amount of each particle contained in the sample 3 from the generated image, and calculates each particle from the feature amount of each particle. A process for estimating the particle size is performed.
  • the information processing section 2 has a learning model 28 that is used to acquire the particle diameter of each particle based on the feature amount of each particle generated from the image. The learning model 28 is trained so as to output the particle size of a particle when the feature amount of the particle including the intensity of the scattered light from the particle obtained from the image is input.
  • the learning model 28 is realized by the computing section 21 executing information processing according to the computer program 241 .
  • the storage unit 24 stores data necessary for realizing the learning model 28 .
  • the learning model 28 may be configured using hardware.
  • the learning model 28 may be configured by hardware including a processor and memory for storing necessary programs and data.
  • learning model 28 may be implemented using a quantum computer.
  • the learning model 28 may be provided outside the information processing section 2 , and the information processing section 2 may execute processing using the external learning model 28 .
  • the irradiation unit 11 irradiates the sample 3 with light of a plurality of wavelengths by irradiating the sample 3 with laser light from the laser light sources 111 , 112 and 113 .
  • Sample 3 is a liquid dispersion medium in which a plurality of particles are dispersed.
  • the light applied to the sample 3 is scattered by particles contained in the sample 3 to generate scattered light.
  • the imaging unit 12 uses the imaging element 121 to generate an image of the scattered light.
  • the information processing unit 2 generates a plurality of monochromatic images, each of which reflects scattered light of any wavelength, from the image generated by the photographing unit 12 .
  • the information processing section 2 generates a feature amount of each particle based on a plurality of monochromatic images.
  • the feature amount of a particle includes the intensity of scattered light of each wavelength scattered by the particle and the area of the scattered light of each wavelength in a monochromatic image.
  • the information processing unit 2 inputs the feature amount to the learning model 28 for each particle.
  • FIG. 3 is a conceptual diagram showing an example of the functions of the learning model 28.
  • the learning model 28 is trained in advance so that when the feature amount of one particle is input, the particle diameter of the particle is output.
  • the learning model 28 is input with the intensity of scattered light of a plurality of wavelengths and the area of scattered light of a plurality of wavelengths as the feature quantity of one particle.
  • the learning model 28 outputs the particle size of the particle.
  • FIG. 4 is a conceptual diagram showing a configuration example of the learning model 28.
  • FIG. FIG. 4 shows an example in which the learning model 28 is constructed using a fully-connected neural network comprising an input layer 281, a plurality of intermediate layers 2821, 2822, . n is the number of intermediate layers. Circles in FIG. 4 indicate nodes.
  • the input layer 281 has a plurality of nodes to which scattered light intensities of red, green, and blue are respectively input as the scattered light intensities of a plurality of wavelengths.
  • the input layer 281 also has a plurality of nodes to which areas of red, green, and blue scattered light are respectively input.
  • the learning model 28 has n intermediate layers.
  • the first intermediate layer 2821 has multiple nodes. Each node of the input layer 281 outputs signal values to multiple nodes of the first hidden layer 2821 . Each node of the first intermediate layer 2821 receives a signal value from the node of the input layer 281, performs an operation using a parameter on the signal value, and sends data of the operation result to a plurality of nodes included in the second intermediate layer 2822. Output.
  • the nodes included in each intermediate layer receive data from a plurality of nodes in the previous intermediate layer, perform operations on the received data using parameters, and output the data to nodes in the subsequent intermediate layer. For example, a node is f( ⁇ (w*x )+b), and outputs the data of the operation result to a plurality of nodes in the subsequent layer.
  • the output layer 283 of the learning model 28 has a single node.
  • a plurality of nodes included in the n-th intermediate layer 282 n output data to nodes included in the output layer 283 .
  • the nodes of the output layer 283 receive data from a plurality of nodes, perform calculations using parameters on the received data, and output particle diameters. For example, a particle size value with a dimension of length is output. A numerical value that can be converted to a value having the dimension of length may be output as the particle size.
  • the output layer 283 may have multiple nodes corresponding to multiple values, and each node may output the probability that the particle size is the respective value.
  • the learning model 28 may use a convolutional neural network (CNN) or a recurrent neural network (RNN) as a neural network.
  • CNN convolutional neural network
  • RNN recurrent neural network
  • the particle size estimating device 1 may have a form using a model other than a neural network, such as a support vector machine or a random forest, as the learning model 28 .
  • the phenomenon in which light is scattered by particles is affected by the particle size. Rayleigh scattering occurs when the particle size is smaller than the wavelength of light, and Mie scattering occurs when the particle size is comparable to the wavelength of light. Diffraction occurs when the particle size is larger than the wavelength of light. Due to these phenomena, the intensity of scattered light of each wavelength changes according to the particle diameter. Similarly, the area of the scattered light of each wavelength reflected in the image changes according to the particle size. Therefore, it is possible to generate the learning model 28 that outputs the particle size according to the intensity of the scattered light of multiple wavelengths and the area of the scattered light of multiple wavelengths by learning.
  • FIG. 5 is a block diagram showing a configuration example of the learning device 4 for learning the learning model 28.
  • the learning device 4 executes the learning model generation method.
  • the learning device 4 is a computer such as a personal computer or a server device.
  • the learning device 4 includes an arithmetic unit 41 , a memory 42 , a storage unit 43 , an operation unit 44 , a display unit 45 and an input unit 46 .
  • the calculation unit 41 is configured using, for example, a CPU, GPU, or multi-core CPU.
  • the computing unit 41 may be configured using a quantum computer.
  • the memory 42 is, for example, RAM.
  • the storage unit 43 is non-volatile and is, for example, a hard disk.
  • the storage unit 43 stores a computer program 431 .
  • the calculation unit 41 executes processing according to the computer program 431 .
  • the operation unit 44 accepts input of information such as text by accepting an operation from the user.
  • the operation unit 44 is, for example, a keyboard or a touch panel.
  • the display unit 45 is, for example, a liquid crystal display or an EL display.
  • the input unit 46 is an interface that receives input of data from the outside.
  • the information processing section 2 may be used as the learning device 4 .
  • the storage unit 43 stores feature amount data in which feature amounts of particles contained in the sample 3 are recorded.
  • the feature amount data records feature amounts generated by a method similar to the method described later for generating feature amounts in the particle size estimation method.
  • the feature amount data includes feature amounts generated for each of a plurality of particles. It is desirable that the feature amount data include particle feature amounts generated for a plurality of samples 3 .
  • the storage unit 43 also stores particle diameter data in which particle diameters of particles whose feature amounts are recorded in the feature amount data are recorded.
  • the particle size recorded in the particle size data was measured by the particle tracking method.
  • the particle size may be measured by other methods.
  • Each feature amount recorded in the feature amount data and each particle size recorded in the particle size data correspond to each other.
  • FIG. 6 is a flowchart showing the procedure of processing for generating the learning model 28.
  • a step is abbreviated as S below.
  • the computing unit 41 executes the following processes according to the computer program 431 .
  • the calculation unit 41 stores the feature amount data in the storage unit 43 (S11).
  • S ⁇ b>11 feature amount data generated by an external device is input to the input unit 46 , and the calculation unit 41 stores the feature amount data in the storage unit 43 .
  • S11 an image obtained by photographing the scattered light from the sample 3 is input to the input unit 46, the calculation unit 41 generates a particle feature amount from the image, and the feature amount data recording the generated feature amount is stored in the storage unit 43. You can remember.
  • the calculation unit 41 then stores the particle size data in the storage unit 43 (S12).
  • particle size data generated by an external device is input to the input unit 46 , and the calculation unit 41 stores the particle size data in the storage unit 43 .
  • a moving image obtained by photographing the scattered light from the sample 3 is input to the input unit 46, and the calculation unit 41 calculates the particle diameter by the particle tracking method, and stores the calculated particle diameter as particle diameter data in the storage unit. 43 may be stored.
  • Each feature amount recorded in the feature amount data and each particle size recorded in the particle size data are associated with each other.
  • the computing unit 41 uses the feature amounts of the plurality of particles recorded in the feature amount data and the particle sizes of the plurality of particles recorded in the particle size data as training data to generate the learning model 28. Processing is performed (S13). In S ⁇ b>13 , the calculation unit 41 inputs the feature amount of one particle recorded in the feature amount data to the input layer 281 of the learning model 28 . Each feature amount is input to the node of the input layer 281 .
  • the learning model 28 After the feature amount is input to the input layer 281, the learning model 28 outputs the particle size from the node of the output layer 283.
  • the calculation unit 41 calculates the particle diameter error using an error function whose variables are the particle diameter corresponding to the input feature amount recorded in the particle diameter data and the particle diameter output from the node of the output layer 283. is calculated, and the parameters of the calculation of each node of the learning model 28 are adjusted so that the error is minimized. That is, the parameters are adjusted so that the particle diameter of one particle is output when the feature amount of one particle is input.
  • the calculation unit 41 adjusts the parameters by error backpropagation.
  • the calculation unit 41 may adjust parameters by a learning algorithm other than the error backpropagation method.
  • the calculation unit 41 repeats the process using the feature amounts of the plurality of particles recorded in the feature amount data and the particle diameters of the plurality of particles recorded in the particle diameter data, and adjusts the parameters of each node of the learning model 28. By doing so, machine learning of the learning model 28 is performed.
  • the calculation unit 41 stores the learned data in which the adjusted final parameters are recorded in the storage unit 43 .
  • a trained learning model 28 is generated.
  • an appropriately trained learning model 28 can be generated.
  • the calculation unit 41 ends the process.
  • the learning model 28 provided in the information processing section 2 is manufactured based on the learned data. For example, the learning model 28 is manufactured by writing the parameters recorded in the learned data to the storage unit 24 .
  • FIG. 7 is a flow chart showing a procedure of particle size estimation processing executed by the particle size estimation device 1 .
  • Processing is performed in a state where the cell containing the sample 3 is arranged at a predetermined position.
  • the particle size estimation device 1 irradiates the sample 3 with light from the irradiation unit 11 (S201).
  • the user operates the operation unit 25 so that the information processing unit 2 receives an instruction to start processing, and the calculation unit 21 transmits a control signal for starting processing from the interface unit 27 to the control unit 13. .
  • the control unit 13 receives the control signal and controls the irradiation unit 11 according to the control signal.
  • the laser light sources 111 , 112 and 113 emit light, and the irradiation unit 11 irradiates the sample 3 with the laser light emitted by the laser light sources 111 , 112 and 113 .
  • the sample 3 is irradiated with light of a plurality of wavelengths at the same time.
  • the sample 3 is irradiated with red, green and blue laser beams.
  • the user may operate the operation unit 25 to input conditions such as the intensity of light of a plurality of wavelengths, and light irradiation may be performed according to the conditions.
  • the light irradiated onto the sample 3 is scattered by the particles contained in the sample 3, generating scattered light. At this time, scattered light of multiple wavelengths is generated.
  • the imaging unit 12 uses the imaging element 121 to generate an image of the scattered light (S202). In S202, the imaging unit 12 generates a color still image. For example, the imaging unit 12 includes red, green, and blue color filters to generate an image that records the intensity of scattered red, green, and blue light.
  • the photographing unit 12 inputs image data representing the generated image to the control unit 13 , and the control unit 13 inputs the image data to the information processing unit 2 .
  • the information processing section 2 receives the image data at the interface section 27 and stores it in the storage section 24 .
  • the information processing section 2 next generates a plurality of monochromatic images from the image generated by the photographing section 12 (S203).
  • the calculation unit 21 generates a plurality of monochromatic images in which scattered light of any wavelength is captured by individually extracting light intensities of a plurality of wavelengths from the image data. For example, red, green and blue monochromatic images are generated.
  • Each monochromatic image records the intensity of scattered light of each wavelength scattered by a plurality of particles. In a configuration in which the same position of the sample 3 is irradiated with light of a plurality of wavelengths due to the configuration of the optical system, scattered light of a plurality of wavelengths from the same particle is recorded in the same pixel.
  • the information processing section 2 next identifies each of the plurality of particles appearing in the monochromatic image (S204).
  • the calculation unit 21 distinguishes between the particle area shown in the monochromatic image and other areas. For example, when the signal intensity of one pixel included in a monochrome image is equal to or greater than a predetermined threshold, the pixel is determined to be a pixel corresponding to a particle, and a region in which pixels corresponding to particles are continuous is Identify the region of one particle.
  • the calculation unit 21 identifies the particle region for each of the plurality of particles. For example, when the positions of regions occupied in a plurality of single-color images overlap, the calculation unit 21 determines that these regions are regions of the same particle.
  • the computing unit 21 identifies regions of a plurality of particles appearing in one single-color image having the maximum intensity of scattered light among the multiple single-color images, and the particles are located at the same positions in the other single-color images.
  • a region may be identified as being the region of each particle.
  • the computing unit 21 identifies regions of a plurality of particles in the blue monochromatic image, and identifies regions in the green and red monochromatic images at the same positions as the regions of the respective particles in the blue monochromatic image.
  • a region of each particle may be identified.
  • the imaging unit 12 and the processing of S203 and S204 correspond to the image generation unit.
  • the information processing section 2 next generates the feature amount of each particle (S205).
  • the calculation unit 21 integrates the intensity of the scattered light from each particle to calculate the intensity of the scattered light of each wavelength scattered by each particle. More specifically, the computing unit 21 integrates the signal intensities of a plurality of pixels included in the region of one particle in one monochrome image, thereby obtaining the intensity of scattered light of one wavelength scattered by one particle. to calculate The calculation unit 21 calculates the intensity of scattered light of each wavelength scattered by one particle by performing similar calculations for each monochromatic image. The computing unit 21 calculates the intensity of the scattered light of each wavelength scattered by each particle by performing similar calculations for each particle. Note that the calculation unit 21 may set the maximum signal intensity among the signal intensities of the plurality of pixels included in the region of one particle as the intensity of the scattered light. The average signal intensity may be used as the scattered light intensity.
  • the calculation unit 21 calculates the area within the monochromatic image of the scattered light of each wavelength from each particle. For example, the calculation unit 21 sets the number of pixels included in the region of one particle in each monochromatic image as the area of the scattered light of each wavelength. The calculation unit 21 calculates the area of the scattered light of each wavelength scattered by each particle by performing the same calculation for each particle. In this manner, the computing unit 21 generates a feature quantity including the intensity of scattered light of each wavelength and the area of scattered light of each wavelength for each of the plurality of particles.
  • the processing of S205 corresponds to the feature amount generation unit.
  • the information processing unit 2 inputs the generated feature amount to the learning model 28 (S206).
  • the calculation unit 21 performs processing for inputting the feature amount related to one particle to the learning model 28 .
  • the learning model 28 to which the feature amount is input performs neural network calculations and outputs particle diameters, as described above.
  • the calculation unit 21 acquires the particle diameter (S207).
  • the learning model 28 outputs the particle diameter value
  • the calculation unit 21 acquires the particle diameter value output by the learning model 28 .
  • the computing unit 21 acquires the particle diameter by converting the numerical value output by the learning model 28 into a particle diameter.
  • the calculation unit 21 acquires the particle size by specifying the value of the particle size with the maximum probability.
  • the particle size estimation device 1 estimates the particle size.
  • the information processing section 2 next determines whether or not the particle diameters of all particles have been acquired (S208).
  • the calculation unit 21 determines whether or not particle diameters have been obtained for all of the plurality of particles reflected in the image. If there are particles for which the particle diameter has not yet been obtained (S208: NO), the calculation unit 21 returns the process to S206.
  • the calculation unit 21 inputs to the learning model 28 the feature amount of particles whose particle diameters have not yet been obtained.
  • the information processing section 2 When the particle diameters of all particles have been acquired (S208: YES), the information processing section 2 generates a particle diameter distribution (S209).
  • the calculation unit 21 counts the number of particles having the respective particle diameter values based on the results of obtaining the particle diameters of the plurality of particles. By associating the value of the particle diameter with the number of particles having that value, the calculation unit 21 determines how many particles with what particle diameter are included in the plurality of particles. Generate a particle size distribution that indicates whether The calculation unit 21 stores data representing the particle size distribution in the storage unit 24 .
  • the processing of S209 corresponds to the particle size distribution calculator.
  • the information processing section 2 then displays the generated particle size distribution on the display section 26 (S210).
  • the calculation unit 21 generates a particle size distribution graph representing the relationship between the particle size value and the number of particles having the respective values, and displays the particle size distribution graph on the display unit 26. do.
  • FIG. 8 is a schematic diagram showing an example of a particle size distribution graph.
  • the horizontal axis of FIG. 8 indicates the particle size, and the scale of the horizontal axis is log scale.
  • the vertical axis in FIG. 8 indicates the number of particles with different particle diameters, and the scale of the vertical axis is a linear scale.
  • the number of particles having each particle size is shown graphically, clearly showing how the particle sizes are distributed among the plurality of particles contained in Sample 3.
  • the particle size estimation device 1 ends the process of estimating the particle size.
  • the particle size estimating apparatus 1 generates a feature amount of each particle based on an image obtained by photographing scattered light from a liquid dispersion medium in which a plurality of particles are dispersed, and uses the learning model 28. to estimate the particle size of each particle.
  • the feature quantities include the intensity of scattered light of multiple wavelengths from each particle and the area of scattered light of multiple wavelengths.
  • the learning model 28 outputs the particle diameter when the feature amount of the particle is input. According to the particle diameter, the intensity of the scattered light of each wavelength changes, and the area of the scattered light reflected in the image changes. It is possible.
  • the particle size distribution can be calculated in a short period of time, it is possible to observe changes in the particle size distribution over time in real time by repeatedly calculating the particle size distribution for sample 3.
  • the time required for the preliminary experiment can be shortened by performing the process of estimating the particle diameter using the learning model 28 as the preliminary experiment.
  • the measurement conditions include the intensity ratio of light of multiple wavelengths irradiating a sample in which multiple particles are mixed in a dispersion medium, the concentration of particles contained in the sample, and the focal position when capturing moving images of the particles. is included.
  • the measurement conditions include the intensity ratio of light of multiple wavelengths irradiating a sample in which multiple particles are mixed in a dispersion medium, the concentration of particles contained in the sample, and the focal position when capturing moving images of the particles. is included.
  • the time required for the preliminary experiment is shortened, and by repeating the preliminary experiment in a short period of time, it is possible to search for measurement conditions suitable for the particle tracking method in a short period of time. Therefore, the time required to obtain an accurate particle size distribution by the particle tracking method can be shortened.
  • the particle size estimation device 1 may be in a form that can also execute the particle tracking method. Furthermore, the particle size estimation device 1 may be configured to re-learn the learning model 28 using the result of executing the particle tracking method as training data.
  • the particle size estimation device 1 includes a plurality of laser light sources 111, 112 and 113, and simultaneously irradiates the sample 3 with laser light of a plurality of wavelengths from the plurality of laser light sources 111, 112 and 113. Also, the imaging unit 12 generates an image using the single imaging device 121 . Therefore, the particle size estimating apparatus 1 can generate an image obtained by photographing scattered lights of a plurality of wavelengths generated simultaneously. By estimating the particle size based on the scattered light of multiple wavelengths generated at the same time, the particle size estimation device 1 can estimate the particle size based on the scattered light of multiple wavelengths generated at different timings. , it is possible to more accurately generate a feature amount according to the difference in wavelength. Therefore, the particle size estimation device 1 can accurately estimate the particle size. Note that the imaging unit 12 may include a plurality of imaging elements 121, and the particle size estimation device 1 may generate a plurality of monochromatic images using the plurality of imaging elements 121. FIG.
  • the particle size estimation device 1 generates a single image of scattered light, but the particle size estimation device 1 may generate a plurality of images.
  • the particle size estimation device 1 generates a plurality of still images obtained by photographing the scattered light multiple times, or generates a moving image obtained by continuously photographing the scattered light, and extracts a plurality of frames from the moving image. to generate a plurality of images.
  • the information processing section 2 generates a plurality of sets of feature amounts according to the passage of time for each particle by generating feature amounts for each of a plurality of images.
  • the learning model 28 is trained in advance so as to output the particle size when a plurality of sets of feature values are input.
  • the learning device 4 performs processing for generating the learning model 28 using training data including multiple sets of feature amounts for each particle.
  • the particle size estimation device 1 inputs a plurality of sets of feature amounts for each particle to the learning model 28 in S206, and acquires the particle size output by the learning model 28 in S207. More information about the scattered light scattered by the particles can be utilized to more accurately estimate particle size than using a single image.
  • the particle size estimation device 1 uses the scattered light intensity ratio of the plurality of wavelengths as the scattered light intensity. It may be input to the learning model 28 .
  • the intensity ratio of scattered light of multiple wavelengths is the ratio of the intensity of scattered light of one wavelength to the intensity of scattered light of other wavelengths. For example, a value obtained by dividing the intensity of red and green scattered light by the intensity of blue scattered light is the intensity ratio of scattered lights of a plurality of wavelengths.
  • the intensity ratio of the scattered lights of multiple wavelengths changes according to the particle diameter.
  • the learning model 28 is pre-learned so as to output the particle size when a feature quantity including intensity ratios of scattered light of a plurality of wavelengths is input.
  • the particle size estimation apparatus 1 inputs the feature amount including the intensity ratio of the scattered light of multiple wavelengths to the learning model 28, and acquires the particle size output by the learning model 28 in S207.
  • the effect of particle size on scattered light of multiple wavelengths is reflected in the learning model 28, making it possible to estimate the particle size.
  • the learning model 28 may have a form in which, in addition to the particle feature amount, the feature amount related to the liquid dispersion medium in which the particles are dispersed is input.
  • the feature quantity of the dispersion medium is, for example, the viscosity, temperature, or refractive index of the dispersion medium.
  • FIG. 9 is a conceptual diagram showing a functional example of the learning model 28 that uses the characteristic amount of the dispersion medium.
  • the intensity of scattered light of a plurality of wavelengths and the area of scattered light of a plurality of wavelengths are input as the feature amount of one particle, and the viscosity of the dispersion medium and the viscosity of the dispersion medium are input as the feature amount of the dispersion medium.
  • the particle diameter is output when the temperature of the dispersion medium and the refractive index of the dispersion medium are input.
  • the refractive index of the dispersion medium may be the absolute refractive index or the relative refractive index between the particles and the dispersion medium.
  • the behavior of particles in a dispersion medium is affected by the feature values of the dispersion medium.
  • the diffusion coefficient of particles varies depending on the viscosity and temperature of the dispersion medium.
  • the scattered light is affected by the refractive index of the dispersion medium. Therefore, it is possible to generate the learning model 28 that outputs the particle diameter when the characteristic amount of the dispersion medium is input in addition to the characteristic amount of the particles.
  • the learning device 4 performs processing for generating the learning model 28 using the feature quantity of the plurality of particles, the feature quantity of the dispersion medium, and the particle size of the plurality of particles as training data. .
  • the feature amount of the dispersion medium is measured in advance and input to the information processing unit 2.
  • the feature amount of the dispersion medium is input to the information processing unit 2 by the user operating the operation unit 25 .
  • the particle size estimation device 1 inputs the particle feature amount and the dispersion medium feature amount to the learning model 28 in S206, and acquires the particle size output by the learning model 28 in S207. More information about the scattered light is used and the particle size can be estimated more accurately than when the characteristic amount of the dispersion medium is not used.
  • the particle size estimation device 1 uses at least one of the viscosity, temperature and refractive index of the dispersion medium as the feature quantity of the dispersion medium.
  • the particle size estimation device 1 may use all of the viscosity, temperature, and refractive index of the dispersion medium, or may use any one or two of them as the characteristic quantity of the dispersion medium.
  • the irradiation unit 11 simultaneously irradiates the sample 3 with light of a plurality of wavelengths. good too.
  • the imaging unit 12 sequentially generates a plurality of monochromatic images obtained by imaging scattered light of a plurality of wavelengths, and the information processing unit 2 omits the processing of S203.
  • the irradiation unit 11 irradiates the sample 3 with laser light in the present embodiment, the irradiation unit 11 may be configured to irradiate light other than laser light.
  • the irradiation unit 11 may include a plurality of light emitting diodes having different emission wavelengths, and irradiate the sample 3 with light from the plurality of light emitting diodes.
  • the irradiation unit 11 irradiates the sample 3 with red, green, and blue light in this embodiment, the irradiation unit 11 may irradiate the sample 3 with light of other wavelengths.
  • the irradiation unit 11 irradiates the sample 3 with light of three wavelengths. It may be in the form of irradiation.
  • FIG. 10 is a block diagram showing the configuration of the particle size estimation device 1 according to Embodiment 2.
  • the irradiation unit 11 has a single light source 114 .
  • Light source 114 emits white light.
  • the irradiation unit 11 uses the light source 114 to irradiate the sample 3 with white light.
  • the configuration of the parts other than the irradiation unit 11 of the particle size estimation device 1 is the same as that of the first embodiment.
  • the particle size estimation device 1 estimates the particle size through the processes of S201 to S210, as in the first embodiment.
  • the imaging unit 12 generates an image of white scattered light.
  • the imaging unit 12 generates a color image.
  • the particle size estimation device 1 generates a plurality of monochromatic images by individually extracting the light intensities of a plurality of wavelengths from the captured white scattered light image. For example, red, green and blue monochromatic images are generated.
  • the particle size estimation device 1 can use the learning model 28 to estimate the particle size of each particle. Therefore, it is possible to estimate the particle diameters of a plurality of particles in a shorter time than conventionally.
  • the particle size estimation device 1 may be configured to estimate the particle size without using a plurality of monochromatic images.
  • the light source 114 emits white light or monochromatic light consisting of light of a single wavelength.
  • the irradiation unit 11 irradiates the sample 3 with white light or monochromatic light. Even if the light irradiated to the sample 3 is white light or monochromatic light, the phenomenon in which the light is scattered by the particles is affected by the particle size. For example, the intensity of the scattered light and the area of the scattered light reflected in the image change according to the particle size. Therefore, it is possible to generate a learning model 28 that outputs a particle diameter when a particle feature amount including the intensity or area of white or monochromatic scattered light is input.
  • the learning model 28 is generated by the processes of S11 to S13, as in the first embodiment.
  • the learning device 4 generates a learning model 28 by performing learning so as to output the particle diameter when a particle feature amount including the intensity or area of white or monochromatic scattered light is input.
  • the imaging unit 12 In the process of estimating the particle size, in S202, the imaging unit 12 generates an image of white or monochromatic scattered light.
  • the particle size estimation apparatus 1 omits the processing of S203 and acquires the particle size output by the learning model 28 in S207. In this form as well, the particle size estimation apparatus 1 can use the learning model 28 to estimate the particle size of each particle.
  • the sample 3 is housed in the cell, but the sample 3 may be stored in a form other than the cell.
  • the particle diameter estimating device 1 may be configured to estimate the particle diameter of particles contained in the flowing sample 3 .
  • the particle size estimation device 1 may be configured to estimate the particle size by irradiating the moving sample 3 with light.
  • the particle size estimation device 1 may be configured to examine the quality of the particles contained in the sample 3 by sequentially estimating the particle size of each of a plurality of moving samples 3 .
  • the learning model 28 inputs the feature amount related to the dispersion medium in addition to the feature amount of the particles.
  • the intensity of the light with which the sample 3 is irradiated or the intensity ratio of the light with a plurality of wavelengths with which the sample 3 is irradiated may be input to the learning model 28 in addition to the feature quantity of the particles.
  • the intensity of the light with which the sample 3 is irradiated changes, the intensity of the scattered light also changes.
  • the learning model 28 that outputs the particle diameter when the intensity of the light irradiated to the sample 3 or the intensity ratio of the light of a plurality of wavelengths is added to the feature amount of the particle and input.
  • the light intensity or the light intensity ratio of multiple wavelengths is obtained from the settings of the laser sources 111 , 112 and 113 or the light source 114 .

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Chemical & Material Sciences (AREA)
  • Pathology (AREA)
  • Evolutionary Computation (AREA)
  • Biochemistry (AREA)
  • Immunology (AREA)
  • Analytical Chemistry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Dispersion Chemistry (AREA)
  • Image Analysis (AREA)

Abstract

短時間で粒子径を推定することができる粒子径推定方法、学習モデル生成方法、粒子径推定装置、及びコンピュータプログラムを提供する。 粒子径推定方法では、複数の粒子が分散した液体の分散媒に対して光を照射し、前記分散媒からの散乱光を撮影した画像を生成し、前記画像から、各粒子からの散乱光の強度を含む各粒子の特徴量を生成し、粒子の特徴量を入力した場合に前記粒子の粒子径を出力する学習モデルへ、生成した各粒子の特徴量を入力し、前記学習モデルが出力した各粒子の粒子径を取得する。

Description

粒子径推定方法、学習モデル生成方法、粒子径推定装置、及びコンピュータプログラム
 本発明は、試料に含まれる粒子の粒子径を推定するための粒子径推定方法、学習モデル生成方法、粒子径推定装置、及びコンピュータプログラムに関する。
 人工物を含む物質には、多くの粒子が含まれている。粒子径の分布は、物質の性質に影響する。このため、物質の性質を調査又は調整するためには、物質に含まれる粒子の粒子径を調べることが重要となる。例えば、人工物の材料に含まれる粒子のnm~μmの範囲の粒子径の分布を調べることに、ニーズがある。特許文献1には、パーティクルトラッキング法により粒子径を測定する技術が開示されている。パーティクルトラッキング法では、分散媒中に分散した複数の粒子へ複数の波長の光を照射し、複数の粒子の動画像を取得し、各粒子の移動速度から各粒子の拡散係数を計算する。拡散係数は粒子径に関係する値であるので、拡散係数に基づいて各粒子の粒子径が計算され、粒子径の分布が得られる。
特許第6628743号公報
 パーティクルトラッキング法では、動画像の取得及び粒子径の分布の計算に長い時間が必要となる。また、複数の波長の光の強度比等の測定条件を調整するためには、予備実験を行う必要があり、予備実験にも長い時間が必要となる。このため、より短時間で粒子径を推定することができる技術が望まれている。
 本発明は、斯かる事情に鑑みてなされたものであって、その目的とするところは、学習モデルを利用することにより、短時間で粒子径を推定することができる粒子径推定方法、学習モデル生成方法、粒子径推定装置、及びコンピュータプログラムを提供することにある。
 本発明に係る粒子径推定方法は、複数の粒子が分散した液体の分散媒に対して光を照射し、前記分散媒からの散乱光を撮影した画像を生成し、前記画像から、各粒子からの散乱光の強度を含む各粒子の特徴量を生成し、粒子の特徴量を入力した場合に前記粒子の粒子径を出力する学習モデルへ、生成した各粒子の特徴量を入力し、前記学習モデルが出力した各粒子の粒子径を取得することを特徴とする。
 本発明の一形態においては、複数の粒子が分散した液体の分散媒からの散乱光を撮影した画像に基づいて、各粒子の特徴量を生成し、学習モデルを利用して、各粒子の粒子径を推定する。特徴量は、各粒子からの散乱光の強度を含む。学習モデルは、粒子の特徴量を入力された場合に、粒子径を出力する。粒子径に応じて、散乱光の強度等の特徴量は変化するので、散乱光の強度を含む特徴量を入力した場合に粒子径を出力する学習モデルを学習により生成することが可能である。粒子径を推定するために動画像の取得及び粒子径の分布の計算に長い時間をかける必要がない。このため、従来よりも短時間で、複数の粒子の粒子径を推定することが可能となる。
 本発明に係る粒子径推定方法は、複数の粒子が分散した液体の分散媒に対して、複数の波長の光を照射し、前記分散媒からの散乱光を撮影した画像を生成し、前記画像から、各粒子からの複数の波長の散乱光の強度を含む各粒子の特徴量を生成することを特徴とする。
 本発明の一形態においては、複数の粒子が分散した液体の分散媒からの複数の波長の散乱光を撮影した画像に基づいて、各粒子の特徴量を生成し、学習モデルを利用して、各粒子の粒子径を推定する。特徴量は、各粒子からの複数の波長の散乱光の強度を含む。学習モデルは、粒子の特徴量を入力された場合に、粒子径を出力する。粒子径に応じて、各波長の散乱光の強度は変化する。このため、粒子の特徴量を入力した場合に粒子径を出力する学習モデルを学習により生成することが可能である。粒子径を推定するために動画像の取得及び粒子径の分布の計算に長い時間をかける必要がない。このため、従来よりも短時間で、複数の粒子の粒子径を推定することが可能となる。
 本発明に係る粒子径推定方法では、前記特徴量は、各粒子からの複数の波長の散乱光の強度比を含むことを特徴とする。
 本発明の一形態においては、粒子の特徴量は、複数の波長の散乱光の強度比を含む。粒子径に応じて複数の波長の散乱光の強度比は変化するので、複数の波長の散乱光の強度比を含む特徴量を入力した場合に粒子径を出力する学習モデルを、学習により生成することが可能である。このため、学習モデルを利用して、各粒子の粒子径を推定することができる。
 本発明に係る粒子径推定方法では、前記特徴量は、各粒子からの複数の波長の散乱光の前記画像内での面積を含むことを特徴とする。
 本発明の一形態においては、粒子の特徴量は、複数の波長の散乱光の画像内での面積を含む。粒子径に応じて散乱光の面積は変化するので、複数の波長の散乱光の面積を含む特徴量を入力した場合に粒子径を出力する学習モデルを、学習により生成することが可能である。このため、学習モデルを利用して、各粒子の粒子径を推定することができる。
 本発明に係る粒子径推定方法では、前記特徴量は、粒子からの複数の波長の散乱光の強度と、粒子からの複数の波長の散乱光の前記画像内での面積とからなり、前記学習モデルは、複数の粒子の前記特徴量とパーティクルトラッキング法により測定された前記複数の粒子の粒子径とを訓練データとして学習されていることを特徴とする。
 本発明の一形態においては、粒子からの複数の波長の散乱光の強度及び面積からなる特徴量とパーティクルトラッキング法により測定された粒子径とを訓練データとして、学習モデルが学習されている。パーティクルトラッキング法の結果を利用して学習モデルが学習されているので、パーティクルトラッキング法で得られる値に近い粒子径を得ることができる。
 本発明に係る粒子径推定方法では、前記学習モデルは、粒子の特徴量と、前記粒子が分散している分散媒の粘度、温度又は屈折率とを入力した場合に、前記粒子の粒子径を出力するように学習されてあり、生成した各粒子の特徴量に加えて、前記複数の粒子が分散した分散媒の粘度、温度又は屈折率を前記学習モデルへ入力することを特徴とする。
 本発明の一形態においては、学習モデルは、粒子の特徴量と、粒子が分散している分散媒の粘度、温度又は屈折率とを入力した場合に、粒子径を出力する。粒子の拡散係数は、分散媒の粘度及び温度に応じて変化する。また、散乱光は、分散媒の屈折率に影響される。このため、粒子の特徴量に加えて分散媒の粘度、温度又は屈折率を入力した場合に粒子径を出力する学習モデルを、学習により生成することが可能である。このように学習された学習モデルを利用することによって、散乱光に関する多くの情報が利用され、より正確に粒子径を推定することができる。
 本発明に係る粒子径推定方法では、前記画像は、前記散乱光を複数回撮影した複数の静止画像、又は前記散乱光を連続的に撮影した動画像を含み、前記複数の静止画像又は前記動画像から、各粒子について、時間経過に応じた複数組の特徴量を生成し、前記学習モデルは、粒子の複数組の特徴量を入力した場合に、前記粒子の粒子径を出力するように学習されてあり、各粒子について、生成した複数組の特徴量を前記学習モデルへ入力することを特徴とする。
 本発明の一形態においては、散乱光を撮影した複数の静止画像又は動画像に基づいて、各粒子について複数組の特徴量を生成する。学習モデルは、複数組の特徴量を入力された場合に、粒子径を出力する。粒子によって散乱された散乱光に関するより多くの情報が利用され、より正確に粒子径が推定される。
 本発明に係る粒子径推定方法は、取得した各粒子の粒子径に基づいて、前記複数の粒子の粒子径分布を生成することを特徴とする。
 本発明の一形態においては、複数の粒子の夫々について粒子径を推定することにより、複数の粒子の粒子径分布が得られる。得られた粒子径の分布に基づいて、粒子を含む物質の調査又は調整が可能となる。
 本発明に係る学習モデル生成方法は、複数の粒子が分散しており複数の波長の光を照射された液体の分散媒からの散乱光を撮影した画像から得られた、各粒子からの複数の波長の散乱光の強度を含む各粒子の特徴量と、パーティクルトラッキング法により測定された各粒子の粒子径とを含む訓練データを取得し、前記訓練データに基づいて、粒子の特徴量を入力した場合に前記粒子の粒子径を出力する学習モデルを生成することを特徴とする。
 本発明の一形態においては、複数の粒子が分散した液体の分散媒からの散乱光を撮影した画像から得られた粒子の特徴量と、パーティクルトラッキング法により測定された粒子径とを訓練データとして、学習モデルが学習される。粒子の特徴量を入力された場合に粒子径を出力する学習モデルが生成される。
 本発明に係る粒子径推定装置は、複数の粒子が分散した液体の分散媒へ複数の波長の光を照射するための照射部と、前記分散媒からの散乱光を撮影した画像を生成する画像生成部と、前記画像から、各粒子からの複数の波長の散乱光の強度を含む各粒子の特徴量を生成する特徴量生成部と、各粒子について前記特徴量を入力した場合に各粒子の粒子径を出力する学習モデルとを備えることを特徴とする。
 本発明の一形態においては、粒子径推定装置は、複数の粒子が分散した液体の分散媒からの複数の波長の散乱光を撮影した画像に基づいて、各粒子の特徴量を生成し、学習モデルを利用して、各粒子の粒子径を推定する。特徴量は、各粒子からの複数の波長の散乱光の強度を含む。学習モデルは、粒子の特徴量を入力された場合に、粒子径を出力する。粒子径を推定するために動画像の取得及び粒子径の分布の計算に長い時間をかける必要が無く、従来よりも短時間で、複数の粒子の粒子径を推定することが可能となる。
 本発明に係る粒子径推定装置では、前記画像生成部は、単一の撮像素子を有し、該撮像素子が撮影した散乱光が映った画像を生成することを特徴とする。
 本発明の一形態においては、粒子径推定装置は、単一の撮像素子が撮影した散乱光が映った画像を生成する。このため、粒子径推定装置は、同時に発生した複数の波長の散乱光を撮影した画像を生成することができる。粒子径推定装置は、異なるタイミングで発生した複数の波長の散乱光に基づいて粒子径を推定する場合に比べて、より正確に波長の違いに応じた特徴量を生成することができる。
 本発明に係る粒子径推定装置は、各粒子の粒子径に基づいて、前記複数の粒子の粒子径分布を計算する粒子径分布計算部と、前記粒子径分布を表示する表示部とを更に備えることを特徴とする。
 本発明の一形態においては、粒子径推定装置は、複数の粒子の粒子径分布を計算し、表示する。複数の粒子の中でどのように粒子径が分布しているのかが示される。得られた粒子径の分布に基づいて、粒子を含む物質の調査又は調整が可能となる。
 本発明に係るコンピュータプログラムは、複数の粒子が分散した液体の分散媒からの散乱光を撮影した画像に基づいて、各粒子からの複数の波長の散乱光の強度を含む各粒子の特徴量を生成し、粒子の特徴量を入力した場合に前記粒子の粒子径を出力する学習モデルへ、生成した各粒子の特徴量を入力し、前記学習モデルが出力した各粒子の粒子径を取得する処理をコンピュータに実行させることを特徴とする。
 本発明の一形態においては、コンピュータプログラムにより、複数の粒子が分散した液体の分散媒からの複数の波長の散乱光を撮影した画像に基づいて、各粒子の特徴量を生成し、学習モデルを利用して、各粒子の粒子径を推定する。学習モデルは、粒子の特徴量を入力された場合に、粒子径を出力する。粒子径を推定するために動画像の取得及び粒子径の分布の計算に長い時間をかける必要が無く、従来よりも短時間で、複数の粒子の粒子径を推定することが可能となる。
 本発明にあっては、従来よりも短時間で、複数の粒子の粒子径を推定することが可能となる。このため、粒子径を推定する処理をパーティクルトラッキング法のための予備実験として行うことにより、予備実験に必要な時間を短縮することができる等、本発明は優れた効果を奏する。
実施形態1に係る粒子径推定装置の構成を示すブロック図である。 情報処理部の内部の機能構成例を示すブロック図である。 学習モデルの機能例を示す概念図である。 学習モデルの構成例を示す概念図である。 学習モデルの学習を行う学習装置の構成例を示すブロック図である。 学習モデルを生成する処理の手順を示すフローチャートである。 粒子径推定装置が実行する粒子径を推定する処理の手順を示すフローチャートである。 粒子径分布グラフの例を示す模式図である。 分散媒の特徴量を利用する学習モデルの機能例を示す概念図である。 実施形態2に係る粒子径推定装置の構成を示すブロック図である。
 以下本発明をその実施の形態を示す図面に基づき具体的に説明する。
<実施形態1>
 図1は、実施形態1に係る粒子径推定装置1の構成を示すブロック図である。粒子径推定装置1は、粒子径推定方法を実行する。粒子径推定装置1は、複数の粒子が分散した液体の分散媒へ光を照射し、分散媒からの散乱光を撮影した画像を生成し、生成した画像に基づいて各粒子の粒子径を推定する処理を行う。粒子径は、粒子を完全な球体と仮定した場合に球体の直径に相当する球相当径である。粒子径は、円相当径若しくはフェレー径等の顕微鏡で観測できる幾何学的な径、ふるい径、拡散係数相当径、又はストークス径であってもよい。粒子径を推定する処理の対象となる複数の粒子が分散した液体の分散媒を試料3とする。例えば、粒子は、人工物の材料の一つとして用いられる粉末の一部である。液体の分散媒は、例えば、水又は有機溶媒である。試料3は、透明なセルに収納される。
 粒子径推定装置1は、試料3へ光を照射するための照射部11を備えている。照射部11は、複数のレーザ光源111,112及び113を有する。レーザ光源111、112及び113は、互いに異なる波長のレーザ光を発光する。例えば、レーザ光源111は赤のレーザ光を発光し、レーザ光源112は緑のレーザ光を発光し、レーザ光源113は青のレーザ光を発光する。粒子径推定装置1は、ミラー141、ハーフミラー142及びハーフミラー143を備えている。
 レーザ光源111からのレーザ光は、ミラー141で反射され、ハーフミラー142及び143を透過する。レーザ光源112からのレーザ光は、ハーフミラー142で反射され、ハーフミラー143を透過する。レーザ光源113からのレーザ光は、ハーフミラー143で反射される。結果的に、レーザ光源111,112及び113が発光したレーザ光は、まとまって試料3へ照射される。複数の波長のレーザ光が試料3の同じ位置に照射される。このようにして、照射部11は複数の波長の光を試料3へ照射する。図1には、試料3へ照射される光を実線矢印で示している。試料3へ照射された光は、試料3に含まれる粒子により散乱され、散乱光が発生する。図1には、散乱光を破線矢印で示している。
 粒子径推定装置1は、レンズ151と、フィルタ152と、試料3から発生する散乱光を撮影する撮影部12とを備える。試料3からの散乱光は、レンズ151で集光され、フィルタ152を透過し、撮影部12へ入射する。撮影部12は、単一の撮像素子121を有している。撮影部12は、撮像素子121を用いて、試料3からの散乱光を撮影した画像として、カラーの静止画像を生成するように構成されている。粒子径推定装置1は、照射部11からの光を試料3へ照射させ、散乱光を撮影部12へ入射させるための光学系を備えている。光学系は、レンズ及びミラー等の複数の光学部品から構成される。ミラー141、ハーフミラー142及び143、レンズ151、並びにフィルタ152は、光学系に含まれる。光学系は、ミラー141、ハーフミラー142及び143、レンズ151、並びにフィルタ152以外の図示しない光学部品を含んでいてもよい。
 粒子径推定装置1は、制御部13を備えている。制御部13は、粒子径推定装置1の各部を制御するための演算を実行する演算部と、メモリとを含む。照射部11及び撮影部12は、制御部13に接続されている。制御部13は、照射部11及び撮影部12を制御する。制御部13は、レーザ光源111、112及び113の発光強度等、画像を生成する際の種々の条件を調整することができる。粒子径推定装置1は、画像に基づいて粒子径を推定するための情報処理を行う情報処理部2を備えている。情報処理部2は、制御部13に接続されている。
 図2は、情報処理部2の内部の機能構成例を示すブロック図である。情報処理部2は、パーソナルコンピュータ等のコンピュータを用いて構成されている。情報処理部2は、演算部21と、メモリ22と、ドライブ部23と、記憶部24と、操作部25と、表示部26と、インタフェース部27とを備えている。演算部21は、例えばCPU(Central Processing Unit )、GPU(Graphics Processing Unit)、又はマルチコアCPUを用いて構成されている。また、演算部21は、量子コンピュータを用いて構成されていてもよい。メモリ22は、演算に伴って発生する一時的なデータを記憶する。メモリ22は、例えばRAM(Random Access Memory)である
 ドライブ部23は、光ディスク等の記録媒体20から情報を読み取る。記憶部24は、不揮発性であり、例えばハードディスクである。操作部25は、使用者からの操作を受け付けることにより、テキスト等の情報を受け付ける。操作部25は、例えば、キーボード、ポインティングデバイス又はタッチパネルである。表示部26は、画像を表示する。表示部26は、例えば液晶ディスプレイ又はELディスプレイ(Electroluminescent Display)である。インタフェース部27は、制御部13と接続されている。インタフェース部27は、制御部13との間でデータの送受信を行う。
 演算部21は、記録媒体20に記録されたコンピュータプログラム241をドライブ部23に読み取らせ、読み取ったコンピュータプログラム241を記憶部24に記憶させる。演算部21は、コンピュータプログラム241に従って、情報処理部2に必要な処理を実行する。なお、コンピュータプログラム241は、情報処理部2の外部からダウンロードされてもよい。この場合は、情報処理部2はドライブ部23を備えていなくてもよい。情報処理部2は、複数のコンピュータを用いて構成されていてもよい。情報処理部2及び制御部13は一体で構成されていてもよい。例えば、一台のコンピュータが制御部13及び情報処理部2の機能を兼ねていてもよい。或は、情報処理部2は、インターネット等の通信ネットワークを介して制御部13に接続されていてもよい。情報処理部2の機能の一部又は全部は、クラウドで実現されてもよい。
 粒子径推定装置1は、試料3から発生する散乱光を撮影した画像を生成し、生成した画像から、試料3に含まれる各粒子の特徴量を生成し、各粒子の特徴量から各粒子の粒子径を推定する処理を行う。情報処理部2は、画像から生成した各粒子の特徴量に基づいて、各粒子の粒子径を取得するために用いられる学習モデル28を備えている。学習モデル28は、画像から得られた、一の粒子からの散乱光の強度を含む当該粒子の特徴量を入力された場合に、当該粒子の粒子径を出力するように、学習されている。
 学習モデル28は、コンピュータプログラム241に従って演算部21が情報処理を実行することにより実現される。記憶部24は、学習モデル28を実現するために必要なデータを記憶している。なお、学習モデル28は、ハードウェアを用いて構成されていてもよい。例えば、学習モデル28は、プロセッサと、必要なプログラムおよびデータを記憶するメモリとを含んだハードウェアにより構成されていてもよい。又は、学習モデル28は、量子コンピュータを用いて実現されてもよい。或は、学習モデル28は情報処理部2の外部に設けられており、情報処理部2は、外部の学習モデル28を利用して処理を実行する形態であってもよい。
 粒子径推定装置1が粒子径を推定する方法を説明する。照射部11は、レーザ光源111、112及び113からのレーザ光を試料3へ照射することにより、複数の波長の光を試料3へ照射する。試料3は、複数の粒子が分散した液体の分散媒である。試料3へ照射された光は、試料3に含まれる粒子によって散乱され、散乱光が発生する。撮影部12は、撮像素子121を用いて、散乱光を撮影した画像を生成する。情報処理部2は、撮影部12が生成した画像から、夫々にいずれかの波長の散乱光が映った複数の単色画像を生成する。情報処理部2は、複数の単色画像に基づいて、各粒子の特徴量を生成する。粒子の特徴量は、当該粒子によって散乱された各波長の散乱光の強度、及び各波長の散乱光の単色画像内での面積を含む。情報処理部2は、各粒子別に、特徴量を学習モデル28へ入力する。
 図3は、学習モデル28の機能例を示す概念図である。学習モデル28は、一の粒子の特徴量を入力された場合に当該粒子の粒子径を出力するように、予め学習されている。本実施形態では、学習モデル28には、一の粒子の特徴量として、複数の波長の散乱光の強度と、複数の波長の散乱光の面積とが入力される。学習モデル28は、当該粒子の粒子径を出力する。
 図4は、学習モデル28の構成例を示す概念図である。図4には、入力層281、複数の中間層2821,2822,…,282n及び出力層283を備えた全結合のニューラルネットワークを用いて学習モデル28を構成した例を示す。nは中間層の数である。図4中の円はノードを示す。入力層281は、複数の波長の散乱光の強度として、赤、緑及び青の散乱光の強度を夫々に入力される複数のノードを有する。また、入力層281は、赤、緑及び青の散乱光の面積を夫々に入力される複数のノードを有する。
 学習モデル28はn層の中間層を有している。第1の中間層2821は、複数のノードを有する。入力層281の夫々のノードは、第1の中間層2821の複数のノードへ信号値を出力する。第1の中間層2821の各ノードは、入力層281のノードから信号値を受け付け、信号値にパラメータを用いて演算し、第2の中間層2822に含まれる複数のノードへ演算結果のデータを出力する。各中間層に含まれるノードは、前の中間層の複数のノードからデータを受け付け、受け付けたデータにパラメータを用いて演算し、後の中間層のノードへデータを出力する。例えば、ノードは、前の層の各ノードから受け付けたデータの値をx、各ノードに対応する重みをw、バイアス値をb、活性化関数をf()として、f(Σ(w*x)+b)の演算を行い、演算結果のデータを後の層の複数のノードへ出力する。
 学習モデル28の出力層283は、単一のノードを有する。第nの中間層282nに含まれる複数のノードは、出力層283に含まれるノードへデータを出力する。出力層283のノードは、複数のノードからデータを受け付け、受け付けたデータにパラメータを用いて演算し、粒子径を出力する。例えば、長さの次元を有する粒子径の値が出力される。長さの次元を有する値に換算することができる数値が粒子径として出力されてもよい。又は、出力層283は複数の値に対応する複数のノードを有し、各ノードは、粒子径が夫々の値である確率を出力してもよい。学習モデル28は、ニューラルネットワークとして、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)、又は再帰型ニューラルネットワーク(RNN:Recurrent Neural Network)を用いてもよい。粒子径推定装置1は、学習モデル28として、サポートベクターマシン又はランダムフォレスト等、ニューラルネットワーク以外のモデルを用いた形態であってもよい。
 光が粒子によって散乱される現象は、粒子径に影響される。粒子径が光の波長よりも小さい場合は、Rayleigh散乱が発生し、粒子径が光の波長と同等である場合は、Mie 散乱が発生する。粒子径が光の波長よりも大きい場合は、回折が発生する。これらの現象によって、粒子径に応じて、夫々の波長の散乱光の強度は変化する。同様に、粒子径に応じて、画像に映った夫々の波長の散乱光の面積は変化する。従って、複数の波長の散乱光の強度及び複数の波長の散乱光の面積に応じて粒子径を出力する学習モデル28を学習により生成することが可能である。
 学習モデル28の学習は、コンピュータを用いて行われる。図5は、学習モデル28の学習を行う学習装置4の構成例を示すブロック図である。学習装置4は学習モデル生成方法を実行する。学習装置4は、パーソナルコンピュータ又はサーバ装置等のコンピュータである。学習装置4は、演算部41と、メモリ42と、記憶部43と、操作部44と、表示部45と、入力部46を備えている。演算部41は、例えばCPU、GPU又はマルチコアCPUを用いて構成されている。演算部41は、量子コンピュータを用いて構成されていてもよい。メモリ42は例えばRAMである。記憶部43は、不揮発性であり、例えばハードディスクである。記憶部43は、コンピュータプログラム431を記憶している。演算部41は、コンピュータプログラム431に従って処理を実行する。操作部44は、使用者からの操作を受け付けることにより、テキスト等の情報の入力を受け付ける。操作部44は、例えばキーボード又はタッチパネルである。表示部45は、例えば液晶ディスプレイ又はELディスプレイである。入力部46は、外部からのデータの入力を受け付けるインタフェースである。学習装置4として、情報処理部2が用いられてもよい。
 記憶部43は、試料3に含まれる粒子の特徴量を記録した特徴量データを記憶する。特徴量データは、粒子径推定方法において特徴量を生成する後述の方法と同様の方法により生成した特徴量を記録する。特徴量データは、複数の粒子の夫々について生成された特徴量を含んでいる。特徴量データは、複数の試料3について生成された粒子の特徴量を含んでいることが望ましい。また、記憶部43は、特徴量データに特徴量が記録された粒子の粒子径を記録した粒子径データを記憶する。粒子径データに記録された粒子径は、パーティクルトラッキング法により測定されたものである。粒子径は、その他の方法により測定されたものであってもよい。特徴量データに記録された夫々の特徴量と、粒子径データに記録された夫々の粒子径とは互いに対応している。
 図6は、学習モデル28を生成する処理の手順を示すフローチャートである。以下、ステップをSと略す。演算部41は、コンピュータプログラム431に従って以下の処理を実行する。演算部41は、特徴量データを記憶部43に記憶する(S11)。S11では、外部の装置で生成された特徴量データが入力部46へ入力され、演算部41は、特徴量データを記憶部43に記憶する。S11では、試料3からの散乱光を撮影した画像が入力部46へ入力され、演算部41は画像から粒子の特徴量を生成し、生成した特徴量を記録した特徴量データを記憶部43に記憶してもよい。演算部41は、次に、粒子径データを記憶部43に記憶する(S12)。S12では、外部の装置で生成された粒子径データが入力部46へ入力され、演算部41は、粒子径データを記憶部43に記憶する。S12では、試料3からの散乱光を撮影した動画像が入力部46へ入力され、演算部41は、パーティクルトラッキング法により粒子径を計算し、計算した粒子径を記録した粒子径データを記憶部43に記憶してもよい。特徴量データに記録された夫々の特徴量と、粒子径データに記録された夫々の粒子径とは互いに対応付けられている。
 演算部41は、次に、特徴量データに記録された複数の粒子の特徴量と、粒子径データに記録された複数の粒子の粒子径とを訓練データとして、学習モデル28を生成するための処理を行う(S13)。S13では、演算部41は、特徴量データに記録された一の粒子の特徴量を学習モデル28の入力層281へ入力する。入力層281のノードには、夫々の特徴量が入力される。
 特徴量が入力層281へ入力された後、学習モデル28によって、出力層283のノードから粒子径が出力される。演算部41は、粒子径データに記録された、入力された特徴量に対応する粒子径と、出力層283のノードからから出力された粒子径とを変数とする誤差関数により、粒子径の誤差を計算し、誤差が最小となるように、学習モデル28の各ノードの演算のパラメータを調整する。即ち、一の粒子の特徴量が入力された場合に当該粒子の粒子径が出力されるように、パラメータが調整される。例えば、演算部41は、誤差逆伝播法によってパラメータを調整する。演算部41は、誤差逆伝播法以外の学習アルゴリズムによってパラメータを調整してもよい。
 演算部41は、特徴量データに記録された複数の粒子の特徴量及び粒子径データに記録された複数の粒子の粒子径を用いて処理を繰り返して、学習モデル28の各ノードのパラメータを調整することにより、学習モデル28の機械学習を行う。演算部41は、調整された最終的なパラメータを記録した学習済みデータを記憶部43に記憶する。このようにして、学習された学習モデル28が生成される。複数の粒子の特徴量及びパーティクルトラッキング法によって測定された粒子径を訓練データとして利用することによって、適切に学習された学習モデル28を生成することができる。S13が終了した後、演算部41は処理を終了する。情報処理部2が備える学習モデル28は、学習済みデータに基づいて製造される。例えば、学習済みデータに記録されたパラメータが記憶部24に書き込まれることにより、学習モデル28が製造される。
 次に、粒子径推定装置1が実行する処理を説明する。図7は、粒子径推定装置1が実行する粒子径を推定する処理の手順を示すフローチャートである。試料3を収納したセルが所定の位置に配置された状態で、処理が実行される。粒子径推定装置1は、照射部11から試料3へ光を照射する(S201)。S201では、使用者が操作部25を操作することにより、情報処理部2は処理開始の指示を受け付け、演算部21は、インタフェース部27から処理開始のための制御信号を制御部13へ送信する。制御部13は、制御信号を受け付け、制御信号に従って、照射部11を制御する。レーザ光源111,112及び113は発光し、照射部11は、レーザ光源111,112及び113が発光したレーザ光を試料3へ照射する。これにより、複数の波長の光が同時に試料3へ照射される。例えば、赤、緑及び青のレーザ光が試料3へ照射される。なお、使用者が操作部25を操作することにより、複数の波長の光の強度等の条件が入力され、条件に従った光の照射が行われてもよい。
 試料3へ照射された光は、試料3に含まれる粒子によって散乱され、散乱光が発生する。このとき、複数の波長の散乱光が発生する。撮影部12は、撮像素子121を用いて、散乱光を撮影した画像を生成する(S202)。S202では、撮影部12は、カラーの静止画像を生成する。例えば、撮影部12は、赤、緑及び青のカラーフィルタを備え、赤、緑及び青の散乱光の強度を記録した画像を生成する。撮影部12は、生成した画像を表す画像データを制御部13へ入力し、制御部13は画像データを情報処理部2へ入力する。情報処理部2は、画像データをインタフェース部27で受け付け、記憶部24に記憶する。
 情報処理部2は、次に、撮影部12が生成した画像から、複数の単色画像を生成する(S203)。S203では、演算部21は、画像データから、複数の波長の光の強度を個別に抽出することにより、夫々にいずれかの波長の散乱光が映った複数の単色画像を生成する。例えば、赤、緑及び青の単色画像が生成される。夫々の単色画像には、複数の粒子で散乱された夫々の波長の散乱光の強度が記録されている。光学系の構成によって複数の波長の光が試料3の同じ位置に照射される形態では、同一の粒子からの複数の波長の散乱光は、同一のピクセルに記録されている。
 情報処理部2は、次に、単色画像に映っている複数の粒子の夫々を特定する(S204)。S204では、演算部21は、単色画像に映った粒子の領域と他の領域とを区別する。例えば、単色画像に含まれる一つのピクセルの信号強度が所定の閾値以上である場合に、当該ピクセルは粒子に対応するピクセルであると判定し、粒子に対応するピクセルが連続している領域を、一つの粒子の領域であると特定する。演算部21は、複数の粒子の夫々について、粒子の領域を特定する。例えば、演算部21は、複数の単色画像内で占める領域の位置が重なる場合に、これらの領域は同一の粒子の領域であると判定する。又は、演算部21は、複数の単色画像の中で、散乱光の強度が最大である一の単色画像に映った複数の粒子の領域を特定し、他の単色画像内において同一の位置にある領域を、各粒子の領域であると特定してもよい。例えば、演算部21は、青の単色画像に映った複数の粒子の領域を特定し、緑及び赤の単色画像内において青の単色画像内の各粒子の領域と同一の位置にある領域を、各粒子の領域であると特定してもよい。撮影部12、並びにS203及びS204の処理は、画像生成部に対応する。
 情報処理部2は、次に、各粒子の特徴量を生成する(S205)。S205では、演算部21は、各粒子からの散乱光の強度を積分することにより、各粒子によって散乱された各波長の散乱光の強度を計算する。より詳しくは、演算部21は、一の単色画像内で一の粒子の領域に含まれる複数のピクセルの信号強度を積算することにより、一の粒子によって散乱された一の波長の散乱光の強度を計算する。演算部21は、夫々の単色画像について同様に計算することにより、一の粒子によって散乱された各波長の散乱光の強度を計算する。演算部21は、各粒子について同様に計算することにより、各粒子によって散乱された各波長の散乱光の強度を計算する。なお、演算部21は、一の粒子の領域に含まれる複数のピクセルの信号強度の中で最大の信号強度を、散乱光の強度としてもよく、一の粒子の領域に含まれる複数のピクセルの信号強度の平均を、散乱光の強度としてもよい。
 また、演算部21は、各粒子からの各波長の散乱光の単色画像内での面積を計算する。例えば、演算部21は、各単色画像内で一の粒子の領域に含まれる複数のピクセルの数を、各波長の散乱光の面積とする。演算部21は、各粒子について同様に計算することにより、各粒子によって散乱された各波長の散乱光の面積を計算する。このようにして、演算部21は、複数の粒子の夫々について、各波長の散乱光の強度及び各波長の散乱光の面積を含む特徴量を生成する。S205の処理は、特徴量生成部に対応する。
 情報処理部2は、生成した特徴量を学習モデル28へ入力する(S206)。S206では、演算部21は、一の粒子に係る特徴量を学習モデル28へ入力する処理を行う。特徴量を入力された学習モデル28は、前述したように、ニューラルネットワークの演算を行い、粒子径を出力する。演算部21は、粒子径を取得する(S207)。学習モデル28が粒子径の値を出力する場合は、演算部21は、学習モデル28が出力した粒子径の値を取得する。粒子径に換算することができる数値を学習モデル28が出力する場合は、演算部21は、学習モデル28が出力した数値を粒子径に換算することにより、粒子径を取得する。粒子径が夫々の値である確率を学習モデル28が出力する場合は、演算部21は、確率が最大である粒子径の値を特定することにより、粒子径を取得する。このようにして、粒子径推定装置1は、粒子径を推定する。
 情報処理部2は、次に、全ての粒子の粒子径を取得したか否かを判定する(S208)。S208では、演算部21は、画像に映った複数の粒子の全てについて、粒子径を取得したか否かを判定する。まだ粒子径を取得していない粒子がある場合は(S208:NO)、演算部21は、処理をS206へ戻す。S206では、演算部21は、まだ粒子径を取得していない粒子の特徴量を学習モデル28へ入力する。
 全ての粒子の粒子径を取得している場合は(S208:YES)、情報処理部2は、粒子径分布を生成する(S209)。S209では、演算部21は、複数の粒子について粒子径を取得した結果に基づき、粒子径の夫々の値について、粒子径が夫々の値になっている粒子の数をカウントする。演算部21は、粒子径の値と、粒子径がその値になっている粒子の数とを関連付けることにより、複数の粒子の中にどの程度の粒子径の粒子がどの程度の数だけ含まれているかを示す粒子径分布を生成する。演算部21は、粒子径分布を表すデータを記憶部24に記憶する。S209の処理は、粒子径分布計算部に対応する。
 情報処理部2は、次に、生成した粒子径分布を表示部26に表示する(S210)。S210では、演算部21は、粒子径の値と粒子径が夫々の値になっている粒子の数との関係を表した粒子径分布グラフを生成し、粒子径分布グラフを表示部26に表示する。
 図8は、粒子径分布グラフの例を示す模式図である。図8の横軸は粒子径を示し、横軸のスケールはログスケールである。図8の縦軸は粒子径が夫々の値になっている粒子の数を示し、縦軸のスケールはリニアスケールである。夫々の粒子径を有する粒子の数がグラフで示されており、試料3に含まれる複数の粒子の中でどのように粒子径が分布しているのかが明確に示される。粒子径の分布に基づいて、粒子を含む物質の調査又は調整が可能となる。S210が終了した後、粒子径推定装置1は、粒子径を推定する処理を終了する。
 以上詳述した如く、粒子径推定装置1は、複数の粒子が分散した液体の分散媒からの散乱光を撮影した画像に基づいて、各粒子の特徴量を生成し、学習モデル28を利用して、各粒子の粒子径を推定する。特徴量は、各粒子からの複数の波長の散乱光の強度、及び複数の波長の散乱光の面積を含む。学習モデル28は、粒子の特徴量を入力された場合に、粒子径を出力する。粒子径に応じて、各波長の散乱光の強度は変化し、画像に映った散乱光の面積は変化するので、特徴量を入力した場合に粒子径を出力する学習モデル28を学習により生成することが可能である。画像を生成し、画像から特徴量を生成し、特徴量を入力した学習モデル28から粒子径が得られるので、動画像の取得及び粒子径の分布の計算に長い時間をかける必要がなくなる。このため、従来よりも短時間で、複数の粒子の粒子径を推定し、粒子径の分布を計算することが可能となる。
 短時間で粒子径の分布を計算できるので、試料3について繰り返し粒子径の分布を計算することにより、粒子径の分布の時間変化をリアルタイムに観察することが可能となる。パーティクルトラッキング法のために予備実験を行う場合は、学習モデル28を利用して粒子径を推定する処理を予備実験として行うことにより、予備実験に必要な時間を短縮することができる。
 パーティクルトラッキング法により正確な粒子径の分布を得るためには、測定条件を適切に調整しておく必要がある。例えば、測定条件には、複数の粒子を分散媒に混入した試料へ照射する複数の波長の光の強度比、試料に含まれる粒子の濃度、及び粒子の動画像を撮影する際の焦点位置等が含まれる。測定条件を調整するためには、測定条件を変更しながら予備実験を繰り返すことにより、適切な測定条件を探索する必要がある。本実施形態では、予備実験に必要な時間が短縮されるので、短時間で予備実験を繰り返すことにより、パーティクルトラッキング法に適切な測定条件を短時間で探索することができる。従って、パーティクルトラッキング法により正確な粒子径の分布を得るために必要な時間を短縮することができる。
 例えば、粒子径推定装置1は、パーティクルトラッキング法をも実行することができる形態であってもよい。更に、粒子径推定装置1は、パーティクルトラッキング法を実行した結果を訓練データに用いて、学習モデル28の再学習を行う形態であってもよい。
 粒子径推定装置1は、複数のレーザ光源111,112及び113を備え、複数のレーザ光源111,112及び113からの複数の波長のレーザ光を同時に試料3へ照射する。また、撮影部12は、単一の撮像素子121を用いて画像を生成する。このため、粒子径推定装置1は、同時に発生した複数の波長の散乱光を撮影した画像を生成することができる。同時に発生した複数の波長の散乱光に基づいて粒子径を推定することにより、粒子径推定装置1は、異なるタイミングで発生した複数の波長の散乱光に基づいて粒子径を推定する場合に比べて、より正確に波長の違いに応じた特徴量を生成することができる。従って、粒子径推定装置1は、正確に粒子径を推定することができる。なお、撮影部12は、複数の撮像素子121を備え、粒子径推定装置1は、複数の撮像素子121を利用して複数の単色画像を生成してもよい。
 本実施形態においては、粒子径推定装置1が散乱光を撮影した単一の画像を生成する形態を示したが、粒子径推定装置1は、複数の画像を生成する形態であってもよい。例えば、粒子径推定装置1は、散乱光を複数回撮影した複数の静止画像を生成することにより、又は、散乱光を連続的に撮影した動画像を生成し、動画像から複数フレームを抽出することにより、複数の画像を生成する。この形態では、情報処理部2は、複数の画像から夫々に特徴量を生成することにより、各粒子について、時間経過に応じた複数組の特徴量を生成する。学習モデル28は、複数組の特徴量を入力された場合に粒子径を出力するように、予め学習されている。S13の処理では、学習装置4は、各粒子についての複数組の特徴量を含む訓練データを用いて、学習モデル28を生成するための処理を行う。粒子径推定装置1は、S206で、各粒子について、複数組の特徴量を学習モデル28へ入力し、S207で、学習モデル28が出力した粒子径を取得する。単一の画像を利用する場合に比べて、粒子によって散乱された散乱光に関するより多くの情報が利用され、より正確に粒子径を推定することができる。
 本実施形態においては、複数の波長の散乱光の強度を学習モデル28へ入力する形態を示したが、粒子径推定装置1は、複数の波長の散乱光の強度比を、散乱光の強度として学習モデル28へ入力する形態であってもよい。複数の波長の散乱光の強度比は、一の波長の散乱光の強度と他の波長の散乱光の強度との比である。例えば、赤及び緑の散乱光の強度を青の散乱光の強度で除した値が、複数の波長の散乱光の強度比である。粒子径に応じて、複数の波長の散乱光の強度比は変化する。この形態では、学習モデル28は、複数の波長の散乱光の強度比を含む特徴量を入力した場合に粒子径を出力するように、予め学習されている。粒子径推定装置1は、S206で、複数の波長の散乱光の強度比を含む特徴量を学習モデル28へ入力し、S207で、学習モデル28が出力した粒子径を取得する。この形態においても、複数の波長の散乱光に対する粒子径の影響が学習モデル28に反映され、粒子径の推定が可能である。
 学習モデル28は、粒子の特徴量に加えて、粒子が分散している液体の分散媒に関する特徴量を入力される形態であってもよい。分散媒の特徴量は、例えば、分散媒の粘度、温度又は屈折率である。図9は、分散媒の特徴量を利用する学習モデル28の機能例を示す概念図である。学習モデル28は、一の粒子の特徴量として、複数の波長の散乱光の強度と、複数の波長の散乱光の面積とが入力され、更に、分散媒の特徴量として、分散媒の粘度と、分散媒の温度と、分散媒の屈折率とが入力された場合に、粒子径を出力するように学習されている。分散媒の屈折率は、絶対屈折率であってもよく、粒子と分散媒との相対屈折率であってもよい。
 分散媒中の粒子の振る舞いは、分散媒の特徴量に影響される。例えば、粒子の拡散係数は、分散媒の粘度及び温度に応じて変化する。また、散乱光は、分散媒の屈折率に影響される。従って、粒子の特徴量に加えて分散媒の特徴量を入力した場合に粒子径を出力する学習モデル28を、学習により生成することが可能である。この形態では、学習装置4は、S13で、複数の粒子の特徴量と、分散媒の特徴量と、複数の粒子の粒子径とを訓練データとして、学習モデル28を生成するための処理を行う。
 分散媒の特徴量は、予め測定され、情報処理部2へ入力される。例えば、使用者が操作部25を操作することにより、分散媒の特徴量が情報処理部2へ入力される。粒子径推定装置1は、S206で、粒子の特徴量及び分散媒の特徴量を学習モデル28へ入力し、S207で、学習モデル28が出力した粒子径を取得する。分散媒の特徴量を利用しない場合に比べて、散乱光に関するより多くの情報が利用され、より正確に粒子径を推定することができる。粒子径推定装置1は、分散媒の特徴量として、分散媒の粘度、温度及び屈折率の中の少なくとも一つを用いる。粒子径推定装置1は、分散媒の特徴量として、分散媒の粘度、温度及び屈折率の全てを用いてもよく、いずれか一つ又は二つを用いてもよい。
 本実施形態では、照射部11が複数の波長の光を同時に試料3へ照射する形態を示したが、照射部11は、複数の波長の光を順次的に試料3へ照射する形態であってもよい。この形態では、撮影部12は、S202で、複数の波長の散乱光を撮影した複数の単色画像を順次的に生成し、情報処理部2は、S203の処理を省略する。
 本実施形態では、照射部11が試料3へレーザ光を照射する形態を示したが、照射部11はレーザ光以外の光を照射する形態であってもよい。例えば、照射部11は、レーザ光源111,112及び113の代わりに、互いに発光波長が異なる複数の発光ダイオードを備え、複数の発光ダイオードからの光を試料3へ照射する形態であってもよい。本実施形態では、照射部11が赤、緑及び青の光を試料3へ照射する例を示したが、照射部11は、その他の波長の光を試料3へ照射してもよい。本実施形態では、照射部11が三種類の波長の光を試料3へ照射する形態を示したが、照射部11は、二種類の波長の光又は四種類以上の波長の光を試料3へ照射する形態であってもよい。
<実施形態2>
 実施形態1では、複数の光源を用いて複数の波長の光を試料3へ照射する形態を示した。実施形態2では、単一の光源を用いて試料3へ光を照射する形態を示す。図10は、実施形態2に係る粒子径推定装置1の構成を示すブロック図である。照射部11は、単一の光源114を備える。光源114は、白色光を発光する。照射部11は、光源114を用いて、白色光を試料3へ照射する。粒子径推定装置1の照射部11以外の部分の構成は、実施形態1と同様である。
 粒子径推定装置1は、実施の形態1と同様に、S201~S210の処理により、粒子径を推定する。S202では、撮影部12は、白色の散乱光を撮影した画像を生成する。撮影部12は、カラーの画像を生成する。S203では、粒子径推定装置1は、白色の散乱光を撮影した画像から、複数の波長の光の強度を個別に抽出することにより、複数の単色画像を生成する。例えば、赤、緑及び青の単色画像が生成される。本実施形態においても、粒子径推定装置1は、学習モデル28を利用して、各粒子の粒子径を推定することができる。このため、従来よりも短時間で、複数の粒子の粒子径を推定することが可能となる。
 なお、粒子径推定装置1は、複数の単色画像を利用することなく粒子径を推定する形態であってもよい。この形態では、光源114は、白色光又は単一の波長の光でなる単色光を発光する。照射部11は、白色光又は単色光を試料3へ照射する。試料3へ照射される光が白色光又は単色光であっても、光が粒子によって散乱される現象は、粒子径に影響される。例えば、散乱光の強度及び画像に映る散乱光の面積は、粒子径に応じて変化する。従って、白色又は単色の散乱光の強度若しくは面積を含む粒子の特徴量を入力した場合に粒子径を出力する学習モデル28を学習により生成することが可能である。
 学習モデル28は、実施形態1と同様に、S11~S13の処理により生成される。S13では、学習装置4は、白色又は単色の散乱光の強度若しくは面積を含む粒子の特徴量を入力した場合に粒子径を出力するように学習を行って、学習モデル28を生成する。粒子径を推定する処理では、S202で、撮影部12は、白色又は単色の散乱光を撮影した画像を生成する。粒子径推定装置1は、S203の処理を省略し、S207で、学習モデル28が出力した粒子径を取得する。この形態においても、粒子径推定装置1は、学習モデル28を利用して、各粒子の粒子径を推定することができる。
 実施形態1及び2においては、試料3をセルに収納する形態を示したが、試料3はセルに収納される形態以外の形態であってもよい。例えば、粒子径推定装置1は、流動している試料3に含まれる粒子の粒子径を推定する形態であってもよい。又は、粒子径推定装置1は、移動する試料3に対して光を照射して粒子径を推定する形態であってもよい。例えば、粒子径推定装置1は、移動する複数の試料3の夫々について順次的に粒子径を推定することにより、試料3に含まれる粒子の品質を調査する形態であってもよい。
 実施形態1及び2においては、粒子の特徴量に加えて分散媒に関する特徴量を学習モデル28へ入力する形態を示したが、学習モデル28は、分散媒に関する特徴量以外に、測定に関する特徴量を粒子の特徴量に加えて入力される形態であってもよい。例えば、試料3へ照射する光の強度、又は試料3へ照射する複数の波長の光の強度比が、粒子の特徴量に加えて学習モデル28へ入力されてもよい。試料3へ照射される光の強度が変化した場合は、散乱光の強度も変化する。このため、試料3へ照射される光の強度又は複数の波長の光の強度比を粒子の特徴量に加えて入力した場合に粒子径を出力する学習モデル28を、学習により生成することが可能である。光の強度又は複数の波長の光の強度比は、レーザ光源111、112及び113、又は光源114の設定から得られる。光の強度又は複数の波長の光の強度比を利用することによって、より多くの情報が利用され、より正確に粒子径を推定することができる。
 本発明は上述した実施の形態の内容に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。即ち、請求項に示した範囲で適宜変更した技術的手段を組み合わせて得られる実施形態も本発明の技術的範囲に含まれる。
 1 粒子径推定装置
 11 照射部
 111、112、113 レーザ光源
 114 光源
 12 撮影部
 121 撮像素子
 13 制御部
 2 情報処理部
 20 記録媒体
 241 コンピュータプログラム
 28 学習モデル
 3 試料
 4 学習装置
 

Claims (13)

  1.  複数の粒子が分散した液体の分散媒に対して光を照射し、
     前記分散媒からの散乱光を撮影した画像を生成し、
     前記画像から、各粒子からの散乱光の強度を含む各粒子の特徴量を生成し、
     粒子の特徴量を入力した場合に前記粒子の粒子径を出力する学習モデルへ、生成した各粒子の特徴量を入力し、
     前記学習モデルが出力した各粒子の粒子径を取得する
     ことを特徴とする粒子径推定方法。
  2.  複数の粒子が分散した液体の分散媒に対して、複数の波長の光を照射し、
     前記分散媒からの散乱光を撮影した画像を生成し、
     前記画像から、各粒子からの複数の波長の散乱光の強度を含む各粒子の特徴量を生成する
     ことを特徴とする請求項1に記載の粒子径推定方法。
  3.  前記特徴量は、各粒子からの複数の波長の散乱光の強度比を含む
     ことを特徴とする請求項2に記載の粒子径推定方法。
  4.  前記特徴量は、各粒子からの複数の波長の散乱光の前記画像内での面積を含む
     ことを特徴とする請求項2又は3に記載の粒子径推定方法。
  5.  前記特徴量は、粒子からの複数の波長の散乱光の強度と、粒子からの複数の波長の散乱光の前記画像内での面積とからなり、
     前記学習モデルは、複数の粒子の前記特徴量とパーティクルトラッキング法により測定された前記複数の粒子の粒子径とを訓練データとして学習されている
     ことを特徴とする請求項2に記載の粒子径推定方法。
  6.  前記学習モデルは、粒子の特徴量と、前記粒子が分散している分散媒の粘度、温度又は屈折率とを入力した場合に、前記粒子の粒子径を出力するように学習されてあり、
     生成した各粒子の特徴量に加えて、前記複数の粒子が分散した分散媒の粘度、温度又は屈折率を前記学習モデルへ入力する
     ことを特徴とする請求項1乃至5のいずれか一つに記載の粒子径推定方法。
  7.  前記画像は、前記散乱光を複数回撮影した複数の静止画像、又は前記散乱光を連続的に撮影した動画像を含み、
     前記複数の静止画像又は前記動画像から、各粒子について、時間経過に応じた複数組の特徴量を生成し、
     前記学習モデルは、粒子の複数組の特徴量を入力した場合に、前記粒子の粒子径を出力するように学習されてあり、
     各粒子について、生成した複数組の特徴量を前記学習モデルへ入力する
     ことを特徴とする請求項1乃至6のいずれか一つに記載の粒子径推定方法。
  8.  取得した各粒子の粒子径に基づいて、前記複数の粒子の粒子径分布を生成する
     ことを特徴とする請求項1乃至7のいずれか一つに記載の粒子径推定方法。
  9.  複数の粒子が分散しており複数の波長の光を照射された液体の分散媒からの散乱光を撮影した画像から得られた、各粒子からの複数の波長の散乱光の強度を含む各粒子の特徴量と、パーティクルトラッキング法により測定された各粒子の粒子径とを含む訓練データを取得し、
     前記訓練データに基づいて、粒子の特徴量を入力した場合に前記粒子の粒子径を出力する学習モデルを生成する
     ことを特徴とする学習モデル生成方法。
  10.  複数の粒子が分散した液体の分散媒へ複数の波長の光を照射するための照射部と、
     前記分散媒からの散乱光を撮影した画像を生成する画像生成部と、
     前記画像から、各粒子からの複数の波長の散乱光の強度を含む各粒子の特徴量を生成する特徴量生成部と、
     各粒子について前記特徴量を入力した場合に各粒子の粒子径を出力する学習モデルと
     を備えることを特徴とする粒子径推定装置。
  11.  前記画像生成部は、単一の撮像素子を有し、該撮像素子が撮影した散乱光が映った画像を生成する
     ことを特徴とする請求項10に記載の粒子径推定装置。
  12.  各粒子の粒子径に基づいて、前記複数の粒子の粒子径分布を計算する粒子径分布計算部と、
     前記粒子径分布を表示する表示部と
     を更に備えることを特徴とする請求項10又は11に記載の粒子径推定装置。
  13.  複数の粒子が分散した液体の分散媒からの散乱光を撮影した画像に基づいて、各粒子からの複数の波長の散乱光の強度を含む各粒子の特徴量を生成し、
     粒子の特徴量を入力した場合に前記粒子の粒子径を出力する学習モデルへ、生成した各粒子の特徴量を入力し、
     前記学習モデルが出力した各粒子の粒子径を取得する
     処理をコンピュータに実行させることを特徴とするコンピュータプログラム。
PCT/JP2021/047522 2021-01-26 2021-12-22 粒子径推定方法、学習モデル生成方法、粒子径推定装置、及びコンピュータプログラム WO2022163230A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022578159A JPWO2022163230A1 (ja) 2021-01-26 2021-12-22

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021010536 2021-01-26
JP2021-010536 2021-01-26

Publications (1)

Publication Number Publication Date
WO2022163230A1 true WO2022163230A1 (ja) 2022-08-04

Family

ID=82654500

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/047522 WO2022163230A1 (ja) 2021-01-26 2021-12-22 粒子径推定方法、学習モデル生成方法、粒子径推定装置、及びコンピュータプログラム

Country Status (2)

Country Link
JP (1) JPWO2022163230A1 (ja)
WO (1) WO2022163230A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011053002A (ja) * 2009-08-31 2011-03-17 Horiba Ltd 散乱光を用いた粒子測定装置
WO2016159131A1 (ja) * 2015-03-30 2016-10-06 国立研究開発法人産業技術総合研究所 粒子径計測方法及びその装置
WO2017104662A1 (ja) * 2015-12-18 2017-06-22 株式会社堀場製作所 粒子分析装置及び粒子分析方法
WO2019230636A1 (ja) * 2018-06-01 2019-12-05 株式会社堀場製作所 粒子撮像装置、粒子径測定装置、複式粒子径測定装置、コンピュータプログラム、粒子観察方法、及び複式粒子測定装置
WO2020054466A1 (ja) * 2018-09-12 2020-03-19 国立研究開発法人産業技術総合研究所 微粒子観察装置及び微粒子観察方法
WO2020071306A1 (ja) * 2018-10-04 2020-04-09 国立研究開発法人産業技術総合研究所 粒子測定装置、較正方法、および測定装置
JP2020173244A (ja) * 2019-04-09 2020-10-22 株式会社日立製作所 粒子サイズ測定装置および測定方法
JP2020190508A (ja) * 2019-05-23 2020-11-26 株式会社堀場製作所 粒子径分布測定装置、粒子径分布測定方法、及び、粒子径分布測定装置用プログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011053002A (ja) * 2009-08-31 2011-03-17 Horiba Ltd 散乱光を用いた粒子測定装置
WO2016159131A1 (ja) * 2015-03-30 2016-10-06 国立研究開発法人産業技術総合研究所 粒子径計測方法及びその装置
WO2017104662A1 (ja) * 2015-12-18 2017-06-22 株式会社堀場製作所 粒子分析装置及び粒子分析方法
WO2019230636A1 (ja) * 2018-06-01 2019-12-05 株式会社堀場製作所 粒子撮像装置、粒子径測定装置、複式粒子径測定装置、コンピュータプログラム、粒子観察方法、及び複式粒子測定装置
WO2020054466A1 (ja) * 2018-09-12 2020-03-19 国立研究開発法人産業技術総合研究所 微粒子観察装置及び微粒子観察方法
WO2020071306A1 (ja) * 2018-10-04 2020-04-09 国立研究開発法人産業技術総合研究所 粒子測定装置、較正方法、および測定装置
JP2020173244A (ja) * 2019-04-09 2020-10-22 株式会社日立製作所 粒子サイズ測定装置および測定方法
JP2020190508A (ja) * 2019-05-23 2020-11-26 株式会社堀場製作所 粒子径分布測定装置、粒子径分布測定方法、及び、粒子径分布測定装置用プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
TAKESHI KIMURA: "Size evaluation of Brownian particles by dynamic image processing based on dynamic light scattering theory", TRANSACTIONS OF THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS, vol. J76-D-II, 1 September 1993 (1993-09-01), JP, pages 1987 - 1993, ISSN: 1344-4697 *

Also Published As

Publication number Publication date
JPWO2022163230A1 (ja) 2022-08-04

Similar Documents

Publication Publication Date Title
Mandracchia et al. Fast and accurate sCMOS noise correction for fluorescence microscopy
Che et al. Towards learning-based inverse subsurface scattering
US11977033B2 (en) Learning device, inspection device, learning method, and inspection method
JP6985558B2 (ja) ライトシートに基づくナノ粒子トラッキング・カウント装置の調査済体積を校正する方法
Gao et al. Computational ghost imaging in scattering media using simulation-based deep learning
JP2013213756A (ja) 多重蛍光画像の画像解析のための装置、システム、方法、およびプログラム
JP7076463B2 (ja) スペクトル分析装置およびスペクトル分析方法
JP5817369B2 (ja) スペクトル解析装置及び微小粒子測定装置、並びにスペクトル解析あるいはスペクトルチャート表示のための方法及びプログラム
Boland et al. Improving axial resolution in Structured Illumination Microscopy using deep learning
Mohammadikaji et al. Sensor-realistic simulations for evaluation and planning of optical measurement systems with an application to laser triangulation
JP2015197744A (ja) 情報処理装置、計測システム、情報処理方法およびプログラム。
WO2022163230A1 (ja) 粒子径推定方法、学習モデル生成方法、粒子径推定装置、及びコンピュータプログラム
Gowen et al. Near infrared hyperspectral image regression: on the use of prediction maps as a tool for detecting model overfitting
Andriiashen et al. CT-based data generation for foreign object detection on a single X-ray projection
Purohit et al. Enhancing the surveillance detection range of image sensors using HDR techniques
Villmann et al. Modeling of light-induced changes in reflectance spectra: A predictive tool for the effect of an arbitrary spectral irradiance
Schrangl et al. Kinetic analysis of single molecule FRET transitions without trajectories
Smith et al. Image-to-image translation for wavefront and PSF estimation
Okawa et al. Estimation of wetness and color from a single multispectral image
Vinogradova et al. Estimation of optical aberrations in 3D microscopic bioimages
Pan et al. Adaptive weight matrix and phantom intensity learning for computed tomography of chemiluminescence
CN114076637B (zh) 高光谱获取方法及其系统、电子设备和编码宽光谱成像装置
WO2023282026A1 (ja) データ生成方法、学習済みモデル生成方法、学習済みモデル、粒子分類方法、コンピュータプログラム及び情報処理装置
Korobiichuk et al. Geometrical parameter measurement and phytoplankton process modeling based on video images of water samples from reservoirs
Marat Automating Mode Detection in Quantum Imaging

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21923233

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022578159

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21923233

Country of ref document: EP

Kind code of ref document: A1