WO2017203679A1 - 発光画像符号化装置、発光画像復号化装置、及び発光画像解析システム - Google Patents

発光画像符号化装置、発光画像復号化装置、及び発光画像解析システム Download PDF

Info

Publication number
WO2017203679A1
WO2017203679A1 PCT/JP2016/065684 JP2016065684W WO2017203679A1 WO 2017203679 A1 WO2017203679 A1 WO 2017203679A1 JP 2016065684 W JP2016065684 W JP 2016065684W WO 2017203679 A1 WO2017203679 A1 WO 2017203679A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
information
bright spot
alignment
light
Prior art date
Application number
PCT/JP2016/065684
Other languages
English (en)
French (fr)
Inventor
徹 横山
Original Assignee
株式会社日立ハイテクノロジーズ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立ハイテクノロジーズ filed Critical 株式会社日立ハイテクノロジーズ
Priority to PCT/JP2016/065684 priority Critical patent/WO2017203679A1/ja
Publication of WO2017203679A1 publication Critical patent/WO2017203679A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/62Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light
    • G01N21/63Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light optically excited
    • G01N21/64Fluorescence; Phosphorescence
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/48Biological material, e.g. blood, urine; Haemocytometers
    • G01N33/483Physical analysis of biological material
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/41Bandwidth or redundancy reduction

Definitions

  • the present disclosure relates to a luminescent image encoding device, a luminescent image decoding device, and a luminescent image analysis system, and more particularly to a device that measures and analyzes a luminescent image of a biological substance such as DNA, RNA, or protein.
  • a method has been proposed in which a large number of DNA fragments to be analyzed are supported on a flow cell made of a glass substrate or a silicon substrate, and the base sequences of these many DNA fragments are determined in parallel.
  • a substrate with a fluorescent dye corresponding to a base is introduced into an analysis region on a flow cell containing a large number of DNA fragments, and the fluorescence emitted from each DNA fragment is detected by irradiating the flow cell with excitation light. To identify the base.
  • the analysis region is usually divided into a plurality of detection fields. After each irradiation, the detection field is changed and analysis is performed in all detection fields, followed by a polymerase extension reaction. A new fluorescent dye-attached substrate is introduced using, and each detection visual field is analyzed by the same operation as described above. By repeating this, the base sequence can be determined efficiently (see Patent Document 1).
  • the present disclosure has been made in view of such circumstances, and proposes a technique for reducing the size of writing to a storage device and improving the throughput for writing image data.
  • a luminescent image encoding device includes a process of generating alignment information by aligning a luminescent spot position in each of a plurality of luminescent images with a reference position, and a bright spot in the luminescent image.
  • processing for generating transmission data including encoded data and information on the bright spot position or information for specifying the bright spot position.
  • FIG. 3 is a diagram illustrating a schematic configuration example of an image compression unit 200 in the fluorescence image analysis apparatus 1.
  • FIG. 5 is a flowchart for explaining processing contents of an alignment processing unit 202; It is a figure for demonstrating the amount of position shift. It is a figure for demonstrating the concept of an approximation process.
  • 5 is a flowchart for explaining processing contents of an alignment reverse processing unit 203; It is a figure for demonstrating the specific example (concept) of each process by the position alignment reverse process part. It is a figure which shows the schematic structural example of the image restoration part 300 in the fluorescence image analysis apparatus 1 by 1st Embodiment of this indication.
  • 5 is a flowchart for explaining the processing contents of an alignment reverse processing unit 303 in the image restoration unit 300.
  • FIG. 10 is a diagram for explaining a concept of processing by a redundancy reduction unit 1102. It is a figure for demonstrating the process which quantizes the luminance value of a non-bright spot area
  • the embodiment of the present disclosure may be implemented by software running on a general-purpose computer, or may be implemented by dedicated hardware or a combination of software and hardware.
  • each processing in the embodiment of the present disclosure will be described with each processing unit (for example, a positioning processing unit, a bright spot extraction unit, an approximation processing unit, and a positioning reverse processing unit) as a “program” as a subject (operation subject).
  • the program performs processing determined by being executed by the processor using the memory and the communication port (communication control device), the description may be made with the processor as the subject.
  • Part or all of the program may be realized by dedicated hardware, or may be modularized.
  • DNA fragments are targeted for measurement / analysis, but RNA, proteins, etc. may be targeted in addition to DAN.
  • RNA, proteins, etc. may be targeted in addition to DAN.
  • the present disclosure is applicable to all biological materials.
  • FIG. 1 is a diagram illustrating a schematic configuration example of a fluorescence image analysis apparatus 1 according to an embodiment of the present disclosure.
  • the fluorescence image analysis apparatus 1 includes a flow cell 109, a liquid feeding system, a transport system, a temperature control system, an optical system, and a computer 119.
  • the liquid feeding system provides a means for supplying a reagent to the flow cell 109.
  • the solution feeding system reacted with the DNA fragment as the means, a reagent storage unit 114 that accommodates a plurality of reagent containers 113, a nozzle 111 that accesses the reagent containers 113, a pipe 112 that introduces the reagent into the flow cell 109, and a DNA fragment.
  • a waste liquid container 116 for discarding a waste liquid such as a reagent and a pipe 115 for introducing the waste liquid into the waste liquid container 116 are provided.
  • the transport system moves an analysis area 120 of a flow cell 109 described later to a predetermined position.
  • the transport system includes a stage 117 on which the flow cell 109 is placed, and a drive motor (not shown) that drives the stage.
  • the stage 117 is movable in each direction of the X axis and the Y axis that are orthogonal within the same plane.
  • the stage 117 can also be moved in the Z-axis direction orthogonal to the XY plane by a driving motor different from the stage driving motor.
  • the temperature control system adjusts the reaction temperature of the DNA fragment.
  • the temperature control system is provided on a stage 117 and includes a temperature control substrate 118 that promotes the reaction between a DNA fragment to be analyzed and a reagent.
  • the temperature control board 118 is realized by, for example, a Peltier element.
  • the optical system provides means for irradiating an analysis region 120 of a flow cell 109 described later with excitation light and detecting fluorescence (luminescence) emitted from the DNA fragment.
  • the optical system includes a light source 107, a condenser lens 110, an excitation filter 104, a dichroic mirror 105, a bandpass filter 103, an objective lens 108, an imaging lens 102, and a two-dimensional sensor 101.
  • An excitation filter 104, a dichroic mirror 105, and a band pass filter (also referred to as an absorption filter) 103 are included in the filter cube 106 as a set.
  • the bandpass filter 103 and the excitation filter 104 determine a wavelength region through which specific fluorescence (light having a specific wavelength) passes.
  • the flow of excitation light irradiation in the optical system will be described.
  • the excitation light emitted from the light source 107 is collected by the condenser lens 110 and enters the filter cube 106.
  • the incident excitation light passes through only a specific wavelength band through the excitation filter 104.
  • the transmitted light is reflected by the dichroic mirror 105 and collected on the flow cell 109 by the objective lens 108.
  • the condensed excitation light excites phosphors (light emitters) that excite in the specific wavelength band. Fluorescence emitted from the excited phosphor passes through the dichroic mirror 105, and only a specific wavelength band is transmitted through the bandpass filter 103.
  • the imaging lens 02 forms an image as a fluorescent spot on the two-dimensional sensor 101. To do.
  • the phosphor to be excited in a specific wavelength band is designed to have only one type, and as will be described later, four types of bases can be identified by the type of the phosphor.
  • four sets of filter cubes 106 are prepared according to the wavelength bands of the irradiation light and the detection light so that the four types of phosphors can be sequentially detected, and these can be sequentially switched.
  • the transmission characteristics of the excitation filter 104, the dichroic mirror 105, and the bandpass filter 103 in each filter cube 106 are designed so that each phosphor can be detected with the highest sensitivity.
  • the computer 119 includes a processor, a storage device (various memories such as ROM and RAM), an input device (keyboard, mouse, etc.), and an output device (printer, display, etc.) as in the case of a normal computer.
  • the computer analyzes the fluorescence image (luminescence image) detected and generated by the two-dimensional sensor 101 of the optical system, Base identification of individual DNA fragments is performed. It is assumed that a fluorescent image compression process and storage, which will be described later, are also performed on the computer 119.
  • control of the above-described liquid feeding system, transport system, temperature control system, and optical system, image analysis, base identification, and image compression and storage do not necessarily have to be controlled by one computer 119. It may be performed by a plurality of computers for the purpose of load distribution and processing time reduction.
  • FIG. 2 is a diagram showing processing steps for decoding a DNA base sequence.
  • the entire run (S21) for decoding is performed by repeating the cycle process (S22) M times.
  • M is the length of the base sequence to be obtained and is determined in advance.
  • the fluorescently labeled nucleotide (described later) in the immediately preceding cycle is removed from the DNA fragment and washed.
  • a reagent for this purpose is introduced onto the flow cell 109 via the pipe 112.
  • the waste liquid after washing is discharged to the waste liquid container 116 through the pipe 115.
  • a reagent containing a fluorescently labeled nucleotide is flowed to the analysis region 120 on the flow cell 109 via the pipe 112.
  • an extension reaction is caused by the DNA polymerase, and a fluorescently labeled nucleotide complementary to the DNA fragment on the reaction spot is incorporated.
  • the fluorescently labeled nucleotides are those in which four types of nucleotides (dCTP, dATP, dGTP, dTsTP) are labeled with four types of phosphors (FAM, Cy3, TexasTRed (TxR), Cy5), respectively. .
  • Each fluorescently labeled nucleotide is denoted as FAM-dCTP, Cy3-dATP, TxR-dGTP, Cy5-dTsTP.
  • dTsTP will be present, if it is base C, dGTP will be present, if base G is dCTP, if base T, dATP will be present.
  • the phosphor FAM corresponds to the base G
  • Cy3 corresponds to the base T
  • TxR corresponds to the base C
  • Cy5 corresponds to the base A.
  • Each fluorescently labeled nucleotide is blocked at the 3 'end so that it does not extend to the next base.
  • Imaging Process Process for Generating Fluorescent Image
  • the imaging process (S24) is performed by repeating the imaging process (S25) for each detection visual field described below N times.
  • N is the number of detection visual fields.
  • FIG. 3 is a diagram for explaining the concept of the detection visual field.
  • the detection visual field 121 corresponds to each area when the entire analysis area 120 is divided into N pieces.
  • the size of the detection visual field 121 is the size of a region that can be detected by the two-dimensional sensor 101 by one-time fluorescence detection, and is determined by the design of the optical system. As will be described later, fluorescent images corresponding to four types of phosphors are generated for each detection visual field 121.
  • the stage 117 is moved so that the detection visual field 121 for performing fluorescence detection comes to a position where the excitation light from the objective lens 108 is irradiated (S26).
  • the filter cube 106 is switched to a set corresponding to the phosphor (FAM) (S27).
  • (Iii) Irradiate excitation light and expose the two-dimensional sensor 101 to generate a fluorescent image.
  • Procedures (ii) and (iii) are performed on other types of phosphors (Cy3, TxR, Cy5).
  • fluorescence images for four types of phosphors are generated for each detection visual field.
  • FAM fluorescence image
  • Cy3 fluorescence image the reaction spot detected by the Cy3 fluorescence image
  • the base C the reaction spot detected by the base C
  • the reaction spot detected by the TxR fluorescence image is detected by the fluorescence image of the base T and Cy5. It is determined that the reaction spot is base G. As described above, the base type of each reaction spot detected in the detection visual field is determined.
  • FIG. 4 is a diagram showing the concept of determining this base sequence.
  • Cy3-dATP is incorporated when each reaction spot (DNA fragment having the base sequence ACGTATACGT 8) is extended by one base by a certain cycle (#N) chemistry treatment.
  • This fluorescently labeled nucleotide is detected as a spot on the fluorescence image of Cy3 in the imaging process.
  • the cycle (# N + 1) it is detected as a spot on the Cy5 fluorescence image.
  • the cycle (# N + 2) it is detected as a spot on the TxR fluorescence image.
  • the cycle (# N + 3) it is detected as a spot on the FAM fluorescence image.
  • the base sequence in this reaction spot is determined as TACG.
  • the information amount of the fluorescence image is reduced by using the following features in the fluorescence image obtained by the above-described processing.
  • image compression processing described later is desirably performed in parallel with the processing steps described in FIG.
  • the image of each field of view may be compressed, and the detection field image for one cycle is stored in a storage area (not shown), and then It may be performed in parallel with the chemistry processing (S23) of this cycle.
  • Feature 1 Collective image of bright spots On the two-dimensional sensor 101, fluorescence from individual DNA fragments is detected as a bright spot having a size of about several pixels. Further, these bright spots have a profile in which the brightness at the center is high and gradually decreases in the vicinity.
  • FIG. 5 is a diagram illustrating an example of a part of a fluorescent image including a bright spot having a profile with a high brightness at the center and a gradually decreasing density in the periphery.
  • the luminance profile on the line segment AB of one bright spot is the highest near the luminance center, the luminance is reduced toward the periphery, and is close to a Gaussian distribution.
  • (Ii) Feature 2 Bright spot position is unchanged As described above, a DNA fragment to be imaged is imaged in a state of being fixed on the flow cell 109 in advance. Therefore, on the four types of fluorescence images obtained in each detection field in each cycle, the position where the bright spot appears is the same in the same field, and the luminance value at the bright spot position varies depending on the base type. It will be something.
  • FIG. 6 is a diagram showing the concept of bright spots of four types of fluorescent images in each detection visual field.
  • FIG. 6 (a) for example, there are DNA fragments at eight positions P1 to P8 in a detection field of view in a certain cycle, and the respective bases are A, G, C, T, A, C, T, G.
  • the fluorescence images for the four types of phosphors correspond to the corresponding base types at positions P1 to P8, as shown in FIGS. 6 (b) to 6 (d).
  • Bright spots are detected in response to.
  • the positions from P1 to P8 are the same in the four fluorescent images.
  • the optical path differs depending on the wavelength, so that it is not exactly the same.
  • the bright spot position of four types of fluorescent images can be made common by performing the alignment process described later as necessary.
  • (Iii) Feature 3 Shooting the same detection field
  • the fluorescence image analyzing apparatus 1 repeatedly images the same detection field in each cycle. However, in each cycle, imaging is performed by moving the stage 117 and changing the detection visual field. For this reason, the position shift
  • FIG. 7 is a diagram showing the concept of misalignment between cycles. As shown in FIG. 7, there is a possibility that the imaging position is shifted due to the stage control error between the Nth cycle and the (N + 1) th cycle with respect to a certain detection field. Therefore, the DNA fragment positions (P1 to P8) in the N-cycle fluorescence image are detected as different positions (P1 ′ to P8 ′, respectively) on the (N + 1) -th cycle fluorescence image. However, these bright spots are all attributed to the same DNA fragment, and the DNA fragment is fixed on the flow cell 109 as described above. It is possible to share the bright spot position.
  • FIG. 8 is a diagram illustrating a schematic configuration example of the image compression unit 200 in the fluorescence image analysis apparatus 1 using the above-described image features 1 to 3.
  • the image compression unit 200 includes an alignment processing unit 202, an alignment inverse processing unit 203, a bright spot extraction unit 204, an approximation processing unit 205, and an encoding unit 206. As described above, these components can be realized by a program. Hereinafter, processing of each component will be described in detail.
  • the alignment processing unit 202 geometrically transforms the image of the input image D21 so that the positions of the pixels on the flow cell 109 of the input image (D21) and the reference image (D22) match.
  • the reference image (D22) is an image used for the coordinate system of the bright spot position.
  • each detection visual field image in the first cycle is used as a reference image, and each detection visual field image in the second cycle and thereafter is used.
  • the reference image can be aligned. In this case, when the reference image is the input image, the alignment process is not performed.
  • FIG. 9 is a flowchart for explaining the processing content of the alignment processing unit 202.
  • the alignment process is divided into a parameter calculation process (S20) for alignment and a process (S21) for geometrically transforming an image using this parameter.
  • the alignment processing unit 202 is described as an operation subject. However, since the alignment processing unit 202 is configured by a program, a processor may be the operation subject.
  • the alignment processing unit 202 calculates alignment parameters.
  • a known matching technique can be applied as the alignment parameter calculation process.
  • a cross-correlation function m (u, v) with the input image f (x, y) is obtained using an image obtained by cutting out a part of the reference image as a template image t (x, y).
  • S_1 (u, v) is the amount of displacement.
  • a normalized cross-correlation considering the difference in brightness may be used.
  • the position deviation amount may be obtained at a plurality of points according to the degree of image distortion. For example, when there is no distortion in the image and the same positional shift (only uniform shift by the stage) can be assumed for all pixels, the positional shift amount S_1 (u, v) can be applied (FIG. (Refer to the left figure of 10 (a)). In this case, the displacement amount S_1 (u, v) is the alignment parameter (D24).
  • the amount of positional deviation is n in the image. .., And S_n are obtained at the plurality of points (see the right diagram in FIG. 10A). Then, based on the n position shift amounts, for example, the position shift amount at an arbitrary pixel position can be formulated by obtaining a coefficient of affine transformation or polynomial conversion by the least square method (see FIG. 10B). . In this case, the coefficient of the conversion formula becomes the alignment parameter (D24).
  • the alignment processing unit 202 executes a geometric transformation process.
  • a positional deviation amount at an arbitrary pixel position is obtained from the above-described alignment parameter, and a luminance value at a pixel position corresponding to the positional deviation amount of each pixel is obtained. Since the amount of positional deviation is usually in units of a small number of pixels, the luminance value at the position of the small number of pixels is calculated based on the luminance at the surrounding integer pixel positions, such as the nearest neighbor method, linear interpolation method, and cubic interpolation method. be able to.
  • the image obtained in this way is the aligned image (D23).
  • the bright spot extraction unit 204 extracts bright spot information (D25) including a bright spot position derived from the DNA fragment and a list of luminance values at the position from the aligned image (D23).
  • An example of how to determine the bright spot position is to perform a predetermined threshold determination on the input image to separate the bright spot area and the non-spot spot area, and search for a local maximum value from the bright spot area. There is a way.
  • noise may be removed from the input image by a low-pass filter or a median filter.
  • the background correction process may be performed assuming a case where luminance unevenness occurs in the image.
  • a method is used in which an image obtained by photographing an area in which no DNA fragment exists is set as a background image and is subtracted from the input image.
  • a background component that is a low-frequency component may be removed by applying a high-pass filter to the input image.
  • the bright spot position included in the bright spot information (D25) includes the bright spots included in any of the four types of fluorescent images, and the bright spot information includes the four types of fluorescent spots of each bright spot. Note that the luminance value in the image is included. That is, as shown in FIG. 6, even if each bright spot is detected only on any one fluorescent image, the bright spot information (D25) includes one of four types of fluorescent images. All of the detected bright spots P1 to P8 are included, and each brightness value on the four types of fluorescent images at each bright spot position is included (strictly, the brightness value of each bright spot is not 0) For). For this reason, the bright spot information (D25) is obtained by integrating the bright spot information of individual images performed on the four types of fluorescent images.
  • the bright spot extraction process described above need not be performed in each cycle, and may be performed only in a cycle in which DNA fragments are extracted. For example, when a DNA fragment is accurately detected on the fluorescence image of the first cycle, the bright spot extraction process may be performed only in the first cycle. Alternatively, in order to improve the extraction accuracy of the bright spot, after performing the bright spot extraction process from the beginning to several cycles, only the bright spot with high reliability may be finally extracted.
  • the bright spot position information for the individual detection visual fields is held in the bright spot extraction unit 204.
  • the luminance value of the pixel at this bright spot position can be acquired.
  • an average value of luminance values of peripheral pixels at the bright spot position may be acquired instead of a single luminance value.
  • the approximate processing unit 205 generates an approximate image of the registered image (D23) based on the bright spot information (D25) obtained from the bright spot extracting unit 204, and the aligned image (D23), the approximate image, By taking these differences, an approximate difference image (D26) is generated.
  • FIG. 11 is a diagram for explaining the concept of approximation processing. It is assumed that the bright spot information (D25) is obtained by the processing of the bright spot extraction unit 204 described above on the aligned image (D24).
  • each bright spot has the highest brightness near the center of the bright spot, and there is a common tendency that the brightness decreases smoothly toward the periphery. Therefore, a template image having such a common tendency (see FIG. 11C) is held in the approximation processing unit 205 or a memory (not shown) in the computer 119 of the fluorescence image analysis apparatus 1 to approximate the template image.
  • a two-dimensional Gaussian distribution can be used.
  • an optimal image may be experimentally determined in advance, and stored as a template image in the approximation processing unit 205 or a memory in the computer 119 of the fluorescence image analysis apparatus 1.
  • an approximate parameter (D26a) may be created.
  • the shape of the bright spot is an ellipse
  • information on the sizes of the major axis and the minor axis, the angle of these axes, and the like may be included.
  • these approximate parameters (D26a) are necessary for the restoration process described later, it is necessary to note that the size of the compressed data increases by the amount of the parameters. For this reason, even if the approximation accuracy is lowered, there is a possibility that the size of the compressed data becomes smaller without using the approximation parameter (D26a). In consideration of such a possibility, whether to predict using the approximate parameter (D26a) may be selected for each bright spot. In that case, it is necessary to output data (D26b) on whether or not the approximate parameter is used for each bright spot.
  • FIG. 12 is a flowchart for explaining the processing contents of the alignment reverse processing unit 203.
  • the alignment reverse processing unit 203 is described as an operation subject. However, since the alignment reverse processing unit 203 is configured by a program, a processor may be the operation subject. Note that the alignment reverse process is required to realize lossless compression (lossless).
  • the registration reverse processing unit 203 calculates a reverse registration parameter for returning the registration processing to the registration parameter (D24). For example, as shown in the left diagram of FIG. 10A, when the alignment parameter (D24) is one displacement amount S_1 (u, v), the inverse alignment parameter of the alignment parameter (D24) has the sign of S_1. It will be reversed. Also, for example, as shown in the right diagram of FIG. 10A, if the alignment parameter (D24) is a parameter of a conversion equation (conversion matrix) obtained from a plurality of positional deviation amounts, the inverse matrix of the conversion matrix is This is a reverse alignment parameter.
  • Step 26 The registration reverse processing unit 203 uses the obtained reverse registration parameters to perform geometric transformation on the registration-processed image (D23), thereby obtaining a reverse-aligned image. Since this process is the same as the geometric transformation process (step 21 in FIG. 9), description thereof is omitted.
  • Step 27 The registration reverse processing unit 203 generates a registration difference image (D27) by taking the difference between the input image (D21) and the reverse processing image obtained in step 26.
  • This alignment difference image (D27) is information lost by aligning the original input image (D21), and is data necessary for lossless compression of the input image (D21).
  • FIG. 13 is a diagram for explaining a specific example (concept) of each process performed by the alignment reverse processing unit 203.
  • FIG. 13 by aligning the input image (D21) shown in FIG. 13 (b) with the reference image (D22) shown in FIG. 13 (a), as shown in FIG. 13 (c). Assume that a registered image (D23) is obtained.
  • the arrow A131 in FIG. 13C indicates the alignment parameter (D24).
  • the black portion is a position corresponding to the outside of the input image, and thus the luminance value is zero. Therefore, it should be noted that a part of the left and upper end regions in the input image is cut in FIG. This is because an area outside the area of the reference image exists on the input image by aligning the input image with the coordinate system of the reference image.
  • the alignment reverse processing unit 203 obtains the reverse alignment conversion parameter (arrow A132 in FIG. 13D) corresponding to the alignment parameter (D24) (step 25 in FIG. 12). By applying the geometric transformation based on the parameter to the registered image (D23), the reverse aligned image (FIG. 13D) is obtained (step 26 in FIG. 12).
  • the luminance values of the regions corresponding to the left and upper end regions cut in the aligned image (D23) are zero. Then, by subtracting the reversely aligned image from the input image (D21), the alignment difference image (D27) (FIG. 13E) is obtained (step 27 in FIG. 12).
  • a region A1 indicates image information of a region cut by the alignment process in the input image (D21).
  • An area A2 indicates the difference between the input image (D21) and the reverse-positioned image. If the alignment and the reverse alignment are completely reversible in pixel units, all become zero values. However, in the alignment process, for example, when geometric transformation that involves real number operations such as affine transformation and polynomial transformation is used, the alignment and its inverse transformation processing are completely reversible on a pixel basis due to rounding error of the pixel position. It may not be. Therefore, it should be noted that there may be pixels that do not have a zero value. However, since most of the pixels in the region A2 are expected to be zero, the registration difference image (D27) can be expected to reduce the amount of information due to a higher compression rate than the input image.
  • the encoding unit 206 performs encoding processing on the bright spot information (D25), the alignment parameter (D24), the approximate difference image (D26), the approximate parameters (D26a, D26b), and the alignment difference image. Is output as compressed data (D28). However, among the bright spot information (D25), the bright spot position information is common to all the detection visual fields in all cycles (if the same detection visual field, the bright spot positions are the same in all cycles). Bright spot position data (D29) different from the compressed image data (D28) is output.
  • the compressed data (D28) may include link information for referring to the bright spot position data (D29). Therefore, the bright spot position data (D29) can be generated and used only once for each detection visual field.
  • Compressed data includes header information. Based on this header information, the decoding unit 301 includes each of the bright spot information (for example, luminance information is included, but the bright spot position information is excluded), the alignment parameter, the approximate difference image, the approximate parameter, and the alignment difference image. Can be separated.
  • the bright spot information for example, luminance information is included, but the bright spot position information is excluded
  • a known lossless compression technique can be appropriately selected and used. Since the approximate difference image (D26) and the alignment difference image (D27) are image data, for example, JPEG- using the spatial redundancy (property of high correlation between adjacent pixels) peculiar to the image.
  • a known image compression method such as LS or JPEG-2000 can be used.
  • an entropy coding method using a probabilistic distribution (Huffman code or arithmetic coding), an LZ code or LZW code classified as a dictionary method, a block sorting method using rearrangement, etc.
  • a known general-purpose encoding method can be used.
  • the information amount of the DNA fragment is reduced by approximation of the DNA fragment part.
  • the bright spot position is shared in all cycles, so the information amount of the bright spot information is reduced. For this reason, a higher compression effect can be expected than a known general-purpose compression technique.
  • the brightness value is close to a specific value. A reduction in volume can be expected.
  • FIG. 14 is a diagram illustrating a schematic configuration example of the image restoration unit 300 in the fluorescence image analysis device 1 according to the first embodiment of the present disclosure.
  • the image restoration unit 300 includes a decoding unit 301, an approximation processing unit 302, and an alignment inverse processing unit 303, and restores an input image from the compressed data (D30) (D36).
  • the decoding unit 301 obtains bright spot information (D31), approximate difference image (D32), approximate parameters (D32a, D32b), and alignment parameters (D33) from the compressed data (D30) and the bright spot position data (D37). , And the alignment difference image (D34).
  • the approximation parameter is not necessarily required.
  • the decoding unit 301 performs a decoding process corresponding to the encoding process performed by the encoding unit 206 on the extracted data.
  • a decoding process corresponding to the encoding process performed by the encoding unit 206 on the extracted data.
  • known image compression such as JPEG-LS or JPEG-2000
  • the known difference corresponding to these compression methods is used for the approximate difference image (D32) and the alignment difference image (D34).
  • D32 approximate difference image
  • D34 the alignment difference image
  • decoding corresponding to the compression method used in the encoding unit 206 such as entropy coding (Huffman code or arithmetic coding), LZ code, LZW code, block sort method, etc. Processing can be used.
  • the approximate processing unit 302 creates an approximate image based on the bright spot information (D31), and generates an aligned image (D35) by adding the approximate difference image (D32) and the approximate image.
  • the approximate image generation processing in the approximate processing unit 302 is the same as the approximate processing method in the approximate processing unit 205.
  • the approximation processing unit 205 and the approximation processing unit 302 have the same template image and need to scale the template image by the same method. Therefore, when the approximation processing unit 205 in the image compression unit 200 uses the approximation parameters (D26a, D26b) when generating the approximate image, the approximation processing unit 302 in the image restoration unit 300 corresponds to this. It is necessary to generate an approximate image using the approximate parameters (D32a, D32b) in the same manner as the approximate processing unit 205. As a result, the input image can be reversibly restored.
  • FIG. 15 is a flowchart for explaining the processing contents of the registration reverse processing unit 303 in the image restoration unit 300.
  • the alignment reverse processing unit 303 is described as an operation subject. However, since the alignment reverse processing unit 303 is configured by a program, a processor may be the operation subject.
  • Step 30 The registration reverse processing unit 303 calculates a reverse registration parameter corresponding to the inverse transformation based on the registration parameter (D33).
  • Step 31 The registration reverse processing unit 303 applies a geometric transformation to the registered image (D35) using the reverse registration parameter to obtain a reverse registered image. Since these processes are the same as those of the registration reverse processing unit 203 in the image compression unit 200, description thereof will be omitted.
  • Step 32 The registration reverse processing unit 303 generates a restored image (D36) by adding the registration difference image (D34) to the reverse registration completed image obtained in step 31.
  • the fluorescence image analysis apparatus 1 generates an approximate image using the feature 1 that the DNA fragment image is a set of bright spots, Encoding is performed on the difference information.
  • the alignment process is performed by utilizing the feature 2 that the positions of the DNA fragments are fixed and the images are repeatedly captured in the same detection field. Thereby, the bright spot position is shared, and the amount of bright spot information necessary for creating the approximate image can be reduced.
  • the amount of image information necessary for the base sequence of the DNA fragment is reduced, the disk capacity and memory size of the apparatus are reduced, and the time for writing to and reading from the disk is reduced. Analysis throughput can be improved.
  • the second embodiment relates to the configuration of an image compression unit and an image restoration unit that further reduce the amount of data to be transmitted compared to the first embodiment.
  • FIG. 16 is a diagram illustrating a schematic configuration example of the image compression unit 600 in the fluorescence image analysis apparatus according to the second embodiment.
  • the major difference from the image compression unit 200 according to the first embodiment is that the bright spot information (D25) is already stored in the external bright spot information database (D40).
  • the image compression unit 600 acquires the bright spot information (D25) from the bright spot information database (D40), and performs the same processing as the approximate processing unit 205 described in the first embodiment.
  • the bright spot information database (D40) corresponds to fluorescent image data such as DNA currently being measured, and is held in, for example, a database.
  • the encoding unit 601 in the image compression unit 600 includes an approximate difference image (D26) from the approximate processing unit 205, an approximate parameter (D26a), data indicating whether or not the approximate parameter is used (D26b), and an alignment reverse process.
  • a predetermined encoding process (similar to the first embodiment) is executed on the alignment difference image (D27) from the unit, and compressed data (D41) in which these are integrated is generated.
  • the compressed data (D41) does not include the bright spot information (the bright spot position information and the luminance value information) itself, but the bright spot information data (D40).
  • the link information for referring to is stored. Examples of the link information include a path name and URL in the device of the bright spot information data file, but are not limited to these as long as the information can identify the bright spot information data. Since other processes are the same as those in the first embodiment, description thereof will be omitted.
  • the bright spot information database (D40) stores bright spot information separately from the storage of an image, which is the object of the present disclosure, for the purpose of obtaining a base sequence by correcting fading that occurs between cycles.
  • fading is caused by uncertainties in the extension reaction as described in the chemistry process. That is, in the chemistry process in each cycle, the incorporation of fluorescently labeled nucleotides into the amplified DNA fragment and the block at the 3 'end thereof are performed stochastically. For this reason, there always exist DNA molecules whose extension is shifted back and forth for several cycles. This phenomenon is called fading. In fading, on the fluorescent image, the luminance of a certain color in a certain cycle affects each other in the preceding and succeeding cycles. The luminance information of each cycle is often stored for the purpose of correcting the influence of luminance change due to fading.
  • FIG. 17 is a diagram illustrating a schematic configuration of the image restoration unit 500 in the fluorescence image analysis apparatus according to the second embodiment.
  • a major difference from the image restoration unit 500 according to the first embodiment is that the bright spot information (D31) is stored not in the compressed data (D51) but in the external bright spot information data (D50).
  • the decoding unit 501 acquires link information to the bright spot information database (D50) from the compressed data (D51).
  • the image restoration unit 500 accesses the bright spot information database (D50) based on the acquired link information, and acquires the bright spot information (D31).
  • the approximate processing unit 302 executes a process similar to the process described in the first embodiment. Since other processes are the same as those in the first embodiment, description thereof will be omitted.
  • the second embodiment employs a configuration in which a luminance information file for each cycle (corresponding to D40 and D50) is provided and can be referred to during image restoration. For this reason, by utilizing the data file as the bright spot information, it is possible to further reduce the information amount by the bright spot information database as compared with the case of the first embodiment.
  • the third embodiment relates to a fluorescence image analyzing apparatus 10 provided with two two-dimensional sensors and further improving measurement throughput.
  • FIG. 18 is a diagram illustrating a schematic configuration example of the fluorescence image analysis apparatus 10 according to the third embodiment of the present disclosure.
  • the fluorescence image analysis apparatus 10 includes a flow cell 409, a liquid feeding system, a transport system, a temperature control system, an optical system, and a computer 418.
  • functions and configurations other than the optical system are the same as those of the fluorescence image analysis apparatus 1 according to the first embodiment, and thus description thereof is omitted. Only the optical system will be described below.
  • the optical system of the fluorescence image analysis apparatus 10 includes a light source 407, a condenser lens 410, an excitation filter 404, dichroic mirrors 405 and 421, a bandpass filter (also referred to as an absorption filter) 403, an objective lens 408, and an image. It comprises lenses 402 and 419 and two-dimensional sensors 401 and 420.
  • the excitation filter 404, the dichroic mirror 405, and the band pass filter 403 are included as a set in the filter cube 406, as in the first embodiment.
  • the excitation light emitted from the light source 407 is collected by the condenser lens 410 and enters the filter cube 406.
  • the excitation filter 404 transmits only a specific wavelength band in the excitation light incident on the filter cube 406.
  • the transmitted light is reflected by the dichroic mirror 405 and condensed on the flow cell 409 by the objective lens 408.
  • the phosphors that excite in a specific wavelength band are excited by the condensed excitation light.
  • the fluorescence emitted from the excited phosphor passes through the dichroic mirror 405, and only a specific wavelength band is transmitted through the band pass filter 403.
  • the fluorescence that has passed through the bandpass filter 403 is divided for each wavelength band by the dichroic mirror 421.
  • One of the divided fluorescence is imaged as a fluorescent spot on the two-dimensional sensor 401 by the imaging lens 402.
  • the other divided fluorescence is imaged as a fluorescent spot on the two-dimensional sensor 420 by the imaging lens 419.
  • the excitation filter 404 As a design example of the excitation filter 404, the dichroic mirrors 405 and 421, and the band-pass filter 403 that can identify the type of phosphor as described above, the one disclosed in Patent Document 2 may be used. it can.
  • two images can be taken simultaneously for each irradiation of excitation light. Since four images can be captured by two excitation light irradiations, the number of excitation light irradiations can be halved compared to the first embodiment. Therefore, the imaging time can be shortened and the measurement throughput can be improved.
  • FIG. 19 is a diagram illustrating a schematic configuration of an image compression unit 700 according to the third embodiment.
  • the image compression unit 700 includes an alignment processing unit 701, a bright spot extraction unit 204, an approximation processing unit 205, an alignment inverse processing unit 702, and an encoding unit 703.
  • the bright spot extraction unit 204 and the approximation processing unit 205 are the same as the processing contents of the image compression unit 200 in the first embodiment, and thus are given the same numbers, and description thereof is omitted.
  • the same reference numerals are assigned to the same components as those in the first embodiment.
  • the processing of the image compression unit 700 for the input image D21 that is the target of image compression differs depending on whether or not the alignment between the two-dimensional sensors is performed. That is, when the alignment between the two-dimensional sensors has already been performed, there is no positional deviation between the two-dimensional sensors, and therefore the processing of the image compression unit 700 for the input image D21 is the image compression according to the first embodiment. This is the same as the unit 200.
  • As an example of alignment between two-dimensional sensors there is a method of performing a known camera calibration with a known image pattern in advance. On the other hand, when the alignment between the two-dimensional sensors is not performed, the image compression unit 700 needs to perform the alignment between the two-dimensional sensors.
  • FIG. 20 is a flowchart for explaining the processing content of the alignment processing unit 701.
  • the alignment processing unit 701 performs alignment processing between sensors and alignment processing between cycles. Among these, the contents of the alignment processing between cycles are the same as the alignment processing (see FIG. 9) executed by the alignment processing unit 202 according to the first embodiment.
  • the alignment processing unit 701 is described as an operation subject. However, since the alignment processing unit 701 is configured by a program, a processor may be the operation subject.
  • Step 70 The alignment processing unit 701 calculates alignment parameters from the reference image and the input image. For the calculation of the alignment parameter, for example, a known matching technique can be applied as in the inter-cycle alignment processing.
  • Step 71 The alignment processing unit 701 geometrically transforms the input image into the same coordinate system as that of the reference image based on the alignment parameter calculated in step 70.
  • the geometric transformation process is also the same as the process performed by the alignment processing unit 202 of the first embodiment.
  • Step 72 and Step 73 The alignment processing unit 701 executes cycle alignment processing similar to that in the first embodiment.
  • the sensor reference image (D72) used in the alignment parameter calculation (step 70) a fluorescence image captured by any one of the two-dimensional sensor 401 and the two-dimensional sensor 420 can be used.
  • the inter-sensor alignment process is performed only on the fluorescence image captured by a two-dimensional sensor different from the two-dimensional sensor selected as the sensor reference image (D72).
  • the alignment parameter calculation (step 70) is not necessarily performed for each detection visual field of each cycle. Since the main factor of the positional deviation between the sensors is due to the distortion characteristics of the individual sensors, it is estimated that the amount of change during the fluorescence image analysis run is small. In such a case, the inter-sensor alignment parameter is calculated only once in the first detection field of the first cycle, and thereafter, this parameter can be used for geometric transformation (step 71). In addition, when the fluorescent image analyzing apparatus 10 is installed or pre-processed in each run (not shown), an alignment parameter between sensors may be calculated in advance and applied to the geometric transformation (step 71). .
  • step 70 it is necessary to perform alignment parameter calculation (step 70) in each detection field of view. There is. Whether or not the change in the amount of positional deviation of the image between the sensors cannot be ignored is determined by, for example, the user (operator) by looking at the analysis result output of the fluorescence image analysis apparatus 10, The amount of data may be based on a predetermined value or more. Alternatively, the alignment process between sensors may be executed periodically.
  • the processing is performed in the order of alignment between sensors and alignment between cycles.
  • the positional deviation between sensors and the positional deviation between cycles are basically generated independently, You may go first.
  • the alignment parameter output by the alignment processing unit 701 includes both a parameter (D70a) obtained by alignment between sensors and a parameter (D70b) obtained by alignment between cycles.
  • FIG. 21 is a flowchart for explaining the processing contents of the registration reverse processing unit 702 in the third embodiment.
  • the processing of the registration reverse processing unit 702 includes a reverse registration process between cycles and a reverse registration process between sensors.
  • the order of the two reverse alignments is the reverse of the alignment processing performed by the alignment processing unit 701.
  • the reverse alignment process between cycles is the same as the process performed by the alignment reverse processing unit 203 in the first embodiment described with reference to FIG. 11, so the description thereof is omitted, and only the reverse alignment process between sensors is performed. explain.
  • An inter-cycle reverse alignment completed image is generated by the inter-cycle reverse alignment process.
  • Step 76 The registration reverse processing unit 702 performs reverse positioning between sensors in the same manner as the reverse registration parameter calculation processing (step 25 in FIG. 11) according to the first embodiment with respect to the alignment parameter (D70a) between sensors. Calculate the alignment parameter.
  • Step 77 The registration reverse processing unit 702 generates an inter-sensor reverse registered image by performing geometric transformation on the inter-cycle reverse registered image using the parameters calculated in step 76.
  • Step 78 The registration reverse processing unit 702 generates a registration difference image (D27) by subtracting the inter-sensor reverse registration completed image generated in step 77 from the input image (D21).
  • the difference between the encoding unit 206 according to the first embodiment and the encoding unit 703 according to the third embodiment is that the latter is an alignment parameter between cycles (D70b) and an alignment parameter between sensors (D70a). ) Is stored in the compressed data. The rest is the same as the encoding unit 206.
  • the image compression unit 700 adds the alignment process for correcting the positional deviation between the sensors to the image compression unit 200 in the first embodiment, thereby compressing the compressed data. Is generated.
  • FIG. 22 is a diagram illustrating a schematic configuration of an image restoration unit 800 according to the third embodiment.
  • the image restoration unit 800 includes a decoding unit 801, an approximation processing unit 302, and an alignment reverse processing unit 802. Since the processing content of the approximate processing unit 302 is the same as that of the approximate processing unit 302 of the image restoration unit 300 in the first embodiment, the same reference numerals are given and description thereof is omitted. In addition, the same reference numerals are assigned to the other configurations that are the same as those in the first embodiment.
  • ⁇ Decryption unit> The difference between the decoding unit 301 in the first embodiment and the decoding unit 801 in the third embodiment is that the latter is an alignment parameter, the inter-cycle alignment parameter (D80b) and the inter-sensor alignment parameter (D80a). Is obtained from the compressed data. The rest is the same as the decoding unit 301.
  • FIG. 23 is a flowchart for explaining the processing contents of the registration reverse processing unit 802 according to the third embodiment.
  • the registration reverse processing unit 702 executes reverse registration processing between cycles, reverse registration processing between sensors, and registration difference image addition processing (step 84).
  • the order of the reverse alignment process between cycles and the reverse alignment process between sensors is the reverse order of the alignment process performed by the alignment processing unit 701.
  • Steps 80 to 83 Among the processes in steps 80 to 83, the reverse alignment process between cycles (steps 80 and 81) and the reverse alignment process between sensors (steps 82 and 83) are the reverse of the alignment in the image compression unit 700 described with reference to FIG. Since it is the same as the process in the process part 203, description is abbreviate
  • An aligned image is generated by the inter-cycle reverse alignment process and the inter-sensor reverse alignment process.
  • Step 84 The registration inverse processing unit 802 obtains a restored image (D36) by adding the registration difference image (D34) obtained by the decoding unit 801 to the registered image obtained in steps 80 to 83. To do.
  • the image restoration unit 800 adds the inverse conversion process of alignment that corrects the positional deviation between the sensors to the image restoration unit 300 in the first embodiment.
  • the original input image can be restored from the compressed data.
  • the image compression processing and the image restoration processing have been described by taking the configuration of the fluorescence image analysis apparatus including two two-dimensional sensors as an example.
  • the concept itself described in the present embodiment is not limited to the number of sensors, and by adding processing for alignment between sensors and reverse alignment as much as the number of sensors increases, three or more sensors are added.
  • the present invention is also applicable to the configuration of a two-dimensional sensor.
  • FIG. 24 is a diagram illustrating a schematic configuration example of an image compression unit 900 according to the fourth embodiment.
  • a major difference from the image compression unit 700 according to the third embodiment is that the bright spot information (D25) is already stored in the external bright spot information database (D40).
  • the image compression unit 900 acquires the bright spot information (D25) from the bright spot information database (D40), and performs the same processing as the approximate processing unit 205 in the third embodiment.
  • the encoding unit 901 in the image compression unit 900 stores link information for referring to the bright spot information database (D40) in the compressed data (D41), as in the second embodiment.
  • Other processes are the same as those in the first embodiment.
  • the bright spot information database (D40) is the same as that of the second embodiment.
  • FIG. 25 is a diagram illustrating a schematic configuration example of the image restoration unit 1000 according to the fourth embodiment.
  • a major difference from the image restoration unit 800 according to the third embodiment is that the bright spot information (D31) is stored in the external bright spot information database (D50) instead of the compressed data (D51).
  • the decoding unit 1001 acquires link information to the above-described bright spot information database from the compressed data (D51). Then, the image restoration unit 1000 accesses the bright spot information data (D50) based on the link information, acquires the bright spot information (D31), and performs the same processing as the approximate processing unit 302 in the third embodiment. Execute. Other processes are the same as those in the third embodiment.
  • the fourth embodiment employs a configuration in which a luminance information file for each cycle (corresponding to D40 and D50) exists and can be referred to during image restoration. For this reason, by utilizing the data file as the bright spot information, it is possible to reduce the amount of information by the bright spot information database as compared with the case of the third embodiment.
  • each of the first to fourth embodiments a reversible compression process (lossless) of an input image is performed. That is, there is no loss of information.
  • the image area necessary for obtaining the base sequence of the DNA fragment is only the bright spot area where fluorescence is detected. For this reason, it can be said that the fluorescence image obtained in the first to fourth embodiments is redundant for the purpose of obtaining the base sequence.
  • the redundancy of the input image data is not intended for the purpose of storing all the information of the input image data without loss, but for the purpose of storing the image without reducing the amount of information only in the bright spot area. It is conceivable to save the image by greatly reducing the amount of data by reducing.
  • One example of means for achieving such an object is to store images for a plurality of cycles in each detection field in order to detect the position of a DNA fragment with high accuracy. That is, if the DNA fragments are in close proximity to each other and the DNA fragments that are in close contact in the first cycle are of the same base type, these fluorescences overlap in the same fluorescence image, so that the close DNA fragments are distinguished from each other. It may be difficult.
  • the probability that close DNA fragments are all of the same base type from the beginning to the fifth cycle is approximately (1/4) to the fifth power. Accordingly, if fluorescent images for 5 cycles are stored, it can be said that the DNA types that are in close contact with each other have different base types at an extremely high probability, so that the boundary between the two companies can be detected from the image.
  • the fifth embodiment proposes a configuration for compressing and restoring an image by reducing the redundancy of the input image without reducing the amount of information only in the bright spot region.
  • ⁇ Configuration of fluorescence image analyzer> As an example of the overall configuration of the fluorescence image analysis apparatus according to the fifth embodiment, a configuration including two two-dimensional sensors shown in FIG. 18 can be employed. However, as will be described later, the gist of the present disclosure does not depend on the number of two-dimensional sensors. For example, the present disclosure can be applied to a configuration with a single sensor as shown in FIG. 2 or a configuration with three or more sensors. It is possible to do.
  • FIG. 26 is a diagram illustrating a schematic configuration example of the image compression unit 1100 according to the fifth embodiment.
  • the image compression unit 1100 includes an alignment processing unit 701, a bright spot area extraction unit 1101, a redundancy reduction unit 1102, and an encoding unit 1103.
  • the registration processing unit 701 performs the same processing as the registration processing unit 701 in the image compression unit 700 according to the second embodiment, and therefore has the same reference number. Description is omitted. Also, with respect to other components, the same reference numerals are assigned to those that execute the same processing as in the above-described embodiments.
  • the bright spot area extraction unit 1101 extracts bright spot area information (D112) derived from the DNA fragment from the aligned image (D23). Unlike the bright spot information (D25) according to the first embodiment, the bright spot area information (D112) is information indicating an area that is regarded as a part of the bright spot, and does not include luminance value information.
  • FIG. 27 is a diagram showing an example in which a bitmap is used as the form of the bright spot area information (D112).
  • 1 bit is assigned to each pixel unit of the fluorescent image, and a bright spot region is formed by a bit map such that “1” is a bright spot region and “0” is a non-bright spot region.
  • Express information in order to reduce the information amount of the bitmap, the above 1 bit may be assigned to a region of K pixels ⁇ K pixels (K> 1) instead of one pixel unit, and the same expression may be used.
  • FIG. 28 is a diagram showing an example in which a list of pairs of center positions and widths is used as another form of the bright spot area information (D112).
  • the information of the bright spot area is composed of coordinate information of the center position of the bright spot and information of the width around the center. That is, from these pieces of information, a region corresponding to the grayed out portion in FIG. 28 can be generated as a bright spot region.
  • the unit of the center position and the width may be K pixel (K> 1) units instead of one pixel unit.
  • the area width may be a fixed value, and the area width information may be eliminated.
  • the center position may be expressed not by XY position coordinates but by a raster scan order number.
  • the bright spot area extraction unit 1101 performs a predetermined threshold determination on the input image to divide the bright spot area and the non-bright spot area, and Alternatively, the maximum value may be searched from the extracted bright spot region.
  • noise removal may be performed on the input image using a low-pass filter, a median filter, or the like.
  • the background correction process may be performed assuming a case where luminance unevenness occurs in the image.
  • a method in which an image obtained by photographing a region where no DNA fragment is present in advance is set as a background image and is subtracted from the input image can be used.
  • a background component that is a low-frequency component may be removed by applying a high-pass filter to the input image.
  • the bright spot region extraction process as described above does not need to be performed in each cycle, and may be performed only in the first cycle.
  • FIG. 29 is a diagram for explaining the concept of processing by the redundancy reduction unit 1102.
  • the black portion represents the bright spot region. That is, the non-bright spot area is other than the black area. Information on these areas is input to the redundancy reduction unit 1102 as bright spot area information (D112). Note that in the aligned image (D23) (FIG. 29A), the non-bright spot region includes background noise.
  • the redundancy reduction unit 1102 creates a redundancy reduction image (D111) by replacing the luminance value of the pixel in the non-bright spot region with a fixed value.
  • the fixed value may be a zero value or an average value of the non-bright spot region.
  • QS is set to a value larger than the maximum luminance value, all Q values are zero values.
  • the encoding unit 1103 can be expected to have a high compression rate.
  • the encoding unit 1103 encodes the redundancy reduced image (D111) and outputs compressed data (D110). Since the redundancy reduced image (D111) has spatial redundancy as an image, known lossless image compression such as JPEG-LS or JPEG2000 is desirable. However, since the same value frequently appears in the non-bright spot region, an entropy coding method (Huffman code or arithmetic coding) using a probabilistic distribution, an LZ code or an LZW code classified as a dictionary method, an array A high compression rate can also be expected by using a known general-purpose encoding method such as a block sort method using replacement.
  • a known general-purpose encoding method such as a block sort method using replacement.
  • the alignment parameter (D70aD70b) obtained by the alignment processing unit 701 is passed to the encoding unit 1103 and stored in the compressed data (D110). This is used to return the fluorescence image restored by the image restoration unit 1200 described later to the same position coordinates as the original input image (reverse positioning). Accordingly, as in the present embodiment, if only the luminance value of the bright spot region needs to be stored, the reverse positioning is unnecessary, and the parameter can be omitted.
  • FIG. 31 is a diagram illustrating a schematic configuration example of an image restoration unit 1200 according to the fifth embodiment.
  • the image restoration unit 1200 includes a decoding unit 1201 and a registration reverse processing unit 802. Since the registration reverse processing unit 802 executes the same processing as the image restoration unit 800 in the third embodiment, the same reference numerals are assigned and description thereof is omitted. Also, with respect to other components, the same reference numerals are assigned to those that execute the same processes as those in the above-described embodiments.
  • the decoding unit 1201 decodes the redundancy reduced image (D122) from the compressed data (D120) output from the image compression unit 1100.
  • a decoding method an image compression method used in the image compression unit 1100 or a known decoding method corresponding to the general-purpose encoding method can be used.
  • the decoding unit 1201 extracts them and passes them to the alignment inverse processing unit 802.
  • the registration reverse processing unit 802 executes the reverse registration processing as described in the third embodiment on the redundancy reduced image (D122) using the registration parameters.
  • the reversely aligned image becomes the restored image (D121).
  • the decoding unit 1201 sets the redundancy reduced image (D122) as the restored image (D121).
  • the overall configuration of the fluorescence image analyzing apparatus according to the sixth embodiment is the same as that of the fifth embodiment.
  • the sixth embodiment proposes a method for reducing redundancy that is different from that of the fifth embodiment.
  • FIG. 32 is a diagram illustrating a schematic configuration example of an image compression unit 1300 according to the sixth embodiment.
  • the image compression unit 1300 includes an alignment processing unit 701, a bright spot region extraction unit 1101, a redundancy reduction unit 1302, and an encoding unit 1301. Since the alignment processing unit 701 performs the same processing as the alignment processing unit 701 according to the third embodiment, description thereof is omitted. Further, the bright spot area extraction unit 1101 performs the same processing as the bright spot area extraction unit 1101 according to the fifth embodiment, and thus description thereof is omitted.
  • the same reference numerals are assigned to the same components as those in the above-described embodiments.
  • FIG. 33 is a diagram for explaining the concept of processing of the redundancy reduction unit 1302 according to the sixth embodiment.
  • the pixels (gray in the figure) in the bright spot area indicated by the bright spot area information (D112) are numbered in the raster scan order.
  • the redundancy reduction unit 1302 generates luminance data (D131) in which only the luminance values of the pixels in the bright spot area are stored in the raster scan order. That is, in FIG. 33, the pixels in the bright spot region are numbered from 1 to 23 in the raster scan order, and only the luminance values V1 to V23 of the respective pixels are stored as the luminance data.
  • the image restoration unit 1400 which will be described later, requires bright spot area data (D112) in order to restore an image from this luminance data.
  • the encoding unit 1301 generates bright spot area data (D132) from the bright spot area information (D112), and generates compressed data (D130) from the brightness data (D131).
  • the encoding unit 1301 uses a known general-purpose encoding method such as an LZ code, an LZW code, or a block sort method instead of an image-specific compression technique such as JPEG-LS. Better.
  • FIG. 34 is a diagram illustrating a schematic configuration example of an image restoration unit 1400 according to the sixth embodiment.
  • the image restoration unit 1400 includes a decoding unit 1401, an image reconstruction unit 1402, and a registration reverse processing unit 802. Since the registration reverse processing unit 802 performs the same processing as the registration reverse processing unit 802 according to the third embodiment, the same reference numerals are assigned and description thereof is omitted. Also, with respect to other components, the same reference numerals are assigned to those that execute the same processing as in the above-described embodiments.
  • the decoding unit 1401 decodes the luminance data (D143) from the compressed data (D140), and decodes the luminance region information (D142) from the luminance region data (D141).
  • a decoding method a known decoding method corresponding to the general-purpose encoding method used in the image compression unit 1100 can be used.
  • the image reconstruction unit 1402 reconstructs the redundancy reduced image (D144) from the brightness area information (D142) and the brightness data (D143). That is, the luminance value of the luminance data (D143) may be assigned in the raster scan order to the pixel position (for example, FIG. 27 or FIG. 29) of the bright spot region represented by the luminance region information (D142). Further, a predetermined fixed value may be entered for the pixels in the non-bright spot region.
  • the obtained redundancy reduced image (D144) is the same image as the redundancy reduced image (D122) in the fifth embodiment.
  • the processing of the registration reverse processing unit 802 is the same as the processing of the registration reverse processing unit 802 in the fifth embodiment. That is, when the alignment parameters (D80a, D80b) are stored in the compressed data (D140), the decoding unit 1401 extracts these and passes them to the alignment inverse processing unit 802. The registration reverse processing unit 802 performs the reverse registration processing on the redundancy reduced image (D144) using the registration parameters, as in the third embodiment, and generates a registered image. This reversely aligned image becomes the restored image (D145). When the alignment parameters (D80a, D80b) are not stored in the compressed data (D140), the alignment inverse processing unit 802 outputs the redundancy reduced image (D144) as a restored image (D145).
  • the fluorescence image analysis device executes both encoding processing and decoding processing of the fluorescence image (light emission image).
  • a fluorescence image analysis device fluorescence image analysis system
  • the encoding process is executed by the fluorescence image encoding device
  • the decoding process is performed by fluorescence. You may perform with an image decoding apparatus.
  • the fluorescence image encoding apparatus (first to sixth embodiments) according to the present disclosure each of a plurality of fluorescence images of a biological substance (for example, a fragment of DNA, RNA, protein, etc.) arranged in a flow cell.
  • a biological substance for example, a fragment of DNA, RNA, protein, etc.
  • Processing for generating encoded data by reducing the information amount of the signal intensity of bright spots and the amount of information of alignment information, and for specifying the encoded data and information of bright spot positions or bright spot positions (For example, information indicating a location where bright spot information such as a path name or URL is stored) and a process for generating transmission data are executed.
  • the compression rate of the fluorescence image data is improved.
  • the position between images acquired between different decoding cycles of the biological material Alignment information is generated by calculating the shift amount.
  • the plurality of fluorescent images are composed of a plurality of images acquired by a plurality of two-dimensional sensors (two two-dimensional sensors in the embodiment).
  • the amount of positional deviation between images acquired between different decoding cycles of the biological substance and the position between a plurality of two-dimensional sensors in the same decoding cycle of the biological substance By calculating the deviation amount, alignment information is generated. That is, in this case, information for correcting the amount of positional deviation between cycles and information for correcting the positional deviation between sensors are acquired.
  • a plurality of two-dimensional sensors it is possible to reduce the number of fluorescence image acquisitions, and thus it is possible to improve the throughput of fluorescence image analysis.
  • encoding efficiency can be increased.
  • an approximate image representing a fluorescent image is generated based on signal intensity information of a bright spot and a predetermined profile (for example, Gaussian distribution). Then, an approximate difference image is generated by taking a difference between the input fluorescent image (processing target fluorescent image) and the approximate image. The approximate difference image is compressed and transmitted as encoded data. By approximating to a specific profile in this way, it is possible to increase the encoding efficiency.
  • the registration reverse process is performed to return the alignment fluorescent image obtained by aligning the input fluorescent image to the original position. Then, a difference between the fluorescence image that has been subjected to the alignment reverse processing and the input fluorescence image is taken, and an alignment difference image is generated and included in the encoded data. In this way, by generating the alignment difference image, it becomes possible to execute the encoding process reversibly (lossless).
  • the information on the bright spot position and the information on the signal intensity of the bright spot in the fluorescent image are extracted from the input fluorescent image.
  • the information on the bright spot position in the fluorescent image and the information on the signal intensity of the bright spot are acquired from an external database connected to the fluorescent image encoding apparatus. Especially in the latter case, the amount of information of encoded data to be transmitted can be reduced.
  • redundancy reduction data in which the information amount of the fluorescent image is reduced is generated by setting the information of the non-bright spot region to a fixed value or being quantized.
  • the bright spot area information luminance value
  • the coding efficiency can be dramatically improved.
  • the sixth embodiment only the information on the bright spot area (information indicating in which area the bright spot exists) and the luminance value in that area (information on the signal intensity of the bright spot area) are encoded. In this case as well, lossless cannot be realized, but since the encoding target is not an image, the encoding efficiency can be dramatically improved.
  • the fluorescence image decoding apparatus decodes transmission data generated by the fluorescence image encoding apparatus.
  • Data for transmission (a) Information on bright spot positions or multiple bright spot positions in multiple fluorescent images obtained by irradiating biological materials placed in the flow cell with excitation light in the fluorescent image encoding device Information (for example, information indicating a place where bright spot information such as a path name or URL is stored) and (b) encoded data for restoring a fluorescent image.
  • the encoded data includes alignment information generated by matching the position of the bright spot in each of the plurality of fluorescent images with the reference position.
  • the fluorescence image decoding apparatus generates a reconstructed image of the fluorescence image using the alignment information and the signal intensity information of the bright spot of the fluorescence image, and performs reverse alignment of the reconstructed image using the alignment information. And generating a restored image of the fluorescence image. By doing so, it is possible to restore the original fluorescence image from the efficiently encoded data.
  • the encoded data is further generated based on (a) the approximate difference image generated in the fluorescent image encoding device (information on the signal intensity of the bright spot and a predetermined profile). Obtained by taking the difference between the approximate image and the fluorescence image) and the alignment fluorescence image generated by the fluorescence image encoding device (obtained by aligning the input fluorescence image based on the alignment information) And a registration difference image generated by taking a difference between the registration reverse processed fluorescence image obtained by performing the registration reverse processing on the image) and the input fluorescence image.
  • the fluorescence image decoding device generates a reconstructed image based on the information on the predetermined profile, the information on the signal intensity of the bright spot, and the approximate difference image.
  • the fluorescence image decoding device generates a restored image by adding the registration difference image to the realigned reconstructed image. In this way, instead of decoding the fluorescent image itself, the difference between the approximate image and the input image is decoded, and the fluorescent image is reconstructed using the same profile used in the encoding process. Therefore, the amount of information required for the conversion is small, and the processing efficiency can be improved.
  • the alignment information and the signal intensity information of the bright spot are included in the encoded data. Therefore, the fluorescence image decoding device decodes the encoded data and acquires these pieces of information.
  • the information on the bright spot position in the fluorescent image and the information on the signal intensity of the bright spot are acquired from an external database connected to the fluorescent image encoding apparatus.
  • the encoded data is set to a luminance value (signal intensity information) of a bright spot in the bright spot area and a fixed value or a quantized value of information in the non-bright spot area.
  • redundancy reduction data composed of information.
  • the fluorescent image decoding apparatus generates the restored image by decoding the encoded data to obtain the redundancy reduction data, and performing the reverse alignment of the redundancy reduction data using the alignment information. In this way, lossless images cannot be acquired, but the content of the decoding process can be simplified and throughput can be improved.
  • the encoded data includes information on the bright spot area (information indicating in which area of the fluorescent image the bright spot exists) and the brightness value of the bright spot area (signal intensity of the bright spot area). Information).
  • the fluorescent image decoding device decodes the encoded data, acquires the luminance value in the bright spot region, and restores the image. In this way, lossless images cannot be acquired, but the content of the decoding process can be simplified and throughput can be improved.
  • the present disclosure is not limited to the above-described embodiment, and includes various modifications.
  • the above-described embodiments have been described in detail in order to easily understand the present disclosure, and are not necessarily limited to those having all the configurations described.
  • a part of the configuration of an embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of an embodiment.
  • the present disclosure is not limited to the fluorescence image, and can be replaced with images in which various light emission phenomena are detected.
  • an image obtained by detecting scattered light with respect to incident light may be used, or an image obtained by detecting light emission by chemical reaction or light emission by excitation by application of voltage or electron beam irradiation may be used.
  • Each of the above-described configurations, functions, processing units, processing means, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit.
  • Each of the above-described configurations, functions, and the like may be realized by software by interpreting and executing a program that realizes each function by the processor.
  • Information such as programs, tables, and files for realizing each function can be stored in a recording device such as a memory, a hard disk, an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Biochemistry (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Food Science & Technology (AREA)
  • Medicinal Chemistry (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Urology & Nephrology (AREA)
  • Molecular Biology (AREA)
  • Hematology (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Investigating, Analyzing Materials By Fluorescence Or Luminescence (AREA)

Abstract

本開示は、記憶装置への書込みサイズを削減し、かつ画像データ書込みのためのスループットを向上させる技術を提案する。本開示による発光画像符号化装置は、複数の発光画像のそれぞれにおける輝点の位置を基準位置に合わせることにより位置合わせ情報を生成する処理と、発光画像における輝点位置の情報と輝点の信号強度の情報とを用いて、複数の発光画像における輝点の信号強度の情報量と、位置合わせ情報の情報量とを削減して符号化データを生成する処理と、符号化データと、輝点位置の情報、或いは輝点位置を特定するための情報と、を含む伝送用データを生成する処理と、を実行する(図8)。

Description

発光画像符号化装置、発光画像復号化装置、及び発光画像解析システム
 本開示は、発光画像符号化装置、発光画像復号化装置、及び発光画像解析システムに関し、例えばDNA、RNA、たんぱく質等の生体関連物質の発光画像を計測、解析する装置に関するものである。
 近年、核酸分析用装置においては、ガラス基板もしくはシリコン基板等によるフローセルに分析対象となるDNA断片を数多く担持して、これら数多くのDNA断片の塩基配列をパラレルに決定する方法が提案されている。当該分析方法では、多数のDNA断片を含むフローセル上の分析領域に、塩基に対応する蛍光色素付き基質を導入し、当該フローセルに励起光を照射して個々のDNA断片から発せられる蛍光を検出して塩基を特定する。
 また、大量のDNA断片を解析するため、通常、上記分析領域は複数の検出視野に分けられ、一回照射するごとに検出視野を換えて全ての検出視野で分析を行った後、ポリメラーゼ伸長反応を用いて新たな蛍光色素付き基質を導入し、上述と同様な操作で各検出視野を分析する。これを繰り返すことで効率よく塩基配列を決定することができる(特許文献1参照)。
 上述のような分析では、各検出領域に対して、4つの塩基に対する蛍光色素の画像が撮像されるため、生成される画像データの量は膨大となる。その一方で、核酸分析の再現性確認や、実験データのエビデンスを確保するなどの目的で、当該画像をロスレスで保存できることには意義がある。
米国特許出願公開第2009/0270273号明細書 特許第5337676号公報
 しかしながら、撮像した蛍光画像データそのものを保存しようとすると、装置内の記憶装置へ書き込みサイズが膨大となり、スループットが増加するという課題がある。このため、既知の画像圧縮手段(例えば、JPEG-LS)を用いて画像データを圧縮してから記憶装置へ書き込むという方法がある。ところが、このような圧縮手段で蛍光画像データを圧縮しても、十分な圧縮率を実現できず、スループット増加という課題を解決するには至っていない。
 本開示はこのような状況に鑑みてなされたものであり、記憶装置への書込みサイズを削減し、かつ画像データ書込みのためのスループットを向上させる技術を提案するものである。
 上記課題を解決するために、本開示による発光画像符号化装置は、複数の発光画像のそれぞれにおける輝点の位置を基準位置に合わせることにより位置合わせ情報を生成する処理と、発光画像における輝点位置の情報と輝点の信号強度の情報とを用いて、複数の発光画像における輝点の信号強度の情報量と、位置合わせ情報の情報量とを削減して符号化データを生成する処理と、符号化データと、輝点位置の情報、或いは輝点位置を特定するための情報と、を含む伝送用データを生成する処理と、を実行する。
 本開示に関連する更なる特徴は、本明細書の記述、添付図面から明らかになるものである。また、本開示の態様は、要素及び多様な要素の組み合わせ及び以降の詳細な記述と添付される請求の範囲の様態により達成され実現される。
 本明細書の記述は典型的な例示に過ぎず、本開示の請求の範囲又は適用例を如何なる意味に於いても限定するものではないことを理解する必要がある。
 本開示によれば、記憶装置への書込みサイズを削減し、かつ画像データ書込みのためのスループットを向上させることが可能となる。
本開示の実施形態による蛍光画像解析装置1の概略構成例を示す図である。 DNAの塩基配列の解読のための処理工程を示す図である。 検出視野の概念を説明するための図である。 塩基配列の決定の概念を示す図である。 中心の輝度が高く、周辺になだらかに減少していくプロファイルを有する輝点を含む蛍光画像の一部の例を示す図である。 個々の検出視野における4種類の蛍光画像の輝点の概念を示す図である。 サイクル間の位置ずれの概念を示す図である。 蛍光画像解析装置1における画像圧縮部200の概略構成例を示す図である。 位置合わせ処理部202の処理内容を説明するためのフローチャートである。 位置ずれ量を説明するための図である。 近似処理の概念を説明するための図である。 位置合わせ逆処理部203の処理内容を説明するためのフローチャートである。 位置合わせ逆処理部203による各処理の具体例(概念)を説明するための図である。 本開示の第1の実施形態による蛍光画像解析装置1における画像復元部300の概略構成例を示す図である。 画像復元部300における位置合わせ逆処理部303の処理内容を説明するためのフローチャートである。 第2の実施形態による蛍光画像解析装置における画像圧縮部600の概略構成例を示す図である。 第2の実施形態による蛍光画像解析装置における画像復元部500の概略構成を示す図である。 本開示の第3の実施形態による蛍光画像解析装置10の概略構成例を示す図である。 第3の実施形態による画像圧縮部700の概略構成を示す図である。 位置合わせ処理部701の処理内容を説明するためのフローチャートである。 第3の実施形態における位置合わせ逆処理部702の処理内容を説明するためのフローチャートである。 第3の実施形態による画像復元部800の概略構成を示す図である。 第3の実施形態による位置合わせ逆処理部802の処理内容を説明するためのフローチャートである。 第4の実施形態による画像圧縮部900の概略構成例を示す図である。 第4の実施形態による画像復元部1000の概略構成例を示す図である。 第5の実施形態による画像圧縮部1100の概略構成例を示す図である。 輝点領域情報(D112)の形態としてビットマップを用いる例を示す図である。 輝点領域情報(D112)の別の形態として中心位置と幅の組のリストを用いる例を示す図である。 冗長度削減部1102による処理の概念を説明するための図である。 量子化ステップ幅QSによって非輝点領域の輝度値を量子化する処理を説明するための図である。 第5の実施形態による画像復元部1200の概略構成例を示す図である。 第6の実施形態による画像圧縮部1300の概略構成例を示す図である。 第6の実施形態による冗長度削減部1302の処理の概念を説明するための図である。 第6の実施形態による画像復元部1400の概略構成例を示す図である。
 以下、添付図面を参照して本開示の実施形態について説明する。添付図面では、機能的に同じ要素は同じ番号で表示される場合もある。なお、添付図面は本開示の原理に則った具体的な実施形態と実装例を示しているが、これらは本開示の理解のためのものであり、決して本開示を限定的に解釈するために用いられるものではない。
 本実施形態では、当業者が本開示を実施するのに十分詳細にその説明がなされているが、他の実装・形態も可能で、本開示の技術的思想の範囲と精神を逸脱することなく構成・構造の変更や多様な要素の置き換えが可能であることを理解する必要がある。従って、以降の記述をこれに限定して解釈してはならない。
 更に、本開示の実施形態は、後述されるように、汎用コンピュータ上で稼動するソフトウェアで実装しても良いし専用ハードウェア又はソフトウェアとハードウェアの組み合わせで実装しても良い。
 以下では、「プログラム」としての各処理部(例えば、位置合わせ処理部、輝点抽出部、近似処理部、位置合わせ逆処理部、)を主語(動作主体)として本開示の実施形態における各処理について説明を行うが、プログラムはプロセッサによって実行されることで定められた処理をメモリ及び通信ポート(通信制御装置)を用いながら行うため、プロセッサを主語とした説明としてもよい。プログラムの一部または全ては専用ハードウェアで実現してもよく、また、モジュール化されていても良い。
 また、本実施形態による蛍光画像解析装置(以下、発光画像解析装置とも称することができる)では、DNA断片を測定・解析対象としているが、DANの他、RNAやたんぱく質等を対象としても良い。本開示は、生体関連物質の全般に適用可能である。
(1)第1の実施形態
 <蛍光画像解析装置の構成>
 図1は、本開示の実施形態による蛍光画像解析装置1の概略構成例を示す図である。蛍光画像解析装置1は、フローセル109と、送液系と、搬送系と、温調系と、光学系と、コンピュータ119と、を有する。
 送液系は、フローセル109に試薬を供給する手段を提供する。送液系は、当該手段として、複数の試薬容器113を収容する試薬保管ユニット114と、試薬容器113へアクセスするノズル111と、上記試薬をフローセル109へ導入する配管112と、DNA断片と反応した試薬等の廃液を廃棄する廃液容器116と、廃液を廃液容器116へ導入する配管115と、を備えている。
 搬送系は、後述するフローセル109の分析領域120を所定の位置に移動させるものである。搬送系は、フローセル109が置かれたステージ117と、同ステージを駆動する駆動用モータ(図示しない)と、を備える。ステージ117は、同一平面内において直交するX軸およびY軸の各方向に移動可能である。なお、ステージ117は、ステージ駆動用モータとは別の駆動用モータにより、XY平面に直交するZ軸方向への移動も可能である。
 温調系は、DNA断片の反応温度を調整するものである。温調系は、ステージ117上に設置され、分析対象であるDNA断片と試薬の反応を促進させる温調基板118を備えている。温調基板118は、例えば、ペルチェ素子などにより実現される。
 光学系は、後述するフローセル109の分析領域120へ励起光を照射し、DNA断片から発せられる蛍光(発光)を検出する手段を提供する。光学系は、光源107と、コンデンサレンズ110と、励起フィルタ104と、ダイクロイックミラー105と、バンドパスフィルタ103と、対物レンズ108と、結像レンズ102と、2次元センサ101と、によって構成される。励起フィルタ104と、ダイクロイックミラー105と、バンドパスフィルタ(吸収フィルタとも称する)103とは、フィルタキューブ106内にセットとして含まれている。バンドパスフィルタ103と励起フィルタ104とによって特定の蛍光(特定の波長を有する光)を通過させる波長領域が決まる。
 光学系における励起光の照射の流れを説明する。光源107から発せられる励起光は、コンデンサレンズ110で集光され、フィルタキューブ106に入射する。入射した励起光は、励起フィルタ104で特定の波長帯域のみが透過する。透過した光は、ダイクロイックミラー105で反射し、対物レンズ108によって、フローセル109上に集光する。
 次に光学系における蛍光検出の流れを説明する。集光された励起光によって、フローセル109上に固定されたDNA断片に取り込まれた4種の蛍光体のうち、上記特定の波長帯域に励起する蛍光体(発光体)が励起される。励起された蛍光体から発せられる蛍光は、ダイクロイックミラー105を透過し、バンドパスフィルタ103にて特定の波長帯域のみが透過され、結像レンズ02によって、2次元センサ101上に蛍光スポットとして結像する。
 本実施形態では、特定の波長帯域に励起する蛍光体は1種類のみとなるよう設計され、後述するように、この蛍光体の種類によって4種類の塩基をそれぞれ識別できるものとする。また、この4種類の蛍光体を順次検出できるように、照射光と検出光との波長帯域に応じてフィルタキューブ106が4セット用意され、これらを順次切り替えられるものとする。個々のフィルタキューブ106内の励起フィルタ104とダイクロイックミラー105と、バンドパスフィルタ103とは、それぞれの蛍光体を最も高感度で検出できるように透過特性が設計されている。
 コンピュータ119は、通常のコンピュータと同様、プロセッサと、記憶デバイス(ROMやRAM等の各種メモリ)と、入力装置(キーボード、マウス等)と、出力装置(プリンタ、ディスプレイ等)と、を備える。当該コンピュータは、上述の送液系、搬送系、温調系、及び光学系の制御を行う他、光学系の2次元センサ101で検出され、生成された蛍光画像(発光画像)を解析し、個々のDNA断片の塩基識別を行う。後述する蛍光画像の圧縮処理や保存などもコンピュータ119上で行われるものとする。ただし、上述の送液系、搬送系、温調系、及び光学系の制御や、画像解析、塩基識別、及び画像の圧縮や保存は、必ずしも1つのコンピュータ119で制御されなくてもよく、処理負荷の分散や、処理時間軽減などの目的で、複数のコンピュータによって行われてもよい。
 <DNA塩基配列の解読方法>
 図2乃至4を差参照してDNAの塩基配列の解読方法について説明する。なお、フローセル109上には予め、同一のDNA断片が増幅されて密集した反応スポットが高密度に配置されているものとする。DNA断片を増幅させる方法としては、エマルジョンPCRやブリッジPCRなどの既存技術が用いられる。
 図2は、DNAの塩基配列の解読のための処理工程を示す図である。解読のための全体のラン(S21)は、サイクル処理(S22)をM回繰り返すことで行われる。Mは求めたい塩基配列の長さであり、予め決められている。個々のサイクル処理は、k(k=1~M)番目の塩基を特定するための処理であり、以下に述べるケミストリ処理(S23)と、イメージング処理(S24)とに分けられる。
(A)ケミストリ処理:塩基を伸長するための処理
 ケミストリ処理では、以下の手順(i)及び(ii)が行われる。
(i)先頭サイクル以外のサイクルであれば、直前サイクルの蛍光標識ヌクレオチド(後述)をDNA断片から除去し、洗浄する。このための試薬が配管112を介してフローセル109上に導入される。洗浄後の廃液は、配管115を介して廃液容器116へ排出される。
(ii)蛍光標識ヌクレオチドを含む試薬が、配管112を介してフローセル109上の分析領域120に流される。温調基板118によりフローセルの温度を調整することにより、DNAポリメラーゼにより伸張反応が生じ、反応スポット上のDNA断片に相補的な蛍光標識ヌクレオチドが取り込まれる。
 ここで、蛍光標識ヌクレオチドとは、4種類のヌクレオチド(dCTP、dATP、dGTP、dTsTP)が、それぞれ4種類の蛍光体(FAM、Cy3、Texas Red(TxR)、Cy5)により標識されたものである。それぞれの蛍光標識ヌクレオチドは、FAM-dCTP、Cy3-dATP、TxR-dGTP、Cy5-dTsTPと記される。これらのヌクレオチドは、DNA断片に相補的に取り込まれるため、実際のDNA断片の塩基がAであればdTsTPが、塩基CであればdGTPが、塩基GにはdCTPが、塩基TであればdATPがそれぞれ取り込まれる。すなわち、蛍光体FAMは塩基Gに、Cy3は塩基Tに、TxRは塩基Cに、Cy5は塩基Aにそれぞれ対応する。なお、各蛍光標識ヌクレオチドは、次の塩基に伸張することがないよう、3’末端がブロックされる。
(B)イメージング処理:蛍光画像を生成する処理
 イメージング処理(S24)は、以下に説明する検出視野毎のイメージング処理(S25)をN回繰り返すことで行われる。ここでNは検出視野の数である。
 図3は、検出視野の概念を説明するための図である。検出視野121は、分析領域120の全体をN個に分けたときの個々の領域に相当する。検出視野121の大きさは、1回の蛍光検出により2次元センサ101で検出できる領域の大きさであり、光学系の設計により定められる。後述するように、個々の検出視野121に対して4種類の蛍光体に対応する蛍光画像が生成される。
(B-1)検出視野毎のイメージング処理
 検出視野イメージング処理(S25)では、以下の手順(i)乃至(iv)が行われる。
(i)蛍光検出を行う検出視野121が、対物レンズ108からの励起光が照射される位置にくるようにステージ117を移動する(S26)。
(ii)フィルタキューブ106を、蛍光体(FAM)に対応したセットに切り替える(S27)。
(iii)励起光を照射し、2次元センサ101を露光することで、蛍光画像を生成する。
(iv)他の種類の蛍光体(Cy3、TxR、Cy5)に対して手順(ii)及び(iii)を実行する。
 以上の処理を実行することにより、検出視野毎に、4種類の蛍光体(FAM、Cy3、TxR、Cy5)に対する蛍光画像が生成される。この蛍光画像には、個々の反応スポットにおけるDNA断片の塩基種類に応じた蛍光体の信号のみがスポットとして画像上に現れる。すなわち、FAMの蛍光画像で検出される反応スポットでは塩基A、Cy3の蛍光画像で検出される反応スポットでは塩基C、TxRの蛍光画像で検出される反応スポットでは塩基T、Cy5の蛍光画像で検出される反応スポットでは塩基G、と判定される。
 以上によって、検出視野内で検出された個々の反応スポットの塩基種別が判定される。
(C)サイクル処理の繰り返し
 以上のサイクル処理を、所望の塩基配列の長さMの数だけ繰り返すことで、個々の反応スポットに対して、長さMの塩基配列を決定することができる。
 図4は、この塩基配列の決定の概念を示す図である。図4に示すように、個々の反応スポット(塩基配列ACGTATACGT...を持つDNA断片)において、あるサイクル(#N)のケミストリ処理によって一塩基分伸張させると、例えばCy3-dATPが取り込まれる。この蛍光標識ヌクレオチドは、イメージング処理において、Cy3の蛍光画像上のスポットとして検出される。同様に、サイクル(#N+1)ではCy5の蛍光画像上のスポットとして検出される。サイクル(#N+2)ではTxRの蛍光画像上のスポットとして検出される。サイクル(#N+3)ではFAMの蛍光画像上のスポットとして検出される。以上のサイクル#Nから、サイクル#N+3までのサイクル処理によって、この反応スポットにおける塩基配列はTACGと決定される。
 <画像圧縮処理>
 本開示の実施形態による蛍光画像解析装置1において、DNA断片の塩基配列を決定するために生成される蛍光画像の数は、検出視野数N×サイクル数M×4で計算される。例えば、サイクル数M=100、検出視野数N=200とすると、生成される蛍光画像の枚数は80000枚となる。例えば、1枚の蛍光画像のサイズが2048画素×2048画素で、ビット数が8ビットであるとすると、1枚の蛍光画像のデータサイズが約4.2MB(メガバイト)であり、全サイクル分で335GB(ギガバイト)ものデータ量となる。このため、これらの画像を保存するためには、圧縮されることが望ましい。
 本開示による蛍光画像装置1では、上述の処理で得られる蛍光画像における、以下の特徴を利用して蛍光画像の情報量削減を行うようにする。なお、後述する画像圧縮処理は、図2で述べた処理工程と並行して行われることが望ましい。一例として、イメージング処理(S24)と並行して、各視野の画像に対して圧縮を行ってもよいし、1サイクル分の検出視野画像を、図示しない格納領域に格納しておいてから、次のサイクルのケミストリ処理(S23)と並行して行ってもよい。
(i)特徴1:輝点の集合画像
 2次元センサ101上では、個々のDNA断片からの蛍光は、数画素程度の大きさを持った輝点として検出される。また、それらの輝点は、中心の輝度が高く、周辺になだらかに減少していくようなプロファイルを持っている。
 図5は、中心の輝度が高く、周辺になだらかに減少していくプロファイルを有する輝点を含む蛍光画像の一部の例を示す図である。図5に示すように、1つの輝点の線分AB上の輝度プロファイルは、その輝度中心付近で最も高く、その周辺ほど輝度が減少しており、ガウス分布に近いものとなっている。このことから、個々の輝点領域の画像は、個々の輝点位置と輝度共通的なプロファイル(例えば2次元ガウシアン分布等)の画像でよく近似できる可能性を示唆している。
(ii)特徴2:輝点位置が不変
 前述のように、撮像対象であるDNA断片は、予めフローセル109上に固定された状態で撮像される。したがって、個々のサイクルにおける個々の検出視野で得られる4種類の蛍光画像上では、輝点が出現する位置が同一視野においては同一であり、塩基種類に応じて輝点位置における輝度値が異なるようなものとなる。
 図6は、個々の検出視野における4種類の蛍光画像の輝点の概念を示す図である。図6(a)に示すように、例えば、あるサイクルにおけるある検出視野においてP1からP8の8つの位置にDNA断片があり、それぞれの塩基がA、G、C、T、A、C、T、Gとする。このとき、4種類の蛍光体(Cy5、Cy3、FAM、TxR)に対する蛍光画像は、図6(b)から図6(d)に示されるように、P1からP8の位置において、対応する塩基種類に応じて輝点が検出される。P1からP8の位置は、4つの蛍光画像で同一である。ただし、光学系の設計によっては、波長毎に光路の違いが生じるため、厳密には同一ではない可能性がある。このため、必要に応じて後述する位置合わせ処理を行うことにより4種類の蛍光画像の輝点位置を共通化することができる。
(iii)特徴3:同一の検出視野を撮影
 前述のように、蛍光画像解析装置1は、各サイクルで同一の検出視野を繰り返し撮像している。ただし、各サイクルではステージ117を移動させて検出視野を変えて撮像している。このため、同一の検出視野に対して、異なるサイクルの間では、ステージの移動に伴う位置ずれが生じる。この位置ずれはステージ117の制御誤差に起因する。
 図7は、サイクル間の位置ずれの概念を示す図である。図7に示すように、ある検出視野に対して、Nサイクル目と(N+1)サイクル目とでは、ステージ制御誤差により撮像位置がずれている可能性がある。このため、Nサイクルの蛍光画像におけるDNA断片位置(P1~P8)は、(N+1)サイクル目の蛍光画像上では異なる位置(それぞれP1’~P8’)として検出される。ただし、これらの輝点は全て同じDNA断片に起因するものであり、上述のようにDNA断片はフローセル109上に固定されているため、上記の位置ずれを補正すれば、全てのサイクルに対して輝点位置を共通することが可能である。
 <画像圧縮部の構成>
 図8は、上述の画像の特徴1乃至3を利用した、蛍光画像解析装置1における画像圧縮部200の概略構成例を示す図である。
 画像圧縮部200は、位置合わせ処理部202と、位置合わせ逆処理部203と、輝点抽出部204と、近似処理部205と、符号化部206と、を含んでいる。上述のように、これらの構成要素は、プログラムによって実現することができる。以下では、各構成要素の処理について詳細に説明する。
 <位置合わせ処理>
 位置合わせ処理部202は、入力画像(D21)と基準画像(D22)との各画素のフローセル109上の位置が一致するよう、入力画像D21の画像を幾何変換する。ここで、基準画像(D22)とは、輝点位置の座標系に用いる画像であり、例えば先頭サイクルの個々の検出視野の画像を基準画像とし、2サイクル目以降のそれぞれの検出視野の画像をこの基準画像に位置合わせすることができる。この場合、基準画像が入力画像となる場合には位置合わせ処理は行われない。
 図9は、位置合わせ処理部202の処理内容を説明するためのフローチャートである。図9に示すように、位置合わせ処理は、位置合わせのためのパラメータ計算処理(S20)と、このパラメータを用いて画像を幾何変換する処理(S21)に分けられる。以下では、位置合わせ処理部202を動作主体として説明するが、位置合わせ処理部202はプログラムで構成されるので、プロセッサを動作主体としても良い。
(i)ステップ20
 位置合わせ処理部202は、位置合わせパラメータを計算する。位置合わせパラメータの計算処理としては、既知のマッチング技術を適用できる。一例として、基準画像の一部を切り出した画像をテンプレート画像t(x,y)として、入力画像f(x,y)との相互相関関数m(u,v)を求め、これの最大値を与えるS_1=(u,v)を位置ずれ量とする。また相互相関関数の代わりに、明るさの違いを考慮した正規化相互相関を用いてもよい。
 この位置ずれ量は、画像の歪の度合いに応じて複数点求めてもよい。例えば、画像に歪がなく、全画素に対して同一の位置ずれ(ステージによる一様なずれのみ)を仮定できる場合には、位置ずれ量S_1(u,v)を適用することができる(図10(a)の左図参照)。この場合、位置ずれ量S_1(u,v)が位置合わせパラメータ(D24)となる。
 一方、例えば、画像に歪があり、位置ずれ量が画像内の位置によって異なる場合(フローセル109が加熱によって変形し、位置ずれが一様でない場合)には、位置ずれ量を画像内のn個の複数点で求めておき、この複数点における位置ずれ量S_1、S_2、・・・S_nが求められる(図10(a)右図参照)。そして、n個の位置ずれ量を基に、例えばアフィン変換や多項式変換の係数を最小二乗法で求めることで任意画素位置の位置ずれ量を定式化することができる(図10(b)参照)。この場合、変換式の係数が、位置合わせパラメータ(D24)となる。
(ii)ステップ21
 位置合わせ処理部202は、幾何変換処理を実行する。幾何変換処理では、上述の位置合わせパラメータから任意画素位置の位置ずれ量を求め、各画素の位置ずれ量に相当する画素位置の輝度値を求める。なお、通常、位置ずれ量は少数画素単位であるため、少数画素位置における輝度値は、例えば最近傍法、線形補間法、3次補間法など、周囲の整数画素位置の輝度を基に算出することができる。こうして得られる画像が、位置合わせ済みの画像(D23)となる。
 <輝点抽出処理>
 輝点抽出部204は、位置合わせ済みの画像(D23)に対して、DNA断片に由来する輝点位置とその位置における輝度値のリストを含む輝点情報(D25)を抽出する。輝点位置の求め方の一例としては、入力画像に対して予め定められた閾値判定を行って輝点領域と非輝点領域とを分け、輝点領域の中から極大値を探索するなどの方法がある。
 輝点抽出処理に先立ち、ローパスフィルタやメジアンフィルタなどにより入力画像に対してのノイズ除去を行っても良い。また、画像内部で輝度ムラが生じているような場合を想定し、背景補正処理を行っても良い。背景補正処理の例としては、予めDNA断片の存在しない領域を撮影した画像を背景画像としておき、これを入力画像から差し引く、という方法が用いられる。もしくは入力画像に対してハイパスフィルタを適用して、低周波成分である背景成分を除去してもよい。
 なお、輝点情報(D25)に含まれる輝点位置は、4種類の蛍光画像のいずれかに含まれる輝点を包括しており、かつ輝点情報には、各輝点の4種類の蛍光画像における輝度値が含まれていることに注意する必要がある。すなわち、図6で示されるように、個々の輝点がどれか1つの蛍光画像上でしか検出されない場合であっても、輝点情報(D25)には、4種類の蛍光画像のいずれかで検出される輝点P1からP8を全て含んでおり、かつ個々の輝点位置における4種類の蛍光画像上のそれぞれの輝度値を含んでいる(厳密には各輝点の輝度値は0ではないため)。このため、輝点情報(D25)は、4種類の蛍光画像に対して行われた個々の画像の輝点情報が統合されたものとなっている。
 なお、以上の輝点抽出処理は、毎サイクルで行う必要はなく、DNA断片が抽出されるサイクルのみで行ってもよい。例えば、先頭サイクルの蛍光画像上でDNA断片が精度よく検出される場合には、先頭サイクルのみで輝点抽出処理を行ってもよい。もしくは、輝点の抽出精度を向上させるために、先頭から数サイクル目まで輝点抽出処理を行った後、最終的に信頼性の高い輝点のみを抽出するなどしてもよい。
 輝点抽出処理により輝点位置が決定した後では、輝点抽出部204内に、この個々の検出視野に対する輝点位置情報を保持しておく。そして、以降サイクルでは、この輝点位置における画素の輝度値を取得することができる。もしくは、ノイズを抑制する目的から、一点の輝度値ではなく、輝点位置の周辺画素の輝度値の平均値を取得するなどしてもよい。
 <画像圧縮部における近似処理>
 近似処理部205は、輝点抽出部204から得られた輝点情報(D25)を元に、位置合わせ済み画像(D23)の近似画像を生成し、位置合わせ済み画像(D23)と近似画像との差分をとることで、近似差分画像(D26)を生成する。
 図11は、近似処理の概念を説明するための図である。位置合わせ済み画像(D24)に対して上述の輝点抽出部204の処理により、輝点情報(D25)が得られているものとする。
 「特徴1」で既に述べたように、個々の輝点は輝点中心付近で最も輝度が高く、周囲に行くにしたがって輝度が滑らかに減少している共通の傾向がある。そこで、このような共通の傾向をもつテンプレート画像(図11(c)参照)を近似処理部205、或いは蛍光画像解析装置1のコンピュータ119内のメモリ(図示せず)に保持しておき、近似処理部205が個々の輝点に対して、当該テンプレート画像の輝度値をスケーリングすることにより、個々の輝点の近似画像を作成する。例えば、テンプレート画像の輝度の最大値がHt、ある輝点AのCy5の輝度値がA1であった場合、Ra=A1/Htで輝度値をスケーリングすることで近似画像を得られる。また、輝度に応じて輝点のサイズも変わるような場合には、画像サイズをRa倍にスケーリングしてもよい。
 テンプレート画像としては、例えば、2次元ガウシアン分布を用いることができる。また、予め実験的に最適な画像を定め、これをテンプレート画像として近似処理部205、或いは蛍光画像解析装置1のコンピュータ119内のメモリに格納しておいてもよい。
 近似画像を得るために輝度値以外の情報が必要な場合には、近似パラメータ(D26a)を作成してもよい。一例として、輝点の形状が楕円形である場合、近似の精度を高めるために、長軸と短軸のサイズや、これらの軸の角度の情報などを含めても良い。ただし、これらの近似パラメータ(D26a)は、後述する復元処理で必要なため、パラメータの分だけ圧縮データのサイズは増すことに留意する必要がある。このため、例え近似精度が落ちたとしても、近似パラメータ(D26a)を用いない方が圧縮データのサイズが小さくなる可能性もある。こうした可能性を考慮した上で、近似パラメータ(D26a)を用いて予測するかどうかを輝点毎に選択してもよい。その際には、近似パラメータを用いたか否かのデータ(D26b)を各輝点に対して出力する必要がある。
 <画像圧縮部における位置合わせ逆処理:処理内容>
 図12は、位置合わせ逆処理部203の処理内容を説明するためのフローチャートである。以下では、位置合わせ逆処理部203を動作主体として説明するが、位置合わせ逆処理部203はプログラムで構成されるので、プロセッサを動作主体としても良い。なお、位置合わせ逆処理は、可逆圧縮(ロスレス)を実現するために必要とされるものである。
(i)ステップ25
 位置合わせ逆処理部203は、位置合わせパラメータ(D24)に対して、位置合わせ処理を元に戻すような逆位置合わせパラメータを計算する。例えば、図10(a)左図で示すように、位置合わせパラメータ(D24)が1つの位置ずれ量S_1(u,v)である場合には、これの逆位置合わせパラメータは、S_1の符号を反転させたものとなる。また、例えば、図10(a)右図で示すように、位置合わせパラメータ(D24)が複数の位置ずれ量から得られた変換式(変換行列)のパラメータであれば、変換行列の逆行列が逆位置合わせパラメータとなる。
(ii)ステップ26
 位置合わせ逆処理部203は、得られた逆位置合わせパラメータを用いて、位置合わせ処理済み画像(D23)に対して幾何変換を行うことにより、逆位置合わせ済み画像を得る。この処理は幾何変換処理(図9のステップ21)と同様であるため、説明は省略する。
(iii)ステップ27
 位置合わせ逆処理部203は、入力画像(D21)とステップ26で得られた逆処理画像との差分をとることにより、位置合わせ差分画像(D27)を生成する。この位置合わせ差分画像(D27)は、元の入力画像(D21)を位置合わせすることによって失われる情報であり、入力画像(D21)を可逆圧縮するために必要なデータである。
 <画像圧縮部における位置合わせ逆処理:具体例>
 図13は、位置合わせ逆処理部203による各処理の具体例(概念)を説明するための図である。図13では、図13(a)に示すような基準画像(D22)に対して、図13(b)に示す入力画像(D21)を位置合わせすることにより、図13(c)に示すような位置合わせ済み画像(D23)が得られる場合を想定する。
 図13(c)中の矢印A131は、位置合わせパラメータ(D24)を示している。図13(c)中の黒塗の部分は、入力画像の外部に相当する位置であるため、輝度値はゼロとしている。従って、図13(c)においては入力画像における左端と上端の領域の一部がカットされていることに注意されたい。これは入力画像を基準画像の座標系に位置合わせしたことにより、基準画像の領域外となる領域が入力画像上に存在するためである。
 位置合わせ逆処理部203では、位置合わせパラメータ(D24)に対応する、逆位置合わせ変換パラメータ(図13(d)中の矢印A132)が求められる(図12のステップ25)。当該パラメータによる幾何変換を位置合わせ済み画像(D23)に適用することにより、逆位置合わせ済み画像(図13(d))が得られる(図12のステップ26)。
 逆位置合わせ済み画像では、位置合わせ済み画像(D23)でカットされた左端と上端の領域に相当する領域の輝度値がゼロとなっている。そして、入力画像(D21)から逆位置合わせ済み画像を差し引くことにより、位置合わせ差分画像(D27)(図13(e))が得られる(図12のステップ27)。
 図13(e)において、領域A1は、入力画像(D21)のうち、位置合わせ処理によりカットされた領域の画像情報を示している。また、領域A2は、入力画像(D21)と逆位置合わせ済み画像との差分を示している。位置合わせと逆位置合わせとが画素単位で完全に可逆であれば、全てゼロ値となる。ただし、位置合わせ処理において、例えばアフィン変換や多項式変換等、実数演算を伴うような幾何変換を用いた場合、画素位置の丸め誤差等により、位置合わせとその逆変換処理とが完全に画素単位で可逆でない可能性がある。このため、ゼロ値とならない画素が存在する可能性があることに注意が必要である。ただし、領域A2におけるほとんどの画素がゼロとなることが期待されるため、位置合わせ差分画像(D27)は、入力画像に比べて、高い圧縮率による情報量削減が期待できる。
 <符号化処理>
 符号化部206は、輝点情報(D25)、位置合わせパラメータ(D24)、近似差分画像(D26)、近似パラメータ(D26a、D26b)、及び位置合わせ差分画像に対して符号化処理を行い、これらが統合された圧縮データ(D28)を出力する。ただし、輝点情報(D25)のうち、輝点位置の情報に関しては、検出視野ごとに全サイクルで共通する(同一検出視野であれば輝点位置は全サイクルで同一である)ため、個々の画像の圧縮データ(D28)とは別の輝点位置データ(D29)が出力される。圧縮データ(D28)には、輝点位置データ(D29)を参照するためのリンク情報が含まれるようにすればよい。従って、輝点位置データ(D29)は、検出視野毎に一回だけ生成して用いることができる。
 圧縮データ(D28)は、ヘッダ情報を含んでいる。このヘッダ情報により、復号化部301は、各輝点情報(例えば輝度情報を含むが、輝点位置情報は除かれる)、位置合わせパラメータ、近似差分画像、近似パラメータ、及び位置合わせ差分画像のそれぞれを分離することができる。
 符号化部206で行われる符号化処理には、既知の可逆圧縮技術を適宜選択して用いることができる。なお、近似差分画像(D26)と位置合わせ差分画像(D27)とは、画像データであるため、画像特有の空間的冗長性(隣接する画素間の相関が高い性質)を利用した、例えばJPEG-LSやJPEG-2000等の既知の画像圧縮方法を用いることができる。その他のデータについては、例えば、確率的な分布を利用したエントロピー符号化法(ハフマン符号や算術符号化)や辞書法に分類されるLZ符号やLZW符号、並べ替えを利用したブロックソート法など、既知の汎用的な符号化方式を用いることができる。
 圧縮データ(D28)は、DNA断片部の近似によって、DNA断片の情報量が削減されている。また、近似に必要な輝点情報のうち、輝点位置は全サイクルで共通化されていることから、輝点情報の情報量が削減されている。このため、既知の汎用的な圧縮技術よりも高い圧縮効果が期待できる。また、例えば、輝点情報のうち、個々の輝点の輝度値が比較的近い値になるように露光時間が調整されている場合には、輝度値が特定の値に近くなるため、さらに情報量の削減が期待できる。
 <画像の復元>
 次に、圧縮データから入力画像を復元する処理について説明する。図14は、本開示の第1の実施形態による蛍光画像解析装置1における画像復元部300の概略構成例を示す図である。
 画像復元部300は、復号化部301と、近似処理部302と、位置合わせ逆処理部303と、を備え、圧縮データ(D30)から入力画像を復元する(D36)。
 <復号化処理>
 復号化部301は、圧縮データ(D30)と輝点位置データ(D37)とから、輝点情報(D31)、近似差分画像(D32)、近似パラメータ(D32a、D32b)、位置合わせパラメータ(D33)、及び位置合わせ差分画像(D34)を抽出する。ただし、近似処理部205の説明で述べたように、近似パラメータは必ずしも必要とはしない。
 復号化部301は、抽出したデータに対して、符号化部206で行われた符号化処理に対応する復号化処理を実行する。例えば、JPEG-LSやJPEG-2000等の既知の画像圧縮が用いられている場合には、近似差分画像(D32)や位置合わせ差分画像(D34)に対して、これらの圧縮方式に対応する既知の復号化処理を用いることができる。その他のデータについても、例えば、エントロピー符号化法(ハフマン符号や算術符号化)や、LZ符号やLZW符号、ブロックソート法など、符号化部206にて用いられている圧縮方式に対応した復号化処理を用いることができる。
 <画像復元部における近似処理>
 近似処理部302は、輝点情報(D31)を元に近似画像を作成し、近似差分画像(D32)と近似画像を加算することで、位置合わせ済み画像(D35)を生成する。
 近似処理部302における近似画像生成処理は、近似処理部205における近似処理の方法と同じである。近似処理部205と近似処理部302とは、同じテンプレート画像を備え、同じ方法でテンプレート画像をスケーリングする必要がある。このため、画像圧縮部200内の近似処理部205において、近似画像生成の際に近似パラメータ(D26a、D26b)を用いる場合には、画像復元部300内の近似処理部302でも、これに相当する近似パラメータ(D32a、D32b)を用いて、近似処理部205と同様に近似画像を生成する必要がある。これにより、入力画像を可逆的に復元することができるようになる。
 <画像復元部における位置合わせ逆処理>
 図15は、画像復元部300における位置合わせ逆処理部303の処理内容を説明するためのフローチャートである。以下では、位置合わせ逆処理部303を動作主体として説明するが、位置合わせ逆処理部303はプログラムで構成されるので、プロセッサを動作主体としても良い。
(i)ステップ30
 位置合わせ逆処理部303は、位置合わせパラメータ(D33)を基に、逆変換に相当する逆位置合わせパラメータを計算する。
(ii)ステップ31
 位置合わせ逆処理部303は、逆位置合わせパラメータを用いて、位置合わせ済み画像(D35)に対して幾何変換を適用することにより、逆位置合わせ済み画像を得る。これらの処理は、画像圧縮部200における位置合わせ逆処理部203と同様であるため、説明を省略する。
(iii)ステップ32
 位置合わせ逆処理部303は、ステップ31で得られた逆位置合わせ済み画像に対して、位置合わせ差分画像(D34)を加算することにより、復元画像(D36)を生成する。
 <第1の実施形態の作用効果>
 以上で述べたように、本開示の第1の実施形態による蛍光画像解析装置1では、DNA断片画像が輝点の集合であるという特徴1を用いて、近似画像を生成し、近似画像との差分情報に対して符号化が行われる。また、DNA断片の位置が固定されており、かつ同じ検出視野を繰り返し撮像された画像であるという特徴2を活かして、位置合わせ処理が行われる。これにより、輝点位置が共通化され、近似画像作成に必要な輝点情報の情報量を削減することができる。
 このように、第1の実施形態によれば、DNA断片の塩基配列に必要な画像の情報量を削減し、装置のディスク容量やメモリサイズの低減や、ディスクへの書き込みや読み込み時間の短縮による解析スループット向上が実現できるようになる。
(2)第2の実施形態
 第2の実施形態は、第1の実施形態と比較し、さらに伝送するデータの情報量を削減する画像圧縮部及び画像復元部の構成に関するものである。
 <画像圧縮部の構成>
 図16は、第2の実施形態による蛍光画像解析装置における画像圧縮部600の概略構成例を示す図である。第1の実施形態による画像圧縮部200との大きな違いは、輝点情報(D25)が外部の輝点情報データベース(D40)に既に格納されていることである。
 画像圧縮部600は、輝点情報データベース(D40)から輝点情報(D25)を取得し、第1の実施形態で述べた近似処理部205と同様な処理を行う。輝点情報データベース(D40)は、現在計測している、DNA等の蛍光画像のデータに相当するものであり、例えば、データベースに保持されている。
 画像圧縮部600内の符号化部601は、近似処理部205からの近似差分画像(D26)、近似パラメータ(D26a)、及び近似パラメータを用いたか否かのデータ(D26b)と、位置合わせ逆処理部からの位置合わせ差分画像(D27)とに対して所定の符号化処理(第1の実施形態と同様)を実行し、これらが統合された圧縮データ(D41)を生成する。なお、第2の実施形態では、当該圧縮データ(D41)内には、輝点情報(輝点の位置の情報、及び輝度値の情報)そのものは含まれないが、輝点情報データ(D40)を参照するためのリンク情報が格納される。リンク情報の一例としては、輝点情報データファイルの装置内のパス名やURLなどが挙げられるが、輝点情報データを同定できる情報であれば、これらに限定されるものではない。その他の処理については、第1の実施形態と同様であるため、説明は省略する。
 なお、輝点情報データベース(D40)は、サイクル間で生じるフェージングを補正して塩基配列を求めることを目的として、本開示の目的である画像の保存とは別に輝点情報を保存している。ここで、フェージングとは、ケミストリ処理にて述べたような伸張反応の不確定性に起因する。すなわち、各サイクルにおけるケミストリ処理において、増幅されたDNA断片への蛍光標識ヌクレオチドの取り込みやその3’末端のブロックは確率的に行われる。このため、数サイクル分、伸張が前後にずれるDNA分子が必ず存在する。この現象はフェージングと呼ばれる。フェージングでは、蛍光画像上では、あるサイクルにおけるある色の輝度がその前後のサイクルと互いに影響し合う。こうしたフェージングによる輝度変化の影響を補正する目的で、各サイクルの輝度情報が保存されることが多い。
 <画像復元部の構成>
 図17は、第2の実施形態による蛍光画像解析装置における画像復元部500の概略構成を示す図である。第1の実施形態による画像復元部500との大きな違いは、輝点情報(D31)が、圧縮データ(D51)ではなく、外部の輝点情報データ(D50)に格納されていることである。
 復号化部501は、圧縮データ(D51)から、輝点情報データベース(D50)へのリンク情報を取得する。画像復元部500は、取得したリンク情報を基に輝点情報データベース(D50)へアクセスし、輝点情報(D31)を取得する。そして、近似処理部302は、第1の実施形態で説明した処理と同様な処理を実行する。その他の処理については、第1の実施形態と同様であるため、説明は省略する。
 <第2の実施形態の作用効果等>
 以上のように、第2の実施形態では、サイクル毎の輝度情報ファイル(D40及びD50に相当)を設け、かつ画像復元時に参照できるような構成を採用している。このため、データファイルを輝点情報として活用することにより、第1の実施形態の場合と比較して、輝点情報データベースの分だけ情報量をさらに削減することが可能となる。
(3)第3の実施形態
 第3の実施形態は、2つの2次元センサを設け、さらに計測スループットを向上させる蛍光画像解析装置10に関するものである。
 <蛍光画像解析装置の構成>
 図18は、本開示の第3の実施形態による蛍光画像解析装置10の概略構成例を示す図である。
 蛍光画像解析装置10は、フローセル409と、送液系と、搬送系と、温調系と、光学系と、コンピュータ418と、を有する。これらの構成要素のうち、光学系以外の機能や構成については第1の実施形態による蛍光画像解析装置1と同様であるため、説明は省略する。以下、光学系についてのみ説明する。
 蛍光画像解析装置10の光学系は、光源407と、コンデンサレンズ410と、励起フィルタ404と、ダイクロイックミラー405及び421と、バンドパスフィルタ(吸収フィルタとも称する)403と、対物レンズ408と、結像レンズ402及び419と、2次元センサ401及び420とによって構成される。励起フィルタ404、ダイクロイックミラー405、及びバンドパスフィルタ403は、第1の実施形態と同様、フィルタキューブ406内にセットとして含まれている。
 光源407から発せられた励起光は、コンデンサレンズ410で集光され、フィルタキューブ406に入射する。励起フィルタ404は、フィルタキューブ406に入射した励起光のうち特定の波長帯域のみを透過させる。透過した光は、ダイクロイックミラー405で反射し、対物レンズ408によって、フローセル409上に集光する。
 また、集光された励起光によって、フローセル409上に固定されたDNA断片に取り込まれた4種の蛍光体のうち、特定の波長帯域に励起する蛍光体が励起される。励起された蛍光体から発せられる蛍光は、ダイクロイックミラー405を透過し、バンドパスフィルタ403にて特定の波長帯域のみが透過される。バンドパスフィルタ403を透過した蛍光は、ダイクロイックミラー421によって波長帯域毎に分割される。分割された一方の蛍光は、結像レンズ402によって、2次元センサ401上に蛍光スポットとして結像する。また、分割された他方の蛍光は、結像レンズ419によって、2次元センサ420上に蛍光スポットとして結像する。
 本実施形態では、2次元センサ401と2次元センサ420における蛍光スポットの強度比から、蛍光体が前述の4種の蛍光のいずれかに帰属するかを判定できるように、照射光と検出光の波長帯域に応じてフィルタキューブ406が2セット用意され、これらを順次切り替えられるものとする。
 上述のような蛍光体の種類の識別を成し得る、励起フィルタ404と、ダイクロイックミラー405及び421と、バンドパスフィルタ403の設計例としては、特許文献2に開示されているものを用いることができる。
 本実施形態では、1回の励起光の照射につき、同時に2枚の画像を撮像することができる。そして、2回の励起光の照射により4枚の画像を撮像することができるため、第1の実施形態と比べ、励起光の照射の回数を半減できる。よって、撮像時間を短縮することができ、計測スループットの向上を図ることができる。
 本実施形態では、2つの2次元センサから得られる4種類の蛍光画像を参照して、個々の蛍光スポットの輝度を取得する必要がある。ここで2つの2次元センサ401及び420には歪の個体差が生じ得ることに留意する必要がある。このため、異なる2次元センサで得られる蛍光画像上で、同じDNA断片に由来する輝点を同定するためには、2次元センサ間の歪を補正するように、蛍光画像の位置合わせを行う必要がある。
 <画像圧縮部の構成>
 図19は、第3の実施形態による画像圧縮部700の概略構成を示す図である。画像圧縮部700は、位置合わせ処理部701と、輝点抽出部204と、近似処理部205と、位置合わせ逆処理部702と、符号化部703と、によって構成される。このうち、輝点抽出部204及び近似処理部205は、第1の実施形態における画像圧縮部200の処理内容と同じであるため同一の番号を付し、説明は省略する。また、その他の構成についても、第1の実施形態と同じものについては同一の参照番号を付している。
 <位置合わせ処理>
 本実施形態では、2次元センサ間の位置合わせが行われているか否かによって、画像圧縮の対象である入力画像D21に対する画像圧縮部700の処理が異なってくる。つまり、2次元センサ間の位置合わせが既に行われている場合には、2次元センサ間の位置ずれがないため、入力画像D21に対する画像圧縮部700の処理は、第1の実施形態による画像圧縮部200と同様となる。2次元センサ間の位置合わせの一例としては、予め既知の画像パターンによって、既知のカメラキャリブレーションを行っておくなどの方法が挙げられる。一方、2次元センサ間の位置合わせが行われていない場合には、画像圧縮部700において2次元センサ間の位置合わせを行う必要がある。
 図20は、位置合わせ処理部701の処理内容を説明するためのフローチャートである。ここでは、位置合わせ処理部701は、センサ間の位置合わせ処理と、サイクル間の位置合わせ処理とを行う。このうちサイクル間の位置合わせ処理の内容は、第1の実施形態による位置合わせ処理部202が実行する位置合わせ処理(図9参照)と同じである。なお、以下では、位置合わせ処理部701を動作主体として説明するが、位置合わせ処理部701はプログラムで構成されるので、プロセッサを動作主体としても良い。
(i)ステップ70
 位置合わせ処理部701は、基準画像と入力画像とから位置合わせパラメータを計算する。位置合わせパラメータの計算には、例えば、サイクル間位置合わせ処理と同様に、既知のマッチング技術を適用できる。
(ii)ステップ71
 位置合わせ処理部701は、ステップ70で算出した位置合わせパラメータに基づいて、入力画像を基準画像と同じ座標系に幾何変換する。当該幾何変換処理も、第1の実施形態の位置合わせ処理部202による処理と同様である。
(iii)ステップ72及びステップ73
 位置合わせ処理部701は、第1の実施形態と同様のサイクル間位置合わせ処理を実行する。
 ここで、位置合わせパラメータ計算(ステップ70)で用いられるセンサ基準画像(D72)は、2次元センサ401と2次元センサ420のうち、いずれかのセンサで撮像された蛍光画像を用いることができる。そして、センサ間位置合わせ処理は、センサ基準画像(D72)として選択した2次元センサとは異なる2次元センサで撮像された蛍光画像に対してのみ行われる。
 また、位置合わせパラメータ計算(ステップ70)は、必ずしも毎サイクルの毎検出視野に対して行う必要はない。センサ間の位置ずれの主たる要因は、個々のセンサの歪特性によるものなので、蛍光画像解析ラン中の変化量は小さいものと推定される。このような場合には、先頭サイクルの先頭の検出視野において1回だけ、センサ間位置合わせパラメータを計算しておき、以降ではこのパラメータを用いて幾何変換(ステップ71)に用いることができる。この他、蛍光画像解析装置10を据え付ける時、若しくは各ランにおける前処理時(図示しない)に予めセンサ間の位置合わせパラメータを計算しおき、これを幾何変換(ステップ71)に適用してもよい。ただし、熱による影響やフローセル409の変形等により、センサ間の画像の位置ずれ量の変化が無視できなくない程度である場合には、各検出視野で位置合わせパラメータ計算(ステップ70)を行う必要がある。センサ間の画像の位置ずれ量の変化が無視できない程度のものか否かは、例えばユーザ(操作者)が蛍光画像解析装置10の解析結果出力を見て判断しても良いし、圧縮データのデータ量が所定値以上となったことを基にしても良い。また、単に定期的にセンサ間の位置合わせ処理を実行するようにしても良い。
 なお、図20ではセンサ間位置合わせ、サイクル間位置合わせの順に処理を行っているが、センサ間の位置ずれとサイクル間の位置ずれは、基本的には独立に生じるものであるため、どちらを先に行ってもよい。
 位置合わせ処理部701で出力される位置合わせパラメータは、センサ間の位置合わせで得られるパラメータ(D70a)と、サイクル間位置合わせで得られるパラメータ(D70b)の両方を含んでいる。
 <画像圧縮部における位置合わせ逆処理>
 図21は、第3の実施形態における位置合わせ逆処理部702の処理内容を説明するためのフローチャートである。図21に示すように、位置合わせ逆処理部702の処理は、サイクル間の逆位置合わせ処理とセンサ間の逆位置合わせ処理とから構成される。2つの逆位置合わせの順序は、位置合わせ処理部701で行われた位置合わせ処理の逆順となる。
 ここで、サイクル間逆位置合わせ処理は、図11で説明した第1の実施形態における位置合わせ逆処理部203による処理と同様のため、その説明は省略し、センサ間の逆位置合わせ処理についてのみ説明する。サイクル間逆位置合わせ処理により、サイクル間逆位置合わせ済み画像が生成される。
(i)ステップ76
 位置合わせ逆処理部702は、センサ間の位置合わせパラメータ(D70a)に対して、第1の実施形態による逆位置合わせパラメータ計算処理(図11のステップ25)と同様にして、センサ間の逆位置合わせパラメータを算出する。
(ii)ステップ77
 位置合わせ逆処理部702は、ステップ76において算出したパラメータにより、サイクル間逆位置合わせ済み画像に対して幾何変換を行うことにより、センサ間逆位置合わせ済み画像を生成する。
(iii)ステップ78
 位置合わせ逆処理部702は、入力画像(D21)から、ステップ77で生成したセンサ間逆位置合わせ済み画像を引くことにより、位置合わせ差分画像(D27)を生成する。
 なお、第1の実施形態による符号化部206と第3の実施形態による符号化部703との違いは、後者が位置合わせパラメータとしてサイクル間位置合わせパラメータ(D70b)とセンサ間位置合わせパラメータ(D70a)を圧縮データに格納していることである。それ以外は符号化部206と同様である。
 以上のように、第3の実施形態では、画像圧縮部700ではセンサ間の位置ずれを補正するような位置合わせ処理を、第1の実施形態における画像圧縮部200に追加することで、圧縮データを生成している。
 <画像復元部>
 図22は、第3の実施形態による画像復元部800の概略構成を示す図である。画像復元部800は、復号化部801と、近似処理部302、位置合わせ逆処理部802とから構成される。近似処理部302の処理内容は、第1の実施形態における画像復元部300の近似処理部302と同様であるため、同一の参照番号を付しており、その説明は省略する。また、その他の構成についても、第1の実施形態と同等であるものに対しては、同一の参照番号が付されている。
 <復号化部>
 第1の実施形態における復号化部301と第3の実施形態における復号化部801との違いは、後者が位置合わせパラメータとして、サイクル間位置合わせパラメータ(D80b)とセンサ間位置合わせパラメータ(D80a)を圧縮データから取得していることである。それ以外は復号化部301と同様である。
 <画像復元部における位置合わせ逆処理>
 図23は、第3の実施形態による位置合わせ逆処理部802の処理内容を説明するためのフローチャートである。図23に示すように、位置合わせ逆処理部702は、サイクル間の逆位置合わせ処理、センサ間の逆位置合わせ処理、及び位置合わせ差分画像加算処理(ステップ84)を実行する。サイクル間の逆位置合わせ処理及びセンサ間の逆位置合わせ処理の順序は、位置合わせ処理部701で行われた位置合わせ処理の逆順である。
(i)ステップ80乃至83
 ステップ80乃至83の処理のうち、サイクル間逆位置合わせ処理(ステップ80及び81)及びセンサ間逆位置合わせ処理(ステップ82及び83)は、図21で説明した画像圧縮部700内の位置合わせ逆処理部203における処理と同様であるため、説明は省略する。サイクル間逆位置合わせ処理、及びセンサ間逆位置合わせ処理により、位置合わせ済み画像が生成される。
(ii)ステップ84
 位置合わせ逆処理部802は、ステップ80乃至83までで得た位置合わせ済み画像に対し、復号化部801で得られる位置合わせ差分画像(D34)を加算することにより、復元画像(D36)を取得する。
 <第3の実施形態の作用効果等>
 以上のように、第3の実施形態では、画像復元部800ではセンサ間の位置ずれを補正するような位置合わせの逆変換処理を、第1の実施形態における画像復元部300に追加することにより、圧縮データから元の入力画像を復元することができる。
 なお、本実施形態では、2つの2次元センサで構成される蛍光画像解析装置の構成を一例として画像圧縮処理、及び画像復元処理について説明した。しかし、本実施形態述べた概念自体はセンサの数に限定されるものではなく、センサの数が増える分だけ、センサ間の位置合わせ、逆位置合わせの処理を追加することで、3個以上の2次元センサの構成に対しても適用可能である。
 さらに、本実施形態との構成が異なっていたとしても、各サイクルの各検出で得られる4種類の各蛍光画像間に位置合わせが必要である場合には、そのうちのどれか1つの蛍光画像を基準画像として、本実施形態によるセンサ間の位置合わせ処理と同様の処理を行うことで、本実施形態による画像圧縮、及び画像復元の方法を適用することができる。
(4)第4の実施形態
 第4の実施形態は、第3の実施形態に第2の実施形態の概念を組み合わせたものである。第4の実施形態による蛍光画像解析装置の全体構成は、第3の実施形態による蛍光画像解析装置10(図18参照)と同様である。
 <画像圧縮部の構成>
 図24は、第4の実施形態による画像圧縮部900の概略構成例を示す図である。第3の実施形態による画像圧縮部700との大きな違いは、輝点情報(D25)が外部の輝点情報データベース(D40)に既に格納されていることである。画像圧縮部900は、輝点情報データベース(D40)から輝点情報(D25)を取得し、第3の実施形態における近似処理部205と同様な処理を行う。
 また、画像圧縮部900内の符号化部901は、第2の実施形態と同様に、圧縮データ(D41)内に、輝点情報データベース(D40)を参照するためのリンク情報を格納する。その他の処理については、第1の実施形態と同様である。また、輝点情報データベース(D40)については第2の実施形態と同様である。
 <画像復元部の構成>
 図25は、第4の実施形態による画像復元部1000の概略構成例を示す図である。第3の実施形態による画像復元部800との大きな違いは、輝点情報(D31)が圧縮データ(D51)ではなく、外部の輝点情報データベース(D50)に格納されていることである。
 復号化部1001は、圧縮データ(D51)から、上述の輝点情報データベースへのリンク情報を取得する。そして、画像復元部1000は、このリンク情報を元に輝点情報データ(D50)へアクセスし、輝点情報(D31)を取得し、第3の実施形態における近似処理部302と同様の処理を実行する。その他の処理についても第3の実施形態と同様である。
 <第4の実施形態の作用効果等>
 以上のように、第4の実施形態では、サイクル毎の輝度情報ファイル(D40及びD50に相当)が存在し、かつ画像復元時にも参照できる構成を採用している。このため、データファイルを輝点情報として活用することにより、第3の実施形態の場合と比較して、輝点情報データベースの分だけ情報量を削減することが可能である。
(5)第5の実施形態
 第1乃至第4の実施形態では、いずれも入力画像の可逆圧縮処理(ロスレス)を行っている。すなわち、情報量の損失がない。しかし、DNA断片の塩基配列を求めるために必要な画像の領域は、蛍光が検出される輝点の領域のみである。このため、第1乃至第4の実施形態で得られる蛍光画像は、塩基配列を求めるという目的に対しては冗長であるといえる。
 よって、入力画像のデータの全ての情報を損失なく保存するという目的ではなく、輝点領域の部分だけ情報量を落とさずに画像を保存するという目的に対しては、入力画像のデータの冗長性を削減することにより大きくデータ量を削減して画像を保存することが考えられる。
 このような目的達成の手段の一例として、DNA断片の位置を精度よく検出するために、個々の検出視野に対して、複数サイクル分の画像を保存する、というものがある。すなわち、DNA断片が互いに密接していて、かつ先頭サイクルにおいて密接するDNA断片同士が同じ塩基種類であった場合、同一の蛍光画像ではこれらの蛍光が重なるために、密接するDNA断片同士を識別しにくい場合がある。
 このような課題を解決するために、先頭サイクルだけではなく、先頭から複数サイクル分の蛍光画像を保持しておき、複数サイクル分でDNA断片を検出する。例えば、先頭から5サイクルまでの間で、密接するDNA断片同士が全て同じ塩基種類である確率はおおよそ(1/4)の5乗である。したがって5サイクル分の蛍光画像を保存しておけば、密接するDNA断片同士は少なくとも極めて高い確率で塩基種類が異なっているといえるので、両社の境目を画像から検出することが可能となる。
 第5の実施形態では、輝点領域の部分だけ情報量を落とさずに、入力画像の冗長性を削減して画像を圧縮、および復元するための構成について提案する。
 <蛍光画像解析装置の構成>
 第5の実施形態による蛍光画像解析装置の全体構成例としては、図18に示す、2つの2次元センサを備えた構成を採用することができる。ただし、後述するように、本開示の趣旨は2次元センサの数に依存するものではなく、例えば図2のような単独のセンサによる構成や、センサが3つ以上ある構成についても本開示を適用することは可能である。
 <画像圧縮部>
 図26は、第5の実施形態による画像圧縮部1100の概略構成例を示す図である。画像圧縮部1100は、位置合わせ処理部701と、輝点領域抽出部1101、冗長度削減部1102と、符号化部1103と、によって構成される。これらの構成要素のうち、位置合わせ処理部701は、第2の実施形態による画像圧縮部700における位置合わせ処理部701と同様の処理を実行するため、同一の参照番号を付しており、その説明は省略する。また、その他の構成要素についても、上述の各実施形態と同様の処理を実行するものに対しては、同一の参照番号を付している。
 <輝点領域抽出処理>
 輝点領域抽出部1101は、位置合わせ済みの画像(D23)に対して、DNA断片に由来する輝点の領域情報(D112)を抽出する。輝点の領域情報(D112)は、第1の実施形態による輝点情報(D25)とは異なり、輝点の一部とみなされる領域を示す情報であり、輝度値の情報は含まれない。
 図27は、輝点領域情報(D112)の形態としてビットマップを用いる例を示す図である。図27に示すように、蛍光画像の個々の画素単位に1ビットを割り当て、“1”であれば輝点領域、“0”であれば非輝点領域とするようなビットマップによって輝点領域情報を表現する。また、ビットマップの情報量を削減するため、上記1ビットを、1画素単位ではなく、K画素×K画素(K>1)の領域に対して割り当てて、同様な表現をしてもよい。
 また、図28は、輝点領域情報(D112)の別の形態として中心位置と幅の組のリストを用いる例を示す図である。図28に示すように、輝点領域の情報を、その輝点の中心位置の座標情報と、これを中心とした幅の情報とで構成する。すなわち、これらの情報から、図28の灰色で塗りつぶした部分に相当する領域を輝点領域として生成することができる。なお、当該リストの情報量を削減するため、中心位置と幅の単位は1画素単位ではなく、K画素(K>1)単位であってもよい。また、領域幅を固定値とし、領域幅の情報をなくしてもよい。さらに、中心位置を、XY位置座標ではなく、ラスタスキャン順の番号などで表現してもよい。
 輝点領域抽出部1101は、第1の実施形態における輝点抽出部204と同様に、入力画像に対して予め定められた閾値判定を行って輝点領域と非輝点領域とを分け、そして、抽出した輝点領域の中から極大値を探索するようにしても良い。当該処理に先立ち、ローパスフィルタやメジアンフィルタなどにより、入力画像に対してノイズ除去を行っても良い。また、画像内部で輝度ムラが生じているような場合を想定し、背景補正処理を行っても良い。背景補正処理の例としては、予めDNA断片の存在しない領域を撮影した画像を背景画像としておき、これを入力画像から差し引く、という方法を用いることができる。もしくは入力画像に対してハイパスフィルタを適用して、低周波成分である背景成分を除去してもよい。
 以上のような輝点領域抽出処理は、毎サイクルで行う必要はなく、先頭サイクルのみで行えばよい。
 <冗長度削減処理>
 図29は、冗長度削減部1102による処理の概念を説明するための図である。図29(a)及び図29(b)において、黒塗りの部分は輝点領域を表している。すなわち、黒塗りの部分以外は非輝点領域である。これらの領域の情報は、輝点領域情報(D112)として冗長度削減部1102に入力される。なお、位置合わせ済み画像(D23)(図29(a))では、非輝点領域には背景ノイズが含まれている。
 冗長度削減部1102は、非輝点領域の画素の輝度値を固定値に置き換えることにより、冗長度削減画像(D111)を作成する。当該固定値は、ゼロ値でもよいし、非輝点領域の平均値としてもよい。或いは、非輝点領域に対してある程度の階調を持たせる場合には、図30に示すように、予め定める量子化ステップ幅QSによって非輝点領域の輝度値を量子化してもよい。すなわち、元の輝度値をPとすると、量子化された輝度値Qは、Q=(P/QS)xQSで求められる(”/”は整数除算であり、余りは切り捨てられる)。QSを輝度最大値よりも大きい値にすると、Qは全てゼロ値となる。
 得られた冗長度削減画像(D111)においては、蛍光画像の中の非輝点領域の情報量が大きく削減されるため、符号化部1103にて高い圧縮率が期待できる。
 <符号化処理>
 符号化部1103は、冗長度削減画像(D111)を符号化し、圧縮データ(D110)を出力する。冗長度削減画像(D111)は、画像としての空間的冗長性があるため、JPEG-LSやJPEG2000等の既知のロスレス画像圧縮が望ましい。ただし、非輝点領域では同じ値が頻繁に出現するので、確率的な分布を利用したエントロピー符号化法(ハフマン符号や算術符号化)や、辞書法に分類されるLZ符号やLZW符号、並べ替えを利用したブロックソート法など、既知の汎用的な符号化方式を用いることでも、高い圧縮率が期待できる。
 なお、図26では、位置合わせ処理部701で得られた位置合わせパラメータ(D70aD70b)を符号化部1103へ渡し、圧縮データ(D110)へ格納している。これは後述する画像復元部1200で復元される蛍光画像を、元の入力画像と同じ位置座標に戻す(逆位置合わせを行う)ために用いられる。よって、本実施形態のように、輝点領域の輝度値のみが保存されればよい、という用途であれば、逆位置合わせは不要であるため、パラメータは省略可能である。
 <画像復元部>
 図31は、第5の実施形態による画像復元部1200の概略構成例を示す図である。画像復元部1200は、復号化部1201と、位置合わせ逆処理部802とから構成される。位置合わせ逆処理部802は、第3の実施形態における画像復元部800と同様の処理を実行するため、同一の参照番号を付し、説明は省略する。また、その他の構成要素についても、上述した各実施形態における処理と同様の処理を実行するものに対しては、同一の参照番号を付している。
 復号化部1201は、画像圧縮部1100から出力された圧縮データ(D120)から冗長度削減画像(D122)を復号する。復号化方法としては、画像圧縮部1100で用いられた画像圧縮方式、もしくは汎用符号化方式に対応する既知の復号化方式を用いることができる。
 位置合わせパラメータ(D80a、D80b)が圧縮データ(D120)内に含まれている場合には、復号化部1201は、これらを抽出し、位置合わせ逆処理部802へ渡す。位置合わせ逆処理部802は、位置合わせパラメータを用いて、冗長度削減画像(D122)に対して、第3の実施形態で説明したような逆位置合わせ処理を実行する。なお、本実施形態では、第3の実施形態における位置合わせ差分画像は存在しないため、逆位置合わせ済み画像が復元画像(D121)となる。
 位置合わせパラメータ(D80a、D80b)が圧縮データ(D120)内にふくまれていない場合には、復号化部1201は、冗長度削減画像(D122)を復元画像(D121)とする。
 <第5の実施形態の作用効果等>
 以上のように、第5の実施形態では、塩基配列を解析する目的においては冗長となる非輝点領域の情報量を削減することにより、輝点領域の輝度情報を高い圧縮率の圧縮データとして格納し、復元することができる。
(6)第6の実施形態
 第6の実施形態による蛍光画像解析装置の全体構成は、第5の実施形態と同様である。第6の実施形態は、第5の実施形態とは異なる冗長度の削減方法について提案する。
 <画像圧縮部>
 図32は、第6の実施形態による画像圧縮部1300の概略構成例を示す図である。画像圧縮部1300は、位置合わせ処理部701と、輝点領域抽出部1101、冗長度削減部1302、符号化部1301とにより構成される。位置合わせ処理部701は、第3の実施形態による位置合わせ処理部701と同様の処理を実行するため、説明は省略する。また、輝点領域抽出部1101は、第5の実施形態による輝点領域抽出部1101と同様の処理を実行するため、説明は省略する。その他の構成要素についても、上述の各実施形態と同様の処理を実行するものについては同一の参照番号を付している。
 <冗長度削減処理>
 図33は、第6の実施形態による冗長度削減部1302の処理の概念を説明するための図である。図33では、輝点領域情報(D112)が示す輝点領域の画素(同図中の灰色)に対し、ラスタスキャン順に番号が付されている。
 冗長度削減部1302は、この輝点領域の画素の輝度値のみをラスタスキャン順に格納した輝度データ(D131)を生成する。すなわち、図33では、輝点領域である画素にラスタスキャン順に1から23まで番号が示され、輝度データとして、それぞれの画素の輝度値V1からV23のみがデータとして格納される。
 このように非輝点領域のデータを一切持たないことで、第5の実施形態の場合と比べてさらなる情報量削減が期待できる。ただし、後述する画像復元部1400では、この輝度データから画像を復元するために、輝点領域データ(D112)を必要とすることに注意する必要がある。
 <符号化部>
 符号化部1301は、輝点領域情報(D112)から輝点領域データ(D132)を生成し、輝度データ(D131)から圧縮データ(D130)を生成する。
 なお、第6の実施形態の場合、輝点領域情報(D112)と輝度データ(D131)とは、共に画像の性質は有さない。このため、符号化部1301における符号化方式としては、JPEG-LSなどのような画像固有の圧縮技術ではなく、LZ符号やLZW符号、ブロックソート法など、既知の汎用的な符号化方式を用いる方がよい。
 <画像復元部>
 図34は、第6の実施形態による画像復元部1400の概略構成例を示す図である。画像復元部1400は、復号化部1401と、画像再構成部1402と、位置合わせ逆処理部802とにより構成される。位置合わせ逆処理部802は、第3の実施形態による位置合わせ逆処理部802と同様の処理を実行するため、同一の参照番号を付し、説明は省略する。また、その他の構成要素についても、上述の各実施形態と同様の処理を実行するものについては同一の参照番号が付されている。
 復号化部1401は、圧縮データ(D140)から輝度データ(D143)を復号し、輝度領域データ(D141)から輝度領域情報(D142)を復号する。復号化方法としては、画像圧縮部1100で用いられた汎用符号化方式に対応する既知の復号化方式を用いることができる。
 画像再構成部1402は、輝度領域情報(D142)と輝度データ(D143)とから、冗長度削減画像(D144)を再構成する。すなわち、輝度領域情報(D142)で表わされる輝点領域の画素位置(例えば図27や図29)に対し、ラスタスキャン順に、輝度データ(D143)の輝度値を割り当てていけばよい。また、非輝点領域の画素に対しては予め定めた固定値を入れればよい。得られた冗長度削減画像(D144)は、第5の実施形態における冗長度削減画像(D122)と同様な画像となる。
 位置合わせ逆処理部802の処理は、第5の実施形態における位置合わせ逆処理部802の処理と同様である。すなわち、位置合わせパラメータ(D80a、D80b)が圧縮データ(D140)内に格納されている場合には、復号化部1401は、これらを抽出し、位置合わせ逆処理部802へ渡す。位置合わせ逆処理部802は、位置合わせパラメータを用いて、冗長度削減画像(D144)に対して、第3の実施形態と同様に、逆位置合わせ処理を行い、位置合わせ済み画像を生成する。この逆位置合わせ済み画像が、復元画像(D145)となる。位置合わせパラメータ(D80a、D80b)が圧縮データ(D140)内に格納されていない場合には、位置合わせ逆処理部802は、冗長度削減画像(D144)を復元画像(D145)として出力する。
 <第6の実施形態の作用効果等>
 以上のように、第6の実施形態では、塩基配列を解析する目的においては冗長となる非輝点領域の情報量を省略することにより、輝点領域の輝度情報を高い圧縮率の圧縮データとして格納し、復元することができる。
(7)まとめ
(i)上述した各実施形態では、蛍光画像解析装置(発光画像解析装置)が蛍光画像(発光画像)の符号化処理及び復号化処理の両方を実行しているが、これに限られない。例えば、蛍光画像解析装置(蛍光画像解析システム)を蛍光画像符号化装置及び蛍光画像復号化装置の2つの装置で構成し、符号化処理を蛍光画像符号化装置で実行し、復号化処理を蛍光画像復号化装置で実行しても良い。
(ii)本開示による蛍光画像符号化装置(第1乃至第6の実施形態)は、フローセルに配置された生体関連物質(例えば、DNA、RNA、タンパク質等の断片)の複数の蛍光画像のそれぞれにおける輝点の位置を基準位置に合わせることにより位置合わせ情報を生成する処理と、蛍光画像における輝点位置の情報と輝点の信号強度の情報(輝度値)とを用いて、複数の蛍光画像における輝点の信号強度の情報量と、位置合わせ情報の情報量とを削減して符号化データを生成する処理と、符号化データと、輝点位置の情報、或いは輝点位置を特定するための情報(例えば、パス名やURLなど輝点情報が格納された場所を示す情報)と、を含む伝送用データを生成する処理と、を実行する。このような処理により、蛍光画像データの圧縮率を向上させる。これにより、蛍光画像を記憶するための記憶装置や記憶媒体のメモリ容量の軽減や、画像データの書き込み時間削減を実現することができる。
 第1及び第2の実施形態(第5及び第6の実施形態にも適用可能)では、位置合わせ情報を生成する処理においては、生体関連物質の異なる解読サイクル間で取得された画像間の位置ずれ量を算出することにより位置合わせ情報が生成される。このようにすることにより、異なるサイクルで取得された複数の蛍光画像間で位置ずれが生じていても位置ずれを補正し、符号化効率を高くすることが可能となる。
 第3乃至第6の実施形態では、複数の蛍光画像は、複数の2次元センサ(実施形態では2つの2次元センサ)によって取得された複数の画像から構成される。このとき、位置合わせ情報を生成する処理においては、生体関連物質の異なる解読サイクル間で取得された画像間の位置ずれ量と、生体関連物質の同一の解読サイクルにおける複数の2次元センサ間の位置ずれ量とを算出することにより、位置合わせ情報が生成される。つまり、この場合、サイクル間の位置ずれ量を補正するための情報と、センサ間の位置ずれを補正するための情報とが取得される。2次元センサを複数用いることにより、蛍光画像取得回数を削減することができるため、蛍光画像解析のスループットを向上させることが可能となる。また、サイクル間、及びセンサ間の位置ずれを補正することができるので、符号化効率を高くすることが可能となる。
 第1乃至第4の実施形態では、輝点の信号強度の情報と所定のプロファイル(例えば、ば、ガウシアン分布)とに基づいて、蛍光画像を表す近似画像が生成される。そして、入力蛍光画像(処理対象の蛍光画像)と近似画像との差分を取ることにより近似差分画像が生成される。近似差分画像は、圧縮され、符号化データとして伝送される。このように特定のプロファイルに近似することにより、符号化効率を高くすることが可能となる。
 第1乃至第4の実施形態の符号化処理では、入力蛍光画像の位置合わせをして得られた位置合わせ蛍光画像を元の位置に戻す位置合わせ逆処理が実行される。そして、この位置合わせ逆処理済の蛍光画像と入力蛍光画像との差分を取り、位置合わせ差分画像が生成され、符号化データに含められる。このように、位置合わせ差分画像を生成することにより、可逆的(ロスレス)に符号化処理を実行することが可能となる。
 第1及び第3の実施形態では、蛍光画像における輝点位置の情報と輝点の信号強度の情報とは、入力蛍光画像から抽出される。一方、第2及び第4の実施形態では、蛍光画像における輝点位置の情報と輝点の信号強度の情報とは、蛍光画像符号化装置に接続された外部データベースから取得される。後者の場合は特に、伝送される符号化データの情報量を削減することができるようになる。
 第5の実施形態では、非輝点領域の情報が固定値に設定されたり、量子化されたりして蛍光画像の情報量を削減した冗長度削減データ(画像データ)が生成される。輝点領域の情報(輝度値)については、圧縮されて符号化データに含められる。この場合、ロスレスは実現できないが、輝点の情報のみ取得できれば良いときに好適であり、符号化効率を劇的に向上させることが可能となる。
 第6の実施形態では、輝点領域の情報(どの領域に輝点が存在するかを示す情報)とその領域における輝度値(輝点領域の信号強度の情報)のみが符号化される。この場合もロスレスは実現できないが、符号化対象が画像ではないので、符号化効率を劇的に向上させることができる。
(iii)各実施形態による蛍光画像復号化装置は、蛍光画像符号化装置によって生成された伝送用データを復号化するものである。伝送用データは、(a)蛍光画像符号化装置においてフローセルに配置された生体関連物質に励起光を照射して得られた、複数の蛍光画像における輝点位置の情報、或いは輝点位置を特定するための情報(例えば、パス名やURLなど輝点情報が格納された場所を示す情報)と、(b)蛍光画像を復元するための符号化データと、を含む。また、符号化データは、複数の蛍光画像のそれぞれにおける輝点の位置を基準位置に合わせ合わせることにより生成された位置合わせ情報を含む。蛍光画像復号化装置は、位置合わせ情報と蛍光画像の輝点の信号強度の情報とを用いて蛍光画像の再構成画像を生成する処理と、位置合わせ情報を用いて再構成画像の逆位置合わせを行い、蛍光画像の復元画像を生成する処理と、を実行する。このようにすることにより、効率よく符号化されたデータから元の蛍光画像を復元することが可能となる。
 第1乃至第4の実施形態では、符号化データは、さらに、(a)蛍光画像符号化装置において生成された近似差分画像(輝点の信号強度の情報と所定のプロファイルとに基づいて生成された近似画像と蛍光画像との差分を取ることにより生成される)と、蛍光画像符号化装置において生成された位置合わせ蛍光画像(位置合わせ情報に基づいて入力蛍光画像を位置合わせして得られた画像)に対して位置合わせ逆処理を行って得られた位置合わせ逆処理済蛍光画像と入力蛍光画像との差分を取ることにより生成された位置合わせ差分画像と、を含む。そして、蛍光画像復号化装置は、再構成画像を生成する処理において、所定のプロファイルの情報と、輝点の信号強度の情報と、近似差分画像とに基づいて、再構成画像を生成する。また、蛍光画像復号化装置は、復元画像を生成する処理において、逆位置合わせされた再構成画像に位置合わせ差分画像を加算して復元画像を生成する。このように蛍光画像そのものを復号化するのではなく、近似画像と入力画像との差分を復号化し、符号化処理で用いられたプロファイルと同一のものを用いて蛍光画像を再構成するので、復号化のために必要な情報量が少なく、処理効率を高めることが可能となる。
 第1及び第3の実施形態では、位置合わせ情報と輝点の信号強度の情報とは符号化データに含まれている。そのため、蛍光画像復号化装置は、符号化データを復号化して、これらの情報を取得する。一方、第2及び第4の実施形態では、蛍光画像における輝点位置の情報と輝点の信号強度の情報とは、蛍光画像符号化装置に接続された外部データベースから取得される。
 第5の実施形態では、符号化データは、輝点領域においては輝点の輝度値(信号強度の情報)と、非輝点領域においては情報を固定値、或いは量子化された値に設定された情報と、から構成される冗長度削減データを含む。蛍光画像復号化装置は、符号化データを復号化して冗長削減データを取得し、位置合わせ情報を用いて冗長度削減データの逆位置合わせを行うことにより、復元画像を生成する。このように、ロスレスの画像は取得できないが、復号化処理の内容を簡素化することができ、スループットを向上させることが可能となる。
 第6の実施形態では、符号化データは、輝点領域の情報(蛍光画像のうちどの領域に輝点が存在するかを示す情報)と、輝点領域の輝度値(輝点領域の信号強度の情報)とを含む。蛍光画像復号化装置は、符号化データを復号し、輝点領域における輝度値を取得し、画像を復元する。このように、ロスレスの画像は取得できないが、復号化処理の内容を簡素化することができ、スループットを向上させることが可能となる。
(iv)なお、本開示は上記した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施形態は本開示を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。また、本開示は、蛍光画像に限定されるものではなく、様々な発光現象を検出した画像に置き換えることが可能である。例えば、入射光に対する散乱光を検出した画像でもよいし、化学反応による発光や、電圧の印加や電子線照射による励起による発光を検出した画像でもよい。また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。
200、600、700、900、1100、1300 画像圧縮部
202、701 位置合わせ処理部
203、702 位置合わせ逆処理部(画像圧縮部内)
204 輝点抽出部
205 近似処理部(画像圧縮部内)、
206、601、703、1103、1301 符号化部
300、500、800、1000、1200、1400 画像復元部
301、501、801、1001、1201、1401 復号化部
302 近似処理部(画像復元部内)
303、802 位置合わせ逆処理部(画像復元部内)
1101 輝点領域抽出部
1102、1302 冗長度削減部
1402 画像再構成部

Claims (15)

  1.  フローセルに配置された生体関連物質からの発光を検出して得られた複数の発光画像を符号化するための符号化プログラムを格納する記憶デバイスと、
     前記記憶デバイスから前記符号化プログラムを読み込んで前記複数の発光画像を符号化する処理を実行するプロセッサと、を備え、
     前記プロセッサは、
      前記複数の発光画像のそれぞれにおける輝点の位置を基準位置に合わせることにより位置合わせ情報を生成する処理と、
      前記発光画像における輝点位置の情報と前記輝点の信号強度の情報とを用いて、前記複数の発光画像における前記輝点の信号強度の情報量と、前記位置合わせ情報の情報量とを削減して符号化データを生成する処理と、
      前記符号化データと、前記輝点位置の情報、或いは前記輝点位置を特定するための情報と、を含む伝送用データを生成する処理と、
    を実行する発光画像符号化装置。
  2.  請求項1において、
     前記プロセッサは、前記位置合わせ情報を生成する処理において、前記生体関連物質の異なる解読サイクル間で取得された画像間の位置ずれ量を算出することにより前記位置合わせ情報を生成する、発光画像符号化装置。
  3.  請求項1において、
     前記複数の発光画像は、複数の2次元センサによって取得された複数の画像から構成され、
     前記プロセッサは、前記位置合わせ情報を生成する処理において、前記生体関連物質の異なる解読サイクル間で取得された画像間の位置ずれ量と、前記生体関連物質の同一の解読サイクルにおける前記複数の2次元センサ間の位置ずれ量とを算出することにより、前記位置合わせ情報を生成する、発光画像符号化装置。
  4.  請求項1において、
     前記プロセッサは、前記符号化データを生成する処理において、前記輝点の信号強度の情報と所定のプロファイルとに基づいて、前記発光画像を表す近似画像を生成し、前記発光画像と前記近似画像との差分を取ることにより生成した近似差分画像と、前記位置合わせ画像との情報量を圧縮処理によって削減して前記符号化データを生成する、発光画像符号化装置。
  5.  請求項1において、
     前記プロセッサは、さらに、
      前記位置合わせ情報に基づいて入力発光画像を位置合わせして得られた位置合わせ発光画像に対して、前記位置合わせ情報に基づいて前記位置合わせ発光画像を元の位置に戻して、位置合わせ逆処理済発光画像を生成する処理と、
      前記入力発光画像と前記位置合わせ逆処理済発光画像との差分を取り、位置合わせ差分画像を生成する処理と、を実行し、
     前記プロセッサは、前記符号化データを生成する処理において、前記位置合わせ差分画像を圧縮して前記符号化データを生成する、発光画像符号化装置。
  6.  請求項1において、
     前記プロセッサは、処理対象である入力発光画像から、前記発光画像における輝点位置の情報と前記輝点の信号強度の情報とを抽出する処理を実行する、発光画像符号化装置。
  7.  請求項1において、
     前記プロセッサは、前記発光画像における輝点位置の情報と前記輝点の信号強度の情報を、前記発光画像符号化装置に接続された外部データベースから取得する、発光画像符号化装置。
  8.  請求項1において、
     前記輝点位置の情報は、前記輝点が存在する輝点領域の情報であり、
     前記プロセッサは、さらに、前記発光画像における輝点領域以外の非輝点領域の情報を固定値、或いは量子化された値に設定して冗長度削減データを生成する処理を実行し、
     前記冗長度削減データは、前記輝点領域においては前記輝点の信号強度の情報を含み、
     前記プロセッサは、前記符号化データを生成する処理において、前記冗長度削減データを圧縮処理することにより、前記符号化データを生成する、発光画像符号化装置。
  9.  請求項1において、
     前記輝点位置の情報は、前記輝点が存在する輝点領域の情報であり、
     前記プロセッサは、前記符号化データを生成する処理において、前記輝点領域の情報と、前記輝点領域の信号強度の情報とを符号化することにより、前記符号化データを生成する、発光画像符号化装置。
  10.  発光画像符号化装置によって生成された伝送用データを復号化するための復号化プログラムを格納する記憶デバイスと、
     前記記憶デバイスから前記復号化プログラムを読み込んで前記伝送用データを復号化して復元画像を生成する処理を実行するプロセッサと、を備え、
     前記伝送用データは、前記発光画像符号化装置においてフローセルに配置された生体関連物質に励起光を照射して得られた、複数の発光画像における輝点位置の情報、或いは前記輝点位置を特定するための情報と、前記発光画像を復元するための符号化データと、位置合わせ情報と、を含み、
     前記符号化データは、前記複数の発光画像のそれぞれにおける輝点の位置を基準位置に合わせ合わせることにより生成された位置合わせ情報を含み、
     前記プロセッサは、
      前記発光画像の輝点の信号強度の情報を、前記符号化データから或いは外部から取得し、前記位置合わせ情報と前記輝点の信号強度の情報とを用いて前記発光画像の再構成画像を生成する処理と、
      前記位置合わせ情報を用いて前記再構成画像の逆位置合わせを行い、前記発光画像の復元画像を生成する処理と、
    を実行する、発光画像復号化装置。
  11.  請求項10において、
     前記符号化データは、さらに、(i)前記発光画像符号化装置において、前記輝点の信号強度の情報と所定のプロファイルとに基づいて生成された、前記発光画像の近似画像と前記発光画像との差分を取ることにより生成された近似差分画像と、(ii)前記発光画像符号化装置において、前記位置合わせ情報に基づいて入力発光画像を位置合わせして得られた位置合わせ発光画像に対して、前記位置合わせ情報に基づいて前記位置合わせ発光画像を元の位置に戻すことにより生成された位置合わせ逆処理済発光画像と前記入力発光画像との差分を取ることにより生成された位置合わせ差分画像と、を含み、
     前記プロセッサは、
      前記再構成画像を生成する処理において、前記発光画像符号化装置で用いられた所定のプロファイルの情報と、前記輝点の信号強度の情報と、前記近似差分画像とに基づいて、前記再構成画像を生成し、
      前記復元画像を生成する処理において、前記逆位置合わせされた再構成画像に前記位置合わせ差分画像を加算する、発光画像復号化装置。
  12.  請求項10において、
     前記符号化データは、前記発光画像符号化装置において符号化された、前記位置合わせ情報と前記輝点の信号強度の情報とを含み、
     前記プロセッサは、前記符号化データを復号化することにより、前記位置合わせ情報と前記輝点の信号強度の情報とを取得する、発光画像復号化装置。
  13.  請求項10において、
     前記プロセッサは、前記輝点位置を特定するための情報に基づいて、前記発光画像復号化装置に接続された外部データベースから、前記位置合わせ情報と前記輝点の信号強度の情報とを取得する、発光画像復号化装置。
  14.  請求項10において、
     前記輝点位置の情報は、前記輝点が存在する輝点領域の情報であり、
     前記符号化データは、前記輝点領域においては前記輝点の信号強度の情報と、前記発光画像における輝点領域以外の非輝点領域においては情報を固定値、或いは量子化された値に設定して生成された情報と、から構成される冗長度削減データを含み、
     前記プロセッサは、前記符号化データを復号化して前記冗長度削減データを取得し、前記位置合わせ情報を用いて前記冗長度削減データの逆位置合わせを行うことにより、前記復元画像を生成する、発光画像復号化装置。
  15.  生体関連物質が配置されるフローセルと、
     励起光を発する光源と、
     特定の波長の光のみを通過させるフィルタと、
     前記生体関連物質に関連する複数の発光画像を取得する2次元センサと、
     請求項1に記載の発光画像符号化装置と、
     請求項10に記載の発光画像復号化装置と、
    を備える、発光画像解析システム。
PCT/JP2016/065684 2016-05-27 2016-05-27 発光画像符号化装置、発光画像復号化装置、及び発光画像解析システム WO2017203679A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/065684 WO2017203679A1 (ja) 2016-05-27 2016-05-27 発光画像符号化装置、発光画像復号化装置、及び発光画像解析システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/065684 WO2017203679A1 (ja) 2016-05-27 2016-05-27 発光画像符号化装置、発光画像復号化装置、及び発光画像解析システム

Publications (1)

Publication Number Publication Date
WO2017203679A1 true WO2017203679A1 (ja) 2017-11-30

Family

ID=60412200

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/065684 WO2017203679A1 (ja) 2016-05-27 2016-05-27 発光画像符号化装置、発光画像復号化装置、及び発光画像解析システム

Country Status (1)

Country Link
WO (1) WO2017203679A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021070259A1 (ja) * 2019-10-08 2021-04-15 株式会社日立ハイテク 分析装置及び分析方法
CN113227342A (zh) * 2019-01-09 2021-08-06 株式会社日立高新技术 核酸分析用基板、核酸分析用流动池以及图像分析方法
WO2021192750A1 (ja) * 2020-03-26 2021-09-30 ソニーグループ株式会社 情報処理システム、情報処理装置及び情報処理方法
WO2021229668A1 (ja) * 2020-05-12 2021-11-18 株式会社日立ハイテク 核酸分析装置、核酸分析方法及び機械学習方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001103222A (ja) * 1999-07-12 2001-04-13 Fuji Photo Film Co Ltd 画像転送方法および画像転送システム並びにそれに使用する画像信号出力装置および端末
JP2004056786A (ja) * 2003-06-16 2004-02-19 Sony Corp 画像情報符号化装置および復号装置
JP2014164004A (ja) * 2013-02-22 2014-09-08 Hitachi High-Technologies Corp 蛍光顕微鏡

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001103222A (ja) * 1999-07-12 2001-04-13 Fuji Photo Film Co Ltd 画像転送方法および画像転送システム並びにそれに使用する画像信号出力装置および端末
JP2004056786A (ja) * 2003-06-16 2004-02-19 Sony Corp 画像情報符号化装置および復号装置
JP2014164004A (ja) * 2013-02-22 2014-09-08 Hitachi High-Technologies Corp 蛍光顕微鏡

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HANSRAJ MISHRA: "A Compression Scheme for Archiving DNA Sequencing Images", 2008 IEEE INTERNATIONAL WORKSHOP ON GENOMIC SIGNAL PROCESSING AND STATISTICS, 8 June 2008 (2008-06-08), pages 1 - 5, XP031280832 *
MIGUEL HERNANDEZ-CABRONERO: "A review of DNA microarray image compression", 2011 FIRST INTERNATIONAL CONFERENCE ON DATA COMPRESSION, COMMUNICATIONS AND PROCESSING (CCP, 21 June 2011 (2011-06-21), pages 139 - 147, XP032066379, DOI: doi:10.1109/CCP.2011.21 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113227342A (zh) * 2019-01-09 2021-08-06 株式会社日立高新技术 核酸分析用基板、核酸分析用流动池以及图像分析方法
WO2021070259A1 (ja) * 2019-10-08 2021-04-15 株式会社日立ハイテク 分析装置及び分析方法
WO2021192750A1 (ja) * 2020-03-26 2021-09-30 ソニーグループ株式会社 情報処理システム、情報処理装置及び情報処理方法
WO2021229668A1 (ja) * 2020-05-12 2021-11-18 株式会社日立ハイテク 核酸分析装置、核酸分析方法及び機械学習方法

Similar Documents

Publication Publication Date Title
WO2017203679A1 (ja) 発光画像符号化装置、発光画像復号化装置、及び発光画像解析システム
US11630067B2 (en) System for acquisition and processing of multiplexed fluorescence in-situ hybridization images
US10204401B2 (en) Image processing apparatus and method, and non-transitory computer readable medium
US20210264267A1 (en) Bus Network for Artificial Intelligence-Based Base Caller
CN109564189B (zh) 电泳图谱分析
EP4222749A1 (en) Deep learning based methods and systems for nucleic acid sequencing
US11790559B2 (en) Data compression for multidimensional time series data
WO2022047038A1 (en) Detecting and filtering clusters based on artificial intelligence-predicted base calls
JP4195374B2 (ja) 二次元生化学分析画像のフラット・フィールド補正
US9865049B2 (en) Methods and systems for background subtraction in an image
US10733707B2 (en) Method for determining the positions of a plurality of objects in a digital image
US20240177310A1 (en) Method and device for preparing data for identifying analytes
US20240177311A1 (en) Method and device for preparing data for identifying analytes
US20240177309A1 (en) Method and device for preparing data for identifying analytes
US20240177350A1 (en) Method and device for preparing data for identifying analytes
US20240177349A1 (en) Method and device for preparing data for identifying analytes
US20230026084A1 (en) Self-learned base caller, trained using organism sequences
US20220415445A1 (en) Self-learned base caller, trained using oligo sequences
CN118098353A (zh) 准备用于分析物鉴定的数据的方法和装置
AU2022248999A1 (en) Artificial intelligence-based base caller with contextual awareness
CN118098354A (zh) 准备用于分析物鉴定的数据的方法和装置
WO2018064116A1 (en) Methods and systems for data compression
JP2006010488A (ja) 画像処理装置

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16903160

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 16903160

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP