WO2013168348A1 - 情報処理装置、情報処理方法、情報処理プログラム、画像取得装置、画像取得システム、および画像取得・閲覧システム - Google Patents

情報処理装置、情報処理方法、情報処理プログラム、画像取得装置、画像取得システム、および画像取得・閲覧システム Download PDF

Info

Publication number
WO2013168348A1
WO2013168348A1 PCT/JP2013/002219 JP2013002219W WO2013168348A1 WO 2013168348 A1 WO2013168348 A1 WO 2013168348A1 JP 2013002219 W JP2013002219 W JP 2013002219W WO 2013168348 A1 WO2013168348 A1 WO 2013168348A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
processing
unit
luminance value
interpolation
Prior art date
Application number
PCT/JP2013/002219
Other languages
English (en)
French (fr)
Inventor
木島 公一朗
龍 成澤
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Publication of WO2013168348A1 publication Critical patent/WO2013168348A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4015Image demosaicing, e.g. colour filter arrays [CFA] or Bayer patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/407Control or modification of tonal gradation or of extreme levels, e.g. background level
    • H04N1/4072Control or modification of tonal gradation or of extreme levels, e.g. background level dependent on the contents of the original

Definitions

  • This technology relates to the development process of the virtual slide scanner.
  • RGB filters are placed on the pixels of the image sensor. Therefore, the image (RAW file) output from the image sensor is not colored. Therefore, generally, as described in Patent Document 1 and Patent Document 2, first, development (demosaic) processing is performed to colorize the image.
  • parameter adjustments such as brightness correction, contrast correction, and gamma correction can be performed when the lighting conditions are known, such as continuous shooting of observation images with a virtual slide scanner (microscope), or when the lighting conditions are stable. It does not happen frequently.
  • the final form of image use is image storage and image display with a gradation value of 8 bits, and output with a gradation value of 16 bits is not assumed.
  • the observer does not observe the 16-bit color image, it is not necessary for the observer to prepare the 16-bit color image in order to perform brightness correction, contrast correction, and gamma correction interactively.
  • Performing brightness correction, contrast correction, and gamma correction on a color image that has not been viewed for adjustment uses a memory space that is not necessary. The processing speed is slowed down.
  • an object of the present technology is to provide an information processing apparatus, an information processing method, an information processing program capable of speeding up image processing and reducing the memory consumption and reducing the cost of the apparatus.
  • An object is to provide an image acquisition device, an image acquisition system, and an image acquisition / viewing system.
  • the information processing apparatus performs a luminance value calculation process for each pixel and outputs a processed RAW image for a RAW image including a plurality of pixels.
  • a luminance value calculation unit that performs the demosaicing (interpolation) process on the processed RAW image.
  • the luminance value calculation unit performs a luminance value calculation process for each pixel on the RAW image. Since the RAW image is not colorized, the size of the image data is small and the number of pixels is small, so that there is an effect that the calculation of the luminance value for each pixel can be performed at high speed and with a small memory space consumption.
  • the interpolation processing unit outputs an image of N-bit gradation (where N is an integer of 4 or more) as a result of demosaic processing, and the information processing apparatus
  • the image processing apparatus further includes a rounding processing unit that rounds the N-bit gradation image output from the interpolation processing unit into an (N-2) -bit gradation image.
  • the processing in the interpolation processing unit is performed on an Nbit gradation image higher than the finally output (N-2) bit gradation image.
  • the rounding processing unit rounds the gradation of the finally output image to (N-2) bit gradation. Therefore, in the interpolation processing performed with gradations of N bits or more, there is an effect that the interpolation processing can be performed at high speed without any gradation number conversion in the middle.
  • the luminance value calculation unit outputs an image of N-bit gradation (where N is an integer of 4 or more) as a processed RAW image
  • the information processing apparatus further includes a rounding unit that rounds the N-bit gradation image output from the luminance value calculation unit into an (N-2) -bit gradation image and then passes the rounded image to the interpolation processing unit.
  • the rounding processing unit rounds the gradation of the finally output image to the (N-2) bit gradation, so that the data size of the image is reduced. Thereafter, the interpolation processing unit performs processing on the (N-2) bit gradation image. Therefore, there is an effect that an increase in the data size of the image due to the processing of the interpolation processing unit can be suppressed.
  • the luminance value calculation unit may perform at least one of shading processing, color balance correction, and gamma correction as the luminance value calculation processing.
  • the luminance value calculation unit performs a calculation process of the luminance value for each pixel on the RAW image including a plurality of pixels, and outputs a processed RAW image.
  • the interpolation processing unit may perform a demosaic (interpolation) process on the processed RAW image.
  • the information processing program performs a luminance value calculation process for each pixel on a RAW image including a plurality of pixels and outputs a processed RAW image;
  • the computer is caused to function as an interpolation processing unit that performs demosaic (interpolation) processing on the processed RAW image.
  • the image acquisition device calculates a luminance value for each pixel with respect to a RAW image composed of an optical microscope having an image sensor and a plurality of pixels captured by the image sensor.
  • a luminance value calculation unit that performs processing and outputs a processed RAW image and an interpolation processing unit that performs demosaic (interpolation) processing on the processed RAW image are provided.
  • the image acquisition system calculates a luminance value for each pixel with respect to a RAW image composed of an optical microscope having an image sensor and a plurality of pixels imaged by the image sensor.
  • An image acquisition apparatus including a luminance value calculation unit that performs processing and outputs a processed RAW image; and an interpolation processing unit that performs demosaic (interpolation) processing on the processed RAW image; and a server computer that stores the demosaiced image; Consists of.
  • the image acquisition / browsing system is a luminance value for each pixel with respect to a RAW image composed of an optical microscope having an image sensor and a plurality of pixels imaged by the image sensor.
  • An image acquisition apparatus comprising a luminance value calculation unit that performs the calculation process and outputs a processed RAW image, and an interpolation processing unit that performs a demosaic (interpolation) process on the processed RAW image, and stores the demosaiced image
  • a server computer and a client computer that browses the demosaiced image stored in the server computer.
  • FIG. 1 It is a figure showing the typical use environment of a virtual slide scanner. It is a figure which shows the structure of a virtual slide scanner. It is a block diagram which shows the structure of the hardware of the computer for scanners. It is a functional block diagram (conventional example) of a scanner computer. It is a figure which shows the image size at the time of processing by the conventional image processing method. It is a figure which shows the image size at the time of processing by the method (pattern 1) by this technique. It is a figure which shows the image size at the time of processing by the method (pattern 2) by this technique. It is a figure which shows the example which further deform
  • FIG. 1 is a diagram illustrating a typical use environment of a virtual slide scanner 100 according to the present technology and a general virtual slide scanner.
  • the virtual slide scanner 100 including the scanner 10 and the scanner computer 20 is installed in a histology laboratory HL in a hospital.
  • a RAW image taken by the scanner 10 is subjected to image processing such as development processing, shading processing, color balance correction, gamma correction, and 8-bit processing on the scanner computer 20, and then JPEG (Joint Photographic Experts Group). It is converted into an image and stored on the hard disk HD1.
  • JPEG Joint Photographic Experts Group
  • the JPEG image stored in the hard disk HD1 of the scanner computer 20 is then uploaded via the network 300 to the hard disk HD2 on the image management server 400 in the data center DC in the same hospital.
  • the pathologist who is an observer is stored in the hard disk HD2 of the image management server 400 using the viewer computer 500 connected to the image management server 400 and the network 300 in the pathology room PR in the hospital or the building EX outside the hospital. Observe the JPEG image.
  • the scanner computer 20 is the same as that described in the hospital example except that the internal configuration is different from that according to the prior art.
  • the photographed RAW image can be touched by the observer unless it is stored in the hard disks HD1 and HD2 as a color JPEG image having a final gradation value of 8 bits. There is no.
  • FIG. 2 is a diagram illustrating a configuration of a virtual slide scanner 100 according to the present technology and a general virtual slide scanner.
  • a bright field microscope is taken as an example of the scanner 10, but a fluorescent microscope may be used. Description of the fluorescence microscope is omitted.
  • the virtual slide scanner 100 has a scanner 10 and a scanner computer 20.
  • the scanner 10 includes a stage 11, an optical system 12, a light source unit 13, an image sensor 14, a light source driving unit 15, a stage driving unit 16, and a camera control unit 17.
  • the stage 11 has a surface on which a biological sample SPL such as a tissue slice, cell, or chromosome to be imaged can be placed.
  • the stage 11 is configured to be movable in a parallel direction (xy axis) and an orthogonal direction (z axis direction) with respect to the surface.
  • An optical system 12 is disposed on one surface side of the stage 11, and a light source unit 13 is disposed on the other surface side of the stage 11.
  • the light source unit 13 emits light under the control of the light source driving unit 15, and irradiates the biological sample SPL disposed on one surface of the stage 11 through an opening formed in the stage 11. To do.
  • the light source unit 13 includes a white LED (Light Emitting Diode) that outputs white light as the light source 13A.
  • the light source unit 13 includes a condensing lens 13B that converts light emitted from the light source 13A into substantially parallel light and uses it as illumination light for the biological sample SPL.
  • the optical system 12 enlarges a part of the image in the biological sample SPL obtained by the illumination light to a predetermined magnification by the objective lens 12A and the imaging lens 12B.
  • the image magnified by the objective lens 12A and the imaging lens 12B is formed on the imaging surface of the imaging element 14.
  • an image sensor capable of simultaneous exposure in all light receiving units corresponding to all pixels, for example, a CCD (Charge-Coupled Device) image sensor, a CMOS (Complementary Metal-Oxide Semiconductor) image sensor, or the like is used. .
  • the light source drive unit 15 has at least a drive circuit that supplies a constant drive current to the light source 13A in the light source unit 13 based on the light emission command S1 from the scanner computer 20 to cause the light source 13A to emit light.
  • the stage drive unit 16 supplies stage drive currents in the xyz three-axis directions for driving the stage 11 based on the stage control signal S2 from the scanner computer 20 to move the stage 11 in the three-axis directions. .
  • the camera control unit 17 controls the image sensor 14 based on the exposure control signal S3 from the scanner computer 20.
  • the camera control unit 17 performs A / D (Analog-to-Digital) conversion on signals (RAW data) corresponding to the respective pixels read from the image sensor 14 and supplies the signals to the scanner computer 20.
  • a / D Analog-to-Digital
  • the scanner computer 20 performs image processing (described later) on the RAW data supplied from the camera control unit 17 of the scanner 10 and stores it. Further, the scanner computer 20 executes arithmetic processing for controlling the light source driving unit 15, the stage driving unit 16, and the exposure control unit 17 based on a predetermined program.
  • FIG. 3 is a block diagram illustrating a hardware configuration of the scanner computer 20 according to the present technology and a general scanner computer.
  • the scanner computer 20 is a CPU (Central Processing Unit) 21 that performs arithmetic control, a ROM (Read Only Memory) 22, a RAM (Random Access Memory) 23 that is a work memory of the CPU 21, and inputs commands according to user operations.
  • CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the ROM 22 stores programs for executing various processes.
  • the scanner unit 10 is connected to the interface unit 25.
  • a network 300 is connected to the network interface unit 28.
  • the display unit 26 is a liquid crystal display, an EL (Electro Luminescence) display, a plasma display, or the like.
  • a magnetic disk represented by HDD (Hard Disk Drive), a semiconductor memory, an optical disk, or the like is applied.
  • the CPU 21 develops a program corresponding to a command given from the operation input unit 24 among the plurality of programs stored in the ROM 22, and appropriately controls the display unit 26 and the storage unit 27 according to the developed program. . Further, the CPU 21 appropriately controls each unit of the scanner 10 via the interface unit 25 in accordance with a program developed in the RAM 23.
  • the GPGPU 30 can execute image processing such as shading processing and JPEG processing by parallel arithmetic processing.
  • the CPU 21 and GPGPU30 implement
  • the CPU 21 executes programs stored in the ROM 22, the storage unit 27, and the like, and controls each of the above members as necessary. Accordingly, the scanner computer 20 can realize various functional blocks, and the above-described members can be operated as the scanner computer 20.
  • FIG. 4 is a functional block diagram of the scanner computer 20 according to the present technology and a general scanner computer. Note that solid arrows shown in the figure indicate the flow of captured image data in a general scanner computer, and the captured image data in the scanner computer 20 according to the present technology. It does not show the flow.
  • the CPU 21 functions as a stage control unit 41, a light source control unit 42, an image acquisition unit 43, a stitching processing unit 50, and a tile division processing unit 51 as shown in FIG. 4 in accordance with a program corresponding to an 8-bit JPEG color image creation command. To do.
  • the GPGPU 30 functions as a development processing unit 44, a shading processing unit 45, a color balance correction unit 46, a gamma correction unit 47, an 8-bit processing unit 48, a distortion correction unit 49, and a JPEG processing unit 52 in accordance with the above program.
  • the information processing program performs a shading processing unit that calculates a luminance value for each pixel and outputs a processed RAW image on a RAW image including a plurality of pixels.
  • the computer functions as a color balance correction unit 46, a gamma correction unit 47 (luminance value calculation unit), and a development processing unit 44 (interpolation processing unit) that performs demosaic (interpolation) processing on the processed RAW image.
  • the stage control unit 41 moves the stage 11 by controlling the stage driving unit 16 with the control signal S2.
  • the light source control unit 42 controls the light source 13A by controlling the light source driving unit 15 with the control signal S1.
  • the image acquisition unit 43 captures an image by controlling the camera control unit 17 with the signal S3, and acquires the captured image as a RAW image from the image sensor 14 via the camera control unit 17.
  • the development processing unit 44 performs development (demosaic) processing of the RAW image acquired by the image acquisition unit 43 to form a color image.
  • the shading processing unit 45 performs a shading process on the image developed by the development processing unit 44.
  • the color balance correction unit 46 performs color balance (white balance) correction on the image subjected to the shading process, and corrects the originally achromatic portion to an achromatic color.
  • the gamma correction unit 47 performs gamma correction on the color balance corrected image, and adjusts the relative relationship between the color data and the signal when it is actually output.
  • the 8-bit conversion processing unit 48 changes the gradation value of the gamma-corrected image from 16 bits to 8 bits.
  • the distortion correction unit 49 performs distortion correction on the 8-bit image to correct lens distortion (distortion).
  • the shading processing unit 45 performs a shading process on the RAW image acquired by the image acquisition unit 43.
  • the color balance correction unit 46 performs color balance (white balance) correction on the shaded image.
  • the gamma correction unit 47 performs gamma correction on the color balance corrected image.
  • the 8-bit conversion processing unit 48 changes the gradation value of the gamma-corrected image from 16 bits to 8 bits.
  • the development processing unit 44 performs development (demosaic) processing of an image in which the 8-bit processing unit 48 sets the gradation value to 8 bits.
  • the distortion correction unit 49 performs distortion correction on the color image.
  • the stitching processing unit 50 performs stitching on a plurality of images that have been subjected to distortion correction, and acquires the relative position information with respect to the close position image, thereby bonding adjacent images together.
  • the tile division processing unit 51 divides the combined image into tiles for high-speed display.
  • the tile division process is performed to display image data at high speed, and is not an essential process.
  • the JPEG processing unit 52 performs JPEG processing on the tile-divided image.
  • the JPEG image is stored in the storage unit 27 and then uploaded to the image management server 400 via the network interface unit 28.
  • the shooting is performed under controlled lighting conditions or under conditions where the lighting conditions are known.
  • images are taken under various lighting conditions, so that an observer can develop and color a photographed RAW image and interactively observe the colored image. This is fundamentally different from the environment where shading processing, color balance correction, gamma correction, and the like must be performed.
  • the characteristics of the virtual slide development process include the following points.
  • the image of the virtual slide scanner since the image of the virtual slide scanner has a huge amount of data, it can be stored as a JPEG compressed image having a gradation value of 8 bits.
  • the lighting conditions at the time of shooting are known, and the parameters for performing shading processing, color balance correction, gamma correction, etc. are fixed. Therefore, it is not necessary for the observer to repeatedly perform various luminance value calculations while viewing the colorized image.
  • the gradation value of a RAW image to be captured is 10 bits or more, that is, the image sensor 14 has The gradation value is desirably 10 bits or more.
  • the gradation value is 8 bits, an 8-bit variable may be assigned at the time of image processing.
  • the gradation value is more than 8 bits and less than 16 bits, it is necessary to assign a 16-bit variable at the time of image processing.
  • FIG. 5 is a diagram showing an image size when processing is performed by a conventional image processing method.
  • the image acquisition unit 43 captures an image with the image sensor 14 and acquires RAW image data.
  • S1 In this example, an image sensor 14 having 6000 ⁇ 4000 pixels and a gradation value of 12 bits is used. Since it is still undeveloped, the image is gray space. The image size is 50 MB.
  • the development processing unit 44 performs development (demosaic) processing to form a color image.
  • S2 The gradation value is 16 bits, and the image is an RGB space.
  • the data size increases to 147MB.
  • the shading processing unit 45 performs shading processing (S3)
  • the color balance correction unit 46 performs color balance correction (S4)
  • the gamma correction unit 47 performs gamma correction.
  • S5 The image is a 16-bit RGB space, and the size of the image data remains 147 MB after each processing.
  • the 8-bit processing unit 48 performs 8-bit processing.
  • S6 With this processing, the gradation value is changed to 8 bits, and the image data is reduced to 73 MB.
  • the above processing is roughly performed in the order of development processing, luminance value calculation processing, and 8-bit processing.
  • the luminance value calculation processing referred to here is at least one of shading processing, color balance correction, and gamma correction.
  • the luminance value calculation performs independent calculation processing on each pixel constituting the image.
  • the development processing referred to here refers to performing demosaic (interpolation) processing on a plurality of adjacent pixels as a calculation target.
  • the size of the image data is increased to 147 MB by the development processing, the observer does not interactively perform the luminance value calculation processing on the colorized image. Therefore, the luminance value calculation is performed on the image having the size of 147 MB. Performing processing leads to wasteful consumption of memory space. In addition, since the memory space is consumed wastefully, the calculation speed of image processing is also slowed down.
  • FIG. 6 is a diagram illustrating an image size when processing is performed by the method (pattern 1) according to the present technology.
  • the image acquisition unit 43 acquires RAW image data. (S1) Since the image is not yet developed, the image is a gray space. The image size is 50 MB.
  • the shading processing unit 45 performs shading processing (S3)
  • the color balance correction unit 46 performs color balance correction (S4)
  • the gamma correction unit 47 performs gamma correction.
  • S5 The image is a 16-bit gray space, and the size of the image data remains 50 MB after each process.
  • the 8-bit processing unit 48 performs 8-bit processing. (S6) With this process, the gradation value is changed to 8 bits, and the image data is reduced to 25 MB.
  • the development processing unit 44 performs development (demosaic) processing. (S2) As a result, the image becomes an RGB space. The data size increases to 73MB.
  • the difference between the method according to the present technology (Pattern 1) and the conventional method is that the development process (S2) is performed last. Therefore, the size of the image data is 50 MB until gamma correction (S5), and is reduced to 25 MB by 8-bit conversion processing (S6), and then increased to 73 MB by development processing (S2). That is, the image data to be subjected to the luminance value calculation process is as small as 50 MB, and the maximum value of the image data in the process is 73 MB, so that the memory space used for image processing can be greatly reduced.
  • the scanner computer 20 (information processing apparatus) performs a shading process for calculating a luminance value for each pixel and outputting a processed RAW image for a RAW image including a plurality of pixels.
  • the image processing apparatus includes a unit 45, a color balance correction unit 46, a gamma correction unit 47 (luminance value calculation unit), and a development processing unit 44 (interpolation processing unit) that performs demosaic (interpolation) processing on the processed RAW image.
  • the image processing method (information processing method) according to the present technology includes a shading processing unit 45, a color balance correction unit 46, and a gamma correction unit 47 (luminance value calculation unit) for a RAW image composed of a plurality of pixels.
  • a shading processing unit 45 a color balance correction unit 46
  • a gamma correction unit 47 luminance value calculation unit 47 for a RAW image composed of a plurality of pixels.
  • the shading processing unit 45, the color balance correction unit 46, and the gamma correction unit 47 output an image of N-bit gradation (where N is an integer equal to or greater than 4) as a processed RAW image for scanner use.
  • the computer 20 (information processing apparatus) converts the N-bit gradation image output from the shading processing unit 45, the color balance correction unit 46, and the gamma correction unit 47 (luminance value calculation unit) into an (N-2) -bit gradation image. It can be said that it further comprises an 8-bit processing unit 48 (rounding processing unit) that is handed over to the development processing unit 44 (interpolation processing unit).
  • the above processing is roughly performed in the order of luminance value calculation processing, 8-bit processing, and development processing. That is, the development processing unit 44 (interpolation processing unit) outputs an image of N-bit gradation (where N is an integer of 4 or more) as a result of demosaic processing, and the scanner computer 20 (information processing apparatus) It can be said that the image processing apparatus further includes an 8-bit processing unit 48 (rounding processing unit) that rounds the N-bit gradation image output from the unit 44 (interpolation processing unit) into an (N-2) -bit gradation image.
  • N an integer of 4 or more
  • FIG. 7 is a diagram illustrating an image size when processing is performed by the method (pattern 2) according to the present technology.
  • the image acquisition unit 43 acquires RAW image data. (S1) Since the image is not yet developed, the image is a gray space. The image size is 50 MB.
  • the shading processing unit 45 performs shading processing (S3)
  • the color balance correction unit 46 performs color balance correction (S4)
  • the gamma correction unit 47 performs gamma correction.
  • S5 The image is a 16-bit gray space, and the size of the image data remains 50 MB after each process.
  • the development processing unit 44 performs development (demosaic) processing. (S2) As a result, the image becomes an RGB space. The data size increases to 147MB.
  • the 8-bit processing unit 48 performs 8-bit processing. (S6) With this process, the gradation value is changed to 8 bits, and the image data is reduced to 73 MB.
  • the difference between the method according to the present technology (pattern 2) and the conventional method is that the development processing (S2) is performed between the gamma correction (S5) and the 8-bit conversion processing (S6). Therefore, the size of the image data is 50 MB until gamma correction (S5), increases to 147 MB by development processing (S2), and then decreases to 73 MB by 8-bit conversion processing (S6). That is, the image data to be subjected to the luminance value calculation process is as small as 50 MB, and the maximum value of the image data in the process is 147 MB.
  • the development processing unit 44 (interpolation processing unit) outputs an image of N-bit gradation (where N is an integer of 4 or more) as a result of demosaic processing
  • the scanner computer 20 information processing apparatus
  • the image processing apparatus further includes an 8-bit processing unit 48 (rounding processing unit) that rounds the N-bit gradation image output from the processing unit 44 (interpolation processing unit) into an (N-2) -bit gradation image.
  • the above processing is roughly performed in the order of luminance value calculation processing, development processing, and 8-bit processing.
  • FIG. 8 shows an example in which the method (pattern 1) according to the present technology is further modified and a shading process (S3), which is one of luminance value calculations, is brought after the development process (S2).
  • the image acquisition unit 43 acquires RAW image data. (S1) Since it is not yet developed, it is a gray space. The image size is 50 MB.
  • the color balance correction unit 46 performs color balance correction (S4), and the gamma correction unit 47 performs gamma correction.
  • S5 The image is a 16-bit gray space, and the size of the image data remains 50 MB after each process.
  • the 8-bit processing unit 48 performs 8-bit processing. (S6) With this process, the gradation value is changed to 8 bits, and the image data is reduced to 25 MB.
  • the development processing unit 44 performs development (demosaic) processing. (S2) Thereby, an image becomes RGB space.
  • the data size increases to 73MB.
  • the shading processing unit 45 performs shading processing. (S3)
  • the size of the image data remains 73 MB.
  • the major difference between the reference example and the method according to the present technology is that the shading process (S3) is performed after the development process (S2), and is performed when the image data is 8-bit RGB space.
  • FIG. 9 is a diagram showing the measurement result of the processing time and the image quality of the processing result.
  • the processing that took 22.3 seconds in the conventional method is 13.0 seconds in the method of the present technology (pattern 1), and 12.6 seconds in the method of the present technology (pattern 2).
  • the speed is almost doubled.
  • the image quality is not degraded compared to the conventional method.
  • the reason why the image quality does not deteriorate even if the luminance value calculation is performed before the development processing is basically the processing in which the luminance value calculation is simply the multiplication of the correction value to the luminance value of each pixel. Is an independent operation.
  • pattern 2 is faster than the pattern 1 is that in the pattern 1, in the development processing after the 8-bit conversion, the development processing is performed after returning to the double precision 16 bits and then the single precision 8 bits.
  • Pattern 2 since the development processing is performed with 16 bits, there is no extra accuracy conversion work.
  • the processing time is 17.9 seconds, which is faster than the conventional method.
  • this method cannot be adopted.
  • the reason that the image quality is deteriorated is considered to be because the shading process (S3) for performing the decimal point calculation is performed with single precision of 8 bits. Further, in the DPI scanner, if the all-white image is converted to 8 bits, the luminance value is only about 25.
  • the luminance value calculation process of the shading process (S3), the color balance correction (S4), and the gamma correction (S5) is performed with 16 bits, it can be performed before the development process (S2). It can be said.
  • the development processing (S2) is performed after the 8-bit conversion processing (S6) is performed after the luminance value calculation, as in pattern 1 of the present technology. Is effective.
  • priority is given to shortening the processing time, it is effective to perform the 8-bit processing (S6) after the development processing (S2) after the luminance value calculation, as in pattern 2 of the present technology.
  • this technique can also take the following structures.
  • a luminance value calculation unit that performs a luminance value calculation process for each pixel and outputs a processed RAW image on a RAW image composed of a plurality of pixels, and a demosaic (interpolation) process on the processed RAW image
  • An information processing apparatus comprising an interpolation processing unit to perform.
  • the luminance value calculation unit outputs an image of N-bit gradation (where N is an integer of 4 or more) as a processed RAW image
  • the information processing The apparatus further includes a rounding unit that rounds the N-bit gradation image output from the luminance value computing unit into an (N-2) -bit gradation image and then passes the rounded image to the interpolation processing unit.
  • the luminance value calculation unit includes, as the luminance value calculation processing, shading processing, color balance correction, and An information processing apparatus that performs at least one of gamma correction.
  • a luminance value calculation unit calculates a luminance value for each pixel and outputs a processed RAW image for a RAW image composed of a plurality of pixels, and an interpolation processing unit adds the processed RAW image to the processed RAW image.
  • a luminance value calculation unit that calculates a luminance value for each pixel and outputs a processed RAW image on a RAW image composed of a plurality of pixels, and a demosaic (interpolation) process on the processed RAW image
  • An information processing program for causing a computer to function as an interpolation processing unit.
  • An image acquisition apparatus comprising: an arithmetic unit; and an interpolation processing unit that performs a demosaic (interpolation) process on the processed RAW image.
  • An image acquisition system comprising: an image acquisition device including an arithmetic unit and an interpolation processing unit that performs a demosaic (interpolation) process on the processed RAW image; and a server computer that stores the demosaiced image.
  • An image acquisition apparatus comprising an arithmetic unit and an interpolation processing unit that performs a demosaic (interpolation) process on the processed RAW image, a server computer that stores the demosaiced image, and the demosaic process stored in the server computer
  • An image acquisition / browsing system comprising a client computer that browses a captured image.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Optics & Photonics (AREA)
  • Image Processing (AREA)

Abstract

【課題】画像処理を高速化できるとともに、メモリ消費量を減らして装置の低コスト化をもたらすことができる情報処理装置、情報処理方法、情報処理プログラム、および画像取得装置、画像取得システム、および画像取得・閲覧システムを提供する。 【解決手段】複数の画素により構成されるRAW画像に対して、当該画素毎の輝度値の演算処理を行い加工RAW画像を出力する輝度値演算部と前記加工RAW画像に対しデモザイク(補間)処理を行う補間処理部とを具備する。

Description

情報処理装置、情報処理方法、情報処理プログラム、画像取得装置、画像取得システム、および画像取得・閲覧システム
 本技術は、バーチャルスライドスキャナの現像処理に関する。
 デジタルカメラによる画像の撮影は、一般的な場合、3板CCD(Charge Coupled Device)あるいは3板CMOS(Complementary Metal-Oxide Semiconductor)イメージセンサを用いる代わりに、イメージセンサの画素上にRGBフィルタを配置して撮影するので、イメージセンサから出力される画像(RAWファイル)はカラー化されていない。そこで、一般的に、また特許文献1および特許文献2に記載されているように、最初に現像(デモザイク)処理が行われ、画像がカラー化される。
 特許文献1に開示されている画像処理のフローチャート(特許文献1の図1)では、ハイライト値、シャドー値設定(S110)を行った後、まずRAWデータの現像(S120)を行っている。また、特許文献2に開示されている画像処理のフローチャート(特許文献2の図5)でも、RAW画像ファイルを取得(B1)し、現像処理条件を設定(B3)した後、まずデモザイク処理(B4)を行っている。
 現像(デモザイク)処理後、カラーバランス補正を行った後、ユーザが見やすいように、あるいはユーザの好みに応じて、明るさ補正・コントラスト補正・ガンマ補正などが行われ、ディスプレイ表示や印刷が行われる。ユーザは、カラー化された画像を目視しながら、この明るさ補正・コントラスト補正・ガンマ補正などをインタラクティブに繰り返し行う場合もある。
 なお、イメージセンサから出力される画像の階調値が8bitを超えているが、表示を行うディスプレイや印刷を行うプリンタが8bitにしか対応していない場合は、上記の処理に加えて、8bit化処理が行われる。
特開2009-296359号公報 特開2006-203572号公報
 しかし、バーチャルスライドスキャナ(顕微鏡)による観察画像の連続撮影など、照明条件が既知である場合や、照明条件が安定している場合においては、明るさ補正・コントラスト補正・ガンマ補正などのパラメータ調整が頻繁に行われることはない。
 また、バーチャルスライドスキャナでは、画像利用の最終形態は、階調値8bitでの画像の保存および画像の表示であり、階調値16bitでの出力は想定していない。このように、観察者が16bitカラー画像を観察しない場合、観察者が、インタラクティブに明るさ補正・コントラスト補正・ガンマ補正を行う為に16bitカラー画像を用意する必要はない。調整のために目視されることがないカラー画像(カラー化によりデータサイズが大きくなっている)に対し、明るさ補正・コントラスト補正・ガンマ補正を行う事は、必要のないメモリ空間を用い、画像処理速度を遅くしていることとなる。
 以上のような事情に鑑み、本技術の目的は、画像処理を高速化できるとともに、メモリ消費量を減らして装置の低コスト化をもたらすことができる情報処理装置、情報処理方法、情報処理プログラム、画像取得装置、画像取得システム、および画像取得・閲覧システムを提供することにある。
 (1)本技術に係る情報処理装置は、上記の課題を解決するために、複数の画素により構成されるRAW画像に対して、当該画素毎の輝度値の演算処理を行い加工RAW画像を出力する輝度値演算部と前記加工RAW画像に対しデモザイク(補間)処理を行う補間処理部とを具備する。
 当該構成において、輝度値演算部は、RAW画像に対して、当該画素毎の輝度値の演算処理を行う。RAW画像はカラー化されていないので、画像データのサイズが小さく画素数が少ないので、画素毎の輝度値の演算を高速に、また少ないメモリ空間の消費により行うことができるという効果がある。
 (2)また、本技術に係る情報処理装置では、前記補間処理部は、Nbit階調(但し、Nは4以上の整数)の画像をデモザイク処理の結果として出力し、前記情報処理装置は、前記補間処理部が出力した前記Nbit階調の画像を(N-2)bit階調の画像に丸める丸め処理部をさらに具備する。
 当該構成において、補間処理部における処理は、最終的に出力される(N-2)bit階調の画像よりも高いNbit階調の画像において行われる。また、丸め処理部は、最終的に出力される画像の階調を(N-2)bit階調に丸める。それ故、Nbit以上の階調により行う補間処理において、途中での階調数変換無しに、高速に行えるという効果を奏する。
 (3)また、本技術に係る情報処理装置では、前記輝度値演算部は、Nbit階調(但し、Nは4以上の整数)の画像を加工RAW画像として出力し、前記情報処理装置は、前記輝度値演算部が出力した前記Nbit階調の画像を(N-2)bit階調の画像に丸めてから前記補間処理部に渡す丸め処理部をさらに具備する。
 当該構成において、丸め処理部が、最終的に出力される画像の階調を(N-2)bit階調に丸めるので、画像のデータサイズが減少する。その後、補間処理部が、(N-2)bit階調の画像に対して処理を行う。それ故、補間処理部の処理による画像のデータサイズの増加が抑えられるという効果を奏する。
 (4)また、本技術に係る情報処理装置では、前記輝度値演算部は、前記輝度値の演算処理として、シェーディング処理、カラーバランス補正、およびガンマ補正のうち少なくとも1つを行う構成でもよい。
 (5)また、本技術に係る情報処理方法では、輝度値演算部が、複数の画素により構成されるRAW画像に対して、当該画素毎の輝度値の演算処理を行い加工RAW画像を出力し、補間処理部が、前記加工RAW画像に対しデモザイク(補間)処理を行う構成でもよい。
 (6)また、本技術に係る情報処理プログラムは、複数の画素により構成されるRAW画像に対して、当該画素毎の輝度値の演算処理を行い加工RAW画像を出力する輝度値演算部および 前記加工RAW画像に対しデモザイク(補間)処理を行う補間処理部
としてコンピュータを機能させる。
 (7)また、本技術に係る画像取得装置は、撮像素子を有する光学顕微鏡と、前記撮像素子が撮像した、複数の画素により構成されるRAW画像に対して、当該画素毎の輝度値の演算処理を行い加工RAW画像を出力する輝度値演算部と前記加工RAW画像に対しデモザイク(補間)処理を行う補間処理部とを具備する。
 (8)また、本技術に係る画像取得システムは、撮像素子を有する光学顕微鏡と、前記撮像素子が撮像した、複数の画素により構成されるRAW画像に対して、当該画素毎の輝度値の演算処理を行い加工RAW画像を出力する輝度値演算部と前記加工RAW画像に対しデモザイク(補間)処理を行う補間処理部とを具備する画像取得装置と、前記デモザイク処理した画像を格納するサーバコンピュータとからなる。
 (9)また、本技術に係る画像取得・閲覧システムは、撮像素子を有する光学顕微鏡と、前記撮像素子が撮像した、複数の画素により構成されるRAW画像に対して、当該画素毎の輝度値の演算処理を行い加工RAW画像を出力する輝度値演算部と前記加工RAW画像に対しデモザイク(補間)処理を行う補間処理部とを具備する画像取得装置と、前記デモザイク処理された画像を格納するサーバコンピュータと前記サーバコンピュータに格納された前記デモザイク処理された画像を閲覧するクライアントコンピュータとからなる。
 以上のように、本技術によれば、画像処理を高速化できるとともに、メモリ量を減らして装置の低コスト化をもたらすことができるという効果を奏する。
バーチャルスライドスキャナの典型的な使用環境を表した図である。 バーチャルスライドスキャナの構成を示す図である。 スキャナ用コンピュータのハードウェアの構成を示すブロック図である。 スキャナ用コンピュータの機能ブロック図(従来例)である。 従来の画像処理方法により処理を行った場合の画像サイズを示す図である。 本技術による方法(パターン1)により処理を行った場合の画像サイズを示す図である。 本技術による方法(パターン2)により処理を行った場合の画像サイズを示す図である。 パターン1をさらに変形し、輝度値演算の一つであるシェーディング処理(S3)を現像処理(S2)の後に持ってきた例を示す図である。 処理時間の測定結果および処理結果の画質を示す図である。
 以下、本技術に係る実施形態を、図面を参照しながら説明する。
 最初にバーチャルスライドスキャナの使用環境について説明し、次に、バーチャルスライドスキャナの構成と従来の画像処理方法を説明した後、本技術に係る画像処理方法を説明する。なお、従来技術による構成と本技術による構成において違いが無い個所は、まとめて説明し、違いがある個所のみそれを明記する。
 [バーチャルスライドスキャナの使用環境について]
 図1は、本技術に係るバーチャルスライドスキャナ100および一般的なバーチャルスライドスキャナの典型的な使用環境を表した図である。
 スキャナ10およびスキャナ用コンピュータ20からなるバーチャルスライドスキャナ100は、病院内の組織学ラボHLに設置されている。スキャナ10により撮影されたRAW画像は、スキャナ用コンピュータ20上において、現像処理、シェーディング処理、カラーバランス補正、ガンマ補正、8bit化処理などの画像処理が行われた後、JPEG(Joint Photographic Experts Group)画像に変換され、ハードディスクHD1上に格納される。
 スキャナ用コンピュータ20のハードディスクHD1に格納されたJPEG画像は、次に、同じ病院内のデータセンタDCにあるイメージ管理サーバ400上のハードディスクHD2に、ネットワーク300を経由してアップロードされる。観察者である病理医は、病院内の病理学室PRまたは病院外の建物EXにいてイメージ管理サーバ400とネットワーク300により接続されたビューワコンピュータ500を用いて、イメージ管理サーバ400のハードディスクHD2に格納されたJPEG画像を観察する。
 なお、後述する本技術に係るスキャナ用コンピュータ20は、その内部構成が従来技術によるものと異なる以外、上記病院の例において説明した事項は同様である。
 このように、バーチャルスライドスキャナ100では、撮影されたRAW画像が最終的な形態である階調値8bitのカラーJPEG画像としてハードディスクHD1およびHD2に格納された後でないと、観察者の目に触れることはない。
 この点が、通常の写真撮影において、観察者が、撮影されたRAW画像を現像してカラー化し、カラー化された画像を目視しながらインタラクティブに、シェーディング処理、カラーバランス補正、およびガンマ補正などを行う環境とは、根本的に異なる点である。
 [バーチャルスライドスキャナ100の構成について]
 図2は本技術に係るバーチャルスライドスキャナ100および一般的なバーチャルスライドスキャナの構成を示す図である。なお、ここではスキャナ10として、明視野顕微鏡を例に挙げているが、蛍光顕微鏡でもよい。蛍光顕微鏡の説明は省略する。
 バーチャルスライドスキャナ100はスキャナ10と、スキャナ用コンピュータ20とを有する。
 スキャナ10は、ステージ11、光学系12、光源ユニット13、撮像素子14、光源駆動部15、ステージ駆動部16、およびカメラ制御部17を有する。
 ステージ11は、撮像対象である例えば組織切片、細胞又は染色体等の生体サンプルSPLを配置可能な面を有する。ステージ11は、その面に対して平行方向(xy軸)及び直交方向(z軸方向)に移動自在に構成される。
 ステージ11の一方の面側には光学系12が配され、ステージ11の他方の面側には光源ユニット13が配される。
 光源ユニット13は、光源駆動部15による制御の下で光を出射し、該光をステージ11に穿設される開口から、該ステージ11の一方の面に配される生体サンプルSPLに対して照射する。光源ユニット13は、白色光を出力する白色LED(Light Emitting Diode)などを光源13Aとして有する。光源ユニット13は、光源13Aから出射された光を略平行光に変換して生体サンプルSPLに対する照明光とする集光レンズ13Bを有する。
 光学系12は、照明光により得られる生体サンプルSPLにおける一部の像を、対物レンズ12A及び結像レンズ12Bによって所定の倍率に拡大する。対物レンズ12A及び結像レンズ12Bにより拡大された像は撮像素子14の撮像面に結像される。撮像素子14としては、全画素に対応する全受光部での同時露光が可能な撮像素子、例えば、CCD(Charge Coupled Device)イメージセンサ、およびCMOS(Complementary Metal-Oxide Semiconductor)イメージセンサなどが用いられる。
 光源駆動部15は、スキャナ用コンピュータ20からの発光命令S1をもとに光源ユニット13内の光源13Aに一定の駆動電流を供給して光源13Aを発光させるドライブ回路を少なくとも有する。
 ステージ駆動部16は、スキャナ用コンピュータ20からのステージ制御信号S2をもとにステージ11を駆動するためのxyzの3軸方向それぞれのステージ駆動電流を供給してステージ11を3軸方向に移動させる。
 カメラ制御部17は、スキャナ用コンピュータ20からの露光制御信号S3をもとに撮像素子14の制御を行う。カメラ制御部17は、撮像素子14から読み出された各画素に対応する信号(RAWデータ)をA/D(Analog to Digital)変換してスキャナ用コンピュータ20に供給する。
 スキャナ用コンピュータ20は、スキャナ10のカメラ制御部17より供給されるRAWデータに画像処理(後述)を行い、保存する。また、スキャナ用コンピュータ20は、所定のプログラムに基づいて光源駆動部15、ステージ駆動部16及び露光制御部17をそれぞれ制御するための演算処理を実行する。
 [スキャナ用コンピュータ20の構成]
 次に、スキャナ用コンピュータ20の構成について説明する。
 図3は、本技術に係るスキャナ用コンピュータ20および一般的なスキャナ用コンピュータのハードウェアの構成を示すブロック図である。
 スキャナ用コンピュータ20は、演算制御を行うCPU(Central Processing Unit)21、ROM(Read Only Memory)22、CPU21のワークメモリとなるRAM(Random Access Memory)23、ユーザの操作に応じた命令を入力する操作入力部24、インターフェイス部25、表示部26、記憶部27、ネットワークインターフェイス部28、GPGPU(General-purpose computing on graphics processing units)30、およびこれらを互いに接続するバス29を備える。
 ROM22には、各種の処理を実行するためのプログラムが格納される。インターフェイス部25には、スキャナ10が接続される。ネットワークインターフェイス部28には、ネットワーク300が接続される。
 表示部26には、液晶ディスプレイ、EL(Electro Luminescence)ディスプレイ又はプラズマディスプレイ等が適用される。記憶部27には、HDD(Hard Disk Drive)に代表される磁気ディスクもしくは半導体メモリ又は光ディスク等が適用される。
 CPU21は、ROM22に格納される複数のプログラムのうち、操作入力部24から与えられる命令に対応するプログラムをRAM23に展開し、該展開したプログラムにしたがって、表示部26及び記憶部27を適宜制御する。またCPU21は、RAM23に展開されたプログラムに従って、インターフェイス部25を介してスキャナ10の各部を適宜制御する。
 GPGPU30は、シェーディング処理、JPEG化処理などの画像処理を並列演算処理により実行することが可能である。
 CPU21およびGPGPU30は、後述する各機能ブロックを実現する。CPU21は、ROM22および記憶部27等に格納されたプログラムを実行して、必要に応じて、上記各部材を制御する。これにより、スキャナ用コンピュータ20は、種々の機能ブロックを実現することができ、上記各部材を、スキャナ用コンピュータ20として動作させることができる。
 [スキャナ用コンピュータ20の機能ブロック(従来例)]
 図4は、本技術に係るスキャナ用コンピュータ20および一般的なスキャナ用コンピュータの機能ブロック図である。なお、図中に示されている実線の矢印は、一般的なスキャナ用コンピュータにおける、撮影された画像データの流れを示しており、本技術に係るスキャナ用コンピュータ20における、撮影された画像データの流れを示しているものではない。
 CPU21は、8bitJPEGカラー画像の作成命令に対応するプログラムに従って、図4に示すように、ステージ制御部41、光源制御部42、画像取得部43、スティッチング処理部50、タイル分割処理部51として機能する。
 また、GPGPU30は、上記プログラムに従って、現像処理部44、シェーディング処理部45、カラーバランス補正部46、ガンマ補正部47、8bit化処理部48、ディストーション補正部49、JPEG化処理部52として機能する。
 すなわち、詳細は後述するが、本技術に係る情報処理プログラムは、複数の画素により構成されるRAW画像に対して、当該画素毎の輝度値の演算処理を行い加工RAW画像を出力するシェーディング処理部45・カラーバランス補正部46・ガンマ補正部47(輝度値演算部)および前記加工RAW画像に対しデモザイク(補間)処理を行う現像処理部44(補間処理部)としてコンピュータを機能させる。
 ステージ制御部41は、ステージ駆動部16を制御信号S2により制御することにより、ステージ11の移動を行う。
 光源制御部42は、光源駆動部15を制御信号S1により制御することにより、光源13Aの制御を行う。
 画像取得部43は、カメラ制御部17を信号S3により制御することにより、画像の撮影を行い、撮影された画像を、RAW画像として、撮像素子14からカメラ制御部17を介して取得する。
 従来技術では、現像処理部44は、画像取得部43が取得したRAW画像の現像(デモザイク)処理を行い、カラー画像化する。
 シェーディング処理部45は、現像処理部44が現像した画像に対してシェーディング処理を行う。カラーバランス補正部46は、シェーディング処理された画像に対して、カラーバランス(ホワイトバランス)補正を行い、本来無彩色の部分を無彩色に修正する。ガンマ補正部47は、カラーバランス補正された画像に対してガンマ補正を行い、色のデータと、それが実際に出力される際の信号の相対関係を調節する。8bit化処理部48は、ガンマ補正された画像の階調値を16bitから8bitにする。ディストーション補正部49は、8bit化された画像に対しディストーション補正を行い、レンズの歪曲収差(ディストーション)を補正する。
 なお、本技術では、画像データの流れが従来技術と異なり、例えば、シェーディング処理部45は、画像取得部43が取得したRAW画像に対してシェーディング処理を行う。カラーバランス補正部46は、シェーディング処理された画像に対して、カラーバランス(ホワイトバランス)補正を行う。ガンマ補正部47は、カラーバランス補正された画像に対してガンマ補正を行う。8bit化処理部48は、ガンマ補正された画像の階調値を16bitから8bitにする。現像処理部44は、8bit化処理部48が階調値を8bitにした画像の現像(デモザイク)処理を行う。ディストーション補正部49は、カラー画像化された画像に対しディストーション補正を行う。
 以下、画像がイメージ管理サーバ400にアップロードされるまでの構成は、従来技術と本技術において共通である。
 スティッチング処理部50は、ディストーション補正が済んだ複数の画像にスティッチングを行い、近接位置画像との相対位置情報の取得を行うことにより、隣り合う画像同士を貼り合わせる。
 タイル分割処理部51は、高速表示を行う為に貼り合わせられた画像をタイルに分割する。なお、タイル分割処理は画像データを高速に表示するために行うものであり、必須の処理ではない。JPEG化処理部52は、タイル分割された画像のJPEG化を行う。JPEG化された画像は、記憶部27に格納された後、ネットワークインターフェイス部28を経由して、イメージ管理サーバ400にアップロードされる。
 [バーチャルスライドスキャナ100の撮影例]
 バーチャルスライドスキャナ100では、照明条件が一定あるいは既知の条件下において、同一試料(スライド)の連続する領域の画像を、連続して撮影する場合や、同一試料(スライド)の一領域を、焦点位置を変えながら連続して撮影する場合や、同一試料(スライド)の一領域の時間変化を観察するために、その一領域を、時間をおいて撮影する場合などがある。
 すなわち、バーチャルスライドスキャナ100の撮影では、コントロールされた照明条件下もしくは照明条件が既知である条件下において撮影が行われる。
 この点も、通常の写真撮影において、様々な照明条件下において画像が撮影されるので、観察者は、撮影されたRAW画像を現像してカラー化し、カラー化された画像を目視しながらインタラクティブに、シェーディング処理、カラーバランス補正、およびガンマ補正などを行わなければならない環境とは、根本的に異なる点である。
 [バーチャルスライド現像工程の特質]
 バーチャルスライド現像工程の特質として、以下の点が挙げられる。
 第一に、バーチャルスライドスキャナの画像はデータ量が膨大になるため、階調値8bitのJPEG圧縮画像として保存されることが挙げられる。
 第二に、上述のとおり、画像処理途中のデータが観察者の目に触れることが無い。それ故、観察者が各種補正をインタラクティブに行うことは無いので、必ずしも最初に現像処理を行って画像をカラー化する必要はない。
 第三に、撮影時の照明条件は既知であり、シェーディング処理、カラーバランス補正、およびガンマ補正などを行う際のパラメータは固定である。それ故、観察者が、カラー化された画像を見ながら、様々な輝度値演算をインタラクティブに繰り返し行う必要は無い。
 第四に、なお、シェーディング処理、カラーバランス補正、およびガンマ補正などの小数点演算処理を行うので、画質を落とさないためには、撮影するRAW画像の階調値は10bit以上、すなわち撮像素子14の階調値は10bit以上あることが望ましい。階調値が8bitの場合、画像処理時には8bitの変数を割り当てればよいが、階調値が8bit超16bit未満の場合、画像処理時に16bitの変数を割り当てる必要がある。撮像素子14の階調値が10bitの場合、8bitの撮像素子14により撮影した場合に比べ、階調値は2bit多いだけだが、メモリ空間は、16/8=2により2倍のメモリ空間を用いる必要があり、メモリ使用効率が著しく悪くなる。
 以上から言えることは、バーチャルスライド現像工程の環境は、通常のカメラ撮影後の画像処理とは、条件が大きく異なっているということである。その為、画像処理の工程を見直すことにより処理の高速化や計算リソースの削減などの検討を行うに至った。
 [画像処理の各工程における画像サイズについて(従来例および本技術の比較)]
 以下では、従来の方法により画像処理を行った場合と、本技術により画像処理を行った場合とにおける、画像データのサイズの違いを示す。
 図5は、従来の画像処理方法により処理を行った場合の画像サイズを示す図である。
 まず画像取得部43が、撮像素子14により撮影を行い、RAW画像データを取得する。(S1)この例では、6000×4000ピクセル、階調値12bitの撮像素子14を用いる。まだ現像前なので、画像はgray空間である。画像のサイズは50MBである。
 次に、現像処理部44が、現像(デモザイク)処理を行いカラー画像化する。(S2)階調値は16bitとして、画像はRGB空間となる。データサイズは147MBに増加する。
 次に、シェーディング処理部45がシェーディング処理を行い(S3)、カラーバランス補正部46がカラーバランス補正を行い(S4)、ガンマ補正部47がガンマ補正を行う。(S5)画像は、16bit、RGB空間であり、画像データのサイズは、各処理後に147MBのままである。
 次に、8bit化処理部48が、8bit化処理を行う。(S6)この処理により階調値が8bitに変更され、画像データが73MBに減少する。
 上記の処理は、大きく分けると、現像処理、輝度値演算処理、8bit化処理の順に行われている。なお、ここで言う輝度値演算処理とは、シェーディング処理、カラーバランス補正、およびガンマ補正のうち少なくとも1つのことである。また、輝度値演算は、画像を構成する個々の画素に対して独立した演算処理を行うものである。それに対して、ここで言う現像処理とは、隣接する複数の画素を演算対象としたデモザイク(補間)処理を行うことをいう。
 現像処理により画像データのサイズは147MBに増加するが、カラー化された画像に対して観察者がインタラクティブに輝度値演算処理を行うわけではないので、この147MBのサイズの画像に対して輝度値演算処理を行うことは、メモリ空間を無駄に消費することに繋がる。また、メモリ空間を無駄に消費するので、画像処理の演算速度も遅くなってしまう。
 図6は、本技術による方法(パターン1)により処理を行った場合の画像サイズを示す図である。
 まず画像取得部43が、RAW画像データを取得する。(S1)まだ現像前なので、画像はgray空間である。画像のサイズは50MBである。
 次に、シェーディング処理部45がシェーディング処理を行い(S3)、カラーバランス補正部46がカラーバランス補正を行い(S4)、ガンマ補正部47がガンマ補正を行う。(S5)画像は、16bit、gray空間であり、画像データのサイズは、各処理後に50MBのままである。
 次に、8bit化処理部48が、8bit化処理を行う。(S6)この処理により階調値が8bitに変更され、画像データが25MBまで減少する。
 次に、現像処理部44が、現像(デモザイク)処理を行う。(S2)これにより画像はRGB空間となる。データサイズは73MBに増加する。
 本技術による方法(パターン1)と従来の方法との違いは、現像処理(S2)が、最後に行われる点である。その為、画像データのサイズは、ガンマ補正(S5)までは50MBであり、8bit化処理(S6)により25MBに減った後、現像処理(S2)により73MBまで増加している。すなわち、輝度値演算処理の対象となる画像データは50MBと小さく、処理過程での画像データの最大値も73MBなので、画像処理に使用するメモリ空間を大幅に削減することができる。
 以上より、本技術に係るスキャナ用コンピュータ20(情報処理装置)は、複数の画素により構成されるRAW画像に対して、当該画素毎の輝度値の演算処理を行い加工RAW画像を出力するシェーディング処理部45・カラーバランス補正部46・ガンマ補正部47(輝度値演算部)と前記加工RAW画像に対しデモザイク(補間)処理を行う現像処理部44(補間処理部)とを具備すると言える。
 また、本技術に係る画像処理方法(情報処理方法)は、シェーディング処理部45・カラーバランス補正部46・ガンマ補正部47(輝度値演算部)が、複数の画素により構成されるRAW画像に対して、当該画素毎の輝度値の演算処理を行い加工RAW画像を出力し、現像処理部44(補間処理部)が、前記加工RAW画像に対しデモザイク(補間)処理を行うと言える。
 また、シェーディング処理部45・カラーバランス補正部46・ガンマ補正部47(輝度値演算部)は、Nbit階調(但し、Nは4以上の整数)の画像を加工RAW画像として出力し、スキャナ用コンピュータ20(情報処理装置)は、シェーディング処理部45・カラーバランス補正部46・ガンマ補正部47(輝度値演算部)が出力した前記Nbit階調の画像を(N-2)bit階調の画像に丸めてから現像処理部44(補間処理部)に渡す8bit化処理部48(丸め処理部)をさらに具備すると言える。
 上記の処理は、大きく分けると、輝度値演算処理、8bit化処理、現像処理の順に行われている。すなわち、現像処理部44(補間処理部)は、Nbit階調(但し、Nは4以上の整数)の画像をデモザイク処理の結果として出力し、スキャナ用コンピュータ20(情報処理装置)は、現像処理部44(補間処理部)が出力した前記Nbit階調の画像を(N-2)bit階調の画像に丸める8bit化処理部48(丸め処理部)をさらに具備すると言える。
 図7は、本技術による方法(パターン2)により処理を行った場合の画像サイズを示す図である。
 まず画像取得部43が、RAW画像データを取得する。(S1)まだ現像前なので、画像はgray空間である。画像のサイズは50MBである。
 次に、シェーディング処理部45がシェーディング処理を行い(S3)、カラーバランス補正部46がカラーバランス補正を行い(S4)、ガンマ補正部47がガンマ補正を行う。(S5)画像は、16bit、gray空間であり、画像データのサイズは、各処理後に50MBのままである。
 次に、現像処理部44が、現像(デモザイク)処理を行う。(S2)これにより画像はRGB空間となる。データサイズは147MBに増加する。
 次に、8bit化処理部48が、8bit化処理を行う。(S6)この処理により階調値が8bitに変更され、画像データが73MBまで減少する。
 本技術による方法(パターン2)と従来の方法との違いは、現像処理(S2)が、ガンマ補正(S5)と8bit化処理(S6)との間において行われる点である。その為、画像データのサイズは、ガンマ補正(S5)までは50MBであり、現像処理(S2)により147MBまで増加した後、8bit化処理(S6)により73MBに減っている。すなわち、輝度値演算処理の対象となる画像データは50MBと小さく、処理過程での画像データの最大値は147MBである。
 以上より、現像処理部44(補間処理部)は、Nbit階調(但し、Nは4以上の整数)の画像をデモザイク処理の結果として出力し、スキャナ用コンピュータ20(情報処理装置)は、現像処理部44(補間処理部)が出力した前記Nbit階調の画像を(N-2)bit階調の画像に丸める8bit化処理部48(丸め処理部)をさらに具備すると言える。
 上記の処理は、大きく分けると、輝度値演算処理、現像処理、8bit化処理の順に行われている。
 なお、参考までに、本技術による方法(パターン1)をさらに変形し、輝度値演算の一つであるシェーディング処理(S3)を現像処理(S2)の後に持ってきた例を図8に示す。
 まず画像取得部43が、RAW画像データを取得する。(S1)まだ現像前なので、gray空間である。画像のサイズは50MBである。
 次に、カラーバランス補正部46がカラーバランス補正を行い(S4)、ガンマ補正部47がガンマ補正を行う。(S5)画像は、16bit、gray空間であり、画像データのサイズは、各処理後に50MBのままである。
 次に、8bit化処理部48が、8bit化処理を行う。(S6)この処理により階調値が8bitに変更され、画像データが25MBまで減少する。
 次に、現像処理部44が、現像(デモザイク)処理を行う。(S2)これにより画像はRGB空間となる。データサイズは73MBに増加する。
 次に、シェーディング処理部45がシェーディング処理を行う。(S3)画像データのサイズは、73MBのままである。
 参考例と本技術による方法(パターン1)との大きな違いは、シェーディング処理(S3)が、現像処理(S2)の後に行われ、画像データが8bit、RGB空間のときに行われる点である。
 このように、画像処理における現像処理の順序を変えることにより、画像データのサイズを抑えたまま、画像処理を行う事ができる。
 なお、処理順序を変更したことによる画質の劣化の有無については、後述する。
 [画像処理時間の比較]
 以下では、画像処理における処理の順序変更および画像処理を行う際の画像サイズの違いが、実際の画像処理において与える影響を測定した。
 なお、処理時間の測定においては、Eplicsにより撮影した13枚のRAW画像の連続処理を実行した。2枚目の画像作成終了時から、12枚目の画像作成終了時までの時間(10枚処理時間)を計測した。また、カラーバランス処理では、13枚の画像と同じデータサイズのwhite rawを利用した。
 図9は、処理時間の測定結果および処理結果の画質を示す図である。この図から分かる通り、従来の方法では22.3秒かかっていた処理が、本技術の方法(パターン1)では13.0秒となり、本技術の方法(パターン2)では、12.6秒となっており、ほぼ2倍近い高速化が実現されている。
 画質は従来の方法に比べて劣化してはいない。輝度値演算を現像処理の前に行っても画質が劣化しない理由は、輝度値演算が、基本的に、個々の画素の輝度値に対して補正値を乗ずるだけの処理であり、現像処理とは独立した演算であるためである。
 パターン1よりもパターン2のほうが速い理由としては、パターン1では、8bit化した後の現像処理では、一度倍精度の16bitに戻してから現像処理を行い、その後単精度の8bitに戻しているのに対し、パターン2では、16bitのまま現像処理を行っているので、余計な精度変換作業が無いことが挙げられる。
 なお、参考パターンでは、処理時間は17.9秒となり従来方法に比べて高速化されているが、画質の劣化が認められるので、この方法を採用することはできない。画質が劣化する原因は、小数点演算を行うシェーディング処理(S3)を8bitの単精度において行っているためと考えられる。また、DPIスキャナでは全白画像を8bit化すると輝度値が25程度しかないことも画質劣化の一因と考えられる。
 以上より、シェーディング処理(S3)、カラーバランス補正(S4)、およびガンマ補正(S5)の輝度値演算処理を16bitのまま行うのであれば、現像処理(S2)の前に行う事が可能であると言える。
 また、処理時の画像データサイズを抑えることを優先する場合は、本技術のパターン1のように、輝度値計算の後、8bit化処理(S6)を行ってから現像処理(S2)を行う事が有効である。処理時間の短縮を優先する場合は、本技術のパターン2のように、輝度値計算の後、現像処理(S2)を行ってから8bit化処理(S6)を行う事が有効である。
 [本技術の他の構成例]
 なお、本技術は以下のような構成も採ることができる。
(1)複数の画素により構成されるRAW画像に対して、当該画素毎の輝度値の演算処理を行い加工RAW画像を出力する輝度値演算部と前記加工RAW画像に対しデモザイク(補間)処理を行う補間処理部とを具備する情報処理装置。
(2)前記(1)に記載の情報処理装置であって、前記補間処理部は、Nbit階調(但し、Nは4以上の整数)の画像をデモザイク処理の結果として出力し、前記情報処理装置は、前記補間処理部が出力した前記Nbit階調の画像を(N-2)bit階調の画像に丸める丸め処理部をさらに具備する情報処理装置。
(3)前記(1)に記載の情報処理装置であって、前記輝度値演算部は、Nbit階調(但し、Nは4以上の整数)の画像を加工RAW画像として出力し、前記情報処理装置は、前記輝度値演算部が出力した前記Nbit階調の画像を(N-2)bit階調の画像に丸めてから前記補間処理部に渡す丸め処理部をさらに具備する情報処理装置。
(4)前記(1)から(3)のうちいずれか1つに記載の情報処理装置であって、前記輝度値演算部は、前記輝度値の演算処理として、シェーディング処理、カラーバランス補正、およびガンマ補正のうち少なくとも1つを行う情報処理装置。
(5)輝度値演算部が、複数の画素により構成されるRAW画像に対して、当該画素毎の輝度値の演算処理を行い加工RAW画像を出力し、補間処理部が、前記加工RAW画像に対しデモザイク(補間)処理を行う情報処理方法。
(6)複数の画素により構成されるRAW画像に対して、当該画素毎の輝度値の演算処理を行い加工RAW画像を出力する輝度値演算部および前記加工RAW画像に対しデモザイク(補間)処理を行う補間処理部としてコンピュータを機能させるための情報処理プログラム。
(7)撮像素子を有する光学顕微鏡と、前記撮像素子が撮像した、複数の画素により構成されるRAW画像に対して、当該画素毎の輝度値の演算処理を行い加工RAW画像を出力する輝度値演算部と前記加工RAW画像に対しデモザイク(補間)処理を行う補間処理部とを具備する画像取得装置。
(8)撮像素子を有する光学顕微鏡と、前記撮像素子が撮像した、複数の画素により構成されるRAW画像に対して、当該画素毎の輝度値の演算処理を行い加工RAW画像を出力する輝度値演算部と前記加工RAW画像に対しデモザイク(補間)処理を行う補間処理部とを具備する画像取得装置と、前記デモザイク処理した画像を格納するサーバコンピュータとからなる画像取得システム。
(9)撮像素子を有する光学顕微鏡と、前記撮像素子が撮像した、複数の画素により構成されるRAW画像に対して、当該画素毎の輝度値の演算処理を行い加工RAW画像を出力する輝度値演算部と前記加工RAW画像に対しデモザイク(補間)処理を行う補間処理部とを具備する画像取得装置と、前記デモザイク処理された画像を格納するサーバコンピュータと前記サーバコンピュータに格納された前記デモザイク処理された画像を閲覧するクライアントコンピュータとからなる画像取得・閲覧システム。
  10  スキャナ
  11  ステージ
  12  光学系
  12A 対物レンズ
  12B 結像レンズ
  13  光源ユニット
  13A 光源
  13B 集光レンズ
  14  撮像素子
  15  光源駆動部
  16  ステージ駆動部
  17  カメラ制御部
  20  スキャナ用コンピュータ
  21  CPU
  22  ROM
  23  RAM
  24  操作入力部
  25  インターフェイス部
  26  表示部
  27  記憶部
  28  ネットワークインターフェイス部
  29  バス
  30  GPGPU
  41  ステージ制御部
  42  光源制御部
  43  画像取得部
  44  現像処理部
  45  シェーディング処理部
  46  カラーバランス補正部
  47  ガンマ補正部
  48  8bit化処理部
  49  ディストーション補正部
  50  スティッチング処理部
  51  タイル分割処理部
  52  JPEG化処理部
 100  バーチャルスライドスキャナ
 300  ネットワーク
 400  イメージ管理サーバ
 500  ビューワコンピュータ

Claims (9)

  1.  複数の画素により構成されるRAW画像に対して、当該画素毎の輝度値の演算処理を行い加工RAW画像を出力する輝度値演算部と
     前記加工RAW画像に対しデモザイク(補間)処理を行う補間処理部と
    を具備する情報処理装置。
  2.  請求項1に記載の情報処理装置であって、
     前記補間処理部は、Nbit階調(但し、Nは4以上の整数)の画像をデモザイク処理の結果として出力し、
     前記情報処理装置は、前記補間処理部が出力した前記Nbit階調の画像を(N-2)bit階調の画像に丸める丸め処理部をさらに具備する
    情報処理装置。
  3.  請求項1に記載の情報処理装置であって、
     前記輝度値演算部は、Nbit階調(但し、Nは4以上の整数)の画像を加工RAW画像として出力し、
     前記情報処理装置は、前記輝度値演算部が出力した前記Nbit階調の画像を(N-2)bit階調の画像に丸めてから前記補間処理部に渡す丸め処理部をさらに具備する
    情報処理装置。
  4.  請求項1に記載の情報処理装置であって、
     前記輝度値演算部は、前記輝度値の演算処理として、シェーディング処理、カラーバランス補正、およびガンマ補正のうち少なくとも1つを行う
    情報処理装置。
  5.  輝度値演算部が、複数の画素により構成されるRAW画像に対して、当該画素毎の輝度値の演算処理を行い加工RAW画像を出力し、
     補間処理部が、前記加工RAW画像に対しデモザイク(補間)処理を行う
    情報処理方法。
  6.  複数の画素により構成されるRAW画像に対して、当該画素毎の輝度値の演算処理を行い加工RAW画像を出力する輝度値演算部および
     前記加工RAW画像に対しデモザイク(補間)処理を行う補間処理部
    としてコンピュータを機能させるための情報処理プログラム。
  7.  撮像素子を有する光学顕微鏡と、
     前記撮像素子が撮像した、複数の画素により構成されるRAW画像に対して、当該画素毎の輝度値の演算処理を行い加工RAW画像を出力する輝度値演算部と
     前記加工RAW画像に対しデモザイク(補間)処理を行う補間処理部と
    を具備する画像取得装置。
  8.  撮像素子を有する光学顕微鏡と、
     前記撮像素子が撮像した、複数の画素により構成されるRAW画像に対して、当該画素毎の輝度値の演算処理を行い加工RAW画像を出力する輝度値演算部と
     前記加工RAW画像に対しデモザイク(補間)処理を行う補間処理部と
    を具備する画像取得装置と、
     前記デモザイク処理した画像を格納するサーバコンピュータと
    からなる画像取得システム。
  9.  撮像素子を有する光学顕微鏡と、
     前記撮像素子が撮像した、複数の画素により構成されるRAW画像に対して、当該画素毎の輝度値の演算処理を行い加工RAW画像を出力する輝度値演算部と
     前記加工RAW画像に対しデモザイク(補間)処理を行う補間処理部と
    を具備する画像取得装置と、
     前記デモザイク処理された画像を格納するサーバコンピュータと
     前記サーバコンピュータに格納された前記デモザイク処理された画像を閲覧するクライアントコンピュータと
    からなる画像取得・閲覧システム。
PCT/JP2013/002219 2012-05-10 2013-04-01 情報処理装置、情報処理方法、情報処理プログラム、画像取得装置、画像取得システム、および画像取得・閲覧システム WO2013168348A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-108909 2012-05-10
JP2012108909 2012-05-10

Publications (1)

Publication Number Publication Date
WO2013168348A1 true WO2013168348A1 (ja) 2013-11-14

Family

ID=49550419

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/002219 WO2013168348A1 (ja) 2012-05-10 2013-04-01 情報処理装置、情報処理方法、情報処理プログラム、画像取得装置、画像取得システム、および画像取得・閲覧システム

Country Status (1)

Country Link
WO (1) WO2013168348A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023171432A1 (ja) * 2022-03-07 2023-09-14 ソニーグループ株式会社 画像処理装置、画像処理方法及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008511899A (ja) * 2004-09-01 2008-04-17 アペリオ・テクノロジーズ・インコーポレイテッド リニア・アレイを用いたマイクロスコープ・スライド・スキャナにおけるデータ管理システムおよび方法
JP2009294463A (ja) * 2008-06-05 2009-12-17 Nikon Corp 顕微鏡システム
JP2012014251A (ja) * 2010-06-29 2012-01-19 Sony Corp 画像管理サーバ、画像表示装置、画像提供方法、画像取得方法、プログラム及び画像管理システム
JP2012060394A (ja) * 2010-09-08 2012-03-22 Canon Inc 画像取得装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008511899A (ja) * 2004-09-01 2008-04-17 アペリオ・テクノロジーズ・インコーポレイテッド リニア・アレイを用いたマイクロスコープ・スライド・スキャナにおけるデータ管理システムおよび方法
JP2009294463A (ja) * 2008-06-05 2009-12-17 Nikon Corp 顕微鏡システム
JP2012014251A (ja) * 2010-06-29 2012-01-19 Sony Corp 画像管理サーバ、画像表示装置、画像提供方法、画像取得方法、プログラム及び画像管理システム
JP2012060394A (ja) * 2010-09-08 2012-03-22 Canon Inc 画像取得装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023171432A1 (ja) * 2022-03-07 2023-09-14 ソニーグループ株式会社 画像処理装置、画像処理方法及びプログラム

Similar Documents

Publication Publication Date Title
US7969480B2 (en) Method of controlling auto white balance
US8442347B2 (en) Information processing apparatus, information processing method, program, and imaging apparatus including optical microscope
JP6974156B2 (ja) 画像色変換装置、画像色変換プログラム、画像色変換方法
JP5735846B2 (ja) 画像処理装置およびその方法
CN111970432A (zh) 一种图像处理方法及图像处理装置
JP2014086956A (ja) 画像処理装置及び画像処理方法
US9565411B2 (en) Image processing device, image processing method, and non-transitory computer-readable recording medium for recording image processing program
WO2016194234A1 (ja) 画像処理装置、撮像装置、顕微鏡システム、画像処理方法、及び画像処理プログラム
WO2013168348A1 (ja) 情報処理装置、情報処理方法、情報処理プログラム、画像取得装置、画像取得システム、および画像取得・閲覧システム
US9626740B2 (en) Image processing apparatus and image processing method
JP2014042117A (ja) 画像処理装置および画像処理方法
CN1976481A (zh) 影像补偿装置与方法
JP2013229706A (ja) 画像取得装置、画像取得方法、および画像取得プログラム
JP2006333113A (ja) 撮像装置
JP2006262062A (ja) 画像処理装置および画像処理プログラム
JP2005072694A (ja) 撮像装置
JP5340456B2 (ja) 撮像装置及びその制御方法、プログラム並びに記憶媒体
JP2020112730A (ja) 表示装置及びその制御方法、プログラム、記憶媒体
TWI405144B (zh) 影像校正方法、影像校正單元及應用其之影像擷取裝置
JP5627252B2 (ja) 撮像装置及びその制御方法
JP5962076B2 (ja) 撮像装置、画像処理方法及びプログラム
JP7387411B2 (ja) 画像処置装置および画像処置方法、並びに撮像装置
JP2013005223A (ja) 撮像装置及びその制御方法、並びにプログラム
JP2018182550A (ja) 画像処理装置
JP2021170767A (ja) 画像処理装置、画像処理方法、および画像処理システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13786920

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13786920

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP