WO2014196203A1 - 画像取得装置、画像取得方法、およびプログラム - Google Patents

画像取得装置、画像取得方法、およびプログラム Download PDF

Info

Publication number
WO2014196203A1
WO2014196203A1 PCT/JP2014/002987 JP2014002987W WO2014196203A1 WO 2014196203 A1 WO2014196203 A1 WO 2014196203A1 JP 2014002987 W JP2014002987 W JP 2014002987W WO 2014196203 A1 WO2014196203 A1 WO 2014196203A1
Authority
WO
WIPO (PCT)
Prior art keywords
subject
image
light
images
image acquisition
Prior art date
Application number
PCT/JP2014/002987
Other languages
English (en)
French (fr)
Inventor
安比古 足立
佳州 佐藤
本村 秀人
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to JP2014555025A priority Critical patent/JP5789766B2/ja
Priority to CN201480031560.1A priority patent/CN105308949B/zh
Priority to EP14807756.3A priority patent/EP3007428A4/en
Publication of WO2014196203A1 publication Critical patent/WO2014196203A1/ja
Priority to US14/628,191 priority patent/US9426363B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/0004Microscopes specially adapted for specific applications
    • G02B21/0008Microscopes having a simple construction, e.g. portable microscopes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/48Increasing resolution by shifting the sensor relative to the scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing

Definitions

  • the present application relates to an image acquisition device, an image acquisition method, and a program.
  • the imaging device used in the imaging apparatus employs a two-dimensional image sensor in which a large number of photoelectric conversion units are arranged in rows and columns within the imaging surface.
  • the photoelectric conversion unit is typically a photodiode formed on a semiconductor layer or a semiconductor substrate, and generates charge upon receiving incident light.
  • the resolution (resolution) of the two-dimensional image sensor depends on the arrangement pitch or arrangement density of the photoelectric conversion units on the imaging surface. Since the arrangement pitch of the individual photoelectric conversion units is as short as the wavelength of visible light, it is extremely difficult to further improve the resolution.
  • the image acquired by the image sensor is defined by a large number of pixels. Each pixel is partitioned by a unit region including one photoelectric conversion unit. Since there is a region occupied by the wiring on the imaging surface, the light receiving area S2 of one photoelectric conversion unit is smaller than the area S1 of one pixel.
  • the ratio (S2 / S1) of the light receiving area S2 to the pixel area S1 is called "aperture ratio".
  • the aperture ratio (S2 / S1) can take a value of about 25%, for example. When the aperture ratio is small, the amount of incident light used for photoelectric conversion is reduced, so that the quality of the pixel signal output from the image sensor is lowered.
  • a microlens array is arranged so as to face the imaging surface, and each microlens is opposed to each photoelectric conversion unit and collects light, the light receiving area S2 is effectively enlarged, and the aperture ratio ( It is possible to increase S2 / S1) to approach 1. However, even if the aperture ratio (S2 / S1) is increased in this way, the pixel arrangement pitch and arrangement density do not increase, so the resolution does not change.
  • Patent Document 1 and Patent Document 2 disclose a technique for increasing the resolution of an imaging apparatus using a plurality of imaging elements.
  • An image acquisition apparatus includes an illumination system that sequentially emits illumination light from a plurality of different irradiation directions with respect to a subject, and illuminates the subject with the illumination light, and the light transmitted through the subject The subject having higher resolution than each of the plurality of images by combining the plurality of images with an image sensor that is arranged at a position where the illumination light is incident and acquires a plurality of different images according to the different irradiation directions And an image processing unit for forming a high-resolution image.
  • An image acquisition method includes a step of emitting illumination light sequentially from a plurality of different irradiation directions with respect to a subject, irradiating the subject with the illumination light, and the illumination transmitted through the subject
  • An image acquisition device is an image acquisition device including an illumination device, an imaging element, and a computer, and the computer uses the illumination device from a plurality of different irradiation directions based on a subject.
  • a plurality of images differing according to the different irradiation directions by the imaging device that sequentially emits illumination light, irradiates the subject with the illumination light, and is disposed at a position where the illumination light transmitted through the subject enters. And synthesizing the plurality of images to form a high-resolution image of the subject having a higher resolution than each of the plurality of images.
  • a program according to an aspect of the present disclosure is a program for an image acquisition apparatus including an illumination device, an imaging element, and a computer, and sequentially from a plurality of different irradiation directions based on a subject by the illumination device. , Illuminating the subject with the illumination light, and obtaining a plurality of different images according to the different illumination directions by an imaging device disposed at a position where the illumination light transmitted through the subject is incident Then, the plurality of images are combined to form a high-resolution image of the subject having a higher resolution than each of the plurality of images.
  • An image acquisition device irradiates a subject with light, a light source in which a posture and a position are fixed, a tilt mechanism that tilts the subject at a plurality of tilt angles, and transmits the subject
  • An image sensor that is arranged at a position where the light is incident and is tilted integrally with the subject by the tilt mechanism and acquires a plurality of images according to the plurality of tilt angles, and the plurality of images are combined.
  • an image processing unit for forming a high-resolution image of the subject having a higher resolution than each of the plurality of images.
  • high resolution can be realized by synthesizing a plurality of low resolution images obtained by one image sensor.
  • Plan view schematically showing an example of arrangement of photodiodes in an image sensor The top view which shows typically the relationship between one pixel and opening area in an image sensor
  • Sectional drawing which shows typically the relationship between one pixel and opening area in an image sensor Sectional drawing for demonstrating a structure and operation
  • the figure which shows the example of the illumination in the image acquisition apparatus of this indication The figure which shows the example of the illumination in the image acquisition apparatus by this indication.
  • the figure which shows the example of the illumination in the image acquisition apparatus by this indication The figure which shows the other example of the illumination in the image acquisition apparatus by this indication
  • Sectional drawing which shows the example of the light ray incidence in the image pick-up element in this indication Sectional drawing which shows the other example of the light ray incidence in the image pick-up element in this indication
  • (A) is a plan view showing a part of the subject 30, and (b) is only six photodiodes 40 related to imaging of the region shown in (a) of the photodiodes 40 of the imaging device 113.
  • Top view schematically showing extracted (A) is a cross-sectional view schematically showing the direction of light rays that pass through the subject 30 and enter the photodiode 40, and (b) is a plan view schematically showing an arrangement example of the six photodiodes 40 of interest.
  • FIG. 4C is a diagram schematically showing six pixels 300a acquired by the six photodiodes 40.
  • FIG. (A) is a cross-sectional view schematically showing the direction of light rays that pass through the subject 30 and enter the photodiode 40
  • (b) is a plan view schematically showing the arrangement of the six photodiodes 40 of interest.
  • (C) is a diagram schematically showing six pixels 300b obtained by six photodiodes 40.
  • (A) is a cross-sectional view schematically showing the direction of light rays that pass through the subject 30 and enter the photodiode 40
  • (b) is a plan view schematically showing six photodiodes 40 of interest.
  • c) A diagram schematically showing six pixels 300c obtained by six photodiodes 40;
  • (A) is a cross-sectional view schematically showing the direction of light rays that pass through the subject 30 and enter the photodiode 40, and
  • (b) is a plan view schematically showing six photodiodes 40 of interest.
  • FIG. c) A diagram schematically showing six pixels 300d obtained by six photodiodes 40; The figure which shows a mode that the high resolution image 600 is synthesize
  • (A)-(c) is a figure which shows the example of a synthesis
  • (A)-(c) is a figure which shows the example of a synthesis
  • the block diagram which shows schematic structure of the image acquisition apparatus which concerns on 1st embodiment. Sectional drawing which shows the error of the light beam incident position resulting from the position shift of the light source in the image acquisition apparatus which concerns on 1st embodiment.
  • positioning The figure at the time of inserting the cover glass in the image acquisition device concerning a first embodiment Sectional drawing which shows the other example of the incident direction of the light in the image acquisition apparatus which concerns on 1st embodiment.
  • maintains the to-be-photographed object and the image pick-up element so that attachment or detachment is possible.
  • maintains the to-be-photographed object and the image pick-up element so that attachment or detachment is possible.
  • maintains the to-be-photographed object and the image pick-up element so that attachment or detachment is possible.
  • maintains the to-be-photographed object and the image pick-up element so that attachment or detachment is possible.
  • maintains the to-be-photographed object and the image pick-up element so that attachment or detachment is possible.
  • maintains the to-be-photographed object and the image pick-up element so that attachment or detachment is possible.
  • maintains the to-be-photographed object and the image pick-up element so that attachment or detachment is possible.
  • maintains the to-be-photographed object and the image pick-up element so that attachment or detachment is possible.
  • the block diagram which shows the structure of the sample management apparatus in 3rd embodiment of this indication. 7 is a flowchart illustrating a processing procedure of a sample management method according to the third embodiment of the present disclosure.
  • the figure which shows the example of the image when the pathological specimen is observed with high magnification (high resolution) The figure which shows the example of the image when the pathological specimen is observed at low magnification (low resolution)
  • the figure which shows the example of the content of the database in 3rd embodiment of this indication The figure which shows the example which linked
  • FIG. 1 is a plan view schematically showing a part of an image pickup surface of a CCD image sensor which is an example of the image pickup element 113.
  • a plurality of photodiodes (photoelectric conversion units) 40 are arranged in rows and columns on the imaging surface.
  • one pixel 50 is indicated by a dotted rectangular area. Many pixels 50 are closely arranged in rows and columns on the imaging surface.
  • each photodiode 40 generates a charge in the photodiode 40.
  • the amount of charge generated varies depending on the amount of light incident on the photodiode 40.
  • the charge generated by each photodiode 40 moves to the vertical charge transfer path 44 extending in the vertical direction, and is sequentially transferred through the vertical charge transfer path 44 to move to the horizontal charge transfer path 46.
  • the charge is transferred through the horizontal charge transfer path 46 extending in the horizontal direction, and is output from one end of the horizontal charge transfer path 46 to the outside of the image sensor 113 as a pixel signal.
  • Transfer electrodes (not shown) are arranged on the charge transfer paths 44 and 46. Note that the configuration of the image sensor 113 used in the image acquisition device of the present disclosure is not limited to the above example. Instead of the CCD image sensor, a MOS type image sensor may be used.
  • the arrangement pitch of the photodiodes 40 in the imaging surface does not need to match in the vertical direction and the horizontal direction.
  • the arrangement pitch of the photodiodes 40 is equal in the vertical direction and the horizontal direction, and both have a size K [ ⁇ m].
  • FIG. 2 is a plan view schematically showing one pixel 50 and the photodiode 40 included in the pixel 50.
  • the size of each pixel in this example is K [ ⁇ m] ⁇ K [ ⁇ m].
  • the resolution is determined not by the pixel pitch but by the size of the photodiode 40 (the size of the light receiving region).
  • the size P of the photodiode 40 in the present embodiment can be set to 0.1 ⁇ m or more.
  • the microlens corresponding to each photodiode 40 is not provided. Therefore, in each pixel 50, a region other than the light receiving region (P ⁇ P region) of the photodiode 40 is a “light-shielding region”, and light incident on the light-shielding region is not photoelectrically converted to form a pixel signal. do not do.
  • the light receiving area indicated by P [ ⁇ m] ⁇ P [ ⁇ m] may be referred to as an “opening area”.
  • the position, shape, and size of the photodiode 40 in each pixel 50 are not limited to the example shown in FIG.
  • the pixel region and the photodiode typically have a rectangular shape on the imaging surface.
  • n and m are real numbers larger than 1
  • the ratio of the size of the photodiode to the size of the pixel region in the horizontal direction in the imaging surface is represented by (1 / n)
  • the pixel in the vertical direction in the imaging surface The ratio of the size of the photodiode to the size of the region can be expressed by (1 / m).
  • the aperture ratio is represented by (1 / n) ⁇ (1 / m).
  • Each of n and m can be a real number of 2 or more.
  • FIG. 3 is a cross-sectional view schematically showing an example of a cross-sectional configuration of one pixel 50 included in the image sensor 113.
  • the imaging element includes a semiconductor substrate 400, a photodiode 40 formed on the surface of the semiconductor substrate 400, a wiring layer 402 supported by the semiconductor substrate 400, and a light shielding layer that covers the wiring layer 402. 42 and a transparent layer 406 covering the light incident side surface of the semiconductor substrate 400.
  • only one photodiode 40 is shown because a cross section of a portion corresponding to a single pixel is shown. However, in reality, a large number of photodiodes 40 are formed on one semiconductor substrate 400. Is formed.
  • an impurity diffusion layer (not shown) that functions as a vertical or horizontal charge transfer path is formed in the semiconductor substrate 400 below the wiring layer 402.
  • the wiring layer 402 is connected to electrodes (not shown) arranged on the charge transfer path.
  • MOS transistors (not shown) are formed on the semiconductor substrate 400 in units of pixels. The MOS transistor functions as a switching element for reading the charge of the corresponding photodiode 40.
  • Components other than the photodiode 40 in the image sensor 113 are covered with a light shielding layer 42.
  • the area covered by the light shielding layer 42 is painted black.
  • the configuration of the image sensor that can be used in the present embodiment is not limited to the above example, and may be a back-illuminated CCD image sensor or a back-illuminated MOS image sensor.
  • FIGS. 4A and 4B are cross-sectional views each schematically showing a schematic configuration example of an image acquisition device according to the present disclosure.
  • the illustrated image acquisition apparatus sequentially emits illumination light from a plurality of different light source directions (irradiation directions) with respect to a subject (imaging target) 30 and illuminates the subject 30 with the illumination light.
  • an image sensor 113 that is arranged at a position where the illumination light transmitted through the subject 30 enters and acquires a plurality of different images according to different light source directions.
  • the image acquisition apparatus includes an image processing unit 12 that combines a plurality of images acquired according to different light source directions.
  • the image processing unit 12 includes a plurality of images obtained from the image sensor 113. Also, a high resolution image of the subject with high resolution is formed.
  • the image processing unit 12 can be realized by a general-purpose or dedicated computer.
  • the illumination device 111 causes the illumination light to enter the subject 30 from the first direction.
  • the illumination device 111 causes the illumination light to enter the subject 30 from the second direction.
  • the light rays incident on the light shielding layer 42 are not used for acquiring an image. In other words, each image is acquired only from the light emitted from the illumination device 111 and incident on the photodiode 40.
  • the subject 30 that can be imaged by the image acquisition device of the present disclosure is an object that includes at least part of a region through which light can be transmitted.
  • the subject 30 may be a slide including a pathological specimen having a thickness of several ⁇ m.
  • the shape of the subject 30 is not limited to a plate shape, and may be powder or liquid.
  • the size of the subject 30 in the normal direction of the imaging surface is, for example, several tens of ⁇ m or less.
  • FIGS. 5A, 5B, and 5C a first configuration example of the illumination device 111 will be described with reference to FIGS. 5A, 5B, and 5C.
  • the illumination device 111 in the first configuration example has a plurality of light sources (illumination light sources) 10a, 10b, and 10c. These light sources 10a, 10b, and 10c are arranged at different positions corresponding to a plurality of different light source directions, and are sequentially turned on. For example, when the light source 10a is turned on, as shown in FIG. 5A, light is emitted from the light source 10a, and the subject 30 is irradiated with the light. In FIGS. 5A to 5C, the light from the light sources 10a, 10b, and 10c is shown to diverge, but in reality, the distance from the light sources 10a, 10b, and 10c to the image sensor 113 is sufficiently long.
  • substantially parallel light enters the subject 30 and the image sensor 113.
  • the light emitted from the light sources 10a, 10b, and 10c may be converged to parallel light or light close to parallel light by an optical system such as a lens (not shown). Therefore, the light sources 10a, 10b, and 10c may be point light sources or surface light sources.
  • the subject 30 is placed on the upper surface of the image sensor 113.
  • the upper surface of the image sensor 113 is indicated by a broken line in FIG. 5A and functions as the subject support section 112.
  • the image sensor 113 when imaging by the image sensor 113 is performed in a state where the subject 30 is irradiated with light from the light source 10a, for example, the light source 10b is turned on, and the light source 10a and the light source 10c are turned off. At this time, light is emitted from the light source 10b as shown in FIG. 5B, and the subject 30 is irradiated with the light.
  • the light source 10c When imaging by the image sensor 113 is performed in a state where the subject 30 is irradiated with light from the light source 10b, the light source 10c is turned on, and the light source 10a and the light source 10b are turned off. At this time, as shown in FIG. 5C, light is emitted from the light source 10c, and the subject 30 is irradiated with the light. In this state, imaging by the image sensor 113 is performed.
  • the subject 30 is irradiated from three different light source directions, and imaging is performed each time, so that a total of three images are acquired.
  • the number of light sources included in the illumination device 111 is not limited to three.
  • a plurality of light sources having different emission wavelengths may be arranged close to the same light source direction. For example, if red, green, and blue light sources (RGB light sources) are arranged at and near the position of the light source 10a in FIG. 5A, red, green, and blue light are sequentially irradiated in the state shown in FIG. 5A. 3 images can be acquired. If such three images can be acquired, a full color image can be obtained by simply superimposing them. Such an image is a time sequential color image.
  • RGB light sources red, green, and blue light sources
  • the wavelength of the light source included in the illumination device 111 is not limited to the visible light region, and may be infrared or ultraviolet. Further, white light may be emitted from each light source, or light such as cyan, magenta, and yellow may be emitted.
  • FIG. 6 schematically shows a second configuration example of the illumination device 111.
  • the illumination device 111 in the configuration example of FIG. 6 includes at least one light source 10 that is movably supported. By moving the light source 10, light can be emitted from any direction included in the plurality of light source directions, and the subject 30 can be irradiated with the light.
  • the light sources 10a, 10b, and 10c do not need to be fixed at specific positions, and may be supported so as to be movable. Furthermore, the optical path of the light beam emitted from one fixed light source 10 may be changed via a drive optical system such as a mirror, so that the object 30 may be incident from different directions.
  • the light source direction is changed in a plane parallel to the paper surface of the drawing, but the light source direction may be a direction inclined with respect to this plane.
  • FIG. 7 light in two directions incident on the center photodiode 40 of interest is shown at the same time. For example, this corresponds to the imaging state in the state of FIG. 5A and the imaging state in the state of FIG.
  • the light source direction is adjusted so that light that has passed through two adjacent regions of the subject 30 enters the same photodiode 40. If the incident direction (incident angle and direction) of the light emitted from the light source 10b shown in FIG. 5B with respect to the subject 30 is inappropriate, both the light transmitted through the adjacent region of the subject 30 enters the same photodiode 40. do not do.
  • the direction of the light source may be adjusted so that light that has passed through two adjacent regions of the subject 30 enters different photodiodes 40, respectively.
  • the incident angle ⁇ of light can be expressed by L, K, or the like. This point will be described later.
  • the aperture ratio of the pixels in the image sensor 113 is 25%, and light enters the subject 30 from four different directions.
  • FIG. 9A is a plan view showing a part of the subject 30, and FIG. 9B is an image of the area shown in FIG. 9A among the photodiodes 40 of the image sensor 113.
  • FIG. 6 is a plan view schematically showing only six photodiodes 40 extracted.
  • the image of the subject 30 is acquired by substantially parallel light rays that pass through the subject 30. There is no need to dispose a lens for image formation between the subject 30 and the image sensor 113, and the subject 30 can be disposed close to the image sensor 113.
  • the distance from the imaging surface of the image sensor 113 to the subject 30 is typically 1 mm or less, and can be set to about 1 ⁇ m, for example. In reality, the entire subject 30 is imaged by far more photodiodes than six, but in the figure, only six photodiodes 40 are shown for simplicity.
  • FIG. 10A is a cross-sectional view schematically showing the direction of light rays that pass through the subject 30 and enter the photodiode 40
  • FIG. 10B shows an arrangement example of the six photodiodes 40 of interest
  • FIG. 10C is a diagram schematically showing six pixels 300 a acquired by the six photodiodes 40.
  • Each of the plurality of pixels 300 a has a value (pixel value) indicating the amount of light incident on the individual photodiode 40.
  • an image 60a is composed of the pixels 300a in FIG.
  • FIG. 11A is a cross-sectional view schematically showing the direction of light rays that pass through the subject 30 and enter the photodiode 40
  • FIG. 11B shows the arrangement of the six photodiodes 40 of interest. It is a top view typically shown and is the same as FIG.10 (b).
  • FIG. 11C is a diagram schematically showing six pixels 300 a acquired by the six photodiodes 40. An image 60b is composed of the pixels 300b in FIG.
  • the image 60 a in FIG. 10C and the image 60 b in FIG. 11C can include pixel information corresponding to different positions of the subject 30.
  • FIG. 12 and FIG. FIG. 12A and FIG. 13A are cross-sectional views schematically showing the direction of light rays that pass through the subject 30 and enter the photodiode 40. In these examples, the light rays are inclined with respect to the direction perpendicular to the drawing sheet.
  • FIGS. 12B and 13B are plan views schematically showing six photodiodes 40 of interest.
  • FIGS. 12C and 13C show the six photodiodes 40. It is a figure which shows typically the six pixels 300c and the pixel 300d which are acquired by (3).
  • An image 60c is composed of the pixels 300c in FIG. 12C
  • an image 60d is composed of the pixels 300d in FIG. 13C.
  • FIG. 14 shows a state in which a high resolution image 600 is synthesized from four images 60a, 60b, 60c, and 60d.
  • the number of pixels or the pixel density of the high-resolution image 600 is four times the number of pixels or the pixel density of each of the four images 60a, 60b, 60c, and 60d.
  • the aperture ratio of the image sensor 113 is 25%, the resolution can be increased up to four times by light irradiation from four different directions.
  • N is an integer greater than or equal to 2
  • the aperture ratio of the image sensor 113 is approximately equal to 1 / N, the resolution can be increased up to N times.
  • the subject 30 does not move or be deformed while acquiring a plurality of low resolution images while changing the direction of the illumination light.
  • FIG. 15 is a diagram collectively showing the states of FIGS. 10 and 11 described above.
  • the direction of the light beam incident on the subject 30 is appropriately adjusted. Therefore, the pixels 300a and 300b in the two images 60a and 60b superimposed as shown in FIG. 15C correspond to different regions of the subject 30 without overlapping.
  • the direction of the light beam incident on the subject 30 is not properly adjusted.
  • the pixels 300 a and 300 b in the two images 60 a and 60 b overlapped correspond to a region where the subject 30 partially overlaps. From the above description, it can be seen that it is important to appropriately set the direction of light that irradiates the subject 30.
  • the subject 30 and the image sensor 113 can be surrounded by a wall that shields outside light so that at least light other than illumination light does not enter the subject 30 during imaging.
  • FIG. 17 is a block diagram of an image acquisition apparatus according to this embodiment.
  • the image acquisition device 1 includes an imaging processing unit 11 having an illumination function and an imaging function, and an image processing unit that generates and outputs a high resolution image from the low resolution image obtained by the imaging processing unit 11. 12 and a storage device 13 for storing light source position information and a low-resolution image.
  • the imaging processing unit 11 includes an illumination device 111, a subject support unit 112, an imaging element 113, a display 114, and an output unit 115.
  • the illumination device 111 has the above-described configuration, and can irradiate parallel light with a predetermined illuminance onto a subject from a plurality of directions.
  • the subject support unit 112 supports the subject such that the distance from the imaging surface of the image sensor 113 to the subject is 10 mm or less (typically 1 mm or less).
  • the lighting device 111 of the present embodiment has an LED as a light source.
  • the illuminating device 111 has RGB three-color LEDs, and is arranged at four positions respectively.
  • As the light source an incandescent bulb, a laser diode, or a fiber laser may be used instead of the LED.
  • a lens or a reflecting mirror that converts light emitted from the incandescent bulb into parallel light may be used.
  • the light source may emit infrared light or ultraviolet light.
  • a color filter for converting or filtering the wavelength of light emitted from the light source may be arranged on the optical path.
  • the illumination device 111 may have a plurality of light sources as shown in FIGS. 5A to 5C, or a light source supported so as to be movable so as to change the direction of light incident on the subject as shown in FIG. You may have.
  • the subject support unit 112 is a member that supports the subject during imaging, and may be the upper surface of the image sensor 113. You may have a mechanism which hold
  • the subject support unit 112 can be configured to dispose the subject 30 on the image sensor 113 with almost no gap.
  • FIG. 18 is a diagram showing an arrangement relationship between the subject 30 and the light source 10 arranged on the image sensor 113.
  • the distance D between the light source 10 and the subject 30 can be set to 1 m or more, for example.
  • the light beam that exits from the light source 10 and passes through the position A of the subject 30 is ⁇ Xm on the imaging surface when the position of the light source 10 is shifted by Xm in the horizontal and horizontal directions. It will enter into the position shifted only.
  • ⁇ X / X D / L
  • X should be suppressed to 0.1 m or less.
  • it is easy to set the positional deviation X of the light source 10 to 0.1 m ( 10 cm) or less.
  • the image sensor 113 having a pixel pitch K of about 1 ⁇ m is used, if the distance from the image sensor 113 to the light source 10 is set to about 1 m, even if the positional deviation X of the light source occurs about several centimeters, the image quality is adversely affected. It doesn't reach.
  • red, green, and blue light sources are arranged in a specific light source direction
  • the image sensor 113 in the present embodiment has a configuration of about 4800 ⁇ 3600 pixels, for example.
  • the pixel pitch K can be set to about 1.3 ⁇ m as an example.
  • the distance from the imaging surface to the upper surface of the imaging element, that is, the distance L from the imaging surface to the subject can be set to about 1.3 ⁇ m as an example.
  • the aperture ratio of the image sensor 113 is 25%.
  • Each light source 10A, 10B, 10C, 10D emits a light beam having a spread of about 1/100 [rad] or less. These light beams are almost parallel light.
  • FIG. 19 four photodiodes 40 corresponding to four pixels arranged in two rows and two examples are shown. Of these, four light rays incident on a certain photodiode 40 of interest are shown. The four light beams correspond to the central axes (simply referred to as “optical axes”) of the light beams emitted from the light sources 10A, 10B, 10C, and 10D.
  • the subject 30 shown in FIG. 19 is provided with lane markings indicating 16 regions arranged in 4 rows and 4 columns. Such a line is not drawn on the actual subject 30.
  • the lane markings of the subject 30 are described for easy understanding of which region of the subject 30 the light ray incident on one photodiode 40 has transmitted. Of the 16 regions divided by the lane markings, hatching is added to the region located immediately above each photodiode 40.
  • the first light source 10A is located immediately above the image sensor 113, and its optical axis is perpendicular to the image pickup surface. That is, the optical axis of the first light source 10A is parallel to the normal direction of the imaging surface.
  • a position where the optical axis of the first light source 10A intersects the upper surface (subject) of the image sensor 113 is referred to as a “reference position”.
  • the optical axis of the second light source 10B is inclined in the negative direction of the Y axis with respect to the normal line of the imaging surface.
  • the position where the optical axis of the second light source 10B intersects the upper surface (subject) of the image sensor 113 is shifted by K / 2 in the negative direction of the Y axis with respect to the “reference position”.
  • the optical axis of the third light source 10C is inclined in the negative direction of the X axis with respect to the normal line of the imaging surface.
  • the position where the optical axis of the third light source 10C intersects the upper surface (subject) of the image sensor 113 is shifted by K / 2 in the negative direction of the X axis with respect to the “reference position”.
  • the optical axis of the fourth light source 10D is inclined in a direction rotated by ⁇ / 4 radians from the negative direction of the X axis with respect to the normal line of the imaging surface.
  • the position at which the optical axis of the fourth light source 10D intersects the upper surface (subject) of the image sensor 113 is K / 2 in the negative direction of the Y axis and K in the negative direction of the X axis with respect to the “reference position”. Shifted by / 2.
  • the positions of the light sources 10A, 10B, 10C, and 10D are such that their optical axes are normal to the imaging surface, and the “irradiation direction” of the illumination light depends on the relative positional relationship between the light source and the subject (imaging surface). Determined.
  • the direction of the light beam of illumination light incident on the imaging surface is defined as the “irradiation direction”.
  • the irradiation direction can be specified by a vector in the XYZ coordinates.
  • the irradiation direction is arbitrary, and the number of irradiation directions is also arbitrary.
  • the “irradiation direction” perpendicular to the imaging surface can be expressed by, for example, a vector (0, 0, 1). If the distance from the imaging surface to the subject is L, the “irradiation direction” perpendicular to the imaging surface can be expressed by a vector (0, 0, 1).
  • the 16 irradiation directions ⁇ 1 to ⁇ 16 are (0, 0, L), (K / 4, 0, L), (2K / 4, 0, L), (3K / 4, 0, L), respectively.
  • the position where the light beam incident on the same photodiode from the light sources 10A, 10B, 10C, and 10D does not necessarily have to be shifted in the direction parallel to the X axis or the Y axis by K / 2.
  • the magnitude of this shift may be an odd number ⁇ (K / 2).
  • M and N are odd numbers, (reference vector, for example, (0, 0, L)) + (MK / 2, NK / 2, 0) can be used in vector notation.
  • the aperture ratio is 1/9 as in the second embodiment described later, the positions at which the light rays incident on the same photodiode from each light source are incident on the subject are the X axis or K / 3, 2K / 3.
  • the shift is in a direction parallel to the Y axis.
  • the optical axis of the light source 10A is set perpendicular to the imaging surface
  • the optical axes of the light sources 10A, 10B, 10C, and 10D may all be inclined with respect to the normal line of the imaging surface.
  • a configuration in which at least one light source 10 is movably supported, moves to an appropriate position, and emits light in a predetermined direction from the position may be employed.
  • FIG. 20 is an exaggerated view of the distribution of incident angles of light rays emitted from one light source 10.
  • a light beam is vertically incident on a region located directly under the light source 10.
  • a light beam is incident on the region located at the end of the imaging surface with an inclination.
  • the image processing unit 12 in the present embodiment includes an illumination condition adjustment unit 121, an image information acquisition unit 122, a light source position determination unit 123, and an image configuration processing unit 124. These may be composed of functional blocks of a computer that implements the image processing unit 12, and each component may be realized by a computer program.
  • the storage device 13 includes a light source position information server 131 and a low resolution image server 132.
  • the storage device 13 may be a hard disk, a semiconductor memory, or an optical recording medium, and may be a data server connected to the image processing unit 12 via a digital network such as the Internet.
  • the illumination condition adjustment unit 121 of the image processing unit 12 adjusts illumination conditions such as the position, brightness, light irradiation interval, and illuminance of the light source in the illumination device 111.
  • the image information acquisition unit 122 controls the image sensor 113 in a state where the illumination conditions of the illumination device 111 are appropriately set, and causes the image sensor 113 to perform imaging according to switching of the light source to be lit.
  • the image information acquisition unit 122 receives data of an image (low resolution image) acquired by the image sensor 113 from the image sensor 113.
  • information (such as a light source direction, light emission intensity, illuminance, and wavelength) that defines the illumination condition in association with the received image data is acquired from the illumination condition adjustment unit 121.
  • the light source position determination unit 123 determines the light source position when the light source position is calibrated.
  • the light source position determination unit 123 sets a calibration sample on the subject support unit 112 during calibration of the light source position, determines a change in the light source position using an image obtained from the image information acquisition unit 122, and determines the light source position of the illumination device 111. To change.
  • the light source position information server 131 stores information indicating the light source position determined by the light source position determination unit 123 as a position database. When the position of the light source is adjusted by the light source position determination unit 123, the position database is rewritten each time.
  • the low resolution image server 132 stores the low resolution image data obtained via the image information acquisition unit 122 and information indicating the illumination conditions used when acquiring each low resolution image in the image database.
  • the object is irradiated with illumination light from four directions to obtain four low resolution images.
  • These low resolution images correspond to the images 60a to 60d schematically shown in FIG.
  • the data of the low resolution image may be deleted from the image database.
  • the image configuration processing unit 124 in the image processing unit 12 receives the light source position information and the light source position information from the light source position information server 131 and the low resolution image server 132 of the storage device 13.
  • a low resolution image is obtained to achieve high resolution based on the principle described above (FIGS. 14 and 19). That is, a single high-resolution image can be obtained by combining the pixel values constituting the images 60a to 60d.
  • correction processing such as color correction, demosaic processing, gradation correction ( ⁇ correction), YC separation processing, and correction of overlapping portions is performed.
  • the high resolution image is displayed on the display 114 or output to the outside of the image acquisition device 1 via the output unit 115.
  • the high-resolution image output from the output unit 115 can be recorded on a recording medium (not shown) or displayed on another display.
  • a high-resolution image (an image magnified twice) having four times the number of pixels is formed using the image sensor 113 having an aperture ratio of 25%.
  • N low-resolution images can be acquired using the element, and a high-resolution image enlarged by N 0.5 times having N times the number of pixels can be formed therefrom.
  • a high-resolution image can be acquired from a low-resolution image.
  • a high-resolution image is not particularly necessary, a low-resolution image may be used.
  • the magnification of an image can be easily changed without using a lens with a high magnification.
  • FIG. 21A is a flowchart showing a flow of image acquisition in the image acquisition device 1.
  • a calibration sample is placed on the object support unit 112 (S201), and light source position determination processing is executed (S202).
  • the calibration sample is a sample whose light transmittance at each position is known in advance as two-dimensional information.
  • a calibration sample 500 shown in FIG. 22 is formed from a transparent film, and has a black dot pattern arranged in a lattice pattern on the surface.
  • the black region is a region that completely blocks light.
  • the optical axis of the light source is slightly inclined with respect to the imaging surface, there is a light ray incident on each photodiode 40 without being blocked by the black region. For this reason, the output of each photodiode 40 has a value higher than the lowest level.
  • the output of each photodiode 40 After determining the position of the light source so that the optical axis of the light source is substantially perpendicular to the imaging surface, if the output of each photodiode 40 is detected while changing the position of the light source, the output may be a minimum value. At that time, the optical axis of the light source can be determined to be perpendicular to the imaging surface.
  • the four black areas are areas that are completely shielded from light, but the light transmittance of the black areas need not be 0%.
  • the arrangement of the four black regions matches the arrangement of the four photodiodes 40, but the pattern of the calibration sample 500 is not limited to such an example. If the pattern of the calibration sample 500 is known, the shape of the pattern is arbitrary.
  • the storage device 13 has sample data corresponding to a plurality of light source positions set in advance in association with the calibration sample 500.
  • the illumination condition adjustment unit 121 selects a predetermined light source position from a plurality of light source positions, and irradiates the calibration sample 500 with light.
  • the image sensor 113 acquires an image of the calibration sample 500 in a state where light is irradiated from a predetermined light source position.
  • the light source position determination unit 123 compares the image acquired in this way with the sample data stored in the storage device 13. Imaging is repeated by slightly changing the light source position until the acquired image matches the sample data. As a result, the light source position can be appropriately determined. For example, the arrangement relationship of a plurality of light sources can be determined so as to realize light incidence as shown in FIG. 15 instead of light incidence as shown in FIG.
  • the subject is placed on the subject support unit 112 (S203).
  • the subject here is a pathological specimen.
  • a light-transmitting sample cell, peeled tissue, etc.
  • the slide glass may be turned upside down, the cover glass 32 may be placed on the upper surface of the image sensor, and imaging may be performed with a sample placed on the cover glass. In that case, the thickness of the cover glass 32 is added to the distance L. For this reason, the position of the light source may be readjusted (FIG. 23).
  • the acquired i-th low resolution image is stored in the image buffer. If it is determined that i> N is satisfied (S209) (YES), image configuration processing is performed. Specifically, as shown in FIG. 14, N low-resolution images are superimposed, and pixel data is synthesized by shifting the pixel positions of the respective low-resolution images to construct a high-resolution image (S210). ). This is sent out as a high resolution image output (S211). The high resolution image can be output to the display 114 or sent to the outside.
  • FIG. 24 is a diagram showing the direction of incident light when an image with an aperture ratio of 1/9 is used to obtain an image magnified three times in each of the X and Y directions.
  • FIG. 21B is a flowchart illustrating another example of the operation of the image acquisition apparatus according to the present embodiment.
  • the light source position is calculated every time.
  • the light source irradiation angle is obtained by calculation in step S301.
  • the light source position is determined.
  • the subsequent steps S205 to S210 are as described above.
  • FIG. 21C is a flowchart illustrating still another example of the operation of the image acquisition apparatus according to the present embodiment.
  • the light source position is determined experimentally rather than by calculation.
  • a method for adjusting the angle in the X and Y directions will be described. Although it is necessary to execute the respective cases when the pitch interval is different between the X direction and the Y direction, the description is made only for the Y direction. If there is no need to re-adjust in the X direction and the Y direction, only one adjustment is necessary, and the angle obtained there may be used.
  • FIG. 27 shows an image obtained by the image information acquisition unit 122 by turning on the light source B, for example.
  • FIG. 28 shows an image obtained by the image information acquisition unit 122 by turning on the light source H, for example.
  • These images are images acquired by light rays that have passed through the same position of the calibration sheet.
  • the flowchart in FIG. 21C is for obtaining an appropriate irradiation angle that is shifted by 0.5 pixels in the Y direction.
  • a certain irradiation angle is defined as ⁇ and ⁇ . If ⁇ is a correct angle to be obtained, images obtained from the respective images are, for example, images shifted by one pixel as shown in FIGS. On the other hand, when ⁇ is not correct, an image shifted by one pixel or less or by one pixel or more is obtained. For these, sub-pixel matching is performed by an arbitrary method such as a parabolic fitting method or SSD (Sum ofSquared Difference), and an appropriate ⁇ is obtained again. By repeating this, the angle is determined at the time when the one-pixel shift of the two images is matched within an arbitrary allowable range.
  • can be any initial value that is considered appropriate even with an angle used in the previous shooting or an estimated value obtained from a simple calculation.
  • FIGS. 25 to 29 With reference to FIGS. 25 to 29, a second embodiment of the imaging apparatus according to the present disclosure will be described.
  • the number of light sources is increased from four to nine. In other respects, it has the same configuration as the configuration of the image acquisition device in the first embodiment.
  • the light source position determining unit 123 sequentially turns on the nine light sources A, B, C, D, E, F, G, H, and I, and performs imaging each time. By synthesizing the nine images obtained in this way, it is possible to obtain a high-resolution image with high accuracy that is doubled.
  • the light source position in the illumination device 111 is adjusted.
  • the position of other light sources can be adjusted similarly.
  • FIG. 29 is a plan view schematically showing an arrangement relationship between a part of the area of the subject arranged on the image sensor and a part of the imaging surface located below the area.
  • FIG. 29 shows four photodiodes (PD) 40a, 40b, 40c, and 40d.
  • the illustrated area of the subject is nine areas (1, 1), (1, 2), (1, 3), (2, 1), (2, 2), (2 in 3 rows and 3 columns. 3), (3, 1), (3, 2), (3, 3).
  • a reference symbol (j, k) is attached to the region of j rows and k columns.
  • the four regions correspond to the size of one pixel as a whole, and finally a fourfold increase in resolution is achieved by a method similar to the method described in the first embodiment.
  • the light transmitted through the central area (2, 2) of the subject enters the photodiode 40d.
  • the light transmitted through the region (2, 2) enters the photodiode 40a.
  • the light transmitted through the region (2, 2) enters the photodiode 40c.
  • the light transmitted through the region (2, 2) enters the photodiode 40b.
  • the light travels perpendicularly to the imaging surface, and thus passes through the region (2, 2) and then enters directly below the region. That is, the light transmitted through the region (2, 2) does not enter any photodiode. Similarly, light emitted from the light sources B, D, F, and H does not enter the photodiode after passing through the region (2, 2).
  • FIG. 29 four thick arrows extending from the four photodiodes (PD) 40a, 40b, 40c, and 40d are shown for the central region (2, 2).
  • the pixel value of the region (2, 2) can be determined based on the outputs of the four photodiodes (PD) 40a, 40b, 40c, 40d. For example, if all outputs (obtained from four images P A , P C , P G , P I ) of four photodiodes (PD) 40a, 40b, 40c, 40d are added and divided by 4, the average A normalized pixel value is obtained. However, it is not necessary to use all the outputs of the four photodiodes (PD) 40a, 40b, 40c, and 40d in order to determine the pixel value of the region (2, 2).
  • the image acquisition device may include an illumination system including an inclination mechanism that integrally inclines the subject and the image sensor.
  • an illumination system including an inclination mechanism that integrally inclines the subject and the image sensor.
  • the direction of the light source when the subject is used as a reference can be changed by rotating the subject and the image sensor by the tilt mechanism.
  • the subject and the image sensor can be integrally tilted, and illumination light can be emitted sequentially from a plurality of different light source directions with respect to the subject.
  • FIG. 30 schematically shows a configuration of a modified example including a holding device that detachably holds a subject and an imaging element (hereinafter, referred to as “imaging target”) 140.
  • the imaging target 140 can be a “preparation” in which a subject and an imaging device are integrated.
  • the “illumination angle adjustment unit” has a mechanism for changing the posture of the imaging target 140.
  • This mechanism includes two gonio mechanisms 120 that can rotate the direction of the subject in a perpendicular plane orthogonal to each other.
  • the gonio center 150 of the gonio mechanism 120 is located at the center of the subject in the imaging target 140.
  • the light source 10P may be fixed.
  • the light source 10P is configured to emit parallel light.
  • the image acquisition apparatus according to this modification may include a plurality of parallel light sources 10P.
  • the photographing time is shortened as compared with the case where the photographing target 140 is fixed and the light source 10P is moved. This is because the distance L1 between the photographing target 140 and the light source 10P is much larger than the distance L2 between the subject constituting the photographing target 140 and the imaging element, and thus it is necessary to move the light source 10P greatly in proportion thereto. It is. By shortening the imaging time, an appropriate image can be acquired even when the subject changes over time in seconds, for example, luminescence from a biological sample.
  • FIG. 32 shows a configuration of a modified example in which the mechanism for changing the posture of the subject includes a gonio mechanism 120 and a rotation mechanism 122.
  • the mechanism for changing the posture of the subject includes a gonio mechanism 120 and a rotation mechanism 122.
  • the rotation mechanism 122 By combining the rotation of the imaging target 140 in the vertical plane by the gonio mechanism 120 and the rotation of the imaging target 140 around the vertical axis by the rotation mechanism 122, illumination light is incident on the imaging target 140 from an arbitrary irradiation direction. It becomes possible.
  • Point 150 is located at the gonio center and the center of rotation.
  • the image acquisition apparatus according to this modification may include a plurality of parallel light sources 10P.
  • FIG. 34 shows an example of an optical system that increases the parallelism of the light emitted from the light source and causes the parallel light to enter the subject.
  • a lens 130 for collimating diverging light emitted from a light source is mounted on an XY moving mechanism (moving stage) 124.
  • the imaging target 140 is moved together with the moving stage 124 by an arbitrary distance in the direction of the X axis and / or the Y axis in the horizontal plane.
  • FIG. 35 shows a state in which the illumination light is obliquely incident on the imaging target 140 moved by a desired distance in a desired direction in the horizontal plane. Even if the position of the light source 10a is fixed, the irradiation direction of the illumination light can be controlled by adjusting the position of the imaging target 140.
  • the image acquisition apparatus may have a plurality of light sources. Thus, when the plurality of light sources 10a, 10b, and 10c are provided, there is no need to move the imaging target 140, and as shown in FIG. 37, an XY moving mechanism (moving stage) 124 is provided. It may be. As shown in FIGS. 38, 39, and 40, the illumination light is imaged at a desired incident angle by changing one or both of the positions of the light sources 10a, 10b, and 10c to be turned on and the position of the imaging object 140. 140 can be incident.
  • FIG. 41 schematically shows a configuration of a modified example in which the two gonio mechanisms 120 support the parallel light source 10P.
  • FIG. 42 schematically shows a configuration of a modified example in which the gonio mechanism 120 and the rotation mechanism 122 support the parallel light source 10P.
  • a light source that emits parallel light is used, or an optical system that increases the parallelism of the light emitted from the light source is used.
  • the embodiment of the present disclosure is not limited to such an example. As described above, when the distance between the light source and the subject is sufficiently wide, light that is substantially parallel enters the subject.
  • a plurality of images can be acquired according to a plurality of tilt angles by tilting the image pickup device and the subject integrally with the tilt mechanism.
  • the sample management device includes a sample image acquisition device and an information processing device.
  • a specimen image acquisition device includes: a specimen support unit on which a pathological specimen is placed; and an imaging device configured to acquire an image of the pathological specimen with a designated resolution (magnification) among a plurality of resolutions (magnifications).
  • the information processing apparatus is configured to obtain a feature amount of the image acquired by the specimen image acquisition device and to output patient information of the pathological specimen on the display device based on the feature amount. More specifically, the information processing apparatus searches for patient information that matches the feature amount of the image with reference to a database in which the feature amount calculated from the sample image of the patient is associated with the patient information.
  • the database includes a plurality of pieces of patient information that matches the feature amount of the image, a high-resolution image having a resolution higher than the resolution of the image is acquired, and the high-resolution image is obtained by referring to the database. Search for patient information that matches the feature amount.
  • the patient information includes, for example, at least one of the patient's name, disease name, findings, other examination information, and clinical information.
  • the specimen image acquisition apparatus that can be used in the specimen management apparatus of the present disclosure can acquire a plurality of images with different resolutions (magnifications) from a pathological specimen placed on the specimen support unit.
  • An example of such a specimen image acquisition device is configured to irradiate a thin pathological specimen placed on an image sensor, which is an image sensor, with illumination light, and acquire a digital image based on light transmitted through the pathological specimen. Device. According to such an apparatus, it is not necessary to arrange an objective lens for imaging between the image sensor and the pathological specimen, and a plurality of images can be acquired in a state where the image sensor and the pathological specimen are close to each other. Can do.
  • an image having a resolution comparable to that of a microscope can be acquired based on the arrangement of fine pixels provided in the image sensor.
  • the resolution of the image to be acquired can be changed by binning processing in the image sensor, and a plurality of low resolution images can be obtained by changing the direction of the illumination light incident on the pathological specimen, as will be described in detail in the embodiments described later.
  • the resolution may be increased by image processing.
  • the information processing apparatus may be a general-purpose computer in which the program of the present disclosure is installed.
  • a typical example of such an information processing apparatus includes a processor and a memory, and operates according to a program instruction stored in the memory.
  • an apparatus including a processor and a memory can function as an apparatus including each functional block described below as a whole.
  • Each functional block included in the information processing apparatus according to the present disclosure may be realized by dedicated hardware or a combination of hardware and software.
  • the database in which the feature amount calculated from the patient specimen image and the patient information are associated with each other may be provided in a storage device included in the information processing device, or may be connected to the information processing device via a digital network. It may be provided in a data storage or data server.
  • Various known feature quantities can be selected as the feature quantity of the image, and retrieval of patient information can be realized by a known matching technique.
  • FIG. 43 is a diagram illustrating an example of the overall configuration of the sample management apparatus according to the present embodiment.
  • the illustrated sample management apparatus includes a specimen image acquisition apparatus 1110 and an information processing apparatus 1230.
  • the specimen image acquisition apparatus 1110 converts a specimen support unit 1100 on which a pathological specimen 1030 is placed and an image of the pathological specimen 1030 into a designated resolution (magnification) among a plurality of resolutions (magnifications).
  • the image sensor 1220 As the imaging element 1220, a two-dimensional image sensor in which a large number of photoelectric conversion units are arranged in rows and columns in the imaging plane can be employed.
  • the photoelectric conversion unit is typically a photodiode formed on a semiconductor layer or a semiconductor substrate, and generates charge upon receiving incident light.
  • the resolution of the two-dimensional image sensor depends on the arrangement pitch or arrangement density of the photoelectric conversion units on the imaging surface.
  • the arrangement pitch of the individual photoelectric conversion units is as short as the wavelength of visible light.
  • a typical example of the image sensor 1220 is a charge coupled device (CCD) image sensor or a metal oxide semiconductor (MOS) image sensor.
  • the information processing apparatus 1230 is configured to obtain the feature amount of the image acquired by the specimen image acquisition device 1110 and to output the patient information of the pathological specimen 1030 to the output device 1170 based on the feature amount. More specifically, the information processing apparatus 1230 refers to a database in which the feature amount calculated from the patient specimen image and the patient information are associated with each other, and obtains patient information that matches the feature amount of the image of the pathological specimen 1030. Search for.
  • the information processing device 1230 is connected to the input device 1160 and the output device 1170.
  • the input device 1160 is a device by which a user inputs data or inputs a command to the information processing device 1230.
  • the input device 1160 may be a keyboard, a mouse, a touch screen, or the like.
  • the output device 1170 may be a display, a printer, a speaker, or the like that can display images and characters.
  • the input device 1160 and the output device 1170 may be devices in which a touch screen and a display device are integrated.
  • the information processing apparatus 1230 outputs the patient information to the output apparatus 1170 when one piece of patient information that matches the feature amount of the image is included in the database. Further, when a plurality of pieces of patient information matching the feature amount of the image is included in the database, the information processing apparatus 1230 refers to the database after obtaining a high-resolution image having a resolution higher than the resolution of the image. Then, the patient information that matches the feature amount of the high resolution image is retrieved. Further, when one patient information that matches the feature amount of the image is not included in the database, the information processing device 1230 receives the input of the patient information from the input device 1160, and the feature amount calculated from the image and the patient information Are stored in the database in association with each other.
  • the specimen image acquisition device 1110 acquires a high-resolution image having a resolution higher than the resolution of the first acquired image
  • the information processing device 1230 includes the feature amount calculated from each acquired image, patient information, and Are stored in the database in association with each other.
  • FIG. 45 is a block diagram of the sample management device according to the third embodiment of the present disclosure.
  • the sample management apparatus includes a sample support unit 1100, a sample image acquisition device 1110, an image feature quantity calculation unit 1120, an information search unit 1130, a patient information database (hereinafter referred to as “sample information database”). 1140, a magnification change unit 1150, an input device 1160, and an output device 1170.
  • the pathological specimen 1030 for which patient information is to be acquired or updated is placed on the specimen support unit 1100.
  • the pathological specimen 1030 can be, for example, a general slide used in pathological examination.
  • the specimen image acquisition device 1110 captures the image of the pathological specimen 1030 placed on the specimen support unit 1100 at one of a plurality of predetermined different magnifications.
  • the image feature amount calculation unit 1120 calculates an image feature amount from the sample image acquired by the sample image acquisition device 1110.
  • the information search unit 1130 searches the database 1140 in which the patient information and the image feature amount are associated with each other to determine whether there is patient information that matches the image feature amount calculated by the image feature amount calculation unit 1120.
  • the magnification changing unit 1150 changes the magnification to be acquired to a high magnification (high resolution), captures an image again by the sample image acquisition device 1110, and performs a high magnification. Search for specimens at.
  • the input device 1160 receives input of patient information as a sample of a new patient.
  • the output device 1170 outputs the acquired patient information when the information search unit 1130 can acquire patient information having the same image feature amount.
  • FIG. 46 is a flowchart showing a sample management procedure.
  • the patient information is referred to or a specimen to be updated is placed on the specimen support unit 1100.
  • the specimen support 1100 may have a recess having a size that can accommodate the pathological specimen 1030. According to such a specimen support unit 1100, it is possible to suppress the positional deviation of the specimen 1030 when capturing an image.
  • a pathological specimen having a size of 76 mm ⁇ 26 mm defined by a standard is generally used.
  • the specimen support 1100 has a shape in which a pathological specimen 1030 having such a size can be set.
  • the specimen image acquisition device 1110 acquires an image of the pathological specimen 1030 at one of a plurality of predetermined different magnifications.
  • FIG. 47 is a block diagram illustrating a configuration example of the specimen image acquisition apparatus 1110.
  • the specimen image acquisition device 1110 includes an illumination direction adjustment unit 11200, an illumination device 1210, and an image sensor 1220.
  • An image of the specimen (for example, a whole image) is acquired at an arbitrary magnification specified by the information processing apparatus 1230.
  • the inverse matrix calculation unit 1240 and the matrix storage unit 1250 may be provided in the information processing apparatus 1230. However, one or both of the inverse matrix calculation unit 1240 and the matrix storage unit 1250 may be a sample. It may be provided inside the image acquisition device 1110. Details of operations of the inverse matrix calculation unit 1240 and the matrix storage unit 1250 will be described later.
  • step S110 the angle of the parallel light illumination that irradiates the specimen 1030 is adjusted by the illumination direction adjustment unit 1200.
  • the illumination direction adjustment unit 1200 As a method of adjusting the illumination direction, as shown in FIG. 49A, a plurality of light sources may be installed so that light can be emitted at a predetermined angle, or as shown in FIG. The light source may be moved to a specified angle.
  • step S111 the illumination device 1210 irradiates the sample to be imaged with parallel light at the angle adjusted in step S110.
  • Examples of changes in the illumination direction are shown in FIGS. 50A and 50B.
  • the sample 1030 and the image sensor 1220 have a two-dimensional arrangement relationship as shown in FIG. 50A and 50B schematically show a cross section of one pixel region including one photodiode (PD) for simplicity. Light incident on the photodiode PD is converted into an electric signal by photoelectric conversion. 50A and 50B, the thickness of the arrow indicates the amount of light incident on the PD, and the thicker the arrow, the more light is incident.
  • PD photodiode
  • parallel light is irradiated from directly above.
  • light transmitted through the regions S2 and S3 in the specimen 1030 is incident on the photodiode PD.
  • the light transmitted through the regions S2, S3, and S4 in the specimen 1030 is incident on the photodiode PD.
  • half of the light transmitted through each of the regions S2 and S4 in the specimen 1030 is incident on the photodiode PD, and substantially all of the light transmitted through the region S3 is incident on the photodiode PD.
  • a pixel value different from that in FIG. 50A is output from the photodiode PD.
  • the pixel values of the regions S1, S2, S3, and S4 cannot be obtained from an image taken in one irradiation direction.
  • light transmitted through the areas S1, S2, S3, and S4 from the plurality of images taken with the irradiation direction changed. Can be obtained.
  • These areas S1, S2, S3, and S4 are areas smaller than the size of one pixel and correspond to sub-pixel areas.
  • the case where the sample 1030 is irradiated with light from four different directions 1, 2, 3, 4 is taken as an example.
  • Four images are acquired in a state where light is irradiated from different directions 1, 2, 3, and 4. Attention is paid to one pixel present at the same position among the pixels constituting the four images.
  • the outputs of the photodiode PD included in the pixel of interest are A1, A2, A3, and A4 in the light irradiation directions 1, 2, 3, and 4, respectively.
  • the light transmittances of the regions S1, S2, S3, and S4 in the sample 1030 are S1, S2, S3, and S4, respectively. In this case, in the example shown in FIG.
  • the equation A1 0 ⁇ S1 + 1 ⁇ S2 + 1 ⁇ S3 + 0 ⁇ S4 is established.
  • the formula of A2 0 ⁇ S1 + (1/2) ⁇ S2 + 1 ⁇ S3 + (1/2) ⁇ S4 is established.
  • the transmittances S1, S2, S3, and S4 depend on the tissue structure of the specimen 1030 and are unknown.
  • Outputs A1, A2, A3, and A4 of the photodiode PD are obtained by acquiring four images. Accordingly, simultaneous equations for the four unknowns S1, S2, S3, and S4 are determined, so that S1, S2, S3, and S4 can be obtained by calculation.
  • FIG. 52A shows a matrix of coefficients of simultaneous equations in the above example.
  • FIG. 52A shows a numerical example of a matrix when light is irradiated from different directions 1-8.
  • the number of sub-pixel regions is 8, if the sample 1030 is irradiated with light from at least different directions 1 to 8 and 8 outputs are obtained for each pixel, 8 sub-pixels that are unknown numbers are obtained.
  • the light transmittance of the region can be determined. As a result, an image having a resolution of 8 times can be obtained. In other words, a high-resolution image having a pixel density that is eight times the pixel density in the image sensor 1220 can be obtained.
  • high resolution of the image is realized in this way.
  • by changing the illumination direction and capturing images it is possible to obtain images with different resolutions (enlargement magnifications) as sample images, and focusing using an objective lens is unnecessary.
  • the sample 1030 is imaged by the image sensor 1220.
  • a line sensor is often used, but by using an area sensor such as a CCD image sensor as the image sensor 1220, a wide range of images necessary for specimen identification can be taken at high speed.
  • the sample image acquisition apparatus 1110 does not have a lens for controlling the photographing magnification, and generates an image with an arbitrary magnification from a plurality of images whose irradiation directions are changed.
  • step S113 it is determined whether all the images necessary for generating the sample image with the specified magnification are available. If they are aligned, the process proceeds to step S114. If they are not aligned, the process returns to step S110 to capture an image irradiated at a necessary angle.
  • step S114 the information processing apparatus 1230 generates an image with a specified magnification from a plurality of images taken in steps S110 to S113 and having different irradiation directions.
  • a matrix in which the relationship between the irradiation direction and the amount of light incident on the photodiode PD is calculated in advance is stored in the matrix storage unit 1250.
  • 52A and 52B show examples of matrices indicating the relationship between the illumination direction and the light incident on the sensor.
  • Such a matrix can be obtained by calculation from the irradiation angle, the size of the photodiode PD, and the size of the pixel to be obtained.
  • step S114 a matrix indicating the relationship between the illumination direction and the light incident on the photodiode PD is obtained from the matrix storage unit 1250, and each pixel value is calculated by the inverse matrix calculation unit 1240.
  • step S12 the image feature calculation unit 1120 calculates an image feature amount for identifying the specimen from the sample image acquired in step S11.
  • image feature amount color information such as average luminance, shape features such as circularity, and features such as SIFT, HOG, and HLAC are used.
  • features such as a distance between nuclei and cells and a color ratio of nuclei and cells.
  • FIG. 53 shows an example of a pathological specimen when observed at a high magnification (for example, a magnification of 200 times or more), and
  • FIG. 54 shows an example of a pathological specimen when observed at a low magnification (for example, a magnification of less than 10 times).
  • the magnification is N times (N is an integer equal to or greater than 1)
  • the image resolution is increased to N ⁇ N times.
  • the magnification on the display screen of the display device is defined by the ratio of the screen pitch of the display device to the pixel pitch of the image sensor.
  • cells and nuclei can be recognized when observed at a high magnification as shown in FIG. Since the arrangement and distance between cells and nuclei differ depending on the specimen, the average distance between cells and nuclei can be used as a feature for identifying the specimen. Moreover, since the tissue to be observed in the pathological specimen is transparent as it is, it is generally easy to observe by staining. As types of staining, there are HE staining, which is a basic staining method, and various types of immunostaining that perform staining in accordance with the purpose of a specific test. The ratio of cells / nuclei dyed by such staining can also be used as a feature.
  • the image feature value to be emphasized may be changed according to the magnification of the pathological specimen image.
  • a pathological specimen there is a feature that image characteristics greatly differ depending on the magnification to be observed.
  • low-magnification images such as circularity, SIFT (Scale-Invariant Feature Transform), HOG (Histogram of Oriented Gradient), HLAC (Higher-order Local autorelation, general shape recognition) It is possible to use the feature amount suitable for the center.
  • pathological specimen-specific features such as cell / nucleus distance and stained color ratio can be used. More specifically, when the resolution of the image is lower than the reference value, one or more feature values of circularity, SIFT, HOG, and HLAC are calculated and acquired. When the resolution of the image is higher than the reference value, In addition to the quantity, the average distance between cells or nuclei and / or the ratio of colors dyed by staining may be calculated.
  • the information retrieval unit 1130 acquires from the database 1140 patient data that matches the image feature amount calculated in step S12.
  • An example of the database is shown in FIG.
  • the database stores the image feature amount calculated from the pathological specimen image, the imaging magnification of the specimen image from which the image feature amount is calculated, and patient data associated with the patient information. By holding the patient information in such a format, it is possible to retrieve from the database patient data having an image feature amount that matches the image feature amount calculated in step S12.
  • the search matching condition may be such that the image feature amounts completely match.
  • the image feature amount is expressed by a vector, for example, it may be regarded as a matching image when the Euclidean distance between the vectors is equal to or less than a predetermined threshold.
  • the configuration of the database may be in a format as shown in FIG.
  • FIG. 56 by assigning IDs according to patients, examinations of different staining of the same patient are stored in association with each other.
  • HE hematoxylin and eosin staining
  • immunostaining is often performed for a specific purpose examination.
  • Such differently stained specimens of the same patient, as in the example shown in FIG. 57, are quite different in color, but the specimen shapes are often almost the same. This is because when preparing a plurality of stained specimens from the same patient, the specimens are often made of consecutive slices.
  • the specimen image of the specimen is acquired as an image, different stainings of the same patient can be obtained by comparing the geometric feature amounts of the acquired images. Can be automatically associated.
  • step S14 as a result of the search in step S13, it is determined whether or not patient data having the same image feature amount as that calculated in step S12 exists in the database 1140. If there is no patient data having the same image feature amount, the process proceeds to step S15, and if present, the process proceeds to step S17.
  • step S15 the input device 1160 requests entry of patient information corresponding to the pathological specimen placed in step S10.
  • step S16 the patient information input in step S15 is stored in the database 1140 in association with the magnification of the specimen image acquired in step S11 and the image feature amount calculated in step S12.
  • step S17 as a result of the search in step S13, it is determined whether there are a plurality of pieces of patient information having the same image feature amount as the image feature amount calculated in step S12 in the database 1140. If there is a plurality of pieces of patient information that match the image feature quantity in the database and cannot be identified as one, the process proceeds to step S18. If only one patient data that matches the image feature quantity exists, the process proceeds to step S19. .
  • step S18 when the patient information cannot be specified, the magnification acquired by the specimen image acquisition device is changed, and the process returns to step S11 again.
  • the pathological specimen even when the shape is similar at a low magnification, the pathological specimen has a feature that it can always be identified if it is observed at a high magnification cell or nucleus level.
  • the time required for sample acquisition in step S11 is in a trade-off relationship with the magnification. Therefore, it is efficient to try to identify at a low magnification at first, and to increase the magnification when it cannot be recognized.
  • the imaging magnification is repeatedly increased until step S11 to step S17 can be specified as one patient information.
  • the samples When adding patient information of a new specimen to the database, only the shape features that do not depend on the color among the image feature quantities are searched for a matching case in the database, and there are matching cases.
  • the samples may be associated with different stained specimens of the same patient.
  • the output device 1170 outputs the patient information acquired in step S13.
  • the output device 1170 need not include a display device or a printer.
  • the output device 1170 may be a device connected to an external display device or printer and outputting a signal to those devices or devices.
  • the configuration of the present embodiment makes it possible to realize accurate specimen management of pathological specimens and less burden on the operator.
  • the specimen image acquisition apparatus 1110 in this embodiment takes a plurality of images for generating a high-magnification specimen image by photographing the specimen 1030 placed on the specimen support unit while moving it as shown in FIG. To do.
  • the configuration other than the sample image acquisition device 1110 is the same as the configuration of the sample management device in the third embodiment.
  • FIG. 59 is a block diagram of the specimen image acquisition apparatus 1110 according to this embodiment.
  • a plurality of images for constituting a high-magnification image are obtained by photographing while moving the specimen itself.
  • the matrix storage unit 1250 instead of storing a matrix that represents the relationship between the illumination direction and the light incident on the imaging device, a matrix that represents the relationship between the moving direction, the moving distance, and the light incident on the imaging device is stored. .
  • the sample image acquiring apparatus 1110 having this configuration can realize a function of acquiring an image with an arbitrary magnification rate by substantially the same processing as in steps S110 to S114.
  • step S110 instead of changing the irradiation angle of the parallel light, the sample placed on the sample support unit is moved. In this configuration, the direction of the parallel light applied to the pathological specimen may be constant. Steps S111 to S114 can generate a high-magnification image from a plurality of low-magnification images by using exactly the same processing as that of the third embodiment.
  • a high-magnification image can be obtained without using a microscope that takes time to focus. Therefore, even if the subject is a pathological specimen having a fine tissue, the high-magnification image data is shortened. Can get in time.
  • An image acquisition method includes a step of sequentially emitting illumination light from a plurality of different light source directions with respect to a subject, irradiating the subject with the illumination light, and the illumination transmitted through the subject
  • an image acquisition device of the present disclosure includes the above-described illumination device, imaging device, and general-purpose computer.
  • the computer uses the illumination device to sequentially illuminate light from a plurality of different light source directions based on the subject. , Illuminate the subject with illumination light, and acquire a plurality of different images according to the different light source directions by an imaging device arranged at a position where the illumination light transmitted through the subject enters, and The images may be combined to form a high-resolution image of the subject having a higher resolution than each of the plurality of images.
  • Such an operation can be executed by a computer program recorded on a recording medium.
  • the image acquisition device, the image acquisition method, and the image processing program according to the present disclosure can save the focus adjustment and can acquire a high-magnification image.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Image Processing (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Image Input (AREA)

Abstract

 本開示の画像取得装置は、実施形態において、被写体を基準にして複数の異なる照射方向から、順次、照明光を出射し、照明光で被写体を照射する照明システムと、被写体を透過した前記照明光が入射する位置に配置され、前記異なる照射方向に応じて異なる複数の画像を取得する撮像素子と、複数の画像を合成して複数の画像の各々よりも分解能の高い前記被写体の高分解能画像を形成する画像処理部とを備える。

Description

画像取得装置、画像取得方法、およびプログラム
 本願は、画像取得装置、画像取得方法、およびプログラムに関する。
 撮像装置に使用される撮像素子には、多数の光電変換部が撮像面内に行および列状に配列された2次元イメージセンサが採用されている。光電変換部は、典型的には、半導体層または半導体基板に形成されたフォトダイオードであり、入射光を受けて電荷を生成する。2次元イメージセンサの分解能(解像度)は、撮像面上における光電変換部の配列ピッチまたは配列密度に依存する。個々の光電変換部の配列ピッチは、可視光の波長程度まで短くなっているため、分解能を更に向上させることは極めて困難である。
 撮像素子によって取得される画像は、多数の画素によって規定される。各画素は、1つの光電変換部を含む単位領域によって区画されている。撮像面上において、配線が占有する領域が存在するため、1つの光電変換部の受光面積S2は、1つの画素の面積S1よりも小さい。画素の面積S1に対する受光面積S2の比率(S2/S1)は、「開口率」と呼ばれている。開口率(S2/S1)は、例えば25%程度の値をとり得る。開口率が小さいと、光電変換に用いられる入射光量が少なくなるため、撮像素子が出力する画素信号の質が低下する。撮像面に対向するようにマイクロレンズアレイを配置し、個々のマイクロレンズが個々の光電変換部に対向し、集光する構成を採用すれば、受光面積S2を実効的に拡大し、開口率(S2/S1)を高めて1に近づけることが可能である。しかし、このように開口率(S2/S1)を高めても、画素の配列ピッチおよび配列密度は増加しないので、分解能は変化しない。
 特許文献1および特許文献2は、複数の撮像素子を用いて撮像装置の分解能を高める技術を開示している。
特公平5-2033号公報 特開昭62-137037号公報
 複数の撮像素子を用いて高分解能画像を形成することは難しく、新しい高分解能化技術が求められている。
 本開示の一態様による画像取得装置は、被写体を基準にして複数の異なる照射方向から、順次、照明光を出射し、前記照明光で前記被写体を照射する照明システムと、前記被写体を透過した前記照明光が入射する位置に配置され、前記異なる照射方向に応じて異なる複数の画像を取得する撮像素子と、前記複数の画像を合成して、前記複数の画像の各々よりも分解能の高い前記被写体の高分解能画像を形成する画像処理部とを備える。
 本開示の一態様による画像取得方法は、被写体を基準にして複数の異なる照射方向から、順次、照明光を出射し、前記照明光で前記被写体を照射する工程と、前記被写体を透過した前記照明光が入射する位置に配置された撮像装置により、前記異なる照射方向に応じて異なる複数の画像を取得する工程と、前記複数の画像を合成して、前記複数の画像の各々よりも分解能の高い前記被写体の高分解能画像を形成する工程とを含む。
 本開示の一態様による画像取得装置は、照明装置と、撮像素子と、コンピュータとを備える画像取得装置であって、前記コンピュータは、前記照明装置により、被写体を基準にして複数の異なる照射方向から、順次、照明光を出射し、前記照明光で前記被写体を照射し、前記被写体を透過した前記照明光が入射する位置に配置された撮像装置により、前記異なる照射方向に応じて異なる複数の画像を取得し、前記複数の画像を合成して、前記複数の画像の各々よりも分解能の高い前記被写体の高分解能画像を形成する。
 本開示の一態様によるプログラムは、照明装置と、撮像素子と、コンピュータとを備える画像取得装置のためのプログラムであって、前記照明装置により、被写体を基準にして複数の異なる照射方向から、順次、照明光を出射し、前記照明光で前記被写体を照射し、前記被写体を透過した前記照明光が入射する位置に配置された撮像装置により、前記異なる照射方向に応じて異なる複数の画像を取得し、前記複数の画像を合成して、前記複数の画像の各々よりも分解能の高い前記被写体の高分解能画像を形成するように構成されている。
 本開示の一態様による画像取得装置は、被写体に対して光を照射し、姿勢および位置が固定されている光源と、前記被写体を複数の傾斜角度に傾斜させる傾斜機構と、前記被写体を透過した前記光が入射する位置に配置され、かつ前記被写体と一体的に前記傾斜機構により傾斜され、前記複数の傾斜角度に応じて複数の画像を取得する撮像素子と、前記複数の画像を合成して、前記複数の画像の各々よりも分解能の高い前記被写体の高分解能画像を形成する画像処理部とを備える。
 本開示の実施形態によれば、1つの撮像素子によって得られる複数の低分解能画像を合成することにより、高分解能化を実現できる。
撮像素子におけるフォトダイオードの配列例を模式的に示す平面図 撮像素子における一画素と開口領域との関係を模式的に示す平面図 撮像素子における一画素と開口領域との関係を模式的に示す断面図 本開示による画像取得装置の構成および動作を説明するための断面図 本開示による画像取得装置の構成および動作を説明するための断面図 本開示の画像取得装置における照明の例を示す図 本開示による画像取得装置における照明の例を示す図 本開示による画像取得装置における照明の例を示す図 本開示による画像取得装置における照明の他の例を示す図 本開示における撮像素子における光線入射の例を示す断面図 本開示における撮像素子における光線入射の他の例を示す断面図 (a)は、被写体30の一部を示す平面図、(b)は、撮像素子113のフォトダイオード40のうち、(a)に示されている領域の撮像に係る6個のフォトダイオード40のみを抽出して模式的に示す平面図 (a)は、被写体30を透過してフォトダイオード40に入射する光線の方向を模式的に示す断面図、(b)は、着目する6個のフォトダイオード40の配列例を模式的に示す平面図、(c)は、6個のフォトダイオード40で取得される6個の画素300aを模式的に示す図 (a)は、被写体30を透過してフォトダイオード40に入射する光線の方向を模式的に示す断面図、(b)は、着目する6個のフォトダイオード40の配列を模式的に示す平面図、(c)は、6個のフォトダイオード40で取得される6個の画素300bを模式的に示す図 (a)は、被写体30を透過してフォトダイオード40に入射する光線の方向を模式的に示す断面図、(b)は、着目する6個のフォトダイオード40を模式的に示す平面図、(c)は、6個のフォトダイオード40で取得される6個の画素300cを模式的に示す図 (a)は、被写体30を透過してフォトダイオード40に入射する光線の方向を模式的に示す断面図、(b)は、着目する6個のフォトダイオード40を模式的に示す平面図、(c)は、6個のフォトダイオード40で取得される6個の画素300dを模式的に示す図 4枚の画像60a、60b、60c、60dから高分解能画像600が合成される様子を示す図 (a)~(c)は、重なり合わない2枚の画像60a、60bの合成例を示す図 (a)~(c)は、部分的に重なり合う2枚の画像60a、60bの合成例を示す図 第一実施形態に係る画像取得装置の概略構成を示すブロック図 第一実施形態に係る画像取得装置における光源の位置ずれに起因する光線入射位置の誤差を示す断面図 第一実施形態に係る撮像素子における光源位置の例を示す図 第一実施形態に係る画像取得装置における点光源から出射された光ビームの広がりに起因する光線入射位置のシフトを示す断面図 第一実施形態に係る画像取得装置の動作の一例を示すフローチャート 第一実施形態に係る画像取得装置の動作の他の例を示すフローチャート 第一実施形態に係る画像取得装置の動作の更に他の例を示すフローチャート 第一実施形態に係る画像取得装置における校正用サンプルとその配置を示す図 第一実施形態に係る画像取得装置におけるカバーガラスを挿入した場合の図 第一実施形態に係る画像取得装置における光の入射方向の他の例を示す断面図 本開示の第二実施形態に係る画像取得装置における光源の配置例を示す図 第二実施形態に係る画像取得装置における被写体の入射光線位置とフォトダイオードとの対応関係を示す配置図 第二実施形態に係る画像取得装置で取得される画像の例 第二実施形態に係る画像取得装置で取得される画像の例 第二実施形態に係る画像取得装置において行う精度向上処理を説明するための図であり、撮像素子上に配置された被写体における一部のエリアと、そのエリアの下方に位置する撮像面の一部との配置関係を模式的に示す平面図 撮像対象である被写体および撮像素子を着脱可能に保持する保持装置を備えている改変例を示す図 撮像対象である被写体および撮像素子を着脱可能に保持する保持装置を備えている他の改変例を示す図 撮像対象である被写体および撮像素子を着脱可能に保持する保持装置を備えている更に他の改変例を示す図 撮像対象である被写体および撮像素子を着脱可能に保持する保持装置を備えている更に他の改変例を示す図 撮像対象である被写体および撮像素子を着脱可能に保持する保持装置を備えている更に他の改変例を示す図 撮像対象である被写体および撮像素子を着脱可能に保持する保持装置を備えている更に他の改変例を示す図 撮像対象である被写体および撮像素子を着脱可能に保持する保持装置を備えている更に他の改変例を示す図 撮像対象である被写体および撮像素子を着脱可能に保持する保持装置を備えている更に他の改変例を示す図 撮像対象である被写体および撮像素子を着脱可能に保持する保持装置を備えている更に他の改変例を示す図 撮像対象である被写体および撮像素子を着脱可能に保持する保持装置を備えている更に他の改変例を示す図 撮像対象である被写体および撮像素子を着脱可能に保持する保持装置を備えている更に他の改変例を示す図 撮像対象である被写体および撮像素子を着脱可能に保持する保持装置を備えている更に他の改変例を示す図 撮像対象である被写体および撮像素子を着脱可能に保持する保持装置を備えている更に他の改変例を示す図 本開示の第三実施形態における検体管理装置の全体構成の一例を示す図 本開示の第三実施形態における標本像取得装置の断面図 本開示の第三実施形態における検体管理装置の構成を示すブロック図 本開示の第三実施形態における検体管理方法の処理手順を示すフローチャート 本開示の第三実施形態における標本像取得装置の詳細な構成例を示すブロック図 本開示の第三実施形態における標本像取得装置の動作の一例を示すフローチャート 本開示の第三実施形態における照明方向調整部の構成を示す図 本開示の第三実施形態における照明方向調整部の構成を示す図 本開示の第三実施形態における標本像取得装置の動作(照明方向の変化)を示す図 本開示の第三実施形態における標本像取得装置の動作(照明方向の変化)を示す図 本開示の第三実施形態における標本とイメージセンサとの関係を示した斜視図 本開示の第三実施形態における照明方向とセンサに入射する光の量の関係を表す行列の例を示す図 本開示の第三実施形態における照明方向とセンサに入射する光の量の関係を表す行列の例を示す図 病理標本を高倍率(高分解能)で観察した時の画像の例を示す図 病理標本を低倍率(低分解能)で観察した時の画像の例を示す図 本開示の第三実施形態におけるデータベースの内容の例を示す図 本開示の第三実施形態における患者IDにより同一患者の異なる染色の標本の情報を関連付けて格納した例を示す図 同一患者で染色が異なる標本の例 本開示の第四実施形態における標本像取得装置の動作(標本の移動)を示す図 本開示の第四実施形態における標本像取得装置の詳細な構成を示すブロック図
 本開示による画像取得装置の実施形態を説明する前に、まず、撮像素子の基本的な構成例を説明する。
 図1は、撮像素子113の一例であるCCDイメージセンサの撮像面の一部を模式的に示す平面図である。図1に示されるように、撮像面上には複数のフォトダイオード(光電変換部)40が行および列状に配列されている。図1において、1つの画素50が点線の矩形領域で示されている。撮像面において多数の画素50が行および列状に密に並んでいる。
 各フォトダイオード40に入射した光は、フォトダイオード40内で電荷を生成する。生成される電荷の量は、そのフォトダイオード40に入射した光の量に応じて変化する。各フォトダイオード40で生成された電荷は、縦方向に延びる垂直電荷転送路44に移動し、垂直電荷転送路44を順次転送されて水平電荷転送路46に移動する。次に、電荷は横方向に延びる水平電荷転送路46を転送され、水平電荷転送路46の一端から画素信号として撮像素子113の外部に出力される。電荷転送路44,46上には不図示の転送電極が配列されている。なお、本開示の画像取得装置で使用される撮像素子113の構成は、上記の例に限定されない。CCDイメージセンサに代えて、MOS型イメージセンサが使用されても良い。
 撮像面内におけるフォトダイオード40の配列ピッチは、垂直方向および水平方向で一致している必要はない。本明細書では、簡単のため、フォトダイオード40の配列ピッチは、垂直方向および水平方向で等しく、いずれも大きさK[μm]を有するものとする。
 図2は、1つの画素50と、その画素50に含まれるフォトダイオード40を模式的に示す平面図である。この例における各画素のサイズは、K[μm]×K[μm]である。また、フォトダイオード40のサイズ(受光領域のサイズ)は、P[μm]×P[μm]である。従って、1つの画素の面積はS1=K×Kで表され、1つのフォトダイオード40の面積はS2=P×Pで表される。なお、本実施形態によれば、分解能は、画素ピッチではなく、フォトダイオード40のサイズ(受光領域のサイズ)によって決まる。しかし、照明に使用する可視光の波長を考慮すると、本実施形態におけるフォトダイオード40のサイズPは、0.1μm以上に設定され得る。
 本開示の画像取得装置では、個々のフォトダイオード40に対応するマイクロレンズは設けられていない。このため、各画素50のうち、フォトダイオード40の受光領域(P×Pの領域)以外の領域は「遮光領域」であり、遮光領域に入射した光は、光電変換されず、画素信号を形成しない。P[μm]×P[μm]で示される受光領域は、「開口領域」と呼んでも良い。個々の画素50におけるフォトダイオード40の位置、形状、および大きさは、図2に示される例に限定されない。
 画素領域およびフォトダイオードは、撮像面において典型的には矩形の形状を有している。その場合において、n、mを1より大きな実数とすると、撮像面内の水平方向における画素領域のサイズに対するフォトダイオードのサイズの比率を(1/n)で表し、撮像面内の垂直方向における画素領域のサイズに対するフォトダイオードのサイズの比率を(1/m)で表すことができる。このとき、開口率は、(1/n)×(1/m)で表される。n、mは、いずれも、2以上の実数であり得る。
 図3は、撮像素子113に含まれる1つの画素50の断面構成の例を模式的に示す断面図である。撮像素子は、図3に示されるように、半導体基板400と、半導体基板400の表面に形成されたフォトダイオード40と、半導体基板400に支持される配線層402と、配線層402を覆う遮光層42と、半導体基板400の光入射側面を被覆する透明層406とを備えている。図3では、単一の画素に対応する部分の断面が示されているため、1つのフォトダイオード40のみが図示されているが、現実には、1つの半導体基板400に多数のフォトダイオード40が形成されている。なお、撮像素子113がCCDイメージセンサである場合、半導体基板400には、垂直または水平電荷転送路として機能する不純物拡散層(不図示)が配線層402の下部に形成されている。配線層402は、電荷転送路上に配列された不図示の電極に接続される。なお、撮像素子113がMOS型イメージセンサの場合は、画素単位でMOS型トランジスタ(不図示)が半導体基板400に形成される。MOS型トランジスタは対応するフォトダイオード40の電荷を読み出すためのスイッチング素子として機能する。
 撮像素子113におけるフォトダイオード40以外の構成要素は、遮光層42によって覆われている。図3の例では、遮光層42によって覆われている領域が黒く塗りつぶされている。
 本実施形態に使用され得る撮像素子の構成は、上記の例に限定されず、裏面照射型のCCDイメージセンサまたは裏面照射型のMOS型イメージセンサであってもよい。
 次に、図4Aおよび図4Bを参照しながら、本開示による画像取得装置の概略構成例を説明する。図4Aおよび図4Bは、それぞれ、本開示による画像取得装置の概略構成例を模式的に示す断面図である。
 図示されている画像取得装置は、被写体(撮像対象)30を基準にして複数の異なる光源方向(照射方向)から、順次、照明光を出射し、その照明光で被写体30を照射する照明装置111と、被写体30を透過した照明光が入射する位置に配置され、異なる光源方向に応じて異なる複数の画像を取得する撮像素子113とを備えている。また、この画像取得装置は、異なる光源方向に応じて取得した複数の画像を合成する画像処理部12を備えており、この画像処理部12は、撮像素子113から得た複数の画像の各々よりも分解能の高い前記被写体の高分解能画像を形成する。画像処理部12は、汎用または専用のコンピュータによって実現され得る。
 撮像素子113が第1の画像を取得する時(図4A)、照明装置111は、照明光を被写体30に対して第1の方向から入射させる。また、撮像素子113が第2の画像を取得する時(図4B)、照明装置111は、照明光を被写体30に対して第2の方向から入射させる。図4Aおよび図4Bに示される光線のうち、遮光層42に入射した光線は画像の取得に利用されていない。言い換えると、照明装置111から出射された光のうち、フォトダイオード40に入射した光線のみによって各画像が取得される。
 被写体30に対する光線の入射方向が異なると、フォトダイオード40に入射する光線が被写体30を透過する領域が異なることになる。本開示によれば、被写体30に対する照明光の入射方向を調整することにより、それぞれ、被写体30の異なる部分の像を得ることができる。なお、本開示の画像取得装置で撮像可能な被写体30は、光線を透過することが可能な領域を少なくとも一部に含む物体である。被写体30は、厚さが数μmの病理標本を含むスライドであり得る。被写体30の形状は、プレート状に限定されず、粉末や液体であってもよい。撮像面の法線方向における被写体30のサイズは、例えば数十μm以下である。
 次に、図5A、図5Bおよび図5Cを参照して、照明装置111の第1の構成例を説明する。
 第1の構成例における照明装置111は、複数の光源(照明光源)10a、10b、10cを有している。これらの光源10a、10b、10cは、複数の異なる光源方向に対応した異なる位置に配置されており、順次、点灯する。例えば光源10aが点灯している時、図5Aに示されるように、光源10aから光が出射し、その光で被写体30が照射される。図5A~5Cでは、光源10a、10b、10cからの光が発散しているように示されているが、現実には、光源10a、10b、10cから撮像素子113までの距離は充分に長く、実質的に平行な光が被写体30および撮像素子113に入射すると考えて良い。また、図示されていないレンズなどの光学系により、光源10a、10b、10cから放射された光が平行光または平行光に近い光に収束されていてもよい。従って、光源10a、10b、10cは、点光源であってもよいし、面光源であってもよい。被写体30は、撮像素子113の上面の上に置かれている。撮像素子113の上面は、図5Aにおいて破線で示されており、被写体支持部112として機能する。
 まず、光源10aからの光で被写体30が照射された状態で撮像素子113による撮像が行われると、次に、例えば光源10bが点灯し、光源10aおよび光源10cが消灯状態になる。このとき、図5Bに示されるように光源10bから光が出射し、その光で被写体30が照射される。光源10bからの光で被写体30が照射された状態で撮像素子113による撮像が行われると、次に、光源10cが点灯し、光源10aおよび光源10bが消灯状態になる。このとき、図5Cに示されるように光源10cから光が出射し、その光で被写体30が照射される。この状態で、また撮像素子113による撮像が行われる。
 図5A~5Cの例では、3つの異なる光源方向から被写体30が照射され、その都度、撮像が行われるため、合計3枚の画像が取得される。照明装置111が有する光源の個数は、3個に限定されない。また、発光波長の異なる複数の光源が同一の光源方向に近接して配置されていても良い。例えば図5Aの光源10aの位置およびその近傍に、赤、緑、および青の光源(RGB光源)を配置しておけば、図5Aに示される状態で赤、緑、および青の光を順次照射し、3枚の画像を取得することが可能になる。このような3枚の画像が取得できれば、それらを重畳するだけでフルカラー画像を得ることができる。このような画像は、タイムシーケンシャルのカラー画像である。
 なお、照明装置111が有する光源の波長は、可視光域に限定されず、赤外または紫外であってもよい。また、各光源から白色の光が出射されても良いし、シアン、マゼンタ、イエローなどの光が出射されても良い。
 次に、図6を参照する。図6は照明装置111の第2の構成例を模式的に示している。図6の構成例における照明装置111は、移動可能に支持される少なくとも1つの光源10を有している。この光源10を移動させることにより、複数の光源方向に含まれる任意の方向から光を出射し、その光で被写体30を照射することが可能になる。
 なお、図5A~5Cの例においても、光源10a、10b、10cは特定位置に固定されている必要は無く、移動可能に支持されていても良い。更に、固定された1個の光源10から出た光ビームの光路をミラーなどの駆動光学系を介して変更し、それによって被写体30に異なる方向から入射させるようにしてもよい。
 図5A~5Cの例および図6の例では、図面の紙面に平行な面内で光源方向が変化しているが、光源方向は、この面に対して傾斜する方向であってもよい。
 次に図7および図8を参照して、照明光の入射方向について説明する。図7では、着目する中央のフォトダイオード40に入射する2方向の光が同時に記載されている。これは、例えば、図5Aの状態における撮像状態と、図5Bの状態における撮像状態とを、便宜上、1つの図に示すことに対応している。図7の例では、被写体30の隣接する2つの領域を通過した光が、いずれも、同一のフォトダイオード40に入射するように光源方向が調整されている。図5Bに示す光源10bから出射された光の被写体30に対する入射方向(入射の角度および方位)が不適切であると、被写体30の隣接する領域を透過した光がともに同一のフォトダイオード40に入射しない。
 図7に示すように異なる方向から被写体30に入射した光で被写体30の撮像を行えば、被写体30から「空間的」にサンプリングされる画素情報を増加させることができる。このことは、図7に示す2方向からの光で得られる2枚の画像を単純に足し合わせることにより、高分解能(高解像度)の画像を合成できることを意味する。
 なお、異なる方向から被写体30に入射し、これを透過した光は、同一のフォトダイオード40に入射する必要は無い。例えば、図8に示されるように、被写体30の隣接する2つの領域を通過した光が、それぞれ、異なるフォトダイオード40に入射するように光源の方向が調整されていてもよい。
 図7および図8には、撮像面から被写体30までの距離Lと、画素ピッチKとが示されている。光の入射角度θは、L、Kなどによって表現され得る。この点については、後述する。
 次に、図9から図16を参照しながら、異なる方向から被写体30に入射する光で複数回の撮像を行って得た複数の画像から高分解能画像を合成する原理を説明する。この例では、撮像素子113における画素の開口率が25%であり、異なる4つの方向から光を被写体30に入射する。
 まず、図9を参照する。図9(a)は、被写体30の一部を示す平面図であり、図9(b)は、撮像素子113のフォトダイオード40のうち、図9(a)に示されている領域の撮像に係る6個のフォトダイオード40のみを抽出して模式的に示す平面図である。本開示によれば、被写体30の像は、被写体30を透過する実質的に平行な光線によって取得される。被写体30と撮像素子113との間には結像のためのレンズを配置する必要は無く、被写体30は撮像素子113に近接して配置され得る。撮像素子113の撮像面から被写体30までの距離は、典型的には1mm以下であり、例えば1μm程度に設定され得る。現実には6個よりも遥かに多いフォトダイオード40で被写体30の全体が撮像されるが、図では簡単のため、6個のフォトダイオード40のみが示されている。
 次に図10を参照する。図10(a)は、被写体30を透過してフォトダイオード40に入射する光線の方向を模式的に示す断面図であり、図10(b)は、着目する6個のフォトダイオード40の配列例を模式的に示す平面図であり、図10(c)は、6個のフォトダイオード40で取得される6個の画素300aを模式的に示す図である。複数の画素300aの各々は、個々のフォトダイオード40に入射した光の量を示す値(画素値)を持つ。この例では、図10(c)の画素300aから画像60aが構成される。
 次に図11を参照する。図11(a)は、被写体30を透過してフォトダイオード40に入射する光線の方向を模式的に示す断面図であり、図11(b)は、着目する6個のフォトダイオード40の配列を模式的に示す平面図であり、図10(b)と同じである。図11(c)は、6個のフォトダイオード40で取得される6個の画素300aを模式的に示す図である。図11(c)の画素300bから画像60bが構成される。
 図10(a)と図11(a)とを比較することによって理解されるように、被写体30に入射する光の方向を適切に設定することにより、図10(a)の状態と図11(a)の状態とで被写体30の異なる領域を透過した光がフォトダイオード40に入射する。その結果、図10(c)の画像60aと図11(c)の画像60bは、被写体30の異なる位置に対応する画素情報を含むことができる。
 次に図12および図13を参照する。図12(a)および図13(a)は、被写体30を透過してフォトダイオード40に入射する光線の方向を模式的に示す断面図である。これらの例では、光線は図の紙面に垂直な方向に対して傾斜している。図12(b)および図13(b)は、着目する6個のフォトダイオード40を模式的に示す平面図であり、図12(c)および図13(c)は、6個のフォトダイオード40で取得される6個の画素300cおよび画素300dを模式的に示す図である。図12(c)の画素300cから画像60cが構成され、図13(c)の画素300dから画像60dが構成される。
 図14は、4枚の画像60a、60b、60c、60dから高分解能画像600が合成される様子を示している。高分解能画像600の画素数または画素密度は、4枚の画像60a、60b、60c、60dの各々の画素数または画素密度の4倍である。この例では、撮像素子113の開口率が25%であるため、異なる4方向からの光照射によって最大4倍の高分解能化が可能になる。Nを2以上の整数するとき、撮像素子113の開口率が近似的に1/Nに等しければ、最大N倍の高分解能化が可能になる。
 本開示の撮像装置によると、照明光の方向を変えながら複数の低分解能画像を取得する間に、被写体30が移動したり、変形したりしないことが好ましい。
 次に、図15および図16を参照する。図15は、上述した図10および図11の状態をまとめて示した図である。図15に示す状態は、被写体30に入射する光線の方向が適切に調整されている。このため、図15(c)に示すように重ね合わされた2枚の画像60a、60bにおける画素300a、300bは、重複することなく、被写体30の異なる領域に対応している。
 図16(a)、図16(b)、図16(c)は、図15(a)、図15(b)、図15(c)に対応している。ただし、図16の状態では、被写体30に入射する光線の方向が適切に調整されていない。このため、図16(c)に示すように重ね合わされた2枚の画像60a、60bにおける画素300a、300bは、被写体30の部分的に重なり合う領域に対応している。以上の説明から、被写体30を照射する光の方向を適切に設定することが重要であることがわかる。また、少なくとも撮像時に照明のための光以外の光が被写体30に入射しないように、被写体30および撮像素子113は外光を遮蔽する壁面によって取り囲まれ得る。
 以下、本開示の実施形態をより詳細に説明する。
 (第一実施形態)
 図17を参照しながら、本開示の第一実施形態に係わる画像取得装置を説明する。図17は本実施形態における画像取得装置のブロック図である。図17に示すように、画像取得装置1は、照明機能および撮像機能を有する撮像処理部11と、撮像処理部11で得られた低分解能画像から高分解能画像を生成して出力する画像処理部12と、光源位置情報および低分解能画像を記憶する記憶装置13とを備えている。
 撮像処理部11は、照明装置111、被写体支持部112、撮像素子113、ディスプレイ114、出力部115を備える。照明装置111は、前述した構成を有しており、複数方向から被写体に対して、所定の照度の平行光を照射することができる。この被写体支持部112は、撮像素子113の撮像面から被写体までの距離が10mm以下(典型的には1mm以下)となるように被写体を支持する。
 本実施形態の照明装置111は、LEDを光源として有している。照明装置111は、RGBの3色のLEDを有し、それぞれ4カ所の位置に配置されている。光源としては、LEDの代わりに、白熱電球、レーザダイオード、ファイバーレーザを用いてもよい。白熱電球を用いる場合、白熱電球から放射された光を平行光に変換するレンズまたは反射鏡を使用しても良い。光源は、赤外光や紫外光を発するものでもよい。光源から放射された光の波長を変換またはフィルタリングするためのカラーフィルタが光路上に配置されていても良い。
 照明装置111は、図5A~5Cに示すように複数の光源を有していてもよいし、図6に示すように被写体に入射する光の方向を変化させるように移動可能に支持された光源を有していてもよい。
 被写体支持部112は、撮像中に被写体を支持する部材であり、撮像素子113の上面であってもよい。撮像中に被写体の位置が変化しないようにこれらを保持する機構を有していても良い。被写体支持部112は、撮像素子113上に被写体30をほとんど隙間なく配置するように構成され得る。
 図18は、撮像素子113上に配置された被写体30と光源10との配置関係を示す図である。
 光源10と被写体30との間隔Dは例えば1m以上に設定され得る。撮像素子113の撮像面から被写体30までの距離Lは、画像のボケを抑制するために、100μm(=1×10-4m)以下、例えば1μm(=1×10-6m)に設定される。D=1m、L=1×10-6mの場合、光源10から出て被写体30の位置Aを通過する光線は、光源10の位置が水平横方向にXmだけずれると、撮像面上でΔXmだけシフトした位置に入射することになる。ΔX/X=D/Lの関係があるため、ΔXを0.1μm(=1×10-7m)以下に抑制するには、Xを0.1m以下に抑制すれば良い。光源10の位置を調整する際、光源10の位置ずれXを0.1m(=10cm)以下にすることは容易である。画素ピッチKが1μm程度の撮像素子113を用いる場合、撮像素子113から光源10までの距離を1m程度に設定しておけば、光源の位置ずれXが数cm程度発生しても画質に悪影響は及ばない。また上記のことから、特定の光源方向に、赤、緑、および青の光源(RGB光源)を配置する場合、それらの複数の光源が0.1m(=10cm)以下の範囲にあって近接していれば、それらを1個の光源として扱うこともできる。
 本実施形態における撮像素子113は、例えば約4800×3600画素の構成を有する。この場合、画素ピッチKは、一例として1.3μm程度に設定され得る。また、撮像面から撮像素子上面までの距離、すなわち、撮像面から被写体までの距離Lは一例として約1.3μmに設定され得る。本実施形態では、撮像素子113の開口率は25%であるとする。
 次に、図19を参照しながら、照明装置111の光源10と撮像素子113との間に存在する配置関係の例を有する。
 図19の照明装置111は、撮像素子113から約1m離れた位置に4個の光源10A、10B、10C、10Dを有している。各光源10A、10B、10C、10Dからは、約1/100[rad]以下の広がりを持つ光ビームが出射される。これらの光ビームは、いずれも、ほぼ平行光である。図19では、2行2例に配列された4個の画素に対応する4個のフォトダイオード40が示されている。このうち、ある1つの着目するフォトダイオード40に入射する4本の光線が図示されている。4本の光線は、光源10A、10B、10C、10Dから出射される光ビームの中心軸(単に「光軸」と称する)に相当する。なお、図19に示される被写体30には、便宜上、4行4列に配列された16個の領域を示す区画線が引かれている。現実の被写体30には、このような線は引かれていない。被写体30の区画線は、1つのフォトダイオード40に入射する光線が、被写体30のどの領域を透過したかを分かりやすく示すために記載されている。区画線で区分された16個の領域のうち、各フォトダイオード40の真上に位置する領域にはハッチングが付加されている。
 第1の光源10Aは、撮像素子113の直上に位置し、その光軸は、撮像面に対して垂直である。すなわち、第1の光源10Aの光軸は、撮像面の法線方向に対して平行である。ここで、第1の光源10Aの光軸が撮像素子113の上面(被写体)と交差する位置を「基準位置」とする。
 第2の光源10Bの光軸は、撮像面の法線に対して、Y軸の負の方向に傾斜している。第2の光源10Bの光軸が撮像素子113の上面(被写体)と交差する位置は、「基準位置」に対して、Y軸の負の方向にK/2だけシフトしている。第3の光源10Cの光軸は、撮像面の法線に対して、X軸の負の方向に傾斜している。第3の光源10Cの光軸が撮像素子113の上面(被写体)と交差する位置は、「基準位置」に対して、X軸の負の方向にK/2だけシフトしている。第4の光源10Dの光軸は、撮像面の法線に対して、X軸の負の方向からπ/4ラジアンだけ回転した方向に傾斜している。第4の光源10Dの光軸が撮像素子113の上面(被写体)と交差する位置は、「基準位置」に対して、Y軸の負の方向にK/2、X軸の負の方向にK/2だけシフトしている。
 光源10A、10B、10C、10Dの位置は、それらの光軸が撮像面の法線に対して、照明光の「照射方向」は、光源および被写体(撮像面)との相対的な配置関係によって決まる。撮像面を基準にし、撮像面に入射する照明光の光線の方向を「照射方向」と定義する。撮像面における水平方向をX軸、垂直方向をY軸、撮像面の法線方向をZ軸とするとき、照射方向は、XYZ座標内のベクトルによって特定され得る。照射方向は任意であり、照射方向の数も任意である。
 撮像面に垂直な「照射方向」は、例えばベクトル(0,0,1)によって表現され得る。撮像面から被写体までの距離をLとすると、撮像面に垂直な「照射方向」は、ベクトル(0,0,1)によって表現され得る。例えば、16通りの照射方向θ1~θ16は、それぞれ、(0,0,L)、(K/4,0,L)、(2K/4,0,L)、(3K/4,0,L)、(0,K/4,L)、(K/4,K/4,L)、(2K/4,K/4,L)、(3K/4,K/4,L)、(0,2K/4,L)、(K/4,2K/4,L)、(2K/4,2K/4,L)、(3K/4,2K/4,L)、(0,3K/4,L)、(K/4,3K/4,L)、(2K/4,3K/4,L)、(3K/4,3K/4,L)のベクトルで表現され得る。同一の画像が取れる別の角度でも良い。
 なお、光源10A、10B、10C、10Dから同一のフォトダイオードに入射する光線が被写体に入射する位置は、必ずしもK/2だけX軸またはY軸に平行な方向にシフトしている必要は無い。このシフトの大きさは、奇数×(K/2)であってもよい。M、Nを奇数とするとき、ベクトル表記で(基準のベクトル、例えば(0,0、L))+(MK/2、NK/2、0)であり得る。また、後述する第二実施形態のように開口率が1/9の場合、各光源から同一のフォトダイオードに入射する光線が被写体に入射する位置は、K/3、2K/3だけX軸またはY軸に平行な方向にシフトすることになる。
 なお、光源10Aの光軸は撮像面に垂直に設定されているが、光源10A、10B、10C、10Dの光軸が、すべて、撮像面の法線に対して傾斜していても良い。また、図6を参照して説明したように、少なくとも1つの光源10が可動に支持され、適切な位置に移動して、その位置から所定方向に光を出射する構成を採用してもよい。
 図20は、1つの光源10から出た光線の入射角度の分布を誇張して記載した図である。光源10の真下に位置する領域には垂直に光線が入射している。一方、撮像面の端部に位置する領域には傾斜して光線が入射している。撮像面から光源10までの距離Dが約1mに設定されている場合を考える。撮像素子の中央から端部までの距離Cは、せいぜい10mm(=1×10-2m)である。また、L=1×10-6mである。本来、光源から垂直に光が入射すべきであるのに、撮像面の端部には光が斜めに入射するため、その入射位置は、垂直に入射した場合の入射位置に対してΔxだけシフトする。上記の数値例では、C/D=Δx/Lの関係が成立しているため、Δx=(LC)/D=(1×10-6×1×10-2)/1=1×10-8=10nmである。すなわち、フォトダイオードに入射する光線が被写体を通過する領域の位置は、撮像素子の中央か端部かによって、Δx=10nmよりも小さい範囲でしかシフトしない。画素ピッチKが1μm(=1×10-6m)であるとすると、Δx=10nm(=1×10-8m)は画素ピッチKよりも2桁小さい。このため、撮像面から光源10までの距離Dが撮像面のサイズを考慮して適切な大きさに設定されている限り、被写体を基準にした光源方向は、同じ光源に対して、被写体の位置によらず一定であると考えて良い。
 再度、図17を参照する。本実施形態における画像処理部12は、照明条件調整部121、画像情報取得部122、光源位置決定部123、画像構成処理部124を備えている。これらは、画像処理部12を実現するコンピュータの機能ブロックから構成されていても良く、各構成要素はコンピュータブログラムによって実現され得る。記憶装置13は、光源位置情報サーバ131と低分解能画像サーバ132とを有する。記憶装置13は、ハードディスク、半導体メモリ、または光記録媒体であり得、インターネットなどのデジタルネットワークを介して画像処理部12に接続されるデータサーバであってもよい。
 画像処理部12の照明条件調整部121は、照明装置111における光源の位置、明るさ、光照射間隔、照度などの照明条件を調整する。画像情報取得部122は、照明装置111の照明条件が適切に設定された状態で撮像素子113を制御し、点灯する光源の切り替えに応じて撮像素子113に撮像を行わせる。画像情報取得部122は、撮像素子113が取得した画像(低分解能画像)のデータを撮像素子113から受け取る。また、受け取った画像データに関連付けて照明条件を規定する情報(光源方向、発光強度、照度、波長など)を照明条件調整部121から取得する。
 光源位置決定部123は、光源位置の校正時に光源位置を決定する。光源位置決定部123は、光源位置の校正時に被写体支持部112に校正用サンプルを設置して画像情報取得部122から得られた画像を用いて光源位置の変更を決定し照明装置111の光源位置を変化させる。
 光源位置情報サーバ131は、光源位置決定部123によって決まった光源位置を示す情報を位置データベースとして格納している。光源位置決定部123によって光源の位置を調整した場合は、そのたびに位置データベースを書き換える。
 低分解能画像サーバ132は、画像情報取得部122を介して得た低分解能画像のデータと、各低分解能画像を取得するときに使用された照明条件を示す情報とを画像データベースに格納する。本実施形態では、4つの方向からの照明光で被写体を照射して4つの低分解能画像を得る。これらの低分解能画像は、図14に模式的に示した画像60a~60dに対応する。後述する画像構成処理が終了すると、低分解能画像のデータは画像データベースから削除されてもよい。
 画像処理部12における画像構成処理部124は、画像情報取得部122から得られる撮像終了を示す信号に応答して、記憶装置13の光源位置情報サーバ131および低分解能画像サーバ132から光源位置情報および低分解能画像を得て、前述した原理による高分解能化を達成する(図14、図19)。すなわち、画像60a~60dを構成する画素値を組み合わせることにより、1枚の高分解能画像を得ることができる。このとき、色補正、デモザイク処理、階調補正(γ補正)、YC分離処理、重なった部分の補正等、補正の処理を施す。高分解能画像はディスプレイ114に表示されたり、出力部115を介して画像取得装置1の外部に出力されたりする。出力部115から出力された高分解能画像は、不図示の記録媒体に記録されたり、他のディスプレイに表示されたりし得る。
 本実施形態では、開口率が25%の撮像素子113を用いて画素数が4倍の高分解能画像(2倍に拡大された画像)を形成しているが、開口率が1/Nの撮像素子を用いてN枚の低分解能画像を取得し、これらからN倍画素数を持つN0.5倍に拡大された高分解能画像を形成することもできる。
 本実施形態によれば、低分解能の画像から高分解能の画像を取得できるが、特に高分解能の画像が必要ないときは、低分解能の画像を使用すればよい。本実施形態では、倍率の高いレンズを用いることなく、画像の倍率を簡単に変化させることができる。
 次に、図21Aを参照して、上記の実施形態にかかわる画像取得装置1の初期化および画像取得の動作を説明する。図21Aは、画像取得装置1における画像取得の流れを示すフローチャートである。
 [準備ステップ] 光源位置の調整
 光源位置の初期化を行うために被写体支持部112に校正用サンプルを設置し(S201)、光源位置決定処理を実行する(S202)。校正用サンプルとは、あらかじめ二次元情報として各位置における光透過率がわかっているサンプルである。たとえば、図22に示す校正用サンプル500は、透明なフィルムから形成されており、表面に格子状に配列された黒いドットパターンを有している。図22では、校正用サンプル500のうち、4画素分の領域だけが示されているが、現実の校正用サンプル500は、撮像素子113の撮像面の全体を覆う大きさを有していても良い。ここでは、簡単のため、黒い領域は光を完全に遮光する領域であるとする。
 図22に示されている校正用サンプル500の4個の黒い領域の形状および位置は、フォトダイオード40の形状および位置に整合している。また、4個の黒い領域は、それぞれ、4個のフォトダイオード40の真上に位置しているとする。この状態で、不図示の照明装置111の特定の光源から光が出射され、その光で校正用サンプル500を照射する場合を考える。光源の光軸が撮像面に垂直であれば、光源からの光線は、黒い領域で遮光される。このため、4個のフォトダイオード40の出力は最低レベルの値を持つことになる。一方、光源の光軸が撮像面に対して僅かに傾斜していれば、黒い領域で遮光されることなく、各フォトダイオード40に入射する光線が存在する。このため、各フォトダイオード40の出力は最低レベルよりも高い値を持つことになる。光源の光軸が撮像面に略垂直になるように光源の位置を定めた後、光源の位置を変えながら、各フォトダイオード40の出力を検出すると、その出力が極小値となるときがある。そのとき、光源の光軸は撮像面に垂直であると決定できる。
 上記の例では、4個の黒い領域が完全に遮光する領域であったが、黒い領域の光透過率は0%である必要は無い。また、図22の例では、4個の黒い領域の配列が4個のフォトダイオード40の配列に一致しているが、校正サンプル500のパターンは、そのような例に限定されない。校正サンプル500のパターンが既知であれば、そのパターンの形状は任意である。
 記憶装置13は、校正用サンプル500に関連付けて、あらかじめ設定された複数の光源位置に対応するサンプルデータを有している。照明条件調整部121は、複数の光源位置から所定の光源位置を選択し、校正用サンプル500を光で照射する。撮像素子113は、所定の光源位置から光が照射された状態で校正用サンプル500の画像を取得する。光源位置決定部123は、こうして取得した画像と、記憶装置13に格納されているサンプルデータとを比較する。取得した画像とサンプルデータとが一致するまで、光源位置を僅かに変化させて撮像を繰り返し行う。その結果、光源位置を適切に決定することができる。例えば、図16に示すような光入射ではなく、図15に示すような光入射が実現するように複数の光源の配置関係を決定することができる。
 [高分解能化ステップ]
 次に、被写体を被写体支持部112に配置する(S203)。ここでの被写体は病理検体である。病理検体の代わりに、例えば厚さが数μm程度で撮像中に形態が変化しない光透過性の試料(細胞、剥切した組織など)であってもよい。スライドガラスを上下反転させ、撮像素子上面にカバーガラス32を載せ、その上にサンプルをおいた状態で撮像を行っても良い。その場合、距離Lには、カバーガラス32の厚さが加算される。このため、光源の位置を再調整してもよい(図23)。
 次に、低分解能画像を取得するため、4つの光源を順番に点灯しながら画像取得をする。具体的には、i =1と定義し(S204)、i番目の光源のみを点灯する(S205)。i番目の光源のコントラスト調整を行いながら(S206)、i番目の画像(低分解能画像)を取得する(S207)。
 その後、i = i+1と定義し(S208)、iが画像取得回数であるN=4回を超えているか否かを判断する(S209)。iが4回を超えるまで、画像取得を繰り返す。
 取得したi番目の低分解能画像は、画像バッファに格納される。i>Nを満たす(S209)と判断された場合(YES)、画像構成処理が行われる。具体的には、図14に示したようにN枚の低分解能画像を重ね合わせるようにして、各低分解能画像の画素の位置をずらして画素データを合成し、高分解能画像を構成する(S210)。これを高分解能画像出力として送出する(S211)。高分解能画像はディプレイ114に出力されたり、外部に送出されたりし得る。
 なお、図24は、開口率が1/9撮像素子を用いて、X方向およびY方向の各々について3倍に拡大した画像を得るときに入射する光線の方向を示す図である。
 図21Bは、本実施形態に係る画像取得装置の動作の他の例を示すフローチャートである。この例では、毎回、光源位置を計算によって計算する。このフローでは、ステップS301で光源照射角度を計算によって求める。ステップS302において、光源位置を決定する。その後のステップS205~S210は、前述したとおりである。
 図21Cは、本実施形態に係る画像取得装置の動作の更に他の例を示すフローチャートである。この例では、光源位置を計算によってではなく実験的に決定する。
 X方向とY方向で角度調整を行う方法を説明する。ピッチの間隔がX方向とY方向で異なる場合など、それぞれ実行する必要があるが、説明はY方向の場合のみとする。X方向とY方向で調整をしなおす必要がない場合は、一方の調整だけでよく、そこで得られた角度を用いればよい。
 図27、図28を参照して説明する。図27は、例えば光源Bを点灯させて画像情報取得部122によって得た画像を示す。図28は、例えば光源Hを点灯させて画像情報取得部122によって得た画像を示す。これらの画像は、校正シートの同じ位置を透過してきた光線によって取得された像である。
 図21Cのフローチャートは、Y方向において0.5画素だけずらすような適切な照射角度を求めることを目的としている。このとき、ある照射角度をθ、-θとする。θが求める正しい角度であれば、それぞれから得られた画像は例えば、図27、図28に示される一画素ずれた画像のようになる。一方で、θが正しくない場合は、一画素以下、もしくは一画素以上ずれた画像が得られる。これらついて、パラボラフィッティング法やSSD(Sum of Squared Difference)などの任意の方法によってサブピクセルマッチングを行い、適切なθを求め直す。これを繰り返すことにより、任意の許容範囲内で二画像の一画素ずれが適合した時点で角度を決定する。
 θは前回の撮影で用いた角度や、単純な計算などから求めた推定値でも適切と考えられる初期値ならなんでも良い。
 (第二実施形態)
 図25~図29を参照して、本開示による撮像装置の第2の実施形態を説明する。本実施形態では、図25及び図26に示すように、光源の数を4個から9個に増やしている。その他の点では、第一実施形態における画像取得装置の構成と同一の構成を備えている。   
 光源位置決定部123は、9個の光源A、B、C、D、E、F、G、H、Iを順次点灯し、その都度、撮像を行う。こうして得られた9枚の画像を合成することにより、2倍に拡大された精度の良い高分解能画像を得ることができる。
 前述した図27の画像と図28の画像とを取得し、これらを比較し、画素ピッチだけシフトした状態になるように光源位置を決定し、照明装置111における光源位置の調整を行う。他の光源についても同様に位置の調整を行うことができる。
 次に、図29を参照して、精度を上げる処理を説明する。本実施形態では、この処理の後、撮影された9枚の画像を用いて2倍に拡大された高分解能画像(画素数は4倍)を得ることができる。
 図29は、撮像素子上に配置された被写体における一部のエリアと、そのエリアの下方に位置する撮像面の一部との配置関係を模式的に示す平面図である。図29には、4個のフォトダイオード(PD)40a、40b、40c、40dが示されている。被写体の図示されているエリアは、3行3列の9個の領域(1、1)、(1、2)、(1、3)、(2、1)、(2、2)、(2、3)、(3、1)、(3、2)、(3、3)に分けられている。j行k列の領域には(j、k)の参照符号を付している。この例では、4個の領域が全体として1画素の大きさに対応しており、第1実施形態について説明した方法と同様の方法により、最終的に4倍の高分解能化が達成される。
 図25に示される光源Aから出た斜めの光で被写体を照射したとき、被写体の中央の領域(2、2)を透過した光は、フォトダイオード40dに入射する。光源Iから出た斜めの光で被写体を照射したとき、領域(2、2)を透過した光は、フォトダイオード40aに入射する。光源Cから出た斜めの光で被写体を照射したとき、領域(2、2)を透過した光は、フォトダイオード40cに入射する。光源Gから出た斜めの光で被写体を照射したとき、領域(2、2)を透過した光は、フォトダイオード40bに入射する。一方、例えば光源Eから出た光で被写体を照射したとき、その光は撮像面に垂直に進行するため、領域(2、2)を透過した後、その真下に入射する。すなわち、領域(2、2)を透過した光は、いずれのフォトダイオードにも入射しない。同様に、光源B、D、F、Hから出た光も、領域(2、2)を透過した後、フォトダイオードには入射しない。
 9個の光源A、B、C、D、E、F、G、H、Iを順次点灯し、その都度、撮像を行って得た9枚の画像を、それぞれ、画像PA、PB、PC、PD、PE、PF、PG、PH、PIと表記する。これらの画像PA~PIのうち、4枚の画像PA、PC、PG、PIの各々には、領域(2、2)の透過率を反映した画素値を持つ1つの画素が存在することになる。これらの対応する4個の画素値を平均すれば、領域(2、2)の透過率について、より精度の高い情報が得られる。
 図29では、中央の領域(2、2)に対して、4個のフォトダイオード(PD)40a、40b、40c、40dから延びる4本の太い矢印が記載されている。このことは、4個のフォトダイオード(PD)40a、40b、40c、40dの出力に基づいて、領域(2、2)の画素値を決定できることを意味する。例えば、4個のフォトダイオード(PD)40a、40b、40c、40dの出力(4枚の画像PA、PC、PG、PIから得られる)を全て加算し、4で割れば、平均化された画素値が得られる。ただし、領域(2、2)の画素値を決定するため、4個のフォトダイオード(PD)40a、40b、40c、40dの出力の全てを用いる必要は無い。
 次に、被写体の他の領域の画素値の取得について説明する。まず、領域(1、2)、(3、2)について説明する。
 光源Dから出た光で被写体を照明するとき、領域(1、2)、(3、2)を通過した光は、それぞれ、フォトダイオード40b、40dに入射する。このときの撮像によって得られる画像は、画像PDである。また、光源Fから出た光で被写体を照明するとき、領域(1、2)、(3、2)を通過した光は、それぞれ、フォトダイオード40a、40cに入射する。このときの撮像によって得られる画像は、画像PFである。このように、2枚の画像には、領域(1、2)、(3、2)の各々の透過率を反映した画素値を持つ画素が存在する。これらの対応する画素値を平均化すれば、領域(1、2)、(3、2)の各々の透過率について、精度の高い情報が得られる。
 図29では、例えば領域(1、2)に対して、2個のフォトダイオード(PD)40a、40bから延びる2本の矢印が記載されている。このことは、2個のフォトダイオード(PD)40a、40bの出力に基づいて、領域(1、2)の画素値を決定できることを意味する。2個のフォトダイオード(PD)40a、40bの出力を加算し、2で割れば、平均化された画素値が得られる。領域(3、2)についても同様である。
 次に、領域(2、1)、(2、3)について説明する。基本的には、光の方向は異なるが、領域(1、2)、(3、2)について説明したことが成立する。
 光源Bから出た光で被写体を照明するとき、領域(2、1)、(2、3)を通過した光は、それぞれ、フォトダイオード40c、40dに入射する。また、光源Hから出た光で被写体を照明するとき、領域(2、1)、(2、3)を通過した光は、それぞれ、フォトダイオード40a、40bに入射する。2枚の画像PB、PHには、領域(2、1)、(2、3)の各々の透過率を反映した画素値を持つ画素が存在する。これらの対応する画素値を平均化すれば、領域(1、2)、(3、2)の各々の透過率について、精度の高い情報が得られる。
 本開示による画像取得装置は、被写体および撮像素子を一体的に傾斜させる傾斜機構を含む照明システムを備えていても良い。その場合、光源の位置が固定されていても、傾斜機構によって被写体および撮像素子を回転させることにより、被写体を基準にしたときの光源方向を変化させることができる。このような照明システムによれば、被写体および撮像素子を一体的に傾斜させ、被写体を基準にして複数の異なる光源方向から、順次、照明光を出射することができる。
 (改変例)
 図30は、被写体および撮像素子(以下、「撮像対象」と称する。)140を着脱可能に保持する保持装置を備えている改変例の構成を模試的に示している。撮像対象140は、被写体と撮像素子とが一体化された「プレパラート」でありえる。この例では、「照明角度調整部」が撮像対象140の姿勢を変化させる機構を有している。この機構は、直交する鉛直面内で被写体の向きを回転させることができる2つのゴニオ機構120を含んでいる。ゴニオ機構120のゴニオ中心150は撮像対象140における被写体の中央部に位置している。この改変例では、ゴニオ機構120が照明光の照射方向を変化させることができるため、光源10Pは固定されていてもよい。この改変例では、光源10Pは平行光を発するように構成されている。なお、図31に示されるように、この改変例による画像取得装置は複数の平行光光源10Pを有していてもよい。
 ここで、光源10Pを固定し、かつ撮影対象140を移動させる場合は、撮影対象140を固定し、かつ光源10Pを移動させる場合と比較して、撮影時間が短くなる点で好ましい。これは、撮影対象140と光源10Pとの距離L1が、撮影対象140を構成する被写体と撮像素子との距離L2よりも非常に大きいため、それに比例して光源10Pを大きく移動させる必要があるためである。撮影時間が短くなることにより、被写体が秒単位で経時的に変化するもの、例えば、生物試料からのルミネセンスであっても適切な画像を取得できる。
 図32は、被写体の姿勢を変化させる機構がゴニオ機構120と回転機構122とを備えている改変例の構成を示している。ゴニオ機構120による鉛直面内における撮像対象140の回転と、回転機構122による鉛直軸周りの撮像対象140の回転とを組み合わせることにより、撮像対象140に対して任意の照射方向から照明光を入射することが可能になる。点150は、ゴニオ中心および回転中心に位置している。なお、図33に示されるように、この改変例による画像取得装置は複数の平行光光源10Pを有していてもよい。
 図34は、光源から放射された光の平行度を上げ、被写体に平行光を入射させる光学系の一例を示している。この例では、光源から出た発散光をコリメートするレンズ130がXY移動機構(移動ステージ)124に搭載されている。撮像対象140は、移動ステージ124とともに、水平面内のX軸および/またはY軸の方向に任意の距離だけ移動させられる。
 図35は、水平面内の所望の方向に所望の距離だけ移動した撮像対象140に対して照明光が斜めに入射する様子を示している。光源10aの位置が固定されていても、撮像対象140の位置を調整することにより、照明光の照射方向を制御できる。なお、図36に示されるように、この改変例による画像取得装置は複数の光源を有していてもよい。このように複数の光源10a、10b、10cを有しているとき、撮像対象140を移動させる機構は無くてもよいし、図37に示されるように、XY移動機構(移動ステージ)124を備えていてもよい。図38、図39および図40に示されるように、点灯する光源10a、10b、10cの位置および撮像対象140の位置の一方または両方を変化させることにより、所望の入射角度で照明光を撮像対象140に入射できる。
 図41は、2つのゴニオ機構120が平行光光源10Pを支持する改変例の構成を模式的に示している。図42は、ゴニオ機構120および回転機構122が平行光光源10Pを支持する改変例の構成を模試的に示している。
 これらの改変例では、平行光を発する光源を使用したり、光源が発する光の平行度を高める光学系を使用したりしている。しかし、本開示の実施形態は、このような例に限定されない。前述したように、光源と被写体との間隔が十分に広いとき、実質的には平行といえる光が被写体に入射する。
 また、被写体に対して光を照射し、姿勢および位置が固定されている光源を用いる場合、被写体を複数の傾斜角度に傾斜させる傾斜機構があれば、被写体を透過した光が入射する位置に配置された撮像素子と被写体と一体的に傾斜機構により傾斜して、複数の傾斜角度に応じて複数の画像を取得することができる。
 本開示の例示的な態様によれば、検体管理装置は標本像取得装置と情報処理装置とを備えている。標本像取得装置は、病理標本が置かれる標本支持部と、病理標本の画像を複数の分解能(倍率)のうちの指定された一つの分解能(倍率)で取得するように構成された撮像素子を有する。情報処理装置は、標本像取得装置によって取得された画像の特徴量を求め、その特徴量に基づいて病理標本の患者情報を表示装置に出力させるように構成されている。より詳細には、情報処理装置は、患者の標本画像から算出された特徴量と患者情報とが対応付けられたデータベースを参照して、その画像の特徴量に一致する患者情報を検索する。そして、画像の特徴量に一致する複数の患者情報がデータベースに含まれていた場合は、その画像の分解能よりも高い分解能を有する高分解能画像を取得し、またデータベースを参照して高分解能画像の特徴量に一致する患者情報を検索する。ここで、患者情報は、例えば、患者の氏名、病名、所見、他の検査の情報、臨床情報の少なくとも1つを含む。
 本開示の検体管理装置で使用され得る標本像取得装置は、標本支持部に置かれた病理標本から異なる分解能(倍率)で複数の画像の取得が可能である。このような標本像取得装置の一例は、撮像素子であるイメージセンサ上に配置された薄い病理標本を照明光で照射し、病理標本を透過した光に基づいてデジタル画像を取得するように構成された装置である。このような装置によれば、撮像素子と病理標本との間には結像のための対物レンズを配置する必要は無く、撮像素子と病理標本とが近接した状態で複数の画像を取得することができる。その結果、撮像素子が備える微細な画素の配列に基づいて顕微鏡並みの分解能を有する画像を取得することができる。取得する画像の分解能の変更は、撮像素子におけるビニング処理によって行うこともできるし、後述する実施形態について詳しく説明するように、病理標本に入射する照明光の方向を変えて複数の低分解能画像を得て画像処理によって高分解能化してよい。
 情報処理装置は、本開示のプログラムがインストールされた汎用コンピュータであっても良い。そのような情報処理装置の典型例は、プロセッサとメモリとを備え、メモリに格納されたプロクラムの命令によって動作する。その結果、プロセッサとメモリとを備える装置が、全体として、後述する各機能ブロックを備える装置として機能し得る。本開示における情報処理装置が備える各機能ブロックは、専用のハードウェア、または、ハードウェアおよびソフトウェアの組み合わせによって実現されていても良い。
 患者の標本画像から算出された特徴量と患者情報とが対応付けられたデータベースは、情報処理装置が備える記憶装置に設けられていても良いし、デジタルネットワークを介して情報処理装置に接続され得るデータストレージまたはデータサーバに設けられていても良い。画像の特徴量としては、公知の種々の特徴量が選択可能であり、患者情報の検索は公知のマッチング技術によって実現し得る。
 以下、図面を参照しながら本開示の第三実施形態を説明する。
(第三実施形態)
 図43は、本実施形態における検体管理装置の全体の構成例を示す図である。
 図示されている検体管理装置は、標本像取得装置1110と情報処理装置1230とを備えている。標本像取得装置1110は、図44に示されるように、病理標本1030が置かれる標本支持部1100と、病理標本1030の画像を複数の分解能(倍率)のうちの指定された一つの分解能(倍率)で取得する撮像素子1220とを有する。撮像素子1220としては、多数の光電変換部が撮像面内に行および列状に配列された2次元イメージセンサが採用され得る。光電変換部は、典型的には、半導体層または半導体基板に形成されたフォトダイオードであり、入射光を受けて電荷を生成する。2次元イメージセンサの分解能は、撮像面上における光電変換部の配列ピッチまたは配列密度に依存する。個々の光電変換部の配列ピッチは、可視光の波長程度まで短くなっている。撮像素子1220の典型例は、CCD(Charge Coupled Device)イメージセンサまたはMOS(Metal Oxide Semiconductor)型イメージセンサである。
 情報処理装置1230は、標本像取得装置1110によって取得された画像の特徴量を求め、その特徴量に基づいて病理標本1030の患者情報を出力装置1170に出力させるように構成されている。より詳細には、情報処理装置1230は、患者の標本画像から算出された特徴量と患者情報とが対応付けられたデータベースを参照して、病理標本1030の画像の特徴量に一致する患者情報を検索する。
 情報処理装置1230は、入力装置1160および出力装置1170に接続されている。入力装置1160は、ユーザが情報処理装置1230に対してデータを入力したり、命令を入力したりする装置である。入力装置1160は、キーボード、マウス、タッチスクリーンなどであり得る。出力装置1170は、画像および文字を表示し得るディスプレイ、プリンタ、スピーカなどであり得る。入力装置1160および出力装置1170はタッチスクリーンと表示装置とが一体化された装置であってもよい。
 情報処理装置1230は、画像の特徴量に一致する1つの患者情報がデータベースに含まれていた場合、その患者情報を出力装置1170に出力する。また、画像の特徴量に一致する複数の患者情報がデータベースに含まれていた場合、情報処理装置1230は、その画像の分解能よりも高い分解能を有する高分解能画像を取得した上で、データベースを参照して高分解能画像の特徴量に一致する患者情報を検索する。更に、画像の特徴量に一致する1つの患者情報がデータベースに含まれていなかった場合、情報処理装置1230は、入力装置1160から患者情報の入力を受け取り、画像から算出された特徴量と患者情報とを対応付けて前記データベースに格納する。このとき、標本像取得装置1110は、最初に取得した画像の分解能よりも高い分解能を有する高分解能画像を取得し、情報処理装置1230は、取得した各画像から算出された特徴量と患者情報とを対応付けてデータベースに格納する。
 図45は、本開示の第三実施形態における検体管理装置のブロック図である。図45に示されるように、本実施形態における検体管理装置は、標本支持部1100と、標本像取得装置1110と、画像特徴量算出部1120と、情報検索部1130と、患者情報データベース(以下、単に「データベース」と称する。)1140と、倍率変更部1150と、入力装置1160と、出力装置1170とを備えている。
 患者情報を取得または更新したい病理標本1030が標本支持部1100上に置かれる。病理標本1030は、例えば、病理検査で使用されている一般的なスライドであり得る。
 標本像取得装置1110は、標本支持部1100に置かれた病理標本1030の画像を、予め定められた複数の異なる倍率のうちの1つの倍率で取り込む。画像特徴量算出部1120は、標本像取得装置1110で取得された標本像から画像特徴量を算出する。情報検索部1130は、患者情報と画像特徴量が対応付けられて蓄積されたデータベース1140から、画像特徴量算出部1120で算出された画像特徴量と一致する患者情報が存在するかを検索する。倍率変更部1150は、情報検索部1130によって取得した検索結果が複数存在する場合、取得する倍率を高い倍率(高い分解能)に変更し、標本像取得装置1110によって再度画像の取り込みを行い、高い倍率での標本の検索を行う。
 入力装置1160は、情報検索部1130によって画像特徴量が一致する患者情報を取得できなかった場合、新規患者の標本として、患者情報の入力を受けつける。出力装置1170は、情報検索部1130によって画像特徴量が一致する患者情報を取得できた場合、取得された患者情報を出力する。
 以下、本開示の実施形態における各部の動作および構成をより詳しく説明する。
<検体管理装置の動作>
 まず、図46を参照する。図46は、検体管理の手順を示すフローチャートである。
 ステップS10では、患者情報を参照し、または更新したい標本を標本支持部1100上に置く。標本支持部1100は、図44に示すように、病理標本1030がちょうど収まる大きさの凹部を有し得る。このような標本支持部1100によれば、画像を取り込む際に標本1030の位置ずれが生じることを抑制できる。日本では、規格で定められた76mm×26mmのサイズの病理標本が一般的に使用される。標本支持部1100は、このような大きさの病理標本1030がセットされ得る形状を有している。
 再び図46を参照する。ステップS11では、標本像取得装置1110によって、予め定められた複数の異なる倍率のうちの1つの倍率によって病理標本1030の画像を取得する。図47は、標本像取得装置1110の構成例を示すブロック図である。標本像取得装置1110は、照明方向調節部11200と、照明装置1210と、撮像素子1220とを有している。情報処理装置1230によって指定された任意の倍率で標本の像(例えば、全体像)を取得する。
 異なる倍率の画像を取得する際、逆行列計算部1240および行列格納部1250を用いて高解像化を行うことができる。逆行列計算部1240および行列格納部1250は、図47に例示するように、情報処理装置1230内に設けられていても良いが、逆行列計算部1240および行列格納部1250の一方または両方が標本像取得装置1110の内部に設けられていても良い。逆行列計算部1240および行列格納部1250の動作の詳細については後述する。
 次に、図48を参照しながら、本実施形態における画像取得の処理手順の例を説明する。
 まず、ステップS110において、標本1030に照射する平行光照明の角度を照明方向調節部1200によって調節する。照明方向を調整する方法としては、図49Aに示すように、予め定められた角度で光を照射できるように複数の光源を設置しておいても良いし、図49Bに示すように、1つの光源を指定された角度に移動させてもよい。
 ステップS111では、照明装置1210によって、ステップS110で調整された角度で撮影対象の標本に対して平行光を照射する。照明方向の変化の例を図50Aおよび図50Bに示す。標本1030と撮像素子1220とは、図51に示すように、2次元的な配置関係を有している。図50Aおよび図50Bでは、簡単のため、1つのフォトダイオード(PD)を含む1画素領域の断面を模式的に示している。フォトダイオードPDに入射した光は、光電変換により、電気信号に変換される。図50Aおよび図50Bにおいて、矢印の太さはPDに入射する光の量を表しており、太い矢印ほど多くの光が入射していることを表している。
 図50Aの例では、真上から平行光を照射している。この場合、フォトダイオードPDには標本1030中の領域S2、S3を透過した光が入射している。一方、図50Bの角度から平行光を照射した場合には、標本1030中の領域S2、S3、S4を透過した光がフォトダイオードPDに入射している。具体的には、標本1030中の領域S2およびS4の各々を透過した光の半分がフォトダイオードPDに入射し、領域S3を透過した光の略全てがフォトダイオードPDに入射している。この場合、図50Aの場合とは異なる画素値がフォトダイオードPDから出力されることになる。
 図50Aおよび図50Bの例では、1つの照射方向で撮影した画像では、領域S1、S2、S3、S4それぞれの画素値を求めることはできない。本実施形態における標本像取得装置では、図50Aおよび図50Bに示すように、照射方向を変更した状態で撮影した複数の画像から、領域S1、S2、S3、S4、それぞれの領域を透過した光に対応する画素値を求めることができる。これらの領域S1、S2、S3、S4は、1つの画素の大きさよりも小さい領域であり、サブ画素領域に相当する。以下、この点をより詳細に説明する。
 ここでは、4つの異なる方向1、2、3、4から標本1030に光を照射した場合を例にとる。異なる方向1、2、3、4から光が照射された状態で4枚の画像が取得される。4枚の画像を構成する画素のうち、同一の位置に存在する1つの画素に着目する。この着目する画素に含まれるフォトダイオードPDの出力を、光照射の方向1、2、3、4について、それぞれ、A1、A2、A3、A4とする。また、標本1030における領域S1、S2、S3、S4の光透過率を、それぞれ、S1、S2、S3、S4とする。この場合、図50Aに示される例では、A1=0×S1+1×S2+1×S3+0×S4の式が成立する。また、図50Bに示される例では、A2=0×S1+(1/2)×S2+1×S3+(1/2)×S4の式が成立する。図示していない光照射の方向3の例では、A3=0×S1+0×S2+(1/2)S3+1×S4が成立し、図示していない光照射の方向4の例では、A4=(1/2)×S1+1×S2+(1/2)S3+0×S4が成立しているとする。
 以上の例では、透過率S1、S2、S3、S4は、標本1030の組織構造に依存し、未知である。フォトダイオードPDの出力A1、A2、A3、A4は、4枚の画像を取得することにより、得られる。従って、4つの未知数S1、S2、S3、S4についての連立方程式が決まるため、演算により、S1、S2、S3、S4を求めることが可能になる。
 図52Aは、上記の例における連立方程式の係数の行列を示している。この行列の逆行列を出力A1、A2、A3、A4のベクトルに演算することにより、1画素よりも狭い領域(サブ画素領域)S1、S2、S3、S4の光透過率を求めることができる。その結果、4倍の分解能を持つ画像を得ることができる。言い換えると、撮像素子1220における画素密度の4倍の画素密度の高分解能画像を得ることができる。
 図52Aに示す行列の数値は、標本1030の組織構造には依存せず、撮像素子1220の構造および光照射の方向に依存する。同じ撮像素子1220であっても、光照射の方向が変わると、行列の数値が変化する。図52Bは、異なる方向1~8から光を照射した場合の行列の数値例を示している。この例では、サブ画素領域の個数は8であるため、少なくとも異なる方向1~8から標本1030に光を照射し、各画素について8個の出力を得れば、未知数である8個のサブ画素領域の光透過率を決定することができる。その結果、8倍の分解能を持つ画像を得ることができる。言い換えると、撮像素子1220における画素密度の8倍の画素密度の高分解能画像を得ることができる。
 本実施形態によれば、こうして画像の高分解能が実現する。言い換えると、照明方向を変えて撮像することにより、標本画像として、分解能(拡大倍率)の異なる画像を得ることができ、対物レンズを用いた焦点合わせが不要である。
 ステップS112では、撮像素子1220によって標本1030を撮影する。一般的なスキャナ等の装置では、ラインセンサが用いられることが多いが、撮像素子1220としてCCDイメージセンサなどのエリアセンサを用いることによって、標本の識別に必要な広範囲の画像を高速に撮影できる。また、本実施形態における標本像取得装置1110では、撮影倍率を制御するためのレンズを持たず、照射方向を変更した複数の画像から任意の倍率の画像を生成する。
 ステップS113では、指定された倍率の標本像を生成するために必要な画像が全て揃っているかを判定する。揃っている場合にはステップS114に進み、揃っていない場合には、ステップS110に戻り、必要な角度で照射された画像の取り込みを行う。
 ステップS114では、情報処理装置1230によって、ステップS110からステップS113で撮影された、照射方向の異なる複数の画像から、指定倍率の画像を生成する。指定倍率の画像を生成するために、予め照射方向とフォトダイオードPDに入射する光の量の関係を算出しておいた行列を行列格納部1250に格納しておく。図52Aおよび図52Bは、照明方向とセンサに入射する光の関係を示す行列の例を示す。このような行列は、照射角度とフォトダイオードPDの大きさ、求めたい画素の大きさから計算によって求めることが可能である。また、予め画素値がわかっているテスト標本を用いて、角度に応じてどの画素の光がどの程度フォトダイオードPDに入ったかを計測することによって実験的に算出しておいても良い。
 この照射方向と撮像素子に入射する光の関係を示す行列をM、各照射方向によって得られた画素値ベクトルをA、求めたい画素値のベクトルをSとすると、各画素について、MS=Aの関係が成り立つ。ここで行列M、Aの値はわかっているため、逆行列計算によってSの値を求める事ができる。ステップS114では、行列格納部1250から照明方向とフォトダイオードPDに入射する光の関係を示す行列を取得し、逆行列計算部1240によって各画素値を算出する。以上の構成の標本像取得装置1110を用いることにより、任意の倍率で標本の全体像を撮影する。
 ステップS12(図46)では、画像特徴算出部1120によって、ステップS11で取得された標本画像から、検体を識別するための画像特徴量を算出する。画像特徴量としては、平均輝度等の色情報、円形度等の形状特徴、SIFT、HOG、HLAC等の特徴を用いる。また、病理画像特有の特徴量として、核・細胞間の距離や核・細胞の色の比率といった特徴を用いることも可能である。
 病理画像の例を図53および図54に示す。図53は高倍率(例えば、200倍以上の倍率)で観察した場合の病理標本の例、図54は低倍率(例えば、10倍未満の倍率)で観察した時の病理標本の例である。倍率がN倍(Nは1以上の整数とする)になることは、画像の分解能(1画像を構成する画素数、また画素密度)がN×N倍に増加することに相当する。なお、表示装置の表示画面上の倍率は、撮像素子における画素ピッチに対する表示装置の画面ピッチの比率によって規定される。
 病理標本では、図53に示すように高い倍率で観察した場合、細胞や核が認識できる。標本によって、細胞・核間の配置や距離は異なるため、細胞・核間の平均距離などは標本を識別するための特徴として用いることができる。また、病理標本における観察対象の組織はそのままでは透明なため、染色を行い観察しやすくするのが一般的である。染色の種類としては基本的な染色方法であるHE染色や、特定の検査の目的に合わせて染色を行う各種の免疫染色が存在する。このような染色によって染め分けられた細胞・核の比率も特徴として使用可能である。例えば、免疫染色の1つであるKi-67では、増殖細胞は赤褐色、それ以外の細胞は青色に染め分けられる。このような比率は診断に使われる指標になるが、病理標本の識別情報としても有用である。また、本ステップでは、病理標本画像の倍率に応じて、重視する画像特徴量を変更しても良い。病理標本の場合、観察する倍率によって画像的な特徴が大きく異なるという特徴がある。図53のように高い倍率で観察した場合には細胞や核が認識できる画像となり、低倍率では、図54のように病理切片の全体の形状が捉えられる画像となる。このような特徴を考慮して、低倍率の画像では、円形度、SIFT(Scale-Invariant Feature Transform)、HOG(Histogram of Oriented Gradient)、HLAC(Higher-order Local AutoCorrelation)といった、一般的な形状認識に適した特徴量を中心に用いることができる。また、高倍率の画像では、細胞・核の距離や染色された色の比率のような病理標本特有の特徴を中心に用いることができる。具多的には、画像の分解能が基準値よりも低いとき、円形度、SIFT、HOG、HLACのいずれか1つ以上の特徴量を算出取得し、画像の分解能が基準値以上のとき、特徴量に加えて、細胞または核間の平均距離、および/または染色によって染め分けられた色の比率を算出するようにしてもよい。
 ステップS13では、情報検索部1130によって、ステップS12で算出された画像特徴量と一致する患者データをデータベース1140から取得する。データベースの例を図55に示す。データベースは病理標本画像から算出した画像特徴量、画像特徴量を算出した標本画像の撮影倍率、および患者情報が対応付けられた患者データを記憶する。このような形式で患者情報を保持しておくことで、ステップS12で算出された画像特徴量と一致する画像特徴量を持つ患者データをデータベースから検索することができる。検索の一致条件は、画像特徴量が完全に一致するものとしても良い。また、画像特徴量を例えばベクトルで表現した場合は、ベクトル間のユークリッド距離が予め定められた閾値以下の場合に一致する画像とみなすものとしてもよい。その他、データベースの構成は、図56に示すような形式であっても良い。図56の形式では、患者に応じたIDを付与することによって、同一患者の異なる染色の検査を関連付けて格納している。現在の病理検査(組織診)では、基本的な染色であるHE(ヘマトキシリン・エオジン)染色の他に、特定の目的の検査を行うための免疫染色が行われることが多い。このような同一患者の異なる染色の標本は、図57に示した例のように、色は全く異なるものの、標本の形状はほぼ同一であることが多い。これは、同一患者から複数の染色の標本を作成する場合、連続するスライスで作られることが多いためである。このような病理標本の性質を利用すれば、本開示では、検体の標本像を画像として取得しているため、取得された画像の形状的な特徴量を比較することによって、同一患者の異なる染色の標本を自動的に関連付けることが可能である。
 ステップS14では、ステップS13の検索の結果、ステップS12で算出した画像特徴量と同一の画像特徴量を持つ患者データが、データベース1140中に存在するかを判定する。同一の画像特徴量を持つ患者データが存在しない場合にはステップS15に、存在する場合にはステップS17に進む。
 ステップS15では、入力装置1160によって、ステップS10において置かれた病理標本に対応する患者情報の記入を求める。ステップS16では、ステップS15で入力された患者情報をステップS11で取得した標本像の倍率および、ステップS12で算出した画像特徴量と関連付けてデータベース1140に格納する。
 ステップS17では、ステップS13の検索の結果、ステップS12で算出した画像特徴量と同一の画像特徴量を持つ患者情報が、データベース1140中に複数存在するかを判定する。データベース中に、画像特徴量が一致する患者情報が複数存在し、1つに特定できない場合にはステップS18に、画像特徴量が一致する患者データが1つのみ存在した場合にはステップS19に進む。
 ステップS18では、患者情報が特定できなかった場合、標本像取得装置で取得する倍率を変更し、再度ステップS11に戻る。病理標本の場合、低倍率で形状が似ている場合にも、高倍率の細胞、核レベルで観察すれば必ず識別可能という特徴がある。一方で、ステップS11で標本の取り込みに要する時間は、倍率とトレードオフの関係にある。そのため、はじめは低倍率で識別を試み、認識できない場合に倍率を上げていくと効率がよい。具体的には、ステップS11からステップS17を患者情報が1つに特定できるまで、繰り返し撮影倍率を上げていく。なお、新規標本の患者情報をデータベースに追加する際、画像の特徴量のうち、色に依存しない形状特徴のみを用いて、データベース中に一致する症例がないかを検索し、一致する症例があった場合には、同一患者の異なる染色の標本として関連付けるようにしてもよい。
 ステップS19では、出力装置1170によって、ステップS13で取得された患者情報を出力する。出力装置1170は、表示装置またはプリンタを備えている必要は無い。出力装置1170は、外部の表示装置またはプリンタに接続され、それらの装置または機器に信号を出力する装置であってもよい。
 本実施形態の構成により、病理標本の正確かつ作業者の負担の少ない検体管理を実現できる。また、本構成の検体管理では、病理スライドにバーコードやICタグを付与する必要がなく、従来のスライドをそのまま使用することが出来る。
(第四実施形態)
 次に、図58および図59を参照して、本開示の第四実施形態における検体管理装置を説明する。
 本実施形態における標本像取得装置1110は、標本支持部に置かれた標本1030を図58に示すように移動させながら撮影することによって、高倍率の標本画像を生成するための複数の画像を撮影する。標本像取得装置1110以外の構成は、第三実施形態における検体管理装置の構成と同じである。
 図59は、本実施形態における標本像取得装置1110のブロック図である。本実施形態では、平行光の照射方向を変えることによって複数の画像を得る代わりに、標本自体を移動させながら撮影することによって、高倍率の画像を構成するための複数の画像を得る。行列格納部1250には、照明方向と撮像素子に入射する光の関係を表現する行列を格納する代わりに、移動方向、移動距離と撮像素子に入射する光の関係を表す行列を格納しておく。本構成の標本像取得装置1110は、ステップS110からステップS114とほぼ同様の処理によって、任意の倍率の画像を取得する機能を実現することができる。ただし、ステップS110では、平行光の照射角度を変更する代わりに、標本支持部に置かれた標本を移動する。本構成では、病理標本に照射する平行光の方向は一定でよい。ステップS111からステップS114は第三実施形態の処理と全く同じ処理を用いることによって、複数の低倍率画像から高倍率の画像を生成することができる。
 本開示の画像取得装置によれば、焦点合わせに時間がかかる顕微鏡を用いることなく高倍率の画像が得られるため、被写体が微細な組織を有する病理標本であっても高倍率の画像データを短時間で得ることができる。
 本開示の一態様による画像取得方法は、被写体を基準にして複数の異なる光源方向から、順次、照明光を出射し、前記照明光で前記被写体を照射する工程と、前記被写体を透過した前記照明光が入射する位置に配置された撮像装置により、前記異なる光源方向に応じて異なる複数の画像を取得する工程と、前記複数の画像を合成して、前記複数の画像の各々よりも分解能の高い前記被写体の高分解能画像を形成する工程とを含む。
 また、本開示の画像取得装置は、上述した照明装置および撮像素子、ならびに汎用的なコンピュータを備え、このコンピュータが、照明装置により、被写体を基準にして複数の異なる光源方向から、順次、照明光を出射し、照明光で前記被写体を照射し、被写体を透過した前記照明光が入射する位置に配置された撮像装置により、前記異なる光源方向に応じて異なる複数の画像を取得し、前記複数の画像を合成して、前記複数の画像の各々よりも分解能の高い前記被写体の高分解能画像を形成するように構成されていても良い。このような動作は、記録媒体に記録されたコンピュータプログラムによって実行され得る。
 本開示に係る画像取得装置、画像取得方法および画像処理プログラムは、焦点調整の手間を省き、高倍率の画像を取得することが可能になる。
1 画像取得装置
10 光源
11 撮像処理部
12 画像処理部
13 記憶装置
30 被写体
40 フォトダイオード
42 遮光膜
44 垂直電荷転送路
46 水平電荷転送路
50 画素
60a~60d 低分解能画像
111 照明
112 被写体支持部
113 撮像素子
114 ディスプレイ
115 出力部
121 照明条件調整部
122 画像情報取得部
123 光源位置決定部
124 画像構成処理部
131 光源位置情報サーバ
132 低分解能画像サーバ
300a~300d 低分解能画像の画素
400 半導体基板
402 配線層
406 透明層
600 高分解能画像

Claims (27)

  1.  被写体を基準にして複数の異なる照射方向から、順次、照明光を出射し、前記照明光で前記被写体を照射する照明システムと、
     前記被写体を透過した前記照明光が入射する位置に配置され、前記異なる照射方向に応じて異なる複数の画像を取得する撮像素子と、
     前記複数の画像を合成して、前記複数の画像の各々よりも分解能の高い前記被写体の高分解能画像を形成する画像処理部と、
    を備える画像取得装置。
  2.  前記被写体は、前記撮像素子に近接して配置され、
     前記被写体および前記撮像素子は、その間にレンズが介在しない状態で対向する、請求項1に記載の画像取得装置。
  3.  前記撮像素子の撮像面から前記被写体までの距離は、100μm以下である、請求項2に記載の画像取得装置。
  4.  前記複数の画像は、それぞれ、前記被写体の異なる部分から構成される像を含んでいる、請求項1から3のいずれかに記載の画像取得装置。
  5.  前記被写体は前記撮像素子に固定されており、
     前記撮像素子を着脱可能に保持する保持装置を備えている、請求項1から4のいずれかに記載の画像取得装置。
  6.  前記照明システムは、少なくとも4つの異なる照射方向から出射した照明光で前記被写体を照射し、
     前記撮像素子は、各々が前記被写体の異なる部分の像である少なくとも4つの異なる画像を取得し、
     前記画像処理部は、前記少なくとも4つの異なる画像を合成して前記被写体の高分解能画像を形成する、請求項1から5のいずれかに記載の画像取得装置。
  7.  前記光が前記被写体に入射する角度を調整する照明角度調整部を備え、
     前記照明角度調整部は、前記照明システムの前記異なる照射方向から順次出射された前記照明光が前記被写体の異なる部分を透過して前記撮像素子の光電変換部に入射するように、前記被写体に対する前記照明光の入射角度を調整する、請求項1から6のいずれかに記載の画像取得装置。
  8.  前記照明角度調整部は、前記被写体の姿勢および位置の少なくとも一方を変化させる機構を有している、請求項7に記載の画像取得装置。
  9.  前記機構は、ゴニオ機構および移動ステージの少なくとも一方を含んでいる、請求項8に記載の画像取得装置。
  10.  前記機構は、前記照明光の平行度を高める光学系を有している、請求項8または9に記載の画像取得装置。
  11.  前記照明システムは、前記照明光の平行度を高める光学系を有している、請求項8または9に記載の画像取得装置。
  12.  前記照明システムは、波長域が異なる光を出射することができる、請求項1から11のいずれかに記載の画像取得装置。
  13.  前記照明システムは、前記複数の異なる照射方向に対応した異なる位置に順次移動して前記照明光を出射する光源を有している、請求項1から12のいずれかに記載の画像取得装置。
  14.  前記照明システムは、前記複数の異なる照射方向に対応した異なる位置に配置され、順次、前記照明光を出射する複数の光源を有している、請求項1から13のいずれかに記載の画像取得装置。
  15.  被写体を基準にして複数の異なる照射方向から、順次、照明光を出射し、前記照明光で前記被写体を照射する工程と、
     前記被写体を透過した前記照明光が入射する位置に配置された撮像装置により、前記異なる照射方向に応じて異なる複数の画像を取得する工程と、
     前記複数の画像を合成して、前記複数の画像の各々よりも分解能の高い前記被写体の高分解能画像を形成する工程と、
    を備える画像取得方法。
  16.  照明装置と、撮像素子と、コンピュータとを備える画像取得装置であって、
     前記コンピュータは、
     前記照明装置により、被写体を基準にして複数の異なる照射方向から、順次、照明光を出射し、前記照明光で前記被写体を照射し、
     前記被写体を透過した前記照明光が入射する位置に配置された撮像装置により、前記異なる照射方向に応じて異なる複数の画像を取得し、
     前記複数の画像を合成して、前記複数の画像の各々よりも分解能の高い前記被写体の高分解能画像を形成する、画像取得装置。
  17.  照明装置と、撮像素子と、コンピュータとを備える画像取得装置のためのプログラムであって、
     前記照明装置により、被写体を基準にして複数の異なる照射方向から、順次、照明光を出射し、前記照明光で前記被写体を照射し、
     前記被写体を透過した前記照明光が入射する位置に配置された撮像装置により、前記異なる照射方向に応じて異なる複数の画像を取得し、
     前記複数の画像を合成して、前記複数の画像の各々よりも分解能の高い前記被写体の高分解能画像を形成するように構成されたプログラム。
  18.  被写体に対して光を照射し、姿勢および位置が固定されている光源と、
     前記被写体を複数の傾斜角度に傾斜させる傾斜機構と、
     前記被写体を透過した前記光が入射する位置に配置され、かつ前記被写体と一体的に前記傾斜機構により傾斜され、前記複数の傾斜角度に応じて複数の画像を取得する撮像素子と、
     前記複数の画像を合成して、前記複数の画像の各々よりも分解能の高い前記被写体の高分解能画像を形成する画像処理部と、
    を備える画像取得装置。
  19.  前記被写体は、前記撮像素子に近接して配置され、
     前記被写体および前記撮像素子は、その間にレンズが介在しない状態で対向する、請求項18に記載の画像取得装置。
  20.  前記撮像素子の撮像面から前記被写体までの距離は、100μm以下である、請求項19に記載の画像取得装置。
  21.  前記複数の画像は、それぞれ、前記被写体の異なる部分から構成される像を含んでいる、請求項18から20のいずれかに記載の画像取得装置。
  22.  前記被写体は前記撮像素子に固定されており、
     前記撮像素子を着脱可能に保持する保持装置を備えている、請求項18から21のいずれかに記載の画像取得装置。
  23.  前記傾斜機構は、ゴニオ機構または移動ステージの少なくとも一方を含んでいる、請求項18から22のいずれかに記載の画像取得装置。
  24.  前記傾斜機構は、前記光の平行度を高める光学系を有している、請求項18から23のいずれかに記載の画像取得装置。
  25.  前記光源は、前記光の平行度を高める光学系を有している、請求項18から24のいずれかに記載の画像取得装置。
  26.  被写体を複数の傾斜角度に傾斜させながら、固定された光源から前記被写体に対して照明光を照射する工程と、
     前記被写体を透過した前記照明光が入射する位置に配置された撮像装置により、前記複数の傾斜角度に応じて複数の画像を取得する工程と、
     前記複数の画像を合成して、前記複数の画像の各々よりも分解能の高い前記被写体の高分解能画像を形成する工程と、
    を備える画像取得方法。
  27.  コンピュータに対して、
     被写体を複数の傾斜角度に傾斜させながら、固定された光源から前記被写体に対して照明光を照射する工程と、
     前記被写体を透過した前記照明光が入射する位置に配置された撮像装置により、前記異なる照射方向に応じて異なる複数の画像を取得する工程と、
     前記複数の画像を合成して、前記複数の画像の各々よりも分解能の高い前記被写体の高分解能画像を形成する工程と、
     を実行させるプログラム。
PCT/JP2014/002987 2013-06-06 2014-06-05 画像取得装置、画像取得方法、およびプログラム WO2014196203A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014555025A JP5789766B2 (ja) 2013-06-06 2014-06-05 画像取得装置、画像取得方法、およびプログラム
CN201480031560.1A CN105308949B (zh) 2013-06-06 2014-06-05 图像获取装置、图像获取方法以及记录介质
EP14807756.3A EP3007428A4 (en) 2013-06-06 2014-06-05 IMAGE ACQUISITION DEVICE, IMAGE ACQUISITION METHOD, AND PROGRAM
US14/628,191 US9426363B2 (en) 2013-06-06 2015-02-20 Image forming apparatus image forming method and image sensor

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2013119692 2013-06-06
JP2013-119692 2013-06-06
JP2013121123 2013-06-07
JP2013-121123 2013-06-07

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/628,191 Continuation US9426363B2 (en) 2013-06-06 2015-02-20 Image forming apparatus image forming method and image sensor

Publications (1)

Publication Number Publication Date
WO2014196203A1 true WO2014196203A1 (ja) 2014-12-11

Family

ID=52007860

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/002987 WO2014196203A1 (ja) 2013-06-06 2014-06-05 画像取得装置、画像取得方法、およびプログラム

Country Status (5)

Country Link
US (1) US9426363B2 (ja)
EP (1) EP3007428A4 (ja)
JP (2) JP5789766B2 (ja)
CN (1) CN105308949B (ja)
WO (1) WO2014196203A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6004245B1 (ja) * 2014-11-27 2016-10-05 パナソニックIpマネジメント株式会社 画像取得装置、画像形成システムおよび画像形成方法
JP2018021894A (ja) * 2016-07-22 2018-02-08 パナソニックIpマネジメント株式会社 画像生成装置及び画像生成方法
JP2018117557A (ja) * 2017-01-24 2018-08-02 パナソニックIpマネジメント株式会社 画像生成装置及び画像生成方法
US10382678B2 (en) 2017-03-01 2019-08-13 Panasonic Intellectual Property Management Co., Ltd. Image generation apparatus and image generation method
US10607316B2 (en) 2016-07-22 2020-03-31 Panasonic Intellectual Property Management Co., Ltd. Image generating apparatus and image generating method

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6627083B2 (ja) * 2014-08-22 2020-01-08 パナソニックIpマネジメント株式会社 画像取得装置および画像形成システム
US11308601B2 (en) * 2015-04-29 2022-04-19 Emhart Glass S.A. Container inspection system with individual light control
WO2017038052A1 (ja) * 2015-08-28 2017-03-09 パナソニックIpマネジメント株式会社 撮像装置、及び固体撮像装置
AT518019A1 (de) * 2015-12-01 2017-06-15 Bernecker + Rainer Industrie-Elektronik Ges M B H Beleuchtung für industrielle Bildverarbeitung
US10163404B2 (en) * 2016-03-31 2018-12-25 Cae Inc. Image generator for suppressing a gap between two adjacent reflective surfaces
CN106060506B (zh) * 2016-05-19 2018-03-13 深圳市金立通信设备有限公司 一种图像处理方法及终端
JP6698451B2 (ja) * 2016-07-11 2020-05-27 オリンパス株式会社 観察装置
CN107734272B (zh) * 2017-09-30 2020-02-11 京东方科技集团股份有限公司 掩模板检测设备、掩模板检测方法以及相应的光源控制方法
KR102472924B1 (ko) * 2017-12-07 2022-12-01 삼성전기주식회사 촬상 광학계
KR102486426B1 (ko) * 2018-02-23 2023-01-09 엘지이노텍 주식회사 카메라 모듈
JP7213466B2 (ja) * 2019-03-28 2023-01-27 パナソニックIpマネジメント株式会社 カメラシステム、搭乗者監視システム、移動装置、撮像方法及びプログラム
JP6708862B1 (ja) * 2019-12-09 2020-06-10 株式会社 アルステクネ 画像処理方法、プログラム、及び画像処理装置
US11950000B2 (en) * 2022-09-07 2024-04-02 Microsoft Technology Licensing, Llc Resolution enhancement in spatial-frequency space

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62137037A (ja) 1985-12-11 1987-06-19 株式会社東芝 X線撮影装置
JPH052033A (ja) 1990-11-15 1993-01-08 Fujitsu Ltd 電流センサ及びその検出電流範囲の設定方法
WO1998030022A1 (fr) * 1996-12-26 1998-07-09 Sony Corporation Dispositif d'acquisition d'images a haute resolution et procede de capture d'images
JP2000295639A (ja) * 1999-04-08 2000-10-20 Nikon Corp 固体撮像素子検査用照明装置及びそれに用いる調整工具
JP2012185384A (ja) * 2011-03-07 2012-09-27 Nikon Corp 撮像装置

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05316434A (ja) * 1992-05-12 1993-11-26 Olympus Optical Co Ltd 高分解能撮像装置
JP3422045B2 (ja) * 1993-06-21 2003-06-30 株式会社日立製作所 組成及び格子歪測定用電子顕微鏡及びその観察方法
ID24380A (id) * 1997-04-01 2000-07-13 Johns Hopkins University Cs Sebuah sistem untuk pencitraan suatu fudus okuler secara semi otomatis dengan resolusi tinggi dan bidang yang lebar
JPH1132256A (ja) * 1997-07-09 1999-02-02 Sony Corp 撮像装置
JP2003319146A (ja) * 2002-04-22 2003-11-07 Pentax Corp フィルムスキャナ
JP3975133B2 (ja) 2002-08-26 2007-09-12 株式会社エスアールエル タグ書込装置
US6895076B2 (en) * 2003-06-03 2005-05-17 Ge Medical Systems Global Technology Company, Llc Methods and apparatus for multiple image acquisition on a digital detector
JP4172416B2 (ja) * 2004-04-22 2008-10-29 国立大学法人東京工業大学 超解像処理に適するサブピクセルモーション画像を撮影するための移動決定方法及びそれを用いた撮像装置、並びに移動方向の評価方法
US20070279536A1 (en) * 2006-06-05 2007-12-06 Chinh Tan Arrangement for and method of projecting an image to be viewed over extended viewing range
WO2008137746A1 (en) * 2007-05-04 2008-11-13 Aperio Technologies, Inc. Rapid microscope scanner for volume image acquisition
JP2009129365A (ja) * 2007-11-27 2009-06-11 Sony Corp 撮像装置およびその方法
JP2009129364A (ja) * 2007-11-27 2009-06-11 Sony Corp 撮像装置およびその方法
US7991245B2 (en) * 2009-05-29 2011-08-02 Putman Matthew C Increasing image resolution method employing known background and specimen
JP5497386B2 (ja) * 2009-09-11 2014-05-21 浜松ホトニクス株式会社 画像取得装置
JP5311664B2 (ja) 2009-09-30 2013-10-09 富士フイルム株式会社 検体管理システム、検体管理方法、検体管理プログラム
CN102792151B (zh) * 2010-03-23 2015-11-25 加州理工学院 用于2d和3d成像的超分辨率光流体显微镜
JP2012003214A (ja) * 2010-05-19 2012-01-05 Sony Corp 情報処理装置、情報処理方法、プログラム、撮像装置、及び光学顕微鏡を搭載した撮像装置
US20120092480A1 (en) * 2010-05-28 2012-04-19 Putman Matthew C Unique digital imaging method employing known background
JP5738564B2 (ja) * 2010-09-30 2015-06-24 オリンパス株式会社 画像処理システム
US8866063B2 (en) * 2011-03-31 2014-10-21 The Regents Of The University Of California Lens-free wide-field super-resolution imaging device
JP5350532B2 (ja) * 2011-12-27 2013-11-27 キヤノン株式会社 画像処理装置、画像表示システム、画像処理方法および画像処理プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62137037A (ja) 1985-12-11 1987-06-19 株式会社東芝 X線撮影装置
JPH052033A (ja) 1990-11-15 1993-01-08 Fujitsu Ltd 電流センサ及びその検出電流範囲の設定方法
WO1998030022A1 (fr) * 1996-12-26 1998-07-09 Sony Corporation Dispositif d'acquisition d'images a haute resolution et procede de capture d'images
JP2000295639A (ja) * 1999-04-08 2000-10-20 Nikon Corp 固体撮像素子検査用照明装置及びそれに用いる調整工具
JP2012185384A (ja) * 2011-03-07 2012-09-27 Nikon Corp 撮像装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3007428A4

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6004245B1 (ja) * 2014-11-27 2016-10-05 パナソニックIpマネジメント株式会社 画像取得装置、画像形成システムおよび画像形成方法
JP2018021894A (ja) * 2016-07-22 2018-02-08 パナソニックIpマネジメント株式会社 画像生成装置及び画像生成方法
US10607316B2 (en) 2016-07-22 2020-03-31 Panasonic Intellectual Property Management Co., Ltd. Image generating apparatus and image generating method
JP2018117557A (ja) * 2017-01-24 2018-08-02 パナソニックIpマネジメント株式会社 画像生成装置及び画像生成方法
US10379336B2 (en) 2017-01-24 2019-08-13 Panasonic Intellectual Property Management Co., Ltd. Image generating apparatus and image generating method
US10382678B2 (en) 2017-03-01 2019-08-13 Panasonic Intellectual Property Management Co., Ltd. Image generation apparatus and image generation method

Also Published As

Publication number Publication date
CN105308949A (zh) 2016-02-03
EP3007428A1 (en) 2016-04-13
JP5789766B2 (ja) 2015-10-07
US20150172575A1 (en) 2015-06-18
US9426363B2 (en) 2016-08-23
JP6307770B2 (ja) 2018-04-11
JPWO2014196203A1 (ja) 2017-02-23
EP3007428A4 (en) 2016-05-11
JP2015128322A (ja) 2015-07-09
CN105308949B (zh) 2018-11-09

Similar Documents

Publication Publication Date Title
JP6307770B2 (ja) 撮像素子
JP6265153B2 (ja) 撮像素子
US10838192B2 (en) Method and device for high-resolution color imaging using merged images from holographic and lens-based devices
JP5698398B2 (ja) スライド全体蛍光スキャナ
US11482021B2 (en) Adaptive sensing based on depth
JP2021193459A (ja) 二重光学経路および単一撮像センサを使用した低解像度スライド撮像、スライドラベル撮像および高解像度スライド撮像
JP7009619B2 (ja) 2回通過式マクロ画像
US11828927B2 (en) Accelerating digital microscopy scans using empty/dirty area detection
CN115032196A (zh) 一种全划片高通量彩色病理成像分析仪器及方法
JP6952891B2 (ja) 2×3および1×3スライド用のカルーセル
JP2019045737A (ja) 観察装置
US20230258918A1 (en) Digital microscope with artificial intelligence based imaging

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201480031560.1

Country of ref document: CN

ENP Entry into the national phase

Ref document number: 2014555025

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14807756

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2014807756

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2014807756

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE