WO2016027448A1 - 画像取得装置および画像形成システム - Google Patents

画像取得装置および画像形成システム Download PDF

Info

Publication number
WO2016027448A1
WO2016027448A1 PCT/JP2015/004065 JP2015004065W WO2016027448A1 WO 2016027448 A1 WO2016027448 A1 WO 2016027448A1 JP 2015004065 W JP2015004065 W JP 2015004065W WO 2016027448 A1 WO2016027448 A1 WO 2016027448A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
subject
image sensor
stage
light
Prior art date
Application number
PCT/JP2015/004065
Other languages
English (en)
French (fr)
Inventor
廣瀬 裕
慶祐 矢澤
信三 香山
加藤 剛久
本村 秀人
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to CN201580044186.3A priority Critical patent/CN106576129A/zh
Priority to JP2016543810A priority patent/JP6627083B2/ja
Publication of WO2016027448A1 publication Critical patent/WO2016027448A1/ja
Priority to US15/426,125 priority patent/US20170146790A1/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • G02B21/367Control or image processing arrangements for digital or video microscopes providing an output produced by processing a plurality of individual source images, e.g. image tiling, montage, composite images, depth sectioning, image comparison
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/06Means for illuminating specimens
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/06Means for illuminating specimens
    • G02B21/08Condensers
    • G02B21/086Condensers for transillumination only
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/24Base structure
    • G02B21/26Stages; Adjusting means therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/48Increasing resolution by shifting the sensor relative to the scene
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2201/00Features of devices classified in G01N21/00
    • G01N2201/06Illumination; Optics
    • G01N2201/062LED's
    • G01N2201/0627Use of several LED's for spectral resolution
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B2207/00Coding scheme for general features or characteristics of optical elements and systems of subclass G02B, but not including elements and systems which would be classified in G02B6/00 and subgroups
    • G02B2207/123Optical louvre elements, e.g. for directional light blocking

Definitions

  • the present application relates to an image acquisition apparatus and an image forming system.
  • an optical microscope has been used to observe a microstructure in a living tissue or the like.
  • the optical microscope uses light transmitted through an observation object or reflected light.
  • the observer observes the image magnified by the lens.
  • a digital microscope that takes an image magnified by a microscope lens and displays it on a display. By using a digital microscope, simultaneous observation by multiple people, observation at a remote location, etc. are possible.
  • the observation target is arranged close to the imaging surface of the image sensor.
  • the image sensor a two-dimensional image sensor in which a large number of photoelectric conversion units are generally arranged in rows and columns in the imaging surface is used.
  • the photoelectric conversion unit is typically a photodiode formed on a semiconductor layer or a semiconductor substrate, and generates charge upon receiving incident light.
  • the image acquired by the image sensor is defined by a large number of pixels. Each pixel is partitioned by a unit region including one photoelectric conversion unit. Therefore, the resolution (resolution) in the two-dimensional image sensor usually depends on the arrangement pitch or arrangement density of the photoelectric conversion units on the imaging surface. In this specification, the resolution determined by the arrangement pitch of the photoelectric conversion units may be referred to as “inherent resolution” of the image sensor. Since the arrangement pitch of the individual photoelectric conversion units is as short as the wavelength of visible light, it is difficult to further improve the intrinsic resolution.
  • Patent Document 1 discloses a technique for forming an image of a subject using a plurality of images obtained by shifting the imaging position of the subject.
  • the present disclosure provides an image acquisition apparatus and an image forming system that can improve the practicality of a high resolution technology that realizes a resolution exceeding the intrinsic resolution of an image sensor.
  • An optical system having a lens and a light source disposed in the focal plane of the lens, the optical system generating collimated illumination light, and configured to change the irradiation direction of the illumination light on a subject
  • An illumination angle adjusting mechanism and a stage configured to be detachably loaded with a module in which the subject and the image sensor are integrated so that the illumination light transmitted through the subject enters the image sensor.
  • a stage having a circuit for receiving the output of the image sensor in a state where the module is loaded.
  • the practicality of the high resolution technology that realizes a resolution exceeding the intrinsic resolution of the image sensor is improved.
  • FIG. 1A is a plan view schematically showing a part of the subject 2.
  • FIG. 1B is a plan view schematically showing extracted photodiodes related to imaging of the region shown in FIG. 1A.
  • FIG. 2A is a diagram schematically showing the direction of light rays that pass through the subject 2 and enter the photodiode 4p.
  • FIG. 2B is a plan view schematically showing an arrangement example of the six photodiodes 4p of interest.
  • FIG. 2C is a diagram schematically illustrating the six pixels Pa acquired by the six photodiodes 4p.
  • FIG. 3A is a diagram schematically illustrating a state in which light rays are incident from a second direction different from the first direction.
  • FIG. 3A is a diagram schematically illustrating a state in which light rays are incident from a second direction different from the first direction.
  • FIG. 3B is a plan view schematically showing the arrangement of the six photodiodes 4p of interest.
  • FIG. 3C is a diagram schematically illustrating six pixels Pb acquired by the six photodiodes 4p.
  • FIG. 4A is a diagram schematically illustrating a state in which light rays are incident from a third direction different from the first direction and the second direction.
  • FIG. 4B is a plan view schematically showing the arrangement of the six photodiodes 4p of interest.
  • FIG. 4C is a diagram schematically illustrating six pixels Pc acquired by the six photodiodes 4p.
  • FIG. 5A is a diagram schematically illustrating a state in which light rays are incident from a fourth direction different from the first direction, the second direction, and the third direction.
  • FIG. 5A is a diagram schematically illustrating a state in which light rays are incident from a fourth direction different from the first direction, the second direction, and the third direction.
  • FIG. 5B is a plan view schematically showing the arrangement of the six photodiodes 4p of interest.
  • FIG. 5C is a diagram schematically illustrating six pixels Pd acquired by the six photodiodes 4p.
  • FIG. 6 is a diagram showing a high-resolution image HR synthesized from four sub-images Sa, Sb, Sc and Sd.
  • FIG. 7 is a diagram schematically showing an irradiation direction adjusted so that light beams that have passed through two adjacent regions of the subject 2 enter different photodiodes.
  • FIG. 8 is a diagram schematically illustrating an example of a cross-sectional structure of the module.
  • FIG. 9 is a diagram illustrating a schematic configuration of an image acquisition device according to an embodiment of the present disclosure.
  • FIG. 10 is a diagram illustrating an example of a configuration of an image acquisition device according to an embodiment of the present disclosure.
  • FIG. 11 is a diagram illustrating an example of the configuration of the illumination angle adjustment mechanism.
  • FIG. 12 is a diagram illustrating another example of the configuration of the illumination angle adjustment mechanism.
  • FIG. 13 is a diagram showing a configuration in which a plurality of light sources are dispersedly arranged as a comparative example.
  • FIG. 14 is a diagram illustrating another example of the configuration of the image acquisition device according to the embodiment of the present disclosure.
  • FIG. 15 is a diagram illustrating still another example of the configuration of the illumination angle adjustment mechanism.
  • FIG. 16 is a diagram illustrating still another example of the configuration of the illumination angle adjustment mechanism.
  • FIG. 17 is a diagram illustrating still another example of the configuration of the image acquisition device according to the embodiment of the present disclosure.
  • FIG. 18 is a diagram illustrating still another example of the configuration of the illumination angle adjustment mechanism.
  • FIG. 19 is a schematic diagram illustrating an exemplary circuit configuration and signal flow in an image forming system according to an embodiment of the present disclosure.
  • FIG. 20 is a schematic diagram illustrating another example of the configuration of the image forming system.
  • FIG. 21 is a diagram illustrating a cross-sectional structure of a CCD image sensor and an example of a distribution of relative transmittance Td of a subject.
  • FIG. 22A is a diagram showing a cross-sectional structure of a backside illuminated CMOS image sensor and an example of a distribution of relative transmittance Td of a subject.
  • FIG. 22B is a diagram illustrating a cross-sectional structure of a backside illuminated CMOS image sensor and an example of a distribution of relative transmittance Td of a subject.
  • FIG. 23 is a diagram illustrating a cross-sectional structure of a photoelectric conversion film stacked image sensor and an example of a distribution of relative transmittance Td of a subject.
  • FIGS. 1A to 6 First, the principle of imaging according to an embodiment of the present disclosure will be described with reference to FIGS. 1A to 6.
  • an image having a higher resolution than each of the plurality of images hereinafter, “high” A resolution image ”.
  • a CCD (Charge-Coupled Device) image sensor will be described as an example.
  • FIG. 1A is a plan view schematically showing a part of the subject 2, and FIG. 1B shows that photodiodes related to imaging of the region shown in FIG. 1A are extracted from the photodiodes 4 p of the image sensor 4.
  • FIG. 1B shows arrows indicating the x, y, and z directions orthogonal to each other.
  • the z direction indicates the normal direction of the imaging surface.
  • an arrow indicating the u direction that is a direction rotated by 45 ° from the x axis toward the y axis in the xy plane is also illustrated.
  • an arrow indicating the x direction, the y direction, the z direction, or the u direction may be illustrated.
  • Components other than the photodiode 4p in the image sensor 4 are covered with a light shielding layer.
  • the hatched area indicates an area covered with the light shielding layer.
  • the area (S2) of the light receiving surface of one photodiode on the imaging surface of the CCD image sensor is smaller than the area (S1) of the unit region including the photodiode.
  • the ratio (S2 / S1) of the light receiving area S2 to the pixel area S1 is called "aperture ratio".
  • aperture ratio is 25%.
  • FIG. 2A schematically shows the direction of light rays that pass through the subject 2 and enter the photodiode 4p.
  • FIG. 2A shows a state in which light rays are incident from a direction (first direction) perpendicular to the imaging surface.
  • FIG. 2B is a plan view schematically showing an arrangement example of the six photodiodes 4p of interest
  • FIG. 2C is a diagram schematically showing the six pixels Pa acquired by the six photodiodes 4p. It is.
  • Each of the plurality of pixels Pa has a value (pixel value) indicating the amount of light incident on the individual photodiode 4p.
  • an image Sa (first sub-image Sa) is configured from the pixels Pa in FIG. 2C.
  • the first sub-image Sa includes, for example, regions A1, A2, A3, A4, A5, and A6 (see FIG. 1A) located immediately above the six photodiodes 4p shown in FIG. Have information.
  • the image of the subject 2 is acquired using substantially parallel light rays that pass through the subject 2.
  • a lens for imaging is not disposed between the subject 2 and the image sensor 4.
  • the distance from the imaging surface of the image sensor 4 to the subject 2 is typically 1 mm or less, and can be set to about 1 ⁇ m, for example.
  • FIG. 3A shows a state in which light rays are incident from a second direction different from the first direction shown in FIG. 2A.
  • FIG. 3B schematically shows the arrangement of the six photodiodes 4p of interest
  • FIG. 3C schematically shows the six pixels Pb acquired by the six photodiodes 4p.
  • An image Sb (second sub-image Sb) is composed of the pixels Pb in FIG. 3C.
  • the second sub-image Sb includes information on areas B1, B2, B3, B4, B5, and B6 (see FIG. 1A) different from the areas A1, A2, A3, A4, A5, and A6 in the entire subject 2.
  • the region B1 is a region adjacent to the right side of the region A1, for example.
  • the first sub image Sa and the second sub image Sb can include pixel information corresponding to different positions in the subject 2.
  • FIG. 4A shows a state in which light is incident from a first direction shown in FIG. 2A and a third direction different from the second direction shown in FIG. 3A.
  • the light rays shown in FIG. 4A are inclined in the y direction with respect to the z direction.
  • FIG. 4B schematically shows an array of six photodiodes 4p of interest
  • FIG. 4C schematically shows six pixels Pc acquired by the six photodiodes 4p.
  • An image Sc (third sub-image Sc) is composed of the pixels Pc in FIG. 4C.
  • the third sub-image Sc has information on the areas C1, C2, C3, C4, C5 and C6 shown in FIG.
  • the region C1 is, for example, a region adjacent to the upper side of the region A1.
  • FIG. 5A shows a state in which light rays are incident from a first direction shown in FIG. 2A, a second direction shown in FIG. 3A, and a fourth direction different from the third direction shown in FIG. 4A.
  • the light beam shown in FIG. 5A is inclined in a direction that forms an angle of 45 ° with the x axis in the xy plane with respect to the z direction.
  • FIG. 5B schematically shows an array of six photodiodes 4p of interest
  • FIG. 5C schematically shows six pixels Pd acquired by the six photodiodes 4p.
  • An image Sd (fourth sub-image Sd) is composed of the pixels Pd in FIG. 5C.
  • the fourth sub-image Sd has information on areas D1, D2, D3, D4, D5, and D6 shown in FIG.
  • the region D1 is, for example, a region adjacent to the right side of the region C1.
  • FIG. 6 shows a high-resolution image HR synthesized from four sub-images Sa, Sb, Sc, and Sd.
  • the number of pixels or the pixel density of the high-resolution image HR is four times the number of pixels or the pixel density of each of the four sub-images Sa, Sb, Sc, and Sd.
  • the pixel Pa1 of the sub-image Sa illustrated in FIG. 6 has information on only the area A1, not the entire block described above. Therefore, it can be said that the sub-image Sa is an image in which information on the areas B1, C1, and D1 is missing.
  • the resolution of each sub-image is equal to the intrinsic resolution of the image sensor 4.
  • the information missing in the sub-image Sa is complemented as shown in FIG. It is possible to form a high resolution image HR.
  • a resolution four times the intrinsic resolution of the image sensor 4 is obtained.
  • the degree of high resolution (super-resolution) depends on the aperture ratio of the image sensor. In this example, since the aperture ratio of the image sensor 4 is 25%, the maximum resolution can be increased up to 4 times by light irradiation from four different directions.
  • N is an integer greater than or equal to 2 if the aperture ratio of the image sensor 4 is approximately equal to 1 / N, the resolution can be increased up to N times.
  • the sub-images Sa, Sb, Sc, and Sd shown in FIG. 6 have pixel information of different areas in the subject 2 and do not overlap. However, there may be overlap between different sub-images.
  • the light rays that have passed through two adjacent areas in the subject 2 are both incident on the same photodiode.
  • the setting of the irradiation direction is not limited to this example.
  • the irradiation direction may be adjusted so that light beams that have passed through two adjacent regions of the subject 2 enter different photodiodes.
  • a high-resolution image can be formed if the relative arrangement between a region through which a light ray passes in a subject and a photodiode on which a transmitted light beam is incident is known.
  • the irradiation direction is not limited to the first to fourth directions described with reference to FIGS. 2A to 5A.
  • a configuration of a module used in the embodiment of the present disclosure will be described.
  • a module having a structure in which a subject and an image sensor are integrated is used.
  • FIG. 8 schematically shows an example of a cross-sectional structure of the module.
  • the subject 2 is disposed on the imaging surface 4A side of the image sensor 4.
  • the subject 2 covered with the encapsulant 6 is sandwiched between the image sensor 4 and a transparent plate (typically a glass plate) 8.
  • a transparent plate typically a glass plate
  • the transparent plate 8 for example, a general slide glass can be used.
  • the image sensor 4 is fixed to the package 5.
  • the package 5 has a back electrode 5 ⁇ / b> B on the surface opposite to the transparent plate 8.
  • the back electrode 5 ⁇ / b> B is electrically connected to the image sensor 4 through a wiring pattern (not shown) formed on the package 5. That is, the output of the image sensor 4 can be taken out via the back electrode 5B.
  • the subject 2 can be a slice of biological tissue (typically having a thickness of several tens of ⁇ m or less).
  • a module having a slice of biological tissue as the subject 2 can be used for pathological diagnosis.
  • the module M includes an image sensor that acquires an image of a subject, unlike a preparation that supports a subject (typically, a slice of biological tissue) in observation with an optical microscope.
  • Such a module may be called an “electronic preparation”.
  • the subject 2 When acquiring an image of the subject 2 using the module M, the subject 2 is irradiated with illumination light through the transparent plate 8. Illumination light transmitted through the subject 2 enters the image sensor 4. By obtaining a plurality of different images by changing the angle at the time of irradiation, it is possible to form an image with higher resolution than each of these images.
  • the present disclosure provides an image acquisition device (digitizer) and an image forming system that can improve the practicality of a high resolution technology that realizes a resolution exceeding the intrinsic resolution of an image sensor.
  • the image acquisition apparatus includes an optical system, an illumination angle adjustment mechanism, and a stage.
  • the optical system has a lens and a light source disposed in the focal plane of the lens.
  • the optical system generates collimated illumination light.
  • the illumination angle adjustment mechanism is configured to be able to change the irradiation direction of the illumination light with the subject as a reference in a plurality of different directions.
  • the stage is configured so that a module in which the subject and the image sensor are integrated is detachably loaded so that illumination light transmitted through the subject enters the image sensor.
  • the stage has a circuit that receives the output of the image sensor when the module is loaded.
  • the illumination angle adjustment mechanism includes a mechanism that can independently rotate at least one of the direction of the stage and the light source around two orthogonal axes.
  • the illumination angle adjustment mechanism includes a gonio mechanism that changes at least one of the posture of the stage and the direction of the light source.
  • the illumination angle adjustment mechanism includes a mechanism for rotating at least one of the stage and the light source with respect to a rotation axis passing through the center of the stage.
  • the illumination angle adjustment mechanism includes a slide mechanism that translates at least one of a stage, a light source, and a lens.
  • the light source has a set of a plurality of light emitting elements that emit light in different wavelength ranges.
  • the light source has a plurality of sets of light emitting elements.
  • the plurality of sets are arranged at different positions.
  • the lens is an achromatic lens.
  • the stage includes a first circuit board including a first processing circuit that converts the output of the image sensor into a digital signal and outputs the digital signal.
  • the stage includes a second circuit board including a second processing circuit that generates a control signal for the image sensor, and the second circuit board is integrally coupled to the first circuit board.
  • the image acquisition apparatus further includes a third processing circuit configured to sequentially perform an averaging process every time an image signal indicating an image of a subject is obtained according to a plurality of different directions.
  • An image forming system includes any of the image acquisition apparatuses described above and an image processing apparatus.
  • the image processing apparatus forms a high-resolution image of a subject having a higher resolution than each of the plurality of images by combining the plurality of images acquired by changing the irradiation direction of the illumination light.
  • FIG. 9 shows a schematic configuration of an image acquisition device according to an embodiment of the present disclosure.
  • An image acquisition apparatus 100 illustrated in FIG. 9 includes an optical system 110 that generates illumination light, and a stage 130 that is configured so that the module 10 is detachably loaded.
  • the stage 130 may have a fixture such as a clip for fixing the module 10 or a mounting part into which at least a part of the module 10 can be inserted.
  • the module 10 is fixed to the stage 130 by being loaded on the stage 130.
  • a module having the same configuration as the module M described with reference to FIG. 8 can be used. That is, the module 10 may have a structure in which the subject 2 and the image sensor 4 are integrated.
  • the subject 2 and the image sensor 4 of the module 10 have an arrangement such that illumination light transmitted through the subject 2 enters the image sensor 4.
  • the imaging surface of the image sensor 4 faces the optical system 110 located above the module 10.
  • the arrangement of the optical system 110, the subject 2 and the image sensor 4 is not limited to the illustrated example.
  • the optical system 110 includes a light source 30 and a lens 40.
  • the light source 30 is disposed in the focal plane of the lens 40.
  • the illumination light generated by the optical system 110 is collimated parallel light. Illumination light generated by the optical system 110 is incident on the subject.
  • the stage 130 has a circuit 50 that receives the output of the image sensor 4.
  • the electrical connection between the circuit 50 and the image sensor 4 is established, for example, via the back electrode 5B (see FIG. 8).
  • the image acquisition apparatus 100 further includes an illumination angle adjustment mechanism 120.
  • the illumination angle adjusting mechanism 120 is a mechanism that changes the irradiation direction of the illumination light with the subject 2 as a reference in a plurality of different directions. Therefore, by using the image acquisition apparatus 100, it is possible to capture the subject 2 while sequentially changing the irradiation direction and acquire a plurality of sub-images used for forming a high-resolution image.
  • FIG. 10 shows an example of the configuration of an image acquisition device according to an embodiment of the present disclosure.
  • the light source 30a includes three LED chips 32B, 32R, and 32G each having a peak in a different wavelength band.
  • the interval between adjacent LED chips is, for example, about 100 ⁇ m, and when a plurality of light emitting elements are arranged close to each other as described above, these can be regarded as point light sources.
  • the three LED chips 32B, 32R, and 32G may be LED chips that emit blue, red, and green light, respectively.
  • an achromatic lens is used as the lens 40.
  • a plurality of sub-images for each color can be acquired.
  • a blue sub-image set, a red sub-image set, and a green sub-image set are obtained.
  • a high-resolution color image can be formed using the acquired set of sub-images. For example, in a pathological diagnosis scene, more useful information regarding the presence or absence of a lesion can be obtained by using a color high-resolution image.
  • the number of light emitting elements included in the light source 30 may be one.
  • a white LED chip as the light source 30 and arranging a color filter on the optical path, illumination lights of different colors may be obtained in a time sequential manner.
  • an image sensor for color imaging may be used as the image sensor 4.
  • the lens 40 may not be an achromatic lens if the wavelength band is narrow.
  • the light source 30 is not limited to an LED, and may be an incandescent bulb, a laser element, a fiber laser, a discharge tube, or the like.
  • the light emitted from the light source 30 is not limited to visible light, and may be ultraviolet light, infrared light, or the like.
  • the image acquisition apparatus 100a shown in FIG. 10 changes the illumination angle of the illumination light with the subject 2 as a reference by changing the posture of the stage 130.
  • the irradiation angle of the illumination light with respect to the subject 2 is, for example, an angle (zenith angle) formed by a normal of the imaging surface of the image sensor 4 and a light ray incident on the subject 2, and a reference azimuth set on the imaging surface. It is represented by a set of angles (azimuth angles) formed by projection of incident light onto the imaging surface.
  • the illumination angle adjustment mechanism 120a includes a gonio mechanism 122 that tilts the stage 130 with respect to a reference plane (typically a horizontal plane), and a stage with respect to a rotation axis (here, a vertical axis) passing through the center of the stage 130. And a rotation mechanism 124 for rotating 130.
  • the gonio center Gc of the gonio mechanism 122 is located at the center of the subject (not shown).
  • the gonio mechanism 122 is configured to be able to tilt the stage 130 within a range of, for example, about ⁇ 20 ° with respect to the reference plane.
  • the module is fixed to the stage 130 in a state where it is loaded on the stage 130. Therefore, by combining the rotation in the vertical plane by the gonio mechanism 122 and the rotation around the vertical axis by the rotation mechanism 124, it is possible to make the illumination light incident on the subject from any irradiation direction.
  • the mechanism for changing the posture of the stage 130 is not limited to the combination of the gonio mechanism 122 and the rotation mechanism 124.
  • the illumination angle adjustment mechanism 120b includes a set of two gonio mechanisms 122a and 122b that can rotate the direction of the subject in a perpendicular plane orthogonal to each other.
  • the gonio center Gc of the gonio mechanisms 122a and 122b is located at the center of the subject (not shown). Even with such a configuration, it is possible to make the illumination light incident on the subject from any irradiation direction.
  • FIG. 12 shows another example of the configuration of the illumination angle adjustment mechanism.
  • the illumination angle adjustment mechanism 120c illustrated in FIG. 12 includes a slide mechanism 126 that translates the lens 40.
  • the lens 40 By moving the lens 40 by an arbitrary distance in the direction of the X axis and / or the Y axis within the reference plane, the irradiation angle of the illumination light with the subject as a reference can be changed.
  • the configuration illustrated in FIG. 12 since it is not necessary to change the posture of the stage 130, a smaller image acquisition device can be realized even when the light source and the image sensor are arranged linearly.
  • a lens for collimating the light emitted from the light source is disposed on the optical path connecting the light source and the subject on the stage.
  • FIG. 13 shows a comparative example in which a plurality of light sources are arranged in a distributed manner.
  • a plurality of bullet-type LEDs (Light Emitting) Diode) 30 ⁇ / b> C are arranged in a distributed manner, and no lens is arranged between the bullet-type LED 30 ⁇ / b> C and the stage 130.
  • the number of bullet-type LEDs 30C is, for example, 25.
  • the illumination light cannot be regarded as parallel light unless the light emitting element and the image sensor are sufficiently separated.
  • the distance LC2 between the LED 30C and an image sensor can be about 500 mm.
  • shading is performed on the sub-images. It is necessary to make corrections.
  • the optical system 110 that generates illumination light includes the lens 40, and the light source 30 is disposed in the focal plane of the lens 40.
  • the distance L2 between the lens 40 and an image sensor can be about 150 mm.
  • the distance L1 between the light source 30a and the lens 40 may be about 70 mm. Therefore, even if the light source and the image sensor are linearly arranged, a smaller image acquisition device can be realized as compared with a case where a plurality of light emitting elements are dispersedly arranged.
  • a substantially uniform illuminance distribution can be realized by generating collimated illumination light using the optical system 110 including the lens 40.
  • the change in illuminance near the edge of the region relative to the illuminance at the center of the region can be about 0.5%.
  • the shading correction of the sub-image is necessary.
  • the light parallelism is 0.7 ° or less, and the shading correction is unnecessary. It is.
  • the light parallelism is a parameter determined from the relationship between the distance from the light source and the illuminance distribution, which is obtained by measuring the illuminance distribution by changing the distance between the light source and the irradiation surface. Represents the degree of spread.
  • FIG. 14 illustrates another example of the configuration of the image acquisition device according to the embodiment of the present disclosure.
  • the stage 130 is fixed.
  • the illumination angle adjustment mechanism 120 d includes a slide mechanism 126 that translates the light source 30 b within the focal plane of the lens 40.
  • the distance that the light source 30b can be moved by the slide mechanism 126 can be, for example, about 15 mm.
  • a configuration in which the slide mechanism 126 is also added to the lens 40 and the lens 40 and the light source 30b can be independently moved in parallel may be employed.
  • the stage 130 may be moved parallel to the reference plane.
  • the light source 30b in the optical system 110b has a set Gr of three LED chips 32B, 32R, and 32G each having a peak in a different wavelength band, similarly to the light source 30a shown in FIG. is doing.
  • the light source 30 b has nine sets of LED chips.
  • the LED chip sets Gr are arranged in a 3 ⁇ 3 matrix. Even in such a configuration, the irradiation angle of the illumination light with the subject as a reference can be changed by sequentially switching the LED chips to emit light.
  • By arranging a plurality of sets of light emitting elements that emit light of different colors at different positions various combinations of light colors and irradiation directions can be realized, and more flexible operation is possible.
  • the distance L4 between the lens 40 and an image sensor is, for example, about 30 mm
  • the distance L3 between the light source 30b and the lens 40 is, for example, about 20 mm.
  • FIG. 15 shows another example of the configuration of the illumination angle adjustment mechanism.
  • An illumination angle adjustment mechanism 120e shown in FIG. 15 includes a gonio mechanism 122 that changes the direction of the light source 30b, and a rotation mechanism 124 that rotates the light source 30b with respect to a rotation axis (here, a vertical axis) passing through the center of the stage 130. Even with such a configuration, it is possible to change the irradiation direction of the subject. Further, as shown in FIG. 16, an illumination angle adjustment mechanism 120f having two gonio mechanisms 122a and 122b may be applied. An adjustment mechanism for moving the lens 40 and the light source 30 in parallel along the optical axis may be added to at least one of the lens 40 and the light source 30. It is only necessary that the light source 30 is located in the focal plane of the lens 40 when the sub image is acquired.
  • the illumination angle adjustment mechanism may further include a mechanism that changes the posture of the stage 130.
  • the illumination angle adjustment includes a slide mechanism 126 that translates the light source 30 in the focal plane of the lens 40, a gonio mechanism 122 that tilts the stage 130, and a rotation mechanism 124 that rotates the stage 130.
  • Mechanism 120g may be used. Increasing the parameters increases the range of choices for realizing the optimal irradiation direction.
  • the illumination angle adjustment mechanism 120h shown in FIG. 18 has an upper plate 128t and a lower plate 128b connected by a joint 129.
  • the joint 129 is a universal joint having two orthogonal rotation axes or a ball joint.
  • each of the upper plate 128t and the lower plate 128b has a rectangular shape when viewed from a direction perpendicular to the upper surface, and a joint 129 is disposed in the vicinity of one of the four vertices of the rectangle. ing. Further, as shown in the figure, linear actuators 127a and 127b are arranged in the vicinity of two of the other three apexes of the rectangle in the lower plate 128b. The upper plate 128t is supported on the lower plate 128b by a joint 129 and linear actuators 127a and 127b. For each of the linear actuators 127a and 127b, for example, a combination of a ball screw and a motor, or a piezoelectric actuator can be used.
  • the linear actuators 127a and 127b are independently operated to independently change the heights of two points (positions corresponding to two of the four vertices of the rectangle) on the upper plate 128t. It is possible. For example, if the stage 130 is disposed on the upper plate 128t, the stage 130 can be rotated independently with respect to two orthogonal axes (X axis and Y axis shown in FIG. 18). The light source 30 may be disposed on the upper plate 128t. Even with such a configuration, it is possible to make the illumination light incident on the subject from any irradiation direction.
  • FIG. 19 illustrates an exemplary circuit configuration and signal flow in an image forming system according to an embodiment of the present disclosure.
  • An image forming system 500a illustrated in FIG. 19 includes an image acquisition device 100 and an image processing device 150.
  • FIG. 19 shows a state where the module 10 is mounted on the stage. However, the illustration of the subject 2 and the stage 130 in the module 10 are omitted.
  • the arrows in FIG. 19 schematically show the flow of signals or power.
  • the sub image data acquired by the image acquisition device 100 is sent to the image processing device 150.
  • the image processing apparatus 150 synthesizes a plurality of sub-images using the principle described with reference to FIGS. 1A to 6, and forms a high-resolution image of the subject having a higher resolution than each of the sub-images.
  • the image processing apparatus 150 can be realized by a general-purpose or dedicated computer.
  • the image processing device 150 may be a device different from the image acquisition device 100, or may be a part of the image acquisition device 100.
  • the image processing device 150 may be a device having a function as a control device that supplies various commands for controlling the operation of each unit of the image acquisition device 100.
  • a configuration in which the image processing apparatus 150 also has a function as a control apparatus will be described as an example.
  • a system having a configuration in which the image processing apparatus 150 and the control apparatus are separate apparatuses is also possible.
  • the control device and the image processing device 150 may be connected via a network such as the Internet.
  • the image processing device 150 installed at a location different from the control device may receive sub-image data from the control device via a network and execute formation of a high-resolution image.
  • the image acquisition apparatus 100 includes a circuit board CB1 having a circuit 50 (not shown in FIG. 19) that receives the output of the image sensor 4, a circuit board CB2 that supplies a timing signal to the image sensor 4, Circuit board CB3.
  • the circuit board CB ⁇ b> 1 and the circuit board CB ⁇ b> 2 are arranged in the stage 130.
  • the circuit board CB1 includes a processing circuit p1 and an AFE (Analog Front End) 62.
  • the output of the image sensor 4 is sent to the processing circuit p ⁇ b> 1 via the AFE 62.
  • the processing circuit p1 may be configured by an FPGA (Field Programmable Gate Array), an ASSP (Application Specific Standard Produce), an ASIC (Application Specific Integrated Circuits), a DSP (Digital Signal Processor), or the like.
  • the circuit board CB2 includes a processing circuit p2 and an input / output unit 65 configured to be connectable to the image processing apparatus 150.
  • the processing circuit p2 can include an FPGA, an ASSP, an ASIC, a DSP, a microcomputer, and the like.
  • the circuit board CB3 includes a processing circuit p3 and an input / output unit 66 configured to be connectable to the image processing apparatus 150.
  • the processing circuit p3 can be configured by an FPGA, ASSP, ASIC, DSP, or the like.
  • the circuit board CB2 and the circuit board CB3 and the image processing apparatus 150 can be connected by, for example, USB.
  • the image processing apparatus 150 supplies a command for causing the image acquisition apparatus 100 to execute a desired operation. For example, commands related to the operations of the light source 30 and the stage 130 of the image acquisition device 100 are sent to the image acquisition device 100 so that the acquisition of the sub-image is performed at an appropriate irradiation angle.
  • the processing circuit p3 of the circuit board CB3 generates a control signal for controlling the stage controller 68 based on the received command.
  • the stage controller 68 operates the illumination angle adjustment mechanism 120 based on the control signal. In the illustrated example, a combination of two gonio mechanisms is used as the illumination angle adjustment mechanism 120. Under the control of the stage controller 68, the posture of the stage 130 is changed.
  • the processing circuit p3 As the posture of the stage 130 changes, the posture of the image sensor 4 on the stage 130 changes. Further, the processing circuit p3 generates a signal for controlling the light source driving circuit 70, and controls turning on and off of the light source 30. In the illustrated example, power for driving the light source 30 is supplied from the power source 70 via the DC-DC converter 72.
  • the processing circuit p ⁇ b> 2 of the circuit board CB ⁇ b> 2 receives information related to driving of the image sensor 4 from the image processing device 150.
  • the processing circuit p2 generates a timing signal and the like based on the driving information received from the image processing apparatus 150.
  • the image sensor 4 in the module loaded on the stage 130 performs imaging of the subject based on the control signal sent from the processing circuit p2.
  • the image signal indicating the subject image acquired by the image sensor 4 is sent to the processing circuit p1 of the circuit board CB1.
  • the processing circuit p1 can be a processing circuit configured to output a digital signal.
  • the digital signal from the processing circuit p1 is transferred to the processing circuit p3 of the circuit board CB3 by, for example, LVDS (Low Voltage Differential Signaling).
  • the AFE 62 may have an AD conversion circuit.
  • the processing circuit p1 performs timing adjustment, data format conversion, and the like for transferring information to the processing circuit p3.
  • the circuit board CB1 and the circuit board CB3 are connected by a cable 74 corresponding to LVDS.
  • the circuit board CB1 is disposed in the stage 130.
  • the circuit board CB2 is also arranged in the stage 130.
  • the circuit board CB2 can be integrally coupled to the circuit board CB1.
  • the postures of the circuit board CB1 and the circuit board CB2 may change in accordance with the change in the posture of the stage 130.
  • the obtained sub-image data is sent to the image processing apparatus 150 via the circuit board CB3. Thereafter, by operating the illumination angle adjustment mechanism 120 and repeating imaging of the subject, a plurality of sub-images can be acquired.
  • the averaging process of the image signal may be executed sequentially. By executing the averaging process every time image signals corresponding to different irradiation directions are obtained, noise in the sub-image can be further reduced.
  • the averaging process can be executed by the processing circuit p3 of the circuit board CB3, for example.
  • the processing circuit that executes the averaging process is not limited to the processing circuit p3 of the circuit board CB3, and the averaging process may be executed in any of the processing circuits in the image acquisition apparatus 100.
  • FIG. 20 shows another example of the configuration of the image forming system.
  • the image forming system 500b shown in FIG. 20 is different from the image forming system 500a shown in FIG. 19 in that the circuit board CB1 has an input / output unit 64 and the circuit board CB1 and the image processing apparatus 150 are connected. It is.
  • the circuit board CB1 and the image processing apparatus 150 can be connected by, for example, USB.
  • the obtained sub-image data is sent from the circuit board CB1 to the image processing apparatus 150 without passing through the circuit board CB3.
  • the image processing apparatus 150 may give a command related to the drive timing of the image sensor 4 to the processing circuit p1 of the circuit board CB1.
  • the subject 2 is irradiated from a plurality of angles, and a plurality of sub-images corresponding to different irradiation directions. Is possible to get.
  • the configuration in which the light source 30, the lens 40, and the subject 2 are arranged linearly is illustrated.
  • the arrangement of the light source 30, the lens 40, and the subject 2 is not limited to the examples described so far, and for example, the illumination light may be irradiated onto the subject 2 by changing the direction of the light beam using a mirror or the like. According to such a configuration, the image acquisition device can be further downsized.
  • the image sensor 4 is not limited to a CCD image sensor, and may be a CMOS (Complementary Metal-Oxide Semiconductor) image sensor or other image sensor (for example, a photoelectric conversion film stacked image sensor described later). Good.
  • the CCD image sensor and the CMOS image sensor may be either a front side illumination type or a back side illumination type.
  • the relationship between the element structure of the image sensor and the light incident on the photodiode of the image sensor will be described.
  • FIG. 21 shows a cross-sectional structure of a CCD image sensor and an example of a distribution of relative transmittance Td of a subject.
  • the CCD image sensor generally includes a substrate 80, an insulating layer 82 on the substrate 80, and a wiring 84 disposed in the insulating layer 82.
  • a plurality of photodiodes 88 are formed on the substrate 80.
  • a light shielding layer (not shown in FIG. 21) is formed on the wiring 84.
  • illustration of transistors and the like is omitted. In the following drawings, illustration of transistors and the like is omitted.
  • the cross-sectional structure in the vicinity of the photodiode in the front-illuminated CMOS image sensor is substantially the same as the cross-sectional structure in the vicinity of the photodiode in the CCD image sensor. Therefore, the illustration and description of the cross-sectional structure of the front-illuminated CMOS image sensor are omitted here.
  • the illumination light when the illumination light is incident from the normal direction of the imaging surface, the irradiation light transmitted through the region R1 immediately above the photodiode 88 in the subject enters the photodiode 88.
  • the irradiation light that has passed through the region R2 of the subject that is directly above the light shielding layer on the wiring 84 is incident on the light shielding region (the region where the light shielding film is formed) of the image sensor. Therefore, when irradiation is performed from the normal direction of the imaging surface, an image showing the region R1 of the subject that is directly above the photodiode 88 is obtained.
  • irradiation is performed from a direction inclined with respect to the normal direction of the imaging surface so that light transmitted through the region R2 enters the photodiode 88. Good.
  • part of the light transmitted through the region R ⁇ b> 2 may be blocked by the wiring 84.
  • the light beam passing through the portion indicated by hatching does not reach the photodiode 88.
  • the pixel value may be somewhat reduced at oblique incidence.
  • FIG. 22A and 22B show a cross-sectional structure of a back-illuminated CMOS image sensor and an example of a distribution of relative transmittance Td of a subject.
  • FIG. 22A in the backside illuminated CMOS image sensor, transmitted light is not blocked by the wiring 84 even in the case of oblique incidence.
  • noise that has passed through the other area of the subject that is different from the area to be imaged (light schematically indicated by a thick arrow BA in FIG. 22A and FIG. 22B to be described later) is incident on the substrate 80. May occur, and the quality of the sub-image may be deteriorated.
  • Such deterioration can be reduced by forming a light shielding layer 90 on a region other than the region where the photodiode is formed on the substrate, as shown in FIG. 22B.
  • FIG. 23 shows a cross-sectional structure of an image sensor (hereinafter referred to as “photoelectric conversion film laminated image sensor”) including a photoelectric conversion film formed of an organic material or an inorganic material, and a distribution of relative transmittance Td of a subject. And an example.
  • photoelectric conversion film laminated image sensor including a photoelectric conversion film formed of an organic material or an inorganic material, and a distribution of relative transmittance Td of a subject.
  • the photoelectric conversion film stacked image sensor generally includes a substrate 80, an insulating layer 82 provided with a plurality of pixel electrodes, a photoelectric conversion film 94 on the insulating layer 82, and a photoelectric conversion layer. And a transparent electrode 96 on the conversion film 94.
  • a photoelectric conversion film 94 for performing photoelectric conversion is formed on a substrate 80 (for example, a semiconductor substrate) instead of the photodiode formed on the semiconductor substrate.
  • the photoelectric conversion film 94 and the transparent electrode 96 are typically formed over the entire imaging surface.
  • illustration of a protective film for protecting the photoelectric conversion film 94 is omitted.
  • the photoelectric conversion film stacked image sensor In the photoelectric conversion film stacked image sensor, charges (electrons or holes) generated by photoelectric conversion of incident light in the photoelectric conversion film 94 are collected by the pixel electrode 92. Thereby, a value indicating the amount of light incident on the photoelectric conversion film 94 is obtained. Therefore, in the photoelectric conversion film stacked image sensor, it can be said that a unit region including one pixel electrode 92 corresponds to one pixel on the imaging surface. In the photoelectric conversion film laminated image sensor, the transmitted light is not blocked by the wiring even in the case of oblique incidence as in the case of the back-illuminated CMOS image sensor.
  • a plurality of sub-images showing images composed of different portions of the subject are used.
  • the photoelectric conversion film 94 since the photoelectric conversion film 94 is formed over the entire imaging surface, for example, even in the case of normal incidence, it transmits through a region other than the desired region of the subject. Photoelectric conversion can occur in the photoelectric conversion film 94 also by the light that has been applied. If excess electrons or holes generated at this time are drawn into the pixel electrode 92, there is a possibility that an appropriate sub-image cannot be obtained. Therefore, it is beneficial to selectively draw the charges generated in the region where the pixel electrode 92 and the transparent electrode 96 overlap (the shaded region in FIG. 23) to the pixel electrode 92.
  • dummy electrodes 98 are provided in the pixels corresponding to the pixel electrodes 92, respectively.
  • An appropriate potential difference is applied between the pixel electrode 92 and the dummy electrode 98 when acquiring the image of the subject.
  • the charge generated in the region other than the region where the pixel electrode 92 and the transparent electrode 96 overlap is drawn into the dummy electrode 98, and the charge generated in the region where the pixel electrode 92 and the transparent electrode 96 overlap is selectively selected.
  • Similar effects can be obtained by patterning the transparent electrode 96 or the photoelectric conversion film 94. In such a configuration, it can be said that the ratio (S3 / S1) of the area S3 of the pixel electrode 92 to the area S1 of the pixel corresponds to the “aperture ratio”.
  • the ratio (S3 / S1) corresponding to the aperture ratio can be adjusted by adjusting the area S3 of the pixel electrode 92.
  • This ratio (S3 / S1) is set in the range of 10% to 50%, for example.
  • a photoelectric conversion film laminated image sensor having the ratio (S3 / S1) within the above range can be used for super-resolution.
  • the surface of the CCD image sensor and the front-illuminated CMOS image sensor facing the subject is not flat.
  • a CCD image sensor has a step on its surface.
  • the backside illuminated CMOS image sensor in order to obtain a sub-image for forming a high-resolution image, it is necessary to provide a patterned light-shielding layer on the imaging surface, and the surface facing the subject is flat. is not.
  • the imaging surface of the photoelectric conversion film laminated image sensor is a substantially flat surface as can be seen from FIG. Therefore, even when the subject is arranged on the imaging surface, the subject is hardly deformed due to the shape of the imaging surface. In other words, a more detailed structure of the subject can be observed by acquiring a sub-image using a photoelectric conversion film laminated image sensor.
  • An image acquisition device or an image forming system may facilitate application of a high resolution technology that realizes a resolution that exceeds the intrinsic resolution of an image sensor.
  • High resolution images provide useful information, for example, in the context of pathological diagnosis.
  • Image sensor 8 Transparent plate 10, M module 30, 30a, 30b, 30c Light source 40 Lens 100, 100a, 100b Image acquisition device 110, 110a, 110b Optical system 120, 120a, 120b, 120c, 120d, 120e, 120f , 120g, 120h Illumination angle adjustment mechanism 130 Stage 500a, 500b Image forming system CB1, CB2, CB3 Circuit board p1, p2, p3 Processing circuit

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Image Input (AREA)
  • Studio Devices (AREA)
  • Facsimile Scanning Arrangements (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

 実用性の向上された画像取得装置および画像形成システムを提供する。 本開示の画像取得装置は、光学系と、照明角度調整機構と、ステージとを備える。光学系は、レンズおよびレンズの焦点面内に配置された光源を有し、コリメートされた照明光を生成する。照明角度調整機構は、被写体に対する照明光の照射方向を変更できるように構成されている。ステージは、被写体を透過した照明光がイメージセンサに入射するように被写体およびイメージセンサが一体化されたモジュールが、着脱自在に装填されるように構成されており、モジュールが装填された状態においてイメージセンサの出力を受け取る回路を有している。

Description

画像取得装置および画像形成システム
 本願は、画像取得装置および画像形成システムに関する。
 従来、生体組織などにおけるミクロ構造を観察するために光学顕微鏡が用いられてきた。光学顕微鏡は、観察対象を透過した光、あるいは反射した光を利用する。観察者は、レンズによって拡大された像を観察する。顕微鏡のレンズで拡大された像を撮影してディスプレイ上に表示するデジタル顕微鏡も知られている。デジタル顕微鏡を利用することにより、複数人での同時観察、遠隔地での観察などが可能である。
 近年、CIS(Contact Image Sensing)方式によってミクロ構造を観察する技術が注目されている。CIS方式による場合、観察対象は、イメージセンサの撮像面に近接して配置される。イメージセンサとしては、一般に、多数の光電変換部が撮像面内に行および列状に配列された2次元イメージセンサが用いられる。光電変換部は、典型的には、半導体層または半導体基板に形成されたフォトダイオードであり、入射光を受けて電荷を生成する。
 イメージセンサによって取得される画像は、多数の画素によって規定される。各画素は、1つの光電変換部を含む単位領域によって区画されている。したがって、2次元イメージセンサにおける分解能(解像度)は、通常、撮像面上における光電変換部の配列ピッチまたは配列密度に依存する。本明細書では、光電変換部の配列ピッチによって決まる分解能を、イメージセンサの「固有分解能」と呼ぶことがある。個々の光電変換部の配列ピッチは、可視光の波長程度まで短くなっているので、固有分解能をさらに向上させることは困難である。
 イメージセンサの固有分解能を超える分解能を実現する技術が提案されている。特許文献1は、被写体の結像位置をシフトさせて得られる複数の画像を用いて当該被写体の画像を形成する技術を開示している。
特開昭62-137037号公報
 本開示は、イメージセンサの固有分解能を超える分解能を実現する高分解能化技術の実用性を向上させ得る画像取得装置および画像形成システムを提供する。
 本開示の例示的な実施形態として以下が提供される。
 レンズおよび前記レンズの焦点面内に配置された光源を有する光学系であって、コリメートされた照明光を生成する光学系と、被写体に対して前記照明光の照射方向を変更できるように構成された照明角度調整機構と、前記被写体を透過した前記照明光がイメージセンサに入射するように前記被写体および前記イメージセンサが一体化されたモジュールが、着脱自在に装填されるように構成されたステージであって、前記モジュールが装填された状態において前記イメージセンサの出力を受け取る回路を有するステージとを備える画像取得装置。
 上記の一般的かつ特定の態様は、方法、システムまたはコンピュータプログラムの形で実装され得る。あるいは、方法、システムおよびコンピュータプログラムなどの組み合わせを用いて実現され得る。
 本開示によれば、イメージセンサの固有分解能を超える分解能を実現する高分解能化技術の実用性が向上する。
図1Aは、被写体2の一部を模式的に示す平面図である。 図1Bは、図1Aに示されている領域の撮像に関わるフォトダイオードを抽出して模式的に示す平面図である。 図2Aは、被写体2を透過してフォトダイオード4pに入射する光線の方向を模式的に示す図である。 図2Bは、着目する6個のフォトダイオード4pの配列例を模式的に示す平面図である。 図2Cは、6個のフォトダイオード4pによって取得される6個の画素Paを模式的に示す図である。 図3Aは、第1の方向とは異なる第2の方向から光線を入射させた状態を模式的に示す図である。 図3Bは、着目する6個のフォトダイオード4pの配列を模式的に示す平面図である。 図3Cは、6個のフォトダイオード4pによって取得される6個の画素Pbを模式的に示す図である。 図4Aは、第1の方向および第2の方向とは異なる第3の方向から光線を入射させた状態を模式的に示す図である。 図4Bは、着目する6個のフォトダイオード4pの配列を模式的に示す平面図である。 図4Cは、6個のフォトダイオード4pによって取得される6個の画素Pcを模式的に示す図である。 図5Aは、第1の方向、第2の方向および第3の方向とは異なる第4の方向から光線を入射させた状態を模式的に示す図である。 図5Bは、着目する6個のフォトダイオード4pの配列を模式的に示す平面図である。 図5Cは、6個のフォトダイオード4pによって取得される6個の画素Pdを模式的に示す図である。 図6は、4枚のサブ画像Sa、Sb、ScおよびSdから合成される高分解能画像HRを示す図である。 図7は、被写体2の隣接する2つの領域を通過した光線がそれぞれ異なるフォトダイオードに入射するように調整された照射方向を模式的に示す図である。 図8は、モジュールの断面構造の一例を模式的に示す図である。 図9は、本開示の実施形態による画像取得装置の概略的な構成を示す図である。 図10は、本開示の実施形態による画像取得装置の構成の一例を示す図である。 図11は、照明角度調整機構の構成の一例を示す図である。 図12は、照明角度調整機構の構成の他の一例を示す図である。 図13は、複数の光源が分散して配置された構成を比較例として示す図である。 図14は、本開示の実施形態による画像取得装置の構成の他の一例を示す図である。 図15は、照明角度調整機構の構成のさらに他の一例を示す図である。 図16は、照明角度調整機構の構成のさらに他の一例を示す図である。 図17は、本開示の実施形態による画像取得装置の構成のさらに他の一例を示す図である。 図18は、照明角度調整機構の構成のさらに他の一例を示す図である。 図19は、本開示の実施形態による画像形成システムにおける例示的な回路の構成、および信号の流れを示す概略図である。 図20は、画像形成システムの構成の他の一例を示す概略図である。 図21は、CCDイメージセンサの断面構造と、被写体の相対的な透過率Tdの分布の例とを示す図である。 図22Aは、裏面照射型CMOSイメージセンサの断面構造と、被写体の相対的な透過率Tdの分布の例とを示す図である。 図22Bは、裏面照射型CMOSイメージセンサの断面構造と、被写体の相対的な透過率Tdの分布の例とを示す図である。 図23は、光電変換膜積層型イメージセンサの断面構造と、被写体の相対的な透過率Tdの分布の例とを示す図である。
 まず、図1A~図6を参照して、本開示の実施形態における撮像の原理を説明する。本開示の実施形態では、照明光の照射角度を変えて複数回の撮影を実行することにより得られる複数の画像を用いて、それら複数の画像の各々よりも分解能の高い画像(以下、「高分解能画像」と呼ぶ。)を形成する。ここでは、CCD(Charge Coupled Device)イメージセンサを例示して説明を行う。
 図1Aおよび図1Bを参照する。図1Aは、被写体2の一部を模式的に示す平面図であり、図1Bは、イメージセンサ4のフォトダイオード4pのうち、図1Aに示されている領域の撮像に関わるフォトダイオードを抽出して模式的に示す平面図である。ここで説明する例では、図1Bにおいて6個のフォトダイオード4pが示されている。なお、参考のために、図1Bでは、互いに直交するx方向、y方向およびz方向を示す矢印が図示されている。z方向は、撮像面の法線方向を示している。図1Bでは、xy面内においてx軸からy軸に向かって45°回転した方向であるu方向を示す矢印も図示されている。他の図面においても、x方向、y方向、z方向またはu方向を示す矢印を図示することがある。
 イメージセンサ4におけるフォトダイオード4p以外の構成要素は、遮光層によって覆われている。図1B中、ハッチングされた領域は、遮光層によって覆われている領域を示している。CCDイメージセンサの撮像面上における1つのフォトダイオードの受光面の面積(S2)は、そのフォトダイオードを含む単位領域の面積(S1)よりも小さい。画素の面積S1に対する受光面積S2の比率(S2/S1)は、「開口率」と呼ばれている。ここでは、開口率が25%であるとして説明を行う。
 図2Aは、被写体2を透過してフォトダイオード4pに入射する光線の方向を模式的に示す。図2Aは、撮像面に対して垂直な方向(第1の方向)から光線を入射させた状態を示している。図2Bは、着目する6個のフォトダイオード4pの配列例を模式的に示す平面図であり、図2Cは、6個のフォトダイオード4pによって取得される6個の画素Paを模式的に示す図である。複数の画素Paの各々は、個々のフォトダイオード4pに入射した光の量を示す値(画素値)を持つ。この例では、図2Cの画素Paから画像Sa(第1のサブ画像Sa)が構成される。第1のサブ画像Saは、被写体2の全体のうち、例えば、図2Bに示す6個のフォトダイオード4pの直上に位置する領域A1、A2、A3、A4、A5およびA6(図1A参照)の情報を有する。
 図2Aからわかるように、ここでは、被写体2の画像は、被写体2を透過する実質的に平行な光線を用いて取得される。被写体2とイメージセンサ4との間に結像のためのレンズは配置されない。イメージセンサ4の撮像面から被写体2までの距離は、典型的には1mm以下であり、例えば1μm程度に設定され得る。
 図3Aは、図2Aに示す第1の方向とは異なる第2の方向から光線を入射させた状態を示している。図3Bは、着目する6個のフォトダイオード4pの配列を模式的に示し、図3Cは、6個のフォトダイオード4pによって取得される6個の画素Pbを模式的に示す。図3Cの画素Pbから画像Sb(第2のサブ画像Sb)が構成される。第2のサブ画像Sbは、被写体2の全体のうち、領域A1、A2、A3、A4、A5およびA6とは異なる領域B1、B2、B3、B4、B5およびB6(図1A参照)の情報を有する。図1Aに示すように、領域B1は、例えば領域A1の右側に隣接する領域である。
 図2Aと図3Aとを比較することによって理解されるように、被写体2に対する光線の照射方向を適切に設定することにより、被写体2の異なる領域を透過した光線をフォトダイオード4pに入射させることができる。その結果、第1のサブ画像Saと第2のサブ画像Sbは、被写体2において異なる位置に対応する画素情報を含むことができる。
 図4Aは、図2Aに示す第1の方向および図3Aに示す第2の方向とは異なる第3の方向から光線を入射させた状態を示している。図4Aに示す光線は、z方向に対してy方向に傾斜している。図4Bは、着目する6個のフォトダイオード4pの配列を模式的に示し、図4Cは、6個のフォトダイオード4pによって取得される6個の画素Pcを模式的に示す。図4Cの画素Pcから画像Sc(第3のサブ画像Sc)が構成される。図示するように、第3のサブ画像Scは、被写体2の全体のうち、図1Aに示す領域C1、C2、C3、C4、C5およびC6の情報を有する。図1Aに示すように、ここでは、領域C1は、例えば領域A1の上側に隣接する領域である。
 図5Aは、図2Aに示す第1の方向、図3Aに示す第2の方向、および図4Aに示す第3の方向とは異なる第4の方向から光線を入射させた状態を示している。図5Aに示す光線は、z方向に対して、xy面内においてx軸と45°の角をなす方向に傾斜している。図5Bは、着目する6個のフォトダイオード4pの配列を模式的に示し、図5Cは、6個のフォトダイオード4pによって取得される6個の画素Pdを模式的に示す。図5Cの画素Pdから画像Sd(第4のサブ画像Sd)が構成される。第4のサブ画像Sdは、被写体2の全体のうち、図1Aに示す領域D1、D2、D3、D4、D5およびD6の情報を有している。図1Aに示すように、ここでは、領域D1は、例えば領域C1の右側に隣接する領域である。
 図6は、4枚のサブ画像Sa、Sb、ScおよびSdから合成される高分解能画像HRを示している。図6に示すように、高分解能画像HRの画素数または画素密度は、4枚のサブ画像Sa、Sb、ScおよびSdの各々の画素数または画素密度の4倍である。
 例えば、被写体2における、図1Aに示す領域A1、B1、C1およびD1のブロックに着目する。これまでの説明からわかるように、図6に示すサブ画像Saの画素Pa1は、上述のブロック全体ではなく、領域A1のみの情報を有している。したがって、サブ画像Saは、領域B1、C1およびD1の情報が欠落した画像であるということができる。個々のサブ画像の分解能は、イメージセンサ4の固有分解能に等しい。
 しかしながら、被写体2において異なる位置に対応する画素情報を有するサブ画像Sb、ScおよびSdを用いることにより、図6に示すように、サブ画像Saにおいて欠落した情報を補完し、ブロック全体の情報を有する高分解能画像HRを形成することが可能である。この例では、イメージセンサ4の固有分解能の4倍の分解能が得られている。高分解能化(超解像)の程度は、イメージセンサの開口率に依存する。この例では、イメージセンサ4の開口率が25%であるため、異なる4方向からの光照射によって最大4倍の高分解能化が可能になる。Nを2以上の整数するとき、イメージセンサ4の開口率が近似的に1/Nに等しければ、最大N倍の高分解能化が可能になる。
 このように、被写体を基準にして複数の異なる照射方向から、順次、平行光を照射して被写体の撮像を行うことにより、被写体から「空間的」にサンプリングされる画素情報を増加させることができる。得られた複数のサブ画像を合成することにより、複数のサブ画像の各々よりも分解能の高い高分解能画像を形成することが可能である。なお、上記の例において、図6に示すサブ画像Sa、Sb、ScおよびSdは、被写体2における互いに異なる領域の画素情報を有しており、重なりを有していない。しかしながら、異なるサブ画像間において重なりを有していてもよい。
 また、上記の例では、被写体2において隣接する2つの領域を通過した光線は、いずれも、同一のフォトダイオードに入射している。しかしながら、照射方向の設定はこの例に限定されない。例えば、図7に示すように、被写体2の隣接する2つの領域を通過した光線が、それぞれ、異なるフォトダイオードに入射するように照射方向が調整されていてもよい。被写体において光線の通過する領域と、透過光線の入射するフォトダイオードとの間の相対的な配置がわかっていれば、高分解能画像の形成は可能である。照射方向は、図2A~図5Aを参照して説明した第1~第4の方向に限定されない。
 次に、本開示の実施形態において用いられるモジュールの構成を説明する。本開示の実施形態では、被写体およびイメージセンサが一体化された構造を有するモジュールが用いられる。
 図8は、モジュールの断面構造の一例を模式的に示す。図8に示すモジュールMでは、イメージセンサ4の撮像面4A側に被写体2が配置されている。図8に例示する構成では、封入剤6によって覆われた被写体2が、イメージセンサ4と透明プレート(典型的にはガラス板)8との間に挟まれている。透明プレート8として、例えば、一般的なスライドガラスを使用することができる。また、図8に例示する構成では、イメージセンサ4は、パッケージ5に固定されている。パッケージ5は、透明プレート8とは反対側の面に裏面電極5Bを有している。裏面電極5Bは、パッケージ5に形成された不図示の配線パターンを介してイメージセンサ4と電気的に接続されている。すなわち、裏面電極5Bを介して、イメージセンサ4の出力を取り出すことができる。
 被写体2は、生物組織の薄片(典型的には、数十μm以下の厚さを有する。)であり得る。生物組織の薄片を被写体2として有するモジュールは、病理診断に利用され得る。図8に示すように、モジュールMは、光学顕微鏡による観察において被写体(典型的には生物組織の薄片)を支持するプレパラートとは異なり、被写体の画像を取得するイメージセンサを備えている。このようなモジュールを「電子プレパラート」と呼んでもよい。被写体2およびイメージセンサ4が一体化されたモジュールMを用いることにより、被写体2とイメージセンサ4との間の配置を固定できるという利点が得られる。
 モジュールMを用いて被写体2の画像の取得を実行するとき、透明プレート8を介して被写体2に照明光を照射する。被写体2を透過した照明光がイメージセンサ4に入射する。照射時において角度を変えて複数の異なる画像を取得することにより、これらの画像の各々よりも分解能の高い画像を形成することが可能である。
 本開示は、イメージセンサの固有分解能を超える分解能を実現する高分解能化技術の実用性を向上させ得る画像取得装置(デジタイザ)および画像形成システムを提供する。本開示の実施形態を詳細に説明する前に、まず、本開示の実施形態の概要を説明する。
 本開示の一態様である画像取得装置は、光学系と、照明角度調整機構と、ステージとを備える。光学系は、レンズおよびレンズの焦点面内に配置された光源を有する。光学系は、コリメートされた照明光を生成する。照明角度調整機構は、被写体を基準とする照明光の照射方向を複数の異なる方向に変更可能に構成されている。ステージは、被写体を透過した照明光がイメージセンサに入射するように被写体およびイメージセンサが一体化されたモジュールが着脱自在に装填されるように構成されたステージである。ステージは、モジュールが装填された状態においてイメージセンサの出力を受け取る回路を有する。
 ある態様において、照明角度調整機構は、ステージおよび光源の向きの少なくとも一方を、直交する2軸まわりに独立して回転可能な機構を含んでいる。
 ある態様において、照明角度調整機構は、ステージの姿勢および光源の向きの少なくとも一方を変化させるゴニオ機構を含んでいる。
 ある態様において、照明角度調整機構は、ステージの中心を通る回転軸に関してステージおよび光源の少なくとも一方を回転させる機構を含んでいる。
 ある態様において、照明角度調整機構は、ステージ、光源およびレンズの少なくとも1つを平行移動させるスライド機構を含んでいる。
 ある態様において、光源は、互いに異なる波長域の光を出射する複数の発光素子の組を有する。
 ある態様において、光源は、複数の発光素子の組を複数有する。これらの複数の組は、互いに異なる位置に配置されている。
 ある態様において、レンズは、アクロマートレンズである。
 ある態様において、ステージは、イメージセンサの出力をデジタル信号に変換して出力する第1処理回路を含む第1回路基板を有する。
 ある態様において、ステージは、イメージセンサの制御信号を生成する第2処理回路を含む第2回路基板を有し、第2回路基板は、第1回路基板に一体的に結合されている。
 ある態様による画像取得装置は、さらに、複数の異なる方向に応じて被写体の像を示す画像信号が得られるごとに、順次、平均化処理を行うように構成された第3処理回路を備える。
 本開示の他の一態様である画像形成システムは、上記のいずれかに記載の画像取得装置と、画像処理装置とを備える。画像処理装置は、照明光の照射方向を変えて取得した複数の画像を合成することにより、複数の画像の各々よりも分解能の高い被写体の高分解能画像を形成する。
 以下、図面を参照しながら、本開示の実施形態を詳細に説明する。なお、以下の説明において、実質的に同じ機能を有する構成要素は共通の参照符号で示し、説明を省略することがある。
 <画像取得装置>
 図9は、本開示の実施形態による画像取得装置の概略的な構成を示す。図9に示す画像取得装置100は、照明光を生成する光学系110と、モジュール10が着脱自在に装填されるように構成されたステージ130とを有する。ステージ130は、モジュール10の少なくとも一部分を挿入可能な取付部、あるいはモジュール10を固定するためのクリップなどの固定具を有し得る。モジュール10は、ステージ130に装填されることにより、ステージ130に対して固定される。モジュール10としては、図8を参照して説明したモジュールMと同様の構成を有するモジュールを用い得る。すなわち、モジュール10は、被写体2およびイメージセンサ4が一体化された構造を有し得る。ステージ130にモジュール10が装填された状態において、モジュール10の被写体2およびイメージセンサ4は、被写体2を透過した照明光がイメージセンサ4に入射するような配置を有する。図示する例では、イメージセンサ4の撮像面は、モジュール10の上方に位置する光学系110に対向している。光学系110、被写体2およびイメージセンサ4の配置は図示する例に限定されない。
 光学系110は、光源30およびレンズ40を含んでいる。光源30は、レンズ40の焦点面内に配置されている。光学系110によって生成される照明光は、コリメートされた平行光である。光学系110によって生成された照明光が被写体に入射される。
 ステージ130は、イメージセンサ4の出力を受け取る回路50を有する。ステージ130にモジュール10が装填されることにより、例えば裏面電極5B(図8参照)を介して、回路50とイメージセンサ4との間の電気的接続が確立される。
 画像取得装置100は、さらに、照明角度調整機構120を有する。後に詳しく説明するように、照明角度調整機構120は、被写体2を基準とする照明光の照射方向を複数の異なる方向に変更する機構である。したがって、画像取得装置100を用いることにより、照射方向を順次に変更しながら被写体2の撮像を実行し、高分解能画像の形成に用いられる複数のサブ画像を取得することが可能である。
 図10は、本開示の実施形態による画像取得装置の構成の一例を示す。図10に例示する構成において、光源30aは、各々が異なる波長帯域にピークを有する3個のLEDチップ32B、32R、32Gを有している。隣接するLEDチップの間隔は、例えば100μm程度であり、このように複数の発光素子を近接して配置した場合には、これらを点光源とみなし得る。3個のLEDチップ32B、32R、32Gは、それぞれ、青色、赤色、および緑色の光を出射するLEDチップであり得る。互いに異なる色の光を出射する複数の発光素子を用いる場合、レンズ40としてアクロマートレンズを使用する。
 互いに異なる色の光を出射する複数の発光素子を使用し、例えば、異なる色の光を照射方向ごとにタイムシーケンシャルに照射することにより、それぞれの色についての複数のサブ画像を取得することができる。3個のLEDチップ32B、32R、32Gを使用する場合であれば、青色サブ画像のセット、赤色サブ画像のセット、および緑色サブ画像のセットが得られる。取得されたサブ画像のセットを用いれば、カラーの高分解能画像を形成することができる。例えば病理診断の場面では、カラーの高分解能画像を利用することにより、病変の有無などに関するより多くの有益な情報を得ることができる。
 光源30が有する発光素子の数は、1個であってもよい。光源30として白色LEDチップを用い、かつ、光路上にカラーフィルタを配置することによって、互いに異なる色の照明光をタイムシーケンシャルに得てもよい。また、イメージセンサ4としてカラー撮像用のイメージセンサを用いてもよい。ただし、イメージセンサの光電変換部に入射する光量の低減を抑制する観点からは、図10に示すようにカラーフィルタを配置しない構成の方が有利である。なお、複数の異なる色の光を利用する場合、波長帯域が狭ければ、レンズ40はアクロマートレンズでなくてもよい。光源30は、LEDに限定されず、白熱電球、レーザ素子、ファイバーレーザ、放電管などであってもよい。光源30から出射される光は、可視光に限定されず、紫外線、赤外線などであってもよい。
 図10に示す画像取得装置100aは、ステージ130の姿勢を変化させることによって、被写体2を基準とする照明光の照射角度を変更する。被写体2を基準とする照明光の照射角度は、例えば、イメージセンサ4の撮像面の法線と被写体2への入射光線とがなす角(天頂角)、および撮像面上に設定した基準方位と入射光線の撮像面への射影とがなす角(方位角)の組によって表される。図示する例では、照明角度調整機構120aは、基準面(典型的には水平面)に対してステージ130を傾斜させるゴニオ機構122と、ステージ130の中心を通る回転軸(ここでは鉛直軸)に関してステージ130を回転させる回転機構124とを有する。ゴニオ機構122のゴニオ中心Gcは、不図示の被写体の中央部に位置している。ゴニオ機構122は、基準面に対して例えば±20°程度の範囲でステージ130を傾斜可能に構成されている。上述したように、モジュールは、ステージ130に装填された状態において、ステージ130に対して固定されている。したがって、ゴニオ機構122による鉛直面内の回転と、回転機構124による鉛直軸周りの回転とを組み合わせることにより、被写体に対して任意の照射方向から照明光を入射させることが可能である。
 ステージ130の姿勢を変化させるための機構は、ゴニオ機構122と回転機構124の組み合わせに限定されない。図11に例示する構成では、照明角度調整機構120bは、直交する鉛直面内において被写体の向きを回転させることができる2つのゴニオ機構122aおよび122bの組を含んでいる。ゴニオ機構122aおよび122bのゴニオ中心Gcは、不図示の被写体の中央部に位置している。このような構成によっても、被写体に対して任意の照射方向から照明光を入射させることが可能である。
 図12は、照明角度調整機構の構成の他の一例を示す。図12に示す照明角度調整機構120cは、レンズ40を平行移動させるスライド機構126を有する。レンズ40を基準面内のX軸および/またはY軸の方向に任意の距離だけ移動させることにより、被写体を基準とする照明光の照射角度を変更することができる。図12に例示する構成によれば、ステージ130の姿勢を変化させる必要がないので、光源とイメージセンサとを直線的に配置した場合であっても、より小型の画像取得装置を実現し得る。
 本開示の実施形態では、光源から出射される光線をコリメートするレンズが光源とステージ上の被写体とを結ぶ光路上に配置されている。これにより、複数の光源を単純に分散して配置する場合と比較して画像取得装置を小型化および/または軽量化し得る。
 図13は、複数の光源が分散して配置された構成を比較例として示す。図示する例では、複数の砲弾型LED(Light Emitting Diode)30Cが分散して配置されており、砲弾型LED30Cとステージ130との間にはレンズは配置されていない。砲弾型LED30Cの数は、例えば25個である。複数の発光素子を分散して配置し、発光素子を順次点灯させていくことにより、照射方向を順次変化させていくことが可能である。あるいは、基準面に平行にステージ130を移動させることにより、照射方向を順次変化させていくことが可能である。スライド機構126によってステージが移動可能な距離は、例えば25mm程度であり得る。
 しかしながら、このような構成においては、発光素子とイメージセンサとを十分に離さなければ、照明光を平行光とみなすことはできない。図13に示す構成では、LED30Cと不図示のイメージセンサとの間の距離LC2は、500mm程度であり得る。さらに、本発明者の検討によれば、図13に示す構成では、発光させるLED30Cを順次切り替えていくことによって取得した複数のサブ画像から高分解能画像を形成するには、サブ画像に対してシェーディング補正を行う必要がある。
 これに対し、本開示の実施形態では、照明光を生成する光学系110がレンズ40を含み、光源30がレンズ40の焦点面内に配置されている。図10に例示する光学系110aにおいて、レンズ40と不図示のイメージセンサとの間の距離L2は、150mm程度であり得る。また、光源30aとレンズ40との間の距離L1は、70mm程度であり得る。したがって、光源とイメージセンサとを直線的に配置したとしても、複数の発光素子を分散して配置した場合に比べて小型の画像取得装置を実現し得る。
 また、本発明者の検討によれば、レンズ40を含む光学系110を用いてコリメートされた照明光を生成することにより、ほぼ均一な照度分布を実現し得る。例えば、30mm角の領域において、領域中心部の照度に対する領域端部近傍の照度の変化は、0.5%程度であり得る。照明光の光線平行度が数°程度であるとサブ画像のシェーディング補正が必要であることに対し、図10に例示する構成では、光線平行度が0.7°以下であり、シェーディング補正は不要である。ここで、光線平行度は、光源と照射面との間の距離を変えて照度分布を測定することにより得られる、光源からの距離と照度分布との関係から決定されるパラメータであり、光線の広がり度合いを表す。
 図14は、本開示の実施形態による画像取得装置の構成の他の一例を示す。図14に示す画像取得装置100bでは、ステージ130は固定されている。図14に例示する構成において、照明角度調整機構120dは、光源30bをレンズ40の焦点面内で平行移動させるスライド機構126を有する。光源30bをレンズ40の焦点面内のX軸および/またはY軸の方向に任意の距離だけ移動させることにより、被写体を基準とする照明光の照射角度を変更することができる。スライド機構126によって光源30bが移動可能な距離は、例えば15mm程度であり得る。レンズ40にもスライド機構126を付加して、レンズ40および光源30bを独立して平行に移動可能な構成を採用してもよい。基準面に平行にステージ130を移動させてもよい。
 図14に例示する構成において、光学系110bにおける光源30bは、図10に示す光源30aと同様に、各々が異なる波長帯域にピークを有する3個のLEDチップ32B、32R、32Gの組Grを有している。図14に例示する構成では、光源30bは、9組のLEDチップの組を有している。ここでは、LEDチップの組Grは、3×3のマトリクス状に配置されている。このような構成においても、発光させるLEDチップを順次切り替えることによって、被写体を基準とする照明光の照射角度を変更することができる。互いに異なる位置に、互いに異なる色の光を出射する複数の発光素子の組を配置することにより、光の色および照射方向の多様な組み合わせを実現し得、より柔軟な運用が可能である。
 図14に例示する構成では、レンズの光軸からずれた位置から出射された光が用いられる。そのため、シェーディング補正が必要になる場合がある。その反面、ステージ130の姿勢を変化させる必要がないので、光源とイメージセンサとを直線的に配置した場合であっても、より小型の画像取得装置を実現し得る。図14に示すような構成において、レンズ40と不図示のイメージセンサとの間の距離L4は例えば30mm程度であり、光源30bとレンズ40との間の距離L3は例えば20mm程度である。
 図15は、照明角度調整機構の構成の他の一例を示す。図15に示す照明角度調整機構120eは、光源30bの向きを変化させるゴニオ機構122と、ステージ130の中心を通る回転軸(ここでは鉛直軸)に関して光源30bを回転させる回転機構124とを有する。このような構成によっても、被写体に対する照射方向を変化させることが可能である。また、図16に示すように、2つのゴニオ機構122aおよび122bを有する照明角度調整機構120fを適用してもよい。なお、レンズ40および光源30の少なくとも一方に、光軸に沿って平行に移動させるための調節機構が付加されていてもよい。サブ画像の取得時において光源30がレンズ40の焦点面内に位置していればよい。
 照明角度調整機構は、さらにステージ130の姿勢を変化させる機構を含んでいてもよい。図17に示すように、例えば、光源30をレンズ40の焦点面内で平行移動させるスライド機構126と、ステージ130を傾斜させるゴニオ機構122およびステージ130を回転させる回転機構124とを有する照明角度調整機構120gを使用してもよい。パラメータが増加することにより、最適な照射方向を実現するための選択の幅が広がる。
 ゴニオ機構122および回転機構124の組み合わせ(図10、図15参照)、または、2つのゴニオ機構122aおよび122bの組み合わせ(図11、図16参照)に代えて、図18に示すような構成を採用してもよい。図18に示す照明角度調節機構120hは、ジョイント129によって連結された上部プレート128tおよび下部プレート128bを有している。ジョイント129の例は、直交する2つの回転軸を有するユニバーサルジョイント、あるいはボールジョイントである。
 図示する例では、上部プレート128tおよび下部プレート128bのそれぞれは、上面に垂直な方向から見たときの形状が長方形であり、長方形の4つの頂点のうちの1つの近傍に、ジョイント129が配置されている。また、図示するように、下部プレート128bにおいて長方形の他の3つの頂点のうちの2つの近傍に、リニアアクチュエータ127aおよび127bが配置されている。上部プレート128tは、ジョイント129、リニアアクチュエータ127aおよび127bによって下部プレート128bの上に支持されている。リニアアクチュエータ127aおよび127bのそれぞれには、例えば、ボールねじとモータの組み合わせ、あるいは圧電アクチュエータなどを用いることができる。
 図示する例において、リニアアクチュエータ127aおよび127bを独立して動作させることにより、上部プレート128tにおける2点(長方形の4つの頂点のうちの2つに対応した位置)の高さを独立して変化させることが可能である。例えば上部プレート128t上にステージ130を配置すれば、直交する2軸(図18中に示すX軸およびY軸)に関して独立してステージ130を回転させることができる。上部プレート128t上に光源30を配置してもよい。このような構成によっても、被写体に対して任意の照射方向から照明光を入射させることが可能である。
 <画像形成システム>
 次に、本開示の実施形態による画像形成システムを説明する。
 図19は、本開示の実施形態による画像形成システムにおける例示的な回路の構成、および信号の流れを示す。図19に示す画像形成システム500aは、画像取得装置100と、画像処理装置150とを有している。図19は、モジュール10がステージに装着された状態を示している。ただし、モジュール10における被写体2の図示とステージ130の図示は省略している。図19中の矢印は、信号または電力の流れを模式的に示している。
 画像形成システム500aでは、画像取得装置100によって取得されたサブ画像のデータが画像処理装置150に送られる。画像処理装置150は、図1A~図6を参照して説明した原理を用いて、複数のサブ画像を合成して、サブ画像の各々よりも分解能の高い、被写体の高分解能画像を形成する。
 画像処理装置150は、汎用または専用のコンピュータによって実現され得る。画像処理装置150は、画像取得装置100とは異なる装置であってもよいし、画像取得装置100の一部であってもよい。画像処理装置150は、画像取得装置100の各部の動作を制御するための各種のコマンドを供給する制御装置としての機能を備える装置であり得る。ここでは、画像処理装置150が制御装置としての機能も有している構成を例示して説明する。もちろん、画像処理装置150と制御装置とが別個の装置であるような構成を有するシステムも可能である。例えば、インターネットなどのネットワークを介して制御装置と画像処理装置150とを接続してもよい。制御装置とは別の場所に設置された画像処理装置150が、ネットワークを介して制御装置からサブ画像のデータを受け取り、高分解能画像の形成を実行するような構成であってもよい。
 図19に示す例では、画像取得装置100は、イメージセンサ4の出力を受け取る回路50(図19において不図示)を有する回路基板CB1と、イメージセンサ4にタイミング信号を供給する回路基板CB2と、回路基板CB3とを有している。ここでは、回路基板CB1および回路基板CB2は、ステージ130内に配置されている。
 図19に例示する構成において、回路基板CB1は、処理回路p1およびAFE(Analog Front End)62を有している。ここで説明する例では、イメージセンサ4の出力は、AFE62を介して処理回路p1に送られる。処理回路p1は、FPGA(Field Programmable Gate Array)、ASSP(Application Specific Standard Produce)、ASIC(Application Specific Integrated Circuits)、DSP(Digital Signal Processor)などによって構成され得る。回路基板CB2は、処理回路p2と、画像処理装置150に接続可能に構成された入出力部65とを有している。処理回路p2は、FPGA、ASSP、ASIC、DSP、マイクロコンピュータなどを含み得る。回路基板CB3は、処理回路p3と、画像処理装置150に接続可能に構成された入出力部66とを有している。処理回路p3は、FPGA、ASSP、ASIC、DSPなどによって構成され得る。回路基板CB2および回路基板CB3と、画像処理装置150とは、例えばUSBによって接続され得る。
 画像処理装置150は、画像取得装置100に所望の動作を実行させるためのコマンドを供給する。例えば、サブ画像の取得が適切な照射角度のもとで行われるように、画像取得装置100の光源30およびステージ130の動作に関わるコマンドが画像取得装置100に送られる。回路基板CB3の処理回路p3は、受け取ったコマンドに基づき、ステージコントローラ68を制御するための制御信号を生成する。ステージコントコーラ68は、その制御信号に基づいて照明角度調整機構120を動作させる。図示する例では、照明角度調整機構120として2つのゴニオ機構の組み合わせが用いられている。ステージコントコーラ68の制御により、ステージ130の姿勢が変更される。ステージ130の姿勢の変化に伴って、ステージ130上のイメージセンサ4の姿勢が変化する。また、処理回路p3は、光源駆動回路70を制御するための信号を生成し、光源30の点灯および消灯を制御する。図示する例では、光源30を駆動させるための電力は、DC-DCコンバータ72を介して電源70から供給される。
 図19に例示する構成では、回路基板CB2の処理回路p2は、イメージセンサ4の駆動に関する情報を画像処理装置150から受け取る。処理回路p2は、画像処理装置150から受け取った駆動に関する情報に基づき、タイミング信号などを生成する。ステージ130に装填された状態のモジュールにおけるイメージセンサ4は、処理回路p2から送られる制御信号に基づいて被写体の撮像を実行する。イメージセンサ4によって取得された、被写体の像を示す画像信号は、回路基板CB1の処理回路p1に送られる。
 処理回路p1は、デジタル信号を出力するように構成された処理回路であり得る。処理回路p1からのデジタル信号は、例えばLVDS(Low Voltage Differential Signaling)によって回路基板CB3の処理回路p3に転送される。なお、AFE62がAD変換回路を有していてもよい。AFE62がこのようなAD変換回路内蔵型である場合、処理回路p1は、処理回路p3に情報を転送するためのタイミング調整、データフォーマット変換などを行う。図示する例では、回路基板CB1と回路基板CB3とは、LVDSに対応したケーブル74によって接続されている。上述したように、ここでは、回路基板CB1は、ステージ130内に配置されている。イメージセンサ4の出力をデジタル信号の形で回路基板CB1の外部に送出することにより、イメージセンサ4の出力をアナログ信号の形で送出する場合と比較してノイズを低減し得る。
 ここでは、回路基板CB2もステージ130内に配置されている。回路基板CB2は、回路基板CB1に一体的に結合され得る。例えば、ステージ130の姿勢の変化に付随して回路基板CB1および回路基板CB2の姿勢が変化してもよい。アナログ信号回路を含む回路基板を他の回路基板と分離してステージ130内に配置することにより、小型の可動ステージを実現し得るという利点が得られる。
 得られたサブ画像のデータは、回路基板CB3を介して画像処理装置150に送られる。その後、照明角度調整機構120を動作させて被写体の撮像を繰り返すことにより、複数のサブ画像を取得することができる。
 なお、複数の異なる方向に応じて被写体の像を示す画像信号が得られるごとに、順次、画像信号の平均化処理を実行してもよい。異なる照射方向に対応した画像信号が得られるごとに平均化処理を実行することにより、サブ画像におけるノイズをより低減し得る。平均化処理は、例えば回路基板CB3の処理回路p3によって実行され得る。平均化処理を実行する処理回路は、回路基板CB3の処理回路p3に限定されず、画像取得装置100内のいずれかの処理回路において、平均化処理が実行されればよい。
 図20は、画像形成システムの構成の他の一例を示す。図20に示す画像形成システム500bにおける、図19の画像形成システム500aとの相違点は、回路基板CB1が入出力部64を有し、回路基板CB1と画像処理装置150とが接続されている点である。回路基板CB1と画像処理装置150とは、例えばUSBによって接続され得る。
 図20に例示する構成では、得られたサブ画像のデータが、回路基板CB3を介さずに回路基板CB1から画像処理装置150に送られる。画像処理装置150が、イメージセンサ4の駆動タイミングに関するコマンドを回路基板CB1の処理回路p1に与えてもよい。回路基板CB1と画像処理装置150とを回路基板CB3を介さずに接続することにより、帯状のケーブルを省略することが可能である。結果として、回路基板CB1の姿勢をステージ130の姿勢とともに変化させるような構成を採用することが容易になる。
 以上に説明したように、光源30から出射される光線に対するイメージセンサ4の配置を相対的に変化させることにより、被写体2を複数の角度から照射して、異なる照射方向に対応した複数のサブ画像を取得することが可能である。上記では、光源30、レンズ40および被写体2が直線的に配置された構成を例示した。しかしながら、光源30、レンズ40および被写体2の配置はこれまでに説明した例に限定されず、例えば、ミラーなどを用いて光線の向きを変更して被写体2に照明光を照射してもよい。このような構成によれば、画像取得装置をより小型化し得る。
 なお、イメージセンサ4は、CCDイメージセンサに限定されず、CMOS(Complementary Metal-Oxide Semiconductor)イメージセンサ、または、その他のイメージセンサ(一例として、後述する光電変換膜積層型イメージセンサ)であってもよい。CCDイメージセンサおよびCMOSイメージセンサは、表面照射型または裏面照射型のいずれであってもよい。以下、イメージセンサの素子構造と、イメージセンサのフォトダイオードに入射する光の関係を説明する。
 図21は、CCDイメージセンサの断面構造と、被写体の相対的な透過率Tdの分布の例とを示す。図21に示すように、CCDイメージセンサは、概略的には、基板80と、基板80上の絶縁層82と、絶縁層82内に配置された配線84とを有している。基板80には、複数のフォトダイオード88が形成されている。配線84上には、遮光層(図21において不図示)が形成される。ここでは、トランジスタなどの図示は省略している。以下の図面においてもトランジスタなどの図示を省略する。なお、概略的には、表面照射型CMOSイメージセンサにおけるフォトダイオード近傍の断面構造は、CCDイメージセンサにおけるフォトダイオード近傍の断面構造とほぼ同様である。そのため、ここでは、表面照射型CMOSイメージセンサの断面構造の図示および説明を省略する。
 図21に示すように、照明光が撮像面の法線方向から入射する場合、被写体のうち、フォトダイオード88の直上にある領域R1を透過した照射光は、フォトダイオード88に入射する。一方、被写体のうち、配線84上の遮光層の直上にある領域R2を透過した照射光は、イメージセンサの遮光領域(遮光膜が形成された領域)に入射する。したがって、撮像面の法線方向から照射した場合には、被写体のうち、フォトダイオード88の直上にある領域R1を示す画像が得られる。
 遮光膜の直上にある領域を示す画像を取得するためには、領域R2を透過した光がフォトダイオード88に入射するように、撮像面の法線方向に対して傾いた方向から照射を行えばよい。このとき、照射方向によっては、領域R2を透過した光のうちの一部が、配線84によって遮られることがある。図示する例では、ハッチングによって示す部分を通る光線はフォトダイオード88には届かない。そのため、斜め入射においては、画素値が幾分低下することがある。しかしながら、透過光の全てが遮られるわけではないので、このときに得られたサブ画像を用いた高分解能画像の形成は可能である。
 図22Aおよび図22Bは、裏面照射型CMOSイメージセンサの断面構造と、被写体の相対的な透過率Tdの分布の例とを示す。図22Aに示すように、裏面照射型CMOSイメージセンサでは、斜め入射の場合であっても透過光が配線84によって遮られることがない。ただし、被写体のうち、撮像を行いたい領域とは異なる他の領域を透過した光(図22Aおよび後述する図22B中、太い矢印BAで模式的に示す光)が基板80に入射することによってノイズが発生し、サブ画像の品質が劣化するおそれがある。このような劣化は、図22Bに示すように、基板においてフォトダイオードが形成された領域以外の領域上に遮光層90を形成することにより低減することが可能である。
 図23は、有機材料または無機材料で形成した光電変換膜を備えるイメージセンサ(以下、「光電変換膜積層型イメージセンサ」と呼ぶ。)の断面構造と、被写体の相対的な透過率Tdの分布の例とを示す。
 図23に示すように、光電変換膜積層型イメージセンサは、概略的には、基板80と、複数の画素電極が設けられた絶縁層82と、絶縁層82上の光電変換膜94と、光電変換膜94上の透明電極96とを有している。図示するように、光電変換膜積層型イメージセンサでは、半導体基板に形成されるフォトダイオードの代わりに、光電変換を行う光電変換膜94が基板80(例えば半導体基板)上に形成されている。光電変換膜94および透明電極96は、典型的には、撮像面の全体にわたって形成される。ここでは、光電変換膜94を保護する保護膜の図示を省略している。
 光電変換膜積層型イメージセンサでは、光電変換膜94における入射光の光電変換によって発生した電荷(電子または正孔)が画素電極92によって集められる。これにより、光電変換膜94に入射した光の量を示す値が得られる。したがって、光電変換膜積層型イメージセンサでは、撮像面において、1つの画素電極92を含む単位領域が1つの画素に相当するといえる。光電変換膜積層型イメージセンサでは、裏面照射型CMOSイメージセンサと同様に斜め入射の場合であっても透過光が配線によって遮られることがない。
 図1A~図6を参照して説明したように、高分解能画像の形成においては、被写体の異なる部分から構成される像を示す複数のサブ画像が用いられる。ところが、典型的な光電変換膜積層型イメージセンサでは、撮像面の全体にわたって光電変換膜94が形成されているので、例えば垂直入射の場合であっても、被写体の所望の領域以外の領域を透過した光によっても光電変換膜94において光電変換が生じ得る。このときに発生した余分な電子または正孔が画素電極92に引き込まれると、適切なサブ画像が得られないおそれがある。したがって、画素電極92と透明電極96とが重なる領域(図23において網掛けされた領域)において発生した電荷を画素電極92に選択的に引き込むことが有益である。
 図23に例示する構成では、画素電極92のそれぞれと対応して、画素内にダミー電極98が設けられている。被写体の像の取得時、画素電極92とダミー電極98との間には、適切な電位差が与えられる。これにより、画素電極92と透明電極96とが重なる領域以外の領域で発生した電荷をダミー電極98に引き込み、画素電極92と透明電極96とが重なる領域で発生した電荷を選択的に画素電極92に引き込むことができる。なお、透明電極96または光電変換膜94のパターニングによっても、同様の効果を得ることが可能である。このような構成においては、画素の面積S1に対する画素電極92の面積S3の比率(S3/S1)が、「開口率」に相当するということができる。
 既に説明したように、Nを2以上の整数するとき、イメージセンサ4の開口率が近似的に1/Nに等しければ、最大N倍の高分解能化が可能になる。言い換えれば、開口率が小さい方が高分解能化には有利である。光電変換膜積層型イメージセンサでは、画素電極92の面積S3を調整することによって、開口率に相当する比率(S3/S1)を調整することが可能である。この比率(S3/S1)は、例えば10%~50%の範囲に設定される。比率(S3/S1)が上記の範囲内にある光電変換膜積層型イメージセンサは、超解像に用いられ得る。
 なお、図21および図22Bからわかるように、CCDイメージセンサおよび表面照射型CMOSイメージセンサにおいて被写体と対向する表面は平坦ではない。例えば、CCDイメージセンサでは、その表面に段差が存在する。また、裏面照射型CMOSイメージセンサでは、高分解能画像を形成するためのサブ画像を取得するには、パターニングされた遮光層を撮像面上に設けることが必要であり、被写体と対向する表面は平坦ではない。
 これに対し、光電変換膜積層型イメージセンサの撮像面は、図23からわかるように、ほぼ平坦な面である。したがって、撮像面上に被写体を配置した場合であっても、撮像面の形状に起因する被写体の変形がほとんど生じない。言い換えれば、光電変換膜積層型イメージセンサを用いてサブ画像を取得することによって、被写体のより詳細な構造を観察し得る。
 本明細書において説明される上述の種々の態様は、矛盾が生じない限り互いに組み合わせることが可能である。
 本開示によれば、より小型の画像取得装置を提供できる。本開示の実施形態による画像取得装置または画像形成システムは、イメージセンサの固有分解能を超える分解能を実現する高分解能化技術の適用を容易にし得る。高分解能画像は、例えば病理診断の場面において有益な情報を提供する。
 2  被写体
 4  イメージセンサ
 8  透明プレート
 10,M  モジュール
 30,30a,30b,30c  光源
 40  レンズ
 100,100a,100b  画像取得装置
 110,110a,110b  光学系
 120,120a,120b,120c,120d,120e,120f,120g,120h  照明角度調整機構
 130  ステージ
 500a,500b  画像形成システム
 CB1,CB2,CB3  回路基板
 p1,p2,p3  処理回路

Claims (12)

  1.  レンズおよび前記レンズの焦点面内に配置された光源を有する光学系であって、コリメートされた照明光を生成する光学系と、
     被写体に対する前記照明光の照射方向を変更できるように構成された照明角度調整機構と、
     前記被写体を透過した前記照明光がイメージセンサに入射するように前記被写体および前記イメージセンサが一体化されたモジュールが、着脱自在に装填されるように構成されたステージであって、前記モジュールが装填された状態において前記イメージセンサの出力を受け取る回路を有するステージと
    を備える画像取得装置。
  2.  前記照明角度調整機構は、前記ステージおよび前記光源の向きの少なくとも一方を、直交する2軸まわりに独立して回転可能な機構を含んでいる、請求項1に記載の画像取得装置。
  3.  前記照明角度調整機構は、前記ステージの姿勢および前記光源の向きの少なくとも一方を変化させるゴニオ機構を含んでいる、請求項1または2に記載の画像取得装置。
  4.  前記照明角度調整機構は、前記ステージの中心を通る回転軸に関して前記ステージおよび前記光源の少なくとも一方を回転させる機構を含んでいる、請求項1から3のいずれかに記載の画像取得装置。
  5.  前記照明角度調整機構は、前記ステージ、前記光源および前記レンズの少なくとも1つを平行移動させるスライド機構を含んでいる、請求項1から4のいずれかに記載の画像取得装置。
  6.  前記光源は、互いに異なる波長域の光を出射する複数の発光素子の組を有する、請求項1から5のいずれかに記載の画像取得装置。
  7.  前記光源は、互いに異なる位置に配置された複数の前記組を有する、請求項6に記載の画像取得装置。
  8.  前記レンズは、アクロマートレンズである、請求項6または7に記載の画像取得装置。
  9.  前記ステージは、前記イメージセンサの出力をデジタル信号に変換して出力する第1処理回路を含む第1回路基板を有する、請求項1から8のいずれかに記載の画像取得装置。
  10.  前記ステージは、前記イメージセンサの制御信号を生成する第2処理回路を含む第2回路基板を有し、
     前記第2回路基板は、第1回路基板に一体的に結合されている、請求項9に記載の画像取得装置。
  11.  前記画像取得装置は、さらに、前記複数の異なる方向に応じて前記被写体の像を示す画像信号が得られるごとに、順次、平均化処理を行うように構成された第3処理回路を備える、請求項1から10のいずれかに記載の画像取得装置。
  12.  請求項1から11のいずれかに記載の画像取得装置と、
     前記照明光の前記照射方向を変えて取得した前記複数の画像を合成することにより、前記複数の画像の各々よりも分解能の高い前記被写体の高分解能画像を形成する画像処理装置と
    を備える画像形成システム。
PCT/JP2015/004065 2014-08-22 2015-08-17 画像取得装置および画像形成システム WO2016027448A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201580044186.3A CN106576129A (zh) 2014-08-22 2015-08-17 图像取得装置以及图像形成系统
JP2016543810A JP6627083B2 (ja) 2014-08-22 2015-08-17 画像取得装置および画像形成システム
US15/426,125 US20170146790A1 (en) 2014-08-22 2017-02-07 Image acquisition device and image formation system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-169406 2014-08-22
JP2014169406 2014-08-22

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/426,125 Continuation US20170146790A1 (en) 2014-08-22 2017-02-07 Image acquisition device and image formation system

Publications (1)

Publication Number Publication Date
WO2016027448A1 true WO2016027448A1 (ja) 2016-02-25

Family

ID=55350412

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/004065 WO2016027448A1 (ja) 2014-08-22 2015-08-17 画像取得装置および画像形成システム

Country Status (4)

Country Link
US (1) US20170146790A1 (ja)
JP (1) JP6627083B2 (ja)
CN (1) CN106576129A (ja)
WO (1) WO2016027448A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6004245B1 (ja) * 2014-11-27 2016-10-05 パナソニックIpマネジメント株式会社 画像取得装置、画像形成システムおよび画像形成方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI651547B (zh) * 2017-09-29 2019-02-21 胡繼忠 多角度出光顯示單元及具有2d或3d同時間分區域顯示或全屏功能切換之顯示裝置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01321770A (ja) * 1988-06-23 1989-12-27 Canon Inc 画像読取装置
JPH05316434A (ja) * 1992-05-12 1993-11-26 Olympus Optical Co Ltd 高分解能撮像装置
JPH10197785A (ja) * 1996-11-15 1998-07-31 Olympus Optical Co Ltd 色消しレンズ
JP2012095131A (ja) * 2010-10-27 2012-05-17 Canon Inc 撮像装置
JP5789766B2 (ja) * 2013-06-06 2015-10-07 パナソニックIpマネジメント株式会社 画像取得装置、画像取得方法、およびプログラム
JP5789765B2 (ja) * 2013-06-07 2015-10-07 パナソニックIpマネジメント株式会社 画像取得装置、画像取得方法、およびプログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3564240A (en) * 1969-07-22 1971-02-16 Charles Supper Co Inc Goniometer head for x-ray diffraction apparatus with improved z-motion mechanism
CN1212104A (zh) * 1996-12-26 1999-03-24 索尼公司 高分辨率图像捕获装置及其方法
US6975949B2 (en) * 2004-04-27 2005-12-13 Xerox Corporation Full width array scanning spectrophotometer
CN101371568B (zh) * 2006-01-20 2010-06-30 松下电器产业株式会社 复眼方式的照相机模块及其制造方法
JP4130211B2 (ja) * 2006-05-31 2008-08-06 三洋電機株式会社 撮像装置
DE102007034958A1 (de) * 2007-04-30 2008-11-06 Osram Opto Semiconductors Gmbh Strahlenkombinator für ein mehrfarbiges Laserdisplay
JP2009129365A (ja) * 2007-11-27 2009-06-11 Sony Corp 撮像装置およびその方法
JP5581851B2 (ja) * 2009-12-25 2014-09-03 ソニー株式会社 ステージ制御装置、ステージ制御方法、ステージ制御プログラム及び顕微鏡
US20110169936A1 (en) * 2010-01-14 2011-07-14 Olympus Corporation Microscope
US9605941B2 (en) * 2011-01-06 2017-03-28 The Regents Of The University Of California Lens-free tomographic imaging devices and methods
US8866063B2 (en) * 2011-03-31 2014-10-21 The Regents Of The University Of California Lens-free wide-field super-resolution imaging device
JP5869239B2 (ja) * 2011-06-21 2016-02-24 浜松ホトニクス株式会社 光測定装置、光測定方法、及び光測定プログラム
GB2495537B (en) * 2011-10-14 2017-02-15 Solentim Ltd Method of and apparatus for analysis of a sample of biological tissue cells
WO2013070287A1 (en) * 2011-11-07 2013-05-16 The Regents Of The University Of California Maskless imaging of dense samples using multi-height lensfree microscope
JP2013152454A (ja) * 2011-12-27 2013-08-08 Canon Inc 画像処理装置、画像処理システム、画像処理方法および画像処理プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01321770A (ja) * 1988-06-23 1989-12-27 Canon Inc 画像読取装置
JPH05316434A (ja) * 1992-05-12 1993-11-26 Olympus Optical Co Ltd 高分解能撮像装置
JPH10197785A (ja) * 1996-11-15 1998-07-31 Olympus Optical Co Ltd 色消しレンズ
JP2012095131A (ja) * 2010-10-27 2012-05-17 Canon Inc 撮像装置
JP5789766B2 (ja) * 2013-06-06 2015-10-07 パナソニックIpマネジメント株式会社 画像取得装置、画像取得方法、およびプログラム
JP5789765B2 (ja) * 2013-06-07 2015-10-07 パナソニックIpマネジメント株式会社 画像取得装置、画像取得方法、およびプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6004245B1 (ja) * 2014-11-27 2016-10-05 パナソニックIpマネジメント株式会社 画像取得装置、画像形成システムおよび画像形成方法

Also Published As

Publication number Publication date
CN106576129A (zh) 2017-04-19
JP6627083B2 (ja) 2020-01-08
JPWO2016027448A1 (ja) 2017-07-06
US20170146790A1 (en) 2017-05-25

Similar Documents

Publication Publication Date Title
US11294166B2 (en) Endoscope incorporating multiple image sensors for increased resolution
US8125559B2 (en) Image formation for large photosensor array surfaces
US7679041B2 (en) Electronic imaging device with photosensor arrays
EP3420881B1 (en) Endoscope lens arrangement for chief ray angle control at sensor
US20180301484A1 (en) Image sensors with high dynamic range and autofocusing hexagonal pixels
US20110109776A1 (en) Imaging device and imaging apparatus
JP6016396B2 (ja) 撮像素子および撮像装置
EP2577977A1 (en) Two sensor imaging systems
JP2010252105A (ja) 撮像装置
TWI449161B (zh) 固態影像拾取裝置,其製造方法及電子設備
JP2009177727A (ja) 撮像装置
JP2015185947A (ja) 撮像システム
US20210383746A1 (en) Architecture for light emitting elements in a light field display
US11825216B2 (en) Image sensor
US20230254469A1 (en) Method and system for enhanced image sensor timing
JP6627083B2 (ja) 画像取得装置および画像形成システム
JP2014003116A (ja) 撮像素子
WO2013114895A1 (ja) 撮像装置
JP6562253B2 (ja) 画像出力装置、画像送信装置、画像受信装置、画像出力方法およびプログラム
JPWO2016084310A1 (ja) 画像取得装置、画像形成システムおよび画像形成方法
JP2013175812A (ja) 撮像素子および撮像装置
US8654223B2 (en) Image pickup apparatus
JP2022509219A (ja) ハイブリッドx線及び光検出器
JP2004080605A (ja) 撮像装置
JP3999510B2 (ja) 表示システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15833173

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016543810

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15833173

Country of ref document: EP

Kind code of ref document: A1