WO2021161447A1 - 光学顕微鏡システム - Google Patents

光学顕微鏡システム Download PDF

Info

Publication number
WO2021161447A1
WO2021161447A1 PCT/JP2020/005541 JP2020005541W WO2021161447A1 WO 2021161447 A1 WO2021161447 A1 WO 2021161447A1 JP 2020005541 W JP2020005541 W JP 2020005541W WO 2021161447 A1 WO2021161447 A1 WO 2021161447A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
image
candidate
optical
candidate information
Prior art date
Application number
PCT/JP2020/005541
Other languages
English (en)
French (fr)
Inventor
健郎 大澤
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to PCT/JP2020/005541 priority Critical patent/WO2021161447A1/ja
Publication of WO2021161447A1 publication Critical patent/WO2021161447A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to an optical microscope system, and more particularly to an augmented reality optical microscope system that superimposes information obtained by analyzing a digital image on an optical image.
  • a pathological specimen is a thinly sliced and stained section of living tissue. Determining whether the tissue of a pathological specimen contains cancer cells can be difficult even for an experienced pathologist. Therefore, an augmented reality (AR) microscope has been proposed in which support information that supports diagnosis such as the contour of a cancerous region is superimposed on an optical image of a pathological specimen observed through an eyepiece (see, for example, Patent Document 1). .. Based on the support information superimposed on the optical image, the pathologist can reliably detect the cancer and know the location of the cancer.
  • AR augmented reality
  • the support information superimposed on the optical image may interfere with the diagnosis by the pathologist. For example, if the pathologist can easily detect the cancer without the support information, if the support information already recognizes the cancer area, or if the support information is incorrect, the support information is the pathologist. Not necessary for.
  • the present invention has been made in view of the above circumstances, and an object of the present invention is to provide an optical microscope system capable of effectively supporting a diagnosis without interfering with the diagnosis.
  • One aspect of the present invention is an optical microscope that acquires an optical image of a biological tissue, the optical microscope having an eyepiece for observing the optical image, and a digital image of the biological tissue by imaging the optical image.
  • An imaging unit that acquires This is an optical microscope system including a presence / absence information display unit for displaying candidate presence / absence information regarding the presence / absence of candidates in the field of view of the eyepiece and in a region outside the optical image.
  • a digital image including an optical image of a living tissue acquired by an optical microscope is acquired by an imaging unit.
  • the image analysis unit analyzes the digital image, and when the digital image contains a candidate for a lesion, the candidate for the lesion is recognized. Then, the candidate presence / absence information regarding whether or not the recognized lesion candidate exists is displayed in the visual field of the eyepiece by the presence / absence information display unit.
  • the observer can simultaneously observe the optical image of the biological tissue and the candidate presence / absence information through the eyepiece, and recognizes whether or not there is a lesion candidate in the biological tissue based on the candidate presence / absence information. be able to.
  • the candidate presence / absence information is displayed in a region outside the optical image and does not overlap the optical image. With such candidate presence / absence information, it is possible to effectively support the diagnosis without interfering with the diagnosis based on the optical image.
  • the image analysis unit generates candidate information regarding the candidate for the lesion, and the candidate information generated by the image analysis unit is superimposed on the candidate region of the lesion in the optical image.
  • An information superimposing unit and a superimposing switching unit that switches whether or not to superimpose the candidate information on the optical image by the candidate information superimposing unit may be provided.
  • the lesion candidate information is generated and superimposed on the lesion region in the optical image. Therefore, the observer can recognize the position of the candidate for the lesion based on the candidate information.
  • the superposition switching unit has a timer for measuring the length of time elapsed from the start of superimposition of the candidate information on the optical image, and the length of time measured by the timer is a predetermined length.
  • the number reaches the limit, the superposition of the candidate information may be stopped.
  • the candidate information superimposed on the optical image automatically disappears when a predetermined time elapses from the start of superposition.
  • the unnecessary candidate information is automatically deleted, and the unnecessary candidate information can be prevented from interfering with the diagnosis. ..
  • the superimposition switching unit has a timer for measuring the length of time elapsed from the start of stationary of the stage of the optical microscope, and the length of time measured by the timer reaches a predetermined length. At that time, the superposition of the candidate information may be stopped.
  • the candidate information superimposed on the optical image in the field of view of the eyepiece automatically disappears when a predetermined time elapses after the stage of the optical microscope comes to rest.
  • the unnecessary candidate information is automatically erased, and the unnecessary candidate information can be prevented from interfering with the diagnosis.
  • the superimposition switching unit switches whether or not to superimpose the candidate information of the lesion portion on the optical image based on the magnification of the objective lens of the optical microscope used for acquiring the optical image.
  • the candidate information superimposed on the optical image is effective for making the observer recognize the position of the lesion.
  • the lesion portion occupies the entire or most of the optical image.
  • the candidate information superimposing portion may display the candidate presence / absence information on the same side as the position of the lesion portion in the optical image with respect to the center of the optical image. According to this configuration, the observer can recognize the position of the lesion portion in the optical image based on the position of the candidate presence / absence information in the visual field.
  • FIG. 4B It is an overall block diagram of the optical microscope system which concerns on one Embodiment of this invention. It is a functional block diagram of the computer of the optical microscope system of FIG. It is a functional block diagram of the image analysis unit of FIG. It is a figure which shows an example of the field of view of an eyepiece. It is a figure which shows an example of a camera image. It is a figure which shows the cancer region recognized in the camera image of FIG. 4B. It is a figure which shows the boundary information of the cancer region of FIG. 4C. It is a figure which shows the AR image generated from the camera image of FIG. 4B and contains the cancer presence / absence information and the boundary information. It is a figure which shows the field of view of the eyepiece on which the AR image of FIG.
  • 4E is superposed. It is a figure which shows the field of view of the eyepiece which superposed the AR image which the candidate information is hidden. It is a flowchart which shows the processing of an image analysis part. It is a figure which shows another example of cancer presence / absence information. It is a figure which shows another example of cancer presence / absence information. It is a figure which shows another example of cancer presence / absence information.
  • the optical microscope system 100 is an augmented reality (AR) microscope system that acquires information about a sample from a digital image of the sample and superimposes the information on an optical image of the sample observed through an eyepiece of an optical microscope.
  • AR augmented reality
  • the optical microscope system 100 is for diagnosis that supports pathological diagnosis by an observer by superimposing information on a lesion portion such as a cancer region included in a pathological specimen on an optical image.
  • the optical microscope system 100 includes an optical microscope 1, a camera 2 and an augmented reality (AR) display 3 connected to the optical microscope 1, and a computer 4 connected to the camera 2 and the AR display 3. And have.
  • AR augmented reality
  • the optical microscope 1 is a transmission type upright microscope that acquires an optical image B of a sample S.
  • the optical microscope 1 has a horizontal stage 11 on which the specimen S is placed, a revolver 13 arranged above the stage 11 and holding a plurality of objective lenses 12, and a lower side of the specimen S arranged below the stage 11. It is provided with an illumination system 14 that irradiates the illumination light from the surface, and an eyepiece lens (eyepiece portion) 15 for observing the optical image B of the sample S formed by the objective lens 12.
  • Specimen S is a pathological specimen, that is, a section of living tissue attached on a slide glass. Specimen S is placed horizontally on stage 11.
  • the stage 11 can be moved in two horizontal directions and a vertical direction that are orthogonal to each other by manually operating a handle (not shown). By moving the stage 11 in the horizontal direction, the observation position of the sample S by the objective lens 12 can be moved in the horizontal direction. Further, the vertical movement of the stage 11 allows the objective lens 12 to be focused on the sample S.
  • the revolver 13 has a plurality of mounting holes (not shown) arranged in the circumferential direction around the rotation axis, and the objective lens 12 is mounted in each mounting hole.
  • the revolver 13 is equipped with four 4x, 10x, 20x and 40x objective lenses 12.
  • the optical microscope 1 transmits the revolver information to the computer 4.
  • the revolver information is information on the rotation position around the rotation axis of the revolver 13 corresponding to the objective lens 12 currently in use.
  • FIG. 4A represents the field of view A of the eyepiece 15 that can be seen through the eyepiece 15.
  • the field of view A includes a central bright optical image B formed by the objective lens 12 and a dark peripheral region C outside the optical image B.
  • the image light forming the AR image is also incident on the second optical element 17b from the AR display 3 and reflected toward the mirror 17c.
  • the image light is combined with the transmitted light from the sample S, and the AR image is projected onto the field of view A of the eyepiece lens 15.
  • the observer can simultaneously observe the optical image B and the AR image of the sample S through the eyepiece 15.
  • the camera (imaging unit) 2 is a digital camera having a CCD or CMOS image sensor.
  • the camera 2 acquires the camera image D, which is a digital image of the sample S, as shown in FIG. 4B, by capturing the optical image B of the sample S formed on the image sensor.
  • the camera 2 acquires a live image of the sample S by acquiring the camera image D at a predetermined frame rate (for example, 30 fps).
  • the camera image D is input from the camera 2 to the computer 4 by a communication cable such as a USB cable.
  • the AR display (presence / absence information display unit, candidate information superimposition unit) 3 is a projection type display that forms image light and projects the image light.
  • the AR display 3 receives the AR image from the computer 4 and projects the AR image onto the field of view A of the eyepiece 15 by emitting the image light forming the AR image toward the second optical element 17b.
  • a mouse 5, a keyboard 6, and a display 7 are connected to the computer 4 as user interfaces.
  • the computer 4 includes a processor such as a CPU and a storage unit having RAM, ROM and any other storage device. The functions described later of the computer 4 are realized by the processor executing the process according to the program stored in the storage unit.
  • the computer 4 analyzes the camera image D from the camera 2 and generates an AR image that can include cancer presence / absence information (candidate presence / absence information) and candidate information.
  • cancer presence / absence information is information regarding the presence / absence of a cancer region in the camera image D
  • candidate information is information regarding the cancer region E in the camera image D.
  • the computer 4 transmits the AR image to the AR display 3 via the cable for transmitting the image data.
  • the computer 4 includes a camera image input unit 41, an objective lens information generation unit 42, an ON / OFF information generation unit 43, and an image analysis unit 44.
  • the camera image input unit 41 receives the camera image D from the camera 2 at a predetermined frame rate, and overwrites and saves the latest camera image D in the memory.
  • the objective lens information generation unit 42 receives revolver information from the optical microscope 1.
  • the objective lens information generation unit 42 converts the revolver information into objective lens information including information on the magnification of the objective lens 12 currently in use, based on the correspondence between the preset revolver information and the magnification of the objective lens 12. do.
  • the ON / OFF information generation unit 43 receives the objective lens information from the objective lens information generation unit 42, and displays (ON) or hides (OFF) the candidate information based on the magnification of the objective lens 12 included in the objective lens information. Generates ON / OFF information to be represented. For example, the ON / OFF information generation unit 43 generates ON / OFF information based on the correspondence between the preset magnification and ON or OFF. The correspondence between the magnification of the objective lens 12 and the ON / OFF of the candidate information is, for example, when the magnification of the objective lens 12 is either 4 times or 10 times, the ON / OFF information is ON and the objective. When the magnification of the lens 12 is either 20 times or 40 times, the ON / OFF information is OFF.
  • the ON / OFF information generation unit 43 receives the mouse information from the mouse 5 and the keyboard information from the keyboard 6.
  • the mouse information is information based on the operation of the mouse 5 such as a click
  • the keyboard information is information based on the input to the keyboard 6.
  • the ON / OFF information generation unit 43 changes the ON / OFF information from ON to OFF or from OFF based on at least one of the mouse information and the keyboard information. Switch to ON.
  • the image analysis unit 44 receives the camera image D from the camera image input unit 41, recognizes the cancer region (candidate for lesion) E in the camera image D by analyzing the camera image D, and AR image based on the recognition result. H is generated and the AR image H is output to the AR display 3.
  • the image analysis unit 44 receives the latest camera image D from the camera image input unit 41 in synchronization with the output of the AR image H, and repeats the analysis of the camera image D and the output of the AR image H.
  • FIG. 3 shows a more detailed configuration of the image analysis unit 44. As shown in FIG. 3, the image analysis unit 44 includes a resolution conversion unit 441, a cancer region recognition unit 442, a cancer presence / absence determination unit 443, a candidate information generation unit 444, and an AR image generation unit 445. ..
  • the resolution conversion unit 441 receives the camera image D from the camera image input unit 41 and receives the objective lens information from the objective lens information generation unit 42.
  • the resolution of the camera image D with respect to the sample S differs depending on the magnification of the objective lens 12 used to acquire the camera image D.
  • the resolution conversion unit 441 converts the resolution of the camera image D based on the magnification included in the objective lens information to generate a camera image D having a predetermined resolution for the sample S regardless of the magnification of the objective lens 12. ..
  • the resolution conversion unit 441 downsamples the camera image D acquired by using the 40 times objective lens 12. ,
  • the number of vertical and horizontal pixels of the camera image D is reduced by 1/4, respectively.
  • the cancer region recognition unit 442 receives a camera image D having a predetermined resolution from the resolution conversion unit 441.
  • the cancer region recognition unit 442 recognizes the cancer region E in the camera image D, and outputs the cancer region information including the position information of the cancer region E to the cancer presence / absence determination unit 443.
  • the cancer region recognition unit 442 analyzes whether or not each pixel of the camera image D contains cancer cells, and generates information as to whether or not each pixel contains cancer as cancer region information.
  • a model created by machine learning is used for the analysis of each pixel. For example, a large number of sets of images having a predetermined resolution and corresponding correct cancer region information are prepared as training data, and a model is created by deep learning of the training data.
  • FIG. 4B shows a camera image D including the cancer region E
  • FIG. 4C shows the cancer region information obtained by analysis of the camera image D of FIG. 4B.
  • the white region represents the cancer region E
  • the black region represents a region other than the cancer region E.
  • the cancer region recognition unit 442 may analyze only the pixels in the region corresponding to the optical image B, not all the pixels in the camera image D.
  • the cancer presence / absence determination unit 443 receives the cancer region information from the cancer region recognition unit 442, determines whether or not the cancer region E is recognized in the camera image D based on the cancer region information, and determines the determination result as a candidate information generation unit. It is output to 444 and AR image generation unit 445. For example, the cancer presence / absence determination unit 443 determines that the cancer region E is recognized in the camera image D when one or more pixels including the cancer cells are included in the cancer region information. On the other hand, the cancer presence / absence determination unit 443 determines that the cancer region E is not recognized in the camera image D when all the pixels included in the cancer region information do not contain the cancer cells.
  • the candidate information generation unit (superimposition switching unit) 444 receives ON / OFF information from the ON / OFF information generation unit 43, receives cancer region information from the cancer region recognition unit 442, and receives a determination result from the cancer presence / absence determination unit 443.
  • the candidate information generation unit 444 generates the candidate information F of the cancer region E based on the ON / OFF information, the cancer region information, and the determination result. Specifically, when the ON / OFF information is ON and the cancer region E is recognized in the camera image D, the candidate information generation unit 444 determines the candidate information F of the cancer region E based on the cancer region information. Is generated, and the candidate information F is output to the AR image generation unit 445.
  • candidate information F is boundary information representing a boundary between a cancer region E and a region other than the cancer region E.
  • the candidate information F is a boundary line surrounding the cancer region E.
  • the candidate information generation unit 444 does not generate the candidate information F.
  • the AR image generation unit 445 receives the determination result from the cancer presence / absence determination unit 443, and generates the AR image H based on the determination result. Specifically, when the cancer region E is recognized in the camera image D, the AR image generation unit 445 generates the cancer presence / absence information G as shown in FIG. 4E, and the AR image including the cancer presence / absence information G. Generate H.
  • the cancer presence / absence information G is, for example, a predetermined graphic, and is a circle mark of a predetermined color in the example of FIG. 4E. Further, the AR image generation unit 445 receives the candidate information F from the candidate information generation unit 444 and adds the candidate information F to the AR image H when the candidate information F generated by the candidate information generation unit 444 exists.
  • the candidate information F is included in the AR image H only when the cancer region E is recognized in the camera image D and the ON / OFF information is ON.
  • the AR image generation unit 445 generates an AR image H that does not include the cancer presence / absence information G and the candidate information F.
  • the generated AR image H is transmitted from the AR image generation unit 445 to the AR display 3, and the AR image H is projected onto the field of view A of the eyepiece 15 by the AR display 3. Therefore, when the cancer region E is recognized in the camera image D by the cancer region recognition unit 442, at least the cancer presence / absence information G is superimposed on the visual field A as shown in FIG. 4F.
  • the ON / OFF information is ON and the candidate information F is generated by the candidate information generation unit 444, the candidate information F is further superimposed on the field of view A. That is, it is switched whether or not the candidate information F is superimposed on the visual field A depending on whether or not the candidate information generation unit 444 generates the candidate information F.
  • the cancer region E is not recognized in the camera image D by the cancer region recognition unit 442, neither the cancer presence / absence information G nor the candidate information F is superimposed on the visual field A.
  • the AR image generation unit 445 generates an AR image H including the cancer presence / absence information G at a position corresponding to the peripheral region C in the visual field A, and corresponds to the cancer region E in the optical image B in the visual field A.
  • Candidate information F is generated at the position. Therefore, as shown in FIG. 4F, the cancer presence / absence information G is superimposed on the peripheral region C, and the boundary information which is the candidate information F is superimposed on the boundary of the cancer region E in the optical image B.
  • the display position of the cancer presence / absence information G is the upper left of the optical image B.
  • the observer observes the optical image B of the sample S acquired by the optical microscope 1 through the eyepiece lens 15.
  • the camera image D of the optical image B of the sample S is acquired by the camera 2 at a predetermined frame rate, and the camera image D is input to the computer 4.
  • the revolver information is input from the optical microscope 1 to the computer 4.
  • the camera image D is input to the image analysis unit 44 via the camera image input unit 41. Further, in the computer 4, the revolver information is converted into the objective lens information in the objective lens information generation unit 42, and the objective lens information is input to the image analysis unit 44 and the ON / OFF information generation unit 43.
  • the ON / OFF information generation unit 43 generates ON / OFF information based on the magnification of the objective lens 12 currently in use, and the ON / OFF information is input to the image analysis unit 44.
  • the image analysis unit 44 inputs the camera image D, the objective lens information, and the ON / OFF information (steps S1 to S3).
  • the order of inputting the camera image D, the objective lens information, and the ON / OFF information to the image analysis unit 44 (the order of steps S1, S2, and S3) is arbitrary and can be changed.
  • the image analysis unit 44 generates an AR image H (steps S4 to S9). That is, the resolution conversion unit 441 converts the resolution of the camera image D to a predetermined resolution based on the magnification of the objective lens 12 (step S4).
  • the cancer region recognition unit 442 recognizes the cancer region E in the camera image D having a predetermined resolution (step S5). Then, the cancer region recognition unit 442 transmits the cancer region information which is the recognition result of the cancer region E to the cancer presence / absence determination unit 443 and the candidate information generation unit 444.
  • the cancer presence / absence determination unit 443 determines whether or not the cancer region E is recognized in the camera image D based on the cancer region information (step S6).
  • the candidate information generation unit 444 When the ON / OFF information input in step S3 is ON (YES in step S7), the candidate information generation unit 444 generates candidate information F based on the cancer region information (step S8), and the candidate information F is transmitted to the AR image generation unit 445.
  • the ON / OFF information input in step S3 is OFF (NO in step S7), the candidate information F is not generated, and therefore the candidate information F is not transmitted to the AR image generation unit 445.
  • the AR image generation unit 445 When it is determined in step S6 that the cancer region E is recognized in the camera image D, the AR image generation unit 445 generates an AR image H including the cancer presence / absence information G (step S9).
  • the candidate information F is generated by the candidate information generation unit 444 in step S8, the AR image H also includes the candidate information F.
  • an AR image H that does not include the cancer presence / absence information G and the candidate information F is generated (step S9).
  • the AR image H is transmitted from the computer 4 to the AR display 3 (step S10), and the AR image H is superimposed on the field of view A of the eyepiece 15 by the AR display 3.
  • the cancer presence / absence information G is displayed in the peripheral region C in the visual field A.
  • the cancer presence / absence information G is not displayed in the peripheral region C in the visual field A. Therefore, the observer can easily recognize whether or not the cancer region E exists based on the display and non-display of the cancer presence / absence information G while observing the optical image B of the sample S through the eyepiece lens 15. Can be done. Further, when the cancer region E is recognized in the optical image B, the candidate information F is superimposed on the position of the cancer region E in the optical image B. Therefore, the observer can recognize the position of the cancer region E in the optical image B based on the candidate information F.
  • Candidate information F superimposed on the cancer region E in the optical image B can interfere with the diagnosis.
  • the observer can switch between displaying and hiding the candidate information F by operating the mouse 5 or inputting to the keyboard 6.
  • the mouse information or the keyboard information is turned on / off by the information generator. It is input to 43.
  • the ON / OFF information generation unit 43 switches the ON / OFF information from ON to OFF, and in step S3, the OFF ON / OFF information is input to the candidate information generation unit 444.
  • the generation of the candidate information F is stopped, and the AR image H including only the cancer presence / absence information G is generated (step S9).
  • the mouse information or keyboard information is turned ON / OFF. It is input to the information generation unit 43.
  • the ON / OFF information generation unit 43 switches the ON / OFF information from OFF to ON, and in step S3, the ON / OFF information of ON is input to the candidate information generation unit 444. NS. Then, the generation of the candidate information F is restarted (step S8), and the AR image H including the cancer presence / absence information G and the candidate information F is generated (step S9).
  • the cancer presence / absence information G is displayed in the region C outside the optical image B, so that the cancer presence / absence information G does not interfere with the observer's observation of the optical image B.
  • Such cancer presence / absence information G can effectively support the diagnosis while preventing the observer from interfering with the diagnosis.
  • the ON / OFF information is ON, and the candidate information F is superimposed on the optical image B.
  • the ON / OFF information is OFF, and the superimposition of the candidate information F on the optical image B is stopped.
  • the optical image B formed by the low-magnification objective lens 12 is an image of a wide range of the sample S. Therefore, it is highly probable that the cancer region E occupies only a part of the optical image B. In this case, the candidate information F superimposed on the optical image B is effective for making the observer recognize the position of the cancer region E.
  • the optical image B formed by the high-magnification objective lens 12 is an image of a narrow range of the sample S. Therefore, it is highly probable that the cancer region E occupies the entire or most of the optical image B. In this case, in order for the observer to recognize the cancer region E, only the cancer presence / absence information G is sufficient.
  • Candidate information F superimposed on all or most of the optical image B can interfere with detailed observation of the cancer region E.
  • the display / non-display of the candidate information F is automatically switched based on the magnification of the objective lens 12 used for acquiring the optical image B, and the candidate information F is effective for supporting the diagnosis. Only when is, the candidate information F is superimposed on the optical image B. As a result, it is possible to prevent the candidate information F, which is unnecessary for the diagnosis, from being superimposed on the optical image B, and to prevent the candidate information F from interfering with the diagnosis.
  • the cancer presence / absence information G is a circle displayed on the upper left of the optical image B, but the display position of the cancer presence / absence information G in the visual field A and the form of the cancer presence / absence information G are , Not limited to this, and can be changed as appropriate.
  • 6A to 6C show other examples of cancer presence / absence information G.
  • the AR image generation unit 445 may change the position of the cancer presence / absence information G in the visual field A according to the position of the cancer region E in the optical image B. For example, when the cancer region E exists in the lower left portion of the optical image B, the cancer presence / absence information G may be displayed in the lower left portion of the optical image B. In this way, by displaying the cancer presence / absence information G on the same side as the position of the cancer region E in the optical image B with respect to the center of the optical image B, the observer can perform cancer based on the position of the cancer presence / absence information G. The position of the area E can be recognized.
  • the position of the cancer region E in the optical image B is determined by, for example, the cancer presence / absence determination unit 443.
  • the cancer presence / absence determination unit 443 determines the position of the pixel first determined to contain the cancer cells at the position of the cancer region E, and the position of the cancer region E is the upper left and upper right of the optical image B. , The lower left, and the lower right quadrant are determined to belong to, and the determination result is transmitted to the AR image generation unit 445.
  • the cancer presence / absence determination unit 443 may determine the position of the cancer region E in the quadrant having the largest number of pixels containing cancer cells among the four quadrants of the optical image B.
  • the AR image generation unit 445 generates an AR image H in which the cancer presence / absence information G is arranged at a position based on the determination result by the cancer presence / absence determination unit 443.
  • the cancer presence / absence information G may be a line along the edge of the optical image B.
  • the line may be a circle surrounding the optical image B as shown in FIG. 6B, or an arc displayed on the same side as the position of the cancer region E in the optical image B as shown in FIG. 6C. There may be.
  • the candidate information generation unit (superimposition switching unit) 444 may have a timer 446 that measures the length of time elapsed from the start of superimposition of the candidate information F on the optical image B. For example, the candidate information generation unit 444 sets the start of generation of the candidate information F as the start of superimposing the candidate information F on the optical image B, and starts the time measurement by the timer 446 at the start of the generation of the candidate information F. The candidate information generation unit 444 stops the generation of the candidate information F when the length of time measured by the timer 446 reaches a predetermined length.
  • the candidate information F on the optical image B is automatically switched to non-display as shown in FIG. 4G. ..
  • the candidate information F is unnecessary for the observer. Therefore, after the candidate information F is superimposed on the optical image B, the candidate information F is automatically deleted when a predetermined length of time elapses, thereby preventing unnecessary candidate information F from interfering with the diagnosis. be able to.
  • the candidate information generation unit 444 decides to switch the candidate information F to non-display by stopping the generation of the candidate information F based on the elapsed time from the start time of superimposing the candidate information F on the optical image B. Instead of this, the candidate information F may be switched to non-display based on the movement of the stage 11. That is, the candidate information generation unit 444 acquires information on whether the stage 11 is moving or stationary. For example, the candidate information generation unit 444 detects whether the stage 11 is moving or stationary from the time-series changes in the camera image D. The candidate information generation unit 444 measures the length of time elapsed from the start of stationary stage 11 by the timer 446, and when the length of time measured by the timer 446 reaches a predetermined length, the candidate information F Stops the generation of.
  • the observer observes the optical image B while moving the stage 11 in the horizontal direction, and when the cancer region E is found, the observer stops the stage 11 in order to carefully observe the optical image B. After the stage 11 is stopped, the candidate information F on the optical image B is automatically switched to non-display when a predetermined length of time has elapsed. Thereby, it is possible to prevent unnecessary candidate information F from interfering with the diagnosis.
  • the candidate information F is the boundary information of the cancer region E, but the candidate information F may be other information regarding the cancer region E.
  • the candidate information F may be a heat map showing the probability of cancer.
  • the heat map is generated by the cancer region recognition unit 442 in the process of generating the cancer region information. For example, in a heat map, each pixel is displayed in a color according to the probability of having cancer. The heat map is projected and superimposed on the cancer region E in the optical image B.
  • the cancer region E is recognized from the camera image D, and the cancer presence / absence information G and the candidate information F of the cancer region E are provided to the observer, but the lesion portion to be recognized is limited to the cancer region E. It may be any lesion that can be the subject of pathological diagnosis.
  • the lesion may be a benign tumor, an inflamed site, or the like.
  • the objective lens information generation unit 42 generates the objective lens information based on the revolver information from the optical microscope 1, but instead of this, the objective lens information is generated based on other information. You may.
  • the objective lens information generation unit 42 receives the camera image D via the camera image input unit 41 and analyzes the camera image D to estimate the magnification of the objective lens 12 used for observation and to estimate the objective lens. Information may be generated.
  • the presence / absence information display unit is the AR display 3 that projects the candidate presence / absence information G onto the field of view A, but instead of this, a lamp arranged in the field of view A may be used. In this case, the spot of light emitted by the lamp is displayed in the field of view A as candidate presence / absence information G.
  • the shape of the boundary information F of the cancer region E may be changed according to the type or magnification of the cancer.
  • the type of cancer is signet ring cell carcinoma or when the magnification is low
  • the cancer region E in the optical image B is small, so that it is difficult to visually recognize the boundary line of the cancer region E.
  • the visibility of the boundary information F can be improved by forming the boundary information F into a rectangular frame that surrounds the cancer region E and is larger than the cancer region E.
  • Optical microscope system 100 Optical microscope system 1 Optical microscope 2 Camera (imaging unit) 3 Augmented reality (AR) display (presence / absence information display unit, candidate information superimposition unit) 15 Eyepiece (eyepiece) 44 Image analysis unit 446 Timer A Field of view B Optical image C Peripheral area D Camera image, digital image E Cancer area F Candidate information, Boundary information G Cancer presence / absence information (candidate presence / absence information) H Augmented Reality (AR) Image S Specimen, Living Tissue

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Microscoopes, Condenser (AREA)

Abstract

光学顕微鏡システム(100)は、生体組織の光学像を取得する光学顕微鏡(1)であって、光学像を観察するための接眼部(15)を有する光学顕微鏡(1)と、光学像を撮像し生体組織のデジタル画像を取得する撮像部(2)と、デジタル画像を解析し、デジタル画像に含まれる病変部の候補を認識する画像解析部(4)と、病変部の候補の有無に関する候補有無情報を、接眼部(15)の視野内かつ光学像の外の領域に表示させる有無情報表示部(3)と、を備える。

Description

光学顕微鏡システム
 本発明は、光学顕微鏡システムに関し、特に、デジタル画像の解析によって得られた情報を光学像に重畳する拡張現実光学顕微鏡システムに関するものである。
 病理診断では、病理標本を病理医が光学顕微鏡で観察する。病理標本は、薄くスライスされ染色された生体組織の切片である。病理標本の組織に癌細胞が含まれるか否かの判断は、経験を積んだ病理医にとっても難しい場合がある。そこで、接眼レンズを通して観察される病理標本の光学像に、癌領域の輪郭等の診断を支援する支援情報を重畳する拡張現実(AR)顕微鏡が提案されている(例えば、特許文献1参照。)。光学像に重畳された支援情報に基づき、病理医は、癌を確実に発見し、癌の位置を知ることができる。
国際公開第2018/231204号
 病理医が支援情報を必要としていないとき、光学像に重畳される支援情報は病理医による診断を妨害することがある。例えば、支援情報がなくても病理医が容易に癌を発見することができる場合、支援情報によって癌領域を既に認識している場合、および支援情報が間違っている場合等、支援情報は病理医にとって不要である。
 本発明は、上述した事情に鑑みてなされたものであって、診断を妨害することなく、かつ、効果的に診断を支援することができる光学顕微鏡システムを提供することを目的とする。
 上記目的を達成するため、本発明は以下の手段を提供する。
 本発明の一態様は、生体組織の光学像を取得する光学顕微鏡であって、前記光学像を観察するための接眼部を有する光学顕微鏡と、前記光学像を撮像し前記生体組織のデジタル画像を取得する撮像部と、該撮像部によって取得された前記デジタル画像を解析し、該デジタル画像に含まれる病変部の候補を認識する画像解析部と、該画像解析部によって認識された前記病変部の候補の有無に関する候補有無情報を、前記接眼部の視野内かつ前記光学像の外の領域に表示させる有無情報表示部と、を備える光学顕微鏡システムである。
 本態様によれば、光学顕微鏡によって取得された生体組織の光学像を含むデジタル画像が撮像部によって取得される。次に、画像解析部によって、デジタル画像が解析され、デジタル画像内に病変部の候補が含まれる場合には当該病変部の候補が認識される。そして、認識された病変部の候補が存在するか否かに関する候補有無情報が、有無情報表示部によって接眼部の視野内に表示される。
 観察者は、接眼部を通して、生体組織の光学像と候補有無情報とを同時に観察することができ、候補有無情報に基づいて、生体組織に病変部の候補が存在するか否かを認識することができる。
 この場合に、候補有無情報は、光学像の外の領域に表示され、光学像に重なることはない。このような候補有無情報によって、光学像に基づく診断を妨害することなく、かつ、効果的に診断を支援することができる。
 上記態様において、前記画像解析部が、前記病変部の候補に関する候補情報を生成し、前記画像解析部によって生成された前記候補情報を前記光学像内の前記病変部の候補の領域に重畳する候補情報重畳部と、該候補情報重畳部によって前記候補情報を前記光学像に重畳するか否かを切り替える重畳切替部と、を備えていてもよい。
 この構成によれば、デジタル画像内に病変部の候補が認識された場合に、病変部の候補情報が生成され、光学像内の病変部の領域に重畳される。したがって、観察者は、候補情報に基づいて病変部の候補の位置を認識することができる。また、候補情報が必要であるか、または不要であるかに応じて候補情報を重畳するか否かを切り替えることができ、それにより、候補情報が診断を妨害することを防ぐことができる。
 上記態様において、前記重畳切替部は、前記候補情報の前記光学像への重畳開始から経過した時間の長さを計測するタイマを有し、該タイマによって計測された時間の長さが所定の長さに達したときに前記候補情報の重畳を停止してもよい。
 この構成によれば、光学像に重畳された候補情報は、重畳開始から所定の時間が経過したときに自動的に消える。これにより、観察者が、候補情報に基づいて光学像内の病変部を確認した後、不要になった候補情報を自動的に消し、不要な候補情報が診断を妨害することを防ぐことができる。
 上記態様において、前記重畳切替部は、前記光学顕微鏡のステージの静止開始から経過した時間の長さを計測するタイマを有し、該タイマによって計測された時間の長さが所定の長さに達したときに前記候補情報の重畳を停止してもよい。
 この構成によれば、接眼部の視野内の光学像に重畳された候補情報は、光学顕微鏡のステージが静止してから所定の時間が経過したときに自動的に消える。これにより、観察者が、ステージを停止させて光学像を注意深く観察した後、不要になった候補情報を自動的に消し、不要な候補情報が診断を妨害することを防ぐことができる。
 上記態様において、前記重畳切替部が、前記光学像の取得に使用されている前記光学顕微鏡の対物レンズの倍率に基づいて、前記病変部の候補情報を前記光学像に重畳するか否かを切り替えてもよい。
 低倍率の対物レンズを使用して取得された光学像の場合、病変部が光学像の一部分のみを占めている可能性が高い。この場合、光学像に重畳された候補情報は、病変部の位置を観察者に認識させるために有効である。一方、高倍率の対物レンズを使用して取得された光学像の場合、病変部が光学像の全体または大部分を占めている可能性が高い。この場合、病変部を観察者に認識させるためには、候補有無情報のみで足り、候補情報は不要である。したがって、対物レンズの倍率に基づいて候補情報が診断の支援に有効であるか否かを判断することができる。そして、候補情報が診断の支援に有効ではないときには候補情報の光学像への重畳を停止することによって、候補情報が診断を妨害することを防ぐことができる。
 上記態様において、前記候補情報重畳部が、前記候補有無情報を前記光学像の中心に対して前記光学像内の前記病変部の位置と同じ側に表示してもよい。
 この構成によれば、観察者は、視野内の候補有無情報の位置に基づいて、光学像内の病変部の位置を認識することができる。
 本発明によれば、診断を妨害することなく、かつ、効果的に診断を支援することができるという効果を奏する。
本発明の一実施形態に係る光学顕微鏡システムの全体構成図である。 図1の光学顕微鏡システムのコンピュータの機能ブロック図である。 図2の画像解析部の機能ブロック図である。 接眼レンズの視野の一例を示す図である。 カメラ画像の一例を示す図である。 図4Bのカメラ画像において認識された癌領域を示す図である。 図4Cの癌領域の境界情報を示す図である。 図4Bのカメラ画像から生成され、癌有無情報および境界情報を含むAR画像を示す図である。 図4EのAR画像が重畳された接眼レンズの視野を示す図である。 候補情報が非表示であるAR画像が重畳された接眼レンズの視野を示す図である。 画像解析部の処理を示すフローチャートである。 癌有無情報の他の例を示す図である。 癌有無情報の他の例を示す図である。 癌有無情報の他の例を示す図である。
 以下に、本発明の一実施形態に係る光学顕微鏡システム100について図面を参照して説明する。
 光学顕微鏡システム100は、標本のデジタル画像から標本に関する情報を取得し、光学顕微鏡の接眼レンズを通して観察される標本の光学像に前記情報を重畳する拡張現実(AR)顕微鏡システムである。特に、光学顕微鏡システム100は、病理標本に含まれる癌領域等の病変部に関する情報を光学像に重畳することによって、観察者による病理診断を支援する診断用である。
 光学顕微鏡システム100は、図1に示されるように、光学顕微鏡1と、光学顕微鏡1に接続されたカメラ2および拡張現実(AR)ディスプレイ3と、カメラ2およびARディスプレイ3と接続されたコンピュータ4とを備えている。
 光学顕微鏡1は、標本Sの光学像Bを取得する透過型の正立顕微鏡である。光学顕微鏡1は、標本Sが載置される水平なステージ11と、ステージ11の上側に配置され複数の対物レンズ12を保持するレボルバ13と、ステージ11の下側に配置され標本Sに下側から照明光を照射する照明系14と、対物レンズ12によって形成された標本Sの光学像Bを観察するための接眼レンズ(接眼部)15とを備える。標本Sは、病理標本、すなわち、スライドガラス上に貼られた生体組織の切片である。標本Sは、ステージ11上に水平に載置される。
 ステージ11は、図示しないハンドルの手動操作によって、相互に直交する2つの水平方向と、鉛直方向と、に移動可能である。ステージ11の水平方向の移動によって、対物レンズ12による標本Sの観察位置を水平方向に移動することができる。また、ステージ11の鉛直方向の移動によって、標本Sに対物レンズ12の焦点を合わせることができる。
 レボルバ13は、回転軸回りの周方向に配列する複数の取付穴(図示略)を有し、各取付穴に対物レンズ12が取り付けられている。例えば、レボルバ13には、4倍、10倍、20倍および40倍の4つの対物レンズ12が取り付けられている。レボルバ13の回転軸回りの回転によって、複数の対物レンズ12が択一的に光路上に配置され、標本Sの光学像の取得に使用される対物レンズ12が切り替えられる。
 光学顕微鏡1は、レボルバ情報をコンピュータ4に送信する。レボルバ情報は、現在使用中の対物レンズ12に対応するレボルバ13の回転軸回りの回転位置の情報である。
 標本Sを透過した照明光は、光路上の対物レンズ12を通って第1中間鏡筒16a内に進み、第1中間鏡筒16a内でハーフミラーのような半透明の第1光学素子17aによって透過光と反射光とに分割される。反射光は、カメラ2に入射し、カメラ2のイメージセンサ上で像を結ぶ。透過光は、第2中間鏡筒16b内に進み、ハーフミラーのような第2光学素子17bを透過し、ミラー17cを経由して接眼レンズ15に入射する。図4Aは、接眼レンズ15を通して見ることができる接眼レンズ15の視野Aを表している。視野Aは、対物レンズ12によって形成された中央の明るい光学像Bと、光学像Bの外の暗い周辺領域Cとを含む。
 第2光学素子17bには、後述するように、AR画像を形成する画像光もARディスプレイ3から入射してミラー17cに向かって反射される。画像光は標本Sからの透過光に合成され、接眼レンズ15の視野AにAR画像が投影される。観察者は、接眼レンズ15を通して、標本Sの光学像BとAR画像とを同時に観察することができる。
 カメラ(撮像部)2は、CCDまたはCMOSイメージセンサを有するデジタルカメラである。カメラ2は、イメージセンサ上に形成される標本Sの光学像Bを撮像することによって、図4Bに示されるように、標本Sのデジタル画像であるカメラ画像Dを取得する。カメラ2は、所定のフレームレート(例えば、30fps)でカメラ画像Dを取得することによって標本Sのライブ画像を取得する。カメラ画像Dは、USBケーブル等の通信ケーブルによって、カメラ2からコンピュータ4に入力される。
 ARディスプレイ(有無情報表示部、候補情報重畳部)3は、画像光を形成し、画像光を投射する投射型ディスプレイである。ARディスプレイ3は、コンピュータ4からAR画像を受け取り、AR画像を形成する画像光を第2光学素子17bに向かって射出することによって、AR画像を接眼レンズ15の視野Aに投影する。
 コンピュータ4には、ユーザインタフェースとして、マウス5、キーボード6およびディスプレイ7が接続されている。
 コンピュータ4は、CPUのようなプロセッサと、RAM、ROMおよびその他の任意の記憶装置を有する記憶部と、を備える。コンピュータ4の後述の機能は、プロセッサが記憶部に記憶されたプログラムに従って処理を実行することによって、実現される。
 コンピュータ4は、カメラ2からのカメラ画像Dを解析し、癌有無情報(候補有無情報)および候補情報を含み得るAR画像を生成する。後述するように、癌有無情報は、カメラ画像D内の癌領域の有無に関する情報であり、候補情報は、カメラ画像D内の癌領域Eに関する情報である。コンピュータ4は、画像データの伝送用のケーブルを経由して、AR画像をARディスプレイ3に送信する。
 具体的には、コンピュータ4は、図2に示されるように、カメラ画像入力部41と、対物レンズ情報生成部42と、ON/OFF情報生成部43と、画像解析部44とを備える。
 カメラ画像入力部41は、カメラ2からカメラ画像Dを所定のフレームレートで受け取り、最新のカメラ画像Dをメモリに上書き保存する。
 対物レンズ情報生成部42は、光学顕微鏡1からレボルバ情報を受け取る。対物レンズ情報生成部42は、予め設定されたレボルバ情報と対物レンズ12の倍率との対応関係に基づき、レボルバ情報を、現在使用されている対物レンズ12の倍率の情報を含む対物レンズ情報に変換する。
 ON/OFF情報生成部43は、対物レンズ情報生成部42から対物レンズ情報を受け取り、対物レンズ情報に含まれる対物レンズ12の倍率に基づき、候補情報の表示(ON)または非表示(OFF)を表すON/OFF情報を生成する。例えば、ON/OFF情報生成部43は、予め設定された倍率とONまたはOFFとの対応関係に基づき、ON/OFF情報を生成する。
 上記の対物レンズ12の倍率と候補情報のON/OFFとの対応関係は、例えば、対物レンズ12の倍率が4倍および10倍のいずれかである場合、ON/OFF情報はONであり、対物レンズ12の倍率が20倍および40倍のいずれかである場合、ON/OFF情報はOFFである。
 また、ON/OFF情報生成部43は、マウス5からマウス情報を受け取り、キーボード6からキーボード情報を受け取る。マウス情報は、クリック等のマウス5の操作に基づく情報であり、キーボード情報は、キーボード6への入力に基づく情報である。対物レンズ12の倍率に基づいてON/OFF情報を生成した後、ON/OFF情報生成部43は、マウス情報およびキーボード情報の少なくとも一方に基づき、ON/OFF情報をONからOFFへ、またはOFFからONへ切り替える。
 画像解析部44は、カメラ画像入力部41からカメラ画像Dを受け取り、カメラ画像Dを解析することによってカメラ画像D内の癌領域(病変部の候補)Eを認識し、認識結果に基づくAR画像Hを生成し、AR画像HをARディスプレイ3に出力する。画像解析部44は、AR画像Hの出力と同期してカメラ画像入力部41から最新のカメラ画像Dを受け取り、カメラ画像Dの解析およびAR画像Hの出力を繰り返す。
 図3は、画像解析部44のより詳細な構成を示している。図3に示されるように、画像解析部44は、解像度変換部441と、癌領域認識部442と、癌有無判定部443と、候補情報生成部444と、AR画像生成部445と、を備える。
 解像度変換部441は、カメラ画像入力部41からカメラ画像Dを受け取り、対物レンズ情報生成部42から対物レンズ情報を受け取る。カメラ画像Dの取得に使用された対物レンズ12の倍率に応じて、標本Sに対するカメラ画像Dの解像度は異なる。解像度変換部441は、対物レンズ情報に含まれる倍率に基づいてカメラ画像Dの解像度を変換することによって、対物レンズ12の倍率に関わらず標本Sに対して所定の解像度のカメラ画像Dを生成する。例えば、所定の解像度が10倍であり対物レンズ情報に含まれる倍率が40倍である場合、解像度変換部441は、40倍の対物レンズ12を使用して取得されたカメラ画像Dをダウンサンプリングし、カメラ画像Dの縦および横の画素数を1/4倍にそれぞれ減らす。
 癌領域認識部442は、解像度変換部441から所定の解像度のカメラ画像Dを受け取る。癌領域認識部442は、カメラ画像D内の癌領域Eを認識し、癌領域Eの位置の情報を含む癌領域情報を癌有無判定部443に出力する。
 例えば、癌領域認識部442は、カメラ画像Dの各画素が癌細胞を含むか否かを解析し、各画素が癌を含むか否かの情報を癌領域情報として生成する。各画素の解析には、機械学習によって作成されたモデルが使用される。例えば、所定の解像度の画像とそれに対応する正解の癌領域情報の多数のセットが学習データとして用意され、学習データの深層学習によってモデルが作成される。
 図4Bは、癌領域Eを含むカメラ画像Dを示し、図4Cは、図4Bのカメラ画像Dの解析によって得られた癌領域情報を示している。図4Cにおいて、白い領域が癌領域Eであり、黒い領域が癌領域E以外の領域を表している。
 図4Aおよび図4Bに示されるように、カメラ画像Dの撮影範囲が光学像Bの視野よりも広い場合、カメラ画像Dは、光学像Bの視野の外の周辺領域も含む。この場合、癌領域認識部442は、カメラ画像Dの全画素ではなく、光学像Bに対応する領域の画素のみを解析してもよい。
 癌有無判定部443は、癌領域認識部442から癌領域情報を受け取り、癌領域情報に基づいてカメラ画像D内に癌領域Eが認識されたか否かを判定し、判定結果を候補情報生成部444およびAR画像生成部445に出力する。例えば、癌有無判定部443は、癌細胞を含む1つ以上の画素が癌領域情報に含まれている場合、カメラ画像D内に癌領域Eが認識されたと判定する。一方、癌有無判定部443は、癌領域情報に含まれる全ての画素が癌細胞を含まない場合、カメラ画像D内に癌領域Eが認識されなかったと判定する。
 候補情報生成部(重畳切替部)444は、ON/OFF情報生成部43からON/OFF情報を受け取り、癌領域認識部442から癌領域情報を受け取り、癌有無判定部443から判定結果を受け取る。候補情報生成部444は、ON/OFF情報、癌領域情報および判定結果に基づいて、癌領域Eの候補情報Fを生成する。
 具体的には、ON/OFF情報がONであり、かつ、カメラ画像D内に癌領域Eが認識された場合、候補情報生成部444は、癌領域情報に基づいて癌領域Eの候補情報Fを生成し、候補情報FをAR画像生成部445に出力する。候補情報Fの一例は、癌領域Eと癌領域E以外の領域との間の境界を表す境界情報である。例えば、図4Dに示されるように、候補情報Fは、癌領域Eを囲う境界線である。
 一方、ON/OFF情報がOFFであるか、または、カメラ画像D内に癌領域Eが認識されなかった場合、候補情報生成部444は、候補情報Fを生成しない。
 AR画像生成部445は、癌有無判定部443から判定結果を受け取り、判定結果に基づいてAR画像Hを生成する。
 具体的には、カメラ画像D内に癌領域Eが認識された場合、AR画像生成部445は、図4Eに示されるように、癌有無情報Gを生成し、癌有無情報Gを含むAR画像Hを生成する。癌有無情報Gは、例えば、所定のグラフィックであり、図4Eの例において、所定の色の丸印である。さらに、AR画像生成部445は、候補情報生成部444によって生成された候補情報Fが存在する場合、候補情報Fを候補情報生成部444から受け取り、候補情報FをAR画像Hに追加する。すなわち、カメラ画像D内に癌領域Eが認識され、かつ、ON/OFF情報がONである場合のみ、AR画像Hに候補情報Fが含まれる。
 一方、カメラ画像D内に癌領域Eが認識されなかった場合、AR画像生成部445は、癌有無情報Gおよび候補情報Fを含まないAR画像Hを生成する。
 生成されたAR画像Hは、AR画像生成部445からARディスプレイ3に送信され、AR画像HがARディスプレイ3によって接眼レンズ15の視野Aに投影される。したがって、癌領域認識部442によってカメラ画像D内に癌領域Eが認識された場合、図4Fに示されるように、少なくとも癌有無情報Gが視野Aに重畳される。ON/OFF情報がONであり候補情報生成部444によって候補情報Fが生成されている場合には、さらに候補情報Fが視野Aに重畳される。すなわち、候補情報生成部444が候補情報Fを生成するか否かによって、視野Aに候補情報Fが重畳されるか否かが切り替えられる。
 一方、癌領域認識部442によってカメラ画像D内に癌領域Eが認識されなかった場合、癌有無情報Gおよび候補情報Fのいずれも視野Aに重畳されない。
 ここで、AR画像生成部445は、視野A内の周辺領域Cに対応する位置に癌有無情報Gを含むAR画像Hを生成し、視野A内の光学像B内の癌領域Eに対応する位置に候補情報Fを生成する。したがって、図4Fに示されるように、癌有無情報Gは、周辺領域Cに重畳され、候補情報Fである境界情報は、光学像B内の癌領域Eの境界に重畳される。図4Fの例において、癌有無情報Gの表示位置は、光学像Bの左上である。
 次に、光学顕微鏡システム100の作用について、図5を参照して説明する。
 観察者は、光学顕微鏡1によって取得された標本Sの光学像Bを、接眼レンズ15を通して観察する。
 観察者による標本Sの光学像Bの観察と併行して、標本Sの光学像Bのカメラ画像Dが所定のフレームレートでカメラ2によって取得され、カメラ画像Dがコンピュータ4に入力される。また、レボルバ情報が光学顕微鏡1からコンピュータ4に入力される。
 コンピュータ4において、カメラ画像Dは、カメラ画像入力部41を経由して画像解析部44に入力される。また、コンピュータ4において、レボルバ情報は、対物レンズ情報生成部42において対物レンズ情報に変換され、対物レンズ情報が画像解析部44およびON/OFF情報生成部43に入力される。ON/OFF情報生成部43において、現在使用されている対物レンズ12の倍率に基づいてON/OFF情報が生成され、ON/OFF情報が画像解析部44に入力される。
 画像解析部44では、図5に示されるように、カメラ画像D、対物レンズ情報およびON/OFF情報が入力される(ステップS1~S3)。カメラ画像D、対物レンズ情報およびON/OFF情報の画像解析部44への入力の順序(ステップS1,S2,S3の順序)は、任意であり、変更可能である。次に、画像解析部44において、AR画像Hが生成される(ステップS4~S9)。
 すなわち、解像度変換部441によって、カメラ画像Dの解像度が対物レンズ12の倍率に基づいて所定の解像度に変換される(ステップS4)。次に、カメラ画像D内に癌領域Eが存在する場合、癌領域認識部442によって、所定の解像度のカメラ画像D内の癌領域Eが認識される(ステップS5)。そして、癌領域認識部442から癌有無判定部443および候補情報生成部444に、癌領域Eの認識結果である癌領域情報が送信される。
 次に、癌有無判定部443によって、カメラ画像D内に癌領域Eが認識されたか否かが癌領域情報に基づいて判定される(ステップS6)。また、ステップS3で入力されたON/OFF情報がONである場合(ステップS7のYES)、候補情報生成部444によって、癌領域情報に基づいて候補情報Fが生成され(ステップS8)、候補情報FがAR画像生成部445に送信される。ステップS3で入力されたON/OFF情報がOFFである場合(ステップS7のNO)、候補情報Fは生成されず、したがってAR画像生成部445に候補情報Fは送信されない。
 ステップS6においてカメラ画像D内に癌領域Eが認識されたと判定された場合、AR画像生成部445において、癌有無情報Gを含むAR画像Hが生成される(ステップS9)。ステップS8において、候補情報生成部444によって候補情報Fが生成された場合、AR画像Hには、候補情報Fも含まれる。
 一方、ステップS6においてカメラ画像D内に癌領域Eが認識されなかったと判定され場合、癌有無情報Gおよび候補情報Fを含まないAR画像Hが生成される(ステップS9)。
 次に、AR画像Hがコンピュータ4からARディスプレイ3に送信され(ステップS10)、ARディスプレイ3によって、AR画像Hが接眼レンズ15の視野Aに重畳される。
 このように、カメラ画像D内に癌領域Eが認識された場合、視野A内の周辺領域Cに癌有無情報Gが表示される。一方、カメラ画像D内に癌領域Eが認識されなかった場合、視野A内の周辺領域Cに癌有無情報Gは表示されない。したがって、観察者は、接眼レンズ15を覗いて標本Sの光学像Bを観察しながら、癌有無情報Gの表示および非表示に基づいて癌領域Eが存在するか否かを容易に認識することができる。
 さらに、光学像B内に癌領域Eが認識された場合、光学像Bの癌領域Eの位置に候補情報Fが重畳される。したがって、観察者は、候補情報Fに基づいて、光学像B内の癌領域Eの位置を認識することができる。
 光学像B内の癌領域Eに重畳される候補情報Fは、診断の邪魔になり得る。観察者は、マウス5の操作またはキーボード6への入力によって、候補情報Fの表示と非表示とを切り替えることができる。例えば、マウス5またはキーボード6を使用して、光学像Bに重畳されている候補情報Fを非表示に切り替える入力操作が観察者によって行われると、マウス情報またはキーボード情報がON/OFF情報生成部43に入力される。マウス情報またはキーボード情報に応答して、ON/OFF情報生成部43によって、ON/OFF情報がONからOFFに切り替えられ、ステップS3において、OFFのON/OFF情報が候補情報生成部444に入力される。そして、候補情報Fの生成が停止し、癌有無情報Gのみを含むAR画像Hが生成される(ステップS9)。
 また、候補情報Fが非表示に切り替えられた後、マウス5またはキーボード6を使用して、候補情報Fを表示に切り替える入力操作が観察者によって行われると、マウス情報またはキーボード情報がON/OFF情報生成部43に入力される。マウス情報またはキーボード情報に応答して、ON/OFF情報生成部43によって、ON/OFF情報がOFFからONに切り替えられ、ステップS3において、ONのON/OFF情報が候補情報生成部444に入力される。そして、候補情報Fの生成が再開され(ステップS8)、癌有無情報Gおよび候補情報Fを含むAR画像Hが生成される(ステップS9)。
 このように、本実施形態によれば、癌有無情報Gは、光学像Bの外の領域Cに表示されるので、癌有無情報Gが観察者による光学像Bの観察を妨げることがない。このような癌有無情報Gによって、観察者による診断を妨害することを防ぎながら、効果的に診断を支援することができる。
 また、比較的低倍率の対物レンズ12で標本Sを観察しているときは、ON/OFF情報がONであり、候補情報Fが光学像Bに重畳される。一方、比較的高倍率の対物レンズ12で標本Sを観察しているときは、ON/OFF情報がOFFであり、候補情報Fの光学像Bへの重畳が停止される。
 低倍率の対物レンズ12によって形成された光学像Bは、標本Sの広い範囲の像である。したがって、癌領域Eが光学像Bの一部分のみを占める蓋然性が高い。この場合、光学像Bに重畳された候補情報Fは、癌領域Eの位置を観察者に認識させるのに有効である。一方、高倍率の対物レンズ12によって形成された光学像Bは、標本Sの狭い範囲の像である。したがって、癌領域Eが光学像Bの全体または大部分を占める蓋然性が高い。この場合、観察者に癌領域Eを認識させるためには、癌有無情報Gのみで足る。光学像Bの全体または大部分に重畳される候補情報Fは、癌領域Eの詳細な観察を妨げる可能性がある。
 本実施形態によれば、光学像Bの取得に使用されている対物レンズ12の倍率に基づいて候補情報Fの表示と非表示とが自動的に切り替えられ、候補情報Fが診断の支援に有効であるときのみ、候補情報Fが光学像Bに重畳される。これにより、診断に不要な候補情報Fが光学像Bに重畳されることを防ぎ、候補情報Fが診断を妨害することを防ぐことができる。
 上記実施形態において、癌有無情報Gが、光学像Bの左上に表示される丸印であることとしたが、視野A内の癌有無情報Gの表示位置、および、癌有無情報Gの形態は、これに限定されるものではなく、適宜変更可能である。図6Aから図6Cは、癌有無情報Gの他の例を示している。
 図6Aおよび図6Cに示されるように、AR画像生成部445は、光学像B内の癌領域Eの位置に応じて、視野A内の癌有無情報Gの位置を変更してもよい。例えば、癌領域Eが、光学像B内の左下部分に存在する場合、癌有無情報Gが光学像Bの左下に表示されてもよい。このように、光学像Bの中心に対して光学像B内の癌領域Eの位置と同じ側に癌有無情報Gを表示することによって、観察者は、癌有無情報Gの位置に基づいて癌領域Eの位置を認識することができる。
 光学像B内の癌領域Eの位置は、例えば、癌有無判定部443によって判定される。判定方法の一例として、癌有無判定部443は、癌細胞を含むと最初に判定された画素の位置を癌領域Eの位置に決定し、癌領域Eの位置が、光学像Bの左上、右上、左下、右下の4つの象限の内、いずれに属するかを判定し、判定結果をAR画像生成部445に送信する。判定方法の他の例として、癌有無判定部443は、光学像Bの4つの象限の内、癌細胞を含む画素が最も多い象限を癌領域Eの位置に決定してもよい。AR画像生成部445は、癌有無判定部443による判定結果に基づく位置に癌有無情報Gが配置されたAR画像Hを生成する。
 図6Bおよび図6Cに示されるように、癌有無情報Gは、光学像Bの縁に沿う線であってもよい。線は、図6Bに示されるように、光学像Bを囲む円であってもよく、図6Cに示されるように、光学像B内の癌領域Eの位置と同じ側に表示される円弧であってもよい。
 上記実施形態において、候補情報生成部(重畳切替部)444は、候補情報Fの光学像Bへの重畳開始から経過した時間の長さを計測するタイマ446を有していてもよい。例えば、候補情報生成部444は、候補情報Fの生成開始を候補情報Fの光学像Bへの重畳開始とし、候補情報Fの生成開始時にタイマ446による時間の計測を開始する。候補情報生成部444は、タイマ446によって計測された時間の長さが所定の長さに達したときに、候補情報Fの生成を停止する。したがって、光学像Bへの候補情報Fの重畳開始から所定の長さの時間が経過したときに、図4Gに示されるように、光学像B上の候補情報Fが自動的に非表示に切り替わる。
 観察者が光学像B上の候補情報Fを一度認識した後、観察者にとって候補情報Fは不要である。したがって、候補情報Fが光学像Bに重畳された後、所定の長さの時間が経過したときに候補情報Fを自動的に消すことによって、不要な候補情報Fが診断を妨害することを防ぐことができる。
 候補情報生成部444は、候補情報Fの光学像Bへの重畳開始時刻からの経過時間に基づいて候補情報Fの生成を停止することによって、候補情報Fを非表示に切り替えることとしたが、これに代えて、ステージ11の動きに基づいて候補情報Fを非表示に切り替えてもよい。
 すなわち、候補情報生成部444は、ステージ11が動いているか、または静止しているかの情報を取得する。例えば、候補情報生成部444は、時系列のカメラ画像Dの変化から、ステージ11が動いているか、または静止しているかを検知する。候補情報生成部444は、ステージ11の静止開始から経過した時間の長さをタイマ446によって計測し、タイマ446によって計測された時間の長さが所定の長さに達したときに、候補情報Fの生成を停止する。
 観察者は、ステージ11を水平方向に移動させながら光学像Bを観察し、癌領域Eが発見されたときに、光学像Bを注意深く観察するためにステージ11を停止させる。ステージ11を停止させた後、所定の長さ時間が経過したときに光学像B上の候補情報Fが自動的に非表示に切り替わる。これにより、不要な候補情報Fが診断を妨害することを防ぐことができる。
 上記実施形態において、候補情報Fが、癌領域Eの境界情報であることとしたが、候補情報Fは、癌領域Eに関する他の情報であってもよい。
 例えば、候補情報Fは、癌の確率を表すヒートマップでもよい。ヒートマップは、癌領域情報を生成する過程で癌領域認識部442によって生成される。例えば、ヒートマップにおいて、各画素は、癌である確率に応じた色で表示される。ヒートマップは、光学像B内の癌領域Eに投影され重畳される。
 上記実施形態において、カメラ画像Dから癌領域Eを認識し、癌有無情報Gおよび癌領域Eの候補情報Fを観察者に提供することとしたが、認識対象の病変部は癌領域Eに限定されるものではなく、病理診断の対象になり得る任意の病変部であってもよい。例えば、病変部は、良性の腫瘍または炎症部位等であってもよい。
 上記実施形態において、対物レンズ情報生成部42が、光学顕微鏡1からのレボルバ情報に基づいて対物レンズ情報を生成することとしたが、これに代えて、他の情報に基づいて対物レンズ情報を生成してもよい。例えば、対物レンズ情報生成部42は、カメラ画像入力部41を経由してカメラ画像Dを受け取り、カメラ画像Dを解析することによって、観察に使用されている対物レンズ12の倍率を推定し対物レンズ情報を生成してもよい。
 上記実施形態において、認識された病変部が存在するか否かの情報を、視野A内に表示された候補有無情報Gによって観察者に視覚的に提供することとしたが、これに代えて、またはこれに加えて、音声によって提供してもよい。
 上記実施形態において、有無情報表示部が、候補有無情報Gを視野Aに投影するARディスプレイ3であることとしたが、これに代えて、視野A内に配置されたランプであってもよい。この場合、ランプが発する光のスポットが、候補有無情報Gとして視野A内に表示される。
 上記実施形態において、癌領域Eの境界情報Fの形状を、癌の種類または倍率に応じて変更してもよい。例えば、癌の種類が印環細胞癌の場合、または倍率が低倍率の場合、光学像B内の癌領域Eは小さいため、癌領域Eの境界線を視認し難い。このような場合、境界情報Fを、癌領域Eを囲み癌領域Eよりも大きい矩形の枠にすることによって、境界情報Fの視認性を向上することができる。
100 光学顕微鏡システム
1 光学顕微鏡
2 カメラ(撮像部)
3 拡張現実(AR)ディスプレイ(有無情報表示部、候補情報重畳部)
15 接眼レンズ(接眼部)
44 画像解析部
446 タイマ
A 視野
B 光学像
C 周辺領域
D カメラ画像、デジタル画像
E 癌領域
F 候補情報、境界情報
G 癌有無情報(候補有無情報)
H 拡張現実(AR)画像
S 標本、生体組織

Claims (6)

  1.  生体組織の光学像を取得する光学顕微鏡であって、前記光学像を観察するための接眼部を有する光学顕微鏡と、
     前記光学像を撮像し前記生体組織のデジタル画像を取得する撮像部と、
     該撮像部によって取得された前記デジタル画像を解析し、該デジタル画像に含まれる病変部の候補を認識する画像解析部と、
     該画像解析部によって認識された前記病変部の候補の有無に関する候補有無情報を、前記接眼部の視野内かつ前記光学像の外の領域に表示させる有無情報表示部と、を備える光学顕微鏡システム。
  2.  前記画像解析部が、前記病変部の候補に関する候補情報を生成し、
     前記画像解析部によって生成された前記候補情報を前記光学像内の前記病変部の候補の領域に重畳する候補情報重畳部と、
     該候補情報重畳部によって前記候補情報を前記光学像に重畳するか否かを切り替える重畳切替部と、を備える請求項1に記載の光学顕微鏡システム。
  3.  前記重畳切替部は、前記候補情報の前記光学像への重畳開始から経過した時間の長さを計測するタイマを有し、該タイマによって計測された時間の長さが所定の長さに達したときに前記候補情報の重畳を停止する、請求項2に記載の光学顕微鏡システム。
  4.  前記重畳切替部は、前記光学顕微鏡のステージの静止開始から経過した時間の長さを計測するタイマを有し、該タイマによって計測された時間の長さが所定の長さに達したときに前記候補情報の重畳を停止する、請求項2または請求項3に記載の光学顕微鏡システム。
  5.  前記重畳切替部が、前記光学像の取得に使用されている前記光学顕微鏡の対物レンズの倍率に基づいて、前記病変部の候補情報を前記光学像に重畳するか否かを切り替える、請求項2から請求項4のいずれかに記載の光学顕微鏡システム。
  6.  前記候補情報重畳部が、前記候補有無情報を前記光学像の中心に対して前記光学像内の前記病変部の位置と同じ側に表示する、請求項2から請求項5のいずれかに記載の光学顕微鏡システム。
PCT/JP2020/005541 2020-02-13 2020-02-13 光学顕微鏡システム WO2021161447A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/005541 WO2021161447A1 (ja) 2020-02-13 2020-02-13 光学顕微鏡システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/005541 WO2021161447A1 (ja) 2020-02-13 2020-02-13 光学顕微鏡システム

Publications (1)

Publication Number Publication Date
WO2021161447A1 true WO2021161447A1 (ja) 2021-08-19

Family

ID=77292352

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/005541 WO2021161447A1 (ja) 2020-02-13 2020-02-13 光学顕微鏡システム

Country Status (1)

Country Link
WO (1) WO2021161447A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10325798A (ja) * 1997-05-23 1998-12-08 Olympus Optical Co Ltd 顕微鏡装置
JPH11501403A (ja) * 1994-10-26 1999-02-02 ライカ ミクロスコピー ズュステーメ アーゲー 顕微鏡、特に手術用顕微鏡
JPH11271643A (ja) * 1998-03-20 1999-10-08 Olympus Optical Co Ltd システム顕微鏡
JP2016114943A (ja) * 2014-12-11 2016-06-23 カール ツアイス メディテック アクチエンゲゼルシャフト 光学観察デバイスおよび光学観察デバイスを操作するための方法
WO2018231204A1 (en) * 2017-06-13 2018-12-20 Google Llc Augmented reality microscope for pathology

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11501403A (ja) * 1994-10-26 1999-02-02 ライカ ミクロスコピー ズュステーメ アーゲー 顕微鏡、特に手術用顕微鏡
JPH10325798A (ja) * 1997-05-23 1998-12-08 Olympus Optical Co Ltd 顕微鏡装置
JPH11271643A (ja) * 1998-03-20 1999-10-08 Olympus Optical Co Ltd システム顕微鏡
JP2016114943A (ja) * 2014-12-11 2016-06-23 カール ツアイス メディテック アクチエンゲゼルシャフト 光学観察デバイスおよび光学観察デバイスを操作するための方法
WO2018231204A1 (en) * 2017-06-13 2018-12-20 Google Llc Augmented reality microscope for pathology

Similar Documents

Publication Publication Date Title
JP4855150B2 (ja) 眼底観察装置、眼科画像処理装置及び眼科画像処理プログラム
JP5576739B2 (ja) 画像処理装置、画像処理方法、撮像装置及びプログラム
JP2019532352A (ja) 組織標本の組織学的検査のためのシステム
JP5663283B2 (ja) 内視鏡画像処理装置及びプログラム
EP2543308A1 (en) Fluorescence observation device
JP6779089B2 (ja) 内視鏡システム及び内視鏡システムの駆動方法
US9678326B2 (en) Generating perspective views in microscopy
US11426052B2 (en) Endoscopic system
JP4751689B2 (ja) 眼球表面解析システム
EP1882967B1 (en) Scanning examination apparatus
JP2012013804A (ja) 画像処理装置、画像処理システム、画像処理方法及びプログラム
JP5677770B2 (ja) 医療診断支援装置、バーチャル顕微鏡システムおよび標本支持部材
JP2006023476A (ja) 共焦点走査型顕微鏡
US10721413B2 (en) Microscopy system, microscopy method, and computer readable recording medium
US11010914B2 (en) Image processing device, microscope system, image processing method, and program
WO2021161447A1 (ja) 光学顕微鏡システム
WO2020008920A1 (ja) 医療用観察システム、医療用観察装置、及び医療用観察装置の駆動方法
US20060193496A1 (en) Examination method and examination-assisting tool
JP5119111B2 (ja) 顕微鏡装置
WO2021166219A1 (ja) 光学顕微鏡システム
JP2003290133A (ja) 光イメージング装置
JP2010164635A (ja) 共焦点顕微鏡
JP2009294465A (ja) 顕微鏡用撮像装置と、対物ミクロメータ
JP4812272B2 (ja) 観察方法および観察装置
JP6177000B2 (ja) レーザ走査型顕微鏡

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20918867

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20918867

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP