WO2018193772A1 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
WO2018193772A1
WO2018193772A1 PCT/JP2018/010474 JP2018010474W WO2018193772A1 WO 2018193772 A1 WO2018193772 A1 WO 2018193772A1 JP 2018010474 W JP2018010474 W JP 2018010474W WO 2018193772 A1 WO2018193772 A1 WO 2018193772A1
Authority
WO
WIPO (PCT)
Prior art keywords
information processing
change
control unit
processing apparatus
tomographic image
Prior art date
Application number
PCT/JP2018/010474
Other languages
English (en)
French (fr)
Inventor
芳男 相馬
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to DE112018002087.8T priority Critical patent/DE112018002087T5/de
Priority to US16/603,029 priority patent/US20200188023A1/en
Publication of WO2018193772A1 publication Critical patent/WO2018193772A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/102Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/007Methods or devices for eye surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/007Methods or devices for eye surgery
    • A61F9/00736Instruments for removal of intra-ocular material or intra-ocular injection, e.g. cataract instruments
    • A61F9/00754Instruments for removal of intra-ocular material or intra-ocular injection, e.g. cataract instruments for cutting or perforating the anterior lens capsule, e.g. capsulotomes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/0004Microscopes specially adapted for specific applications
    • G02B21/0012Surgical microscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • A61B2090/3735Optical coherence tomography [OCT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/10Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/20Surgical microscopes characterised by non-optical aspects
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/007Methods or devices for eye surgery
    • A61F9/00736Instruments for removal of intra-ocular material or intra-ocular injection, e.g. cataract instruments
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements

Definitions

  • This technology relates to a technology such as an information processing apparatus that performs processing related to a tomographic image of an eye displayed during eye surgery.
  • This surgical microscope apparatus displays an eye image acquired through a microscope, an eye tomographic image acquired by OCT (Optical Coherence Tomography), etc., and the user refers to these images While doing the eye treatment. Thereby, the occurrence of a treatment error is prevented and the accuracy of the treatment is improved.
  • OCT Optical Coherence Tomography
  • OCT is a technique for generating an image by irradiating the eye with near-infrared rays and reconstructing light reflected by each tissue of the eye, and can obtain a tomographic image of the eye on a specific tomographic plane.
  • Patent Literature 1 discloses an ophthalmologic analyzer that presents a tomographic image of an eye acquired by OCT to a user.
  • the user In acquiring a tomographic image by OCT or the like, the user needs to adjust a number of parameters in order to obtain a tomographic image that meets his / her needs.
  • the task of setting these parameters to appropriate values is a task that requires time and experience for the user and is burdensome for the user.
  • an object of the present technology is to provide a technology capable of setting appropriate parameters for acquiring a tomographic image that meets a user's request.
  • the information processing apparatus includes a control unit.
  • the control unit detects a time-series change of a subject in an image obtained by imaging an eye that is a treatment target, and acquires a tomographic image of the eye according to the time-series change of the subject. Change the parameter.
  • control unit may detect a change in the position of the surgical tool as a time-series change of the subject, and change the parameter according to the change in the position of the surgical tool.
  • control unit may detect a change in the eye state as a time-series change of the subject and change the parameter according to the change in the eye state.
  • control unit includes a first mode in which the parameters are set so that a frame rate is prioritized over image quality in the tomographic image according to a time-series change of the subject.
  • the second mode in which the parameter is set may be switched so that the image quality has priority over the frame rate in the image.
  • control unit detects a speed of change in the time-series change of the subject, and switches between the first mode and the second mode according to the speed of the change. May be.
  • control unit determines whether the speed of the change is equal to or greater than a predetermined threshold, and sets the first mode when the speed of the change is equal to or greater than a predetermined threshold. However, when the speed of the change is less than a predetermined threshold, the second mode may be set.
  • control unit sets a first area in accordance with a time-series change of the subject in a measurement area where a scan for obtaining the tomographic image is performed, and the first area And the parameter may be changed between the second region that is a region other than the first region in the measurement region.
  • the parameters for acquiring the tomographic image can be appropriately changed between the first region and the second region in accordance with the user's request.
  • control unit may change a scan density in the scan as the parameter between the first area and the second area.
  • parameters (scan density) for acquiring a tomographic image can be appropriately changed between the first region and the second region in accordance with the user's request.
  • control unit may change the scan density in the scan so that a scan density in the first region is higher than a scan density in the second region.
  • the parameter (scan density) for acquiring a tomographic image can be appropriately changed between the first region and the second region in accordance with the user's request.
  • control unit may change a frame rate in the tomographic image as the parameter between the first area and the second area.
  • the parameter (frame rate) for acquiring the tomographic image can be appropriately changed between the first region and the second region so as to meet the user's request.
  • control unit may change a frame rate in the tomographic image so that a frame rate in the first area is higher than a frame rate in the second area.
  • the parameter (frame rate) for acquiring the tomographic image can be appropriately changed between the first region and the second region so as to meet the user's request.
  • control unit may change a tomographic plane for acquiring the tomographic image as the parameter based on a time series change of the subject.
  • control unit predicts a change of the subject after a predetermined time from a current time according to a time-series change of the subject, and changes the tomographic plane according to a prediction result. Good.
  • An information processing method detects a time-series change of a subject in an image obtained by imaging an eye that is a treatment target, and generates a tomographic image of the eye according to the time-series change of the subject. Change the parameter to get.
  • the program according to the present technology includes a step of detecting a time-series change of a subject in an image obtained by imaging an eye that is a treatment target, and a tomographic image of the eye according to the time-series change of the subject. And causing the computer to execute a step of changing a parameter for obtaining.
  • FIG. 1 is a block diagram showing a configuration of a surgical microscope apparatus 10 according to the first embodiment.
  • the surgical microscope apparatus 10 (information processing apparatus) includes a control unit 1, a front image acquisition unit 2, a tomographic image acquisition unit 3, a storage unit 4, a display unit 5, and an input unit 6. And.
  • the depth direction of the eye is defined as the Z-axis direction
  • any direction in the planar direction of the eye is defined as the X-axis direction and the Y-axis direction (see FIGS. 2 and 3 described later).
  • the front image acquisition unit 2 includes, for example, a microscope apparatus with a camera, a microscope apparatus with a stereo camera, and the like.
  • the front image acquisition unit 2 captures an eye as a treatment target from the front, acquires a front image, and outputs the front image to the control unit 1.
  • the tomographic image acquisition unit 3 is configured by OCT.
  • the tomographic image acquisition unit 3 may be configured with a Scheimpflug camera.
  • the tomographic image acquisition unit 3 irradiates the eye with near-infrared light, and performs scanning in the depth direction (Z-axis direction) of the eye using light interference between reflected light from the eye and reference light. .
  • the tomographic image is configured by arranging rectangular images that are very elongated in the depth direction (hereinafter referred to as rectangular images) along an arbitrary direction in the plane direction (XY direction). Therefore, the tomographic image acquisition unit 3 is configured not only to scan in the depth direction but also to scan in any one direction at least in the plane direction.
  • the tomographic image acquisition unit 3 acquires a tomographic image based on various parameters.
  • the various parameters are a measurement position, a measurement region 13 (see FIG. 11 described later), a scan density, an average processing count, a tomographic plane, and the like.
  • the measurement position is a position where measurement by OCT is performed, and the measurement area 13 is a plane direction area (area where scanning is performed in the plane direction) where measurement by OCT is performed.
  • the measurement region 13 may be set in a linear shape (scan line) when the eye is viewed from above (Z-axis direction), and is set in a planar shape when the eye is viewed from above. Also good.
  • eye volume data three-dimensional data
  • the measurement area 13 is fixed in this embodiment. Note that the measurement region 13 may be set according to a user instruction.
  • the scan density is a scan density in the plane direction (a value indicating at what interval OCT measurement is performed in the plane direction).
  • the average number of times of processing is the number of times of continuous image acquisition in processing to remove random noise by acquiring images continuously at the same position and averaging each pixel value.
  • the tomographic plane is a plane that serves as a reference when generating a tomographic image. That is, the rectangular images are arranged along the tomographic plane along the direction with the tomographic plane as a reference, and the tomographic image is generated.
  • the tomographic plane may be designated by the user or may be determined based on the position of the surgical instrument 7 (see FIGS. 2 and 3).
  • the measurement region 13 is set to be linear (scan line)
  • the direction of the tomographic plane coincides with the linear measurement region 13.
  • a tomographic image is generated simply by arranging the acquired rectangular images.
  • the measurement region 13 is set to a planar shape
  • a rectangular image located in the direction along the tomographic plane is picked up from the rectangular images acquired in the planar measurement region 13, and the picked-up rectangular image is A tomographic image is generated by arranging the images.
  • the display unit 5 includes a liquid crystal display, an organic EL display (EL: Electro Luminescence), and the like.
  • the display unit 5 displays the front image of the eye acquired by the front image acquisition unit 2 and the tomographic image of the eye acquired by the tomographic image acquisition unit 3 on the screen.
  • the input unit 6 includes, for example, a keyboard, a mouse, a touch sensor provided on the screen of the display unit 5 and the like.
  • the input unit 6 inputs an operation signal from the user and outputs it to the control unit 1.
  • the control unit 1 is composed of a CPU (Central Processing Unit) and the like.
  • the control unit 1 executes various calculations based on various programs stored in the storage unit 42 and controls each unit of the surgical microscope apparatus 10 in an integrated manner. The processing of the control unit 1 will be described later in detail in the operation description column.
  • CPU Central Processing Unit
  • the storage unit 42 includes various programs necessary for processing of the control unit 1 and a non-volatile memory in which various data are stored, and a volatile memory used as a work area of the control unit 1.
  • the various programs stored in the storage unit 42 may be read from a portable recording medium such as an optical disk or a semiconductor memory, or may be downloaded from a server device on a network.
  • FIGS. 2 and 3 are schematic views showing a process of cataract surgery.
  • the eyeball is composed of tissues such as the cornea 20, the iris 21, the crystalline lens 23, and the sclera 24.
  • An anterior capsule 25 is formed on the front surface of the crystalline lens 23, and a posterior capsule 26 is formed on the rear surface of the crystalline lens 23.
  • a vitreous body (not shown) is located behind the crystalline lens 23.
  • the pupil 22 is between the irises 21 on the surface of the crystalline lens 23.
  • a wound 30 is formed in the cornea 20 by a surgical instrument 7 such as a knife.
  • a surgical instrument 7 such as a knife.
  • the surgical instrument 7 is inserted from the wound 30 and the anterior capsule 25 in the crystalline lens 23 is incised by the surgical instrument 7, as shown in FIG.
  • Nuclei and cortex are aspirated and removed.
  • the intraocular lens is inserted at the position where the crystalline lens 23 is removed, and the operation is completed.
  • the cataract surgery shown here is an example of ophthalmic surgery in which the surgical microscope apparatus 10 can be used, and the surgical microscope apparatus 10 can be used in various ophthalmic surgeries.
  • FIG. 4 is a flowchart showing processing of the control unit 1.
  • the control unit 1 controls the front image acquisition unit 2 to capture the front image of the eye, and acquires the captured front image of the eye from the front image acquisition unit 2 (step). 101).
  • FIG. 5 is a diagram illustrating an example of a front image acquired by the front image acquisition unit 2.
  • the front image shown in FIG. 5 shows a state in which the inside of the crystalline lens 23 is sucked and removed by the surgical tool 7 for suction in the cataract surgery.
  • the control unit 1 causes the storage unit 4 to store the acquired front image every time the front image is acquired. Further, the control unit 1 displays the acquired front image on the screen of the display unit 5.
  • control unit 1 performs image recognition processing on the past front image stored in the storage unit 4 and the acquired current front image, and the movement of the surgical instrument 7 reflected in the front image. (Subject time-series change: change in subject position) is detected (step 102).
  • Examples of methods used for image recognition processing include an inter-frame difference method, a template matching method, and a feature point extraction / tracking method.
  • the movement of the surgical instrument 7 may be detected based on an optical or magnetic marker provided at the distal end of the surgical instrument 7 or a gripping part.
  • the detected movement of the surgical instrument 7 may be the entire movement of the surgical instrument 7 or the movement of the distal end of the surgical instrument 7.
  • control unit 1 detects the speed of movement of the surgical instrument 7 (speed of change in position) based on the detected movement of the surgical instrument 7 (step 103).
  • the speed of movement of the surgical instrument 7 may be the speed of movement of the entire surgical instrument 7 or the speed of movement of the distal end of the surgical instrument 7.
  • the control unit 1 determines whether or not the speed of movement of the surgical instrument 7 is equal to or higher than a predetermined threshold (step 104).
  • the control unit 1 sets the mode in the tomographic image to the frame rate priority mode (first mode) (Step 105).
  • the frame rate priority mode is a mode that prioritizes the frame rate (refresh rate: the number of updates of the tomographic image per unit time) over the image quality in the tomographic image.
  • the control unit 1 sets, for example, a scan density to a low value in the parameters in the tomographic image to reduce the average number of processes and increase the frame rate.
  • the frame rate priority mode although the image quality is low (low resolution), the frame rate can be increased.
  • Various parameters in the frame rate priority mode are set in advance, and a tomographic image is acquired using these various parameters.
  • the fast movement of the surgical instrument 7 is considered to cause a rapid change in the state of the eye as the treatment target.
  • the user wants to quickly detect changes in the eye state from the tomographic images that are updated at a higher frequency than the user wants to observe the eye state in detail from the high-quality tomographic image. It is considered stronger.
  • a frame rate priority mode that prioritizes the frame rate over the image quality is set.
  • the control unit 1 changes the mode in the tomographic image to the image quality priority mode (second mode).
  • the image quality priority mode is a mode that prioritizes image quality over frame rate in a tomographic image.
  • the control unit 1 sets the scan density to a high value in the parameters in the tomographic image to increase the average number of processing times and increase the image quality.
  • the frame rate is lowered, but the image quality can be increased (high resolution).
  • Various parameters in the image quality priority mode are set in advance, and a tomographic image is acquired using these various parameters.
  • the surgical tool 7 is not always shown in the front image.
  • the control unit 1 determines that the surgical instrument 7 is not captured in the front image, the mode in the tomographic image is changed to the image quality priority mode, as in the case where the speed of movement of the surgical instrument 7 is less than a predetermined threshold. Set to.
  • the change in the state of the eye as the treatment target is also slow.
  • the fact that the surgical tool 7 is not reflected in the front image may be before the start of the treatment, during the treatment, or may be interrupted or after the treatment.
  • the change in the state of the eye as a treatment target is considered to be slow.
  • the image quality priority mode that prioritizes the image quality over the frame rate is set. Yes.
  • the tomographic image acquisition unit 3 acquires a tomographic image based on parameters according to the set mode (step 107).
  • the control unit 1 displays the acquired tomographic image on the screen of the display unit 5.
  • FIG. 6 is a diagram illustrating an example of a tomographic image acquired by the tomographic image acquisition unit 3.
  • the tomographic image shown in FIG. 6 shows a state in which the inside of the crystalline lens 23 is sucked and removed by the surgical instrument 7 for suction in the cataract surgery.
  • the front image as shown in FIG. 5 and the tomographic image as shown in FIG. 6 may be displayed on the same display unit 5 or may be displayed on different display units 5.
  • the parameter for acquiring the tomographic image is changed based on the movement of the surgical instrument 7 in the front image (that is, the change in the position of the subject). That is, in the present embodiment, the correlation between the movement (speed) of the surgical instrument 7 and the user's request for the tomographic image is taken into consideration, and the tomography is performed according to the movement of the surgical instrument 7 so as to meet the user's request.
  • the image parameters are changed.
  • the surgical instrument 7 it is possible to set an appropriate parameter for acquiring a tomographic image in accordance with the user's request according to the movement of the surgical instrument 7.
  • the parameters are appropriately changed according to this request. (Because the relationship between the movement of the surgical instrument 7 and the request is used).
  • the parameters for acquiring the tomographic image are automatically changed by the control unit 1, it is possible to reduce a burden in changing the parameters by the user.
  • the parameters are automatically changed even during the treatment. Therefore, during the treatment, the treatment is interrupted, the user's concentration and work efficiency are reduced, and the treatment time is delayed. Can be prevented.
  • the frame rate priority mode is set, and the speed of movement of the surgical instrument 7 is less than the predetermined threshold.
  • the image quality priority mode is set.
  • a parameter for acquiring a tomographic image may be changed according to a change in the state of the eye shown in the front image.
  • the user when the change in the state of the eye as the treatment target is slow, the user can obtain a higher image quality than the desire to quickly detect the change in the state of the eye from the tomographic images updated frequently. From these tomographic images, it is considered that there is a stronger demand for detailed observation of the state of the eye (before, during, and after the treatment).
  • Changes in the state of the eye include, for example, changes when the wound 30 is formed in the cornea 20, changes in the incision of the anterior capsule 25 in the lens 23, and when the inside (nucleus and cortex) of the lens 23 is aspirated and removed. Change.
  • the change in the eye state may be any change as long as it is a change relating to the eye state, before and after the treatment.
  • the correlation between the change in the eye state and the user's request for the tomographic image is taken into account, and the parameters of the tomographic image are changed in accordance with the change in the eye state in accordance with the user's request. Is done. Specifically, a change in the state of the eye shown in the front image is detected by the above-described image recognition process, and the speed of this change is determined.
  • the frame rate priority mode is set when the eye state change speed is equal to or higher than a predetermined threshold, and the image quality priority mode is set when the eye state change speed is less than the predetermined threshold. Is done. Also in this example, the same operational effects as the operational effects in the first embodiment described above are exhibited.
  • the parameters for acquiring the tomographic image may be changed by using both the movement (speed) of the surgical instrument 7 and the change (speed) of the eye state.
  • FIG. 7 is a flowchart showing processing according to the second embodiment.
  • control unit 1 controls the front image acquisition unit 2 to capture a front image of the eye, and acquires the captured front image of the eye from the front image acquisition unit 2 (step). 201).
  • control unit 1 stores the acquired front image in the storage unit 4, and the control unit 1 displays the acquired front image on the screen of the display unit 5.
  • control unit 1 performs image recognition processing (similar to the first embodiment) on the past front image stored in the storage unit 4 and the acquired current front image, and includes the front image in the front image.
  • image recognition processing similar to the first embodiment
  • the movement of the tip of the surgical instrument 7 that is shown is detected (step 102).
  • the control unit 1 starts the current time from a predetermined time t1 before the current time t (for example, about several seconds to several tens of seconds) based on the movement of the distal end of the surgical instrument 7.
  • the trajectory of the movement of the distal end of the surgical instrument 7 up to t is detected (step 203).
  • FIG. 8 is a diagram illustrating an example of a locus of movement of the distal end of the surgical instrument 7 between a predetermined time t1 before the current time t and the current time t.
  • the control unit 1 detects the locus of movement of the distal end of the surgical instrument 7 as shown in FIG.
  • FIGS. 9 and 10 are diagrams illustrating a state when the attention area 11 is set based on the movement of the distal end of the surgical instrument 7.
  • FIG. 9 shows a state when the rectangular attention region 11 is set
  • FIG. 10 shows a state when the elliptical attention region 11 is set.
  • the control unit 1 sets an area (refer to a broken-line rectangle or an ellipse) that surrounds the locus by a rectangle or an ellipse. Then, the control unit 1 sets a region of interest 11 (refer to a solid rectangle or an ellipse) by setting a blank region outside the region for the region surrounding the locus.
  • the size of the margin area may be a fixed value or may be determined by a ratio to the size of the area surrounding the trajectory.
  • the shape of the attention area 11 is not limited to a rectangle and an ellipse, and a polygon other than a rectangle may be used, and the shape is not particularly limited.
  • the attention area 11 is set in the measurement area 13.
  • the measurement area 13 is an area in the plane direction in which measurement by OCT is performed (area in the plane direction in which scanning is performed).
  • FIG. 11 is a diagram showing a state when the attention area 11 is set in the measurement area 13.
  • the measurement region 13 is indicated by a one-dot chain line rectangle
  • the attention region 11 is indicated by a solid line rectangle.
  • a scan is executed in a measurement region 13 having a predetermined region in the plane direction (XY direction). That is, in the present embodiment, scanning is performed in two directions of the X-axis direction and the Y-axis direction in the plane direction, and eye volume data (three-dimensional data) is acquired.
  • the shape of the measurement region 13 may be an ellipse, a polygon other than a rectangle, or the like, and this shape is not particularly limited.
  • an area other than the attention area 11 in the measurement area 13 is referred to as a non-attention area 12 (second area).
  • control unit 1 When the attention area 11 is set, the control unit 1 generates a can pattern for acquiring a tomographic image based on the set attention area 11 (step 205).
  • FIG. 12 is a diagram showing a scan pattern for acquiring a tomographic image.
  • the upper side of FIG. 12 shows a state when the measurement area 13 and the attention area 11 are viewed from above.
  • the lower side of FIG. 12 shows a state (a cross section between AA ′ in the upper diagram of FIG. 12) when the scan pattern when acquiring the tomographic image is viewed from the side.
  • the control unit 1 changes the scan density (parameter) between the attention area 11 and the non-attention area 12. Specifically, the control unit 1 changes the scan density in the scan so that the scan density in the attention area 11 is higher than the scan density in the non-target area 12.
  • control unit 1 After setting the scan pattern, the control unit 1 causes the tomographic image acquisition unit 3 to acquire a tomographic image in accordance with the set scan pattern (step 206). Since the attention area 11 has a higher scan density than the non-attention area 12, the image quality of the attention area 11 is higher than the image quality of the non-attention area 12 in the tomographic image.
  • the region including the locus of movement at the distal end of the surgical instrument 7 is a region where there is a demand for the user to observe the eye state in detail from a high-quality tomographic image. I can think of it. That is, also in the second embodiment, as in the first embodiment, the correlation between the movement of the surgical instrument 7 and the user's request is taken into account, and the movement of the surgical instrument 7 is adapted to meet the user's request. Thus, the parameters (scan density) of the tomographic image are appropriately changed between the attention area 11 and the non-attention area 12.
  • appropriate parameters for acquiring a tomographic image in accordance with the user's request can be set according to the movement of the surgical instrument 7.
  • the user does not need a complicated operation, and observes the entire eye in the measurement region 13 and changes the state of the eye in the attention region 11 where the operation is performed. It can be observed in detail.
  • control unit 1 may change the frame rate (parameter) in the tomographic image between the attention area 11 and the non-attention area 12.
  • control unit 1 may change the frame rate so that the frame rate in the attention area 11 is higher than the frame rate in the non-attention area 12.
  • FIG. 13 is a flowchart showing processing when the frame rate of the attention area 11 is different from the frame rate of the non-attention area 12.
  • control section 1 After setting the attention area 11 in the measurement area 13, the control section 1 repeats the process of acquiring the tomographic image corresponding to the attention area 11 by the tomographic image acquisition section 3 five times as shown in FIG. Step 301 to Step 305). Whenever the tomographic image corresponding to the attention area 11 is acquired, the control unit 1 updates the tomographic image for the portion corresponding to the attention area 11 in the tomographic image.
  • the control unit 1 repeats the above process five times, and then acquires a tomographic image corresponding to the non-target region 12 by the tomographic image acquisition unit 3 (step 306).
  • the tomographic image corresponding to the non-attention area 12 is updated once
  • the tomographic image corresponding to the attention area 11 is updated five times. That is, the frame rate in the attention area 11 is five times the frame rate in the non-attention area 12.
  • the magnification of the frame rate of the attention area 11 with respect to the frame rate of the non-attention area 12 is not limited to 5 and can be changed as appropriate.
  • the scan density of the attention area 11 and the scan density of the non-target area 12 are the same, but the scan densities may be different.
  • the user can quickly detect a change in the eye state in the attention area 11 where the treatment is performed while observing the entire eye in the measurement area 13.
  • the region where the eye state is changing is considered to be a region where there is a request to quickly detect a change in the eye state or a desire to observe the eye state in detail. Therefore, this relationship may be used and the attention area 11 may be set based on a change in the eye state.
  • FIG. 14 and FIG. 15 are diagrams showing a state when the attention area 11 is set based on the change in the eye state.
  • FIG. 14 shows changes in the state of the eye when the anterior capsule 25 is incised in the crystalline lens 23 in cataract surgery.
  • FIG. 15 shows a change in the state of the eye when the inner limiting membrane in the vitreous body is peeled in the retinal vitreous surgery.
  • control unit 1 performs image recognition processing on the past front image stored in the storage unit 4 and the acquired current front image, and changes in the state of the eyes reflected in the front image are performed. Is detected. And the control part 1 sets the attention area
  • an incision of the anterior capsule 25 in the crystalline lens 23 is performed by the surgical instrument 7, but the state of the eye where the film is peeled off by the anterior capsule 25 is changed.
  • the region of interest 11 is determined to be a part, and the attention area 11 is set so as to surround the part.
  • the inner boundary film in the vitreous body is peeled off by the surgical instrument 7, but the part where the inner boundary film is peeled off is a part where the state of the eye is changed.
  • the attention area 11 is set so as to surround this portion.
  • the attention area 11 is rectangular, but the shape of the attention area 11 is not particularly limited.
  • control unit 1 changes the image quality or the frame rate between the attention area 11 and the non-attention area 12 (or both of them).
  • FIG. 16 is a flowchart showing processing according to the third embodiment. As shown in FIG. 16, first, the control unit 1 controls the front image acquisition unit 2 to capture a front image of the eye, and acquires the captured front image of the eye from the front image acquisition unit 2 (step). 401).
  • control unit 1 stores the acquired front image in the storage unit 4, and the control unit 1 displays the acquired front image on the screen of the display unit 5.
  • control unit 1 performs image recognition processing (similar to the first embodiment) on the past front image stored in the storage unit 4 and the acquired current front image, and includes the front image in the front image.
  • image recognition processing similar to the first embodiment
  • the movement of the tip of the surgical instrument 7 that is shown is detected (step 402).
  • control unit 1 predicts the position of the distal end of the surgical instrument 7 after a predetermined time (t + dt) from the current time based on the movement of the distal end of the surgical instrument 7 (step 403). ).
  • FIG. 17 is a diagram illustrating a state in which the position of the distal end of the surgical instrument 7 is predicted after a predetermined time from the current time.
  • the surgical instrument 7 at the current time t is indicated by a solid line
  • the surgical instrument 7 at a past time (t-dt) is indicated by a broken line
  • the surgical instrument 7 after a predetermined time (t + dt) from the current time is one point. It is indicated by a chain line.
  • the position of the distal end of the surgical instrument 7 at the current time t is indicated by P (t)
  • the position of the distal end of the surgical instrument 7 at the past time (t-dt) is indicated by P (t-dt).
  • the predicted position of the distal end of the surgical instrument 7 after a predetermined time (t + dt) from the time is indicated by P (t + dt). Note that dt is typically the same time as the frame rate.
  • the control unit 1 includes the position P (t) of the distal end of the surgical instrument 7 at the current time, and the position P (t ⁇ dt) (and beyond) of the distal end of the surgical instrument 7 at the past time. Based on the past tip position), the movement (trajectory) of the tip of the surgical instrument 7 is detected (see step 402). Based on this movement, the control unit 1 predicts a position P (t + dt) of the distal end of the surgical instrument 7 after a predetermined time (t + dt) from the current time (see step 403).
  • the controller 1 When the controller 1 predicts the position P (t + dt) of the distal end of the surgical instrument 7 after a predetermined time (t + dt) from the current time, the controller 1 sets a tomographic plane for acquiring a tomographic image based on the prediction result.
  • FIG. 18 and 19 are diagrams showing an example of the tomographic plane determined based on the prediction result.
  • a straight line connecting the position P (t) of the distal end of the surgical instrument 7 at the current time and the predicted position P (t + dt) of the distal end of the surgical instrument 7 at a predetermined time (t + dt) after the current time is defined as a tomographic plane.
  • An example of setting is shown.
  • FIG. 19 shows an example in which a straight line including the predicted position P (t + dt) of the distal end of the surgical instrument 7 after a predetermined time (t + dt) from the current time is set as the tomographic plane.
  • the tomographic plane is set along the longitudinal direction of the surgical instrument 7, but the tomographic plane is any straight line including the predicted position P (t + dt) of the distal end of the surgical instrument 7. It may be a straight line.
  • control unit 1 causes the tomographic image acquisition unit 3 to acquire a tomographic image corresponding to the set tomographic plane (step 405).
  • the tomographic plane can be set at an appropriate position, and even when the movement of the surgical instrument 7 is fast, the tip of the surgical instrument 7 can be included in the tomographic image.
  • control unit 1 in the surgical microscope apparatus 10 executes the various processes described above has been described.
  • various processes described above may be executed by the control unit 1 of the server device (information processing device) on the network.
  • This technology can also take the following composition.
  • Parameters for detecting a time-series change of a subject in an image obtained by imaging an eye that is a treatment target, and acquiring a tomographic image of the eye according to the time-series change of the subject An information processing apparatus comprising a control unit for changing the information.
  • the control unit detects a change in the position of a surgical tool as a time-series change of the subject, and changes the parameter according to the change in the position of the surgical tool.
  • the control unit includes a first mode in which the parameter is set so that a frame rate is prioritized over an image quality in the tomographic image according to a time-series change of the subject, and a frame rate in the tomographic image.
  • An information processing apparatus that switches between a second mode in which the parameter is set so that image quality is prioritized.
  • the information processing apparatus wherein the control unit detects a speed of change in a time-series change of the subject and switches between the first mode and the second mode according to the speed of the change.
  • the control unit determines whether or not the speed of change is equal to or greater than a predetermined threshold, and when the speed of change is equal to or greater than a predetermined threshold, sets the first mode and sets the speed of change.
  • the information processing device that sets the second mode when the length is less than a predetermined threshold.
  • the control unit sets a first area in response to a time-series change of the subject in a measurement area where scanning for obtaining the tomographic image is performed, and the first area and the measurement area An information processing apparatus that changes the parameter between a second area that is an area other than the first area in the information processing apparatus.
  • the control unit is configured to change a scan density in the scan as the parameter between the first region and the second region.
  • the information processing apparatus according to (8) above The information processing apparatus, wherein the control unit changes the scan density in the scan so that a scan density in the first region is higher than a scan density in the second region.
  • the control unit changes a frame rate in the tomographic image as the parameter between the first region and the second region.
  • (11) The information processing apparatus according to (9), The information processing apparatus, wherein the control unit changes a frame rate in the tomographic image so that a frame rate in the first region is higher than a frame rate in the second region.
  • the information processing apparatus changes a tomographic plane for acquiring the tomographic image as the parameter based on a time-series change of the subject.
  • the control unit predicts a change in the subject after a predetermined time from a current time according to a time-series change of the subject, and changes the tomographic plane according to a prediction result.
  • Parameters for detecting a time-series change of a subject in an image obtained by imaging an eye that is a treatment target, and acquiring a tomographic image of the eye according to the time-series change of the subject Change the information processing method.
  • a program for causing a computer to execute a step of changing a parameter for acquiring a tomographic image of the eye according to a time-series change of the subject.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Ophthalmology & Optometry (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Vascular Medicine (AREA)
  • Optics & Photonics (AREA)
  • General Physics & Mathematics (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Urology & Nephrology (AREA)
  • Robotics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Gynecology & Obstetrics (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

【課題】ユーザの要望に沿う断層画像を取得するための適切なパラメータを設定することができる技術を提供すること。 【解決手段】本技術に係る情報処理装置は、制御部を具備する。前記制御部は、施術対象である眼を撮像することによって得られる画像に写っている被写体の時系列変化を検出し、前記被写体の時系列変化に応じて、前記眼の断層画像を取得するためのパラメータを変更する。

Description

情報処理装置、情報処理方法及びプログラム
 本技術は、眼の施術時において表示される眼の断層画像に関する処理を実行する情報処理装置等の技術に関する。
 近年、眼に対する施術において、手術顕微鏡装置が広く用いられるようになってきている。この手術顕微鏡装置は、顕微鏡を介して取得された眼の画像や、OCT(Optical Coherence Tomography:光干渉断層計)等によって取得された眼の断層画像を表示させ、ユーザは、これらの画像を参照しながら、眼の施術を行う。これにより、施術ミスの発生が防止され、また、施術の精度が向上される。
 OCTは、眼に対して近赤外線を照射し、眼の各組織による反射光を再構成して像を生成する技術であり、特定の断層面における眼の断層画像を得ることができる。例えば、下記特許文献1には、OCTによって取得された眼の断層画像をユーザに提示する眼科解析装置が開示されている。
特開2014-140490号公報
 OCT等による断層画像の取得においては、ユーザは、自己の要望に沿う断層画像を得るために、多数のパラメータを調整する必要がある。一方、これらのパラメータを適切な値に設定するといった作業は、ユーザにとっては時間と経験を要する作業であり、ユーザにとっては負担が大きい。
 以上のような事情に鑑み、本技術の目的は、ユーザの要望に沿う断層画像を取得するための適切なパラメータを設定することができる技術を提供することにある。
 上記目的を達成するため、本技術に係る情報処理装置は、制御部を具備する。前記制御部は、施術対象である眼を撮像することによって得られる画像に写っている被写体の時系列変化を検出し、前記被写体の時系列変化に応じて、前記眼の断層画像を取得するためのパラメータを変更する。
 このように、被写体の時系列変化に応じて、眼の断層画像を取得するためのパラメータを変更することで、ユーザの要望に沿った断層画像を取得するための適切なパラメータを設定することができる。
 上記情報処理装置において、前記制御部は、前記被写体の時系列変化として、術具の位置の変化を検出し、前記術具の位置の変化に応じて、前記パラメータを変更してもよい。
 これにより、ユーザの要望に沿った断層画像を取得するための適切なパラメータを設定することができる。

 上記情報処理装置において、前記制御部は、前記被写体の時系列変化として、前記眼の状態の変化を検出し、前記眼の状態の変化に応じて、前記パラメータを変更してもよい。
 これにより、ユーザの要望に沿った断層画像を取得するための適切なパラメータを設定することができる。
 上記情報処理装置において、前記制御部は、前記被写体の時系列変化に応じて、前記断層画像における画質よりもフレームレートが優先されるように前記パラメータが設定される第1のモードと、前記断層画像におけるフレームレートよりも画質が優先されるように前記パラメータが設定される第2のモードとを切り替えてもよい。
 これにより、ユーザの要望に沿うように、2つのモードを適切に切り替えることができる。
 上記情報処理装置において、前記制御部は、前記被写体の時系列変化における変化の速さを検出し、前記変化の速さに応じて、前記第1のモードと、前記第2のモードとを切り替えてもよい。
 これにより、ユーザの要望に沿うように、2つのモードを適切に切り替えることができる。
 上記情報処理装置において、前記制御部は、前記変化の速さが所定の閾値以上であるかどうかを判定し、前記変化の速さが所定の閾値以上である場合、前記第1のモードを設定し、前記変化の速さが所定の閾値未満である場合、前記第2のモードを設定してもよい。
 これにより、ユーザの要望に沿うように、2つのモードを適切に切り替えることができる。
 上記情報処理装置において、前記制御部は、前記断層画像を得るためのスキャンが行われる計測領域内において、前記被写体の時系列変化に応じて、第1の領域を設定し、前記第1の領域と、前記計測領域内における前記第1の領域以外の領域である第2の領域との間で、前記パラメータを変更してもよい。
 これにより、ユーザの要望に沿うように、第1の領域と、第2の領域との間で、断層画像を取得するためのパラメータを適切に変更することができる。
 上記情報処理装置において、前記制御部は、前記第1の領域と、前記第2の領域との間で、前記パラメータとして、前記スキャンにおけるスキャン密度を変更してもよい。
 これにより、ユーザの要望に沿うように、第1の領域と、第2の領域との間で、断層画像を取得するためのパラメータ(スキャン密度)を適切に変更することができる。
 上記情報処理装置において、前記制御部は、前記第1の領域におけるスキャン密度が、前記第2の領域のスキャン密度よりも高くなるように、前記スキャンにおける前記スキャン密度を変更してもよい。
 これにより、ユーザの要望に沿うように、第1の領域と、第2の領域との間で、断層画像を取得するためのパラメータ(スキャン密度)を適切に変更することができる。
 上記情報処理装置において、前記制御部は、前記第1の領域と、前記第2の領域との間で、前記パラメータとして、前記断層画像におけるフレームレートを変更してもよい。
 これにより、ユーザの要望に沿うように、第1の領域と、第2の領域との間で、断層画像を取得するためのパラメータ(フレームレート)を適切に変更することができる。
 上記情報処理装置において、前記制御部は、前記第1の領域におけるフレームレートが、前記第2の領域におけるフレームレートよりも高くなるように、前記断層画像におけるフレームレートを変更してもよい。
 これにより、ユーザの要望に沿うように、第1の領域と、第2の領域との間で、断層画像を取得するためのパラメータ(フレームレート)を適切に変更することができる。
 上記情報処理装置において、前記制御部は、前記被写体の時系列変化に基づいて、前記パラメータとして、前記断層画像を取得するための断層面を変更してもよい。
 これにより、断層面を適切な位置に設定することができる。
 上記情報処理装置において、前記制御部は、前記被写体の時系列変化に応じて、現在時刻から所定時間後の前記被写体の変化を予測し、予測結果に応じて、前記断層面を変更してもよい。
 これにより、断層面を適切な位置に設定することができる。
 本技術に係る情報処理方法は、施術対象である眼を撮像することによって得られる画像に写っている被写体の時系列変化を検出し、前記被写体の時系列変化に応じて、前記眼の断層画像を取得するためのパラメータを変更する。
 本技術に係るプログラムは、施術対象である眼を撮像することによって得られる画像に写っている被写体の時系列変化を検出するステップと、前記被写体の時系列変化に応じて、前記眼の断層画像を取得するためのパラメータを変更するステップとをコンピュータに実行させる。
 以上のように、本技術によれば、ユーザの要望に沿う断層画像を取得するための適切なパラメータを設定することができる技術を提供することができる。
第1実施形態に係る手術顕微鏡装置の構成を示すブロック図である。 白内障手術のプロセスを示す模式図である。 白内障手術のプロセスを示す模式図である。 制御部の処理を示すフローチャートである。 正面画像取得部によって取得された正面画像の一例を示す図である。 断層画像取得部によって取得された断層画像の一例を示す図である。 第2実施形態に係る処理を示すフローチャートである。 現在時刻よりも所定時間前から、現在時刻までの間における術具の先端の動きの軌跡の一例を示す図である。 術具の先端の動きに基づいて、注目領域を設定するときの様子を示す図である。 術具の先端の動きに基づいて、注目領域を設定するときの様子を示す図である。 計測領域内において、注目領域が設定されたときの様子を示す図である。 断層画像を取得するためのスキャンパターンを示す図である。 注目領域のフレームレートと、非注目領域のフレームレートを異ならせる場合の処理を示すフローチャートである。 眼の状態の変化に基づいて、注目領域を設定するときの様子を示す図である。 眼の状態の変化に基づいて、注目領域を設定するときの様子を示す図である。 第3実施系形態に係る処理を示すフローチャートである。 現在時刻から所定時間後における術具の先端の位置が予測されるときの様子を示す図である。 予測結果に基づいて決定された断層面の一例を示す図である。 予測結果に基づいて決定された断層面の一例を示す図である。
 以下、本技術に係る実施形態を、図面を参照しながら説明する。
≪第1実施形態≫
<全体構成及び各部の構成>
 図1は、第1実施形態に係る手術顕微鏡装置10の構成を示すブロック図である。図1に示すように、手術顕微鏡装置10(情報処理装置)は、制御部1と、正面画像取得部2と、断層画像取得部3と、記憶部4と、表示部5と、入力部6とを備えている。
 なお、本実施形態の説明において、眼の奥行き方向をZ軸方向、眼の平面方向における任意の方向をX軸方向、Y軸方向とする(後述の図2、図3等を参照)。
 正面画像取得部2は、例えば、カメラ付き顕微鏡装置、ステレオカメラ付き顕微鏡装置等によって構成される。正面画像取得部2は、施術対象としての眼を正面から撮像して、正面画像を取得し、制御部1へと出力する。
 断層画像取得部3は、本実施形態では、OCTによって構成される。なお、断層画像取得部3は、シャインプルーフカメラによって構成されてもよい。断層画像取得部3は、眼に対して、近赤外線を照射し、眼からの反射光と、参照光との光干渉を利用して、眼の奥行き方向(Z軸方向)のスキャンを実行する。
 断層画像は、奥行き方向に非常に細長い矩形の画像(以下、矩形画像)が、平面方向(XY方向)における任意の方向に沿って並べられることによって構成される。従って、断層画像取得部3は、奥行き方向のスキャンだけでなく、少なくとも平面方向における任意の1つの方向へスキャン可能に構成されている。
 断層画像取得部3は、各種のパラメータに基づいて、断層画像を取得する。ここで、各種のパラメータとは、計測位置、計測領域13(後述の図11参照)、スキャン密度、平均処理回数、断層面などである。
 計測位置は、OCTによる計測が行われる位置であり、計測領域13は、OCTによる計測が行われる平面方向の領域(平面方向においてスキャンが行われる領域)である。
 ここで、計測領域13は、眼を上方(Z軸方向)から見たときに線状(スキャンライン)に設定されていてもよく、眼を上方から見たときに面状に設定されていてもよい。計測領域13が面状に設定されている場合、眼のボリュームデータ(3次元データ)を得ることができる。
 計測領域13は、本実施形態では、固定とされている。なお、計測領域13は、ユーザの指示に応じて設定されてもよい。スキャン密度は、平面方向におけるスキャンの密度(平面方向において、どの程度の間隔でOCTによる計測が行われるかを示す値)である。
 平均処理回数は、同じ位置で連続的に画像を取得して各画素値を平均することで、ランダムノイズを取り除く処理における、画像の連続取得回数である。また、断層面は、断層画像を生成するときの基準となる面である。つまり、矩形画像が、断層面を基準として、断層面に方向に沿うように並べられて断層画像が生成される。断層面は、ユーザによって指定されてもよいし、術具7(図2、3参照)の位置に基づいて決定されてもよい。
 なお、計測領域13が線状(スキャンライン)に設定されている場合、断層面の方向は、線状の計測領域13に一致する。この場合、取得された矩形画像を単純に並べるだけで、断層画像が生成される。一方、計測領域13が面状に設定されている場合、面状の計測領域13において取得された矩形画像のうち、断層面に沿う方向に位置する矩形画像がピックアップされ、ピックアップされた矩形画像が並べられて断層画像が生成される。
 表示部5は、液晶ディスプレイ、有機ELディスプレイ(EL:Electro Luminescence)等によって構成される。表示部5は、正面画像取得部2によって取得された眼の正面画像や、断層画像取得部3によって取得された眼の断層画像を画面上に表示させる。
 入力部6は、例えば、キーボードや、マウス、表示部5の画面上に設けられたタッチセンサ等によって構成される。入力部6は、ユーザによる操作信号を入力し、制御部1へと出力する。
 制御部1は、CPU(Central Processing Unit)等により構成されている。制御部1は、記憶部42に記憶された各種のプログラムに基づき種々の演算を実行し、手術顕微鏡装置10の各部を統括的に制御する。なお、制御部1の処理については、動作説明の欄において後に詳述する。
 記憶部42は、制御部1の処理に必要な各種のプログラムや、各種のデータが記憶される不揮発性のメモリと、制御部1の作業領域として用いられる揮発性のメモリとを含む。なお、記憶部42に記憶される各種のプログラムは、光ディスク、半導体メモリなどの可搬性の記録媒体から読み取られてもよいし、ネットワーク上のサーバ装置からダウンロードされてもよい。
 <眼科手術の概要>
 次に、手術顕微鏡装置10の利用が可能な白内障手術の概要について説明する。図2、図3は、白内障手術のプロセスを示す模式図である。これらの図に示すように、眼球は、角膜20、虹彩21、水晶体23及び強膜24等の組織で構成されている。水晶体23における前方側の表面には、前嚢25が形成されており、水晶体23の後方側の表面には後嚢26が形成されている。水晶体23よりも奥側には、硝子体(不図示)が位置している。また、水晶体23の表面において虹彩21の間が瞳孔22である。
 図2に示すように、白内障手術においては、ナイフ等の術具7によって角膜20に創口30が形成される。次に、創口30から術具7が挿入されて、水晶体23における前嚢25が術具7によって切開された後、図3に示すように、吸引用の術具7によって、水晶体23の内部(核や皮質)が吸引、除去される。その後、水晶体23を除去した位置に眼内レンズが挿入され、手術が完了する。
 なお、ここに示した白内障手術は、手術顕微鏡装置10の利用が可能な眼科手術の例であり、手術顕微鏡装置10は各種の眼科手術において利用することが可能である。
 <動作説明>
 次に、本実施形態に係る制御部処理について説明する。図4は、制御部1の処理を示すフローチャートである。図4に示すように、まず、制御部1は、正面画像取得部2を制御して、眼の正面画像を撮像し、撮像された眼の正面画像を正面画像取得部2から取得する(ステップ101)。
 図5は、正面画像取得部2によって取得された正面画像の一例を示す図である。図5に示す正面画像では、白内障手術において、吸引用の術具7によって水晶体23の内部が吸引、除去されているときの様子が示されている。
 なお、制御部1は、正面画像が取得される度に、取得された正面画像を記憶部4に記憶させる。また、制御部1は、取得された正面画像を表示部5の画面上に表示させる。
 次に、制御部1は、記憶部4に記憶された過去の正面画像と、取得された現在の正面画像とにおいて、画像認識処理を実行し、正面画像内に写っている術具7の動き(被写体の時系列変化:被写体の位置の変化)を検出する(ステップ102)。
 画像認識処理に用いられる方法としては、例えば、フレーム間差分法、テンプレートマッチング法、特徴点抽出/追跡法等が挙げられる。なお、術具7の動きは、術具7の先端部や、把持部等に設けられた光学式、磁気式のマーカに基づいて検出されてもよい。また、検出される術具7の動きは、術具7の全体の動きであってもよいし、術具7の先端の動きであってもよい。
 次に、制御部1は、検出された術具7の動きに基づいて、術具7の動きの速さ(位置の変化の速さ)を検出する(ステップ103)。術具7の動きの速さは、術具7全体の動きの速さであってもよいし、術具7の先端の動きの速さであってもよい。
 次に、制御部1は、術具7の動きの速さが所定の閾値以上であるかを判定する(ステップ104)。術具7の動きの速さが所定の閾値以上である場合(ステップ104のYES)、制御部1は、断層画像におけるモードを、フレームレート優先モード(第1のモード)に設定する(ステップ105)。フレームレート優先モードは、断層画像において、画質よりもフレームレート(リフレッシュレート:単位時間あたりの断層画像の更新回数)を優先させるモードである。
 フレームレート優先モードでは、制御部1は、断層画像におけるパラメータにおいて、例えば、スキャン密度を低い値に設定して平均処理回数を減らし、フレームレートを高くする。フレームレート優先モードでは、画質が低くなる(低分解能)ものの、フレームレートを高くすることができる。なお、フレームレート優先モードにおける各種パラメータは予め設定されており、この各種パラメータを使用して断層画像が取得される。
 ここで、術具7の動きが速いということは、施術対象としての眼の状態の変化も速いと考えられる。このような場合、ユーザからすれば、高画質の断層画像から眼の状態を詳細に観察したいといった要望よりも、高頻度で更新される断層画像から眼の状態の変化を素早く察知したいといった要望の方が強いと考えられる。このため、本実施形態では、術具7の動きが速い場合に、画質よりもフレームレートを優先するフレームレート優先モードを設定することとしている。
 一方、ステップ104において、術具7の動きの速さが所定の閾値未満である場合(ステップ104のNO)、制御部1は、断層画像におけるモードを、画質優先モード(第2のモード)に設定する(ステップ106)。画質優先モードは、断層画像において、フレームレートよりも画質を優先させるモードである。
 画質優先モードでは、制御部1は、断層画像におけるパラメータにおいて、例えば、スキャン密度を高い値に設定して平均処理回数を増やし、画質を高くする。画質優先モードでは、フレームレートが低くなるものの、画質を高く(高分解能)することができる。なお、画質優先モードにおける各種パラメータは予め設定されており、この各種パラメータを使用して断層画像が取得される。
 なお、術具7は常に正面画像内に写っているとは限らない。制御部1は、正面画像内に術具7が写っていないと判断した場合、術具7の動きの速さが所定の閾値未満である場合と同様に、断層画像におけるモードを、画質優先モードに設定する。
 ここで、術具7の動きが遅いということは、施術対象としての眼の状態の変化も遅いと考えられる。また、術具7が正面画像内に写っていないということは、施術開始前であったり、施術中において一旦施術を中断していたり、施術後であったりする場合があり、この場合も、同様に、施術対象としての眼の状態の変化も遅いと考えられる。
 このような場合、ユーザからすれば、高頻度で更新される断層画像から眼の状態の変化を素早く察知したいといった要望よりも、高画質の断層画像から(施術前、施術中、施術後の)眼の状態を詳細に観察したいといった要望の方が強いと考えられる。このため、本実施形態では、術具7の動きが遅い場合(あるいは、術具7が正面画像内に写っていない場合)に、フレームレートよりも画質を優先する画質優先モードを設定することとしている。
 制御部1は、モードを設定すると、設定されたモードに応じたパラメータに基づいて、断層画像取得部3により断層画像を取得させる(ステップ107)。断層画像が取得されると、制御部1は、取得された断層画像を表示部5の画面上に表示させる。
 図6は、断層画像取得部3によって取得された断層画像の一例を示す図である。図6に示す断層画像では、白内障手術において、吸引用の術具7によって水晶体23の内部が吸引、除去されているときの様子が示されている。なお、図5に示すような正面画像、及び図6に示すような断層画像は、同じ表示部5上に表示されてもよいし、別々の表示部5上に表示されてもよい。
 <作用等>
 ここで、比較として、断層画像におけるパラメータをユーザが自己で設定して画質や、フレームレートをコントロールする場合を想定する。断層画像におけるパラメータとしては、上述のように様々なパラメータがあり、これらのパラメータが画質や、フレームレートと複雑に関連している。従って、自己の要望に沿う画質及びフレームレートを両立させるために、各種のパラメータを適切な値に設定するといった作業は、ユーザにとっては時間と経験を要する作業であり、ユーザにとっては負担が大きい。
 さらに、施術中においては、施術の進行に応じて、眼の状態が変化したり、ユーザの断層画像に対する要望が変化したりするので、より頻繁なパラメータの調整が必要となる。施術中における頻繁なパラメータの調整は、施術が頻繁に遮られる原因となり、また、ユーザの集中力、作業効率を低下させたり、施術時間の遅延を招いたりする原因となる。また、適切なパラメータを設定できない場合には、断層画像を表示したことによる効果を十分に発揮することができない。
 一方、本実施形態では、正面画像内における術具7の動き(つまり、被写体の位置の変化)に基づいて、断層画像を取得するためのパラメータが変更される。つまり、本実施形態では、術具7の動き(速さ)と、断層画像に対するユーザの要望との相関関係が考慮され、ユーザの要望に沿うように、術具7の動きに応じて、断層画像のパラメータが変更される。
 従って、本実施形態では、術具7の動きに応じて、ユーザの要望に沿った断層画像を取得するための適切なパラメータを設定することができる。特に、本実施形態では、施術における進行状況(例えば、施術前、施術中、施術後等)において、断層画像におけるユーザの要望が変化した場合でも、この要望に応じてパラメータを適切に変化させることができる(術具7の動きと、要望との関係を利用しているため)。
 また、本実施形態では、制御部1により、断層画像を取得するためのパラメータが自動的に変更されるので、ユーザによるパラメータの変更における負担を低減することができる。特に、本実施形態では、施術中においても、自動的にパラメータが変更されるので、施術中において、施術が遮られたり、ユーザの集中力、作業効率を低下させたり、施術時間の遅延を招いたりすることを防止することができる。
 また、本実施形態では、術具7の動きの速さが所定の閾値以上である場合に、フレームレート優先モードが設定され、術具7の動きの速さが所定の閾値未満である場合に画質優先モードが設定される。これにより、本実施形態では、ユーザの要望に沿うように、2つのモードを適切に切り替えることができる。
<第1実施形態変形例>
 以上の説明では、術具7の動きに応じて、断層画像を取得するためのパラメータが変更される場合について説明した。一方、正面画像内に写っている眼の状態の変化に応じて、断層画像を取得するためのパラメータが変更されてもよい。
 上述のように、施術対象としての眼の状態の変化が速い場合、ユーザからすれば、高画質の断層画像から眼の状態を詳細に観察したいといった要望よりも、高頻度で更新される断層画像から眼の状態の変化を素早く察知したいといった要望の方が強いと考えられる。
 また、上述のように、施術対象としての眼の状態の変化が遅い場合、ユーザからすれば、高頻度で更新される断層画像から眼の状態の変化を素早く察知したいといった要望よりも、高画質の断層画像から(施術前、施術中、施術後の)眼の状態を詳細に観察したいといった要望の方が強いと考えられる。
 つまり、眼の状態の変化と、ユーザの要望との間にも相関関係があり、この関係が利用される。眼の状態の変化としては、例えば、角膜20に創口30が形成されるときの変化、水晶体23における前嚢25の切開における変化、水晶体23の内部(核や皮質)が吸引、除去されるときの変化等が挙げられる。なお、眼の状態の変化は、施術前後、施術中を問わず、眼の状態に関する変化であれば、どのような変化であってもよい。
 ここでの例では、眼の状態の変化と、断層画像に対するユーザの要望との相関関係が考慮され、ユーザの要望に沿うように、眼の状態の変化に応じて、断層画像のパラメータが変更される。具体的には、上述の画像認識処理により、正面画像内に写っている眼の状態の変化が検出され、この変化の速さが判定される。
 そして、眼の状態の変化の速さが所定の閾値以上である場合に、フレームレート優先モードが設定され、眼の状態の変化の速さが所定の閾値未満である場合に画質優先モードが設定される。ここでの例においても、上述の第1実施形態における作用効果と同様の作用効果を奏する。
 なお、術具7の動き(速さ)と、眼の状態の変化(速さ)との両方が用いられて、断層画像を取得するためのパラメータが変更されてもよい。
≪第2実施形態≫
 次に、本技術の第2実施形態について説明する。図7は、第2実施形態に係る処理を示すフローチャートである。
 図7に示すように、まず、制御部1は、正面画像取得部2を制御して、眼の正面画像を撮像し、撮像された眼の正面画像を正面画像取得部2から取得する(ステップ201)。
 なお、制御部1は、正面画像が取得される度に、取得された正面画像を記憶部4に記憶させ、また、制御部1は、取得された正面画像を表示部5の画面上に表示させる。
 次に、制御部1は、記憶部4に記憶された過去の正面画像と、取得された現在の正面画像とにおいて、画像認識処理(第1実施形態と同様)を実行し、正面画像内に写っている術具7の先端の動きを検出する(ステップ102)。
 術具7の先端の動きを検出すると、制御部1は、術具7の先端の動きに基づいて、現在時刻tよりも所定時間t1前(例えば、数秒~数十秒程度)から、現在時刻tまでの間における術具7の先端の動きの軌跡を検出する(ステップ203)。
 図8は、現在時刻tよりも所定時間t1前から、現在時刻tまでの間における術具7の先端の動きの軌跡の一例を示す図である。制御部1は、ステップ203において、図8に示すような、術具7の先端の動きの軌跡を検出する。
 術具7の先端の動きを検出すると、制御部1は、術具7の先端の動きの軌跡に基づいて、注目領域11(第1の領域)を設定する(ステップ204)。図9及び図10は、術具7の先端の動きに基づいて、注目領域11を設定するときの様子を示す図である。図9には、矩形の注目領域11を設定するときの様子が示されており、図10には、楕円形の注目領域11が設定されるときの様子が示されている。
 注目領域11の設定においては、まず、制御部1は、矩形や、楕円形などによって軌跡を囲む領域(破線の矩形、楕円参照)を設定する。そして、制御部1は、軌跡を囲んだ領域に対して、この領域の外側に余白の領域を設定することによって注目領域11(実線の矩形、楕円参照)を設定する。余白の領域の大きさは、固定値が用いられてもよいし、軌跡を囲む領域の大きさ対する比率によって決定されてもよい。
 なお、注目領域11の形状は、矩形、楕円形に限られず、矩形以外の多角形等が用いられてもよく、この形状については特に限定されない。
 ここで、注目領域11は、計測領域13内に設定される。上述のように、計測領域13は、OCTによる計測が行われる平面方向の領域(スキャンが行われる平面方向の領域)である。
 図11は、計測領域13内において、注目領域11が設定されたときの様子を示す図である。図11では、計測領域13が一点鎖線の矩形で示されており、注目領域11が実線の矩形で示されている。
 図11に示すように、第2実施形態では、断層画像を取得するために、平面方向(XY方向)に所定の領域を有する計測領域13内においてスキャンが実行される。つまり、本実施形態では、平面方向におけるX軸及びY軸方向の2方向にスキャンが実行され、眼のボリュームデータ(3次元データ)が取得される。
 なお、計測領域13の形状は、楕円形や、矩形以外の多角形等が用いられてもよく、この形状については特に限定されない。ここで、以降の説明において、計測領域13内において、注目領域11以外の領域を非注目領域12(第2の領域)と呼ぶ。
 注目領域11を設定すると、次に、制御部1は、設定された注目領域11に基づいて、断層画像を取得するためのキャンパターンを生成する(ステップ205)。
 図12は、断層画像を取得するためのスキャンパターンを示す図である。図12の上側には、計測領域13及び注目領域11を上方から見たときの様子が示されている。一方、図12の下側には、断層画像を取得する際のスキャンパターンを側方から見たときの様子(図12の上側の図におけるA-A'間の断面)が示されている。
 図12に示すように、計測領域13において、注目領域11と、非注目領域12とでは、平面方向(XY方向)におけるスキャン密度が異なっている。つまり、制御部1は、注目領域11と、非注目領域12との間で、スキャン密度(パラメータ)を変更している。具体的には、制御部1は、注目領域11におけるスキャン密度が、非注目領域12のスキャン密度よりも高くなるように、スキャンにおけるスキャン密度を変更している。
 スキャンパターンを設定すると、次に、制御部1は、設定されたスキャンパターンに応じて、断層画像取得部3によって断層画像を取得させる(ステップ206)。なお、注目領域11は、非注目領域12よりもスキャン密度が高いので、断層画像において、注目領域11の画質は、非注目領域12の画質よりも高くなる。
 ここで、術具7の先端における動きの軌跡が含まれる領域(注目領域11)は、ユーザからすれば、高画質の断層画像から眼の状態を詳細に観察したいといった要望がある領域であると考えらえる。つまり、第2実施形態においても、第1実施形態と同様に、術具7の動きと、ユーザによる要望との相関関係が考慮され、ユーザの要望に沿うように、術具7の動きに応じて、注目領域11と、非注目領域12との間で、断層画像のパラメータ(スキャン密度)が適切に変更される。
 従って、第2実施形態においても第1実施系形態と同様に、術具7の動きに応じて、ユーザの要望に沿った断層画像を取得するための適切なパラメータを設定することができる。特に、第2実施形態では、断層画像において、ユーザは、複雑な作業を必要とせずに、計測領域13において眼の全体を観察しつつ、施術が行われている注目領域11において眼の状態を詳細に観察することができる。
<第2実施形態変形例>
 「注目領域11と、非注目領域12とでフレームレートを異ならせる例」
 上述の説明では、注目領域11の画質と、非注目領域12の画質とを異ならせる場合について説明した。一方、注目領域11のフレームレートと、非注目領域12のフレームレートとが異なっていてもよい。
 つまり、制御部1は、注目領域11と、非注目領域12との間で、断層画像におけるフレームレート(パラメータ)を変更してもよい。この場合、制御部1は、注目領域11におけるフレームレートが、非注目領域12におけるフレームレートよりも高くなるように、フレームレートを変更してもよい。
 以下、一例を挙げて具体的に説明する。図13は、注目領域11のフレームレートと、非注目領域12のフレームレートを異ならせる場合の処理を示すフローチャートである。
 制御部1は、計測領域13内において、注目領域11を設定した後、図13に示すように、注目領域11に対応する断層画像を断層画像取得部3により取得する処理を、5回繰り返す(ステップ301~ステップ305)。制御部1は、注目領域11に対応する断層画像を取得する度に、断層画像において、注目領域11に対応する箇所について断層画像を更新する。
 制御部1は、上記処理を、5回繰り返した後、非注目領域12に対応する断層画像を断層画像取得部3により取得する(ステップ306)。
 このような処理により、非注目領域12に対応する断層画像が1回更新される間に、注目領域11に対応する断層画像が5回更新される。つまり、注目領域11におけるフレームレートが、非注目領域12におけるフレームレートの5倍になる。
 非注目領域12のフレームレートに対する注目領域11のフレームレートの倍率は、5倍に限られず、適宜変更可能である。なお、ここでの例では、注目領域11のスキャン密度と、非注目領域12のスキャン密度は同じであるが、スキャン密度が異なっていてもよい。
 この例においては、ユーザは、断層画像において、計測領域13において眼の全体を観察しつつ、施術が行われている注目領域11において眼の状態の変化を素早く察知することができる。
 [眼の状態の変化に基づいて、注目領域11を設定する例]
 以上の説明では、術具7の動きに基づいて、注目領域11を設定する場合について説明した。一方、眼の状態の変化に基づいて、注目領域11が設定されてもよい。
 つまり、正面画像において、眼の状態が変化している領域は、眼の状態の変化を素早く察知したいといった要望や、眼の状態を詳細に観察したいといった要望がある領域である考えられる。従って、この関係が利用され、眼の状態の変化に基づいて、注目領域11が設定されてもよい。
 図14、図15は、眼の状態の変化に基づいて、注目領域11を設定するときの様子を示す図である。図14には、白内障手術において、水晶体23における前嚢25の切開が行われているときの眼の状態の変化が示されている。図15には、網膜硝子体手術において、硝子体における内境界膜が剥離されているときの眼の状態の変化が示されている。
 この場合、制御部1は、記憶部4に記憶された過去の正面画像と、取得された現在の正面画像とにおいて、画像認識処理を実行し、正面画像内に写っている眼の状態の変化を検出する。そして、制御部1は、眼の状態が変化している部分を囲むように、注目領域11を設定する。注目領域11の設定においては、余白の領域が設定されてもよい。
 例えば、図14に示す例では、術具7によって、水晶体23における前嚢25の切開が行われているが、前嚢25による膜が剥がされている部分が、眼の状態が変化している部分であると判断され、この部分を囲むように注目領域11が設定される。
 また、図15に示す例では、術具7によって、硝子体における内境界膜が剥離されているが、内境界膜が剥離されている部分が、眼の状態が変化している部分であると判断され、この部分を囲むように注目領域11が設定される。
 図14、図15に示す例では、注目領域11が矩形とされているが、注目領域11の形状については特に限定されない。
 注目領域11が設定されると、制御部1は、注目領域11と、非注目領域12との間で、画質を異ならせるか、あるいは、フレームレートを異ならせる(あるいは、これらの両方)。
 ここでの例では、ユーザは、断層画像において、膜の牽引状態や、膜と他の組織との接着状態等を容易に確認することができるので、無駄な力が掛かっていないかなどを容易に認識することができる。
≪第3実施形態≫
 次に、本技術の第3実施形態について説明する。第3実施形態では、術具7の動きが予測され、予測結果に応じて、断層画像を取得するための断層面(パラメータ)が変更される。
 図16は、第3実施系形態に係る処理を示すフローチャートである。図16に示すように、まず、制御部1は、正面画像取得部2を制御して、眼の正面画像を撮像し、撮像された眼の正面画像を正面画像取得部2から取得する(ステップ401)。
 なお、制御部1は、正面画像が取得される度に、取得された正面画像を記憶部4に記憶させ、また、制御部1は、取得された正面画像を表示部5の画面上に表示させる。
 次に、制御部1は、記憶部4に記憶された過去の正面画像と、取得された現在の正面画像とにおいて、画像認識処理(第1実施形態と同様)を実行し、正面画像内に写っている術具7の先端の動きを検出する(ステップ402)。
 術具7の先端の動きを検出すると、制御部1は、術具7の先端の動きに基づいて、現在時刻から所定時間後(t+dt)の術具7の先端の位置を予測する(ステップ403)。
 図17は、現在時刻から所定時間後における術具7の先端の位置が予測されるときの様子を示す図である。図17において、現在時刻tにおける術具7が実線で示され、過去の時刻(t-dt)における術具7が破線で示され、現在時刻から所定時間後(t+dt)の術具7が一点鎖線で示されている。
 また、現在時刻tにおける術具7の先端の位置がP(t)によって示され、過去の時刻(t-dt)における術具7の先端の位置がP(t-dt)によって示され、現在時刻から所定時間後(t+dt)の術具7の先端の予測位置がP(t+dt)によって示されている。なお、dtは、典型的には、フレームレートと同じ時間とされている。
 図17に示す例では、制御部1は、現在時刻における術具7の先端の位置P(t)、並びに、過去の時刻における術具7の先端の位置P(t-dt)(及びそれ以上過去の先端の位置)に基づいて、術具7の先端の動き(軌跡)を検出する(ステップ402参照)。そして、制御部1は、この動き基づいて、現在時刻から所定時間後(t+dt)の術具7の先端の位置P(t+dt)を予測する(ステップ403参照)。
 制御部1は、現在時刻から所定時間後(t+dt)の術具7の先端の位置P(t+dt)を予測すると、予測結果に基づいて、断層画像を取得するための断層面を設定する。
 図18及び図19は、予測結果に基づいて決定された断層面の一例を示す図である。図18では、現在時刻における術具7の先端の位置P(t)と、現在時刻から所定時間後(t+dt)における術具7の先端の予測位置P(t+dt)とを結ぶ直線が断層面として設定される場合の一例が示されている。
 一方、図19では、現在時刻から所定時間後(t+dt)における術具7の先端の予測位置P(t+dt)を含む直線が断層面として設定される場合の一例が示されている。なお、図19では、術具7の長手方向に沿うように断層面が設定されているが、断層面は、術具7の先端の予測位置P(t+dt)を含む直線であればどのような直線であってもよい。
 断層面を設定すると、制御部1は、設定された断層面に応じた断層画像を断層画像取得部3により取得させる(ステップ405)。
 第3実施形態では、断層面を適切な位置に設定することができ、術具7の動きが速いような場合にも、断層画像において、術具7の先端を含ませることができる。
 ≪各種変形例≫
 以上の説明では、手術顕微鏡装置10における制御部1が上記した各種の処理を実行する場合について説明した。一方、上記した各種の処理は、ネットワーク上のサーバ装置(情報処理装置)の制御部1によって実行されてもよい。
 本技術は以下の構成をとることもできる。
(1)施術対象である眼を撮像することによって得られる画像に写っている被写体の時系列変化を検出し、前記被写体の時系列変化に応じて、前記眼の断層画像を取得するためのパラメータを変更する制御部
 を具備する情報処理装置。
(2) 上記(1)に記載の情報処理装置であって、
 前記制御部は、前記被写体の時系列変化として、術具の位置の変化を検出し、前記術具の位置の変化に応じて、前記パラメータを変更する
 情報処理装置。
(3) 上記(1)又は(2)に記載の情報処理装置であって、
 前記制御部は、前記被写体の時系列変化として、前記眼の状態の変化を検出し、前記眼の状態の変化に応じて、前記パラメータを変更する
 情報処理装置。
(4) 上記(1)~(3)のうちいずれか1つに記載の情報処理装置であって、
 前記制御部は、前記被写体の時系列変化に応じて、前記断層画像における画質よりもフレームレートが優先されるように前記パラメータが設定される第1のモードと、前記断層画像におけるフレームレートよりも画質が優先されるように前記パラメータが設定される第2のモードとを切り替える
 情報処理装置。
(5) 上記(4)に記載の情報処理装置であって、
 前記制御部は、前記被写体の時系列変化における変化の速さを検出し、前記変化の速さに応じて、前記第1のモードと、前記第2のモードとを切り替える
 情報処理装置。
(6) 上記(5)に記載の情報処理装置であって、
 前記制御部は、前記変化の速さが所定の閾値以上であるかどうかを判定し、前記変化の速さが所定の閾値以上である場合、前記第1のモードを設定し、前記変化の速さが所定の閾値未満である場合、前記第2のモードを設定する
 情報処理装置。
(7) 上記(1)~(6)のうちいずれか1つに記載の情報処理装置であって、
 前記制御部は、前記断層画像を得るためのスキャンが行われる計測領域内において、前記被写体の時系列変化に応じて、第1の領域を設定し、前記第1の領域と、前記計測領域内における前記第1の領域以外の領域である第2の領域との間で、前記パラメータを変更する
 情報処理装置。
(8) 上記(7)に記載の情報処理装置であって、
 前記制御部は、前記第1の領域と、前記第2の領域との間で、前記パラメータとして、前記スキャンにおけるスキャン密度を変更する
 情報処理装置。
(9) 上記(8)に記載の情報処理装置であって、
 前記制御部は、前記第1の領域におけるスキャン密度が、前記第2の領域のスキャン密度よりも高くなるように、前記スキャンにおける前記スキャン密度を変更する
 情報処理装置。
(10) 上記(7)に記載の情報処理装置であって、
 前記制御部は、前記第1の領域と、前記第2の領域との間で、前記パラメータとして、前記断層画像におけるフレームレートを変更する
 情報処理装置。
(11) 上記(9)に記載の情報処理装置であって、
 前記制御部は、前記第1の領域におけるフレームレートが、前記第2の領域におけるフレームレートよりも高くなるように、前記断層画像におけるフレームレートを変更する
 情報処理装置。 
(12) 上記(1)~(11)のうちいずれか1つに記載の情報処理装置であって、
 前記制御部は、前記被写体の時系列変化に基づいて、前記パラメータとして、前記断層画像を取得するための断層面を変更する
 情報処理装置。
(13) 上記(12)に記載の情報処理装置であって、
 前記制御部は、前記被写体の時系列変化に応じて、現在時刻から所定時間後の前記被写体の変化を予測し、予測結果に応じて、前記断層面を変更する
 情報処理装置。
(14) 施術対象である眼を撮像することによって得られる画像に写っている被写体の時系列変化を検出し、前記被写体の時系列変化に応じて、前記眼の断層画像を取得するためのパラメータを変更する
 情報処理方法。
(15) 施術対象である眼を撮像することによって得られる画像に写っている被写体の時系列変化を検出するステップと、
 前記被写体の時系列変化に応じて、前記眼の断層画像を取得するためのパラメータを変更するステップと
 をコンピュータに実行させるプログラム。
 1…制御部
 2…正面画像取得部
 3…断層画像取得部
 7…術具
 10…手術顕微鏡装置
 11…注目領域
 12…非注目領域

Claims (15)

  1.  施術対象である眼を撮像することによって得られる画像に写っている被写体の時系列変化を検出し、前記被写体の時系列変化に応じて、前記眼の断層画像を取得するためのパラメータを変更する制御部
     を具備する情報処理装置。
  2.  請求項1に記載の情報処理装置であって、
     前記制御部は、前記被写体の時系列変化として、術具の位置の変化を検出し、前記術具の位置の変化に応じて、前記パラメータを変更する
     情報処理装置。
  3.  請求項1に記載の情報処理装置であって、
     前記制御部は、前記被写体の時系列変化として、前記眼の状態の変化を検出し、前記眼の状態の変化に応じて、前記パラメータを変更する
     情報処理装置。
  4.  請求項1に記載の情報処理装置であって、
     前記制御部は、前記被写体の時系列変化に応じて、前記断層画像における画質よりもフレームレートが優先されるように前記パラメータが設定される第1のモードと、前記断層画像におけるフレームレートよりも画質が優先されるように前記パラメータが設定される第2のモードとを切り替える
     情報処理装置。
  5.  請求項4に記載の情報処理装置であって、
     前記制御部は、前記被写体の時系列変化における変化の速さを検出し、前記変化の速さに応じて、前記第1のモードと、前記第2のモードとを切り替える
     情報処理装置。
  6.  請求項5に記載の情報処理装置であって、
     前記制御部は、前記変化の速さが所定の閾値以上であるかどうかを判定し、前記変化の速さが所定の閾値以上である場合、前記第1のモードを設定し、前記変化の速さが所定の閾値未満である場合、前記第2のモードを設定する
     情報処理装置。
  7.  請求項1に記載の情報処理装置であって、
     前記制御部は、前記断層画像を得るためのスキャンが行われる計測領域内において、前記被写体の時系列変化に応じて、第1の領域を設定し、前記第1の領域と、前記計測領域内における前記第1の領域以外の領域である第2の領域との間で、前記パラメータを変更する
     情報処理装置。
  8.  請求項7に記載の情報処理装置であって、
     前記制御部は、前記第1の領域と、前記第2の領域との間で、前記パラメータとして、前記スキャンにおけるスキャン密度を変更する
     情報処理装置。
  9.  請求項8に記載の情報処理装置であって、
     前記制御部は、前記第1の領域におけるスキャン密度が、前記第2の領域のスキャン密度よりも高くなるように、前記スキャンにおける前記スキャン密度を変更する
     情報処理装置。
  10.  請求項7に記載の情報処理装置であって、
     前記制御部は、前記第1の領域と、前記第2の領域との間で、前記パラメータとして、前記断層画像におけるフレームレートを変更する
     情報処理装置。
  11.  請求項9に記載の情報処理装置であって、
     前記制御部は、前記第1の領域におけるフレームレートが、前記第2の領域におけるフレームレートよりも高くなるように、前記断層画像におけるフレームレートを変更する
     情報処理装置。
  12.  請求項1に記載の情報処理装置であって、
     前記制御部は、前記被写体の時系列変化に基づいて、前記パラメータとして、前記断層画像を取得するための断層面を変更する
     情報処理装置。
  13.  請求項12に記載の情報処理装置であって、
     前記制御部は、前記被写体の時系列変化に応じて、現在時刻から所定時間後の前記被写体の変化を予測し、予測結果に応じて、前記断層面を変更する
     情報処理装置。
  14.  施術対象である眼を撮像することによって得られる画像に写っている被写体の時系列変化を検出し、前記被写体の時系列変化に応じて、前記眼の断層画像を取得するためのパラメータを変更する
     情報処理方法。
  15.  施術対象である眼を撮像することによって得られる画像に写っている被写体の時系列変化を検出するステップと、
     前記被写体の時系列変化に応じて、前記眼の断層画像を取得するためのパラメータを変更するステップと
     をコンピュータに実行させるプログラム。
PCT/JP2018/010474 2017-04-21 2018-03-16 情報処理装置、情報処理方法及びプログラム WO2018193772A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE112018002087.8T DE112018002087T5 (de) 2017-04-21 2018-03-16 Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
US16/603,029 US20200188023A1 (en) 2017-04-21 2018-03-16 Information processing apparatus, information processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017084674A JP2018175790A (ja) 2017-04-21 2017-04-21 情報処理装置、情報処理方法及びプログラム
JP2017-084674 2017-04-21

Publications (1)

Publication Number Publication Date
WO2018193772A1 true WO2018193772A1 (ja) 2018-10-25

Family

ID=63856264

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/010474 WO2018193772A1 (ja) 2017-04-21 2018-03-16 情報処理装置、情報処理方法及びプログラム

Country Status (4)

Country Link
US (1) US20200188023A1 (ja)
JP (1) JP2018175790A (ja)
DE (1) DE112018002087T5 (ja)
WO (1) WO2018193772A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011005236A (ja) * 2009-05-22 2011-01-13 Canon Inc 撮像装置および撮像方法
JP2012065257A (ja) * 2010-09-17 2012-03-29 Olympus Corp 顕微鏡用撮像装置
JP2014039877A (ja) * 2003-05-08 2014-03-06 Hitachi Medical Corp 超音波診断装置
JP2014200403A (ja) * 2013-04-03 2014-10-27 株式会社トプコン 眼科装置
JP2016073409A (ja) * 2014-10-03 2016-05-12 ソニー株式会社 情報処理装置、情報処理方法及び手術顕微鏡装置
JP2016097181A (ja) * 2014-11-25 2016-05-30 株式会社トプコン 眼科撮影装置
JP2017501802A (ja) * 2013-12-19 2017-01-19 ノバルティス アーゲー マーカを用いた器具追跡

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014039877A (ja) * 2003-05-08 2014-03-06 Hitachi Medical Corp 超音波診断装置
JP2011005236A (ja) * 2009-05-22 2011-01-13 Canon Inc 撮像装置および撮像方法
JP2012065257A (ja) * 2010-09-17 2012-03-29 Olympus Corp 顕微鏡用撮像装置
JP2014200403A (ja) * 2013-04-03 2014-10-27 株式会社トプコン 眼科装置
JP2017501802A (ja) * 2013-12-19 2017-01-19 ノバルティス アーゲー マーカを用いた器具追跡
JP2016073409A (ja) * 2014-10-03 2016-05-12 ソニー株式会社 情報処理装置、情報処理方法及び手術顕微鏡装置
JP2016097181A (ja) * 2014-11-25 2016-05-30 株式会社トプコン 眼科撮影装置

Also Published As

Publication number Publication date
DE112018002087T5 (de) 2020-01-02
JP2018175790A (ja) 2018-11-15
US20200188023A1 (en) 2020-06-18

Similar Documents

Publication Publication Date Title
US8132914B2 (en) Imaging control apparatus for capturing tomogram of fundus, imaging apparatus, imaging control method, program, and storage medium
US20210311295A1 (en) Information processing apparatus, information processing method, and operation microscope apparatus
US10537389B2 (en) Surgical system, image processing device, and image processing method
KR101552297B1 (ko) 레이저-보조 눈-수술 치료 시스템을 위한 장치 및 방법
US20170035287A1 (en) Dynamic surgical data overlay
US10993838B2 (en) Image processing device, image processing method, and image processing program
US20220346884A1 (en) Intraoperative image-guided tools for ophthalmic surgery
JP6901403B2 (ja) Oct画像の修正
CN108289606A (zh) 玻璃体视网膜手术期间oct图像的分辨率增强
JP6819223B2 (ja) 眼科情報処理装置、眼科情報処理プログラム、および眼科手術システム
WO2018193772A1 (ja) 情報処理装置、情報処理方法及びプログラム
JPWO2018193932A1 (ja) 情報処理装置、術具、情報処理方法及びプログラム
US20210015362A1 (en) Control device and method, and surgical microscope system
US20230301727A1 (en) Digital guidance and training platform for microsurgery of the retina and vitreous
WO2023235629A1 (en) A digital guidance and training platform for microsurgery of the retina and vitreous

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18787541

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 18787541

Country of ref document: EP

Kind code of ref document: A1