WO2024070907A1 - 眼底画像処理装置および眼底画像処理プログラム - Google Patents

眼底画像処理装置および眼底画像処理プログラム Download PDF

Info

Publication number
WO2024070907A1
WO2024070907A1 PCT/JP2023/034393 JP2023034393W WO2024070907A1 WO 2024070907 A1 WO2024070907 A1 WO 2024070907A1 JP 2023034393 W JP2023034393 W JP 2023034393W WO 2024070907 A1 WO2024070907 A1 WO 2024070907A1
Authority
WO
WIPO (PCT)
Prior art keywords
oct data
dimensional
dimensional oct
fundus
image processing
Prior art date
Application number
PCT/JP2023/034393
Other languages
English (en)
French (fr)
Inventor
徹哉 加納
涼介 柴
晴香 植村
Original Assignee
株式会社ニデック
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニデック filed Critical 株式会社ニデック
Publication of WO2024070907A1 publication Critical patent/WO2024070907A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions

Definitions

  • This disclosure relates to a fundus image processing device and a fundus image processing program.
  • OCT device which acquires OCT data of the fundus of the test eye.
  • fundus diseases which are cited as the main causes of blindness, lesions often occur in the center of the fundus, so OCT devices have been used to image the central area of the fundus.
  • Patent Document 1 discloses a technique for acquiring wide-area 3D OCT data that includes both the macula and the optic disc of the fundus by decentering fixation so that the center of the imaging range is halfway between the macula and the optic disc.
  • a typical objective of the present disclosure is to provide a fundus image processing device and a fundus image processing program that allow an examiner to easily check the cross section of a specified area.
  • the fundus image processing device is a fundus image processing device that processes OCT data of the fundus of a test eye, and the control unit of the fundus image processing device executes an acquisition step of acquiring three-dimensional OCT data of the fundus of the test eye corresponding to a two-dimensional measurement area on the fundus of the test eye that intersects with the depth direction of the test eye, a setting step of setting the position of a predetermined site included in the two-dimensional measurement area as a reference position for the three-dimensional OCT data, an extraction step of extracting two-dimensional OCT data on a scan line that passes through the reference position from the three-dimensional OCT data, and a display control step of initially displaying the two-dimensional OCT data extracted in the extraction step when a display based on the three-dimensional OCT data is output to a screen.
  • the fundus image processing program is executed by a control unit of a fundus image processing device that processes OCT data of the fundus of the test eye, causing the fundus image processing device to execute the following steps: an acquisition step of acquiring three-dimensional OCT data of the fundus of the test eye corresponding to a two-dimensional measurement area on the fundus of the test eye that intersects with the depth direction of the test eye; a setting step of setting the position of a predetermined site included in the two-dimensional measurement area as a reference position for the three-dimensional OCT data; an extraction step of extracting two-dimensional OCT data on a scan line that passes through the reference position from the three-dimensional OCT data; and a display control step of initially displaying the two-dimensional OCT data extracted in the extraction step when a display based on the three-dimensional OCT data is output to a screen.
  • the fundus image processing device and fundus image processing program disclosed herein allow the examiner to easily check the cross section of a specified area.
  • FIG. 1 is a block diagram showing an outline of the present embodiment.
  • FIG. 2 is a diagram illustrating an example of an optical system of an OCT device. 4 is a flowchart showing the flow of operations of the OCT device.
  • FIG. 2 is a diagram for explaining three-dimensional OCT data acquired by OCT. 4 is a flowchart showing the flow of operations of the OCT analysis apparatus.
  • 1 is an example of a display screen.
  • the control unit of the fundus image processing device exemplified in the present disclosure executes an acquisition step, a setting step, an extraction step, and a display control step.
  • the acquisition step three-dimensional OCT data of the fundus of the subject eye is acquired.
  • the three-dimensional OCT data corresponds to a two-dimensional measurement area on the fundus of the subject eye that intersects with the depth direction of the subject eye.
  • the setting step the position of a predetermined site included in the two-dimensional measurement area is set as a reference position for the three-dimensional OCT data.
  • the extraction step two-dimensional OCT data on a scan line that passes through the reference position is extracted from the three-dimensional OCT data.
  • the display control step when a display based on the three-dimensional OCT data is output to a screen, the two-dimensional OCT data extracted in the extraction step is initially displayed. Therefore, when the display based on the three-dimensional OCT data of the subject eye is started, the two-dimensional OCT data showing the cross section of the predetermined site is initially displayed on the screen, so that the examiner can easily check the cross section of the predetermined site.
  • Typical examples of the predetermined site include the macula and the optic disc. Sites other than these can also be used as the predetermined site as appropriate. Furthermore, multiple sites in a two-dimensional measurement area may each be set as a predetermined site, and a reference position may be set for each. When multiple reference positions are set for one two-dimensional measurement area, two-dimensional OCT data passing through each reference position may be extracted and each of the extracted data may be initially displayed. Furthermore, two-dimensional OCT data in a scan line connecting multiple reference positions may be extracted and initially displayed. For example, when the macula and the optic disc are each a predetermined site, two-dimensional OCT data in a scan line connecting the macula and the optic disc may be extracted and initially displayed.
  • the specified area may be the affected area.
  • a part where a reference position exists for one of multiple 3D OCT data sets obtained at different examination times may be set as the specified area, and a reference position for the other 3D OCT data may be set.
  • the specific part may be detected by performing detection processing on the 3D OCT data according to the specific part, and the position may be detected as a reference position. For example, detection may be performed using segmentation information on the 3D OCT data, or feature detection using machine learning may be used. An enface image based on the 3D OCT data may be generated, and the specific part may be detected by performing known image processing on the enface image.
  • a reference position for the frontal fundus image can be set by processing a frontal fundus image in a two-dimensional measurement area to detect the position of a specific part, and then matching the detected position of the specific part on the three-dimensional OCT data.
  • a control when a display based on the three-dimensional OCT data is output to the screen, a control (UI element) may be displayed on the screen together with the two-dimensional OCT data in the initial display.
  • the control may accept an operation for externally outputting a report based on the three-dimensional OCT data.
  • an external output step may be executed.
  • a report based on the three-dimensional OCT data is externally output.
  • the report includes images based on the 3D OCT data, measurement values, and their analysis results arranged in a predefined format.
  • the control unit may further execute an analysis processing step.
  • analysis data in an analysis area set in a part of the two-dimensional measurement area is acquired by analyzing the three-dimensional OCT data for the analysis area.
  • display control step as described above, two-dimensional OCT data in a scan line passing through the reference position extracted in the extraction step is initially displayed.
  • analysis data for the analysis area set for the reference position is initially displayed.
  • the examiner can easily check the analysis data for the specified area together with the two-dimensional OCT data of the specified area.
  • a report including the analysis data for the specified area and the two-dimensional OCT data of the specified area can be easily and quickly output to the outside.
  • the analysis process may be, for example, a fundus layer thickness analysis, in which case either an analysis map of the analysis region or an analysis chart may be acquired as the analysis data.
  • the control unit may additionally execute a second reception step and a second extraction step.
  • a change operation is received to change the two-dimensional OCT data being displayed on the screen by the display control step to two-dimensional OCT data of a new scan line.
  • the second extraction step two-dimensional OCT data of a new scan line according to the change operation in the second reception step is extracted from the three-dimensional OCT data.
  • the display control step the two-dimensional OCT data being displayed is switched to the two-dimensional OCT data of the new scan line extracted in the second extraction step.
  • the two-dimensional OCT data of the desired scan line can be displayed on the screen.
  • the change operation may change the reference position from the position of a specified part included in the two-dimensional measurement area set by processing the three-dimensional OCT data to a different position.
  • the position of the new scan line according to the change operation, or information indicating the new reference position may be stored as new reference position information even after the display based on the selected three-dimensional OCT data has ended.
  • two-dimensional OCT data based on the new scan line corresponding to the new reference position information may be displayed. It is desirable that the same is true for the display of the analysis data.
  • 2D OCT data at a predetermined scan line may be displayed on the screen as a temporary initial display.
  • it may be possible to accept a change operation in which case the processing for the initial display may be canceled and the 2D OCT data and analysis data may be displayed on the screen at a new scan line position and analysis area position according to the change operation. Since the examiner's intention takes precedence, the cross section and analysis data of the desired area can be confirmed more quickly.
  • the ophthalmic image processing device may be integrated with an OCT device. That is, the OCT device may be equipped with the above-mentioned ophthalmic image processing device.
  • three-dimensional OCT data may be captured by the OCT device.
  • at least the above-mentioned display control step may be executed when display based on the three-dimensional OCT data is performed on a confirmation screen that displays the three-dimensional OCT data immediately after capture.
  • the confirmation screen may include UI elements for inputting operations for saving the capture results and re-capturing.
  • two-dimensional OCT data showing a cross section passing through a specified area is displayed in the initial display, making it easy to determine whether or not to capture the data.
  • Example An embodiment of a fundus image processing device and a fundus image processing program will be described below with reference to the drawings.
  • an OCT analyzer 1 will be described as an example of the fundus image processing device.
  • the OCT analyzer 1 shown in Fig. 1 analyzes and processes OCT data acquired by an OCT device 10.
  • the OCT device 10 and the OCT analyzer 1 will be described as separate entities, but this is not necessarily limited to the above and they may be integrated together.
  • the OCT analysis apparatus 1 includes, for example, a control unit 70.
  • the control unit 70 is realized by, for example, a general CPU (Central Processing Unit) 71, a ROM 72, a RAM 73, and the like.
  • the ROM 72 stores, for example, an analysis processing program for processing OCT data, a program for controlling the operation of the OCT device 10 to obtain OCT data, initial values, etc.
  • the RAM 73 temporarily stores, for example, various types of information.
  • control unit 70 is electrically connected to, for example, a storage unit (e.g., non-volatile memory) 74, an operation unit 76, and a display unit 75.
  • the storage unit 74 is, for example, a non-transient storage medium that can retain its stored contents even if the power supply is cut off.
  • a hard disk drive, a flash ROM, a removable USB memory, etc. may be used as the storage unit 74.
  • the examiner inputs various operation instructions to the operation unit 76.
  • the operation unit 76 outputs a signal corresponding to the input operation instructions to the CPU 71.
  • the operation unit 76 may be at least one of user interfaces such as a mouse, joystick, keyboard, touch panel, etc.
  • the display unit 75 may be a display mounted on the main body of the apparatus 1, or may be a display connected to the main body.
  • a display of a personal computer hereinafter referred to as "PC" may be used.
  • the display unit 75 displays, for example, the OCT data acquired by the OCT device 10 and the results of analysis processing on the OCT data.
  • an OCT device 10 is connected to the OCT analysis apparatus 1 of this embodiment.
  • the OCT analysis apparatus 1 may be, for example, an integrated configuration housed in the same housing as the OCT device 10, or may be a separate configuration.
  • the control unit 70 may acquire OCT data from the connected OCT device 10.
  • the control unit 70 may acquire the OCT data acquired by the OCT device 10 via a storage medium.
  • the OCT device 10 will be outlined below with reference to Fig. 2.
  • the OCT device 10 irradiates the test eye E with measurement light and acquires a spectral interference signal between the reflected light and reference light. Predetermined processing is performed on the spectral interference signal to generate and acquire OCT data.
  • the OCT device 10 mainly includes, for example, an OCT optical system 100.
  • the OCT optical system 100 irradiates the test eye E with measurement light and detects a spectral interference signal between the reflected light and reference light.
  • the OCT optical system 100 mainly includes, for example, a measurement light source 102, a coupler (light splitter) 104, a measurement optical system 106, a reference optical system 110, and a detector 120.
  • a measurement light source 102 a measurement light source 102
  • a coupler (light splitter) 104 a measurement optical system 106
  • a reference optical system 110 e.g., a reference optical system.
  • the OCT optical system 100 is an optical system for so-called optical coherence tomography (OCT).
  • OCT optical system 100 splits light emitted from a measurement light source 102 into measurement light (sample light) and reference light by a coupler 104.
  • the split measurement light is guided to a measurement optical system 106, and the reference light is guided to a reference optical system 110.
  • the measurement light is guided to the fundus Ef of the subject's eye E via the measurement optical system 106.
  • the detector 120 then receives interference light resulting from the combination of the measurement light reflected by the subject's eye E and the reference light.
  • the measurement optical system 106 includes, for example, a scanning unit (e.g., an optical scanner) 108.
  • the scanning unit 108 may be provided to scan the measurement light in the XY directions (transverse directions) on the fundus.
  • the scanning unit 108 may be used to change the imaging range of the OCT data.
  • the CPU 71 controls the operation of the scanning unit 108 based on the set scanning position information, and acquires OCT data of the fundus based on the spectral interference signal detected by the detector 120.
  • the reference optical system 110 generates reference light to be combined with reflected light acquired by reflection of the measurement light at the fundus Ef.
  • the reference optical system 110 may be a Michelson type or a Mach-Zehnder type.
  • the detector 120 detects the interference state between the measurement light and the reference light.
  • the spectral intensity of the interference light is detected by the detector 120, and a depth profile (A-scan signal) in a predetermined range is obtained by Fourier transforming the spectral intensity data.
  • Scanning the measurement light along one scan line on the fundus Ef is called a "B-scan”.
  • Two-dimensional OCT data of the fundus is obtained by one B-scan.
  • Three-dimensional OCT data of the fundus is obtained based on scanning the measurement light along multiple scan lines.
  • the three-dimensional OCT data may be obtained based on a raster scan, for example.
  • Spectral-domain OCT SD-OCT
  • Swept-source OCT SS-OCT
  • Time-domain OCT TD-OCT
  • the front photographing optical system 200 photographs, for example, the fundus Ef of the subject's eye E from a front direction (for example, the optical axis direction of the measurement light) to obtain a front image of the fundus Ef.
  • the front photographing optical system 200 may be, for example, a scanning laser ophthalmoscope (SLO) device configuration (for example, see JP 2015-66242 A), or may be a so-called fundus camera type configuration (see JP 2011-10944 A).
  • SLO scanning laser ophthalmoscope
  • the front photographing optical system 200 may also be used by the OCT optical system 100, and the front image may be obtained based on a detection signal from the detector 120.
  • the fixation target projection unit 300 has an optical system for guiding the gaze direction of the eye E.
  • the projection unit 300 has a fixation target to be presented to the eye E, and can guide the eye E.
  • the fixation target projection unit 300 has a visible light source that emits visible light, and changes the presentation position of the fixation target two-dimensionally. This changes the gaze direction, and as a result, the acquisition site of the OCT data is changed on the fundus.
  • the OCT analysis device 1 acquires three-dimensional OCT data of a plurality of test eyes as a result of imaging by the OCT device 1. As shown in FIG. 3, the OCT device 1 acquires three-dimensional OCT data of the fundus (S1). Also, it acquires a front image of the fundus corresponding to the three-dimensional OCT data of the fundus. Each position in the XY direction in the three-dimensional OCT data of the fundus is associated with each position on the front image of the fundus. As shown in FIG. 4, in this embodiment, the OCT device 10 performs raster scanning on a wide area Aw on the fundus.
  • the wide area Aw is an area of a predetermined size based on a predetermined fixation position.
  • the wide area Aw is an area of 12 mm long x 15 mm wide.
  • the front imaging optical system 200 a front image of the fundus including the wide area Aw is captured.
  • the three-dimensional OCT data captured by the OCT device 10 and the frontal fundus image captured by the frontal imaging optical system 200 are each transferred to the OCT analysis apparatus 1 (S2).
  • S2 OCT analysis apparatus 1
  • a plurality of three-dimensional OCT data are stored in the storage unit 72 of the OCT analysis apparatus 1.
  • Each piece of three-dimensional OCT data is associated with a frontal fundus image captured together with the data.
  • ⁇ Operation in OCT analysis device> As shown in FIG. 5, in the OCT analysis device 1, first, one of a plurality of three-dimensional OCT data items previously acquired in the storage unit 72 is selected as the display target based on an operation by the examiner (S11).
  • the control unit 70 then starts displaying based on the selected 3D OCT data (S12).
  • a plurality of standard display frames determined for each type of medical information are displayed on the display unit 75.
  • the OCT analysis device 1 sequentially displays each piece of medical information in the standard display frame corresponding to the type of medical information generated, out of the multiple standard display frames displayed on the display unit 75. As an example, a case where the screen shown in FIG. 6 is displayed will be described.
  • the screen shown in Figure 6 displays Enface images, 2D OCT data (B-scan images), charts, thickness maps, and normal eye comparison maps, with standard display frames arranged for each.
  • An enface image is a two-dimensional front image of tissue viewed from the direction along the optical axis of the measurement light (front direction).
  • the data of the enface image may be, for example, integrated image data in which brightness values are integrated in the depth direction (Z direction) at each position in the XY direction, or integrated values of spectrum data at each position in the XY direction.
  • an enface image is generated as medical information by performing an enface image generation process on the raw data of the three-dimensional OCT data.
  • the enface image is displayed in each of the image frames 301, 302, 303, and 304.
  • the image displayed in each of the image frames 301, 302, 303, and 304 may be a front image of the fundus captured by the front optical system 200.
  • the two-dimensional OCT data is a two-dimensional tomographic image (a two-dimensional image extending in the depth direction) of the tissue of the subject's eye.
  • the OCT analysis device 1 of this embodiment can extract and generate any two-dimensional OCT data included in the image range of the three-dimensional OCT data converted from RAW data into a three-dimensional image, and display it on the monitor 47. Two pieces of two-dimensional OCT data are extracted, one each for a scan line along the left-right direction and a scan line along the up-down direction. However, in FIG. 6, the two pieces of two-dimensional OCT data are selectively displayed in the image frame 305 depending on the operation.
  • the OCT analysis device 1 displays two-dimensional OCT data at default positions in the X and Y directions (for example, a position that passes left and right through the center in the up-down direction of the two-dimensional front image, and a position that passes up and down through the center in the left-right direction) as a temporary initial display in the image frame 305.
  • the chart shows the overall or specific layer/boundary condition in each of multiple regions set in the tissue shown in the ophthalmic image.
  • a thickness chart is displayed that shows the average thickness of the specific layer/boundary and the percentile ranking compared to the normal eye database for each region.
  • a thickness chart 311 for the entire retina around the fovea a thickness chart 312 for the GCC (Ganglion Cell Complex) around the fovea, and a thickness chart 313 for the retinal optic nerve fiber layer (RNFL) around the optic disc are generated and displayed.
  • a segmentation process is performed on the 3D OCT data to extract specific layers, the average thickness of each region of the extracted layers is calculated, and the average thickness of each region is compared with the normal eye database, thereby generating a chart as medical information. It is desirable that the centers of the analysis regions in the charts 311 to 313 are set to sites such as the macula and the optic disc.
  • an analysis chart is generated and displayed, using the fovea and nipple as reference positions.
  • the thickness map shows the two-dimensional distribution of the thickness of a specific layer/boundary when the tissue shown in the ophthalmic image is viewed from the front (in the direction along the optical axis of the measurement light).
  • a segmentation process is performed on the three-dimensional OCT data to extract a specific layer, and a two-dimensional distribution of the thickness of the extracted layer is obtained, thereby generating a thickness map as medical information.
  • a thickness map 322 of the entire retina around the fovea, a thickness map 323 of the GCC around the fovea, and a thickness map 324 of the retinal optic nerve fiber layer (RNFL) around the papilla are each generated and displayed. At this time, each thickness map is superimposed on the Enface image in the image frames 302, 303, and 304.
  • the normal eye comparison map shows the result of comparing the thickness map of a normal eye (for example, the average data of the thickness maps of a plurality of normal test eyes without disease) with the thickness map of the test subject's eye.
  • a percentile map showing the two-dimensional distribution of the deviation between the thickness map of a normal eye and the thickness map of the test subject is used as the normal eye comparison map.
  • a normal eye comparison map generation process is performed on the thickness map of a normal eye and the thickness map of the test subject, and the normal eye comparison map is generated as medical information.
  • the normal eye comparison map is aligned with the thickness map of the test eye based on the positions of the characteristic parts (for example, the macula and the optic nerve) in the three-dimensional OCT data or the front image corresponding to the thickness map of the test eye, and the normal eye comparison map is generated. After the fovea and optic nerve detection process (S13) described later is completed, the normal eye comparison map is generated and displayed. The normal eye comparison map is superimposed on the Enface image in the image frame 301.
  • a fovea/disc detection process is executed by instructing a display based on the 3D OCT data (S13).
  • the detected fovea position as a reference position
  • two sets of 2D OCT data are extracted from the 3D OCT data: a scan line passing through the reference position in the left-right direction and a scan line passing through the reference position in the up-down direction.
  • the extracted 2D OCT data is displayed in the display frame 305 of FIG. 6 (S14).
  • the 2D OCT data in the default position is soon replaced with 2D OCT data showing a cross section at the fovea. In this way, the initial display of 2D OCT data in this embodiment is completed.
  • a segmentation process is performed on the 3D OCT data to detect an area having a layer structure corresponding to the fovea as the position of the fovea.
  • the nipple is detected using feature detection using machine learning.
  • the method for detecting the fovea is not necessarily limited to this, and can be set as appropriate.
  • each of the charts 311-313 and the normal eye comparison map 331 is positioned based on the reference position on the Enface image. In this way, the initial display of each of the charts 311-313 and the normal eye comparison map 331 in this embodiment is performed.
  • the display screen shown in FIG. 6 has buttons 351-353 that are operated to output a report.
  • buttons 351-353 When buttons 351-353 are operated, a report containing the medical information displayed on the screen is generated and output to the outside.
  • the LINK button 351 is operated to transfer the report file to an external system not shown, the EXPORT button 352 is operated to save the report file in the storage unit 72, and the PRINT button 353 is operated to print the report.
  • the control unit 70 accepts an operation input for correcting the reference position by the examiner via the screen of FIG. 6 (S16).
  • graphics 341 and 342 indicating the reference scan line are superimposed on the image frames 302 and 303.
  • the graphics 341 and 342 are controls that can be moved on the image frames 302 and 303 via a pointing device.
  • the graphics 341 and 342 indicate the extraction position of the two-dimensional OCT data shown in the image frame 305.
  • the intersection of the graphics 341 and 342 indicates the reference position corresponding to the macula, and the analysis of the analysis results on the display screen is redone according to the intersection, and the corrected analysis results are displayed.
  • the reference position on the nipple side may also be changeable.
  • the control unit 70 extracts two-dimensional OCT data corresponding to the corrected reference position and displays it in the display frame 305.
  • the analysis results for the corrected reference position are also displayed.
  • the examiner may operate the buttons 351 to 353 to output the report externally.
  • the corrected reference position may be stored in association with the 3D OCT data so that the initial display is performed at the reference position corrected by the examiner.

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

眼底画像処理装置は、被検眼の眼底のOCTデータを処理する眼底画像処理装置であって、前記眼底画像処理装置の制御部は、被検眼の深さ方向と交差する被検眼の眼底上の2次元の測定領域に対応する被検眼の眼底の3次元OCTデータを、取得する取得ステップと、前記2次元の測定領域内に含まれる所定部位の位置を前記3次元OCTデータに対する基準位置として設定する設定ステップと、前記基準位置を通過するスキャンラインにおける2次元OCTデータを前記3次元OCTデータから抽出する抽出ステップと、前記3次元OCTデータに基づく表示が画面に出力される場合に、前記抽出ステップにおいて抽出される前記2次元OCTデータを、初期表示させる表示制御ステップと、を実行する。

Description

眼底画像処理装置および眼底画像処理プログラム
 本開示は、眼底画像処理装置、および、眼底画像処理プログラムに関する。
 眼底撮影装置の1つとして、被検眼の眼底のOCTデータを取得するOCT装置が知られている。主だった失明原因として挙げられる眼底疾患では、眼底の中心部に病変が生じる場合が多いため、OCT装置は、眼底の中心領域の撮影に活用されてきた。
 OCT装置は、近年、広画角化が進んでおり、特許文献1では、撮影範囲の中心が黄斑部と乳頭部との中間となるように固視を偏心させ、眼底の黄斑部と乳頭部との両方が含まれる広域の3次元OCTデータを取得する技術が開示されている。
特開2022-13342号公報
 特許文献1の手法で得られた広域の3次元OCTデータにおいて、眼底の黄斑部や乳頭部等の特定の部位の位置は、撮影時の固視の偏心量を利用することで大まかに特定できると考えられる。しかし、撮影時の固視の状態には撮影毎にばらつきがあるうえ、それぞれの部位の位置には被検眼毎に個体差があるので、3次元OCTデータに基づいて2次元OCTデータが表示された際に、所期する部位からズレたスキャンラインに対応する2次元OCTデータが表示されてしまう場合がある。従って、検者は、スキャンラインの位置を調整して3次元OCTデータから2次元OCTデータを再抽出させるための操作が度々必要となり、手間であった。
 本開示の典型的な目的は、所定部位の断面を検者が容易に確認しやすい眼底画像処理装置および眼底画像処理プログラムを提供することである。
 本開示の第1態様に係る眼底画像処理装置は、被検眼の眼底のOCTデータを処理する眼底画像処理装置であって、前記眼底画像処理装置の制御部は、被検眼の深さ方向と交差する被検眼の眼底上の2次元の測定領域に対応する被検眼の眼底の3次元OCTデータを、取得する取得ステップと、前記2次元の測定領域内に含まれる所定部位の位置を前記3次元OCTデータに対する基準位置として設定する設定ステップと、前記基準位置を通過するスキャンラインにおける2次元OCTデータを前記3次元OCTデータから抽出する抽出ステップと、前記3次元OCTデータに基づく表示が画面に出力される場合に、前記抽出ステップにおいて抽出される前記2次元OCTデータを、初期表示させる表示制御ステップと、を実行する。
 本開示の第2態様に係る眼底画像処理プログラムは、被検眼の眼底のOCTデータを処理する眼底画像処理装置の制御部によって実行されることによって、被検眼の深さ方向と交差する被検眼の眼底上の2次元の測定領域に対応する被検眼の眼底の3次元OCTデータを、取得する取得ステップと、前記2次元の測定領域内に含まれる所定部位の位置を前記3次元OCTデータに対する基準位置として設定する設定ステップと、前記基準位置を通過するスキャンラインにおける2次元OCTデータを前記3次元OCTデータから抽出
する抽出ステップと、前記3次元OCTデータに基づく表示が画面に出力される場合に、前記抽出ステップにおいて抽出される前記2次元OCTデータを、初期表示させる表示制御ステップと、を眼底画像処理装置に実行させる。
 本開示に係る眼底画像処理装置および眼底画像処理プログラムによると、所定部位の断面を検者が容易に確認しやすい。
本実施例の概略を示すブロック図である。 OCTデバイスの光学系の一例を示す図である。 OCTデバイスの動作の流れを示すフローチャートである。 OCTによって取得される3次元OCTデータを説明するための図である。 OCT解析装置の動作の流れを示すフローチャートである。 表示画面の一例である。
<概要>
 本開示で例示する眼底画像処理装置の制御部は、取得ステップと、設定ステップと、抽出ステップと、表示制御ステップと、を実行する。取得ステップでは、被検眼の眼底の3次元OCTデータが取得される。3次元OCTデータは、被検眼の深さ方向と交差する被検眼の眼底上の2次元の測定領域に対応している。設定ステップでは、2次元の測定領域内に含まれる所定部位の位置が、3次元OCTデータに対する基準位置として設定される。抽出ステップでは、基準位置を通過するスキャンラインにおける2次元OCTデータが、3次元OCTデータから抽出される。表示制御ステップでは、3次元OCTデータに基づく表示が画面に出力される場合に、抽出ステップにおいて抽出される2次元OCTデータを、初期表示させる。よって、被検眼の3次元OCTデータに基づく表示が開始されると、所定部位の断面を示す2次元OCTデータが、画面上に初期表示されるので、検者は、所定部位の断面を容易に確認できる。
 なお、典型的な所定部位として、黄斑、および、乳頭が挙げられる。また、これら以外の部位を所定部位として適宜利用できる。更に、2次元の測定領域における複数の部位を、それぞれ所定部位として、それぞれに基準位置が設定されてもよい。1つの2次元の測定領域に対して、複数の基準位置が設定される場合、それぞれの基準位置毎に、基準位置を通過する2次元OCTデータが抽出されて、抽出されたそれぞれが、初期表示されてもよい。また、複数の基準位置を結んだスキャンラインにおける2次元OCTデータが抽出されて、初期表示されてもよい。例えば、黄斑、および、乳頭のそれぞれが所定部位である場合に、黄斑、および、乳頭を結んだスキャンラインにおける2次元OCTデータが抽出されて初期表示されてもよい。
 所定部位は、病変部であってもよい。また、経過観察の場合は、検査時期が異なる複数の3次元OCTデータのうち、いずれかの3次元OCTデータに対する基準位置が存在する部位を所定部位として、他の3次元OCTデータにおける基準位置が設定されてもよい。
 3次元OCTデータに対する所定部位の位置を設定する手法は、種々の手法があり得る。例えば、3次元OCTデータに対して、所定部位に応じた検出処理を行うことで、所定部位を検出し、更に、その位置を基準位置として検出してもよい。例えば、3次元OCTデータに対するセグメンテーション情報を利用して検出してもよいし、機械学習を用いた特徴検出を利用してもよい。3次元OCTデータに基づくEnface画像を生成し、Enface画像に対する公知の画像処理によって所定部位を検出してもよい。
 また、例えば、2次元の測定領域における眼底正面画像を処理して所定部位の位置を検出し、検出された所定部位の位置を、3次元OCTデータ上で対応付けることで、眼底正面画像に対する基準位置を設定することもできる。
 本実施形態において、表示制御ステップでは、3次元OCTデータに基づく表示が画面に出力される場合に、画面上には、初期表示における2次元OCTデータと共に、コントロール(UI要素)が表示されてもよい。コントロールは、3次元OCTデータに基づくレポートを外部出力するための操作を受け付けてもよい。更に、コントロールに対する操作が入力された場合に、外部出力ステップが実行されても良い。外部出力ステップでは、3次元OCTデータに基づくレポートを外部出力する。コントロールが操作されることによって、画面上に表示中の2次元OCTデータを含むレポートが、外部出力される。前述の通り、初期表示の段階で、所定部位の断面を示す2次元OCTデータが表示されており、そのまま上述のコントロールに対して操作を入力するだけで、所定部位の断面を示す2次元OCTデータを含むレポートが外部出力される。よって、所定部位の断面を示す2次元OCTデータを含むレポートを、簡単かつ速やかに外部出力できる。なお、外部出力として、眼底画像処理装置と接続される診断システムへ、レポートが転送されてもよいし、プリンタによる印刷が行われても良い。レポートには、3次元OCTデータに基づく画像、測定値、および、それらの解析結果等が、予め定められた形式に沿って配置される。
 制御部は、更に、解析処理ステップを実行しても良い。解析処理ステップでは、2次元の測定領域の一部に設定される解析領域における解析データが、3次元OCTデータを解析領域に関して解析処理することによって取得される。表示制御ステップでは、前述の通り、抽出ステップにおいて抽出される基準位置を通過するスキャンラインにおける2次元OCTデータが初期表示される。加えて、基準位置に対して設定された解析領域についての解析データが、初期表示される。よって、検者は、所定部位に対する解析データを、所定部位の2次元OCTデータと共に容易に確認できる。また、所定部位に対する解析データ、および、所定部位の2次元OCTデータを含むレポートを、簡単かつ速やかに外部出力できる。
 なお、解析処理は、例えば、眼底の層厚解析であってもよく、この場合、解析データとして、解析領域における解析マップ、および、解析チャートのいずれかが取得されてもよい。
 また、制御部は、追加的に、第2受付ステップと、第2抽出ステップと、実行しても良い。第2受付ステップでは、表示制御ステップによって画面上に表示中の2次元OCTデータを、新たなスキャンラインの2次元OCTデータに変更するための変更操作を受け付ける。第2抽出ステップでは、第2受付ステップでの変更操作に応じた新たなスキャンラインの2次元OCTデータが、3次元OCTデータから抽出される。そして、表示制御ステップでは、表示中の2次元OCTデータが、第2抽出ステップで抽出された新たなスキャンラインの2次元OCTデータに切り替えられる。よって、所望のスキャンラインの2次元OCTデータを、画面上に表示できる。
 変更操作は、基準位置を、3次元OCTデータを処理することによって設定された2次元の測定領域内に含まれる所定部位の位置から、異なる位置へと変更するものであってもよい。また、2次元の測定領域の一部に設定される解析領域の位置は、上述の変更操作に基づいてまとめて変更されることが望ましい。また、変更操作に応じた新たなスキャンラインの位置、あるいは、新たな基準位置を示す情報は、新基準位置情報として、選択された3次元OCTデータに基づく表示が終了した後も保存されていてもよい。同一の3次元OCTデータが改めて表示される場合の初期表示において、新基準位置情報と対応する、新たなスキャンラインによる2次元OCTデータが表示されてもよい。解析データの表示についても、同様であることが望ましい。
 3次元OCTデータに基づく表示を開始してから、所定部位の位置を3次元OCTデータに対する基準位置として設定する処理が完了するまでにタイムラグが生じる場合がある。この場合、基準位置に応じた初期表示の準備が完了するまでの時間は、あらかじめ定められたスキャンラインにおける2次元OCTデータを、仮初期表示として画面上に表示させてもよい。また、仮初期表示の期間に、変更操作を受け付け可能であってもよく、その場合は、初期表示のための処理をキャンセルして、変更操作に応じた新たなスキャンラインの位置、および、解析領域の位置で、2次元OCTデータ、および、解析データを、画面上に表示させても良い。検者の意図が優先されるため、所望する部位の断面および解析データを、より速やかに確認できる。
 眼科画像処理装置は、OCT装置と一体化されていてもよい。つまり、OCT装置は上述の眼科画像処理装置を備えていてもよい。この場合、取得ステップでは、OCT装置によって3次元OCTデータが撮影されてもよい。また、撮影された直後に3次元OCTデータを表示する確認画面において、3次元OCTデータに基づく表示が行われる際に、少なくとも上述の表示制御ステップが実行されてもよい。確認画面には、撮影結果の保存と、再撮影と、を実行するための操作入力用のUI要素が配置されていてもよい。3次元OCTデータの撮影後に、所定部位を通過する断面を示す2次元OCTデータが初期表示において表示されるので、撮影の適否の判断が容易である。
 「実施例」
 以下、眼底画像処理装置および眼底画像処理プログラムの一実施例を、図面を用いて説明する。なお、以下では、眼底画像処理装置として、OCT解析装置1を一例として説明する。図1に示すOCT解析装置1は、OCTデバイス10によって取得されたOCTデータを解析処理する。本実施例では、OCTデバイス10とOCT解析装置1とが別体であるものとして説明するが、必ずしもこれに限定されるものではなく、一体化されていてもよい。
 図1に示すように、OCT解析装置1は、例えば、制御部70を備える。制御部70は、例えば、一般的なCPU(Central Processing Unit)71、ROM72、RAM73、等で実現される。
ROM72には、例えば、OCTデータを処理するための解析処理プログラム、OCTデバイス10の動作を制御してOCTデータを得るためのプログラム、初期値等が記憶される。RAM73は、例えば、各種情報を一時的に記憶する。
 図1に示すように、制御部70には、例えば、記憶部(例えば、不揮発性メモリ)74、操作部76、および表示部75等が電気的に接続されている。記憶部74は、例えば、電源の供給が遮断されても記憶内容を保持できる非一過性の記憶媒体である。例えば、ハードディスクドライブ、フラッシュROM、着脱可能なUSBメモリ等を記憶部74として使用してもよい。
 操作部76には、検者による各種操作指示が入力される。操作部76は、入力された操作指示に応じた信号をCPU71に出力する。操作部76には、例えば、マウス、ジョイスティック、キーボード、タッチパネル等の少なくともいずれかのユーザーインターフェイスを用いてもよい。
 表示部75は、装置1の本体に搭載されたディスプレイであってもよいし、本体に接続されたディスプレイであってもよい。例えば、パーソナルコンピュータ(以下、「PC」という)のディスプレイを用いてもよい。表示部75は、例えば、OCTデバイス10によって取得されたOCTデータ、および、OCTデータに対する解析処理の結果等を表示する。
 なお、本実施例のOCT解析装置1には、例えば、OCTデバイス10が接続されている。なお、OCT解析装置1は、例えば、OCTデバイス10と同一の筐体に収納された一体的な構成であってもよいし、別々の構成であってもよい。制御部70は、接続されたOCTデバイス10からOCTデータを取得してもよい。制御部70は、OCTデバイス10によって取得されたOCTデータを、記憶媒体を介して取得してもよい。
 <OCTデバイス>
 以下、図2に基づいてOCTデバイス10の概略を説明する。例えば、OCTデバイス10は、被検眼Eに測定光を照射し、その反射光と参照光とのスペクトル干渉信号を取得する。スペクトル干渉信号に対して所定の処理が行われることで、OCTデータが生成され、取得される。OCTデバイス10は、例えば、OCT光学系100を主に備える。
 <OCT光学系>
 OCT光学系100は、被検眼Eに測定光を照射し、その反射光と参照光とのスペクトル干渉信号を検出する。OCT光学系100は、例えば、測定光源102と、カップラー(光分割器)104と、測定光学系106と、参照光学系110と、検出器120等を主に備える。なお、OCT光学系の詳しい構成については、例えば、特開2015-131107号を参考にされたい。
 OCT光学系100は、いわゆる光断層干渉計(OCT:Optical coherence tomography)の光学系である。OCT光学系100は、測定光源102から出射された光をカップラー104によって測定光(試料光)と参照光に分割する。分割された測定光は測定光学系106へ、参照光は参照光学系110へそれぞれ導光される。測定光は測定光学系106を介して被検眼Eの眼底Efに導かれる。その後、被検眼Eによって反射された測定光と,参照光との合成による干渉光を検出器120に受光させる。
 測定光学系106は、例えば、走査部(例えば、光スキャナ)108を備える。走査部108は、例えば、眼底上でXY方向(横断方向)に測定光を走査させるために設けられてもよい。走査部108は、OCTデータの撮影範囲を変更させるために利用されてもよい。例えば、CPU71は、設定された走査位置情報に基づいて走査部108の動作を制御し、検出器120によって検出されたスペクトル干渉信号に基づいて眼底のOCTデータを取得する。参照光学系110は、眼底Efでの測定光の反射によって取得される反射光と合成される参照光を生成する。参照光学系110は、マイケルソンタイプであってもよいし、マッハツェンダタイプであっても良い。
 検出器120は、測定光と参照光との干渉状態を検出する。フーリエドメインOCTの場合では、干渉光のスペクトル強度が検出器120によって検出され、スペクトル強度データに対するフーリエ変換によって所定範囲における深さプロファイル(Aスキャン信号)が取得される。また、眼底Ef上で、測定光を1つのスキャンラインに沿って走査することを「Bスキャン」と呼ぶ。1回のBスキャンによって、眼底の2次元OCTデータが得られる。複数のスキャンラインに対する測定光の走査に基づいて、眼底の3次元OCTデータが得られる。3次元OCTデータは、例えば、ラスタスキャンに基づいて取得されてもよい。
 なお、OCTデバイス10として、例えば、Spectral-domain OCT(SD-OCT)、Swept-source OCT(SS-OCT)、Time-domain OCT(TD-OCT)等が用いられてもよい。
 <正面撮影光学系>
 正面撮影光学系200は、例えば、被検眼Eの眼底Efを正面方向(例えば、測定光の光軸方向)から撮影し、眼底Efの正面画像を得る。正面撮影光学系200は、例えば、走査型レーザ検眼鏡(SLO)の装置構成であってもよいし(例えば、特開2015-66242号公報参照)、いわゆる眼底カメラタイプの構成であってもよい(特開2011-10944参照)。なお、正面撮影光学系200としては、OCT光学系100によって兼用されてもよく、検出器120からの検出信号に基づいて正面画像が取得されてもよい。
 <固視標投影部>
 固視標投影部300は、眼Eの視線方向を誘導するための光学系を有する。投影部300は、眼Eに呈示する固視標を有し、眼Eを誘導できる。例えば、固視標投影部300は、可視光を発する可視光源を有し、固視標の呈示位置を2次元的に変更させる。これによって、視線方向が変更され、結果的にOCTデータの取得部位が、眼底上で変更される。
 <動作説明>
 次に、図3~図6を参照して、OCT解析装置1による動作の流れを説明する。
 <OCT装置1の動作説明>
 本実施例において、OCT解析装置1は、複数の被検眼の3次元OCTデータを、OCT装置1による撮影の結果として取得する。図3に示すように、OCT装置1は、眼底の3次元OCTデータを取得する(S1)。また、眼底の3次元OCTデータと対応する眼底正面画像を取得する。眼底の3次元OCTデータにおけるXY方向の各位置は、眼底正面画像上の各位置と対応付けられている。図4に示すように、本実施例において、OCTデバイス10は、眼底上の広域領域Awを対象としてラスタスキャンを実行する。本実施例における広域領域Awは、所定の固視位置を基準とした所定のサイズの領域である。一例として、広域領域Awは、縦12mm×横15mmの領域である。ラスタスキャンの結果、広域領域Awにおける3次元OCTデータが撮影される。また、正面撮影光学系200では、広域領域Awを含む眼底の正面画像が撮影される。OCTデバイス10によって撮影された3次元OCTデータ、および、正面撮影光学系200によって撮影された眼底正面画像は、それぞれ、OCT解析装置1へ転送される(S2)。撮影毎に転送されることで、OCT解析装置1の記憶部72には、複数の3次元OCTデータが記憶される。各々の3次元OCTデータには、各々と共に撮影された眼底の正面画像が対応付けられている。
 <OCT解析装置における動作>
 図5に示すように、OCT解析装置1では、まず、記憶部72にあらかじめ取得されている複数の3次元OCTデータの中から表示対象となるいずれかを、検者からの操作に基づいて選択する(S11)。
 次に、制御部70は、選択された3次元OCTデータに基づく表示を開始する(S12)。本実施例では、医療情報の種類毎に定められた複数の定型表示枠を表示部75に表示させる。OCT解析装置1は、医療情報の生成が完了する毎に、表示部75に表示されている複数の定型表示枠のうち、生成された医療情報の種類に対応する定型表示枠に、各々の医療情報を順次表示させる。一例として、図6に示す画面が表示される場合について説明する。
 図6に示す画面では、Enface画像、2次元OCTデータ(Bスキャン画像)、チャート、厚みマップ、および正常眼比較マップが表示され、それぞれに応じた定型表示枠が配置されている。
 Enface画像とは、測定光の光軸に沿う方向(正面方向)から組織を見た場合の2次元正面画像である。Enface画像のデータは、例えば、XY方向の各位置で深さ方向(Z方向)に輝度値が積算された積算画像データ、または、XY方向の各位置でのスペクトルデータの積算値等であってもよい。本実施形態では、3次元OCTデータのRAWデータに対してEnface画像生成処理が行われることで、Enface画像が医療情報として生成される。図6において、Enface画像は、画像枠301,302,303,304の各々に表示される。画像枠301,302,303,304の各々に表示される画像は、正面光学系200によって撮影された眼底正面画像であってもよい。
 2次元OCTデータは、被検眼の組織の2次元の断層画像(深さ方向に広がる2次元の画像)である。本実施形態のOCT解析装置1は、RAWデータから3次元画像に変換された3次元OCTデータの画像範囲に含まれる任意の2次元OCTデータを抽出して生成し、モニタ47に表示させることができる。左右方向に沿ったスキャンライン、および、上下方向に沿ったスキャンライン、のそれぞれ1枚ずつ、計2枚の2次元OCTデータが抽出される。但し、図6では、2枚の2次元OCTデータは、操作に応じて選択的に、画像枠305において表示される。また、本実施例では、検者によって位置が指定されていない場合、OCT解析装置1は、X方向およびY方向のそれぞれのデフォルト位置(例えば、2次元の正面画像の上下方向中心を左右に通過する位置と、左右方向中心を上下に通過する位置)の2次元OCTデータを、画像枠305における仮初期表示として表示させる。
 チャートは、眼科画像に写る組織に設定された複数の領域の各々における、全体または特定の層・境界の状態を示す。本実施形態では、特定の層・境界の厚みの平均値、および、正常眼データベースと比較したパーセンタイル順位を領域毎に示す厚みチャートが表示される。詳細には、中心窩周辺における網膜全層に関する厚みチャート311と、中心窩周辺におけるGCC(Ganglion Cell Complex)に関する厚みチャート312と、乳頭周辺における網膜視神経線維層(RNFL)に関する厚みチャート313と、がそれぞれ生成されて表示される。本実施形態のチャート生成処理では、3次元OCTデータに対してセグメンテーション処理を行って特定の層を抽出し、抽出した層の領域毎の厚みの平均値を算出すると共に、領域毎の厚みの平均値を正常眼データベースと比較することで、チャートが医療情報として生成される。チャート311~313における解析領域は、その中心が、例えば、黄斑や乳頭等の部位に設定されることが望ましい。後述の中心窩・乳頭検出処理(S13)が完了してから、中心窩・乳頭のそれぞれ基準位置とする解析チャートが生成されて、表示されるようになる。
 厚みマップは、眼科画像に写る組織を正面(測定光の光軸に沿う方向)から見た場合の、特定の層・境界の厚みの2次元分布を示す。本実施形態の厚みマップ生成処理では、3次元OCTデータに対してセグメンテーション処理を行って特定の層を抽出し、抽出した層の厚みの2次元分布を取得することで、厚みマップが医療情報として生成される。詳細には、中心窩周辺における網膜全層に関する厚みマップ322、中心窩周辺におけるGCCに関する厚みマップ323、乳頭周辺における網膜視神経線維層(RNFL)に関する厚みマップ324、がそれぞれ生成されて表示される。このとき、それぞれの厚みマップは、画像枠302,303,304におけるEnface画像に対して重畳される。
 正常眼比較マップは、正常眼の厚みマップ(例えば、疾患が無い正常な複数の被検眼の厚みマップの平均データ等)と、検査対象の被検眼の厚みマップの比較結果を示す。本実施形態では、正常眼の厚みマップと検査対象の厚みマップの偏差の2次元分布を示すパーセンタイルマップが、正常眼比較マップとして用いられる。本実施形態では、正常眼の厚みマップと検査対象の厚みマップに対して正常眼比較マップ生成処理が行われることで、正常眼比較マップが医療情報として生成される。被検眼の厚みマップと対応する3次元OCTデータまたは正面画像における特徴部(例えば、黄斑および乳頭等)の位置を基準として、正常眼の厚みマップが、被検眼の厚みマップに対して位置合わせされて、正常眼比較マップが生成される。後述の中心窩・乳頭検出処理(S13)が完了してから、正常眼比較マップが生成されて、表示されるようになる。正常眼比較マップは、画像枠301におけるEnface画像に対して重畳される。
 また、本実施例では、3次元OCTデータに基づく表示が指示されることによって、中心窩・乳頭検出処理が実行される(S13)。検出された中心窩の位置を基準位置として、当該基準位置を左右方向に通過するスキャンラインと、上下方向に通過するスキャンラインと、の2つの2次元OCTデータを、3次元OCTデータから抽出する。抽出された2次元OCTデータを、図6の表示枠305に対して表示させる(S14)。これにより、デフォルト位置の2次元OCTデータは、中心窩における断面を示す2次元OCTデータに間もなく差し替えられる。このようにして、本実施例における2次元OCTデータの初期表示が完了する。
 なお、本実施例において、中心窩・乳頭検出処理(S13)では、3次元OCTデータに対してセグメンテーション処理を行って、中心窩に対応する層構造を有する領域を、中心窩の位置として検出する。また、本実施例では、機械学習を用いた特徴検出を利用して乳頭が検出される。但し、中心窩の検出手法は必ずしもこれに限られるものではなく、適宜設定することができる。
 また、本実施例では、中心窩・乳頭検出処理によって検出された中心窩または乳頭の位置を基準位置として、チャート311~313、正常眼比較マップ331、の各々がEnface画像上の基準位置を基準として配置される。このようにして、本実施例におけるチャート311~313、正常眼比較マップ331のそれぞれにおける初期表示が実施される。
 図6に示す表示画面には、レポートを出力するために操作されるボタン351~353が配置されている。ボタン351~353が操作されると、画面に表示中の医療情報が掲載されたレポートが生成され外部出力される。LINKボタン351は、図示なき外部システムにレポートファイルを転送するために操作され、EXPORTボタン352は、レポートファイルを記憶部72に保存するために操作され、Printボタン353は、レポートを印刷するために操作される。初期表示では、中心窩・乳頭検出処理によって検出された中心窩の断面を示す2次元OCTデータ、および、同じく検出された中心窩または乳頭を基準位置として設定された解析結果が表示されており、そのまま上述のコントロールに対して操作を入力するだけで、表示された状態の画像および解析結果等を含むレポートが外部出力される。よって、適切なレポートが、簡単かつ速やかに外部出力できる。
 また、本実施例では、図6の画面を介して、検者による基準位置を修正するための操作入力を受け付ける(S16)。例えば、画像枠302,303には、基準となるスキャンラインを示すグラフィック341,342が重畳されている。グラフィック341,342は、ポインティングデバイスを介して、画像枠302,303上で移動可能なコントロールである。グラフィック341,342は、画像枠305に示される2次元OCTデータの抽出位置を示している。また、グラフィック341,342の交点が黄斑に対応する基準位置を示し、交点に応じて表示画面上の解析結果に対する解析がやり直され、修正された解析結果が表示されるようになる。詳細は割愛するが乳頭側の基準位置も変更可能であっても良い。制御部70は、修正後の基準位置に対応する2次元OCTデータを抽出して表示枠305に表示する。また、修正後の基準位置に対する解析結果が表示される。検者は、所望の状態に修正されたことを確認した後、ボタン351~353を操作してレポートの外部出力を行ってもよい。今回の3次元OCTデータに基づく表示を終了し、改めて同一の3次元OCTデータに基づく表示が行われる場合に、検者によって修正された基準位置で、初期表示が行われるように、3次元OCTデータと対応付けて修正後の基準位置を保存しても良い。

Claims (7)

  1.  被検眼の眼底のOCTデータを処理する眼底画像処理装置であって、
     前記眼底画像処理装置の制御部は、
     被検眼の深さ方向と交差する被検眼の眼底上の2次元の測定領域に対応する被検眼の眼底の3次元OCTデータを、取得する取得ステップと、
     前記2次元の測定領域内に含まれる所定部位の位置を前記3次元OCTデータに対する基準位置として設定する設定ステップと、
     前記基準位置を通過するスキャンラインにおける2次元OCTデータを前記3次元OCTデータから抽出する抽出ステップと、
     前記3次元OCTデータに基づく表示が画面に出力される場合に、前記抽出ステップにおいて抽出される前記2次元OCTデータを、初期表示させる表示制御ステップと、
     を実行することを特徴とする眼底画像処理装置。
  2.  前記表示制御ステップでは、前記3次元OCTデータに基づく表示が画面に出力される場合に、前記画面上には、前記初期表示における前記2次元OCTデータと共に、前記3次元OCTデータに基づくレポートを外部出力するための操作を受け付けるためのコントロールが表示され、
     更に、
     前記コントロールに対する操作が入力された場合に、前記3次元OCTデータに基づくレポートを外部出力する外部出力ステップであって、画面上に表示中の前記2次元OCTデータを含む前記レポートを外部出力する外部出力ステップを更に実行する、請求項1記載の眼底画像処理装置。
  3.  前記制御部は、2次元の測定領域の一部に設定される解析領域における解析データを、前記3次元OCTデータを前記解析領域に関して解析処理することによって取得する解析処理ステップを、更に実行し、
     前記表示制御ステップでは、前記抽出ステップにおいて抽出される前記基準位置を通過するスキャンラインにおける2次元OCTデータと共に、前記基準位置に対して設定された前記解析領域についての前記解析データを、初期表示する請求項1又は2記載の眼底画像処理装置。
  4.  前記表示制御ステップでは、
     前記3次元OCTデータと対応する、前記2次元の測定領域における眼底の正面画像を表示させると共に、前記2次元OCTデータのスキャン位置を示すグラフィックを前記眼底の正面画像上に重畳させる、請求項1から3のいずれかに記載の眼底画像処理装置。
  5.  前記表示制御ステップによって画面上に表示中の2次元OCTデータを、新たなスキャンラインの2次元OCTデータに変更するための変更操作を受け付ける第2受付ステップと、
     前記第2受付ステップでの前記変更操作に応じた新たなスキャンラインの2次元OCTデータを、前記3次元OCTデータから抽出する第2抽出ステップと、更に含み、
     前記表示制御ステップでは、表示中の2次元OCTデータを、前記第2抽出ステップで抽出された新たなスキャンラインの2次元OCTデータに切り替える、
     請求項1から4のいずれかに記載の眼底画像処理装置。
  6.  表示制御ステップは、前記表示制御ステップは、3次元OCTデータが撮影された直後の確認画面において前記3次元OCTデータに基づく表示が出力される際に、前記抽出ステップにおいて抽出される前記2次元OCTデータを、初期表示させる、請求項1から5のいずれかに記載の眼科画像処理装置。
  7.  被検眼の眼底のOCTデータを処理する眼底画像処理装置のプロセッサによって実行されることによって、
     被検眼の深さ方向と交差する被検眼の眼底上の2次元の測定領域に対応する被検眼の眼底の3次元OCTデータを、取得する取得ステップと、
     前記2次元の測定領域内に含まれる所定部位の位置を前記3次元OCTデータに対する基準位置として設定する設定ステップと、
     前記基準位置を通過するスキャンラインにおける2次元OCTデータを前記3次元OCTデータから抽出する抽出ステップと、
     前記3次元OCTデータに基づく表示が画面に出力される場合に、前記抽出ステップにおいて抽出される前記2次元OCTデータを、初期表示させる表示制御ステップと、
     を眼底画像処理装置に実行させることを特徴とする眼底画像処理プログラム。
PCT/JP2023/034393 2022-09-30 2023-09-22 眼底画像処理装置および眼底画像処理プログラム WO2024070907A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022159096 2022-09-30
JP2022-159096 2022-09-30

Publications (1)

Publication Number Publication Date
WO2024070907A1 true WO2024070907A1 (ja) 2024-04-04

Family

ID=90477707

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/034393 WO2024070907A1 (ja) 2022-09-30 2023-09-22 眼底画像処理装置および眼底画像処理プログラム

Country Status (1)

Country Link
WO (1) WO2024070907A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019154718A (ja) * 2018-03-12 2019-09-19 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
WO2020116351A1 (ja) * 2018-12-04 2020-06-11 株式会社ニデック 診断支援装置、および診断支援プログラム
JP2021037177A (ja) * 2019-09-04 2021-03-11 株式会社ニデック 眼科画像処理プログラムおよび眼科画像処理装置
JP2022062620A (ja) * 2020-10-08 2022-04-20 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019154718A (ja) * 2018-03-12 2019-09-19 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
WO2020116351A1 (ja) * 2018-12-04 2020-06-11 株式会社ニデック 診断支援装置、および診断支援プログラム
JP2021037177A (ja) * 2019-09-04 2021-03-11 株式会社ニデック 眼科画像処理プログラムおよび眼科画像処理装置
JP2022062620A (ja) * 2020-10-08 2022-04-20 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Similar Documents

Publication Publication Date Title
US7980697B2 (en) Fundus oculi observation device and ophthalmic image display device
US8096658B2 (en) Fundus oculi observation device and program for controlling the same
JP5231085B2 (ja) 眼科情報処理装置及び眼科検査装置
EP2786698B1 (en) Ophthalmologic apparatus
JP4971864B2 (ja) 光画像計測装置及びそれを制御するプログラム
JP4896794B2 (ja) 光画像計測装置、それを制御するプログラム及び光画像計測方法
JP4969925B2 (ja) 眼底観察装置
US7370966B2 (en) Opthalmologic apparatus
US7784942B2 (en) Fundus oculi observation device, a fundus oculi image display device and a fundus oculi image display method
JP5138977B2 (ja) 光画像計測装置
JP7182350B2 (ja) 眼科解析装置、眼科解析プログラム
EP3216389B1 (en) Optical coherence tomography apparatus, control method for optical coherence tomography apparatus, and non-transitory tangible medium
EP2786700B1 (en) Ophthalmologic apparatus
JP6481250B2 (ja) 眼底解析装置及び眼底解析プログラム
WO2015016291A1 (en) Photography apparatus and photography method
JP7135346B2 (ja) Octデータ処理装置およびoctデータ処理プログラム
JP2013027442A (ja) 眼底撮影装置、眼底解析方法、及び眼底解析プログラム
JP5905041B2 (ja) 撮像装置、制御装置及び制御方法
WO2024070907A1 (ja) 眼底画像処理装置および眼底画像処理プログラム
JP5953666B2 (ja) 眼底撮影装置、眼底解析方法、及び眼底解析プログラム
JP2019047842A (ja) 情報処理装置、情報処理方法及びプログラム
JP7148113B2 (ja) 眼科装置
JP6839310B2 (ja) 光断層撮像装置、その制御方法、及びプログラム
JP2024034312A (ja) 眼科情報処理プログラムおよび眼科装置
JP6109369B2 (ja) 撮像装置、制御装置及び制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23872133

Country of ref document: EP

Kind code of ref document: A1