JP2019042375A - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP2019042375A
JP2019042375A JP2017171187A JP2017171187A JP2019042375A JP 2019042375 A JP2019042375 A JP 2019042375A JP 2017171187 A JP2017171187 A JP 2017171187A JP 2017171187 A JP2017171187 A JP 2017171187A JP 2019042375 A JP2019042375 A JP 2019042375A
Authority
JP
Japan
Prior art keywords
image
enface
projection method
generating
target range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017171187A
Other languages
Japanese (ja)
Other versions
JP2019042375A5 (en
Inventor
悦朗 和田
Etsuro Wada
悦朗 和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017171187A priority Critical patent/JP2019042375A/en
Publication of JP2019042375A publication Critical patent/JP2019042375A/en
Publication of JP2019042375A5 publication Critical patent/JP2019042375A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

To generate a proper EnFace image.SOLUTION: An image processing apparatus comprises: EnFace image generation means which generates an EnFace image on the basis of a three-dimensional image of a subject eye; target range selection means which selects a target range for generating the EnFace image; and projection method determination means which determines a projection method for generating the EnFace image in response to the target range.SELECTED DRAWING: Figure 3

Description

本明細書の開示は、画像処理装置、画像処理方法およびプログラムに関する。   The disclosure of the present specification relates to an image processing apparatus, an image processing method, and a program.

近年、OCT(Optical Coherence Tomography)を用いてた、OCTアンギオグラフィー(以下OCTAという)と呼ばれる血管造影法が提案されている(特許文献1)。   In recent years, angiography called OCT angiography (hereinafter referred to as OCTA) using OCT (Optical Coherence Tomography) has been proposed (Patent Document 1).

OCTAでは三次元のモーションコントラストデータのうち、一部の深度範囲のモーションコントラストデータのみを二次元の平面上に投影することによって、任意の深度範囲のOCTA画像(Enface画像)を得ることができる。   In OCTA, an OCTA image (Enface image) of an arbitrary depth range can be obtained by projecting only motion contrast data of a part of the depth range among three-dimensional motion contrast data on a two-dimensional plane.

深度範囲として様々な範囲が用いられる。例えば、網膜内の血管の分布に従い、網膜浅層(Superficial Capillary Plexus)、網膜深層(Deep Capillary Plexus)、網膜外層(Outer Retina)、放射状乳頭周囲毛細血管(Radial Peripapillary Capillaries)、脈絡膜毛細血管板(Choriocapillaris)など、多くの種類の深度範囲が用いられる。   Various ranges are used as the depth range. For example, according to the distribution of blood vessels in the retina, the superficial layer of the retina (Superficial Capillary Plexus), the deep layer of the retina (Deep Capillary Plexus), the outer layer of the retina (Outer Retina), radial peripapillar capillaries (Radial Peripapillar Capillaries), the choroidal capillary plate ( Many types of depth ranges are used, such as Choriocapillaris.

特開2015−131107号公報JP, 2015-131107, A

Enface画像の生成には様々な深度範囲が用いられるが、特定の投影方法で投影する場合、深度範囲によっては好ましい画像が得られないことがある。   Various depth ranges are used to generate Enface images, but when projecting with a specific projection method, depending on the depth range, a preferable image may not be obtained.

本明細書の開示は、適切なEnface画像を生成することを目的の一つとする。   The disclosure of the present specification aims to generate an appropriate Enface image.

なお、前記目的に限らず、後述する発明を実施するための形態に示す各構成により導かれる作用効果であって、従来の技術によっては得られない作用効果を奏することも本開示の他の目的の1つとして位置付けることができる。   In addition, it is not only the said objective but it is an effect derived by each structure shown to the form for implementing the invention mentioned later, Comprising: It is also another object of this indication to have an effect which can not be obtained by a prior art. It can be positioned as one of

本明細書に開示の画像処理装置は、被検眼の三次元画像を取得する取得手段と前記三次元画像に基づいてEnFace画像を生成するEnFace画像生成手段と、前記Enface画像を生成するための対象範囲を選択する対象範囲選択手段と、前記Enface画像を生成するための投影方法を、前記対象範囲に応じて決定する投影方法決定手段と、を有する。   An image processing apparatus disclosed in the present specification includes an acquisition unit for acquiring a three-dimensional image of an eye to be examined, an EnFace image generation unit for generating an EnFace image based on the three-dimensional image, and an object for generating the Enface image. A target range selecting means for selecting a range, and a projection method determining means for determining a projection method for generating the Enface image according to the target range.

本明細書の開示によれば、適切なEnface画像を生成することが可能である。   According to the disclosure of the present specification, it is possible to generate an appropriate Enface image.

画像処理システムの一例を示す図である。FIG. 1 is a diagram illustrating an example of an image processing system. 画像処理装置の一例を示す図である。It is a figure showing an example of an image processing device. 画像生成部の制御ブロックの一例を示す図である。It is a figure which shows an example of the control block of an image generation part. 画像生成部の制御ブロックの一例を示す図である。It is a figure which shows an example of the control block of an image generation part. 本明細書の基本的な処理の一例を示すフローチャートである。It is a flowchart which shows an example of a basic process of this specification. AIPで投影した際に埋没する情報の例である。It is an example of information buried when projected by AIP. AIPで投影したEnface画像の一例である。。It is an example of the Enface image projected by AIP. . MIPで投影したEnface画像の一例である。It is an example of the Enface image projected by MIP. 実施例1における処理の一例を示すフローチャートである。5 is a flowchart illustrating an example of a process according to the first embodiment. 実施例2における処理の一例を示すのフローチャートである。15 is a flowchart illustrating an example of processing in Embodiment 2. 実施例3における処理の一例を示すのフローチャートである。FIG. 16 is a flowchart illustrating an example of processing in Embodiment 3. FIG. 実施例3の制御ブロックの一例を示す図である。FIG. 18 is a diagram illustrating an example of a control block of the third embodiment. 実施例1で使用した断層像の例である。5 is an example of a tomogram used in Example 1;

<実施形態1>
好適な実施形態について説明する。図1は本実施形態の画像処理システムを示す図である。図1に示す画像処理システムは、光干渉部100、走査光学系200、画像処理装置300、モニタ310、ポインティングデバイス320およびキーボード321を備える。なお、画像処理装置300は、光干渉部100および走査光学系200と一体として構成されてもよいし、別体として構成されることとしてもよい。なお、光干渉部100および走査光学系200はOCTを構成する。
First Embodiment
A preferred embodiment will be described. FIG. 1 is a diagram showing an image processing system according to the present embodiment. The image processing system shown in FIG. 1 includes a light interference unit 100, a scanning optical system 200, an image processing apparatus 300, a monitor 310, a pointing device 320, and a keyboard 321. The image processing apparatus 300 may be configured integrally with the light interference unit 100 and the scanning optical system 200, or may be configured separately. The light interference unit 100 and the scanning optical system 200 constitute an OCT.

光干渉部100は、近赤外光を発光する低コヒーレンス光源である光源101を有する。光源101から発光した光は、光ファイバ102aを伝搬し、光分岐部103で測定光と参照光に分岐される。光分岐部103により分岐された測定光は、光ファイバ102bに入射され、走査光学系200に導かれる。一方、光分岐部103により分岐された参照光は、光ファイバ102cに入射され、反射ミラー113へ導かれる。   The light interference unit 100 includes a light source 101 that is a low coherence light source that emits near-infrared light. The light emitted from the light source 101 propagates through the optical fiber 102 a and is branched into the measurement light and the reference light by the light branching unit 103. The measurement light branched by the light branching unit 103 is incident on the optical fiber 102 b and guided to the scanning optical system 200. On the other hand, the reference light branched by the light branching unit 103 is incident on the optical fiber 102 c and is guided to the reflection mirror 113.

光ファイバ102cに入射した参照光はファイバ端から射出され、コリメート光学系111を介して、分散補償光学系112に入射し、反射ミラー113へと導かれる。反射ミラー113で反射した参照光は、逆の光路をたどり再び光ファイバ102cに入射する。分散補償光学系112は、走査光学系200及び被測定物体である被検眼Eにおける光学系の分散を補正するものである。反射ミラー113は、図示しない光路長制御部114によって光軸方向に駆動可能なように構成されており、参照光の光路長を、測定光の光路長に対して相対的に変化させることができる。一方、光ファイバ102bに入射した測定光はファイバ端より射出される。これらの光源101、光路長制御部114は図示しない制御部130の制御下で制御される。   The reference light incident on the optical fiber 102 c is emitted from the end of the fiber, is incident on the dispersion compensation optical system 112 via the collimating optical system 111, and is guided to the reflection mirror 113. The reference light reflected by the reflection mirror 113 follows the reverse optical path and enters the optical fiber 102c again. The dispersion compensation optical system 112 corrects the dispersion of the scanning optical system 200 and the optical system of the eye to be examined E which is the object to be measured. The reflection mirror 113 is configured to be drivable in the optical axis direction by the optical path length control unit 114 (not shown), and can change the optical path length of the reference light relative to the optical path length of the measurement light . On the other hand, the measurement light incident on the optical fiber 102b is emitted from the end of the fiber. The light source 101 and the optical path length control unit 114 are controlled under the control of the control unit 130 (not shown).

次に走査光学系200について説明する。走査光学系200は被検眼Eに対して相対的に移動可能なように構成された光学系である。走査光学系の図示しない駆動制御部205は、被検眼Eの眼軸に対して上下左右方向に走査光学系200を駆動可能なように構成されている。   Next, the scanning optical system 200 will be described. The scanning optical system 200 is an optical system configured to be movable relative to the eye E. The drive control unit 205 (not shown) of the scanning optical system is configured to be able to drive the scanning optical system 200 in the vertical and horizontal directions with respect to the eye axis of the eye E.

そして、光ファイバ102bのファイバ端より射出した光は、光学系202により略平行化され、走査部203へ入射する。走査部203は、ミラー面を回転可能なガルバノミラーを2つ有し、一方は水平方向に光を偏向し、他方は垂直方向に光を偏向し、駆動制御部205の制御下で入射した光を偏向する。これにより、走査部203は、紙面内の主走査方向と紙面垂直方向の副走査方向の2方向に走査することができる。走査部203により走査された光は、レンズ204を経由して被検眼E上に、照明スポットを形成する。走査部203により面内偏向をうけると各照明スポットは被検眼E上を移動する。この照明スポット位置における反射光が逆光路をたどり光ファイバ102bに入射して、光分岐部103まで戻ることになる。   The light emitted from the fiber end of the optical fiber 102 b is substantially collimated by the optical system 202 and enters the scanning unit 203. The scanning unit 203 has two galvano mirrors capable of rotating the mirror surface, one deflects light in the horizontal direction, the other deflects light in the vertical direction, and the light incident under the control of the drive control unit 205 Bias. As a result, the scanning unit 203 can scan in two directions of the main scanning direction in the plane of the drawing and the sub-scanning direction in the direction perpendicular to the plane of the drawing. The light scanned by the scanning unit 203 forms an illumination spot on the eye E via the lens 204. When the scanning unit 203 receives in-plane deflection, each illumination spot moves on the eye E. The reflected light at this illumination spot position travels along the reverse optical path, enters the optical fiber 102 b, and returns to the light branching portion 103.

以上の様に、反射ミラー113で反射された参照光、及び被検眼Eから反射された測定光は戻り光として光分岐部103に戻され光干渉を発生させる。相互に干渉した光は光ファイバ102dを通過し、レンズ122に射出された干渉光は、略平行化され、回折格子123に入射する。回折格子123には周期構造があり、入力した干渉光を分光する。分光された干渉光は、合焦状態を変更可能な結像レンズ124によりラインセンサ125に結像される。ラインセンサ125は画像処理装置300に接続されている。なお、OCTの構成は上記の例に限定されるものではなく、被検眼の断層が撮像可能であればかまわない。   As described above, the reference light reflected by the reflection mirror 113 and the measurement light reflected from the eye E are returned to the light branching portion 103 as return light to generate light interference. The light interfering with each other passes through the optical fiber 102 d, and the interference light emitted to the lens 122 is substantially collimated and enters the diffraction grating 123. The diffraction grating 123 has a periodic structure, and disperses the input interference light. The dispersed interference light is imaged on the line sensor 125 by the imaging lens 124 capable of changing the focusing state. The line sensor 125 is connected to the image processing apparatus 300. The configuration of the OCT is not limited to the above-described example, and it is acceptable as long as a tomographic image of the subject's eye can be imaged.

図2は画像処理装置300について説明する図である。図2に示すように、画像処理装置300は、断層像データを生成する手段としての再構成部301を備えている。本実施例は、フーリエドメイン方式であり、再構成部301は、ラインセンサ125の出力データを波数変換、フーリエ変換することで被検眼の断層像データを生成する。なお、本実施例ではフーリエドメインン方式の光干渉部100を備えた画像処理装置としたが、タイムドメイン方式の光干渉部を備えた画像処理装置であってもよい。   FIG. 2 is a diagram for explaining the image processing apparatus 300. As shown in FIG. 2, the image processing apparatus 300 includes a reconstruction unit 301 as means for generating tomographic image data. The present embodiment is a Fourier domain method, and the reconstruction unit 301 generates tomographic image data of an eye to be examined by performing wave number conversion and Fourier transformation on output data of the line sensor 125. In the present embodiment, the image processing apparatus is provided with the light interference unit 100 of the Fourier domain method, but the image processing apparatus may be provided with the light interference unit of the time domain method.

また、画像処理装置300は複数の断層像データからモーションコントラストデータを生成するためのモーションコントラスト生成部302を備える。   The image processing apparatus 300 further includes a motion contrast generation unit 302 for generating motion contrast data from a plurality of tomographic image data.

また、画像処理装置300は生成された断層像データを解析する画像解析部303を備えている。画像解析部303は被検眼の断層像データを解析し、断層像データに含まれる被検眼の構造物を解析することができる。例えば、画像解析部303は、公知の手法を用いて断層像データを解析することで、断層像データに含まれる層境界を抽出することができる。   The image processing apparatus 300 further includes an image analysis unit 303 that analyzes the generated tomographic image data. The image analysis unit 303 can analyze tomographic image data of an eye to be examined and analyze a structure of the eye to be examined included in the tomographic image data. For example, the image analysis unit 303 can extract layer boundaries included in tomogram data by analyzing the tomogram data using a known method.

そして、画像生成部304は生成された断層像データやモーションコントラストデータから表示用の画像を生成し、制御部306は生成された表示用の画像をモニタ310へ出力する。記憶部305は、複数の深度範囲の定義、デフォルトで適用される深度範囲の定義等を記憶しており、画像生成部304は記憶部305から取得した深度範囲に従ってOCTA画像を生成する。   Then, the image generation unit 304 generates an image for display from the generated tomographic image data and motion contrast data, and the control unit 306 outputs the generated image for display to the monitor 310. The storage unit 305 stores definitions of a plurality of depth ranges, a definition of a depth range to be applied by default, and the like, and the image generation unit 304 generates an OCTA image according to the depth ranges acquired from the storage unit 305.

ここで、画像処理装置は、不図示のCPUを備え、例えばCPUがROMに記憶されているプログラムをRAM上で実行することで再構成部301,モーションコントラスト生成部302、画像解析部303および画像生成部304として機能する。なお、画像処理装置が備えるCPUは複数であってもよいし、プログラムを記録するROMも複数であってもよい。すなわち、少なくとも1以上のプロセッサと少なくとも1つのメモリとが接続されており、少なくとも1以上のプロセッサが少なくとも1以上のメモリに記憶されたプログラムを実行した場合に画像処理装置300は再構成部301,モーションコントラスト生成部302、画像解析部303および画像生成部304として機能するとして機能する。なお、プロセッサはCPUに限定されるものではなく、GPU等であってもよいし、CPUとGPUなど異なる種類のプロセッサを併用することとしてもよい。   Here, the image processing apparatus includes a CPU (not shown), and the CPU executes, for example, a program stored in the ROM on the RAM, whereby the reconstruction unit 301, the motion contrast generation unit 302, the image analysis unit 303, and the image It functions as the generation unit 304. Note that the image processing apparatus may have a plurality of CPUs, and a plurality of ROMs may be used to record programs. That is, when at least one or more processors and at least one memory are connected, and at least one or more processors execute a program stored in at least one or more memories, the image processing apparatus 300 executes the reconstruction unit 301, It functions as functioning as the motion contrast generation unit 302, the image analysis unit 303, and the image generation unit 304. Note that the processor is not limited to the CPU, and may be a GPU or the like, or a combination of processors of different types such as the CPU and the GPU may be used.

なお、CPUは、RAMやROMに格納されたプログラムやデータを用いてコンピュータ全体の制御を行う。また、各部の機能を実現する。   The CPU controls the entire computer using programs and data stored in the RAM and the ROM. In addition, the functions of each part are realized.

RAMは、例えば記憶媒体ドライブからロードされたプログラムやデータを一時的に記憶するエリアを備えると共に、CPUが各種の処理を行うために必要とするワークエリアを備える。   The RAM includes, for example, an area for temporarily storing programs and data loaded from a storage medium drive, and also includes a work area required for the CPU to perform various processes.

ROMは、一般にコンピュータのプログラムや設定データなどが格納されている。   The ROM generally stores computer programs and setting data.

さらに、画像処理装置300にはポインティングデバイス320とキーボード321が接続されている。このポインティングデバイス320は回転式ホイールとボタンを備えたマウスであり、モニタ310上の任意の位置を指定することができる。なお、本実施例ではポインティングデバイスとしてマウスを使用しているが、ジョイスティック、タッチパッド、トラックボール、タッチパネル、スタイラスペン等の任意のポインティングデバイスを用いることもできる。   Further, a pointing device 320 and a keyboard 321 are connected to the image processing apparatus 300. The pointing device 320 is a mouse provided with a rotatable wheel and a button, and can designate an arbitrary position on the monitor 310. Although a mouse is used as a pointing device in the present embodiment, any pointing device such as a joystick, a touch pad, a track ball, a touch panel, a stylus pen, etc. may be used.

このように、本実施例による画像処理システムは、光干渉部100、走査光学系200、画像処理装置300を含む。   As described above, the image processing system according to the present embodiment includes the light interference unit 100, the scanning optical system 200, and the image processing apparatus 300.

また、画像処理装置300の各部の少なくとも一部は、独立した装置として実現してもよい。または、画像処理装置300の各部の夫々の機能は、1つもしくは複数のコンピュータにインストールされ、各コンピュータのCPU(不図示)により実現されることとしてもよい。本実施例では、画像処理装置300の各部の機能は、同一のコンピュータにインストールされているものとする。 また、画像処理装置300は画像処理ボードで電気回路として構成することもできる。   Further, at least a part of each part of the image processing apparatus 300 may be realized as an independent apparatus. Alternatively, each function of each unit of the image processing apparatus 300 may be installed in one or more computers and realized by a CPU (not shown) of each computer. In the present embodiment, it is assumed that the functions of the units of the image processing apparatus 300 are installed in the same computer. The image processing apparatus 300 can also be configured as an electric circuit by an image processing board.

次に本装置を用いて、被検眼の断層画像を撮影するための制御方法について述べる。   Next, a control method for capturing a tomographic image of an eye to be examined using the present apparatus will be described.

まず、検者は走査光学系200の前に患者を着座させ、OCT撮影を開始する。光源101から射出した光は、光ファイバ102aを通過し光分岐手段103にて被検眼に向かう測定光と参照ミラー113に向かう参照光に分けられる。   First, the examiner places a patient in front of the scanning optical system 200 and starts OCT imaging. The light emitted from the light source 101 is divided into measurement light traveling to the subject's eye and reference light traveling to the reference mirror 113 by the light branching means 103 after passing through the optical fiber 102 a.

被検眼に向かう測定光は光ファイバ102bを通過しファイバ端から射出され、光学系202により略平行化され、走査手段203へ入射する。走査手段203はガルバノミラーを有し、該ミラーにより偏向された測定光は光学系204を経由して被検眼を照射する。そして被検眼で反射した反射光は逆の経路をたどって光分岐部103へと戻される。   The measurement light traveling toward the eye to be inspected passes through the optical fiber 102 b and is emitted from the end of the fiber, is substantially collimated by the optical system 202, and is incident on the scanning means 203. The scanning means 203 has a galvano mirror, and the measurement light deflected by the mirror illuminates the eye through the optical system 204. Then, the reflected light reflected by the eye to be examined follows the reverse path and is returned to the light branching unit 103.

一方、参照ミラーに向かう参照光は光ファイバ102cを通過しファイバ端から射出され、コリメート光学系111及び分散補償光学系112を通して参照ミラー113に到達する。参照ミラー113で反射された参照光は逆の経路をたどって光分岐部103へと戻される。   On the other hand, the reference light traveling toward the reference mirror passes through the optical fiber 102 c and is emitted from the end of the fiber, and reaches the reference mirror 113 through the collimating optical system 111 and the dispersion compensating optical system 112. The reference light reflected by the reference mirror 113 follows the reverse path and is returned to the light branching unit 103.

光分岐部103に戻ってきた測定光と参照光は相互に干渉し、干渉光となって光ファイバ102dへと入射し、光学系122により略平行化され回折格子123に入射する。回折格子123に入力された干渉光は結像レンズ124によってラインセンサ125に結像し、被検眼上の一点における干渉信号を得ることができる。   The measurement light and the reference light returned to the light branching portion 103 interfere with each other, become interference light, enter the optical fiber 102 d, are substantially collimated by the optical system 122, and enter the diffraction grating 123. The interference light input to the diffraction grating 123 is imaged on the line sensor 125 by the imaging lens 124, and an interference signal at one point on the subject's eye can be obtained.

ラインセンサ125で取得された干渉信号は画像処理装置300に出力される。ラインセンサ125から出力される干渉信号は12ビットの整数形式のデータである。再構成部301は、この12ビットの整数形式のデータに対して波数変換、高速フーリエ変換(FFT)、絶対値変換(振幅の取得)を行い、被検眼上の一点における深さ方向の断層像データを生成する。   The interference signal acquired by the line sensor 125 is output to the image processing apparatus 300. The interference signal output from the line sensor 125 is 12-bit integer data. The reconstruction unit 301 performs wave number conversion, fast Fourier transformation (FFT), and absolute value conversion (acquisition of amplitude) on the 12-bit integer format data, and a tomographic image in the depth direction at one point on the subject's eye Generate data.

被検眼上の一点における干渉信号を取得した後、走査部203はガルバノミラーを駆動し、被検眼上の別の一点の干渉光を発生させる。該別の一点の干渉光はラインセンサ125及び再構成部301を経由し、被検眼上の別の一点における深さ方向の断層像データとして生成される。この一連の制御を繰り返すことにより、被検眼の一枚の断層像データを生成することができる。   After acquiring the interference signal at one point on the subject's eye, the scanning unit 203 drives the galvano mirror to generate another single point of interference light on the subject's eye. The other interference light is generated as tomographic image data in the depth direction at another point on the subject's eye via the line sensor 125 and the reconstruction unit 301. By repeating this series of control, it is possible to generate one tomographic image data of the eye to be examined.

さらに、走査部203はガルバノミラーを駆動し、被検眼の同一箇所を複数回走査して被検眼の同一箇所における複数の断層像データを取得する。そして走査部203はガルバノミラーを主走査方向に直行する副走査方向に微小に駆動させ、被検眼の別の個所における複数の断層像データを取得する。この制御を繰り返すことにより、被検眼の所定範囲における複数の断層像データを取得することができる。   Further, the scanning unit 203 drives the galvano mirror, scans the same part of the eye to be examined a plurality of times, and acquires a plurality of tomographic image data on the same part of the eye to be examined. Then, the scanning unit 203 minutely drives the galvano mirror in the sub-scanning direction orthogonal to the main scanning direction, and acquires a plurality of tomographic image data in another part of the eye to be examined. By repeating this control, a plurality of tomographic image data in a predetermined range of the eye to be examined can be acquired.

なお、上記ではライセンサ125から得られた一組の干渉信号をFFT処理することで被検眼の一点における一つの断層像データを取得している。しかし、干渉信号を複数の組に分割し、分割されたそれぞれの干渉信号に対してFFT処理を行って、一つの干渉信号から複数の断層像データを取得するように構成することもできる。この方法によれば実際に被検眼の同一箇所を走査した回数よりも多くの断層像データを取得することができる。   In the above, one tomographic image data at one point of the eye to be examined is acquired by subjecting a set of interference signals obtained from the lie sensor 125 to FFT processing. However, the interference signal may be divided into a plurality of sets, and FFT processing may be performed on each of the divided interference signals to obtain a plurality of tomographic image data from one interference signal. According to this method, it is possible to acquire more tomographic image data than the number of times the same part of the eye to be examined is actually scanned.

次に、この画像処理装置において、断層像データからモーションコントラストデータを生成する方法について説明する。   Next, a method of generating motion contrast data from tomographic image data in this image processing apparatus will be described.

再構成部301で生成された複素数形式のデータはモーションコントラスト生成部302へ出力される。まず、モーションコントラスト生成部302は、被検眼の同一箇所における複数の断層像データの位置ずれを補正する。   The data in the complex number format generated by the reconstruction unit 301 is output to the motion contrast generation unit 302. First, the motion contrast generation unit 302 corrects the positional deviation of a plurality of tomographic image data at the same position of the eye to be examined.

そして、モーションコントラスト生成部302は、位置ずれが補正された二つの断層像データ間で例えば以下の式(1)により脱相関値を求める。   Then, the motion contrast generation unit 302 obtains a decorrelation value, for example, by the following equation (1) between the two tomographic image data whose positional deviation has been corrected.

Figure 2019042375
Figure 2019042375

ここで、Axyは断層像データAの位置(x,y)における振幅、Bxyは断層データBの同一位置(x,y)における振幅を示している。結果として得られる脱相関値Mxyは0から1までの値を取り、二つの振幅値の差異が大きいほど1に近い値となる。   Here, Axy indicates the amplitude at the position (x, y) of the tomographic image data A, and Bxy indicates the amplitude at the same position (x, y) of the tomographic data B. The resulting decorrelation value Mxy takes a value from 0 to 1, and the value becomes closer to 1 as the difference between the two amplitude values increases.

そして、上記の脱相関演算を取得した断層像データの枚数分繰り返すことによって複数の脱相関値を求め、それら複数の脱相関値の平均値を求めることで最終的なモーションコントラストデータを取得する。   Then, a plurality of decorrelation values are obtained by repeating the above-described decorrelation operation for the number of acquired tomographic image data, and an average value of the plurality of decorrelation values is obtained to obtain final motion contrast data.

なお、ここではFFT後の複素数データの振幅に基づいてモーションコントラストデータを求めたが、モーションコントラストデータの求め方は上記方法に限られるものではない。複素数データの位相情報に基づいてモーションコントラストデータを求めても良いし、振幅と位相の両方の情報に基づいてモーションコントラストを求めても良い。また、複素数データの実部や虚部に基づいてモーションコントラストを求めることもできる。   Here, although motion contrast data is determined based on the amplitude of complex data after FFT, the method of determining motion contrast data is not limited to the above method. Motion contrast data may be determined based on phase information of complex data, or motion contrast may be determined based on both amplitude and phase information. Also, motion contrast can be determined based on the real part or imaginary part of complex data.

また、上記では二つの値の脱相関値を演算することによってモーションコントラストデータを取得したが、二つの値の差分に基づいてモーションコントラストデータを求めても良いし、二つの値の比に基づいてモーションコントラストデータを求めることもできるい。   Furthermore, although motion contrast data is obtained by calculating the decorrelation value of two values in the above, motion contrast data may be obtained based on the difference between the two values, or based on the ratio of the two values. It is also possible to obtain motion contrast data.

さらに、上記では取得された複数の脱相関値の平均値を求めることで最終的なモーションコントラストデータを得ているが、複数の脱相関値や差分、比の最大値を最終的なモーションコントラストデータとしても良い。   Furthermore, although the final motion contrast data is obtained by obtaining the average value of the plurality of acquired decorrelation values in the above, the maximum value of the plurality of decorrelation values, differences, and ratios is the final motion contrast data. As well.

次に、モーションコントラストデータからOCTA画像を生成する手順について説明する。モーションコントラストデータにおいて、注目箇所の深さ方向に上端と下端を設定し、その間の領域において、投影を行うことでOCTA画像を生成する。   Next, a procedure for generating an OCTA image from motion contrast data will be described. In the motion contrast data, the upper end and the lower end are set in the depth direction of the target location, and an OCTA image is generated by performing projection in the region between them.

本明細書における画像生成部304の機能の一例を、図3を用いて説明する。図3に示す機能は、画像生成部304と同様にプロセッサ等により実現される。   An example of the function of the image generation unit 304 in this specification will be described using FIG. The function illustrated in FIG. 3 is realized by a processor or the like as in the image generation unit 304.

元データ入力部401は、断層像データやモーションコントラストデータなど、Enface画像を生成するための元データを取得し、対象範囲選択部402、およびEnface画像生成部404に通知する。具体的には、元データ入力部入力部401は、再構成部301が生成した三次元断層像データおよびモーションコントラスト生成部302が生成した三次元モーションコントラストデータを取得し、対象範囲選択部402、およびEnface画像生成部404に入力する。ここで、三次元断層像データおよび三次元モーションコントラストデータは三次元画像の一例に相当する。そして、元データ入力部入力部401は、被検眼の三次元画像を取得する取得手段の一例に相当する。なお、元データ入力部401は、Enface画像生成部404にのみ元データを入力することとしてもよい。なお、元データには三次元断層像データおよび三次元モーションコントラストデータが含まれる。   The original data input unit 401 acquires original data for generating an Enface image, such as tomographic image data and motion contrast data, and notifies the target range selection unit 402 and the Enface image generation unit 404 of the original data. Specifically, the original data input unit input unit 401 acquires the three-dimensional tomographic image data generated by the reconstruction unit 301 and the three-dimensional motion contrast data generated by the motion contrast generation unit 302, and the target range selection unit 402, And the Enface image generation unit 404. Here, the three-dimensional tomographic image data and the three-dimensional motion contrast data correspond to an example of a three-dimensional image. The original data input unit input unit 401 corresponds to an example of an acquisition unit that acquires a three-dimensional image of the eye to be examined. The original data input unit 401 may input the original data only to the Enface image generation unit 404. The original data includes three-dimensional tomographic image data and three-dimensional motion contrast data.

対象範囲選択部402は、元データにおいてEnface画像を生成するための対象範囲を選択し、選択した対象範囲を投影方法選択部403、およびEnface画像生成部404に通知する。対象範囲選択部402は、例えばポインティングデバイス320またはキーボード321を介したユーザから入力に応じてEnface画像を生成するための対象範囲を選択する。対象範囲とは例えば深さ方向の範囲および/または眼底表面方向における範囲である。対象範囲選択部402は、ユーザの入力に応じて元データにおいて矩形やベジェ曲線など任意の形状を用いて対象範囲を選択しても良いし、別の任意の方法により対象範囲を選択しても良い。なお、対象範囲選択部402は、Enface画像を生成するための既定の対象範囲が存在する場合には、自動的に対象範囲を決定することができる。   The target range selection unit 402 selects a target range for generating an Enface image in the original data, and notifies the projection method selection unit 403 and the Enface image generation unit 404 of the selected target range. The target range selection unit 402 selects a target range for generating an Enface image according to an input from the user via the pointing device 320 or the keyboard 321, for example. The target range is, for example, a range in the depth direction and / or a range in the fundus surface direction. The target range selection unit 402 may select a target range using an arbitrary shape such as a rectangle or a Bezier curve in the original data according to the user's input, or may select the target range by another arbitrary method. good. The target range selection unit 402 can automatically determine the target range when there is a predetermined target range for generating the Enface image.

投影方法選択部403は、対象範囲に基づいて投影方法を選択し、選択した投影方法をEnface画像生成部404に通知する。すなわち、投影方法選択部403は、Enface画像を生成するための投影方法を、対象範囲に応じて決定する投影方法決定手段の一例に相当する。投影方法選択部403は選択された対象範囲における深度範囲を基に投影方法を選択する。投影方法選択部403は、例えば、メモリに記憶された対象範囲と投影方法とが対応づけられた情報に基づいて投影方法を選択することができる。   The projection method selection unit 403 selects a projection method based on the target range, and notifies the Enface image generation unit 404 of the selected projection method. That is, the projection method selection unit 403 corresponds to an example of the projection method determination unit that determines the projection method for generating the Enface image according to the target range. The projection method selection unit 403 selects a projection method based on the depth range in the selected target range. The projection method selection unit 403 can select the projection method based on, for example, information in which the target range stored in the memory and the projection method are associated with each other.

Enface画像生成部404は、元データと対象範囲と投影方法を基にしてEnface画像を生成し、生成したEnface画像を表示部405に通知する。表示部405はEnface画像を表示する。すなわち、Enface画像生成部404は、三次元画像に基づいてEnFace画像を生成するEnFace画像生成手段の一例に相当する。   The Enface image generation unit 404 generates an Enface image based on the original data, the target range, and the projection method, and notifies the display unit 405 of the generated Enface image. The display unit 405 displays the Enface image. That is, the Enface image generation unit 404 corresponds to an example of an EnFace image generation unit that generates an EnFace image based on a three-dimensional image.

本実施例では、投影方法選択部403は、対象範囲の深度範囲の広さに基づいて、たとえば最大値投影(MIP)および平均値投影(AIP)のいずれを用いるかを判定する。本実施例では、以下のようにAIPとMIPを定義する。
・AIP:対象範囲内の深さ方向の値の平均値を投影する
・MIP:ノイズ対策として深さ方向に移動平均で平滑化後に最大値を投影する
なお、MIPとして深さ方向に上位数%を除外した後の値の最大値を投影することとしてもよい。また、MIPにおける平滑化方法は移動平均に限定されるものではなく他の方法で平滑化することとしてもよい。また、MIPにおいて必ずしも平滑化を行う必要はない。
In the present embodiment, the projection method selection unit 403 determines which of maximum value projection (MIP) and average value projection (AIP) to use, for example, based on the width of the depth range of the target range. In this embodiment, AIP and MIP are defined as follows.
・ AIP: The average value of the values in the depth direction in the target range is projected ・ MIP: The maximum value is projected after smoothing by moving average in the depth direction as a measure against noise Note that the top few in the depth direction as MIP It is also possible to project the maximum value of the values after excluding. Further, the smoothing method in MIP is not limited to the moving average, and may be smoothed by another method. Also, in MIP, it is not necessary to perform smoothing.

Enface画像において、ノイズが少なく滑らかな構造を観察するためにAIPで投影を行う場合がある。一方、投影範囲における深度範囲が広い場合、脈絡膜新生血管などの局所的に諧調が突出した部位の情報が埋没してしまう可能性がある。具体的には、図6で示す断層像において、層601と層602との間を投影の対象範囲に設定した場合、脈絡膜新生血管603は破線矢印で示す投影の対象範囲604の範囲で平均化される。結果、図7で示す投影後のEnface画像において、脈絡膜新生血管701は十分なコントラストを得られないことがある。そのため、図8で示すように、ノイズが増加したとしても、観察対象(脈絡膜新生血管801)が観察できるMIPで投影することが望ましい場合がある。   In Enface images, projection may be performed with AIP in order to observe a less noisy and smooth structure. On the other hand, in the case where the depth range in the projection range is wide, there is a possibility that information of a locally tone-protruded area such as choroidal neovascularization may be buried. Specifically, in the tomographic image shown in FIG. 6, when the layer 601 and the layer 602 are set as the target range of projection, the choroidal neovascular vessel 603 is averaged in the range of the target range 604 of projection indicated by the dashed arrow. Be done. As a result, in the Enface image after projection shown in FIG. 7, the choroidal neovascularization 701 may not be able to obtain sufficient contrast. Therefore, as shown in FIG. 8, even if the noise increases, it may be desirable in some cases to project with MIP that allows the observation target (choroidal neovascularization 801) to be observed.

投影方法選択部403は、例えば、観察対象である新生血管の直径のサイズ(仮に5μm)を基に、深度範囲の閾値X(仮に20μm)を設定し、Enface画像を生成する深度範囲の最大値が閾値Xを超える場合、MIPを選択し、Enface画像を生成する深度範囲が閾値X以下であればAIPを選択する。なお、観察対象のサイズによらず閾値を予め定められたものとすることとしてもよい。すなわち、投影方法選択部403は、Enface画像を生成する深度範囲の大きさが予め定められた閾値を超える場合には投影方法としてMIPを選択し、nface画像を生成する深度範囲の大きさが予め定められた閾値以下であればAIPを選択する。   The projection method selection unit 403 sets the threshold X (temporarily 20 μm) of the depth range based on, for example, the diameter size (temporarily 5 μm) of the new blood vessel to be observed, and the maximum value of the depth range where the Enface image is generated. If the threshold value X exceeds the threshold value X, the MIP is selected, and if the depth range for generating the Enface image is equal to or smaller than the threshold value X, the AIP is selected. Note that the threshold may be determined in advance regardless of the size of the observation target. That is, when the size of the depth range for generating the Enface image exceeds a predetermined threshold, the projection method selection unit 403 selects MIP as the projection method, and the size of the depth range for generating the nface image is in advance. If it is below the defined threshold value, AIP is selected.

なお、本実施例では投影方法としてAIPとMIPに焦点を当てて説明するが、中央値投影や最頻値投影などの投影方法を使用しても構わない。   Although the present embodiment will be described focusing on AIP and MIP as a projection method, a projection method such as median projection or mode projection may be used.

また、投影方法選択部403は、対象範囲の深度に基づいてたとえば、プロジェクションアーティファクトの除去処理の実施の要否を判定することとしてもよい。モーションコントラスト画像において、たとえば網膜色素上皮下のモーションコントラスト画像で上層の血管と同じ血管が偽血管として描出される、あるいは外顆粒層などの輝度が低い領域周辺のモーションコントラスト画像で、上層の血管の影が描出されるなどのプロジェクションアーティファクトが発生しやすい。このため、対象範囲選択部402で指定された深度が所定の閾値よりも深い場合(脈絡膜側である場合)、プロジェクションアーティファクトを除去する処理を行うことが望ましい。すなわち、投影方法選択部403は、対象範囲選択部402が選択した対象範囲の深度が所定の閾値よりも深い位置を含む場合、プロジェクションアーティファクトの除去を実施すると判定し、対象範囲選択部402が選択した対象範囲の深度が所定の閾値よりも深い位置を含まない場合、プロジェクションアーティファクトの除去を実施しないと判定する。なお、投影方法選択部403は、、プロジェクションアーティファクトの除去を実施するか否かの判定を行わなくてもよい。なお、プロジェクションアーティファクトの除去方法は公知の種々の手法を用いることが可能である。例えば、Enface画像を生成した深さ範囲より硝子体側に含まれる血管を特定し、特定された血管をEnface画像から減算することでプロジェクションアーティファクトを除去することが可能である。   In addition, the projection method selection unit 403 may determine, for example, whether or not the removal process of the projection artifact is necessary based on the depth of the target range. In the motion contrast image, for example, in the motion contrast image of the retinal pigment subepithelium, the same blood vessel as the upper blood vessel is depicted as a false blood vessel, or in the motion contrast image of a low brightness region such as the outer granular layer, the upper blood vessel Projection artifacts such as shadows are easily generated. Therefore, when the depth specified by the target range selection unit 402 is deeper than the predetermined threshold (in the case of the choroid), it is desirable to perform processing for removing the projection artifact. That is, when the depth of the target range selected by the target range selection unit 402 includes a position deeper than a predetermined threshold, the projection method selection unit 403 determines that the projection artifact is to be removed, and the target range selection unit 402 selects If the depth of the target range does not include a position deeper than a predetermined threshold, it is determined that the removal of the projection artifact is not performed. Note that the projection method selection unit 403 may not determine whether to remove the projection artifact. In addition, it is possible to use a well-known various method of the removal method of a projection artifact. For example, it is possible to identify a blood vessel included on the vitreous side from the depth range in which the Enface image is generated, and to subtract the identified blood vessel from the Enface image to remove a projection artifact.

本明細書における処理の流れの基本形を図5のフローチャートを用いて説明する。   The basic form of the process flow in this specification will be described using the flowchart of FIG.

S501において、対象範囲選択部402は、ユーザの入力に応じてあるいは自動的に、投影する対象範囲を選択する。S502において、投影方法選択部403は、対象範囲における深度範囲が観察対象に対して十分に広いか否かを判定する。なお、投影方法選択部403は、S502において、単に深度範囲が閾値より大きいか否かを判定することとしてもよい。対象範囲選択部402は、対象範囲における深度範囲が観察対象に対して十分に狭い場合、S504で、対象範囲選択部402は、投影方法としてAIPを選択する。S502において、対象範囲における深度範囲が観察対象に対して広い場合、S503で、対象範囲選択部402は投影方法としてMIPを選択する。その後、S505において、選択した投影方法でEnface画像を生成する。   In S501, the target range selection unit 402 selects a target range to be projected according to the user's input or automatically. In step S502, the projection method selection unit 403 determines whether the depth range in the target range is sufficiently wide relative to the observation target. Note that the projection method selection unit 403 may simply determine whether or not the depth range is larger than the threshold in S502. If the depth range in the target range is sufficiently narrow relative to the observation target, the target range selection unit 402 selects AIP as the projection method in S504. If the depth range in the target range is wider than the observation target in S502, the target range selection unit 402 selects MIP as the projection method in S503. Thereafter, in step S505, an Enface image is generated by the selected projection method.

本実施例によれば、Enface画像を生成する深度範囲の大きさに応じて投影方法が選択されるため、投影方法が固定の場合に比べ適切なEnface画像を生成することが可能となる。   According to this embodiment, since the projection method is selected according to the size of the depth range for generating the Enface image, it is possible to generate an Enface image more appropriate than when the projection method is fixed.

また、適切な投影方法が自動的に選択されるため、簡単に適切なEnface画像を生成することが可能となる。   In addition, since an appropriate projection method is automatically selected, it is possible to easily generate an appropriate Enface image.

<実施形態1の変形例>
次に、実施形態1の変形例について説明する。本実施形態においては、Enface画像を生成するための画像処理モードに応じてEnface画像を生成する対象範囲(深度範囲)が選択される。
<Modification of Embodiment 1>
Next, a modification of the first embodiment will be described. In the present embodiment, a target range (depth range) for generating the Enface image is selected according to the image processing mode for generating the Enface image.

実施形態1の変形例に係る装置構成を、図4を用いて説明する。本実施例では、ユーザが対象範囲を選択しやすくするために、図3で説明した基本形に対して、画像処理モード選択部410が追加されている。本実施例では、ユーザが画像処理モードを選択することで、画像処理装置300は自動的に対象範囲を選択し、投影方法を決定する。画像処理モード選択部410は、例えばポインティングデバイス320またはキーボード321を介したユーザから入力に応じて、複数の画像処理モードから任意の画像処理モードを選択する。すなわち、画像処理モード選択部410はEnface画像を生成するための対象範囲を示すモードを複数のモードから選択する選択手段の一例に相当する。   An apparatus configuration according to a modification of the first embodiment will be described with reference to FIG. In the present embodiment, an image processing mode selection unit 410 is added to the basic form described in FIG. 3 in order to make it easy for the user to select a target range. In the present embodiment, when the user selects the image processing mode, the image processing apparatus 300 automatically selects the target range and determines the projection method. The image processing mode selection unit 410 selects an arbitrary image processing mode from a plurality of image processing modes in accordance with an input from the user via the pointing device 320 or the keyboard 321, for example. That is, the image processing mode selection unit 410 corresponds to an example of a selection unit that selects a mode indicating a target range for generating an Enface image from a plurality of modes.

本実施例では、画像処理モードの一例として、脈絡膜新生血管の描出に適したCNVモードと、表層の血管の描出に適した表層血管モードを定義する。CNVモードは、脈絡膜新生血管が存在する可能性がある箇所としてOPL(Outer Plex Layer) とONL(Outer Nuclear Layer)との境界(上端)からブルッフ膜(下端)の間をEnface画像の生成の対象領域として選択するモードである。表層血管モードは、表層血管を観察しやすくするためにILM(Inner Nuclear Layer)(上端)からGCL(Ganglion Cell Layer)とIPL(Inner Plexiform Lyaer)との境界(下端)の間を対象領域として選択する。このとき、各血管が境界を超えて存在する可能性を考慮して、上端と下端にマージンを設けても良い。ここで、CNVモードはOPL(Outer Plex Layer)とONL(Outer Nuclear Layer)との境界およびブルッフ膜に基づいて規定される範囲がEnface画像生成の対象範囲として対応付けられた第1モードの一例に相当する。また、表層血管モードは、ILM(Inner Nuclear Layer)(上端)およびGCL(Ganglion Cell Layer)とIPL(Inner Plexiform Lyaer)との境界に基づいて規定される範囲がEnface画像生成の対象範囲として対応付けられた第2モードの一例に相当する。   In this embodiment, as an example of the image processing mode, a CNV mode suitable for depiction of choroidal neovascularization and a superficial blood vessel mode suitable for depiction of superficial blood vessels are defined. The CNV mode is the target of Enface image generation between the boundary (upper end) of OPL (Outer Plex Layer) and ONL (Outer Nuclear Layer) to the Bruch's membrane (lower end) as a place where choroidal neovascularization may exist. This is a mode to select as a region. The surface vascular mode is selected as a target region between the boundary (lower end) of ICL (Inner Nuclear Layer) (upper end) to GCL (Ganglion Cell Layer) and IPL (Inner Plexiform Lyaer) to facilitate observation of the superficial blood vessel. Do. At this time, margins may be provided at the upper end and the lower end in consideration of the possibility that each blood vessel exists beyond the boundary. Here, the CNV mode is an example of a first mode in which a range defined based on the boundary between OPL (Outer Plex Layer) and ONL (Outer Nuclear Layer) and the Bruch film is associated as a target range for Enface image generation. Equivalent to. In the superficial vascular mode, a range defined based on an ILM (Inner Nuclear Layer) (upper end) and a boundary between a GCL (Ganglion Cell Layer) and an IPL (Inner Plexiform Lyaer) corresponds as a target range for Enface image generation. This corresponds to an example of the second mode.

なお、画像処理モードは上記の例に限定されるものではなく、3以上のモードを備えることとしてもよい。また、画像処理モード選択部410は、CNVという注目部位を選択するものであり、Enface画像を生成するための対象部位を選択する対象部位選択手段の一例に相当する。   Note that the image processing mode is not limited to the above example, and three or more modes may be provided. The image processing mode selection unit 410 selects a target region of CNV, and corresponds to an example of a target region selection unit that selects a target region for generating an Enface image.

本実施形態における処理の流れを図9のフローチャートを用いて説明する。S901において、ユーザからの入力に応じて画像処理モード選択部410は画像処理モードを選択する。S501において、画像処理モード選択部410は、選択された画像処理モードに対応づけられた対象範囲を自動選択する。   The flow of processing in the present embodiment will be described using the flowchart of FIG. In step S901, the image processing mode selection unit 410 selects an image processing mode in accordance with an input from the user. In step S501, the image processing mode selection unit 410 automatically selects a target range associated with the selected image processing mode.

S902において、投影方法選択部403は、選択された画像処理モードによりEnface画像を生成するための処理を切り替える。すなわち、投影方法選択部403は、Enface画像を生成するための投影方法を、選択されたモードに応じて決定する投影方法決定手段の一例に相当する。   In step S902, the projection method selection unit 403 switches the process for generating the Enface image according to the selected image processing mode. That is, the projection method selection unit 403 corresponds to an example of a projection method determination unit that determines the projection method for generating the Enface image according to the selected mode.

ここで、脈絡膜新生血管は、たとえば図13に示すように、RPEの隆起1301を伴う場合がある。このような場合、図13の太線1302および1303で示す対象範囲における深度範囲1304部分的に大きくなるため、AIPでは脈絡膜新生血管が描出できない場合がある。また、本実施例のCNVモードの場合、脈絡膜新生血管に対し、対象範囲における深度範囲の広さが十分大きいため、投影方法選択部403は、S503でMIPを選択する。また、対象範囲の深度が所定の閾値より深いため、投影方法選択部403は、S903において、プロジェクションアーティファクト除去処理を行う設定とする。一方、一般的に表層血管は脈絡膜新生血管に比べ太く高反射であるため、モーションコントラスト画像において高輝度で描出されやすい。このため、表層血管モードの場合、投影方法選択部403は、S504でAIPを選択する。また、投影方法選択部403は、対象範囲の深度が所定の閾値より浅いため、S904において、プロジェクションアーティファクト除去処理は行わない設定とする。S505において、Enface画像生成部404は、S503、S903あるいはS504、S904で選択された投影方法に基づいてEnface画像を生成し、表示制御部405はモニタ310に表示させる。すなわち、本実施形態ではCNVモードには投影方法としてMIPがデフォルトとして対応づけられ、表層血管モードには投影方法としてAIPがデフォルトとして対応付けられていることとなる。   Here, choroidal neovascularization may be accompanied by ridges 1301 of RPE, for example as shown in FIG. In such a case, since the depth range 1304 in the target range shown by thick lines 1302 and 1303 in FIG. 13 is partially enlarged, there are cases where the AIP can not visualize the choroidal neovascularization. Further, in the case of the CNV mode of the present embodiment, the width of the depth range in the target range is sufficiently large for the choroidal neovascularization, so the projection method selection unit 403 selects the MIP in S503. In addition, since the depth of the target range is deeper than the predetermined threshold, the projection method selection unit 403 is set to perform projection artifact removal processing in S903. On the other hand, since superficial blood vessels are generally thicker and highly reflective than choroidal neovascularization, they are likely to be visualized with high brightness in motion contrast images. Therefore, in the case of the superficial blood vessel mode, the projection method selection unit 403 selects AIP in S504. Further, since the depth of the target range is shallower than the predetermined threshold, the projection method selection unit 403 does not perform the projection artifact removal process in S904. In step S505, the Enface image generation unit 404 generates an Enface image based on the projection method selected in S503, S903, or S504, and S904, and the display control unit 405 causes the monitor 310 to display the Enface image. That is, in the present embodiment, MIP is associated with the CNV mode as a projection method as a default, and AIP is associated as a projection method as a default.

このように、本実施形態では、ユーザが選択した画像処理モードに応じて自動的にEnface画像を生成するための深さ範囲および投影方法が選択されるため、ユーザは簡単に適切なEnface画像を観察することが可能となる。   As described above, in the present embodiment, the depth range and the projection method for automatically generating the Enface image are selected according to the image processing mode selected by the user, so the user can easily select an appropriate Enface image. It becomes possible to observe.

なお、本実施例では広範囲の脈絡膜新生血管を観察するためのCNVモードの例を示したが、特定の層に存在する網膜新生血管を観察したい場合もある。そこで、対象領域を、例えばブルッフ膜周辺のみに限定した別のCNVモードを定義しても良い。この場合、対象範囲が観察対象である脈絡膜新生血管に対して広くないため、AIPを使用しても情報が埋没しにくい。このため、ノイズ低減を優先して、AIPを選択することができる。すなわち、新生血管を観察対象とする画像処理モードであったとしても、投影方法選択部403は、Enface画像を生成するための深さ範囲の広さに基づいて投影方法を選択することとしてもよい。   In addition, although the example of the CNV mode for observing a wide range choroidal neovascularization was shown in a present Example, it may be desired to observe the retinal neovascularization which exists in a specific layer. Therefore, another CNV mode may be defined in which the target region is limited only to, for example, the Bruch film periphery. In this case, since the target range is not wide relative to the choroidal neovascularization to be observed, the information is unlikely to be buried even if AIP is used. Therefore, AIP can be selected with priority given to noise reduction. That is, even in the image processing mode in which a new blood vessel is to be observed, the projection method selection unit 403 may select the projection method based on the width of the depth range for generating the Enface image. .

なお、本実施例では、画像処理モード選択時に自動的に対象範囲や投影方法を決定する構成としたがこれに限定されない。たとえば、被検眼の断層像データから層境界を検出後、層厚を算出し、投影方法を決定する構成にしてもよい。また、決定する投影方法として、対象範囲や層厚に応じてコントラストやノイズ低減パラメータなどを決定する構成にしてもよい。これにより、観察対象に応じたEnface画像を生成することが可能となる。   In this embodiment, the target range and the projection method are automatically determined when the image processing mode is selected. However, the present invention is not limited to this. For example, after detecting a layer boundary from tomographic image data of an eye to be examined, a layer thickness may be calculated to determine a projection method. In addition, as a projection method to be determined, the contrast, the noise reduction parameter, and the like may be determined according to the target range and the layer thickness. This makes it possible to generate an Enface image according to the observation target.

なお、本実施例では、対象範囲の深度に基づいて、投影方法を一意に決定することとしたが、これに限定されない。たとえば、すでに同一被検眼に対して生成したEnface画像が存在する場合、上記方法により優先的に使用する投影方法を決定する構成にしてもよい。   In the present embodiment, the projection method is uniquely determined based on the depth of the target range, but is not limited to this. For example, when an Enface image generated for the same subject eye already exists, the projection method to be preferentially used may be determined by the above method.

また、プロジェクションアーティファクト除去は必須の処理ではない。   Also, projection artifact removal is not an essential process.

なお、本実施形態ではCNVモードには投影方法としてMIPがデフォルトとして対応づけられ、表層血管モードには投影方法としてAIPがデフォルトとして対応付けられているが、ユーザからの指示に応じて投影方法は任意の方法に変更可能である。   In the present embodiment, the CNV mode is associated with MIP as a projection method as a default, and the superficial blood vessel mode is associated with AIP as a projection method as a default. However, according to an instruction from the user, the projection method is It can be changed in any way.

<実施形態2>
実施形態1では、対象範囲の深度方向の情報に基づいて投影方法を選択する構成を説明した。本実施例では、深度方向に垂直な平面における対象範囲の領域に基づいて投影方法を選択する構成について説明する。すなわち、本実施例においては、深さ方向に直交する平面における範囲に基づいてEnface画像を生成するための投影方法が決定される。
Second Embodiment
In the first embodiment, the configuration for selecting the projection method based on the information in the depth direction of the target range has been described. In this embodiment, a configuration will be described in which the projection method is selected based on the area of the target range in the plane perpendicular to the depth direction. That is, in the present embodiment, the projection method for generating the Enface image is determined based on the range in the plane orthogonal to the depth direction.

なお、本実施例における装置構成は、実施例1と同様である。また、本実施例における深度方向の対象範囲は、例えば網膜全層とする。   The apparatus configuration in the present embodiment is the same as that in the first embodiment. Further, the target range in the depth direction in the present embodiment is, for example, the entire retina.

本実施例では、画像処理モードとして、黄斑モードと視神経乳頭モードを定義する。黄斑周辺の病変は被験者の視覚に大きく影響することがある。黄斑をEnface画像の背生成対象とする黄斑モードと視神経乳頭をEnface画像の生成対象とする視神経乳頭モードとは、深さ方向に直交する平面におけるそれぞれ異なる対象範囲を示すモードである。   In the present embodiment, a macular mode and an optic disc mode are defined as the image processing mode. Lesions around the macula can greatly affect the subject's vision. The macular mode in which the macula is the back generation target of the Enface image and the optic nerve head mode in which the optic nerve head is the generation target of the Enface image are modes indicating different target ranges in a plane orthogonal to the depth direction.

このため、黄斑モードの場合、なるべく局所的な特徴も観察するため、投影方法選択部403は投影方法としてMIPを選択する。一方、視神経乳頭部周辺は、深度方向にも血管が走行するなど、他の部位とは異なる構造をしている。このため、視神経乳頭モードの場合、視神経乳頭周辺を全体的に観察するために投影方法選択部403はAIPを選択する。すなわち、投影方法選択部403は、画像処理モード選択部410が黄斑モードを選択した場合、投影方法としてMIPを選択し、画像処理モード選択部410が視神経乳頭モードを選択した場合、投影方法としてAIPを選択する。   Therefore, in the case of the macular mode, the projection method selection unit 403 selects MIP as a projection method in order to observe local features as much as possible. On the other hand, the area around the optic papilla has a different structure from other parts, such as blood vessels running in the depth direction. For this reason, in the case of the optic disc mode, the projection method selection unit 403 selects the AIP in order to observe the entire optic disc area. That is, the projection method selection unit 403 selects MIP as the projection method when the image processing mode selection unit 410 selects the macular mode, and AIP as the projection method when the image processing mode selection unit 410 selects the optic disc mode. Choose

このときの処理の流れを図10のフローチャートを用いて、実施例1で説明した図9のフローチャートとの差分を説明する。S902において、投影方法選択部403は、選択された画像処理モードを判定する。黄斑モードが選択されていた場合、S503で投影方法選択部403は投影方法としてMIPを選択する。視神経乳頭モードの場合、S504で投影方法選択部403は投影方法としてAIPを選択する。また、深度方向の対象範囲として網膜全層を想定しているため、プロジェクションアーティファクト除去は不要であるため、S904において、プロジェクションアーティファクト除去の不要を選択する。なお、プロジェクションアーティファクト除去は必須の処理でない。   The flow of the process at this time will be described using the flowchart of FIG. 10 and the difference from the flowchart of FIG. 9 described in the first embodiment. In step S902, the projection method selection unit 403 determines the selected image processing mode. If the macular mode is selected, the projection method selection unit 403 selects MIP as the projection method in S503. In the case of the optic disc mode, the projection method selection unit 403 selects AIP as the projection method in S504. Further, since the entire retinal layer is assumed as the target range in the depth direction, projection artifact removal is unnecessary. Therefore, in S904, it is selected that projection artifact removal is unnecessary. Note that projection artifact removal is not an essential process.

本実施例では部位に応じて投影方法を選択する方法を示した。なお、眼底の特徴として利用する値は部位情報に限らず、任意の方法で病変情報などを取得して利用しても良い。   In this embodiment, the method of selecting the projection method according to the part is shown. The value used as the feature of the fundus is not limited to site information, and lesion information and the like may be acquired and used by any method.

上記の方法により、深度方向に垂直な平面における対象範囲に応じた適切なEnface画像を生成することができる。   According to the above-described method, it is possible to generate an Enface image appropriate for the target range in a plane perpendicular to the depth direction.

<実施形態3>
実施形態1および2では、画像処理モードに基づいて対象範囲および投影方法を選択し、Enface画像を生成する例を説明した。本実施例では、実施例1に示す基本形の構成の一部を変更して、複数のEnface画像を生成して表示する例を説明する。
Embodiment 3
In the first and second embodiments, an example in which the target range and the projection method are selected based on the image processing mode and the Enface image is generated is described. In this embodiment, an example will be described in which a plurality of Enface images are generated and displayed by changing a part of the configuration of the basic form shown in the first embodiment.

実施例1でも説明したように、投影方法としてMIPを選択した場合、コントラストが高く、細かな構造を観察できるが、ノイズが多い傾向にある。逆に、投影方法としてAIPを選択した場合、ノイズが少なく滑らかな構造を観察できるが、局所的に諧調が突出した部位の情報が埋没する可能性がある。MIPで投影して生成したEnface画像(以下、MIP−Enface画像)とAIPで投影して生成したEnface画像(以下、AIP−Enface画像)を比較することで、単体では観察しづらい箇所を補助的に観察することが可能になる。本実施例では、Enface画像生成部404は、MIP−Enface画像とAIP−Enface画像の両方を生成する。そして、表示制御部405は、MIP−Enface画像とAIP−Enface画像の両方をモニタ310に表示させる。これにより、ユーザは、表示された複数の投影方法の画像を参照して、Enface画像の投影方法を、入力された元データの状態に応じて適応的に選択することができる。   As described in the first embodiment, when the MIP is selected as the projection method, the contrast is high, and a fine structure can be observed, but there is a tendency that there are many noises. On the contrary, when AIP is selected as the projection method, although a smooth structure with less noise can be observed, there is a possibility that the information of the portion where the gradation is locally projected may be buried. By comparing the Enface image generated by projecting with MIP (hereinafter referred to as MIP-Enface image) with the Enface image generated by projecting with AIP (hereinafter referred to as AIP-Enface image), it is possible to support a part that is difficult to observe alone. It becomes possible to observe. In the present embodiment, the Enface image generation unit 404 generates both the MIP-Enface image and the AIP-Enface image. Then, the display control unit 405 causes the monitor 310 to display both the MIP-Enface image and the AIP-Enface image. Thereby, the user can adaptively select the projection method of the Enface image according to the state of the input original data with reference to the displayed images of the plurality of projection methods.

本実施例における装置構成を、図12を用いて説明する。図3で説明した基本形に対して、優先度決定部1201を追加している。投影方法選択部403は複数の投影方法を選択し、Enface画像生成部404および優先度決定部1201に通知する。Enface画像生成部404は、複数の投影方法を基に複数のEnface画像を生成する。優先度決定部1201は、各投影方法で生成されるEnface画像に優先度を付与し、表示部405に通知する。表示制御部405は、例えば優先度の高いEnface画像を初期表示する。ユーザが現在モニタに表示されているEnFace画像とは異なる他のEnFace画像を観察したい場合、表示制御部405は例えばユーザからの指示に応じて他のEnFace画像に切り替えてモニタ310に表示させることができる。このとき、複数の投影方法に基づくEnFace画像は生成済みのため、即座に別の投影方法によるEnFace画像を確認することができる。   The apparatus configuration in the present embodiment will be described with reference to FIG. A priority determination unit 1201 is added to the basic form described in FIG. The projection method selection unit 403 selects a plurality of projection methods and notifies the Enface image generation unit 404 and the priority determination unit 1201. The Enface image generation unit 404 generates a plurality of Enface images based on a plurality of projection methods. The priority determining unit 1201 gives priorities to Enface images generated by the respective projection methods, and notifies the display unit 405 of the Enface images. The display control unit 405 initially displays, for example, a high-priority Enface image. When the user wants to observe another EnFace image different from the EnFace image currently displayed on the monitor, the display control unit 405 may switch to another EnFace image according to an instruction from the user and cause the monitor 310 to display the image. it can. At this time, since EnFace images based on a plurality of projection methods have been generated, it is possible to immediately confirm EnFace images by another projection method.

ここで、処理の流れを図11のフローチャートを用いて説明する。S501において、、ユーザの入力に応じてあるいは自動的に、Enface画像を生成する深度範囲を含む対象範囲を選択する。S1101において、Enface画像生成部404は、MIP−Enface画像とAIP−Enface画像とを生成する。S502において、優先度決定部1201は、対象範囲における深度範囲が観察対象に対して例えば十分に狭い場合、S1103でAIP−Enface画像の優先度をMIP−Enface画像の優先度より高くする。S502において、優先度決定部1201は、対象範囲における深度範囲が観察対象に対して広い場合、S1102でMIP−Enface画像の優先度をAIP−Enface画像の優先度を高くする。S1104において、優先度の高いEnface画像を表示する。なお、優先度決定部1201は、Enface画像を生成する深度範囲が閾値より大きい場合に、MIP−Enface画像の優先度をAIP−Enface画像の優先度より高くし、Enface画像を生成する深度範囲が閾値より小さい場合に、AIP−Enface画像の優先度をMIP−Enface画像の優先度より高くしてもよい。   Here, the flow of processing will be described using the flowchart of FIG. In S501, a target range including a depth range for generating the Enface image is selected according to the user's input or automatically. In step S1101, the Enface image generation unit 404 generates a MIP-Enface image and an AIP-Enface image. In step S502, when the depth range in the target range is, for example, sufficiently narrow relative to the observation target, the priority determining unit 1201 sets the priority of the AIP-Enface image higher than the priority of the MIP-Enface image in S1103. In step S502, when the depth range in the target range is wider than the observation target, the priority determining unit 1201 increases the priority of the MIP-Enface image to the priority of the AIP-Enface image in step S1102. In step S1104, a high-priority Enface image is displayed. If the depth range for generating the Enface image is larger than the threshold, the priority determining unit 1201 makes the priority of the MIP-Enface image higher than the priority of the AIP-Enface image, and the depth range for generating the Enface image is If it is smaller than the threshold, the priority of the AIP-Enface image may be higher than the priority of the MIP-Enface image.

なお、本実施例では優先度の高いEnFace画像を初期表示とする構成としたがこれに限定されない。例えば生成した複数のEnface画像を1画面に全て並べて表示しても良い。この場合、優先度の高いEnface画像を識別できるように、対象のEnface画像に丸などの記号を付けたり、他のEnface画像より大きく表示するなどすることができる。   In the present embodiment, the EnFace image with high priority is initially displayed, but the present invention is not limited to this. For example, a plurality of generated Enface images may be displayed side by side on one screen. In this case, it is possible to add a symbol such as a circle to the target Enface image or display the Enface image larger than other Enface images so that the Enface image having high priority can be identified.

本実施例では、MIPとAIPの変更により複数のEnface画像を生成する方法を示したが、プロジェクションアーティファクト除去設定の有無、コントラストやノイズ低減パラメータを変更することにより複数のEnface画像を生成しても良い。   Although this embodiment shows a method of generating a plurality of Enface images by changing MIP and AIP, even if a plurality of Enface images are generated by changing the presence or absence of projection artifact removal setting, contrast, and noise reduction parameters. good.

上記の方法により、別の投影方法で生成されたEnface画像を補助的に観察することができるとともに入力された元データに応じて適応的にEnFace画像の投影方法を変更することができる。   According to the above method, Enface images generated by another projection method can be additionally observed, and the projection method of EnFace images can be adaptively changed according to the input original data.

<その他の実施形態>
以上、実施形態例を詳述したが、開示の技術は例えば、システム、装置、方法、プログラム若しくは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インタフェース機器、撮像装置、webアプリケーション等)から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
<Other Embodiments>
The exemplary embodiments have been described above in detail, but the disclosed technology can be embodied as, for example, a system, an apparatus, a method, a program, or a recording medium (storage medium). Specifically, the present invention may be applied to a system configured of a plurality of devices (for example, a host computer, interface device, imaging device, web application, etc.), or may be applied to a device including one device. good.

また、本発明の目的は、以下のようにすることによって達成されることはいうまでもない。即ち、前述した実施形態の機能を実現するソフトウェアのプログラムコード(コンピュータプログラム)を記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。   Further, it goes without saying that the object of the present invention can be achieved by the following. That is, a recording medium (or storage medium) storing a program code (computer program) of software for realizing the functions of the above-described embodiments is supplied to a system or apparatus. Such storage media are, of course, computer readable storage media. Then, the computer (or CPU or MPU) of the system or apparatus reads out and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium implements the functions of the above-described embodiments, and the recording medium recording the program code constitutes the present invention.

Claims (12)

被検眼の三次元画像を取得する取得手段と
前記三次元画像に基づいてEnFace画像を生成するEnFace画像生成手段と、
前記Enface画像を生成するための対象範囲を選択する対象範囲選択手段と、
前記Enface画像を生成するための投影方法を、前記対象範囲に応じて決定する投影方法決定手段と、を有することを特徴とする画像処理装置。
Acquisition means for acquiring a three-dimensional image of an eye to be examined; EnFace image generation means for generating an EnFace image based on the three-dimensional image;
Target range selecting means for selecting a target range for generating the Enface image;
An image processing apparatus comprising: projection method determination means for determining a projection method for generating the Enface image according to the target range.
被検眼の三次元画像を取得する取得手段と
前記三次元画像に基づいてEnFace画像を生成するEnFace画像生成手段と、
前記Enface画像を生成するための対象範囲を示すモードを複数のモードから選択する選択手段と、
前記Enface画像を生成するための投影方法を、前記選択されたモードに応じて決定する投影方法決定手段と、を有することを特徴とする画像処理装置。
Acquisition means for acquiring a three-dimensional image of an eye to be examined; EnFace image generation means for generating an EnFace image based on the three-dimensional image;
Selecting means for selecting a mode indicating a target range for generating the Enface image from a plurality of modes;
An image processing apparatus comprising: projection method determination means for determining a projection method for generating the Enface image according to the selected mode.
前記対象範囲は、深さ方向の範囲であることを特徴とする請求項1または請求項2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the target range is a range in a depth direction. 前記対象範囲は、深さ方向に直交する平面における範囲であることを特徴とする請求項1または請求項2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the target range is a range in a plane orthogonal to the depth direction. 前記複数のモードは、それぞれ異なる深さの対象範囲を示すモードであることを特徴とする請求項2記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the plurality of modes are modes representing target ranges of different depths. 前記複数のモードは、深さ方向に直交する平面におけるそれぞれ異なる対象範囲を示すモードであることを特徴とする請求項2記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the plurality of modes are modes indicating different target ranges in a plane orthogonal to the depth direction. 前記対象範囲は、深さ方向の範囲であり、
前記複数のモードには第1モードおよび第2モードが含まれ、
前記第1モードにはOPL(Outer Plex Layer)とONL(Outer Nuclear Layer)との境界およびブルッフ膜に基づいて規定される範囲が前記対象範囲として対応付けられ、前記第2モードにはILM(Inner Nuclear Layer)(上端)およびGCL(Ganglion Cell Layer)とIPL(Inner Plexiform Lyaer)との境界に基づいて規定される範囲が前記対象範囲として対応付けられており、
前記投影方法決定手段は、前記第1モードが選択された場合には前記投影方法を最大値投影に決定し、前記第2モードが選択された場合には前記投影方法を平均値投影に決定することを特徴とする請求項2記載の画像処理装置。
The target range is a range in the depth direction,
The plurality of modes include a first mode and a second mode,
A range defined based on the boundary between OPL (Outer Plex Layer) and ONL (Outer Nuclear Layer) and the Bruch film is associated with the first mode as the target range, and the second mode is associated with the ILM (Inner A range defined based on the boundary between Nuclear Layer (upper end) and GCL (Ganglion Cell Layer) and IPL (Inner Plexiform Lyaer) is associated as the target range,
The projection method determining means determines the projection method to be the maximum value projection when the first mode is selected, and determines the projection method to be the average value projection when the second mode is selected. The image processing apparatus according to claim 2, characterized in that:
前記投影方法決定手段により決定された投影方法に従って生成された前記Enface画像を表示部に表示させるに表示制御手段をさらに有することを特徴とする請求項1から7に記載の画像処理装置。   The image processing apparatus according to any one of claims 1 to 7, further comprising display control means for causing the display unit to display the Enface image generated according to the projection method determined by the projection method determination means. 被検眼の三次元画像を取得する取得手段と
前記三次元画像に基づいて複数のEnFace画像を複数の投影方法を用いて生成するEnFace画像生成手段と、
前記複数のEnface画像それぞれを生成するための対象範囲に応じて前記複数のEnFace画像に優先度を付与する優先度決定手段と、
前記複数のEnFace画像に付与された優先度に基づいて表示部に前記複数のEnFace画像を表示させる表示制御手段と、を備える画像処理装置。
Acquisition means for acquiring a three-dimensional image of an eye to be examined; EnFace image generation means for generating a plurality of EnFace images using a plurality of projection methods based on the three-dimensional image;
A priority determination unit that gives priority to the plurality of EnFace images according to a target range for generating each of the plurality of Enface images;
An image processing apparatus, comprising: display control means for causing a display unit to display the plurality of EnFace images based on the priorities assigned to the plurality of EnFace images.
被検眼の三次元画像を取得する取得手段と
前記三次元画像に基づいてEnFace画像を生成するEnFace画像生成手段と、
前記Enface画像を生成するための対象部位を選択する対象部位選択手段と、
前記Enface画像を生成するための投影方法を、前記対象部位に応じて決定する投影方法決定手段と、を有することを特徴とする画像処理装置。
Acquisition means for acquiring a three-dimensional image of an eye to be examined; EnFace image generation means for generating an EnFace image based on the three-dimensional image;
Target site selecting means for selecting a target site for generating the Enface image;
An image processing apparatus comprising: projection method determination means for determining a projection method for generating the Enface image according to the target region.
被検眼の三次元画像を取得する取得工程と
前記三次元画像に基づいてEnFace画像を生成するEnFace画像生成工程と、
前記Enface画像を生成するための対象範囲を選択する対象範囲選択工程と、
前記Enface画像を生成するための投影方法を、前記対象範囲に応じて決定する投影方法決定工程と、を有することを特徴とする画像処理方法。
An acquisition step of acquiring a three-dimensional image of an eye to be examined; and an EnFace image generation step of generating an EnFace image based on the three-dimensional image;
A target range selection step of selecting a target range for generating the Enface image;
A projection method determination step of determining a projection method for generating the Enface image according to the target range.
請求項11記載の画像処理方法の各工程をコンピュータに実行させるプログラム。   A program that causes a computer to execute the steps of the image processing method according to claim 11.
JP2017171187A 2017-09-06 2017-09-06 Image processing apparatus, image processing method, and program Pending JP2019042375A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017171187A JP2019042375A (en) 2017-09-06 2017-09-06 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017171187A JP2019042375A (en) 2017-09-06 2017-09-06 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2019042375A true JP2019042375A (en) 2019-03-22
JP2019042375A5 JP2019042375A5 (en) 2020-10-15

Family

ID=65813250

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017171187A Pending JP2019042375A (en) 2017-09-06 2017-09-06 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2019042375A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021177313A1 (en) * 2020-03-05 2021-09-10 ファナック株式会社 Robot programming device and robot programming method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001170056A (en) * 1999-12-20 2001-06-26 Ge Yokogawa Medical Systems Ltd Ultrasonic image display method and ultrasonograph
JP2005046394A (en) * 2003-07-30 2005-02-24 Hitachi Medical Corp Medical image displaying device
JP2007175271A (en) * 2005-12-28 2007-07-12 Toshiba Corp Medical image processor
JP2012045226A (en) * 2010-08-27 2012-03-08 Canon Inc Ophthalmic-image processing apparatus and method therefore
JP2012176095A (en) * 2011-02-25 2012-09-13 Canon Inc Image processing apparatus, and image processing system
JP2013017619A (en) * 2011-07-11 2013-01-31 Canon Inc Ophthalmologic image processing apparatus, ophthalmologic image processing method, program for executing the method, and storage medium

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001170056A (en) * 1999-12-20 2001-06-26 Ge Yokogawa Medical Systems Ltd Ultrasonic image display method and ultrasonograph
JP2005046394A (en) * 2003-07-30 2005-02-24 Hitachi Medical Corp Medical image displaying device
JP2007175271A (en) * 2005-12-28 2007-07-12 Toshiba Corp Medical image processor
JP2012045226A (en) * 2010-08-27 2012-03-08 Canon Inc Ophthalmic-image processing apparatus and method therefore
JP2012176095A (en) * 2011-02-25 2012-09-13 Canon Inc Image processing apparatus, and image processing system
JP2013017619A (en) * 2011-07-11 2013-01-31 Canon Inc Ophthalmologic image processing apparatus, ophthalmologic image processing method, program for executing the method, and storage medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021177313A1 (en) * 2020-03-05 2021-09-10 ファナック株式会社 Robot programming device and robot programming method

Similar Documents

Publication Publication Date Title
US10022047B2 (en) Ophthalmic apparatus
US8794763B2 (en) Method for finding the lateral position of the fovea in an SDOCT image volume
US9201004B2 (en) Image processing apparatus, OCT imaging apparatus, tomographic imaging system, control method, and program
JP6702764B2 (en) Optical coherence tomographic data processing method, program for executing the method, and processing apparatus
JP6843602B2 (en) Image display device, image display method, and program
US12039704B2 (en) Image processing apparatus, image processing method and computer-readable medium
US9010934B2 (en) Optical coherence tomography apparatus, image processing apparatus, image processing method, and storage medium of program
JP7195745B2 (en) Image processing device, image processing method and program
JP2018038689A (en) Ophthalmic photographing apparatus and ophthalmic image processing apparatus
JP2023133539A (en) Ophthalmologic information processing device and ophthalmologic imaging apparatus
JP2019042375A (en) Image processing apparatus, image processing method, and program
KR102558159B1 (en) Apparatus, method and program for visualizing the vascular network of the skin
JP7106304B2 (en) Image processing device, image processing method and program
JP7297952B2 (en) Information processing device, information processing method and program
JP2018191761A (en) Information processing device, information processing method, and program
JP7130989B2 (en) Ophthalmic image processing device and ophthalmic image processing program
JP2017086182A (en) Oct data processing device, and oct data processing program
JP6849780B2 (en) Ophthalmic equipment, display control methods and programs
JP2019150554A (en) Image processing system and method for controlling the same
JP2019208845A (en) Image processing device, image processing method, and program
JP7297133B2 (en) Ophthalmic information processing device and ophthalmic photographing device
JP2019024617A (en) Ophthalmologic information processing device and ophthalmologic imaging device
JP7237786B2 (en) Image processing device, image processing method
JP7086708B2 (en) Image processing equipment, image processing methods and programs
KR102550386B1 (en) Apparatus, method and program for visualizing the vascular network of the skin

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200826

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200826

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210713

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220118