JP2018000687A - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP2018000687A
JP2018000687A JP2016133487A JP2016133487A JP2018000687A JP 2018000687 A JP2018000687 A JP 2018000687A JP 2016133487 A JP2016133487 A JP 2016133487A JP 2016133487 A JP2016133487 A JP 2016133487A JP 2018000687 A JP2018000687 A JP 2018000687A
Authority
JP
Japan
Prior art keywords
layer
image
representative value
image processing
depth direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016133487A
Other languages
Japanese (ja)
Inventor
治 嵯峨野
Osamu Sagano
治 嵯峨野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016133487A priority Critical patent/JP2018000687A/en
Publication of JP2018000687A publication Critical patent/JP2018000687A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a mechanism to acquire an excellent front image in which image information of each layer is reflected even when a plurality of layers are included in a predetermined depth range of an object to be inspected, for which the front image is generated.SOLUTION: An image processing device includes a layer image extraction part 433 for extracting a layer image of each layer of a plurality of layers included in a predetermined depth range in the depth direction of an object to be inspected from a tomographic image of the object to be inspected having a layer structure, a first representative value calculation part 434 for calculating a first representative value which is a representative value in the depth direction for each layer based on the layer image of each layer extracted by the layer image extraction part 433, a second representative value calculation part 435 for calculating a second representative value which is a representative value in the predetermined depth range using the first representative value of each layer calculated by the first representative value calculation part 434, and a front generation part 436 for generating a front image of the object to be inspected using the second representative value calculated by the second representative value calculation part 435.SELECTED DRAWING: Figure 4

Description

本発明は、層構造を有する被検査物の断層画像の処理を行う画像処理装置及び画像処理方法、並びに、当該画像処理装置としてコンピュータを機能させるためのプログラムに関するものである。   The present invention relates to an image processing apparatus and an image processing method for processing a tomographic image of an inspection object having a layer structure, and a program for causing a computer to function as the image processing apparatus.

現在、多波長光波干渉を利用した光コヒーレンストモグラフィ(Optical Coherence Tomography:OCT)による撮影装置が、例えば内視鏡での内臓情報や眼科装置での網膜の情報を得るために人体に対する適用分野を広げつつある。眼を検査対象とした撮影装置は、眼科用機器として網膜の専門外来では必要不可欠な装置になりつつある。   Currently, an imaging device based on optical coherence tomography (OCT) using multiwavelength lightwave interference has been applied to the human body in order to obtain, for example, internal organ information in an endoscope and retina information in an ophthalmic device. It is spreading. An imaging device for examining an eye is becoming an indispensable device in a specialized retina outpatient as an ophthalmic device.

このような撮影装置は、被検査物に対して低コヒーレント光である測定光を照射し、その被検査物からの後方散乱光を、干渉系を用いて測定することを可能に構成されている。また、眼を検査対象とした撮影装置は、被検眼に対して測定光を走査することにより被検眼の断層画像を高解像度に撮像することが可能であることから、例えば網膜の眼科診断等において広く利用されている。   Such an imaging apparatus is configured to irradiate the inspection object with measurement light, which is low-coherent light, and to measure the backscattered light from the inspection object using an interference system. . In addition, since an imaging apparatus that uses an eye as an inspection target can capture a tomographic image of the subject's eye with high resolution by scanning the subject's eye with measurement light, for example, in ophthalmic diagnosis of the retina Widely used.

特許文献1には、断層画像の撮影範囲を確認するために、撮影対象の被検査物である眼底の表面等の画像を取得可能に構成された撮影装置が記載されている。その一方で、撮影対象の被検査物である眼底の表面上のどの位置の断層であるかをより正確に確認したいという要求がある。   Patent Document 1 describes an imaging apparatus configured to acquire an image of the surface of the fundus, which is an object to be imaged, in order to confirm the imaging range of a tomographic image. On the other hand, there is a demand for more accurately confirming which position on the surface of the fundus that is the object to be imaged.

そのため、特許文献2に記載されているように、複数の断層画像から疑似的に撮影対象の被検査物である眼底を正面から見た二次元画像(以下、「正面画像」と称する)を生成する技術が知られている。この技術では、1回のAスキャンによって得られた被検査物(眼底)の深さ方向の画素値列の中から画素値の大きさの順に基づき画素値を選択する。そして、選択した画素値を全てのAスキャンに対して得ることにより、断層画像のみから網膜の平面画像と類似した正面画像(Projection画像)を生成することが可能である。また、特許文献2には、網膜の所定層を選択し、その所定層内における画素値列から画素値の大きさの順に基づき画素値を選択し、正面画像を生成する方法も記載されている。この方法では、正面画像として、所定の深度範囲内の情報に基づくEnFace画像を生成することが可能である。   Therefore, as described in Patent Document 2, a two-dimensional image (hereinafter referred to as “front image”) in which the fundus, which is the object to be imaged, is viewed from the front is generated from a plurality of tomographic images. The technology to do is known. In this technique, pixel values are selected based on the order of pixel values from a pixel value sequence in the depth direction of an object to be examined (fundus) obtained by one A scan. Then, by obtaining the selected pixel values for all the A scans, it is possible to generate a front image (Projection image) similar to the planar image of the retina from only the tomographic image. Patent Document 2 also describes a method of generating a front image by selecting a predetermined layer of the retina, selecting pixel values based on the order of pixel values from the pixel value sequence in the predetermined layer. . In this method, an EnFace image based on information within a predetermined depth range can be generated as a front image.

特開2011−36431号公報JP 2011-36431 A 特開2014−45869号公報JP 2014-45869 A

被検眼の網膜は、複数の層により構成されていることが知られている。上述した特許文献2に記載の技術において、正面画像を生成する被検査物の所定の深度範囲に複数の層が含まれる場合に、その被検査物の断層画像における深さ方向の画素値の大きさの順に基づき画素値を選択すると、断層画像の分布によっては、正面画像に特定の層の画像情報のみが反映され、他の層の画像情報が反映されないことがあった。この現象は、特に、所定の深度範囲に含まれる各層の画素値が分散している場合に多く発生する。   It is known that the retina of the eye to be examined is composed of a plurality of layers. In the technique described in Patent Document 2 described above, when a plurality of layers are included in a predetermined depth range of an inspection object for generating a front image, the pixel value in the depth direction in the tomographic image of the inspection object When the pixel values are selected based on the order, only the image information of a specific layer is reflected on the front image and the image information of other layers is not reflected depending on the distribution of the tomographic image. This phenomenon often occurs particularly when pixel values of each layer included in a predetermined depth range are dispersed.

本発明は、このような問題点に鑑みてなされたものであり、正面画像を生成する被検査物の所定の深度範囲に複数の層が含まれる場合においても、各層の画像情報が反映された良好な正面画像を取得できる仕組みを提供することを目的とする。   The present invention has been made in view of such problems, and image information of each layer is reflected even when a plurality of layers are included in a predetermined depth range of an inspection object for generating a front image. An object is to provide a mechanism capable of acquiring a good front image.

本発明の画像処理装置は、層構造を有する被検査物の断層画像から、前記被検査物の深さ方向における所定の深度範囲に含まれる複数の層の各層ごとに層画像を抽出する抽出手段と、前記抽出手段で抽出された前記各層の前記層画像に基づいて、前記各層ごとに前記深さ方向の代表値である第1の代表値を算出する第1の代表値算出手段と、前記第1の代表値算出手段で算出された前記各層の前記第1の代表値を用いて、前記所定の深度範囲における代表値である第2の代表値を算出する第2の代表値算出手段と、前記第2の代表値を用いて、前記被検査物の正面画像を生成する生成手段とを有する。
また、本発明は、上述した画像処理装置による画像処理方法、及び、上述した画像処理装置としてコンピュータを機能させるためのプログラムを含む。
The image processing apparatus according to the present invention is an extraction unit that extracts a layer image for each of a plurality of layers included in a predetermined depth range in the depth direction of the inspection object from a tomographic image of the inspection object having a layer structure. And a first representative value calculating means for calculating a first representative value that is a representative value in the depth direction for each layer based on the layer image of each layer extracted by the extracting means; Second representative value calculating means for calculating a second representative value that is a representative value in the predetermined depth range by using the first representative value of each layer calculated by the first representative value calculating means; And generating means for generating a front image of the inspection object using the second representative value.
The present invention also includes an image processing method by the above-described image processing apparatus and a program for causing a computer to function as the above-described image processing apparatus.

本発明によれば、正面画像を生成する被検査物の所定の深度範囲に複数の層が含まれる場合においても、各層の画像情報が反映された良好な正面画像を取得することができる。   According to the present invention, even when a plurality of layers are included in a predetermined depth range of an inspection object for generating a front image, a good front image reflecting image information of each layer can be acquired.

本発明の第1の実施形態に係る画像処理装置を含む撮影システムの概略構成の一例を示す図である。It is a figure which shows an example of schematic structure of the imaging | photography system containing the image processing apparatus which concerns on the 1st Embodiment of this invention. 図1に示す画像処理装置及び撮影装置の外観の一例を示す図である。It is a figure which shows an example of the external appearance of the image processing apparatus and imaging device shown in FIG. 図2に示す光学ヘッド及びベース部の内部構成の一例を示す図である。It is a figure which shows an example of the internal structure of the optical head and base part which are shown in FIG. 本発明の第1の実施形態に係る画像処理装置の機能構成の一例を示す図である。It is a figure which shows an example of a function structure of the image processing apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る画像処理装置による画像処理方法における処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence in the image processing method by the image processing apparatus which concerns on the 1st Embodiment of this invention. 図5のステップS502における所定の深度範囲の設定例を示す図である。It is a figure which shows the example of a setting of the predetermined depth range in step S502 of FIG. 図6に示す断層画像のA(x,y)における深さ方向(Aスキャン方向)の輝度値(画素値)の変化をグラフ化した図である。It is the figure which graphed the change of the luminance value (pixel value) of the depth direction (A scan direction) in A (x, y) of the tomographic image shown in FIG. 図5のステップS503における各層の層画像の抽出例を示す図である。It is a figure which shows the example of extraction of the layer image of each layer in step S503 of FIG. 図5に示すフローチャートの処理によって生成されるEnFace画像を説明するための図である。It is a figure for demonstrating the EnFace image produced | generated by the process of the flowchart shown in FIG. 本発明の第1の実施形態に係る画像処理装置のモニタにおける画像表示例を示す図である。It is a figure which shows the example of an image display in the monitor of the image processing apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る画像処理装置のモニタにおける画像表示例を示す図である。It is a figure which shows the example of an image display in the monitor of the image processing apparatus which concerns on the 1st Embodiment of this invention. 本発明の第4の実施形態を示し、各層の第1の代表値に重み付けするための、各層の表示強度における調整画面の一例を示す図である。It is a figure which shows the 4th Embodiment of this invention and shows an example of the adjustment screen in the display intensity | strength of each layer for weighting the 1st representative value of each layer.

以下に、図面を参照しながら、本発明を実施するための形態(実施形態)について説明する。なお、以下に説明する本発明の各実施形態においては、被検査物として被検眼の眼底を適用した例について説明を行うが、本発明においてはこれに限定されるものではなく、層構造を有する被検査物であれば他の物でも本発明に適用可能である。   Hereinafter, embodiments (embodiments) for carrying out the present invention will be described with reference to the drawings. In each embodiment of the present invention described below, an example in which the fundus of the eye to be examined is applied as an object to be examined will be described. However, the present invention is not limited to this and has a layer structure. Other objects can be applied to the present invention as long as they are inspected.

(第1の実施形態)
まず、本発明の第1の実施形態について説明する。
(First embodiment)
First, a first embodiment of the present invention will be described.

図1は、本発明の第1の実施形態に係る画像処理装置110を含む撮影システム100の概略構成の一例を示す図である。
撮影システム100は、図1に示すように、画像処理装置110、撮影装置120、及び、外部装置130を有して構成されている。
FIG. 1 is a diagram illustrating an example of a schematic configuration of an imaging system 100 including an image processing apparatus 110 according to the first embodiment of the present invention.
As shown in FIG. 1, the imaging system 100 includes an image processing device 110, an imaging device 120, and an external device 130.

画像処理装置110は、図1に示すように、コンピュータ116、モニタ117、及び、操作入力部118を有して構成されている。また、コンピュータ116は、図1に示すように、中央演算処理装置(CPU)111、主メモリ112、磁気ディスク113、表示メモリ114、及び、共通バス115を有して構成されている。   As shown in FIG. 1, the image processing apparatus 110 includes a computer 116, a monitor 117, and an operation input unit 118. As shown in FIG. 1, the computer 116 includes a central processing unit (CPU) 111, a main memory 112, a magnetic disk 113, a display memory 114, and a common bus 115.

具体的に、CPU111は、主として、画像処理装置110の各構成要素の動作を制御することや、各種の処理を行う。主メモリ112は、CPU111が処理を実行する際に用いるプログラムや各種の情報を格納しており、また、CPU111によるプログラム実行時の作業領域を提供する。磁気ディスク113は、例えば、オペレーティングシステム(OS)や周辺機器のデバイスドライバ等を格納しており、また、各種の情報が格納できるように構成されている。表示メモリ114は、モニタ117に表示するための表示用データを一時記憶する。共通バス115は、CPU111、主メモリ112、磁気ディスク113、表示メモリ114、操作入力部118、撮影装置120及び外部装置130を相互に通信可能に接続する。   Specifically, the CPU 111 mainly controls the operation of each component of the image processing apparatus 110 and performs various processes. The main memory 112 stores a program used when the CPU 111 executes processing and various kinds of information, and provides a work area when the CPU 111 executes the program. The magnetic disk 113 stores, for example, an operating system (OS), device drivers for peripheral devices, and the like, and is configured to store various types of information. The display memory 114 temporarily stores display data to be displayed on the monitor 117. The common bus 115 connects the CPU 111, the main memory 112, the magnetic disk 113, the display memory 114, the operation input unit 118, the imaging device 120, and the external device 130 so that they can communicate with each other.

モニタ117は、例えば、CRTモニタや液晶モニタ等であり、表示メモリ114からの表示用データに基づいて各種の画像や各種の情報を表示する。   The monitor 117 is, for example, a CRT monitor or a liquid crystal monitor, and displays various images and various information based on display data from the display memory 114.

操作入力部118は、ユーザによりポインティング入力を行うためのマウス118−1と、ユーザにより文字入力等を行うためのキーボード118−2を有して構成されている。   The operation input unit 118 includes a mouse 118-1 for a pointing input by the user and a keyboard 118-2 for a character input by the user.

画像処理装置110は、例えばローカルエリアネットワーク(LAN)を介して撮影装置120と接続されており、撮影装置120から断層画像等の画像データを取得できるようになっている。なお、本実施形態においては、この接続形式に限定されるものではなく、例えばUSBやIEEE1394等の他の接続形式で接続されていてもよい。また、画像処理装置110は、例えば各種のデータを管理するデータサーバ等の外部装置130から、LAN等を介して必要なデータ(例えば上述した断層画像等の画像データ)を読み込む構成であってもよい。また、画像処理装置110に記憶装置として、例えば、FDD、CD−RWドライブ、MOドライブ、ZIPドライブ等を接続し、それらのドライブから必要なデータを読み込むようにしてもよい。   The image processing apparatus 110 is connected to the imaging apparatus 120 via, for example, a local area network (LAN), and can acquire image data such as a tomographic image from the imaging apparatus 120. Note that the present embodiment is not limited to this connection format, and may be connected by another connection format such as USB or IEEE1394. Further, the image processing apparatus 110 may be configured to read necessary data (for example, image data such as the above-described tomographic image) from an external apparatus 130 such as a data server that manages various data via a LAN or the like. Good. Further, for example, an FDD, a CD-RW drive, an MO drive, a ZIP drive, or the like may be connected to the image processing apparatus 110 as a storage device, and necessary data may be read from these drives.

図2は、図1に示す画像処理装置110及び撮影装置120の外観の一例を示す図である。この図2において、図1に示す構成と同様の構成については同じ符号を付している。   FIG. 2 is a diagram illustrating an example of the external appearance of the image processing apparatus 110 and the imaging apparatus 120 illustrated in FIG. In FIG. 2, the same components as those shown in FIG.

図1には、図1に示すコンピュータ116、モニタ117及び操作入力部118を有する画像処理装置110が示されている。   FIG. 1 shows an image processing apparatus 110 having the computer 116, the monitor 117, and the operation input unit 118 shown in FIG.

撮影装置120は、例えば光干渉断層撮影装置である。この撮影装置120は、図2に示すように、光学ヘッド121、ステージ部122、ベース部123、顎台124、及び、外部固視灯125を有して構成されている。光学ヘッド121は、前眼部画像や眼底の表面画像及び断層画像を撮影するための測定光学系である。ステージ部122は、不図示のモータを用いて、図2に示すx方向、y方向及びz方向に光学ヘッド121を移動可能とする移動機構である。ベース部123は、光学ヘッド121や、ステージ部122、顎台124、外部固視灯125を支持するためのものである。顎台124は、被検者の顎と額とを固定できるように構成されており、被検者の眼(被検眼)の固定を促すためのものである。外部固視灯125は、被検眼を固視させるためのものである。また、本実施形態においては、画像処理装置110を光学ヘッド121或いはステージ部122に組み込むようにしてもよい。この場合には、撮影装置120と画像処理装置110とが撮影装置として一体的に構成されることになる。   The imaging apparatus 120 is, for example, an optical coherence tomography apparatus. As shown in FIG. 2, the photographing apparatus 120 includes an optical head 121, a stage unit 122, a base unit 123, a chin rest 124, and an external fixation lamp 125. The optical head 121 is a measurement optical system for capturing an anterior ocular segment image, a fundus surface image, and a tomographic image. The stage unit 122 is a moving mechanism that enables the optical head 121 to move in the x, y, and z directions shown in FIG. 2 using a motor (not shown). The base portion 123 is for supporting the optical head 121, the stage portion 122, the chin rest 124, and the external fixation lamp 125. The chin rest 124 is configured to fix the subject's chin and forehead, and is for urging fixation of the subject's eyes (test eye). The external fixation lamp 125 is for fixing the eye to be examined. In the present embodiment, the image processing apparatus 110 may be incorporated in the optical head 121 or the stage unit 122. In this case, the photographing device 120 and the image processing device 110 are integrally configured as a photographing device.

図3は、図2に示す光学ヘッド121及びベース部123の内部構成の一例を示す図である。また、図3には、被検査物である被検眼Eの眼底Erが示されている。   FIG. 3 is a diagram illustrating an example of the internal configuration of the optical head 121 and the base portion 123 illustrated in FIG. FIG. 3 also shows the fundus oculi Er of the eye E to be inspected.

まず、光学ヘッド121の内部構成について説明する。
被検眼Eに対向して、対物レンズ335−1が設置されている。その光軸上で第1ダイクロイックミラー332−1及び第2ダイクロイックミラー332−2によって、OCT光学系の光路L1、眼底観察と固視灯用の光路L2、及び、前眼部観察用の光路L3とに波長帯域ごとに分岐される。
First, the internal configuration of the optical head 121 will be described.
Opposite to the eye E, an objective lens 335-1 is installed. On the optical axis, by the first dichroic mirror 332-1 and the second dichroic mirror 332-2, the optical path L1 of the OCT optical system, the optical path L2 for fundus observation and fixation lamp, and the optical path L3 for anterior ocular segment observation Branches for each wavelength band.

光路L2には、レンズ335−3及び335−4が配置されている。レンズ335−3は、固視灯321及び眼底観察用のCCD323の合焦調整のために不図示のモータによって駆動される。また、レンズ335−4と第3ダイクロイックミラー332−3との間には、穴あきミラー322が配置されており、この穴あきミラー322によって光路L2は光路L2と光路L4とに分岐される。   Lenses 335-3 and 335-4 are arranged in the optical path L2. The lens 335-3 is driven by a motor (not shown) for adjusting the focus of the fixation lamp 321 and the fundus observation CCD 323. A perforated mirror 322 is disposed between the lens 335-4 and the third dichroic mirror 332-3, and the optical path L2 is branched into an optical path L2 and an optical path L4 by the perforated mirror 322.

光路L4は、被検眼Eの眼底Erを照明する照明光学系を構成している。この光路L4には、LED光源341、コンデンサレンズ342、ストロボ管343、コンデンサレンズ344、ミラー345、リングスリット346、レンズ347及び348が設置されている。LED光源341は、被検眼Eの位置合わせに用いられる眼底観察用照明光源であり、例えば780nm付近を中心波長とする光を出力する。ストロボ管343は、被検眼Eの眼底Erの撮影に用いるものである。このLED光源341とストロボ管343とからの照明光は、リングスリット346によってリング状の光束となり、孔あきミラー322によって反射され、被検眼Eの眼底Erを照明する。   The optical path L4 constitutes an illumination optical system that illuminates the fundus Er of the eye E. In the optical path L4, an LED light source 341, a condenser lens 342, a strobe tube 343, a condenser lens 344, a mirror 345, a ring slit 346, and lenses 347 and 348 are installed. The LED light source 341 is a fundus observation illumination light source used for alignment of the eye E, and outputs light having a center wavelength of, for example, around 780 nm. The strobe tube 343 is used for photographing the fundus oculi Er of the eye E. The illumination light from the LED light source 341 and the strobe tube 343 becomes a ring-shaped light beam by the ring slit 346, is reflected by the perforated mirror 322, and illuminates the fundus Er of the eye E to be examined.

光路L2の穴あきミラー322以降には、第3ダイクロイックミラー332−3によって眼底観察用のCCD323及び固視灯321への光路へと上記と同じく波長帯域ごとに分岐される。CCD323は、眼底観察用照明光であるLED光源341の中心波長、具体的には780nm付近に感度を持つものであり、CCD制御部362に接続されている。一方、固視灯321は、可視光を発生して被検眼Eの固視を促すものであり、固視灯制御部361に接続されている。また、固視灯制御部361及びCCD制御部362は、ベース部123に設けられた演算部360に接続されており、演算部360を通じて、各種のデータがコンピュータ116に入出力される。   After the holed mirror 322 in the optical path L2, the third dichroic mirror 332-3 branches to the optical path to the fundus observation CCD 323 and the fixation lamp 321 for each wavelength band as described above. The CCD 323 has sensitivity at the center wavelength of the LED light source 341 that is illumination light for fundus observation, specifically, around 780 nm, and is connected to the CCD controller 362. On the other hand, the fixation lamp 321 generates visible light and promotes fixation of the eye E, and is connected to the fixation lamp controller 361. The fixation lamp control unit 361 and the CCD control unit 362 are connected to a calculation unit 360 provided in the base unit 123, and various types of data are input to and output from the computer 116 through the calculation unit 360.

光路L3には、レンズ335−2、及び、前眼観察用の赤外線CCD331が設けられている。赤外線CCD331は、不図示の前眼観察用照明光の波長、具体的には970nm付近に感度を持つものである。また、光路L3には、不図示のイメージスプリットプリズムが配置されており、被検眼Eに対する光学ヘッド121のz方向の距離を、前眼部観察画像中のスプリット像として検出することができる。   In the optical path L3, a lens 335-2 and an infrared CCD 331 for anterior eye observation are provided. The infrared CCD 331 has sensitivity at a wavelength of illumination light for anterior eye observation (not shown), specifically, around 970 nm. In addition, an image split prism (not shown) is disposed in the optical path L3, and the distance in the z direction of the optical head 121 with respect to the eye E can be detected as a split image in the anterior ocular segment observation image.

光路L1は、上述したように、OCT光学系を構成しており、被検眼Eの眼底Erにおける網膜の断層画像を撮影するためのものである。より具体的には、断層画像を形成するための干渉信号を得るものである。この光路L1には、光源311、光カプラー312、光ファイバー313−1〜313−4、偏光調整部314−1〜314−2、レンズ335−5〜335−7、XYスキャナ315、分散補償用ガラス316、参照ミラー332−4が設けられている。また、光ファイバー313−2には、ベース部123に内蔵された分光器350が接続されている。本実施形態においては、これらの構成によってマイケルソン干渉計を構成している。   As described above, the optical path L1 constitutes an OCT optical system, and is used to capture a tomographic image of the retina on the fundus Er of the eye E to be examined. More specifically, an interference signal for forming a tomographic image is obtained. In the optical path L1, a light source 311, an optical coupler 312, optical fibers 313-1 to 313-4, polarization adjusting units 314-1 to 314-2, lenses 335-5 to 335-7, an XY scanner 315, and dispersion compensation glass are provided. 316 and a reference mirror 332-4 are provided. A spectroscope 350 built in the base unit 123 is connected to the optical fiber 313-2. In this embodiment, a Michelson interferometer is configured by these configurations.

光源311は、例えば、代表的な低コヒーレント光源であるSLD(Super Luminescent Diode)である。また、光源311から出射される光は、その中心波長が約855nm、その波長バンド幅が約100nmである。ここで、バンド幅は、得られる断層画像の光軸方向の分解能に影響するため、重要なパラメータである。ここでは、光源311としてSLDを用いた例を示したが、光源311としては、低コヒーレント光が出射できればよく、例えばASE(Amplified Spontaneous Emission)等であってもよい。また、光源311から出射される光は、中心波長が被検眼Erを測定することを鑑みると、近赤外光が適する。また、その中心波長は、得られる断層画像の横方向の分解能に影響するため、なるべく短波長であることが望ましい。このため、本実施形態では、双方の理由から中心波長を約855nmとした。   The light source 311 is, for example, a super luminescent diode (SLD) that is a typical low-coherent light source. The light emitted from the light source 311 has a center wavelength of about 855 nm and a wavelength bandwidth of about 100 nm. Here, the bandwidth is an important parameter because it affects the resolution of the obtained tomographic image in the optical axis direction. Here, an example in which an SLD is used as the light source 311 has been shown. However, the light source 311 only needs to emit low-coherent light, and may be, for example, ASE (Amplified Spontaneous Emission). The light emitted from the light source 311 is preferably near infrared light in view of the fact that the center wavelength measures the eye to be examined Er. Further, the center wavelength affects the lateral resolution of the obtained tomographic image, and therefore it is desirable that the center wavelength be as short as possible. For this reason, in this embodiment, the center wavelength is set to about 855 nm for both reasons.

光源311から出射された光は、光ファイバー313−1を通り、光カプラー312によって、光ファイバー313−2側の測定光と光ファイバー313−3側の参照光とに分割される。測定光は、XYスキャナ315及び第2ダイクロイックミラー332−2等を介して被検眼Eの眼底Erに照射され、眼底Erの網膜による反射や散乱により同じ光路を通じて光カプラー312に到達する。一方、参照光は、光ファイバー313−3、レンズ335−7、測定光と参照光の分散を合わせるために挿入された分散補償用ガラス316を介して、参照ミラー332−4に到達して反射し、同じ光路を通じて光カプラー312に到達する。そして、光カプラー312に到達した測定光と参照光は、合波されて干渉光となる。ここで、測定光の光路長と参照光の光路長とがほぼ同一となったときに干渉を生じる。また、参照ミラー332−4は、不図示のモータ及び駆動機構によって光軸方向に調整可能に保持されており、被検眼Eによって変わる測定光の光路長に参照光の光路長を合わせることが可能となっている。そして、光カプラー312で得られた干渉光は、光ファイバー313−4を介して分光器350に導かれる。   The light emitted from the light source 311 passes through the optical fiber 313-1 and is split by the optical coupler 312 into measurement light on the optical fiber 313-2 side and reference light on the optical fiber 313-3 side. The measurement light is irradiated onto the fundus Er of the eye E through the XY scanner 315, the second dichroic mirror 332-2, and the like, and reaches the optical coupler 312 through the same optical path due to reflection and scattering by the retina of the fundus Er. On the other hand, the reference light reaches the reference mirror 332-4 and is reflected through the optical fiber 313-3, the lens 335-7, and the dispersion compensation glass 316 inserted to match the dispersion of the measurement light and the reference light. The optical coupler 312 is reached through the same optical path. Then, the measurement light and the reference light reaching the optical coupler 312 are combined to become interference light. Here, interference occurs when the optical path length of the measurement light and the optical path length of the reference light are substantially the same. The reference mirror 332-4 is held so as to be adjustable in the optical axis direction by a motor and a driving mechanism (not shown), and the optical path length of the reference light can be adjusted to the optical path length of the measurement light that changes depending on the eye E to be examined. It has become. The interference light obtained by the optical coupler 312 is guided to the spectroscope 350 through the optical fiber 313-4.

また、偏光調整部314−1は、光ファイバー313−2中に設けられた測定光側の偏光調整部であり、偏光調整部314−2は、光ファイバー313−3中に設けられた参照光側の偏光調整部である。これらの偏光調整部314−1及び314−2は、光ファイバー313をループ状に引き回した部分を幾つか持っている。そして、偏光調整部314−1及び314−2は、このループ状の部分を光ファイバー313の長手方向を中心として回動させ、光ファイバー313に捩じりを加えることにより、測定光と参照光の偏光状態を各々調整して合わせることが可能となっている。本実施形態では、予め測定光と参照光の偏光状態が調整されて固定されているものとする。   The polarization adjustment unit 314-1 is a measurement light side polarization adjustment unit provided in the optical fiber 313-2, and the polarization adjustment unit 314-2 is provided on the reference light side provided in the optical fiber 313-3. It is a polarization adjustment unit. These polarization adjusting units 314-1 and 314-2 have some portions where the optical fiber 313 is routed in a loop. Then, the polarization adjusting units 314-1 and 314-2 rotate the loop-shaped portion around the longitudinal direction of the optical fiber 313, and twist the optical fiber 313, thereby polarizing the measurement light and the reference light. Each state can be adjusted and adjusted. In this embodiment, it is assumed that the polarization states of the measurement light and the reference light are adjusted and fixed in advance.

また、レンズ335−5は、光カプラー312に接続されている光ファイバー313−2から出射する光源311からの光を眼底Er上に合焦調整をするために不図示のモータによって駆動される。この合焦調整によって眼底Erからの光は、同時に光ファイバー313−2の先端にスポット状に結像されて入射されることとなる。   The lens 335-5 is driven by a motor (not shown) to adjust the focus of light from the light source 311 emitted from the optical fiber 313-2 connected to the optical coupler 312 onto the fundus Er. With this focusing adjustment, the light from the fundus Er is simultaneously incident on the tip of the optical fiber 313-2 in the form of a spot.

また、XYスキャナ315は、測定光を眼底Er上で走査するためのスキャナである。図3では、XYスキャナ315を1枚のミラーとして図示しているが、x方向及びy方向の2方向の走査を行うものである。   The XY scanner 315 is a scanner for scanning the measurement light on the fundus Er. In FIG. 3, the XY scanner 315 is illustrated as a single mirror, but scanning in two directions, the x direction and the y direction, is performed.

また、本実施形態では、干渉計としてマイケルソン干渉計を用いるが、例えばマッハツェンダー干渉計を用いるようにしてもよい。この際、測定光と参照光との光量差に応じて、これらの干渉計を使い分けるようにしてもよい。例えば、測定光と参照光との光量差が大きい場合にはマッハツェンダー干渉計を用いることが望ましく、測定光と参照光との光量差が比較的小さい場合にはマイケルソン干渉計を用いることが望ましい。   In this embodiment, a Michelson interferometer is used as the interferometer. However, for example, a Mach-Zehnder interferometer may be used. At this time, these interferometers may be used properly in accordance with the light amount difference between the measurement light and the reference light. For example, it is desirable to use a Mach-Zehnder interferometer when the light amount difference between the measurement light and the reference light is large. When the light amount difference between the measurement light and the reference light is relatively small, a Michelson interferometer is used. desirable.

次に、ベース部123の内部構成について説明する。
ベース部123には、図3に示すように、レンズ335−8及び335−9、回折格子351、ラインセンサ352を含み構成された分光器350が構成されている。光ファイバー313−4から出射された干渉光は、レンズ335−8を介して略平行光となった後、回折格子351で分光され、結像レンズ335−9によってラインセンサ352に結像される。ラインセンサ352は、入射した干渉光を画像信号として検出する複数のセンサを有して構成されており、検出した画像信号を画像処理装置110(コンピュータ116)に出力する。
Next, the internal configuration of the base portion 123 will be described.
As shown in FIG. 3, the base portion 123 includes a spectroscope 350 that includes lenses 335-8 and 335-9, a diffraction grating 351, and a line sensor 352. The interference light emitted from the optical fiber 313-4 becomes substantially parallel light via the lens 335-8, is then split by the diffraction grating 351, and is imaged on the line sensor 352 by the imaging lens 335-9. The line sensor 352 includes a plurality of sensors that detect incident interference light as image signals, and outputs the detected image signals to the image processing apparatus 110 (computer 116).

次に、図3を用いて、撮影装置120による被検眼Eの眼底Erの撮像方法について説明する。   Next, a method for imaging the fundus oculi Er of the eye E to be examined by the imaging apparatus 120 will be described with reference to FIG.

まず、検者は、撮影装置120の前に患者である被検者を着座させ、被検眼Eの眼底Erにおける表面画像の撮影を開始する。   First, the examiner seats a subject who is a patient in front of the photographing apparatus 120 and starts photographing a surface image of the fundus Er of the subject eye E.

具体的に、LED光源341から光を出射して、リングスリット346でリング状の光束にし、その後、孔あきミラー322によって光を反射して、被検眼Eの眼底Erを照明する。そして、眼底Erからの反射光は、孔あきミラー322を通過し、CCD323に結像される。CCD323に結像された眼底Erの反射光は、CCD制御部362において眼底Erの表面画像として画像化され、演算部360を介して画像処理装置110(コンピュータ116)に送信される。なお、ここでは、CCD制御部362において表面画像の画像化を行うようにしているが、CCD323で検出された表面画像に係る画像信号をCCD制御部362及び演算部360を介して画像処理装置110に送信し、画像処理装置110において表面画像の画像化を行うようにしてもよい。   Specifically, light is emitted from the LED light source 341, converted into a ring-shaped light beam by the ring slit 346, and then reflected by the perforated mirror 322 to illuminate the fundus Er of the eye E to be examined. Then, the reflected light from the fundus Er passes through the perforated mirror 322 and forms an image on the CCD 323. The reflected light of the fundus Er imaged on the CCD 323 is imaged as a surface image of the fundus Er in the CCD controller 362 and transmitted to the image processing apparatus 110 (computer 116) via the arithmetic unit 360. Here, the CCD control unit 362 performs imaging of the surface image, but the image processing apparatus 110 receives the image signal related to the surface image detected by the CCD 323 via the CCD control unit 362 and the calculation unit 360. The image processing apparatus 110 may image the surface image.

次いで、撮影装置120は、XYスキャナ315を制御することにより、被検眼Eの眼底における所望部位の断層画像を撮影する。   Next, the imaging apparatus 120 captures a tomographic image of a desired site on the fundus of the eye E by controlling the XY scanner 315.

具体的に、光源311から光を出射して、光ファイバー313−1を介して光カプラー312で被検眼Eに向かう測定光と参照ミラー332−4に向かう参照光とに分ける。被検眼Eに向かう測定光は、光ファイバー313−2を通過してそのファイバー端から出射し、XYスキャナ315へ入射する。このXYスキャナ315により偏向された測定光は、対物レンズ335−1を経由して被検眼Eの眼底Erを照射する。そして、被検眼Eの眼底Erで反射した反射光は、逆の経路を辿って光カプラー312へと戻される。一方、参照ミラー332−4に向かう参照光は、光ファイバー313−3を通過してそのファイバー端から出射し、レンズ335−7及び分散補償用ガラス316を介して参照ミラー332−4に到達する。そして、参照ミラー332−4で反射された参照光は、逆の経路を辿って光カプラー312へと戻される。   Specifically, light is emitted from the light source 311, and is divided into measurement light toward the eye E and reference light toward the reference mirror 332-4 by the optical coupler 312 via the optical fiber 313-1. The measurement light traveling toward the eye E passes through the optical fiber 313-2, exits from the end of the fiber, and enters the XY scanner 315. The measurement light deflected by the XY scanner 315 irradiates the fundus Er of the eye E through the objective lens 335-1. Then, the reflected light reflected by the fundus Er of the eye E is returned to the optical coupler 312 along the reverse path. On the other hand, the reference light traveling toward the reference mirror 332-4 passes through the optical fiber 313-3, exits from the fiber end, and reaches the reference mirror 332-4 via the lens 335-7 and the dispersion compensation glass 316. The reference light reflected by the reference mirror 332-4 follows the reverse path and is returned to the optical coupler 312.

光カプラー312に戻ってきた測定光と参照光とは、相互に干渉して干渉光となって光ファイバー313−4に入射し、レンズ335−8により略平行化されて回折格子351に入射する。そして、回折格子351に入力した干渉光は、結像レンズ335−9によってラインセンサ352に結像され、被検眼Eの眼底Er上の一点における干渉信号を得ることができる。ラインセンサ352は、複数のセンサで検出した画像信号を画像処理装置110(コンピュータ116)に出力する。なお、図3では、ストロボ管343の発光で一度に眼底Erの表面画像を取得する例を説明したが、SLD光源で発光した光を走査するSLOタイプで眼底Erの表面画像を得る構成としてもよい。   The measurement light and the reference light that have returned to the optical coupler 312 interfere with each other, become interference light, enter the optical fiber 313-4, are substantially collimated by the lens 335-8, and enter the diffraction grating 351. The interference light input to the diffraction grating 351 is imaged on the line sensor 352 by the imaging lens 335-9, and an interference signal at one point on the fundus Er of the eye E can be obtained. The line sensor 352 outputs image signals detected by a plurality of sensors to the image processing apparatus 110 (computer 116). In addition, although the example which acquires the surface image of the fundus Er at once by the light emission of the strobe tube 343 has been described with reference to FIG. Good.

次に、画像処理装置110の機能構成について説明する。
図4は、本発明の第1の実施形態に係る画像処理装置110の機能構成の一例を示す図である。より具体的には、図4は、画像処理装置110に含まれるコンピュータ116の機能構成の一例を示している。また、図4には、画像処理装置110が備える機能のうち、被検眼Eの眼底Erの断層画像から、被検眼Eの眼底Erを正面から見た二次元画像である正面画像を生成する機能に係る構成のみを記載している。
Next, the functional configuration of the image processing apparatus 110 will be described.
FIG. 4 is a diagram illustrating an example of a functional configuration of the image processing apparatus 110 according to the first embodiment of the present invention. More specifically, FIG. 4 shows an example of the functional configuration of the computer 116 included in the image processing apparatus 110. 4 shows a function of generating a front image that is a two-dimensional image of the fundus Er of the eye E viewed from the front, from the tomographic image of the fundus Er of the eye E, among the functions of the image processing apparatus 110. Only the configuration related to is described.

画像処理装置110(コンピュータ116)は、図4に示すように、再構成部410、層認識部420、及び、画像生成処理部430を有して構成されている。   As illustrated in FIG. 4, the image processing apparatus 110 (computer 116) includes a reconstruction unit 410, a layer recognition unit 420, and an image generation processing unit 430.

再構成部410は、ラインセンサ352から出力された画像信号に基づいて、被検眼Eの眼底Erの断層画像を構成する。この再構成部410の詳細な処理について以下に説明する。   The reconstruction unit 410 configures a tomographic image of the fundus Er of the eye E based on the image signal output from the line sensor 352. Detailed processing of the reconstruction unit 410 will be described below.

具体的に、再構成部410は、ラインセンサ352から出力された画像信号に対して波数変換処理と高速フーリエ変換(FFT)処理を行い、被検眼Eの眼底Er上の一点における深さ方向の断層画像(Aスキャン画像)を構成(形成)する。
その後、撮影装置120において、XYスキャナ315をx方向に駆動して被検眼Eの眼底Er上の別の一点の干渉光を発生させ、ラインセンサ352でこれを検出すると、再構成部410は、ラインセンサ352から当該検出に基づく画像信号を取得する。そして、再構成部410は、被検眼Eの眼底Er上の別の一点における深さ方向の断層画像(Aスキャン画像)を構成(形成)する。なお、各Aスキャン画像を撮影したXYスキャナ315の位置と当該各Aスキャン画像の座標は、関連付けて記憶されているものとする。
そして、このXYスキャナ315のx方向の駆動を連続して行うことにより、再構成部410は、被検眼Eの眼底Erの水平方向の1枚の断層画像(Bスキャン画像)を再構成(形成)する。
その後、撮影装置120において、XYスキャナ315をy方向に一定量駆動した後に上述したx方向の走査を再び行うことにより、被検眼Eの眼底Er上の別のy方向位置における断層画像(Bスキャン画像)を再構成(形成)する。
そして、このXYスキャナ315のy方向の駆動を繰り返し行うことにより、再構成部410は、眼底Erの所定範囲をカバーする複数枚の断層画像(Bスキャン画像)を再構成(形成)する。具体的に、本実施形態では、y方向に128回の一定量の微小駆動を行いながらBスキャンを繰り返し行うことにより、再構成部410は、128枚の断層画像(Bスキャン画像)を再構成(形成)する。
さらに、再構成部410は、この128枚の断層画像(Bスキャン画像)から三次元の断層画像を再構成(形成)する。
Specifically, the reconstruction unit 410 performs a wave number conversion process and a fast Fourier transform (FFT) process on the image signal output from the line sensor 352, and performs a depth-direction measurement at one point on the fundus Er of the eye E to be examined. A tomographic image (A scan image) is constructed (formed).
Thereafter, in the imaging device 120, the XY scanner 315 is driven in the x direction to generate another point of interference light on the fundus Er of the eye E, and when this is detected by the line sensor 352, the reconstruction unit 410 An image signal based on the detection is acquired from the line sensor 352. Then, the reconstruction unit 410 configures (forms) a tomographic image (A scan image) in the depth direction at another point on the fundus Er of the eye E to be examined. It is assumed that the position of the XY scanner 315 that captured each A scan image and the coordinates of each A scan image are stored in association with each other.
Then, by continuously driving the XY scanner 315 in the x direction, the reconstruction unit 410 reconstructs (forms a single tomographic image (B scan image) in the horizontal direction of the fundus Er of the eye E to be examined). )
Thereafter, in the imaging apparatus 120, the XY scanner 315 is driven in the y direction by a certain amount, and then the x direction scan described above is performed again, whereby a tomographic image (B scan) at another y direction position on the fundus Er of the eye E to be examined. Image) is reconstructed (formed).
Then, by repeatedly driving the XY scanner 315 in the y direction, the reconstruction unit 410 reconstructs (forms) a plurality of tomographic images (B-scan images) that cover a predetermined range of the fundus Er. Specifically, in this embodiment, the reconstruction unit 410 reconstructs 128 tomographic images (B-scan images) by repeatedly performing B-scan while performing a certain amount of micro-drive 128 times in the y-direction. (Form.
Further, the reconstruction unit 410 reconstructs (forms) a three-dimensional tomographic image from the 128 tomographic images (B-scan images).

層認識部420は、再構成部410で形成された眼底Erの断層画像から、眼底Erの深さ方向における層構造(ここでは網膜の層構造)の認識処理を行って、それぞれの層境界の形状を特定する。   The layer recognizing unit 420 performs recognition processing of the layer structure in the depth direction of the fundus Er (here, the layer structure of the retina) from the tomographic image of the fundus Er formed by the reconstructing unit 410, and Identify the shape.

画像生成処理部430は、再構成部410で形成された眼底Erの断層画像から、被検眼Eの眼底Erを正面から見た二次元画像である正面画像を生成する処理を行う。例えば、画像生成処理部430は、眼底Erの断層画像の深さ方向のそれぞれの画素値列から所定の画素をそれぞれの画素値列毎に選択して正面画像を生成する。この画像生成処理部430は、図4に示すように、断層画像入力部431、深度範囲設定部432、層画像抽出部433、第1の代表値算出部434、第2の代表値算出部435、及び、正面画像生成部436を有して構成されている。   The image generation processing unit 430 performs processing for generating a front image that is a two-dimensional image of the fundus Er of the eye E to be examined viewed from the front from the tomographic image of the fundus Er formed by the reconstruction unit 410. For example, the image generation processing unit 430 selects a predetermined pixel from each pixel value sequence in the depth direction of the tomographic image of the fundus oculi Er for each pixel value sequence and generates a front image. As shown in FIG. 4, the image generation processing unit 430 includes a tomographic image input unit 431, a depth range setting unit 432, a layer image extraction unit 433, a first representative value calculation unit 434, and a second representative value calculation unit 435. , And a front image generation unit 436.

断層画像入力部431は、再構成部410で形成された眼底Erの断層画像を画像生成処理部430に入力する処理を行う。   The tomographic image input unit 431 performs processing for inputting the tomographic image of the fundus oculi Er formed by the reconstruction unit 410 to the image generation processing unit 430.

深度範囲設定部432は、例えば操作入力部118から入力された情報に基づいて、再構成部410で形成された眼底Erの断層画像の深さ方向における範囲から、正面画像を生成する対象となる範囲である所定の深度範囲を設定する処理を行う。   The depth range setting unit 432 is a target for generating a front image from a range in the depth direction of the tomographic image of the fundus Er formed by the reconstruction unit 410 based on, for example, information input from the operation input unit 118. A process of setting a predetermined depth range which is a range is performed.

層画像抽出部433は、層認識部420による層認識の結果に基づいて、再構成部410で形成された眼底Erの断層画像から、眼底Erの深さ方向における所定の深度範囲に含まれる複数の層の各層ごとに層画像を抽出する処理を行う。具体的に、層画像抽出部433は、再構成部410で形成された眼底Erの断層画像から、深度範囲設定部432で設定された所定の深度範囲に含まれる各層の層画像を抽出する処理を行う。   Based on the result of layer recognition by the layer recognition unit 420, the layer image extraction unit 433 includes a plurality of layers included in a predetermined depth range in the depth direction of the fundus Er from the tomographic image of the fundus Er formed by the reconstruction unit 410. The layer image is extracted for each layer. Specifically, the layer image extraction unit 433 extracts a layer image of each layer included in the predetermined depth range set by the depth range setting unit 432 from the tomographic image of the fundus oculi Er formed by the reconstruction unit 410. I do.

第1の代表値算出部434は、層画像抽出部433で抽出された各層の層画像に基づいて、当該各層ごとに深さ方向の代表値である第1の代表値を算出する処理を行う。   Based on the layer image of each layer extracted by the layer image extraction unit 433, the first representative value calculation unit 434 performs a process of calculating a first representative value that is a representative value in the depth direction for each layer. .

第2の代表値算出部435は、第1の代表値算出部434で算出された各層の第1の代表値を用いて、深度範囲設定部432で設定された所定の深度範囲における代表値である第2の代表値を算出する処理を行う。   The second representative value calculation unit 435 uses the first representative value of each layer calculated by the first representative value calculation unit 434 as a representative value in a predetermined depth range set by the depth range setting unit 432. A process of calculating a second representative value is performed.

正面画像生成部436は、第2の代表値算出部435で算出された第2の代表値を用いて、被検眼Eの眼底Erを正面から見た二次元画像である正面画像を生成する処理を行う。   The front image generation unit 436 uses the second representative value calculated by the second representative value calculation unit 435 to generate a front image that is a two-dimensional image when the fundus Er of the eye E is viewed from the front. I do.

次に、画像処理装置110による画像処理方法における処理手順について説明する。
図5は、本発明の第1の実施形態に係る画像処理装置110による画像処理方法における処理手順の一例を示すフローチャートである。
Next, a processing procedure in the image processing method performed by the image processing apparatus 110 will be described.
FIG. 5 is a flowchart illustrating an example of a processing procedure in the image processing method by the image processing apparatus 110 according to the first embodiment of the present invention.

この図5に示すフローチャートは、具体的に、図4に示す画像生成処理部430における処理の処理手順を示している。また、本実施形態においては、画像生成処理部430の動作モードとして、再構成部410で形成された眼底Erの断層画像の深さ方向(Aスキャン方向)における全部の深度範囲から正面画像を生成する第1のモードと、再構成部410で形成された眼底Erの断層画像の深さ方向(Aスキャン方向)における一部の深度範囲から正面画像を生成する第2のモードがあるものとする。第1のモードでは、正面画像としてProjection画像が生成され、これは強度画像とも呼ばれ、眼底Erの表面画像と類似したものである。また、第2のモードでは、正面画像としてEnFace画像が生成され、これは眼疾患による網膜の層構造の変化を可視化するために用いられる。以下の図5の説明では、画像生成処理部430を第2のモードで駆動させ、正面画像としてEnFace画像を生成する場合について説明する。   The flowchart shown in FIG. 5 specifically shows the processing procedure of the processing in the image generation processing unit 430 shown in FIG. In this embodiment, as the operation mode of the image generation processing unit 430, a front image is generated from the entire depth range in the depth direction (A scan direction) of the tomographic image of the fundus oculi Er formed by the reconstruction unit 410. And a second mode in which a front image is generated from a partial depth range in the depth direction (A scan direction) of the tomographic image of the fundus oculi Er formed by the reconstruction unit 410. . In the first mode, a Projection image is generated as a front image, which is also called an intensity image, and is similar to the surface image of the fundus oculi Er. In the second mode, an EnFace image is generated as a front image, which is used to visualize changes in the layer structure of the retina due to an eye disease. In the following description of FIG. 5, the case where the image generation processing unit 430 is driven in the second mode to generate an EnFace image as a front image will be described.

まず、ステップS501において、断層画像入力部431は、再構成部410で形成された眼底Erの断層画像を画像生成処理部430に入力する処理を行う。   First, in step S <b> 501, the tomographic image input unit 431 performs processing for inputting the tomographic image of the fundus Er formed by the reconstruction unit 410 to the image generation processing unit 430.

続いて、ステップS502において、深度範囲設定部432は、例えば操作入力部118から入力された情報に基づいて、ステップS501で入力された断層画像の深さ方向における範囲から、EnFace画像を生成する対象となる範囲である所定の深度範囲を設定する処理を行う。   Subsequently, in step S502, the depth range setting unit 432 generates an EnFace image from the range in the depth direction of the tomographic image input in step S501 based on, for example, information input from the operation input unit 118. The process which sets the predetermined depth range which is the range which becomes becomes is performed.

図6は、図5のステップS502における所定の深度範囲の設定例を示す図である。この図6には、再構成部410で形成された眼底Erの断層画像(Bスキャン画像)600を示している。そして、この図6では、深度範囲設定部432により、断層画像の深さ方向(z方向)における範囲から、境界線Z1と境界線Z2との間の矢印で示す範囲を、EnFace画像を生成する対象となる所定の深度範囲として設定する例を示している。この所定の深度範囲には、2つの網膜の層L1及びL2が含まれている。   FIG. 6 is a diagram illustrating a setting example of the predetermined depth range in step S502 of FIG. FIG. 6 shows a tomographic image (B-scan image) 600 of the fundus oculi Er formed by the reconstruction unit 410. In FIG. 6, the depth range setting unit 432 generates an EnFace image from the range in the depth direction (z direction) of the tomographic image, as indicated by the arrow between the boundary line Z1 and the boundary line Z2. An example is shown in which the predetermined depth range is set. This predetermined depth range includes two retinal layers L1 and L2.

なお、図6に示す例では、所定の深度範囲に2つの層(L1及びL2)が含まれる場合を示しているが、所定の深度範囲にさらに多くの複数の層が含まれていてもよい。また、境界線Z1及びZ2の位置は、図6に示す例では、各層の境界と一致しているが、本実施形態においてはこれに限定されるものではなく、例えば任意の層境界から一定距離シフトした位置等であってもよい。この場合、境界線Z1及びZ2は、マウス118−1等で上下に移動可能にすると便利である。さらに、境界線としては、層境界の形状を用いなくてもよい。例えば、断層画像の任意の深度位置に2本の直線を設定し、その2本の直線の間を所定の深度範囲とすることもできる。   In the example illustrated in FIG. 6, a case where two layers (L1 and L2) are included in the predetermined depth range is illustrated, but a plurality of layers may be included in the predetermined depth range. . Further, in the example shown in FIG. 6, the positions of the boundary lines Z1 and Z2 coincide with the boundary of each layer. However, in the present embodiment, the position is not limited to this, and for example, a certain distance from any layer boundary It may be a shifted position or the like. In this case, it is convenient that the boundary lines Z1 and Z2 can be moved up and down with the mouse 118-1. Furthermore, the shape of the layer boundary may not be used as the boundary line. For example, two straight lines can be set at arbitrary depth positions in the tomographic image, and a predetermined depth range can be set between the two straight lines.

図7は、図6に示す断層画像600のA(x,y)における深さ方向(Aスキャン方向)の輝度値(画素値)の変化をグラフ化した図である。この図7において、図6に示す構成に相当する部分には同じ符号を付している。また、図7において、横軸は深さ方向(Aスキャン方向)の位置を示し、縦軸は輝度値(画素値)を示している。   FIG. 7 is a graph showing changes in luminance values (pixel values) in the depth direction (A scan direction) at A (x, y) in the tomographic image 600 shown in FIG. In FIG. 7, the same reference numerals are given to the portions corresponding to the configuration shown in FIG. In FIG. 7, the horizontal axis indicates the position in the depth direction (A scan direction), and the vertical axis indicates the luminance value (pixel value).

図6に示す断層画像600は、図7に示すように、各層L1及びL2に応じて輝度値(画素値)が大きく変化した値を取る。この図7に示す例では、層L1は、高反射な輝度値を示しており、層L2は、層L1に比べ低反射な輝度値を示している。   The tomographic image 600 shown in FIG. 6 takes a value in which the luminance value (pixel value) changes greatly according to each layer L1 and L2, as shown in FIG. In the example shown in FIG. 7, the layer L1 shows a highly reflective luminance value, and the layer L2 shows a low reflective luminance value compared to the layer L1.

ここで、再び、図5の説明に戻る。
ステップS502の処理が終了すると、ステップS503に進む。ステップS503に進むと、層画像抽出部433は、層認識部420による層認識の結果に基づいて、再構成部410で形成された眼底Erの断層画像から、ステップS502で設定された所定の深度範囲に含まれる複数の層の各層ごとに層画像を抽出する処理を行う。
Here, it returns to description of FIG. 5 again.
When the process of step S502 ends, the process proceeds to step S503. In step S503, the layer image extraction unit 433 determines the predetermined depth set in step S502 from the tomographic image of the fundus Er formed by the reconstruction unit 410 based on the result of layer recognition by the layer recognition unit 420. A process of extracting a layer image for each of a plurality of layers included in the range is performed.

図8は、図5のステップS503における各層の層画像の抽出例を示す図である。具体的に、図8(a)には、図6に示す断層画像600から、層L1の層画像810を抽出した例を示しており、具体的に斜線部分が抽出された範囲である。また、図8(b)には、図6に示す断層画像600から、層L2の層画像820を抽出した例を示しており、具体的に斜線部分が抽出された範囲である。さらに、図8(a)には層L1の厚みd1が示されており、図8(b)には層L2の厚みd2が示されている。   FIG. 8 is a diagram illustrating an example of extracting the layer image of each layer in step S503 in FIG. Specifically, FIG. 8A illustrates an example in which the layer image 810 of the layer L1 is extracted from the tomographic image 600 illustrated in FIG. 6, and is a range where the hatched portion is specifically extracted. Further, FIG. 8B shows an example in which the layer image 820 of the layer L2 is extracted from the tomographic image 600 shown in FIG. 6, and is a range where the hatched portion is specifically extracted. Further, FIG. 8 (a) shows the thickness d1 of the layer L1, and FIG. 8 (b) shows the thickness d2 of the layer L2.

ここで、再び、図5の説明に戻る。
ステップS503の処理が終了すると、ステップS504に進む。ステップS504に進むと、第1の代表値算出部434は、ステップS503で抽出された各層の層画像に基づいて、当該各層ごとに深さ方向の代表値である第1の代表値を算出する処理を行う。
Here, it returns to description of FIG. 5 again.
When the process of step S503 ends, the process proceeds to step S504. In step S504, the first representative value calculation unit 434 calculates a first representative value that is a representative value in the depth direction for each layer, based on the layer image of each layer extracted in step S503. Process.

このステップS504の具体的な処理例について以下に説明する。
ステップS503において各層の層画像が抽出されると、第1の代表値算出部434は、各(x,y)座標ごとに、各層ごとに深さ方向の代表値である第1の代表値Mi(x,y)を算出する。ここで、iは、所定の深度範囲内に含まれる層を識別する番号を示しており、図6に示す例ではi=1または2となる。また、ここでは、各層の深さ方向の第1の代表値Mi(x,y)は、各(x,y)座標における各層の深さ方向(z方向)の輝度値(画素値)における中央値(例えば輝度値(画素値)のヒストグラム分布における中央値)を採用するものとする。なお、ここでは、各層の深さ方向の第1の代表値Mi(x,y)として、各層の深さ方向の輝度値(画素値)における中央値を採用したが、本実施形態においてはこれに限定されるものではなく、例えば、各層の深さ方向の輝度値(画素値)における平均値を用いてもよい。
A specific processing example of step S504 will be described below.
When the layer image of each layer is extracted in step S503, the first representative value calculation unit 434, for each (x, y) coordinate, the first representative value Mi that is the representative value in the depth direction for each layer. Calculate (x, y). Here, i indicates a number for identifying a layer included in a predetermined depth range, and i = 1 or 2 in the example shown in FIG. Further, here, the first representative value Mi (x, y) in the depth direction of each layer is the center in the luminance value (pixel value) in the depth direction (z direction) of each layer at each (x, y) coordinate. A value (for example, a median value in a histogram distribution of luminance values (pixel values)) is adopted. Here, as the first representative value Mi (x, y) in the depth direction of each layer, the median value in the luminance value (pixel value) in the depth direction of each layer is adopted. For example, an average value of luminance values (pixel values) in the depth direction of each layer may be used.

続いて、ステップS505において、第2の代表値算出部435は、ステップS504で算出された各層の第1の代表値を用いて、ステップS502で設定された所定の深度範囲における代表値である第2の代表値を算出する処理を行う。   Subsequently, in step S505, the second representative value calculation unit 435 uses the first representative value of each layer calculated in step S504 and is the representative value in the predetermined depth range set in step S502. A process of calculating a representative value of 2 is performed.

このステップS505の具体的な処理例について以下に説明する。
ステップS504において各層の深さ方向の第1の代表値Mi(x,y)が算出されると、第2の代表値算出部435は、例えば以下の(1)式を用いて、所定の深度範囲を代表する第2の代表値V(x,y)を算出する。
A specific processing example of step S505 will be described below.
When the first representative value Mi (x, y) in the depth direction of each layer is calculated in step S504, the second representative value calculation unit 435 uses a predetermined depth, for example, using the following equation (1). A second representative value V (x, y) representing the range is calculated.

この(1)式において、d1(x,y)は座標(x,y)における層L1の厚みであり、d2(x,y)は座標(x,y)における層L2の厚みである。なお、本計算では、所定の深度範囲の設定の仕方によっては、分母がゼロになる場合があるが、この場合には、第2の代表値V(x,y)としてゼロを用いるとよい。   In this equation (1), d1 (x, y) is the thickness of the layer L1 at the coordinates (x, y), and d2 (x, y) is the thickness of the layer L2 at the coordinates (x, y). In this calculation, the denominator may be zero depending on how the predetermined depth range is set. In this case, zero may be used as the second representative value V (x, y).

例えば、中心窩では、内境界膜層、神経線維層、神経節細胞層等の層は、厚みがゼロになるのが普通である。そして、所定の深度範囲として、これらの層を選択した場合には、中心窩では分母がゼロになることがある。そのような場合には、第2の代表値V(x,y)としてはゼロを用いるとよい。また、中心窩以外でも、例えば視神経乳頭部では、これらの層自体がなくなるため、層厚としてはゼロになることがあり、その場合には、第2の代表値V(x,y)としてはゼロを用いるとよい。   For example, in the fovea, layers such as the inner limiting membrane layer, nerve fiber layer, and ganglion cell layer usually have zero thickness. When these layers are selected as the predetermined depth range, the denominator may become zero in the fovea. In such a case, zero may be used as the second representative value V (x, y). Also, other than the fovea, for example, in the optic papilla, these layers themselves disappear, so the layer thickness may be zero. In this case, the second representative value V (x, y) is Use zero.

上述した(1)式は、所定の深度範囲に2つの層が含まれる場合の計算例を示したものであるが、例えば所定の深度範囲にn層(nは3以上の整数)含まれる場合には、以下の(2)式を用いて、所定の深度範囲を代表する第2の代表値V(x,y)を算出する。   The above formula (1) shows an example of calculation when two layers are included in a predetermined depth range. For example, when n layers (n is an integer of 3 or more) are included in a predetermined depth range. The second representative value V (x, y) representing the predetermined depth range is calculated using the following equation (2).

本実施形態では、上述した(1)式及び(2)式に示すように、第2の代表値算出部435は、各層の深さ方向における厚みdi(x,y)に応じて各層の第1の代表値Mi(x,y)に重み付けを行って、第2の代表値V(x,y)を算出するようにしている。このように計算した結果、各層の画像情報が反映された良好なEnFace画像を取得することが可能となる。また、本実施形態では、各層の第1の代表値Mi(x,y)に重み付けする各層の深さ方向における厚みとして、(1)式及び(2)式に示すように、各層のそれぞれの位置((x,y)座標)での深さ方向における厚みdi(x,y)を用いている。   In the present embodiment, as shown in the above-described formulas (1) and (2), the second representative value calculation unit 435 determines whether the second representative value calculation unit 435 corresponds to the thickness di (x, y) of each layer in the depth direction. The first representative value Mi (x, y) is weighted to calculate the second representative value V (x, y). As a result of the calculation as described above, it is possible to obtain a good EnFace image reflecting the image information of each layer. Further, in the present embodiment, as the thickness in the depth direction of each layer weighted to the first representative value Mi (x, y) of each layer, as shown in the equations (1) and (2), The thickness di (x, y) in the depth direction at the position ((x, y) coordinate) is used.

続いて、ステップS506において、正面画像生成部436は、ステップS506で算出された第2の代表値を用いて、正面画像としてEnFace画像を生成する処理を行う。例えば、本実施形態では、再構成部410の説明の際に上述したように、図6の断層画像(Bスキャン画像)600が128枚存在するため、画像生成処理部430は、各断層画像についてステップS501〜S505の処理を行って、EnFace画像を生成する。ここでは、代表値から正面画像であるEnFace画像を生成することは公知の技術でるため、その説明は省略する。   Subsequently, in step S506, the front image generation unit 436 performs a process of generating an EnFace image as a front image using the second representative value calculated in step S506. For example, in the present embodiment, as described above in the description of the reconstruction unit 410, since there are 128 tomographic images (B-scan images) 600 in FIG. 6, the image generation processing unit 430 determines each tomographic image. The process of steps S501 to S505 is performed to generate an EnFace image. Here, since it is a well-known technique to generate an EnFace image that is a front image from a representative value, description thereof is omitted.

ステップS506の処理が終了すると、図5に示すフローチャートの処理が終了する。   When the process of step S506 ends, the process of the flowchart shown in FIG. 5 ends.

図9は、図5に示すフローチャートの処理によって生成されるEnFace画像を説明するための図である。
具体的に、図9(a)は、層L1の深さ方向の第1の代表値M1(x,y)における分布の一例を示す図である。図9(b)は、層L2の深さ方向の第1の代表値M2(x,y)における分布の一例を示す図である。そして、図9(c)は、上述した(1)式で求めた第2の代表値V(x,y)を用いて生成したEnFace画像の一例を示す図である。
FIG. 9 is a diagram for explaining an EnFace image generated by the process of the flowchart shown in FIG.
Specifically, FIG. 9A is a diagram illustrating an example of the distribution of the first representative value M1 (x, y) in the depth direction of the layer L1. FIG. 9B is a diagram illustrating an example of a distribution in the first representative value M2 (x, y) in the depth direction of the layer L2. FIG. 9C is a diagram illustrating an example of an EnFace image generated using the second representative value V (x, y) obtained by the above-described equation (1).

なお、上述した図5に示すフローチャートの処理では、ステップS502において断層画像の深さ方向における一部の深度範囲を所定の深度範囲として設定し、ステップS506において正面画像としてEnFace画像を生成するものであった。ここで、本実施形態においては、正面画像としてEnFace画像を生成する態様に限定されるものではなく、例えば正面画像としProjection画像を生成する態様も適用可能である。この態様の場合、画像生成処理部430を第1のモードで駆動させ、ステップS502において断層画像の深さ方向における全部の深度範囲を所定の深度範囲として設定し、ステップS506において正面画像としてProjection画像を生成することになる。   In the process of the flowchart shown in FIG. 5 described above, a partial depth range in the depth direction of the tomographic image is set as a predetermined depth range in step S502, and an EnFace image is generated as a front image in step S506. there were. Here, in this embodiment, it is not limited to the aspect which produces | generates an EnFace image as a front image, For example, the aspect which produces | generates a Projection image as a front image is applicable. In this case, the image generation processing unit 430 is driven in the first mode, and the entire depth range in the depth direction of the tomographic image is set as a predetermined depth range in step S502, and the projection image is set as the front image in step S506. Will be generated.

また、上述した図5に示すフローチャートの処理では、ステップS505の第2の代表値V(x,y)の算出において、(1)式及び(2)式に示すように、各層の第1の代表値Mi(x,y)に対して各層の深さ方向における厚みを重み付けするものであった。本実施形態においては、この態様に限定されるものではなく、例えば、ステップS505において、単に、各層の第1の代表値Mi(x,y)における平均値を算出し、当該平均値を第2の代表値V(x,y)とする態様も適用可能である。また、例えば図5のステップS504等において、例えば層画像等を大きさ順にソートし、その中から決まった順位の層画像等を選択して処理を行うようにしてもよい。   Further, in the processing of the flowchart shown in FIG. 5 described above, in the calculation of the second representative value V (x, y) in step S505, as shown in the equations (1) and (2), the first of each layer The thickness in the depth direction of each layer is weighted to the representative value Mi (x, y). The present embodiment is not limited to this mode. For example, in step S505, the average value of the first representative values Mi (x, y) of each layer is simply calculated, and the average value is set to the second value. A mode in which the representative value V (x, y) is used is also applicable. Further, for example, in step S504 in FIG. 5, for example, layer images and the like may be sorted in order of size, and a layer image or the like having a predetermined order may be selected from the sorted images.

次に、本実施形態に係る画像処理装置110の画像表示例について説明する。
図10及び図11は、本発明の第1の実施形態に係る画像処理装置110のモニタ117における画像表示例を示す図である。
Next, an image display example of the image processing apparatus 110 according to the present embodiment will be described.
10 and 11 are diagrams showing examples of image display on the monitor 117 of the image processing apparatus 110 according to the first embodiment of the present invention.

図10には、モニタ117に、撮影システム100において生成された眼底の表面画像S、断層画像(Bスキャン画像)Ti、及び、Projection画像Pが並べて表示されている様子を示している。この図10では、Projection画像P及び表面画像S上には、断層画像Tiの取得位置Liが重ねて表示されている。また、Projection画像Pは、不図示の切り替え手段により、EnFace画像Eに切り替えて表示することもできるようになっている。   FIG. 10 shows a state in which the fundus surface image S, the tomographic image (B scan image) Ti, and the projection image P generated in the imaging system 100 are displayed side by side on the monitor 117. In FIG. 10, the acquisition position Li of the tomographic image Ti is superimposed on the Projection image P and the surface image S. Further, the Projection image P can be switched to the EnFace image E and displayed by switching means (not shown).

また、図11に示すように、モニタ117に、撮影システム100において生成された断層画像(Bスキャン画像)Ti、Projection画像P、及び、EnFace画像Eを並べて表示することもできる。   In addition, as shown in FIG. 11, the tomographic image (B scan image) Ti, the projection image P, and the EnFace image E generated by the imaging system 100 can be displayed side by side on the monitor 117.

本実施形態では、再構成部410の説明の際に上述したように、128枚の断層画像(Bスキャン画像)を生成する。この場合、例えば、図10及び図11に示すモニタ117には、選択された1枚の断面としての断層画像Ti(i=0〜128)、または、三次元で再構成された断層画像の断面画像Ti(この場合には任意の番号iが振られる)を表示する。この際、検者は、操作入力部118を操作して、表示する断層画像Tiを切り替えることができるものとする。   In the present embodiment, as described above when describing the reconstruction unit 410, 128 tomographic images (B-scan images) are generated. In this case, for example, the monitor 117 shown in FIG. 10 and FIG. 11 has a tomographic image Ti (i = 0 to 128) as one selected cross section, or a cross section of a tomographic image reconstructed in three dimensions. An image Ti (in this case, an arbitrary number i is assigned) is displayed. At this time, it is assumed that the examiner can switch the tomographic image Ti to be displayed by operating the operation input unit 118.

断層画像Tiが切り替わると、Projection画像P、EnFace画像E及び表面画像S上に表示される断層画像Tiの取得位置Liの表示位置も更新される。これにより、検者は、表示された断層画像Tiが被検眼Eの眼底Er上のどの位置の断層画像であるのかを容易に把握することができる。そして、取得位置LiがEnFace画像E上に置かれた場合、所定の深度範囲における被検査物の構造変化と断層画像Tiとを対比しながら観察することも可能である。   When the tomographic image Ti is switched, the display position of the acquisition position Li of the tomographic image Ti displayed on the Projection image P, the EnFace image E, and the surface image S is also updated. Thereby, the examiner can easily grasp the position of the displayed tomographic image Ti on the fundus Er of the eye E to be examined. When the acquisition position Li is placed on the EnFace image E, it is also possible to observe while comparing the structural change of the inspection object in the predetermined depth range and the tomographic image Ti.

なお、本実施形態においては、被検査物として被検眼Eの眼底Erを適用し、この眼底Erの断層画像を用いてEnFace画像及びProjection画像を生成するようにしているが、本発明においてはこの形態に限定されるものではない。例えば、被検査物として被検眼Eの前眼部を適用し、この前眼部の断層画像を用いてEnFace画像及びProjection画像を生成する形態も、本発明に適用可能である。   In this embodiment, the fundus Er of the eye E is applied as the object to be inspected, and an EnFace image and a Projection image are generated using the tomographic image of the fundus Er. The form is not limited. For example, a form in which the anterior eye part of the eye E to be examined is applied as the object to be inspected, and the EnFace image and the projection image are generated using the tomographic image of the anterior eye part is also applicable to the present invention.

第1の実施形態では、眼底Erの断層画像の所定の深度範囲に含まれる各層ごとに深さ方向の代表値である第1の代表値を算出し、算出した各層の第1の代表値に基づいて眼底Erの正面画像を生成するようにしている。
かかる構成によれば、正面画像を生成する眼底Erの所定の深度範囲に複数の層が含まれる場合においても、各層の画像情報が反映された良好な正面画像を取得することができる。
In the first embodiment, a first representative value that is a representative value in the depth direction is calculated for each layer included in a predetermined depth range of the tomographic image of the fundus Er, and the calculated first representative value of each layer is calculated. Based on this, a front image of the fundus oculi Er is generated.
According to such a configuration, even when a plurality of layers are included in a predetermined depth range of the fundus Er for generating the front image, a good front image reflecting the image information of each layer can be acquired.

(第2の実施形態)
次に、本発明の第2の実施形態について説明する。
(Second Embodiment)
Next, a second embodiment of the present invention will be described.

上述した第1の実施形態は、(1)式及び(2)式に示すように、各層の第1の代表値Mi(x,y)に重み付けする各層の深さ方向における厚みとして、各層のそれぞれの位置((x,y)座標)での深さ方向における厚みdi(x,y)を用いる形態であった。本発明においては、この形態に限らず、以下に示す第2の実施形態も適用可能である。   In the first embodiment described above, as shown in the equations (1) and (2), the thickness in the depth direction of each layer weighted to the first representative value Mi (x, y) of each layer is as follows. The thickness di (x, y) in the depth direction at each position ((x, y) coordinate) was used. In the present invention, the present invention is not limited to this form, and the second embodiment shown below can also be applied.

第2の実施形態に係る撮影システムの概略構成は、図1に示す第1の実施形態に係る撮影システム100の概略構成と同様である。また、第2の実施形態に係る図1に示す画像処理装置110及び撮影装置120の外観構成、並びに、撮影装置120の内部構成は、それぞれ、図2に示す第1の実施形態に係る画像処理装置110及び撮影装置120の外観構成、並びに、図3に示す第1の実施形態に係る撮影装置120の内部構成と同様である。また、第2の実施形態に係る画像処理装置110の機能構成は、図4に示す第1の実施形態に係る画像処理装置110の機能構成と同様である。また、第2の実施形態に係る画像処理装置110による画像処理方法における処理手順は、図5に示す第1の実施形態に係る画像処理装置110による画像処理方法における処理手順を示すフローチャートと同様である。   The schematic configuration of the imaging system according to the second embodiment is the same as the schematic configuration of the imaging system 100 according to the first embodiment shown in FIG. The external configuration of the image processing apparatus 110 and the imaging apparatus 120 shown in FIG. 1 according to the second embodiment and the internal configuration of the imaging apparatus 120 are the same as those of the image processing according to the first embodiment shown in FIG. The external configuration of the apparatus 110 and the imaging apparatus 120 and the internal configuration of the imaging apparatus 120 according to the first embodiment shown in FIG. 3 are the same. The functional configuration of the image processing apparatus 110 according to the second embodiment is the same as the functional configuration of the image processing apparatus 110 according to the first embodiment shown in FIG. The processing procedure in the image processing method by the image processing apparatus 110 according to the second embodiment is the same as the flowchart showing the processing procedure in the image processing method by the image processing apparatus 110 according to the first embodiment shown in FIG. is there.

第2の実施形態では、図5のステップS505における第2の代表値V(x,y)を算出する際の詳細な処理内容が、第1の実施形態と異なるため、以下の第2の実施形態の説明では、この第1の実施形態と異なる部分のみを説明する。   In the second embodiment, the detailed processing contents when calculating the second representative value V (x, y) in step S505 in FIG. 5 are different from those in the first embodiment. In the description of the embodiment, only portions different from the first embodiment will be described.

第2の実施形態においては、図5のステップS505において、第2の代表値算出部435は、第1の実施形態のように各層のそれぞれの位置((x,y)座標)での深さ方向における厚みdi(x,y)を用いずに、まず、各層の深さ方向における平均的な厚みである平均厚みを求める。そして、第2の代表値算出部435は、各層の深さ方向における平均厚みに応じて各層の第1の代表値Mi(x,y)に重み付けを行って、第2の代表値V(x,y)を算出する。具体的に、第2の実施形態における第2の代表値算出部435は、例えば以下の(3)式を用いて、所定の深度範囲を代表する第2の代表値V(x,y)を算出する。   In the second embodiment, in step S505 of FIG. 5, the second representative value calculation unit 435 calculates the depth at each position ((x, y) coordinate) of each layer as in the first embodiment. First, an average thickness that is an average thickness in the depth direction of each layer is obtained without using the thickness di (x, y) in the direction. Then, the second representative value calculation unit 435 weights the first representative value Mi (x, y) of each layer according to the average thickness in the depth direction of each layer, and obtains the second representative value V (x , Y). Specifically, the second representative value calculation unit 435 in the second embodiment calculates the second representative value V (x, y) that represents a predetermined depth range using, for example, the following expression (3). calculate.

この(3)式において、davg1,davg2,…,davgnは、所定の深度範囲に含まれる各層(L1,L2,…,Ln)の深さ方向における平均厚みである。なお、本計算では、所定の深度範囲の設定の仕方によっては、分母がゼロになる場合があるが、この場合には、第2の代表値V(x,y)としてゼロを用いるとよい。また、各層の第1の代表値Mi(x,y)に各層の深さ方向における平均厚みに応じた重み付けを行うことは、各層ごとの正面画像(EnFace画像等)を生成することに相当すると言い換えることもできる。   In the formula (3), davg1, davg2,..., Davn is an average thickness in the depth direction of each layer (L1, L2,..., Ln) included in a predetermined depth range. In this calculation, the denominator may be zero depending on how the predetermined depth range is set. In this case, zero may be used as the second representative value V (x, y). In addition, weighting the first representative value Mi (x, y) of each layer according to the average thickness in the depth direction of each layer corresponds to generating a front image (such as an EnFace image) for each layer. In other words.

第2の実施形態では、眼底Erの断層画像の所定の深度範囲に含まれる各層ごとに算出した第1の代表値に各層の深さ方向における平均厚みに応じた重み付けを行って、眼底Erの正面画像を生成するようにしている。
かかる構成によれば、正面画像を生成する眼底Erの所定の深度範囲に複数の層が含まれる場合においても、各層の画像情報が反映された良好な正面画像を取得することができる。
In the second embodiment, the first representative value calculated for each layer included in the predetermined depth range of the tomographic image of the fundus Er is weighted according to the average thickness in the depth direction of each layer, and the fundus Er A front image is generated.
According to such a configuration, even when a plurality of layers are included in a predetermined depth range of the fundus Er for generating the front image, a good front image reflecting the image information of each layer can be acquired.

(第3の実施形態)
次に、本発明の第3の実施形態について説明する。
(Third embodiment)
Next, a third embodiment of the present invention will be described.

上述した第1の実施形態は、(1)式及び(2)式に示すように、各層の第1の代表値Mi(x,y)に重み付けする各層の深さ方向における厚みとして、各層のそれぞれの位置((x,y)座標)での深さ方向における厚みdi(x,y)を用いる形態であった。本発明においては、この形態に限らず、以下に示す第3の実施形態も適用可能である。   In the first embodiment described above, as shown in the equations (1) and (2), the thickness in the depth direction of each layer weighted to the first representative value Mi (x, y) of each layer is as follows. The thickness di (x, y) in the depth direction at each position ((x, y) coordinate) was used. In the present invention, the present invention is not limited to this form, and the third embodiment shown below can also be applied.

第3の実施形態に係る撮影システムの概略構成は、図1に示す第1の実施形態に係る撮影システム100の概略構成と同様である。また、第3の実施形態に係る図1に示す画像処理装置110及び撮影装置120の外観構成、並びに、撮影装置120の内部構成は、それぞれ、図2に示す第1の実施形態に係る画像処理装置110及び撮影装置120の外観構成、並びに、図3に示す第1の実施形態に係る撮影装置120の内部構成と同様である。また、第3の実施形態に係る画像処理装置110の機能構成は、図4に示す第1の実施形態に係る画像処理装置110の機能構成と同様である。また、第3の実施形態に係る画像処理装置110による画像処理方法における処理手順は、図5に示す第1の実施形態に係る画像処理装置110による画像処理方法における処理手順を示すフローチャートと同様である。   The schematic configuration of the imaging system according to the third embodiment is the same as the schematic configuration of the imaging system 100 according to the first embodiment shown in FIG. The external configuration of the image processing apparatus 110 and the imaging apparatus 120 shown in FIG. 1 according to the third embodiment and the internal configuration of the imaging apparatus 120 are the same as those of the image processing according to the first embodiment shown in FIG. The external configuration of the apparatus 110 and the imaging apparatus 120 and the internal configuration of the imaging apparatus 120 according to the first embodiment shown in FIG. 3 are the same. The functional configuration of the image processing apparatus 110 according to the third embodiment is the same as the functional configuration of the image processing apparatus 110 according to the first embodiment shown in FIG. The processing procedure in the image processing method by the image processing apparatus 110 according to the third embodiment is the same as the flowchart showing the processing procedure in the image processing method by the image processing apparatus 110 according to the first embodiment shown in FIG. is there.

第3の実施形態では、図5のステップS505における第2の代表値V(x,y)を算出する際の詳細な処理内容が、第1の実施形態と異なるため、以下の第3の実施形態の説明では、この第1の実施形態と異なる部分のみを説明する。   In the third embodiment, the detailed processing contents when calculating the second representative value V (x, y) in step S505 in FIG. 5 are different from those in the first embodiment. In the description of the embodiment, only portions different from the first embodiment will be described.

第3の実施形態においては、図5のステップS505において、第2の代表値算出部435は、第1の実施形態のように各層のそれぞれの位置((x,y)座標)での深さ方向における厚みdi(x,y)を用いずに、まず、各層(各層画像)の深さ方向における輝度値(画素値)の標準偏差及その平均値を求める。そして、第2の代表値算出部435は、各層(各層画像)の深さ方向における画素値の標準偏差を当該画素値の平均値で除算した結果に応じて各層の第1の代表値Mi(x,y)に重み付けを行って、第2の代表値V(x,y)を算出する。具体的に、第3の実施形態における第2の代表値算出部435は、例えば以下の(4)式を用いて、所定の深度範囲を代表する第2の代表値V(x,y)を算出する。   In the third embodiment, in step S505 of FIG. 5, the second representative value calculation unit 435 calculates the depth at each position ((x, y) coordinate) of each layer as in the first embodiment. Without using the thickness di (x, y) in the direction, first, the standard deviation of the luminance value (pixel value) in the depth direction of each layer (each layer image) and its average value are obtained. Then, the second representative value calculation unit 435 divides the standard deviation of the pixel values in the depth direction of each layer (each layer image) by the average value of the pixel values according to the first representative value Mi ( x, y) is weighted to calculate a second representative value V (x, y). Specifically, the second representative value calculation unit 435 in the third embodiment calculates the second representative value V (x, y) representing a predetermined depth range using, for example, the following equation (4). calculate.

この(4)式において、σiは、所定の深度範囲に含まれるi番目の層(層画像)の深さ方向における画素値の標準偏差であり、Avgiは、所定の深度範囲に含まれるi番目の層(層画像)の深さ方向における画素値の平均値である。また、(4)式において、siは、(5)式に記載するように、i番目の層(層画像)の深さ方向における画素値の標準偏差σiを、i番目の層(層画像)の深さ方向における画素値の平均値Avgiで除算した値である。   In this equation (4), σi is the standard deviation of the pixel values in the depth direction of the i-th layer (layer image) included in the predetermined depth range, and Avgi is the i-th included in the predetermined depth range. This is the average value of the pixel values in the depth direction of the layer (layer image). Further, in the expression (4), as described in the expression (5), si represents the standard deviation σi of the pixel value in the depth direction of the i-th layer (layer image) as the i-th layer (layer image). The pixel value is divided by the average value Avgi of the pixel values in the depth direction.

第3の実施形態では、第2の代表値V(x,y)を算出する際に、各層の深さ方向における画素値に応じて各層の第1の代表値Mi(x,y)に重み付けを行うようにしている。具体的に、各層の深さ方向における画素値の標準偏差を当該画素値の平均値で除算した結果に応じて各層の第1の代表値Mi(x,y)に重み付けを行って、第2の代表値V(x,y)を算出するようにしている。
かかる構成によれば、第1及び第2の実施形態における効果に加えて、相対的に比較して画素値の標準偏差が大きい層の重みを増やす処理を行うことにより、画像情報の多い層の画像情報を強調した正面画像を生成することができる。
In the third embodiment, when calculating the second representative value V (x, y), the first representative value Mi (x, y) of each layer is weighted according to the pixel value in the depth direction of each layer. Like to do. Specifically, the first representative value Mi (x, y) of each layer is weighted according to the result of dividing the standard deviation of the pixel values in the depth direction of each layer by the average value of the pixel values, and the second The representative value V (x, y) is calculated.
According to such a configuration, in addition to the effects in the first and second embodiments, by performing the process of increasing the weight of the layer having a relatively large standard deviation of the pixel value as compared with each other, A front image with enhanced image information can be generated.

(第4の実施形態)
次に、本発明の第4の実施形態について説明する。
(Fourth embodiment)
Next, a fourth embodiment of the present invention will be described.

上述した第1の実施形態は、(1)式及び(2)式に示すように、各層の第1の代表値Mi(x,y)に重み付けする各層の深さ方向における厚みとして、各層のそれぞれの位置((x,y)座標)での深さ方向における厚みdi(x,y)を用いる形態であった。本発明においては、この形態に限らず、以下に示す第4の実施形態も適用可能である。具体的に、第4の実施形態は、検者が所望の層の情報を選択的に調整可能とし、この調整内容も考慮して各層の第1の代表値Mi(x,y)に重み付けを行うものである。   In the first embodiment described above, as shown in the equations (1) and (2), the thickness in the depth direction of each layer weighted to the first representative value Mi (x, y) of each layer is as follows. The thickness di (x, y) in the depth direction at each position ((x, y) coordinate) was used. In the present invention, the present invention is not limited to this form, and the following fourth embodiment is also applicable. Specifically, in the fourth embodiment, the examiner can selectively adjust information on a desired layer, and the first representative value Mi (x, y) of each layer is weighted in consideration of the adjustment content. Is what you do.

第4の実施形態に係る撮影システムの概略構成は、図1に示す第1の実施形態に係る撮影システム100の概略構成と同様である。また、第4の実施形態に係る図1に示す画像処理装置110及び撮影装置120の外観構成、並びに、撮影装置120の内部構成は、それぞれ、図2に示す第1の実施形態に係る画像処理装置110及び撮影装置120の外観構成、並びに、図3に示す第1の実施形態に係る撮影装置120の内部構成と同様である。また、第4の実施形態に係る画像処理装置110の機能構成は、図4に示す第1の実施形態に係る画像処理装置110の機能構成と同様である。また、第4の実施形態に係る画像処理装置110による画像処理方法における処理手順は、図5に示す第1の実施形態に係る画像処理装置110による画像処理方法における処理手順を示すフローチャートと同様である。   The schematic configuration of the imaging system according to the fourth embodiment is the same as the schematic configuration of the imaging system 100 according to the first embodiment shown in FIG. The external configuration of the image processing apparatus 110 and the imaging apparatus 120 shown in FIG. 1 according to the fourth embodiment and the internal configuration of the imaging apparatus 120 are the same as those of the image processing according to the first embodiment shown in FIG. The external configuration of the apparatus 110 and the imaging apparatus 120 and the internal configuration of the imaging apparatus 120 according to the first embodiment shown in FIG. 3 are the same. The functional configuration of the image processing apparatus 110 according to the fourth embodiment is the same as the functional configuration of the image processing apparatus 110 according to the first embodiment shown in FIG. The processing procedure in the image processing method by the image processing apparatus 110 according to the fourth embodiment is the same as the flowchart showing the processing procedure in the image processing method by the image processing apparatus 110 according to the first embodiment shown in FIG. is there.

第4の実施形態では、図5のステップS505における第2の代表値V(x,y)を算出する際の詳細な処理内容が、第1の実施形態と異なるため、以下の第4の実施形態の説明では、この第1の実施形態と異なる部分のみを説明する。   In the fourth embodiment, the detailed processing contents when calculating the second representative value V (x, y) in step S505 in FIG. 5 are different from those in the first embodiment. In the description of the embodiment, only portions different from the first embodiment will be described.

具体的に、本実施形態では、図5のステップS505において、第2の代表値算出部435は、ステップS502で設定された所定の深度範囲における代表値である第2の代表値を算出する際に、各層の深さ方向における厚みに加えて更に当該各層に対して調整された表示強度に応じて当該各層の第1の代表値に重み付けを行う。   Specifically, in the present embodiment, in step S505 in FIG. 5, the second representative value calculation unit 435 calculates the second representative value that is the representative value in the predetermined depth range set in step S502. In addition to the thickness in the depth direction of each layer, the first representative value of each layer is weighted according to the display intensity adjusted for each layer.

図12は、本発明の第4の実施形態を示し、各層の第1の代表値に重み付けするための、各層の表示強度における調整画面1200の一例を示す図である。この調整画面1200は、モニタ117に表示される。   FIG. 12 is a diagram showing an example of an adjustment screen 1200 for display intensity of each layer for weighting the first representative value of each layer according to the fourth embodiment of the present invention. This adjustment screen 1200 is displayed on the monitor 117.

図12の調整画面1200には、層名称表示領域1210に被検眼Eの網膜における各層の名称が示されている。また、層名称表示領域1210に表示された各層の名称に横には、現在設定されている所定の深度範囲における上限1221及び下限1222を表すスライダー1220、及び、各層の表示強度を表すスライダー1230が設けられている。   In the adjustment screen 1200 of FIG. 12, the name of each layer in the retina of the eye E is shown in the layer name display area 1210. Next to the name of each layer displayed in the layer name display area 1210, a slider 1220 representing an upper limit 1221 and a lower limit 1222 in a predetermined depth range that is currently set, and a slider 1230 representing the display intensity of each layer. Is provided.

この図12に示す例では、スライダー1220で定められる所定の深度範囲の上限1221は内境界膜と神経線維層との間に位置しており、その下限1222は内網状層と内顆粒層との間に位置している。これに対応して、スライダー1220で定められる所定の深度範囲の範囲外に位置するスライダー1230は、検者が操作できないようになっている(図12では灰色で表示)。図12に示す例では、神経線維層、神経節細胞層及び内網状層のスライダー1230のみを検者が操作可能であることを示している(図12では黒色で表示)。また、スライダー1230は、中央が0%(表示強度を変更しないことを意味する)であり、±30%の範囲内で表示強度を変更して調整できるようになっている。なお、この図12に示すような設定は、全ての被検者の検査に共有する設定として、初期設定画面で設定できるようにしてもよいし、各被検者の検査を表示する表示画面から設定できるようにしてもよい。   In the example shown in FIG. 12, the upper limit 1221 of the predetermined depth range defined by the slider 1220 is located between the inner limiting membrane and the nerve fiber layer, and the lower limit 1222 is the difference between the inner reticulated layer and the inner granular layer. Located between. Correspondingly, the slider 1230 positioned outside the predetermined depth range defined by the slider 1220 is not operable by the examiner (displayed in gray in FIG. 12). The example shown in FIG. 12 shows that the examiner can only operate the slider 1230 of the nerve fiber layer, ganglion cell layer, and inner reticulated layer (shown in black in FIG. 12). The slider 1230 has a center of 0% (meaning that the display intensity is not changed), and can be adjusted by changing the display intensity within a range of ± 30%. The setting shown in FIG. 12 may be set on the initial setting screen as a setting shared by all the examinees, or from a display screen that displays each examinee's examination. It may be settable.

本実施形態では、具体的に、図5のステップS505において、第2の代表値算出部435は、ステップS504で算出された各層の深さ方向の第1の代表値Mi(x,y)に対して、以下の(6)式に示す重み値ei(x,y)を重み付けして、以下の(7)式に示す所定の深度範囲を代表する第2の代表値V(x,y)を算出する。   In the present embodiment, specifically, in step S505 of FIG. 5, the second representative value calculation unit 435 sets the first representative value Mi (x, y) in the depth direction of each layer calculated in step S504. On the other hand, the weight value ei (x, y) shown in the following equation (6) is weighted, and the second representative value V (x, y) representing the predetermined depth range shown in the following equation (7). Is calculated.

ここで、(6)式において、aiは、層iに対して調整された表示強度(例えば図12において+30%とされた場合には0.3)を示す。   Here, in the equation (6), ai represents the display intensity adjusted with respect to the layer i (for example, 0.3 in the case of + 30% in FIG. 12).

第4の実施形態では、第2の代表値V(x,y)を算出する際に、各層の深さ方向における厚みdi(x,y)に加えて更に当該各層に対して調整された表示強度aiに応じて当該各層の第1の代表値Mi(x,y)に重み付けを行うようにしている。
かかる構成によれば、第1の実施形態における効果に加えて、さらに検者が特定の層の情報を選択的に増やしたり減らしたりすることができるため、検者が所望する正面画像を生成することができる。
In the fourth embodiment, when calculating the second representative value V (x, y), in addition to the thickness di (x, y) in the depth direction of each layer, the display further adjusted for each layer The first representative value Mi (x, y) of each layer is weighted according to the strength ai.
According to such a configuration, in addition to the effects in the first embodiment, the examiner can selectively increase or decrease the information of a specific layer, so that a front image desired by the examiner is generated. be able to.

(その他の実施形態)
上述した第1の実施形態は、(1)式及び(2)式に示すように、各層の第1の代表値Mi(x,y)に重み付けする各層の深さ方向における厚みとして、各層のそれぞれの位置((x,y)座標)での深さ方向における厚みdi(x,y)を用いる形態であった。本発明においては、この形態に限らず、例えば、各層の第1の代表値Mi(x,y)に重み付けする各層の深さ方向における厚みとして、各層の局所的な位置での深さ方向における厚みを用いる形態も、本発明に適用可能である。この際、各層の局所的な位置は、例えば任意の方法で選択可能である。
(Other embodiments)
In the first embodiment described above, as shown in the equations (1) and (2), the thickness in the depth direction of each layer weighted to the first representative value Mi (x, y) of each layer is as follows. The thickness di (x, y) in the depth direction at each position ((x, y) coordinate) was used. In the present invention, not limited to this form, for example, the thickness in the depth direction of each layer weighted to the first representative value Mi (x, y) of each layer is the depth direction in the local position of each layer. A form using thickness is also applicable to the present invention. At this time, the local position of each layer can be selected by an arbitrary method, for example.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
このプログラム及び当該プログラムを記憶したコンピュータ読み取り可能な記憶媒体は、本発明に含まれる。
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
This program and a computer-readable storage medium storing the program are included in the present invention.

なお、上述した本発明の実施形態は、いずれも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、または、その主要な特徴から逸脱することなく、様々な形で実施することができる。   Note that the above-described embodiments of the present invention are merely examples of implementation in practicing the present invention, and the technical scope of the present invention should not be construed as being limited thereto. It is. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.

430 画像生成処理部、431 断層画像入力部、432 深度範囲設定部、433 層画像抽出部、434 第1の代表値算出部、435 第2の代表値算出部、436 正面画像生成部 430 image generation processing unit, 431 tomographic image input unit, 432 depth range setting unit, 433 layer image extraction unit, 434 first representative value calculation unit, 435 second representative value calculation unit, 436 front image generation unit

Claims (16)

層構造を有する被検査物の断層画像から、前記被検査物の深さ方向における所定の深度範囲に含まれる複数の層の各層ごとに層画像を抽出する抽出手段と、
前記抽出手段で抽出された前記各層の前記層画像に基づいて、前記各層ごとに前記深さ方向の代表値である第1の代表値を算出する第1の代表値算出手段と、
前記第1の代表値算出手段で算出された前記各層の前記第1の代表値を用いて、前記所定の深度範囲における代表値である第2の代表値を算出する第2の代表値算出手段と、
前記第2の代表値を用いて、前記被検査物の正面画像を生成する生成手段と
を有することを特徴とする画像処理装置。
Extraction means for extracting a layer image for each layer of a plurality of layers included in a predetermined depth range in the depth direction of the inspection object from a tomographic image of the inspection object having a layer structure;
First representative value calculating means for calculating a first representative value that is a representative value in the depth direction for each of the layers, based on the layer image of the layers extracted by the extracting means;
Second representative value calculating means for calculating a second representative value, which is a representative value in the predetermined depth range, using the first representative value of each layer calculated by the first representative value calculating means. When,
An image processing apparatus comprising: a generating unit configured to generate a front image of the inspection object using the second representative value.
前記所定の深度範囲は、前記断層画像の前記深さ方向における一部の深度範囲であり、
前記生成手段は、前記正面画像としてEnFace画像を生成することを特徴とする請求項1に記載の画像処理装置。
The predetermined depth range is a partial depth range in the depth direction of the tomographic image,
The image processing apparatus according to claim 1, wherein the generation unit generates an EnFace image as the front image.
前記所定の深度範囲は、前記断層画像の前記深さ方向における全部の深度範囲であり、
前記生成手段は、前記正面画像としてProjection画像を生成することを特徴とする請求項1に記載の画像処理装置。
The predetermined depth range is the entire depth range in the depth direction of the tomographic image,
The image processing apparatus according to claim 1, wherein the generation unit generates a Projection image as the front image.
前記断層画像の前記深さ方向における範囲から、前記所定の深度範囲を設定する設定手段を更に有し、
前記抽出手段は、前記断層画像から、前記設定手段で設定された前記所定の深度範囲に含まれる前記各層の前記層画像を抽出することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
From the range in the depth direction of the tomographic image, further comprising setting means for setting the predetermined depth range,
The said extraction means extracts the said layer image of each said layer included in the said predetermined depth range set by the said setting means from the said tomographic image, The any one of Claim 1 thru | or 3 characterized by the above-mentioned. The image processing apparatus described.
前記断層画像から、前記被検査物の深さ方向における層を認識する層認識手段を更に有し、
前記抽出手段は、前記層認識手段による層認識の結果に基づいて、前記所定の深度範囲に含まれる前記各層の前記層画像を抽出することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
A layer recognition means for recognizing a layer in the depth direction of the inspection object from the tomographic image;
5. The extraction unit according to claim 1, wherein the extraction unit extracts the layer image of each layer included in the predetermined depth range based on a result of layer recognition by the layer recognition unit. An image processing apparatus according to 1.
前記第1の代表値算出手段は、前記各層の前記第1の代表値として、前記各層の前記深さ方向の画素値における中央値または平均値を算出することを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。   6. The first representative value calculating means calculates a median value or an average value of pixel values in the depth direction of each layer as the first representative value of each layer. The image processing apparatus according to any one of the above. 前記第2の代表値算出手段は、前記第2の代表値として、前記各層の前記第1の代表値における平均値を算出することを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。   The said 2nd representative value calculation means calculates the average value in the said 1st representative value of each said layer as said 2nd representative value, The any one of Claim 1 thru | or 6 characterized by the above-mentioned. Image processing apparatus. 前記第2の代表値算出手段は、前記第2の代表値を算出する際に、前記各層の前記深さ方向における厚みに応じて前記各層の前記第1の代表値に重み付けを行うことを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。   The second representative value calculating means weights the first representative value of each layer according to the thickness of each layer in the depth direction when calculating the second representative value. The image processing apparatus according to any one of claims 1 to 6. 前記各層の前記深さ方向における厚みは、前記各層のそれぞれの位置での前記深さ方向における厚みであることを特徴とする請求項8に記載の画像処理装置。   The image processing apparatus according to claim 8, wherein a thickness of each layer in the depth direction is a thickness in the depth direction at each position of the layers. 前記各層の前記深さ方向における厚みは、前記各層の前記深さ方向における平均厚みであることを特徴とする請求項8に記載の画像処理装置。   The image processing apparatus according to claim 8, wherein the thickness of each layer in the depth direction is an average thickness of the layers in the depth direction. 前記各層の前記深さ方向における厚みは、前記各層の局所的な位置での前記深さ方向における厚みであることを特徴とする請求項8に記載の画像処理装置。   The image processing apparatus according to claim 8, wherein a thickness of each layer in the depth direction is a thickness in the depth direction at a local position of each layer. 前記第2の代表値算出手段は、前記第2の代表値を算出する際に、前記各層の前記深さ方向における厚みに加えて更に前記各層に対して調整された表示強度に応じて前記各層の前記第1の代表値に重み付けを行うことを特徴とする請求項8乃至11のいずれか1項に記載の画像処理装置。   When calculating the second representative value, the second representative value calculating means further adds the thickness of each layer according to the display intensity adjusted for each layer in addition to the thickness of each layer in the depth direction. The image processing apparatus according to claim 8, wherein the first representative value is weighted. 前記第2の代表値算出手段は、前記第2の代表値を算出する際に、前記各層の前記深さ方向における画素値に応じて前記各層の前記第1の代表値に重み付けを行うことを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。   The second representative value calculating means weights the first representative value of each layer according to a pixel value in the depth direction of each layer when calculating the second representative value. The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus. 前記第2の代表値算出手段は、前記画素値の標準偏差を当該画素値の平均値で除算した結果に応じて前記各層の前記第1の代表値に重み付けを行うことを特徴とする請求項13に記載の画像処理装置。   The second representative value calculating means weights the first representative value of each layer according to a result obtained by dividing a standard deviation of the pixel value by an average value of the pixel value. The image processing apparatus according to 13. 層構造を有する被検査物の断層画像から、前記被検査物の深さ方向における所定の深度範囲に含まれる複数の層の各層ごとに層画像を抽出する抽出ステップと、
前記抽出ステップで抽出された前記各層の前記層画像に基づいて、前記各層ごとに前記深さ方向の代表値である第1の代表値を算出する第1の代表値算出ステップと、
前記第1の代表値算出ステップで算出された前記各層の前記第1の代表値を用いて、前記所定の深度範囲における代表値である第2の代表値を算出する第2の代表値算出ステップと、
前記第2の代表値を用いて、前記被検査物の正面画像を生成する生成ステップと
を有することを特徴とする画像処理方法。
An extraction step of extracting a layer image for each layer of a plurality of layers included in a predetermined depth range in the depth direction of the inspection object from a tomographic image of the inspection object having a layer structure;
A first representative value calculating step of calculating a first representative value that is a representative value in the depth direction for each layer based on the layer image of each layer extracted in the extracting step;
A second representative value calculating step of calculating a second representative value that is a representative value in the predetermined depth range by using the first representative value of each layer calculated in the first representative value calculating step. When,
An image processing method comprising: generating a front image of the inspection object using the second representative value.
請求項1乃至14のいずれか1項に記載の画像処理装置の各手段としてコンピュータを機能させるためのプログラム。   The program for functioning a computer as each means of the image processing apparatus of any one of Claims 1 thru | or 14.
JP2016133487A 2016-07-05 2016-07-05 Image processing device, image processing method, and program Pending JP2018000687A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016133487A JP2018000687A (en) 2016-07-05 2016-07-05 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016133487A JP2018000687A (en) 2016-07-05 2016-07-05 Image processing device, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2018000687A true JP2018000687A (en) 2018-01-11

Family

ID=60947139

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016133487A Pending JP2018000687A (en) 2016-07-05 2016-07-05 Image processing device, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2018000687A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019150346A (en) * 2018-03-05 2019-09-12 キヤノン株式会社 Diagnosis support apparatus, diagnosis support method, and program
JP2019198383A (en) * 2018-05-14 2019-11-21 キヤノン株式会社 Image processing system, image processing method and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019150346A (en) * 2018-03-05 2019-09-12 キヤノン株式会社 Diagnosis support apparatus, diagnosis support method, and program
JP7163039B2 (en) 2018-03-05 2022-10-31 キヤノン株式会社 Diagnosis support device, diagnosis support method and program
JP2019198383A (en) * 2018-05-14 2019-11-21 キヤノン株式会社 Image processing system, image processing method and program
JP7086708B2 (en) 2018-05-14 2022-06-20 キヤノン株式会社 Image processing equipment, image processing methods and programs

Similar Documents

Publication Publication Date Title
JP5867719B2 (en) Optical image measuring device
JP5483873B2 (en) Optical tomographic imaging apparatus and optical tomographic imaging method
JP6632267B2 (en) Ophthalmic apparatus, display control method and program
JP6767762B2 (en) Information processing device, control method of information processing device, and execution program of the control method
JP5916110B2 (en) Image display device, image display method, and program
JP2014155694A (en) Ophthalmologic apparatus and ophthalmologic method
JP6415030B2 (en) Image processing apparatus, image processing method, and program
KR101636811B1 (en) Imaging apparatus, image processing apparatus, and image processing method
JP6188296B2 (en) Image processing apparatus and image processing method
JP6300443B2 (en) Optical tomographic imaging apparatus and control method thereof
JP2022176282A (en) Ophthalmologic apparatus and control method thereof
JP2019088382A (en) Image processing device, ophthalmologic imaging device, image processing method, and program
JP2016221111A (en) Image processing device and image processing method
JP2014083285A (en) Image processor and image processing method
JP2018000687A (en) Image processing device, image processing method, and program
JP6788397B2 (en) Image processing device, control method of image processing device, and program
JP2017221741A (en) Image formation device, image formation method and program
JP7262929B2 (en) Image processing device, image processing method and program
JP6021289B2 (en) Blood flow information generation device, blood flow information generation method, and program
JP6884904B2 (en) Image processing device and operation method of image processing device
JP7387812B2 (en) Image processing device, image processing method and program
JP6849780B2 (en) Ophthalmic equipment, display control methods and programs
JP6308723B2 (en) CONTROL DEVICE, ITS OPERATION METHOD, AND PROGRAM
JP2023128334A (en) Information processor, optical coherence tomography device, information processing method, and program
JP2016067588A (en) Optical coherence tomographic apparatus and control method of the same