JP2020116410A - Image processing apparatus and actuation method for image processing apparatus - Google Patents

Image processing apparatus and actuation method for image processing apparatus Download PDF

Info

Publication number
JP2020116410A
JP2020116410A JP2020067791A JP2020067791A JP2020116410A JP 2020116410 A JP2020116410 A JP 2020116410A JP 2020067791 A JP2020067791 A JP 2020067791A JP 2020067791 A JP2020067791 A JP 2020067791A JP 2020116410 A JP2020116410 A JP 2020116410A
Authority
JP
Japan
Prior art keywords
pixel value
image
image processing
processing apparatus
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020067791A
Other languages
Japanese (ja)
Other versions
JP6884904B2 (en
Inventor
弘樹 内田
Hiroki Uchida
弘樹 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020067791A priority Critical patent/JP6884904B2/en
Publication of JP2020116410A publication Critical patent/JP2020116410A/en
Priority to JP2021080559A priority patent/JP2021118924A/en
Application granted granted Critical
Publication of JP6884904B2 publication Critical patent/JP6884904B2/en
Priority to JP2023067281A priority patent/JP2023080366A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To provide an image processing apparatus that enables acquisition of an excellent two-dimensional image regardless of an acquisition condition on information in a depth direction of a retina and the like.SOLUTION: An image processing apparatus for processing an image acquired by acquisition means for acquiring pixel value rows arranged in a depth direction of an object to be measured on the basis of interference light obtained by making return light of scanned measurement light from the object to be measured interfere with reference light corresponding to the measurement light comprises: generation means for generating a two-dimensional image on the basis of a pixel value selected from each of the plurality of pixel value rows according to a predetermined selection criterion; setting means for setting a selection range of a pixel value selected in the depth direction for each of the plurality of pixel value rows; and criterion change means for changing the predetermined selection criterion depending on the set selection range.SELECTED DRAWING: Figure 3

Description

本発明は、光干渉で得られた断層画像の情報から二次元の画像を得る画像処理装置及び画像処理方法に関するものである。 The present invention relates to an image processing apparatus and an image processing method for obtaining a two-dimensional image from information on a tomographic image obtained by optical interference.

多波長光波干渉を利用した光コヒーレンストモグラフィ(OCT:Optical Coherence Tomography)による撮影装置(以降OCT装置と称する。)が、知られている。OCT装置は、例えば内視鏡での内蔵情報や、眼科装置での網膜の情報を得るために用いられ、人体に対する適用分野を広げつつある。特に眼に適用したOCT装置は、眼科用機器として網膜の専門外来では必要不可欠な装置になりつつある。 An imaging apparatus (hereinafter referred to as an OCT apparatus) using optical coherence tomography (OCT) utilizing multi-wavelength light wave interference is known. The OCT device is used to obtain, for example, built-in information in an endoscope and retina information in an ophthalmologic device, and is expanding its application field to the human body. In particular, the OCT device applied to the eye is becoming an indispensable device in an outpatient specialized in retina as an ophthalmic device.

OCT装置では、低コヒーレント光である測定光をサンプルに照射し、干渉系を用いてそのサンプルからの後方散乱光を測定することで、画像の取得を可能にしている。そして、眼に適用した場合には、測定光を被検眼上で走査することにより被検眼の断層画像を高解像度に撮像することが可能である。 The OCT apparatus irradiates a sample with measurement light that is low-coherent light and measures backscattered light from the sample using an interference system, thereby enabling image acquisition. When applied to the eye, the tomographic image of the eye to be inspected can be captured with high resolution by scanning the eye to be inspected with the measurement light.

また、複数の断層画像から疑似的に眼底を正面から見た二次元画像(以下、「二次元画像」と呼ぶ。)を生成する技術が知られている。二次元画像を生成する方法として、1回のAスキャンによって得られた深さ方向の画素値列の中から画素値の大きさの順に基づき画素値を選択する。そして、それら選択された画素値を全てのAスキャンに対して得ることで、断層画像のみで網膜の平面画像と類似した二次元画像(Projection画像)を生成している(特許文献1)。 Further, there is known a technique of generating a two-dimensional image in which the fundus is viewed from the front in a pseudo manner (hereinafter, referred to as “two-dimensional image”) from a plurality of tomographic images. As a method of generating a two-dimensional image, a pixel value is selected from the pixel value sequence in the depth direction obtained by one A scan based on the order of the magnitude of the pixel value. Then, by obtaining the selected pixel values for all A scans, a two-dimensional image (Projection image) similar to the planar image of the retina with only the tomographic image is generated (Patent Document 1).

また、特許文献1には、網膜の所定層を選択した場合に、当該所定層に関する二次元画像を生成する方法も開示されている。当該方法では、その層内における画素値列から画素値の大きさの順に基づき画素値を選択し、二次元画像を生成する。 Patent Document 1 also discloses a method of generating a two-dimensional image of a predetermined layer when the predetermined layer of the retina is selected. In this method, a pixel value is selected from a pixel value sequence in the layer in the order of the magnitude of the pixel value, and a two-dimensional image is generated.

特開2014−45869号公報JP, 2014-45869, A

ところで、網膜の深さ方向の全ての画素値列と、深さ方向の所定の層を包含する範囲内の画素値列とでは、画素値列に占める被測定対象物の割合が大きく異なる。そのため、深さ方向の全ての画素値列から一つの画素値を選択する場合と、所定範囲内の画素値列から一つの画素値を選択する場合とで、同じ基準に基づいて画素値を選択すると、良好な二次元画像が得られないことがある。 By the way, the ratio of the object to be measured occupying in the pixel value sequence greatly differs between all the pixel value sequences in the depth direction of the retina and the pixel value sequences in the range including a predetermined layer in the depth direction. Therefore, the pixel value is selected based on the same criterion when selecting one pixel value from all the pixel value columns in the depth direction and when selecting one pixel value from the pixel value column within the predetermined range. Then, a good two-dimensional image may not be obtained.

また、例えば病変を有する層に関しての二次元画像を得ようとした場合、該病変の影響を受けた組織に対応する画素値がその周辺部と大きく異なることが生じ得る。この場合も、画一的な基準を用いた場合に、該病変に対応する画素値を削除してしまう恐れも存在する。 Further, for example, when trying to obtain a two-dimensional image of a layer having a lesion, the pixel value corresponding to the tissue affected by the lesion may greatly differ from the peripheral portion. Also in this case, there is a possibility that the pixel value corresponding to the lesion may be deleted when the uniform standard is used.

本発明は上記課題に鑑み、網膜等の深さ方向の情報の取得条件によらず、良好な二次元画像を得ることを可能とする画像処理装置及び画像処理方法の提供を目的とする。 In view of the above problems, it is an object of the present invention to provide an image processing apparatus and an image processing method capable of obtaining a good two-dimensional image regardless of the acquisition condition of information in the depth direction of the retina or the like.

上記目的を達成するために、本発明に係る画像処理装置は、
走査された測定光の被測定物体からの戻り光と前記測定光に対応する参照光とを干渉させた干渉光に基づいて前記被測定物体の深さ方向に並ぶ画素値列を取得する取得手段と、
複数の前記画素値列のそれぞれから所定の選択基準に従って選択された画素値に基づいて二次元画像を生成する生成手段と、
前記複数の画素値列の各々において、前記深さ方向において前記選択される画素値の選択範囲を設定する設定手段と、
前記設定された選択範囲に応じて前記所定の選択基準を変更する基準変更手段と、を有することを特徴とする。
In order to achieve the above object, the image processing apparatus according to the present invention,
Acquisition means for acquiring a pixel value sequence arranged in the depth direction of the measured object based on the interference light obtained by causing the return light of the scanned measurement light from the measured object and the reference light corresponding to the measured light to interfere with each other. When,
Generating means for generating a two-dimensional image based on pixel values selected from each of the plurality of pixel value columns according to a predetermined selection criterion;
Setting means for setting a selection range of the selected pixel value in the depth direction in each of the plurality of pixel value columns;
A reference changing unit that changes the predetermined selection criterion according to the set selection range.

本発明によれば、網膜等の深さ方向の情報の取得条件によらず、良好な二次元画像を得ることが可能となる。 According to the present invention, it is possible to obtain a good two-dimensional image regardless of the acquisition condition of information in the depth direction of the retina or the like.

本発明の第1の実施形態に係る画像処理装置を有する撮影システムの構成図である。It is a block diagram of an imaging system having an image processing apparatus according to the first embodiment of the present invention. 図1に例示した撮影システムを構成する眼科装置の側面図である。It is a side view of the ophthalmologic apparatus which comprises the imaging system illustrated in FIG. 本発明の第1の実施形態における画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus in the 1st Embodiment of this invention. 図1に示す撮影システムに供せられる撮影装置の光学系の構成図である。FIG. 2 is a configuration diagram of an optical system of a photographing device used in the photographing system shown in FIG. 1. 第1の実施形態の第一のモードにおける二次元画像生成の流れを示すフローチャートである。6 is a flowchart showing a flow of two-dimensional image generation in the first mode of the first embodiment. Aスキャン画像の画素値列を示す説明図である。It is explanatory drawing which shows the pixel value sequence of an A scan image. 画素値の並べ替えの一例を示す説明図である。It is explanatory drawing which shows an example of rearrangement of a pixel value. 第1の実施形態の第二のモードにおける二次元画像生成の流れを示すフローチャートである。6 is a flowchart showing a flow of two-dimensional image generation in the second mode of the first embodiment. 深度範囲の設定例を示す説明図である。It is explanatory drawing which shows the example of a setting of a depth range. 図1に示す撮影システムにおける断層画像及び二次元画像の表示例を示す図である。It is a figure which shows the example of a display of the tomographic image and two-dimensional image in the imaging system shown in FIG. 図1に示す撮影システムにおけるProjection画像及びEnFace画像の表示例を示す図である。It is a figure which shows the example of a display of the Projection image and EnFace image in the imaging system shown in FIG.

以下、本発明の実施形態について、図面を参照して説明する。なお、以下の実施の形態は特許請求の範囲に関わる本発明を限定するものではなく、また、本実施の形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. Note that the following embodiments do not limit the present invention related to the claims, and all combinations of the features described in the present embodiments are essential to the solving means of the present invention. Not necessarily.

[第1の実施形態]
図1は、本発明の第1の実施形態に係る画像処理装置100及びそれと接続される撮影装置1を有する撮影システム1000の構成例を示す図である。本形態に係る画像処理装置100は、中央演算処理装置(CPU)10、主メモリ11、磁気ディスク12、及び表示メモリ13で構成される。また、撮影システム1000は、モニタ928、マウス929−1、及びキーボード929−2を有する。なお、モニタ928がタッチパネルを有することとしてもよい。
[First Embodiment]
FIG. 1 is a diagram showing a configuration example of an image capturing system 1000 having an image processing apparatus 100 according to a first embodiment of the present invention and an image capturing apparatus 1 connected thereto. The image processing apparatus 100 according to this embodiment includes a central processing unit (CPU) 10, a main memory 11, a magnetic disk 12, and a display memory 13. The image capturing system 1000 also includes a monitor 928, a mouse 929-1, and a keyboard 929-2. Note that the monitor 928 may have a touch panel.

CPU10は、主として、画像処理装置100の各構成要素の動作を制御する。主メモリ11は、CPU10が実行する制御プログラムを格納したり、CPU10によるプログラム実行時の作業領域を提供する。磁気ディスク12は、オペレーティングシステム(OS)、周辺機器のデバイスドライバ、後述する再構成処理等を行うためのプログラムを含む各種アプリケーションソフト等を格納する。表示メモリ13は、モニタ928のための表示用データを一時記憶する。モニタ928は、例えば、CRTモニタや液晶モニタ等であり、表示メモリ13からのデータに基づいて画像を表示する。マウス929−1及びキーボード929−2はユーザによるポインティング入力及び文字等の入力をそれぞれ行う。上記の各構成要素は共通バス17により互いに通信可能に接続されている。 The CPU 10 mainly controls the operation of each component of the image processing apparatus 100. The main memory 11 stores a control program executed by the CPU 10 and provides a work area when the CPU 10 executes the program. The magnetic disk 12 stores an operating system (OS), device drivers of peripheral devices, various application software including programs for performing reconstruction processing described later, and the like. The display memory 13 temporarily stores display data for the monitor 928. The monitor 928 is, for example, a CRT monitor, a liquid crystal monitor, or the like, and displays an image based on the data from the display memory 13. A mouse 929-1 and a keyboard 929-2 are used by the user to perform pointing input and input of characters and the like, respectively. The above components are connected to each other via a common bus 17 so that they can communicate with each other.

画像処理装置100は、ローカルエリアネットワーク(LAN)を介して撮影装置1と接続されており、撮影装置1から画像データを取得できる。なお、本発明の形態はこれに限定されず、これらの機器との接続は、例えば、USBやIEEE1394等の他のインターフェイスを介して行ってもよい。また、これらのデータを管理するデータサーバ等の外部装置3から、LAN等を介して必要なデータを読み込む構成であってもよい。また、画像処理装置100に記憶装置、例えば、FDD、CD−RWドライブ、MOドライブ、ZIPドライブ等を接続し、それらのドライブから必要なデータを読み込むようにしてもよい。 The image processing apparatus 100 is connected to the image capturing apparatus 1 via a local area network (LAN) and can acquire image data from the image capturing apparatus 1. Note that the form of the present invention is not limited to this, and the connection with these devices may be performed, for example, via another interface such as USB or IEEE1394. Further, it may be configured to read necessary data from an external device 3 such as a data server that manages these data via a LAN or the like. A storage device such as an FDD, a CD-RW drive, an MO drive, or a ZIP drive may be connected to the image processing apparatus 100, and necessary data may be read from these drives.

図2は、以上の構成により眼科装置の態様にて構築された該撮影装置1の側面図である。同図に示す撮影装置1は、外部固視標324、顎台323、ベース部951、ステージ部950、及び光学ヘッド900を有する。光学ヘッド900は、被検眼の前眼画像、及び眼底の表面画像及び断層画像を撮像するための測定光学系である。ステージ部950は、光学ヘッド900を図中xyz方向に不図示のモータを用いて移動可能とした移動部を構成する。ベース部951は、後述の分光器を内蔵する。 FIG. 2 is a side view of the photographing apparatus 1 constructed in the form of an ophthalmologic apparatus with the above configuration. The imaging apparatus 1 shown in the figure has an external fixation target 324, a chin rest 323, a base portion 951, a stage portion 950, and an optical head 900. The optical head 900 is a measurement optical system for capturing an anterior eye image of the eye to be inspected, and a surface image and a tomographic image of the fundus. The stage unit 950 constitutes a moving unit that allows the optical head 900 to move in the xyz directions in the drawing using a motor (not shown). The base section 951 incorporates a spectroscope described later.

パーソナルコンピュータ(以下「パソコン」と称する。)925はステージ部の制御部を兼ね、画像処理装置100を有する。顎台323は、被検者の顎と額とを固定することで、被検者の眼(被検眼)の固定を促す。外部固視標324は、被検者の眼を固視させるのに使用する。また、画像処理装置100を光学ヘッド900、あるいはステージ部950に組み込むこともできる。この場合には撮影装置1と画像処理装置100が撮影装置として一体的に構成される。 A personal computer (hereinafter referred to as “personal computer”) 925 doubles as a control unit of the stage unit and has the image processing apparatus 100. The chin rest 323 fixes the chin of the subject and the forehead, thereby urging the fixation of the subject's eye (the subject's eye). The external fixation target 324 is used to fix the eye of the subject. Further, the image processing apparatus 100 can be incorporated in the optical head 900 or the stage section 950. In this case, the photographing device 1 and the image processing device 100 are integrally configured as a photographing device.

図3は、画像処理装置100の機能構成を示すブロック図であり、該画像処理装置100は再構成部1100、生成部1200、及び層認識部1300を有する。再構成部1100は再構成手段として機能し、測定光の被測定物体からの戻り光と参照光とを干渉させて得た干渉光に基づいて被測定物体の所定範囲の断層画像を得る。より詳細には、センサからの出力値に対して波数変換と高速フーリエ変換(FFT)処理とを行い、被検眼眼底上の一点における深さ方向の断層画像(Aスキャン画像)として再構成する。生成部1200は、再構成部1100で得られた断層画像の深さ方向のそれぞれの画素値列から所定の画素をそれぞれの画素値列毎に選択して二次元画像を生成する生成手段として機能する。層認識部1300は、再構成部1100で得られた断層画像において被測定対象物(網膜)の層構造を抽出し、それぞれの層境界の形状を特定する。 FIG. 3 is a block diagram showing the functional configuration of the image processing apparatus 100. The image processing apparatus 100 has a reconstruction unit 1100, a generation unit 1200, and a layer recognition unit 1300. The reconstructing unit 1100 functions as a reconstructing unit, and obtains a tomographic image of a predetermined range of the measured object based on the interference light obtained by causing the return light of the measuring light from the measured object and the reference light to interfere with each other. More specifically, the output value from the sensor is subjected to wave number conversion and fast Fourier transform (FFT) processing, and reconstructed as a tomographic image (A scan image) in the depth direction at one point on the fundus of the eye to be inspected. The generation unit 1200 functions as a generation unit that selects a predetermined pixel for each pixel value sequence from each pixel value sequence in the depth direction of the tomographic image obtained by the reconstruction unit 1100 and generates a two-dimensional image. To do. The layer recognition unit 1300 extracts the layer structure of the measured object (retina) in the tomographic image obtained by the reconstruction unit 1100 and specifies the shape of each layer boundary.

図4は撮影装置1の測定光学系および分光器の構成を説明する図である。光学ヘッド900部の内部、及びベース部951の内部に配置される光学要素について、以下に説明する。 FIG. 4 is a diagram illustrating the configurations of the measurement optical system and the spectroscope of the image capturing apparatus 1. The optical elements arranged inside the optical head 900 and the base 951 will be described below.

なお、本実施形態では、被測定物体としての被検眼107を例示して以下の説明を行う。光学ヘッド900では、該被検眼107に対向して対物レンズ135−1が設置される。該対物レンズ135−1の光軸上には、第1ダイクロイックミラー132−1及び第2ダイクロイックミラー132−2が配置される。被検眼107に至る光路は、第1ダイクロイックミラー132−1によって前眼観察用の光路353へ、波長帯域に応じて分岐される。また分岐後の光路は更に、第2ダイクロイックミラー132−2によって固視灯用の光路352と、眼底観察のためのOCT光学系の光路351とに、波長帯域ごとに分岐される。 In the present embodiment, the following description will be given by exemplifying the subject's eye 107 as the measured object. In the optical head 900, an objective lens 135-1 is installed so as to face the subject's eye 107. A first dichroic mirror 132-1 and a second dichroic mirror 132-2 are arranged on the optical axis of the objective lens 135-1. The optical path to the eye 107 to be inspected is branched by the first dichroic mirror 132-1 to the optical path 353 for anterior eye observation according to the wavelength band. Further, the optical path after branching is further branched by the second dichroic mirror 132-2 into an optical path 352 for a fixation lamp and an optical path 351 of an OCT optical system for fundus observation for each wavelength band.

固視灯用光路352上には、被検眼107側より順に、合焦レンズ135−3、レンズ135−4、穴あきミラー303、第3ダイクロイックミラー132−3が配置される。第3ダイクロイックミラー132−3の反射方向にはCCD172が、透過方向には固視灯191が配置される。ここで、合焦レンズ135−3は、固視標191および眼底観察用のCCD172の合焦調整のため不図示のモータによって光路352に沿った方向に駆動される。 A focusing lens 135-3, a lens 135-4, a perforated mirror 303, and a third dichroic mirror 132-3 are arranged in this order from the eye 107 side on the fixation lamp optical path 352. The CCD 172 is arranged in the reflection direction of the third dichroic mirror 132-3, and the fixation lamp 191 is arranged in the transmission direction. Here, the focusing lens 135-3 is driven in the direction along the optical path 352 by a motor (not shown) for adjusting the focusing of the fixation target 191 and the CCD 172 for fundus observation.

穴あきミラー303は、レンズ135−4と第3ダイクロイックミラー132−3の間に配置され、光路352から光路354への光路の分岐を為す。 The perforated mirror 303 is disposed between the lens 135-4 and the third dichroic mirror 132-3, and branches the optical path from the optical path 352 to the optical path 354.

光路354は、被検眼107の眼底を照明する照明光学系を形成している。被検眼107の位置合わせに用いられる眼底観察用照明光源であるLED光源316、被検眼107の眼底の撮像に用いるストロボ管314が設置されている。該照明光学系は、最奥のLED光源316より順に配置される、コンデンサレンズ315、ストロボ管314、コンデンサレンズ313、ミラー317、リングスリット312、レンズ311及びレンズ309を有する。 The optical path 354 forms an illumination optical system that illuminates the fundus of the subject's eye 107. An LED light source 316, which is a fundus observation illumination light source used for alignment of the eye 107 to be inspected, and a strobe tube 314 used to image the fundus of the eye 107 to be inspected are installed. The illumination optical system has a condenser lens 315, a strobe tube 314, a condenser lens 313, a mirror 317, a ring slit 312, a lens 311 and a lens 309, which are arranged in order from the innermost LED light source 316.

LED光源316とストロボ管314とからの照明光はリングスリット312によってリング状の光束となり、孔あきミラー303によって反射され、被検眼107の眼底127を照明する。LED光源316は、780nm付近を中心波長とする光源である。 Illumination light from the LED light source 316 and the strobe tube 314 becomes a ring-shaped luminous flux by the ring slit 312, is reflected by the perforated mirror 303, and illuminates the fundus 127 of the subject's eye 107. The LED light source 316 is a light source having a center wavelength near 780 nm.

前述したように、光路352上の穴あきミラー303以降には、第3ダイクロイックミラー132−3が配置される。該第3ダイクロイックミラー132−3による眼底観察用のCCD172及び固視灯191への光路分岐は、他のダイクロイックミラーと同じく波長帯域ごとにおこなわれる。 As described above, the third dichroic mirror 132-3 is arranged after the perforated mirror 303 on the optical path 352. The branching of the optical path to the CCD 172 for eye fundus observation and the fixation lamp 191 by the third dichroic mirror 132-3 is performed for each wavelength band like other dichroic mirrors.

CCD172は眼底観察用照明光であるLED光源316から発せられる光の中心波長、具体的には780nm付近に感度を持つものであり、CCD制御部102に接続されている。一方固視標191は可視光を発生して被検者の固視を促すものであり、固視標制御部103に接続されている。 The CCD 172 is sensitive to the central wavelength of the light emitted from the LED light source 316 which is the illumination light for fundus observation, specifically, near 780 nm, and is connected to the CCD control unit 102. On the other hand, the fixation target 191 generates visible light and promotes the fixation of the subject, and is connected to the fixation target control unit 103.

CCD制御部102及び固視標制御部103は、共に演算部104に接続されており、演算部104を通じて、データはパソコン925へ入出力される。 The CCD control unit 102 and the fixation target control unit 103 are both connected to the calculation unit 104, and data is input to and output from the personal computer 925 through the calculation unit 104.

第1ダイクロイックミラー132−1に分岐された光路353には、分岐部より順に、レンズ135−2及び前眼観察用の赤外線CCD171が配置される。このCCD171は不図示の前眼観察用照明光の波長、具体的には970nm付近に感度を持つものである。また、光路353には、不図示のイメージスプリットプリズムが配置されており、被検眼107に対する光学ヘッド900部のz方向の距離(被検眼107に対する接近及び離間の方向)を、前眼観察画像中のスプリット像として検出することができる。 A lens 135-2 and an infrared CCD 171 for observing the anterior eye are arranged in order from the branching portion on the optical path 353 branched to the first dichroic mirror 132-1. The CCD 171 has sensitivity in the wavelength of illumination light for anterior eye observation (not shown), specifically, in the vicinity of 970 nm. Further, an image split prism (not shown) is arranged in the optical path 353, and the distance in the z direction of the optical head 900 portion with respect to the eye 107 to be inspected (direction of approaching and separating from the eye 107 to be inspected) is measured in the anterior eye observation image. Can be detected as a split image of.

光路351は前述の通りOCT光学系を成しており、実際に被検眼107の網膜の断層画像を撮像するための構成が配置される。より具体的には、断層画像を形成するための干渉信号を得るための構成が配置される。光路351には、第2ダイクロイックミラー132−2から順に、XYスキャナ134、合焦レンズ135−5、及びレンズ135−6が配置され、ファイバー131−2端部より当該光路351に測定光が供給される。 The optical path 351 constitutes an OCT optical system as described above, and a configuration for actually capturing a tomographic image of the retina of the subject's eye 107 is arranged. More specifically, a configuration for obtaining an interference signal for forming a tomographic image is arranged. An XY scanner 134, a focusing lens 135-5, and a lens 135-6 are arranged on the optical path 351 in order from the second dichroic mirror 132-2, and the measurement light is supplied to the optical path 351 from the end of the fiber 131-2. To be done.

XYスキャナ134は、測定光を眼底上で走査するために用いられる。なお、XYスキャナ134は一枚のミラーとして図示してあるが、XY2軸方向の走査を行うものである。合焦レンズ135−5は、後述する光ファイバー131−2の端部から出射する光源101からの光を眼底127上に合焦調整をするために不図示のモータによって光路351に沿って駆動される。また、この合焦調整によって眼底127からの光は、同時に光ファイバー131−2先端にスポット状に結像されて入射されることとなる。 The XY scanner 134 is used to scan the measurement light on the fundus. Although the XY scanner 134 is shown as a single mirror, it scans in the XY biaxial directions. The focusing lens 135-5 is driven along an optical path 351 by a motor (not shown) in order to focus the light from the light source 101 emitted from the end of the optical fiber 131-2, which will be described later, on the fundus 127. .. Further, by this focusing adjustment, the light from the fundus 127 is simultaneously imaged and incident on the tip of the optical fiber 131-2 in a spot shape.

次に、光源101からの光路と参照光学系、分光器の構成について説明する。 Next, the configurations of the optical path from the light source 101, the reference optical system, and the spectroscope will be described.

光源101は、光ファイバー131−1を介して光カプラー131に接続される。光カプラー131は光ファイバー131−1及び131−2に加え、光ファイバー131−3及び131−4に接続されている。これら光ファイバーは光カプラー131に接続されて一体化されているシングルモードに光ファイバーである。光源101から射出された光は光カプラー131において測定光と参照光とに分割され、測定光は光ファイバー131−2を介して光路351へ、参照光は光ファイバー131−3を介して後述する参照光路へ導かれる。参照光路には、該光路奥より順に、ミラー132−4、分散補償用ガラス115、及びレンズ135−7が配置される。分散補償用ガラス115は、測定光と参照光の分散を合わせるために参照光路中に挿入される。 The light source 101 is connected to the optical coupler 131 via the optical fiber 131-1. The optical coupler 131 is connected to the optical fibers 131-3 and 131-4 in addition to the optical fibers 131-1 and 131-2. These optical fibers are single mode optical fibers connected to and integrated with the optical coupler 131. The light emitted from the light source 101 is split into a measurement light and a reference light by the optical coupler 131, the measurement light is passed through the optical fiber 131-2 to the optical path 351, and the reference light is passed through the optical fiber 131-3 and the reference optical path described later. Be led to. In the reference optical path, a mirror 132-4, a dispersion compensating glass 115, and a lens 135-7 are arranged in this order from the depth of the optical path. The dispersion compensating glass 115 is inserted in the reference optical path in order to match the dispersions of the measurement light and the reference light.

該参照光路を経た参照光は光ファイバー131−3の端部に入射され、同様に光カプラー131に戻った測定光と合波されて光ファイバー131−4を経て分光器180に導かれる。本実施形態におけるこれらの構成は、マイケルソン干渉系を構成している。 The reference light having passed through the reference optical path is incident on the end portion of the optical fiber 131-3, is similarly combined with the measuring light returned to the optical coupler 131, and is guided to the spectroscope 180 via the optical fiber 131-4. These configurations in this embodiment form a Michelson interference system.

測定光は前述のOCT光学系光路を通じ、観察対象である被検眼107の眼底に照射され、網膜による反射や散乱により同じ光路を通じて前述したように光カプラー131に到達する。一方、参照光は光ファイバー131−3、レンズ135−7、分散補償ガラス115を介してミラー132−4に到達し反射される。そして同じ光路を戻り光カプラー131に到達する。 The measurement light is applied to the fundus of the eye 107 to be inspected, which is the observation target, through the optical path of the OCT optical system described above, and reaches the optical coupler 131 through the same optical path due to reflection and scattering by the retina. On the other hand, the reference light reaches the mirror 132-4 via the optical fiber 131-3, the lens 135-7, and the dispersion compensation glass 115 and is reflected. Then, the same optical path is returned to reach the optical coupler 131.

光カプラー131によって、測定光と参照光とは合波され干渉光となる。ここで、測定光の光路長と参照光の光路長がほぼ同一となったときに干渉を生じる。ミラー132−4は不図示のモータおよび駆動機構によって光軸方向に調整可能に保持され、被検眼107によって変わる測定光の光路長に参照光の光路長を合わせることが可能である。干渉光は光ファイバー131−4を介して分光器180に導かれる。 The measurement light and the reference light are combined by the optical coupler 131 to become interference light. Here, interference occurs when the optical path length of the measurement light and the optical path length of the reference light become substantially the same. The mirror 132-4 is held by a motor and a driving mechanism (not shown) so as to be adjustable in the optical axis direction, and the optical path length of the reference light can be matched with the optical path length of the measurement light that changes depending on the eye 107 to be inspected. The interference light is guided to the spectroscope 180 via the optical fiber 131-4.

また、測定光側の偏光調整部139−1が、光ファイバー131−2中に設けられる。参照光側の偏光調整部139−2も、光ファイバー131−3中に設けられる。これらの偏光調整部は光ファイバーをループ状に引き回した部分を幾つか持ち、このループ状の部分をファイバーの長手方向を中心として回動させることでファイバーに捩じりを加える。この操作によって、測定光と参照光の偏光状態を各々調整して合わせることが可能となる。本装置ではあらかじめ測定光と参照光の偏光状態が調整されて固定されている。 Further, the polarization adjusting unit 139-1 on the measurement light side is provided in the optical fiber 131-2. The polarization adjusting unit 139-2 on the reference light side is also provided in the optical fiber 131-3. These polarization adjusting units have several portions in which the optical fiber is looped around, and twist the fiber by rotating the looped portion around the longitudinal direction of the fiber. By this operation, the polarization states of the measurement light and the reference light can be adjusted and matched. In this device, the polarization states of the measurement light and the reference light are adjusted and fixed in advance.

次に分光器180について述べる。分光器180はレンズ135−8、レンズ135−9、回折格子181、及びラインセンサ182から構成される。光ファイバー131−4から出射された干渉光はレンズ135−8を介して略平行光となった後、回折格子181で分光され、レンズ135−3によってラインセンサ182に結像される。ラインセンサ182の出力は、パーソナルコンピュータ925へと入力される。 Next, the spectroscope 180 will be described. The spectroscope 180 includes a lens 135-8, a lens 135-9, a diffraction grating 181, and a line sensor 182. The interference light emitted from the optical fiber 131-4 becomes substantially parallel light via the lens 135-8, is then dispersed by the diffraction grating 181, and is imaged on the line sensor 182 by the lens 135-3. The output of the line sensor 182 is input to the personal computer 925.

次に、光源101の周辺について説明する。光源101には、代表的な低コヒーレント光源であるSLD(Super Luminescent Diode)を用いる。該光源101から発せられる光の中心波長は855nm、波長バンド幅は約100nmである。ここで、バンド幅は、得られる断層画像の光軸方向の分解能に影響するため、重要なパラメータである。また、光源の種類としては、ここではSLDを選択したが、低コヒーレント光が出射できればよく、ASE(Amplified Spontaneous Emission)等も用いることができる。中心波長は眼を測定することを鑑みると、近赤外光が適する。また、中心波長は得られる断層画像の横方向の分解能に影響するため、なるべく短波長であることが望ましい。双方の理由から中心波長を855nmとした。 Next, the periphery of the light source 101 will be described. As the light source 101, an SLD (Super Luminescent Diode), which is a typical low coherent light source, is used. The center wavelength of the light emitted from the light source 101 is 855 nm, and the wavelength band width is about 100 nm. Here, the bandwidth is an important parameter because it affects the resolution of the obtained tomographic image in the optical axis direction. Although SLD is selected here as the type of light source, ASE (Amplified Spontaneous Emission) or the like may be used as long as it can emit low-coherent light. The near-infrared light is suitable as the center wavelength in view of measuring the eye. Further, since the central wavelength affects the lateral resolution of the obtained tomographic image, it is desirable that the central wavelength be as short as possible. The center wavelength was set to 855 nm for both reasons.

なお、本実施形態では干渉計としてマイケルソン干渉計を用いたが、マッハツェンダー干渉計を用いてもよい。測定光と参照光との光量差に応じて光量差が大きい場合にはマッハツェンダー干渉計を、光量差が比較的小さい場合にはマイケルソン干渉計を用いることが望ましい。 Although the Michelson interferometer is used as the interferometer in this embodiment, a Mach-Zehnder interferometer may be used. It is desirable to use a Mach-Zehnder interferometer when the light amount difference is large according to the light amount difference between the measurement light and the reference light, and to use a Michelson interferometer when the light amount difference is relatively small.

次に本撮影装置を用いた被検眼の撮像方法について説明する。 Next, an image pickup method of the eye to be inspected using the image pickup apparatus will be described.

まず、検者は本実施例に基づく撮影装置の前に患者を着座させ、被検眼眼底の表面画像の撮影を開始する。光源316を射出した光は、リングスリット312によってリング状の光束となり、孔あきミラー303によって被検眼107に向けて反射される。反射された光は、被検眼107の眼底127を照明する。該照明による眼底127からの反射光束は孔あきミラー303を通過し、CCD172上において結像される。CCD172上にて結像された眼底127の反射光は、CCD制御部102にて眼底の表面画像として画像化され、画像処理装置100へ送信される。 First, the examiner seats the patient in front of the image capturing apparatus according to this embodiment and starts capturing a surface image of the fundus of the eye to be examined. The light emitted from the light source 316 becomes a ring-shaped luminous flux by the ring slit 312 and is reflected by the perforated mirror 303 toward the eye 107 to be inspected. The reflected light illuminates the fundus 127 of the subject's eye 107. The light flux reflected from the fundus 127 by the illumination passes through the perforated mirror 303 and is imaged on the CCD 172. The reflected light of the fundus 127 formed on the CCD 172 is imaged as a surface image of the fundus by the CCD control unit 102 and transmitted to the image processing apparatus 100.

次に、撮影装置1はXYスキャナ134を制御することで、被検眼107の眼底における所望部位の断層画像を撮像する、より詳細には所望部位の各位置での深さ方向の輝度情報を取得する。 Next, the image capturing apparatus 1 controls the XY scanner 134 to capture a tomographic image of a desired site on the fundus of the subject's eye 107, and more specifically, obtains brightness information in the depth direction at each position of the desired site. To do.

被検眼に向かう測定光は光ファイバー131−2を通過しファイバー端から射出され、XYスキャナ134へ入射する。XYスキャナ134により偏向された測定光は光学系135−1を経由して被検眼眼底127を照射する。そして被検眼で反射した反射光は逆の経路をたどって光カプラー131へと戻される。 The measurement light directed to the subject's eye passes through the optical fiber 131-2, is emitted from the fiber end, and enters the XY scanner 134. The measurement light deflected by the XY scanner 134 illuminates the fundus 127 of the eye to be inspected via the optical system 135-1. Then, the reflected light reflected by the eye to be examined follows the reverse path and is returned to the optical coupler 131.

一方、参照ミラーに向かう参照光は光ファイバー131−3を通過しファイバー端から射出され、コリメート光学系135−7及び分散補償光学系115を通して参照ミラー132−4に到達する。参照ミラー132−4で反射された参照光は逆の経路をたどって光カプラー131へと戻される。 On the other hand, the reference light traveling toward the reference mirror passes through the optical fiber 131-3, is emitted from the fiber end, and reaches the reference mirror 132-4 through the collimating optical system 135-7 and the dispersion compensating optical system 115. The reference light reflected by the reference mirror 132-4 follows the reverse path and is returned to the optical coupler 131.

光カプラー131に戻ってきた測定光と参照光は相互に干渉し、干渉光となって光ファイバー131−4へと入射し、光学系135−8により略平行化され回折格子181に入射する。回折格子181に入力された干渉光は結像レンズ135−9によってラインセンサ182に結像し、被検眼眼底上の一点における干渉信号を得ることができる。 The measurement light and the reference light that have returned to the optical coupler 131 interfere with each other, become interference light, enter the optical fiber 131-4, and are substantially collimated by the optical system 135-8 and enter the diffraction grating 181. The interference light input to the diffraction grating 181 is imaged on the line sensor 182 by the imaging lens 135-9, and an interference signal at one point on the fundus of the eye to be inspected can be obtained.

ラインセンサ182の複数の素子で取得された干渉情報を有する画像信号としての出力値を画像処理装置100に出力する。なお、図4では、ストロボ管314の発光で一度に眼底の表面画像を取得する形態を説明したが、SLD光源で発光した光を走査するSLOタイプで眼底の表面画像を得る構成としてもよい。 The output value as an image signal having the interference information acquired by the plurality of elements of the line sensor 182 is output to the image processing apparatus 100. In FIG. 4, the mode in which the surface image of the fundus is acquired at once by the light emission of the strobe tube 314 has been described, but the surface image of the fundus may be obtained by the SLO type in which the light emitted from the SLD light source is scanned.

以上述べたOCT光学系の構成は、本実施形態において、走査された測定光の被測定物体からの戻り光と測定光に対応する参照光とを干渉させた干渉光に基づいて被測定物体の深さ方向に並ぶ画素値列を取得する取得手段に対応する。 In the present embodiment, the configuration of the OCT optical system described above is based on the interference light obtained by causing the return light of the scanned measurement light from the measurement object and the reference light corresponding to the measurement light to interfere with each other. This corresponds to an acquisition unit that acquires a pixel value string arranged in the depth direction.

次に画像処理装置100の画像処理方法の流れを説明する。 Next, the flow of the image processing method of the image processing apparatus 100 will be described.

被検眼眼底上の一点における断層情報を取得した後、撮影装置1は走査手段としてのXYスキャナ134の駆動により測定光の照射位置をX方向に移動させ、被検眼眼底上の別の一点の干渉光を発生させる。該別の一点の干渉光はラインセンサ182を経由し、再構成部1100に入力される。再構成部1100は、該入力されたデータに基づいて、被検眼眼底上の別の一点における深さ方向の断層画像(Aスキャン画像)を形成する。該Aスキャンの干渉信号を撮影したXYスキャナ134の位置とAスキャン画像の眼底画像上の座標とは関連付けて記憶されている。 After acquiring the tomographic information at one point on the fundus of the eye to be inspected, the imaging apparatus 1 moves the irradiation position of the measurement light in the X direction by driving the XY scanner 134 as a scanning unit, and interferes with another point on the fundus of the eye to be inspected. Generate light. The interference light at the other point is input to the reconstruction unit 1100 via the line sensor 182. The reconstruction unit 1100 forms a tomographic image (A scan image) in the depth direction at another point on the fundus of the eye to be examined based on the input data. The position of the XY scanner 134 that captured the interference signal of the A scan and the coordinates of the A scan image on the fundus image are stored in association with each other.

このXYスキャナ134による測定光照射位置のX方向への移動を連続して行うことにより、被検眼眼底の水平方向の一枚の断層画像(Bスキャン画像)を再構成部1100は再構成する。 The reconstruction unit 1100 reconstructs one horizontal tomographic image (B-scan image) of the fundus of the eye to be inspected by continuously moving the measurement light irradiation position in the X direction by the XY scanner 134.

XYスキャナ134により測定光照射位置をY方向に一定量移動した後、上述したX方向の走査を再び行うことで、被検眼眼底上の別のY方向位置における眼底の水平断層画像(Bスキャン画像)を再構成部1100は再構成する。このXYスキャナ134による測定光照射位置のY方向移動を繰り返すことで、眼底127の所定範囲をカバーする複数枚の断層画像を形成することができる。本撮影装置1ではY方向に128回の一定量の微小駆動を行いながらBスキャン画像の形成を繰り返すことで、128枚の断層画像を生成する。また、再構成部1100は、128枚の断層画像から三次元の断層画像を再構成(形成)する。 After moving the measurement light irradiation position by a certain amount in the Y direction by the XY scanner 134, the scanning in the X direction described above is performed again, so that a horizontal tomographic image (B scan image) of the fundus at another Y direction position on the fundus of the eye to be examined. ) Is reconfigured by the reconstructing unit 1100. By repeating the movement of the measurement light irradiation position in the Y direction by the XY scanner 134, it is possible to form a plurality of tomographic images covering a predetermined range of the fundus 127. In the image capturing apparatus 1, 128 tomographic images are generated by repeatedly forming B scan images while performing a certain amount of minute driving in the Y direction 128 times. The reconstruction unit 1100 also reconstructs (forms) a three-dimensional tomographic image from 128 tomographic images.

次に再構成部1100で生成された断層画像から網膜の二次元画像を生成部1200で生成する。 Next, the generation unit 1200 generates a two-dimensional image of the retina from the tomographic image generated by the reconstruction unit 1100.

本実施形態において、生成部1200は動作モードとして第一のモードと第二のモードとを有する。第一のモードは、Aスキャン画像のための輝度情報を得た全ての深度範囲に対応する画素から二次元画像を生成する。第二のモードは、輝度情報を得た深度範囲内の所定の深度範囲から二次元画像を生成する。第一のモードで生成される二次元画像(以下、Projection画像と呼ぶ)は強度画像とも呼ばれ、眼底の表面画像と類似したものである。一方、第二のモードで生成される二次元画像(以下、EnFace画像と呼ぶ)は、網膜における任意の深さの情報により生成される平面状の画像であって、眼疾患による網膜層構造の変化を可視化するために用いられる。なお、ユーザはマウス929−1、キーボード929−2およびタッチパネルの少なくとも一つを用いて第一のモードおよび第二モードから一方のモードを選択することが可能である。例えば、ユーザは、モニタに表示された第一のモードを示すGUIおよび第二のモードを示すGUIのうち一方のGUIをマウス929−1を用いてクリックすることでモードを選択することができる。モニタ928は、第一のモードおよび第二モードをプルダウンにより選択可能に表示することとしてもよい。 In this embodiment, the generation unit 1200 has a first mode and a second mode as operation modes. The first mode produces a two-dimensional image from pixels corresponding to all depth ranges for which luminance information for the A-scan image was obtained. The second mode generates a two-dimensional image from a predetermined depth range within the depth range in which the brightness information is obtained. The two-dimensional image (hereinafter, referred to as a projection image) generated in the first mode is also called an intensity image and is similar to the surface image of the fundus. On the other hand, the two-dimensional image generated in the second mode (hereinafter, referred to as EnFace image) is a planar image generated based on information of an arbitrary depth in the retina, and is a retinal layer structure due to eye disease. Used to visualize changes. The user can select one of the first mode and the second mode by using at least one of the mouse 929-1, the keyboard 929-2, and the touch panel. For example, the user can select a mode by clicking one of the GUI showing the first mode and the GUI showing the second mode displayed on the monitor with the mouse 929-1. The monitor 928 may display the first mode and the second mode in a selectable manner by pulling down.

ここで、図5を用いて第一のモードによるProjection画像の生成処理について説明する。前述したように、再構成部1100にて生成された断層画像は生成部1200へと入力される(S2000)。 Here, a process of generating a projection image in the first mode will be described with reference to FIG. As described above, the tomographic image generated by the reconstruction unit 1100 is input to the generation unit 1200 (S2000).

Aスキャン画像は被検眼眼底上の一点における深さ方向の断層画像であり、図6に示すように深さ方向の複数の輝度情報から構成されている。 The A scan image is a tomographic image in the depth direction at one point on the fundus of the eye to be inspected, and is composed of a plurality of brightness information in the depth direction as shown in FIG.

図6の二次元の断層画像はAスキャン画像の集合である。この二次元の断層画像はBスキャン画像である場合と、三次元に再構成された断層画像の断面を示す場合がある。なお、図6からわかるように断層画像には網膜領域とそれ以外の部分とが含まれている。網膜領域とは例えばILMとRPEとにより挟まれた領域である。 The two-dimensional tomographic image in FIG. 6 is a set of A scan images. This two-dimensional tomographic image may be a B-scan image, or may show a cross section of a three-dimensionally reconstructed tomographic image. As can be seen from FIG. 6, the tomographic image includes the retinal region and other portions. The retinal region is a region sandwiched by ILM and RPE, for example.

例えば、本実施形態で用いた撮影装置1では2048の画素を持つラインセンサ182を用いており、FFT後のAスキャン画像Aiは1176個の画素値から画素値列が構成されている。ここでP0は深さ方向の一番浅い部分の輝度情報としての画素値の値を色の濃さで示しており、P1175は深さ方向の一番深い部分の輝度情報としての画素値を示している。これらAスキャン画像から平面画像を得る場合、本撮影装置1は、これら複数の輝度情報の中から一つの輝度情報を選択抽出する。この抽出された輝度情報に対応する画素値は、該Aスキャン画像を得た被検眼眼底上の一点の代表的な強度信号とする。すなわちAスキャンで得られる1176個の画素値から一つの画素値を選択する。 For example, the image capturing apparatus 1 used in the present embodiment uses the line sensor 182 having 2048 pixels, and the A-scan image Ai after FFT has a pixel value column composed of 1176 pixel values. Here, P0 represents the pixel value value as the brightness information of the shallowest part in the depth direction by the color density, and P1175 represents the pixel value as the brightness information of the deepest part in the depth direction. ing. When obtaining a two-dimensional image from these A-scan images, the photographing apparatus 1 selectively extracts one piece of brightness information from the plurality of pieces of brightness information. The pixel value corresponding to the extracted luminance information is a representative intensity signal of one point on the fundus of the eye to be inspected from which the A-scan image is obtained. That is, one pixel value is selected from the 1176 pixel values obtained by the A scan.

ここで、生成部1200は、外部装置3から取得され且つ再構成された断層画像を処理してProjection画像を生成するように構成してもよい。この場合には、輝度情報等は、再構成部1100を介さずに不図示のデータ取得部から直接入力を受ける態様とすることが好ましい。 Here, the generation unit 1200 may be configured to process the reconstructed tomographic image acquired from the external device 3 to generate a projection image. In this case, it is preferable that the brightness information and the like be directly input from a data acquisition unit (not shown) without going through the reconstruction unit 1100.

生成部1200は、図7に示すようにAスキャン毎に対応する断層画像の輝度情報を輝度の大きい順に並べ替えを行う。すなわち1176個の画素値列毎に画素値の大小関係に基づいて画素値を順位付けし、画素値の並び替え(ソート処理)を行う(S2010)。なお、同図において、R0は最も明るい輝度情報を画素値として持つ画素であり、R1175は最も暗い輝度情報を画素値として持つ画素である。輝度は干渉の強さを示すため、画素値も干渉の強さに対応している。生成部1200は、更に並び替え後の画素値列における所定順位の画素Rxを選択する。ここで所定順位の画素とは、輝度情報の大きい順に並べ替えた後、先頭からx番目に位置している画素のことである。 The generation unit 1200 rearranges the brightness information of the tomographic images corresponding to each A scan in descending order of brightness as shown in FIG. 7. That is, the pixel values are ranked based on the magnitude relationship of the pixel values for each of the 1176 pixel value columns, and the pixel values are rearranged (sort processing) (S2010). In the figure, R0 is a pixel having the brightest luminance information as a pixel value, and R1175 is a pixel having the darkest luminance information as a pixel value. Since the brightness indicates the intensity of interference, the pixel value also corresponds to the intensity of interference. The generation unit 1200 further selects a pixel Rx of a predetermined rank in the rearranged pixel value sequence. Here, the pixel of a predetermined rank is a pixel located at the x-th position from the beginning after rearranging in the descending order of luminance information.

第一のモードでProjection画像を生成する場合、Aスキャン画像に含まれる全1176個の画素値から所定順位の画素値を選択する。網膜の断層画像を撮影した場合、Aスキャン画像の中で被測定対象物(網膜)の占める割合は約20%程度に留まる。つまり、Aスキャン画像を構成する全1176個の画素のうち約20%が明るい網膜部の画素であり、残りの約80%は被測定対象物以外の暗い画素で構成される。そのため、網膜の平均的な輝度を取得する場合、xは総画素数の半分よりも高順位に位置している画素であることが望ましい。具体的には総画素数1176の画素値列で構成されるAスキャン画像を用いる場合、上位10%の位置に相当する先頭から118番目の画素を所定順位の画素Rxとして選択する(S2020)。 When generating a Projection image in the first mode, a pixel value of a predetermined rank is selected from all 1176 pixel values included in the A scan image. When a tomographic image of the retina is taken, the ratio of the object to be measured (retina) in the A scan image is about 20%. That is, about 20% of all 1176 pixels forming the A scan image are pixels in the bright retina, and the remaining about 80% are dark pixels other than the object to be measured. Therefore, when acquiring the average luminance of the retina, x is preferably a pixel positioned higher than half the total number of pixels. Specifically, when using an A-scan image composed of a pixel value sequence having a total number of pixels of 1176, the 118th pixel from the beginning corresponding to the top 10% position is selected as the pixel Rx of a predetermined rank (S2020).

生成部1200は、全てのAスキャン画像に対して上位10%の位置に相当する画素Rxを選択し、それらの画素値を用いてProjection画像を生成する(S2030)。 The generation unit 1200 selects pixels Rx corresponding to the top 10% positions for all A-scan images, and generates a projection image using those pixel values (S2030).

このProjection画像はCCD172にて得られる眼底の表面画像や、他の眼底カメラ、SLOで得られる眼底画像と類似した画像であり、疑似的に眼底表面を可視化することが可能である。また、複数の輝度情報の中から有効情報のみを選択的に取得するため、Aスキャン画像に含まれるノイズ成分や干渉の強度が低い暗部の領域に左右されることなく好適な表面画像を得ることが可能である。 This projection image is an image similar to the surface image of the fundus obtained by the CCD 172 or the fundus image obtained by another fundus camera or SLO, and the surface of the fundus can be visualized in a pseudo manner. In addition, since only effective information is selectively acquired from a plurality of luminance information, it is possible to obtain a suitable surface image without being affected by a dark component region in which the intensity of noise components and interference included in the A-scan image is low. Is possible.

なお、ここでは、再構成部1100で全データを再構成した後に生成部1200でProjection画像を生成する例で説明した。しかし、Aスキャン毎に再構成された断層画像を生成部1200に順次送信する構成や、Bスキャン毎に再構成された断層画像を生成部1200に順次送信する構成としてもよい。 Here, an example has been described in which the reconstruction unit 1100 reconstructs all data and then the generation unit 1200 generates a projection image. However, the configuration may be such that the tomographic images reconstructed for each A scan are sequentially transmitted to the generation unit 1200, or the tomographic images reconstructed for each B scan are sequentially transmitted to the generation unit 1200.

次に図8を用いて第二のモードによるEnFace画像の生成処理について説明する。 Next, the EnFace image generation process in the second mode will be described with reference to FIG.

層認識部1300は二次元の断層画像から網膜の層構造(層境界)を抽出し、それぞれの層境界の形状を特定する。ここで特定される層境界の形状はILM(網膜-硝子体境界)、NFL/GCL境界、GCL/IPL境界、IPL/INL境界、IS/OSライン、RPE、BM等が挙げられる。一般的にEnFace画像においてはRPEや推定RPE(BM)の形状が用いられる事が多いが、角膜形状など画像解析によって得られた任意の形状を用いても良い。特定された層境界の形状は断層画像と共に生成部1200へと入力される(S3000)。ここで、生成部1200は、図示しない取得部が外部装置3から取得した層境界の形状及び断層画像を用いてEnFace画像を生成するように構成してよい。この場合に、生成部1200は、再構成部1100及び層認識部1300を介さずに取得部2000から直接入力を受ける。 The layer recognition unit 1300 extracts the layer structure (layer boundary) of the retina from the two-dimensional tomographic image and specifies the shape of each layer boundary. The shape of the layer boundary specified here includes ILM (retinal-vitreous boundary), NFL/GCL boundary, GCL/IPL boundary, IPL/INL boundary, IS/OS line, RPE, BM and the like. Generally, in the EnFace image, the shape of the RPE or the estimated RPE (BM) is often used, but an arbitrary shape obtained by image analysis such as the cornea shape may be used. The shape of the specified layer boundary is input to the generation unit 1200 together with the tomographic image (S3000). Here, the generation unit 1200 may be configured to generate the EnFace image using the shape of the layer boundary and the tomographic image acquired from the external device 3 by the acquisition unit (not shown). In this case, the generation unit 1200 receives an input directly from the acquisition unit 2000 without going through the reconstruction unit 1100 and the layer recognition unit 1300.

生成部1200は、入力された層境界の形状に基づき、断層画像を構成する各Aスキャン画像においてEnFace画像を生成するための深度範囲Ziとして、画素値列の一部分を設定する。網膜全層のEnFace画像を得る場合、図9(a)に示すようにILMからRPEまでの深度範囲Zを設定する。また、例えば、RPE近傍の浮腫等を観察する場合、図9(b)に示すように推定RPE形状を有する2本のラインをRPEを挟んで上下に等距離に配置することで深度範囲Ziを設定してもよい。 The generation unit 1200 sets a part of the pixel value sequence as the depth range Zi for generating the EnFace image in each A-scan image forming the tomographic image based on the input layer boundary shape. When obtaining an EnFace image of all layers of the retina, a depth range Z from ILM to RPE is set as shown in FIG. Further, for example, when observing edema and the like near the RPE, two lines having an estimated RPE shape are arranged at equal distances above and below the RPE as shown in FIG. 9B to determine the depth range Zi. You may set it.

また、深度範囲Ziを設定する2本のラインはマウス929−1等で上下に移動可能に構成することもできる。この場合、推定RPE形状を有するラインの1本をRPE上に設定し、もう1本を脈絡膜下に配置することで、脈絡膜のEnFace画像を得るための深度範囲Ziを設定することもできる。なお、本実施形態では、深さ方向の画素値の選択範囲を設定する際に、表示手段において図9(a)等に表示される表示形態を利用して深度範囲を設定させている。しかし、深度範囲を設定する際の表示形態はこれに限定されず、カーソルによって個々の層境界をクリックして選択する等種々の表示形態を用いることが可能である。この表示形態の表示は、パソコン925において表示制御手段として機能するモジュールにより実行される。例えば、図9(a)に表示された断層画像における2つの層境界がクリック等を用いてユーザにより選択された場合、選択された2つの層境界に挟まれた領域が深度範囲Zとして設定される。クリック等を用いてユーザにより選択される層境界は、断層画像に重畳表示された層境界を示す表示であってもよいし、断層画像自体に含まれる層境界であってもよい。 Further, the two lines that set the depth range Zi can be configured to be movable up and down with a mouse 929-1 or the like. In this case, by setting one of the lines having the estimated RPE shape on the RPE and arranging the other one under the choroid, it is possible to set the depth range Zi for obtaining the EnFace image of the choroid. In the present embodiment, when setting the selection range of the pixel value in the depth direction, the depth range is set by using the display form displayed in FIG. However, the display form when setting the depth range is not limited to this, and various display forms such as clicking and selecting each layer boundary with the cursor can be used. The display in this display form is executed by the module functioning as a display control unit in the personal computer 925. For example, when the two layer boundaries in the tomographic image displayed in FIG. 9A are selected by the user using a click or the like, the area sandwiched between the selected two layer boundaries is set as the depth range Z. It The layer boundary selected by the user using a click or the like may be a display indicating a layer boundary superimposed and displayed on the tomographic image, or may be a layer boundary included in the tomographic image itself.

さらに、層境界の形状を用いずに深度範囲Zを設定することもできる。例えば、硝子体のEnFace画像を得るために、断層画像の上端部からILM境界までを深度範囲Zと設定することができる。また、断層画像の任意の深度位置に2本の直線を設定し、その2本の直線の間を深度範囲Zとすることもできる。 Further, the depth range Z can be set without using the shape of the layer boundary. For example, in order to obtain an EnFace image of the vitreous, the depth range Z can be set from the upper end of the tomographic image to the ILM boundary. It is also possible to set two straight lines at arbitrary depth positions of the tomographic image and set the depth range Z between the two straight lines.

そして、生成部1200は全てのAスキャン画像Aiに対して深度範囲Ziを設定する(S3010)。生成部1200は、設定された深度範囲に基づきEnFace画像を生成する。即ち、生成部1200における設定手段として機能するモジュールは、選択範囲として深さ方向のそれぞれの画素値列の各々の一部分を深度範囲Ziとして設定する。 Then, the generation unit 1200 sets the depth range Zi for all A scan images Ai (S3010). The generation unit 1200 generates an EnFace image based on the set depth range. That is, the module functioning as the setting unit in the generation unit 1200 sets, as the selection range, each part of each pixel value sequence in the depth direction as the depth range Zi.

前述のように各Aスキャン画像Aiは1176個の画素値から画素値列が構成されている。生成部1200は、各Aスキャン画像Aiに対して設定された深度範囲Ziに基づき、深度範囲内に相当する画素値のみを取得し、深度範囲Ziにおける画素値列を生成する。以下、例えば、深度範囲における画素値列に192個の画素値が含まれるものとして説明する。 As described above, each A-scan image Ai has a pixel value sequence composed of 1176 pixel values. The generation unit 1200 acquires only pixel values corresponding to the depth range Zi based on the depth range Zi set for each A-scan image Ai, and generates a pixel value sequence in the depth range Zi. Hereinafter, for example, it is assumed that the pixel value sequence in the depth range includes 192 pixel values.

生成部1200は、Aスキャン毎に設定された深度範囲の画素値列内で画素値の大小関係に基づいて画素値を順位付けし、画素値の並び替えを行う(S3020)。そして生成部1200は、所定順位の画素Rxを選択する。ここで所定順位の画素とは、輝度情報の大きい順に並べ替えた後、先頭からx番目に位置している画素のことである。 The generation unit 1200 ranks the pixel values in the pixel value sequence of the depth range set for each A scan based on the magnitude relationship of the pixel values, and rearranges the pixel values (S3020). Then, the generation unit 1200 selects the pixel Rx having a predetermined rank. Here, the pixel of a predetermined rank is a pixel located at the x-th position from the beginning after rearranging in the descending order of luminance information.

第二のモードでEnFace画像を生成する場合、設定された深度範囲に含まれる全192個の画素値から所定順位の画素値を選択する。Aスキャン画像において深度範囲を設定する場合、深度範囲の中で着目領域(例えば、被測定対象物である網膜)の占める割合はほぼ100%である。これはEnFace画像を作成する場合、着目領域のみが含まれるよう深度範囲を設定するためである。そのため、着目領域の平均的な輝度を取得する場合、xはProjection画像と同じ上位10%の位置では不適切であり、総画素数の半分程度であることが望ましい。具体的には総画素数192の画素値列を用いる場合、上位50%の位置に相当する先頭から81番目の画素を所定順位の画素Rxとして選択する(S3030)。 When the EnFace image is generated in the second mode, the pixel value of the predetermined rank is selected from all 192 pixel values included in the set depth range. When setting the depth range in the A-scan image, the ratio of the region of interest (for example, the retina that is the measurement target) to the depth range is almost 100%. This is because when creating an EnFace image, the depth range is set so that only the region of interest is included. Therefore, when acquiring the average luminance of the region of interest, x is inappropriate at the same upper 10% position as the projection image, and is preferably about half the total number of pixels. Specifically, in the case of using the pixel value sequence having the total number of pixels of 192, the 81st pixel from the top corresponding to the position of the upper 50% is selected as the pixel Rx of the predetermined rank (S3030).

生成部1200は、全てのAスキャン画像に対して深度範囲Zi内の画素値列から上位50%の位置に相当する画素Rxを選択し、それらの画素値を用いてEnFace画像を生成する(S3040)。 The generation unit 1200 selects the pixel Rx corresponding to the position of the upper 50% from the pixel value sequence in the depth range Zi for all the A-scan images, and generates the EnFace image using those pixel values (S3040). ).

なお、上記ではEnFace画像を生成する際に深度範囲内の画素値列から上位50%の位置に相当する画素を選択したが、これは上位50%の位置の画素に限るものではない。所定順位は画素値列の輝度分布(ヒストグラム)に応じて設定することもできるし、深度範囲内に占める着目領域の割合に応じて所定順位を可変とすることもできる。例えば、画素値列の輝度分布(ヒストグラム)に応じて所定順位を設定する際に、深度範囲内に含まれる網膜の占める割合に応じて、上位何%の位置の画素を選択するかを変更することもできる。このような構成では、画像に含まれる網膜の割合に応じて適切な画素が選択されるため、患者ごとの網膜厚の違いによらず良好なEnface画像を生成することができる。例えば、層認識部1300はILMとRPEとを断層画像から抽出し、ILMとRPEとに挟まれる領域を網膜の領域として認識する。すなわち、層認識部1300は、断層画像における網膜領域の座標を取得する。一方、生成部1200はユーザにより指定された深度範囲Ziの座標を取得する。そして、生成部1200は層認識部1300から断層画像における網膜領域の座標を取得し、深度範囲Ziの座標と比較することで、深度範囲Zi内において網膜の占める割合を算出することができる。すなわち、生成部1200は画素値列に含まれる注目領域の占める割合を算出することができる。この割合に基づいて生成部1200は自動的に上位何%の位置の画素を選択するかを変更することができる。 なお、生成部1200は、深度範囲Zi内に網膜が含まれる割合が少ない程、より上位の位置の画素を選択するようにする。言い換えれば、生成部1200は、深度範囲Zi内に網膜が含まれる割合が多い程、より下位の位置の画素を選択するようにする。すなわち、基準変更手段の一例である生成部1200は、第二のモードにおいて、画素値列に含まれる注目領域の占める割合に応じて二次元画像の生成に用いる画素値の順位を変更する。
なお、生成部1200はAスキャン画像毎に網膜の占める割合を算出してAスキャン画像毎に上位何%の位置の画素を選択するかを変更することとしてもよいし、複数Aスキャン画像における網膜の占める割合の平均値に基づいて上位何%の位置の画素を選択するかを変更することとしてもよい。また、生成部1200は、第一のモードにおいても、Aスキャン画像に含まれる網膜の割合に応じて上位何%の位置の画素を選択するかを変更することとしてもよい。
In the above description, when generating the EnFace image, the pixels corresponding to the top 50% positions in the pixel value sequence within the depth range are selected, but this is not limited to the pixels at the top 50% positions. The predetermined order can be set according to the brightness distribution (histogram) of the pixel value sequence, or the predetermined order can be changed according to the ratio of the region of interest in the depth range. For example, when setting the predetermined rank according to the luminance distribution (histogram) of the pixel value sequence, the upper percentage of the pixels to be selected is changed according to the ratio of the retina included in the depth range. You can also With such a configuration, since an appropriate pixel is selected according to the proportion of the retina included in the image, a good Enface image can be generated regardless of the difference in the retinal thickness of each patient. For example, the layer recognition unit 1300 extracts ILM and RPE from the tomographic image, and recognizes the area sandwiched between ILM and RPE as the area of the retina. That is, the layer recognition unit 1300 acquires the coordinates of the retina area in the tomographic image. On the other hand, the generation unit 1200 acquires the coordinates of the depth range Zi designated by the user. Then, the generation unit 1200 can calculate the proportion of the retina in the depth range Zi by acquiring the coordinates of the retina region in the tomographic image from the layer recognition unit 1300 and comparing with the coordinates of the depth range Zi. That is, the generation unit 1200 can calculate the ratio occupied by the attention area included in the pixel value sequence. Based on this ratio, the generation unit 1200 can automatically change what percentage of higher-order pixels the pixel is selected. The generation unit 1200 selects the pixel at a higher position as the proportion of the retina included in the depth range Zi is smaller. In other words, the generation unit 1200 selects a pixel at a lower position as the proportion of the retina included in the depth range Zi increases. That is, the generation unit 1200, which is an example of the reference changing unit, changes the order of the pixel values used for generating the two-dimensional image in the second mode according to the ratio of the attention area included in the pixel value sequence.
Note that the generation unit 1200 may calculate the proportion of the retina occupied for each A-scan image and change what percentage of higher-order pixels are selected for each A-scan image. It is also possible to change what percentage of higher-order pixels are to be selected based on the average value of the proportion occupied by. Also, the generation unit 1200 may change the uppermost percentage of pixels to be selected according to the proportion of the retina included in the A-scan image even in the first mode.

このような本実施形態において所定順位として述べられる設定された選択範囲に応じた所定の選択基準の変更は、ここで述べたように網膜の割合に例示される患者個々の眼の特徴等に応じて行われることが好ましい。また、予め保存されている患者個人のデータより、任意に選択し条件に基づいて行われても良い。この場合、当該処理は同画像処理装置100中において基準変更手段として機能するモジュールにより実行される。また、この基準変更は、例えば網膜の占める割合の値が閾値を超えるか否かで判断し実行されても良く、検者による入力、指示等に応じて実行されても良い。 The change of the predetermined selection criterion according to the set selection range described as the predetermined order in the present embodiment is performed according to the eye characteristics of each patient exemplified by the proportion of the retina as described herein. Is preferably carried out. Further, it may be arbitrarily selected from pre-stored individual patient data and performed based on conditions. In this case, the processing is executed by the module functioning as the reference changing unit in the image processing apparatus 100. Further, this reference change may be executed by determining whether or not the value of the proportion occupied by the retina exceeds a threshold value, for example, or may be executed in response to an input or instruction from the examiner.

このEnFace画像はCCD172にて得られる眼底の表面画像とは異なり、深度範囲の設定によって様々な様態の画像を得ることができる。特定の深度範囲内の情報のみで二次元画像を生成するため、深度範囲内における被測定対象物の構造とその構造の変化を顕著に可視化することができる。 This EnFace image is different from the surface image of the fundus obtained by the CCD 172, and various types of images can be obtained by setting the depth range. Since the two-dimensional image is generated only with the information within the specific depth range, the structure of the measured object within the depth range and the change in the structure can be remarkably visualized.

次に、本実施形態に係る撮影装置1では、生成した眼底の表面画像、断層画像、Projection画像、EnFace画像をモニタ928に表示する。図10に示すように、眼底の表面画像Sと、断層画像Ti、Projection画像Pはモニタ928上に並べて表示される。また、Projection画像P及び表面画像S上には断層画像Tiの取得位置Liが重ねて表示される。Projection画像Pは、不図示の切り替え手段によりEnFace画像Eに切り替えて表示することもできる。或いは、図11に示すように、断層画像Ti、Projection画像P、及びEnFace画像Eをモニタ928上に並べて表示することもできる。 Next, in the imaging apparatus 1 according to the present embodiment, the generated fundus surface image, tomographic image, projection image, and EnFace image are displayed on the monitor 928. As shown in FIG. 10, the surface image S of the fundus oculi, the tomographic image Ti, and the projection image P are displayed side by side on the monitor 928. Further, the acquisition position Li of the tomographic image Ti is displayed on the projection image P and the surface image S in an overlapping manner. The projection image P can also be switched to the EnFace image E and displayed by a switching unit (not shown). Alternatively, as shown in FIG. 11, the tomographic image Ti, the projection image P, and the EnFace image E can be displayed side by side on the monitor 928.

なお、本実施形態における画像処理装置100では、128枚の断層画像を生成する。しかし、モニタ928上には選択された1枚の断面としての断層画像Ti(i=0〜128)、又は三次元で再構成された断層画像の断面画像Ti(この場合には任意の番号iが振られる)が表示される。検者は入力部929−1、929−2を操作して、表示する断層画像を切り替える切り替え表示可能とすることができる。ここで、断層画像Tiが切り替わると、Projection画像P、EnFace画像E及び表面画像S上に表示される断層画像Tiの取得位置Liの表示位置も更新される。これにより、検者は表示された断層画像Tiが被検眼眼底127上のどの位置の断層画像なのかを容易に知ることができる。 Note that the image processing apparatus 100 according to this embodiment generates 128 tomographic images. However, on the monitor 928, a tomographic image Ti (i=0 to 128) as one selected cross section or a cross-sectional image Ti of a tomographic image reconstructed in three dimensions (in this case, an arbitrary number i Is shaken) is displayed. The examiner can operate the input units 929-1 and 929-2 so that the tomographic images to be displayed can be switched and displayed. Here, when the tomographic image Ti is switched, the display position of the acquisition position Li of the tomographic image Ti displayed on the projection image P, the EnFace image E, and the surface image S is also updated. Thereby, the examiner can easily know which position on the fundus 127 of the eye to be inspected the displayed tomographic image Ti is.

そして、取得位置LiがEnFace画像E上におかれた場合、特定の深度範囲における被測定対象物の構造変化と断層画像Tiを対比しながら観察することも可能である。 When the acquisition position Li is placed on the EnFace image E, it is also possible to observe the structural change of the measured object in a specific depth range and the tomographic image Ti while comparing them.

なお、本実施例では被検眼眼底の断層画像に基づいて網膜のProjection画像及びEnFace画像を生成しているが、被検眼前眼部の断層画像に基づいて前眼部のProjection画像及びEnFace画像を生成しても良い。 In the present embodiment, the projection image and the EnFace image of the retina are generated based on the tomographic image of the fundus of the eye to be inspected. It may be generated.

以上述べたProjecion画像及びEnFace画像を生成する生成部1200は、本実施形態において、複数の前記画素値列のそれぞれから所定の選択基準に従って選択された画素値に基づいて二次元画像を生成する。この場合、所定の選択基準は前述した上位何パーセントという基準が例示される。 In the present embodiment, the generation unit 1200 that generates the projection image and the EnFace image described above generates a two-dimensional image based on the pixel value selected from each of the plurality of pixel value columns according to a predetermined selection criterion. In this case, the predetermined selection criterion is exemplified by the criterion of the above-mentioned percentage.

また、この所定の選択基準は、画素値選択時に用いるAスキャン画像中の画素値列として用いる画素の数に応じて変更される。この場合、複数の画素値列の各々において、深さ方向において幾つの或いはどのような条件の範囲に含まれる画素値を用いるかは、選択される画素値の選択範囲を設定する設定手段として機能する画像処理装置100中のモジュールにより実行される。また、設定された選択範囲に応じた所定の選択基準の変更は、同画像処理装置100中において基準変更手段として機能するモジュールにより実行される。 Further, this predetermined selection criterion is changed according to the number of pixels used as a pixel value sequence in the A scan image used when selecting pixel values. In this case, in each of the plurality of pixel value columns, how many or what condition of the pixel value is included in the depth direction functions as a setting unit that sets the selection range of the selected pixel value. It is executed by a module in the image processing apparatus 100. Further, the change of the predetermined selection criterion according to the set selection range is executed by the module functioning as the criterion changing unit in the image processing apparatus 100.

前述したように、本発明によれば、深さ方向の全ての情報に基づき二次元画像を生成する場合と、深さ方向の所定範囲内の情報に基づき二次元画像を生成する場合の双方で、良好な二次元画像を得ることが可能となる。 As described above, according to the present invention, it is possible to generate a two-dimensional image based on all information in the depth direction and to generate a two-dimensional image based on information within a predetermined range in the depth direction. It becomes possible to obtain a good two-dimensional image.

[その他の実施形態]
なお、本件は上記の実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲内において、種々の変形、変更して実施することができる。例えば、上記の実施形態では、被測定物体が眼、特に眼底の場合について述べているが、眼以外の皮膚や臓器等の被測定物体に本発明を適用することも可能である。この場合、本発明は眼科装置以外の、例えば内視鏡等の医療機器としての態様を有する。従って、本発明は眼科装置に例示される検査装置のための画像処理装置として把握され、被検眼は被検査物体の一態様として把握されることが望ましい。
[Other Embodiments]
The present invention is not limited to the above-described embodiment, and various modifications and changes can be made without departing from the spirit of the present invention. For example, in the above embodiment, the case where the object to be measured is the eye, particularly the fundus of the eye is described, but the present invention can also be applied to the object to be measured such as skin and organs other than the eye. In this case, the present invention has an aspect as a medical device such as an endoscope other than the ophthalmologic apparatus. Therefore, it is desirable that the present invention be understood as an image processing apparatus for an inspection apparatus exemplified by an ophthalmologic apparatus, and that the eye to be inspected be understood as one mode of the object to be inspected.

また、本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 Further, the present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus execute the program. It can also be realized by a process of reading and executing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

本発明は、光干渉で得られた断層画像の情報から二次元の画像を得る画像処理装置及び画像処理装置の作動方法に関するものである。 The present invention relates to an image processing apparatus for obtaining a two-dimensional image from information on a tomographic image obtained by optical interference and an operating method of the image processing apparatus .

本発明は上記課題に鑑み、良好な二次元画像を得ることを可能とする画像処理装置及び画像処理装置の作動方法の提供を目的の一つとする。 In view of the above problems, it is another object to provide a method of operating an image processing apparatus and an image processing apparatus which makes it possible to obtain a good good two-dimensional images.

上記目的を達成するために、本発明の一態様に係る画像処理装置は、
被検眼の断層画像に層境界に関するラインを重畳して表示手段に表示させる表示制御手段と、
前記表示される断層画像において前記層境界に関するラインの位置を、検者からの指示に応じて変更する変更手段と、
前記層境界に関するラインの位置に関する情報を用いて選択された前記被検眼の深度範囲に対応する前記被検眼の正面画像である二次元画像を生成する生成手段と、
を備える
In order to achieve the above object, an image processing device according to an aspect of the present invention is
Display control means for superimposing a line relating to a layer boundary on a tomographic image of the eye to be inspected and displaying the display means,
In the displayed tomographic image, the position of the line with respect to the layer boundary, changing means for changing in accordance with an instruction from the examiner,
Generating means for generating a two-dimensional image that is a front image of the eye to be inspected corresponding to the depth range of the eye to be inspected selected using information about the position of the line related to the layer boundary,
Equipped with .

本発明の一つによれば、良好な二次元画像を得ることが可能となる。 According to one aspect of the present invention, it is possible to obtain a good good two-dimensional images.

Claims (12)

走査された測定光の被測定物体からの戻り光と前記測定光に対応する参照光とを干渉させた干渉光に基づいて前記被測定物体の深さ方向に並ぶ画素値列を取得する取得手段と、
複数の前記画素値列のそれぞれから所定の選択基準に従って選択された画素値に基づいて二次元画像を生成する生成手段と、
前記複数の画素値列の各々において、前記深さ方向において前記選択される画素値の選択範囲を設定する設定手段と、
前記設定された選択範囲に応じて前記所定の選択基準を変更する基準変更手段と、を有することを特徴とする画像処理装置。
Acquisition means for acquiring a pixel value sequence arranged in the depth direction of the measured object based on the interference light obtained by causing the return light of the scanned measurement light from the measured object and the reference light corresponding to the measured light to interfere with each other. When,
Generating means for generating a two-dimensional image based on pixel values selected from each of the plurality of pixel value columns according to a predetermined selection criterion;
Setting means for setting a selection range of the selected pixel value in the depth direction in each of the plurality of pixel value columns;
An image processing apparatus comprising: a reference changing unit that changes the predetermined selection criterion according to the set selection range.
前記生成手段は、前記選択範囲が前記深さ方向の画素値列の全てであって、前記所定の選択基準として前記画素値の大きさの順に基づき選択された画素値を用いて前記二次元画像を生成する第一のモードと、
前記選択範囲として前記深さ方向のそれぞれの画素値列の各々の一部分が前記設定手段に設定され、前記所定の選択基準として前記選択範囲の内で画素値の大きさの順に基づき選択された画素値を用いて二次元画像を生成する第二のモードとを備えることを特徴とする請求項1に記載の画像処理装置。
The generation unit is the two-dimensional image using the pixel value selected in the order of magnitude of the pixel value as the predetermined selection criterion, the selection range is all of the pixel value sequence in the depth direction. A first mode that produces
Pixels selected as a part of each pixel value sequence in the depth direction as the selection range are set in the setting means, and selected as the predetermined selection criterion based on the order of the pixel value size in the selection range. The image processing apparatus according to claim 1, further comprising: a second mode for generating a two-dimensional image using the value.
前記生成手段は画素値列毎に画素値の大小関係に基づいて画素値を順位付けし、
前記順位づけされた画素値列における所定の順位の画素値に基づいて前記二次元画像を生成し、
第一のモードと第二のモードで所定の順位が異なることを特徴とする請求項2に記載の画像処理装置。
The generation means ranks the pixel values based on the magnitude relationship of the pixel values for each pixel value column,
Generating the two-dimensional image based on pixel values of a predetermined rank in the ranked pixel value sequence,
The image processing apparatus according to claim 2, wherein the predetermined order is different between the first mode and the second mode.
前記基準変更手段は、前記第二のモードにおいて、前記画素値列に含まれる注目領域の占める割合に応じて前記所定の順位を変更することを特徴とする、請求項3に記載の画像処理装置。 The image processing apparatus according to claim 3, wherein the reference changing unit changes the predetermined order according to a ratio of the attention area included in the pixel value sequence in the second mode. .. 前記第一のモードにおける所定の順位は前記第二のモードにおける所定の順位よりも高順位であることを特徴とする請求項3又は4に記載の画像処理装置。 The image processing apparatus according to claim 3, wherein the predetermined rank in the first mode is higher than the predetermined rank in the second mode. 前記生成手段で生成された前記二次元画像を表示するための表示手段を更に備えることを特徴とする請求項1乃至5のいずれか一項に記載の画像処理装置。 The image processing apparatus according to claim 1, further comprising a display unit that displays the two-dimensional image generated by the generation unit. 前記設定手段が前記深さ方向の画素値の選択範囲を設定する際に、前記表示手段において前記設定手段に対して選択範囲を設定させる表示形態を表示させる表示制御手段を有することを特徴とする請求項6に記載の画像処理装置。 When the setting means sets the selection range of the pixel value in the depth direction, the display means has a display control means for displaying a display form for causing the setting means to set the selection range. The image processing apparatus according to claim 6. 前記表示手段は、前記生成手段で生成された前記第一のモードによる二次元画像と前記第二のモードによる二次元画像とを切り替えて表示可能であることを特徴とする請求項6又は7に記載の画像処理装置。 The display unit can switch and display a two-dimensional image in the first mode and a two-dimensional image in the second mode generated by the generating unit. The image processing device described. 前記表示手段は、前記生成手段で生成された前記第一のモードによる二次元画像と前記第二のモードによる二次元画像とを並べて表示可能であることを特徴とする請求項6又は7に記載の画像処理装置。 8. The display unit according to claim 6, wherein the display unit can display the two-dimensional image in the first mode and the two-dimensional image in the second mode generated by the generating unit side by side. Image processing device. 前記被測定物体は、眼であることを特徴とする請求項1乃至9の何れか1項に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the measured object is an eye. 走査された測定光の前記被測定物体からの戻り光と前記測定光に対応する参照光とを干渉させた干渉光に基づいて被測定物体の深さ方向に並ぶ画素値列を取得する取得工程と、
複数の前記画素値列のそれぞれから所定の選択基準に従って選択された画素値に基づいて二次元画像を生成する生成工程と、
前記複数の画素値列の各々において、前記深さ方向において前記選択される画素値の選択範囲を設定する設定工程と、
前記設定された選択範囲に応じて前記所定の選択基準を変更する基準変更工程と、を有することを特徴とする画像処理方法。
An acquisition step of acquiring a pixel value sequence arranged in the depth direction of the measured object based on the interference light obtained by causing the return light of the scanned measurement light from the measured object and the reference light corresponding to the measured light to interfere with each other. When,
A generating step of generating a two-dimensional image based on pixel values selected according to a predetermined selection criterion from each of the plurality of pixel value columns;
In each of the plurality of pixel value columns, a setting step of setting a selection range of the selected pixel value in the depth direction,
And a reference changing step of changing the predetermined selection criterion according to the set selection range.
請求項11に記載の画像処理方法の各工程をコンピュータに実行させることを特徴とするプログラム。 A program that causes a computer to execute each step of the image processing method according to claim 11.
JP2020067791A 2020-04-03 2020-04-03 Image processing device and operation method of image processing device Active JP6884904B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020067791A JP6884904B2 (en) 2020-04-03 2020-04-03 Image processing device and operation method of image processing device
JP2021080559A JP2021118924A (en) 2020-04-03 2021-05-11 Image processing apparatus and actuation method for image processing apparatus
JP2023067281A JP2023080366A (en) 2020-04-03 2023-04-17 Image processing apparatus and actuation method for image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020067791A JP6884904B2 (en) 2020-04-03 2020-04-03 Image processing device and operation method of image processing device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015112517A Division JP6700678B2 (en) 2015-06-02 2015-06-02 Image processing apparatus and method of operating image processing apparatus

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021080559A Division JP2021118924A (en) 2020-04-03 2021-05-11 Image processing apparatus and actuation method for image processing apparatus

Publications (2)

Publication Number Publication Date
JP2020116410A true JP2020116410A (en) 2020-08-06
JP6884904B2 JP6884904B2 (en) 2021-06-09

Family

ID=71889455

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2020067791A Active JP6884904B2 (en) 2020-04-03 2020-04-03 Image processing device and operation method of image processing device
JP2021080559A Pending JP2021118924A (en) 2020-04-03 2021-05-11 Image processing apparatus and actuation method for image processing apparatus
JP2023067281A Pending JP2023080366A (en) 2020-04-03 2023-04-17 Image processing apparatus and actuation method for image processing apparatus

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2021080559A Pending JP2021118924A (en) 2020-04-03 2021-05-11 Image processing apparatus and actuation method for image processing apparatus
JP2023067281A Pending JP2023080366A (en) 2020-04-03 2023-04-17 Image processing apparatus and actuation method for image processing apparatus

Country Status (1)

Country Link
JP (3) JP6884904B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008206684A (en) * 2007-02-26 2008-09-11 Topcon Corp Fundus oculi observation device, fundus oculi image processing device and program
US20110216956A1 (en) * 2010-03-05 2011-09-08 Bower Bradley A Methods, Systems and Computer Program Products for Collapsing Volume Data to Lower Dimensional Representations Thereof
JP2014045869A (en) * 2012-08-30 2014-03-17 Canon Inc Imaging apparatus, image processing device, and image processing method
JP2014140490A (en) * 2013-01-23 2014-08-07 Nidek Co Ltd Ophthalmological analysis device, and ophthalmological analysis program
JP2015093128A (en) * 2013-11-13 2015-05-18 株式会社トプコン Ophthalmological observation device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014113207A (en) * 2012-12-06 2014-06-26 Tomey Corporation Tomographic apparatus and tomographic image processing method
US9295387B2 (en) * 2013-04-03 2016-03-29 Kabushiki Kaisha Topcon Ophthalmologic apparatus
JP6080140B2 (en) * 2013-05-30 2017-02-15 株式会社トプコン Ophthalmic photographing apparatus, ophthalmic image display apparatus, and ophthalmic image processing apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008206684A (en) * 2007-02-26 2008-09-11 Topcon Corp Fundus oculi observation device, fundus oculi image processing device and program
US20110216956A1 (en) * 2010-03-05 2011-09-08 Bower Bradley A Methods, Systems and Computer Program Products for Collapsing Volume Data to Lower Dimensional Representations Thereof
JP2014045869A (en) * 2012-08-30 2014-03-17 Canon Inc Imaging apparatus, image processing device, and image processing method
JP2014140490A (en) * 2013-01-23 2014-08-07 Nidek Co Ltd Ophthalmological analysis device, and ophthalmological analysis program
JP2015093128A (en) * 2013-11-13 2015-05-18 株式会社トプコン Ophthalmological observation device

Also Published As

Publication number Publication date
JP2023080366A (en) 2023-06-08
JP2021118924A (en) 2021-08-12
JP6884904B2 (en) 2021-06-09

Similar Documents

Publication Publication Date Title
JP6130723B2 (en) Information processing apparatus, information processing apparatus control method, and program
KR101636811B1 (en) Imaging apparatus, image processing apparatus, and image processing method
KR101581310B1 (en) Image processing apparatus and image processing method
JP6415030B2 (en) Image processing apparatus, image processing method, and program
JP5792977B2 (en) Image processing apparatus, image processing method, ophthalmic apparatus, and medical system
JP6700678B2 (en) Image processing apparatus and method of operating image processing apparatus
JP6057620B2 (en) Optical tomographic imaging apparatus, image processing apparatus, and optical tomographic image display method
JP6418766B2 (en) Tomographic image processing apparatus, tomographic image processing method and program
JP6039314B2 (en) Imaging apparatus and imaging method
JP2022176282A (en) Ophthalmologic apparatus and control method thereof
JP2019088382A (en) Image processing device, ophthalmologic imaging device, image processing method, and program
JP5975650B2 (en) Image forming method and apparatus
JP2017221741A (en) Image formation device, image formation method and program
JP6884904B2 (en) Image processing device and operation method of image processing device
JP2018000687A (en) Image processing device, image processing method, and program
JP6437038B2 (en) Information processing apparatus, information processing apparatus control method, and program
JP6625193B2 (en) Information processing apparatus, information processing apparatus control method, and program
JP6308723B2 (en) CONTROL DEVICE, ITS OPERATION METHOD, AND PROGRAM
JP7387812B2 (en) Image processing device, image processing method and program
JP6701250B2 (en) Ophthalmic photographing apparatus, control method thereof, and program
JP2016067588A (en) Optical coherence tomographic apparatus and control method of the same
JP2016123722A (en) Examination apparatus and control method for examination apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200413

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200529

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210413

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210512

R151 Written notification of patent or utility model registration

Ref document number: 6884904

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151