JP2010253131A - Three-dimensional image processor - Google Patents

Three-dimensional image processor Download PDF

Info

Publication number
JP2010253131A
JP2010253131A JP2009108585A JP2009108585A JP2010253131A JP 2010253131 A JP2010253131 A JP 2010253131A JP 2009108585 A JP2009108585 A JP 2009108585A JP 2009108585 A JP2009108585 A JP 2009108585A JP 2010253131 A JP2010253131 A JP 2010253131A
Authority
JP
Japan
Prior art keywords
image
dimensional image
scan
scan image
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009108585A
Other languages
Japanese (ja)
Other versions
JP5242492B2 (en
Inventor
Keiichiro Okamoto
圭一郎 岡本
Hime Chin
金姫 陳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tomey Corp
Original Assignee
Tomey Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tomey Corp filed Critical Tomey Corp
Priority to JP2009108585A priority Critical patent/JP5242492B2/en
Publication of JP2010253131A publication Critical patent/JP2010253131A/en
Application granted granted Critical
Publication of JP5242492B2 publication Critical patent/JP5242492B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a three-dimensional image processor for improving precision in automatically recognizing the region of a measured part by specifying a region of the object part and measuring the volume of the object part by using a C-scan image, and also more accurately measuring the volume. <P>SOLUTION: The volume of the measured part is measured through the use of C-scan image extracting means for extracting the C-scan image from a three-dimensional image, designating means for designating the measured part in the extracted C-scan image, measured part region specifying means for specifying the region of the designated measured part, and area measuring means for measuring the area of the specified measured part region. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

この発明は、前眼部や眼底の3次元画像を処理する3次元画像処理装置に関するものである。   The present invention relates to a three-dimensional image processing apparatus that processes a three-dimensional image of an anterior segment or fundus.

現在、緑内障における眼圧降下手段として最も広く行われている手術法は、強膜に房水の出口を人工的に作成し、房水排出路として結膜下にブレブ(bleb・濾過胞)と呼ばれる空間を形成する線維柱帯切除術である。しかし、手術後、組織の癒着等によりブレブが消失し、眼圧低下の効果が失われてしまい再び眼圧が上昇することがある。そのため、術後のブレブの観察や評価は不可欠で重要である。   Currently, the most widely used surgical technique for reducing intraocular pressure in glaucoma is to create an aqueous humor outlet in the sclera and call it a bleb (bleb) under the conjunctiva as the aqueous humor drainage channel A trabeculectomy to form a space. However, after surgery, the bleb disappears due to tissue adhesion or the like, and the effect of reducing intraocular pressure may be lost, causing the intraocular pressure to rise again. Therefore, observation and evaluation of postoperative blebs are indispensable and important.

さらに、近年では、深層強膜切除(deep sclerectomy)により強膜内にレイク(lake)と呼ばれる空間を形成するviscocanalostomyという手術法も登場してきており、形成したレイクの体積計測を行う等し、眼圧降下への寄与の研究調査が行われている。   Furthermore, in recent years, a surgical method called viscocanalostomy, which forms a space called a lake in the sclera by deep sclerectomy, has appeared, such as measuring the volume of the formed lake, Research on the contribution to pressure drop is being conducted.

そこで、特許文献1に示されるような光干渉断層撮影装置(OCT装置)により取得される眼球内部の2次元断層画像を解析することで、ブレブやレイクの評価が行われており、特に、体積の定量評価が求められている。   Therefore, blebs and rakes are evaluated by analyzing a two-dimensional tomographic image inside the eyeball acquired by an optical coherence tomography apparatus (OCT apparatus) as disclosed in Patent Document 1, and in particular, volume Quantitative evaluation is required.

ところで、光干渉断層撮影装置において前眼部を撮影する場合、結膜や強膜など眼球内部の各組織において測定光が散乱してしまうことから、深さ方向への感度が減衰する。特に、フーリエドメイン方式を用いた光干渉断層撮影装置の場合、眼の各組織における反射光のスペクトル信号をフーリエ変換することで、眼の深さ方向の形態を画像化することから、深さ方向への感度の減衰が非常に顕著に現れることになる。なお、図1に、フーリエドメイン方式を用いた前眼部光干渉断層撮影装置にてレイクを撮影した2次元断層画像を示す。   By the way, when an anterior eye part is imaged by the optical coherence tomography apparatus, the measurement light is scattered in each tissue inside the eyeball such as the conjunctiva and the sclera, so that the sensitivity in the depth direction is attenuated. In particular, in the case of an optical coherence tomography apparatus using the Fourier domain method, the shape of the depth direction of the eye is imaged by Fourier transforming the spectral signal of the reflected light in each tissue of the eye, so that the depth direction The attenuation of the sensitivity to becomes very prominent. FIG. 1 shows a two-dimensional tomographic image obtained by photographing a rake with an anterior ocular optical coherence tomography apparatus using the Fourier domain method.

そのため、光干渉断層撮影装置により撮影された2次元断層画像を用いてレイク領域の自動解析を行うと、深さ方向への感度の減衰の影響によりレイク領域が開口していると判断され、領域の自動特定が困難となる場合があった。   Therefore, when a rake region is automatically analyzed using a two-dimensional tomographic image captured by an optical coherence tomography apparatus, it is determined that the rake region is open due to the influence of sensitivity attenuation in the depth direction. In some cases, it was difficult to identify automatically.

特開2007−225349号公報JP 2007-225349 A

ここにおいて、本発明は上述の如き事情を背景として為されたものであって、その解決課題とするところは、C−スキャン画像を用いて対象部位の領域特定及びその対象部位の体積測定を行うことにより、計測対象部位領域の自動認識の精度の向上を図ることができ、より正確な体積測定を行うことができる3次元画像処理装置を提供することにある。   Here, the present invention has been made in the background as described above, and the problem to be solved is to specify the region of the target region and measure the volume of the target region using the C-scan image. Accordingly, it is an object of the present invention to provide a three-dimensional image processing apparatus that can improve the accuracy of automatic recognition of a region to be measured and can perform more accurate volume measurement.

以下、前述の如き課題を解決するために為された本発明の態様を記載する。なお、以下に記載の各態様において採用される構成要素は、可能な限り任意の組み合わせで採用可能である。   Hereinafter, embodiments of the present invention made to solve the above-described problems will be described. In addition, the component employ | adopted in each aspect as described below is employable by arbitrary combinations as much as possible.

すなわち、本発明の第一の態様は、3次元画像を取得する3次元画像取得手段と、該取得された前記3次元画像を表示する表示手段と、前記3次元画像を解析する画像解析手段とを備えた3次元画像処理装置において、前記画像解析手段は、前記3次元画像から前記C−スキャン画像を抽出するC−スキャン画像抽出手段と、該抽出された前記C−スキャン画像における計測部位を指定する指定手段と、該指定された前記計測部位の領域を特定する計測部位領域特定手段と、該特定された前記計測部位領域の面積を計測する面積計測手段とを備え、前記計測部位の体積計測を行うことを特徴とする。   That is, the first aspect of the present invention is a three-dimensional image acquisition unit that acquires a three-dimensional image, a display unit that displays the acquired three-dimensional image, and an image analysis unit that analyzes the three-dimensional image. In the three-dimensional image processing apparatus, the image analysis unit includes a C-scan image extraction unit that extracts the C-scan image from the three-dimensional image, and a measurement site in the extracted C-scan image. A designating unit for designating, a measurement site region specifying unit for specifying the region of the designated measurement site, and an area measuring unit for measuring the area of the specified measurement site region, and the volume of the measurement site It is characterized by measuring.

本態様に従う構造とされた3次元画像処理装置においては、深さ方向に垂直なスライス面であるC−スキャン画像を用いて対象部位の領域特定を行うことにより、解析画像のコントラストが一様になり、計測対象部位領域の自動認識の精度の向上を図ることができる。   In the three-dimensional image processing apparatus structured according to this aspect, the contrast of the analysis image is made uniform by specifying the region of the target region using the C-scan image that is a slice plane perpendicular to the depth direction. Thus, the accuracy of automatic recognition of the measurement target region can be improved.

また、本発明の第二の態様は、前記第一の態様に係る3次元画像処理装置において、前記C−スキャン画像抽出手段は、前記C−スキャン画像の前記計測部位を囲む局所画像を抽出する局所画像抽出手段を含む、ことを特徴とする。   According to a second aspect of the present invention, in the three-dimensional image processing apparatus according to the first aspect, the C-scan image extraction unit extracts a local image surrounding the measurement site of the C-scan image. It includes a local image extracting means.

本態様に従う構造とされた3次元画像処理装置においては、抽出したC−スキャン画像から計測したい対象部位を見つけ、計測対象部位を囲む局所領域を局所画像として抽出することにより、対象部位の計測に必要となる最小限の情報を持った画像に対してのみ解析すればよくなり、解析時間の短縮を図ることができる。   In the three-dimensional image processing apparatus having the structure according to this aspect, the target part to be measured is found from the extracted C-scan image, and a local region surrounding the measurement target part is extracted as a local image, thereby measuring the target part. It is only necessary to analyze an image having the necessary minimum information, and the analysis time can be shortened.

また、本発明の第三の態様は、前記第一又は第二の態様に係る3次元画像処理装置において、前記C−スキャン画像抽出手段及び前記指定手段は、前記表示手段に表示される少なくとも1枚の前記C−スキャン画像に対して、検者が手動で抽出ならびに指定を行う操作手段を含むことを特徴とする。   According to a third aspect of the present invention, in the three-dimensional image processing apparatus according to the first or second aspect, the C-scan image extraction means and the designation means are at least one displayed on the display means. Operation means for manually extracting and specifying the C-scan image of the sheet is included.

本態様に従う構造とされた3次元画像処理装置においては、少なくとも1枚のC−スキャン画像に対して検者が手動で抽出及び指定を行えば、その他C−スキャン画像に対しては自動で抽出及び指定が行われることから、検者の負担軽減、さらには、解析時間の短縮を図ることができる。   In the three-dimensional image processing apparatus structured according to this aspect, if the examiner manually extracts and designates at least one C-scan image, the other C-scan images are automatically extracted. Since the designation is performed, the burden on the examiner can be reduced and the analysis time can be shortened.

また、本発明の第四の態様は、前記第一乃至第三の態様に係る3次元画像処理装置において、前記C−スキャン画像抽出手段は、該抽出された前記C−スキャン画像のコントラストを調整するコントラスト調整手段を含むことを特徴とする。   According to a fourth aspect of the present invention, in the three-dimensional image processing apparatus according to the first to third aspects, the C-scan image extraction unit adjusts the contrast of the extracted C-scan image. And a contrast adjusting means.

本態様に従う構造とされた3次元画像処理装置においては、抽出されたC−スキャン画像のコントラスト調整を行うことにより、計測対象部位領域の特定がよりし易くなり、さらに、自動特定する場合には、自動認識の精度の向上を図ることができる。   In the three-dimensional image processing apparatus having the structure according to this aspect, it is easier to specify the measurement target region by adjusting the contrast of the extracted C-scan image. The accuracy of automatic recognition can be improved.

また、本発明の第五の態様は、前記第四の態様に係る3次元画像処理装置において、前記コントラスト調整手段は、コントラスト調整を行う前記C−スキャン画像に隣接する前記C−スキャン画像の輝度情報に基づいてコントラスト調整することを特徴とする。   According to a fifth aspect of the present invention, in the three-dimensional image processing apparatus according to the fourth aspect, the contrast adjustment unit is configured to adjust the brightness of the C-scan image adjacent to the C-scan image for performing contrast adjustment. The contrast is adjusted based on the information.

本態様に従う構造とされた3次元画像処理装置においては、コントラスト調整を行うC−スキャン画像に隣接するC−スキャン画像の輝度情報に基づいてコントラスト調整を行うことにより、確実に計測対象部位領域の解像度を上げることができることから、計測対象部位領域とその他の領域とを分割することができるようになり、より自動認識の精度の向上を図ることができる。   In the three-dimensional image processing apparatus having the structure according to this aspect, the contrast adjustment is performed based on the luminance information of the C-scan image adjacent to the C-scan image for which the contrast adjustment is performed, so that the measurement target region can be reliably detected. Since the resolution can be increased, it becomes possible to divide the measurement target region and the other regions, thereby further improving the accuracy of automatic recognition.

図1は前眼部光干渉断層撮影装置にてレイクを撮影した2次元断層画像の一例を示す画像である。FIG. 1 is an image showing an example of a two-dimensional tomographic image obtained by photographing a lake with an anterior ocular optical coherence tomography apparatus. 図2は前眼部3次元画像撮影装置の実施形態の外観の一例を示す概略図である。FIG. 2 is a schematic diagram illustrating an example of the appearance of an embodiment of the anterior segment 3D image capturing apparatus. 図3はスキャン及び増加・減少方向の定義を説明するための説明図である。FIG. 3 is an explanatory diagram for explaining the definition of scanning and increasing / decreasing directions. 図4は前眼部3次元画像撮影装置の実施形態の構成の一例を示す概略ブロック図である。FIG. 4 is a schematic block diagram showing an example of the configuration of the embodiment of the anterior segment 3D image capturing apparatus. 図5は前眼部3次元画像処理装置における対象部位の体積測定の処理手順の一例を示すフローチャートである。FIG. 5 is a flowchart showing an example of a processing procedure for volume measurement of a target region in the anterior segment 3D image processing apparatus. 図6はコントラスト調整前とコントラスト調整後(中心輝度TH=90)の局所画像の一例を示す画像である。FIG. 6 is an image showing an example of a local image before contrast adjustment and after contrast adjustment (center luminance TH = 90).

以下、本発明を更に具体的に明らかにするために、本発明の実施形態について、図面を参照しつつ、詳細に説明する。   Hereinafter, in order to clarify the present invention more specifically, embodiments of the present invention will be described in detail with reference to the drawings.

この実施形態では、前眼部3次元画像処理装置を具備した前眼部3次元画像撮影装置について説明する。図2は、この実施形態に係る前眼部3次元画像撮影装置の外観の一例を示す。この前眼部3次元画像撮影装置100は、コンピュータ102と前眼部光干渉断層撮影装置104を備えている。コンピュータ102と前眼部光干渉断層撮影装置104は、ケーブル106で接続されている。   In this embodiment, an anterior ocular segment three-dimensional image capturing apparatus including an anterior ocular segment three-dimensional image processing apparatus will be described. FIG. 2 shows an example of the appearance of the anterior segment 3D image capturing apparatus according to this embodiment. The anterior segment 3D image capturing apparatus 100 includes a computer 102 and an anterior segment optical coherence tomography apparatus 104. The computer 102 and the anterior ocular optical coherence tomography apparatus 104 are connected by a cable 106.

前眼部光干渉断層撮影装置104は、光干渉断層法により前眼部の断層画像を撮影する装置で、測定光を被検眼に対して一次元走査することで2次元断層画像を取得し(B−スキャン)、2次元断層画像に垂直方向に位置をずらしながら複数の2次元断層画像を取得することで3次元画像を得る(C−スキャン)。詳細については、本出願人による特願2007−319563号等を参照されたい。なお、本明細書において、B−スキャン画像とは、前眼部の垂直方向の断層像(2次元断層画像;X−Y面,又は,Y−Z面)であり、C−スキャン画像とは、前眼部の平面画像(X−Y面)である。(図3参照)前眼部光干渉断層撮影装置104は、撮影した前眼部の3次元画像のデジタルデータをケーブル106を通じてコンピュータ102に送信する。   The anterior ocular optical coherence tomography apparatus 104 is an apparatus for imaging a tomographic image of the anterior ocular segment by optical coherence tomography, and acquires a two-dimensional tomographic image by scanning the measurement light with respect to the eye to be examined one-dimensionally ( (B-scan) A three-dimensional image is obtained by acquiring a plurality of two-dimensional tomographic images while shifting the position in a direction perpendicular to the two-dimensional tomographic image (C-scan). For details, see Japanese Patent Application No. 2007-319563 by the present applicant. In this specification, the B-scan image is a tomographic image (two-dimensional tomographic image; XY plane or YZ plane) of the anterior segment of the anterior eye, and the C-scan image is It is a plane image (XY plane) of an anterior eye part. (See FIG. 3) The anterior segment optical coherence tomography apparatus 104 transmits digital data of the captured three-dimensional image of the anterior segment to the computer 102 via the cable 106.

コンピュータ102は、前眼部光干渉断層撮影装置104から送信されたデジタルデータを受信する。この受信したデジタルデータに対して後述の処理を適用することにより、前眼部解析に最適な画像へと補正し、前眼部解析を行う。なお、コンピュータ102は、この発明の「前眼部3次元画像処理装置」の一例である。   The computer 102 receives the digital data transmitted from the anterior ocular optical coherence tomography apparatus 104. By applying the processing described later to the received digital data, the image is corrected to an optimal image for anterior segment analysis, and anterior segment analysis is performed. The computer 102 is an example of the “anterior segment three-dimensional image processing apparatus” of the present invention.

コンピュータ102は、従来のコンピュータと同様に、マイクロプロセッサ、RAM、ROM、ハードディスクドライブ、表示デバイス、操作デバイス等を含んで構成される。ハードディスクドライブには、コンピュータプログラムが予め格納されている。マイクロプロセッサは、コンピュータプログラムをRAMに展開することにより、後述の処理をコンピュータに実行させる。   The computer 102 includes a microprocessor, a RAM, a ROM, a hard disk drive, a display device, an operation device, and the like, like a conventional computer. The hard disk drive stores a computer program in advance. The microprocessor causes the computer to execute processing described later by expanding the computer program in the RAM.

次に、図4は、この実施形態に係る前眼部3次元画像撮影装置100の構成の概略ブロック図を表している。この前眼部3次元画像撮影装置100は、制御部10、記憶部12、表示部14、操作部16、画像解析部18及び3次元画像撮影部20から構成される。なお、コンピュータ102は、制御部10、記憶部12、表示部14、操作部16及び画像解析部18から構成され、前眼部光干渉断層装置104は、3次元画像撮影部20の一例として機能する。   Next, FIG. 4 shows a schematic block diagram of the configuration of the anterior segment 3D image capturing apparatus 100 according to this embodiment. The anterior segment 3D image capturing apparatus 100 includes a control unit 10, a storage unit 12, a display unit 14, an operation unit 16, an image analysis unit 18, and a 3D image capturing unit 20. The computer 102 includes a control unit 10, a storage unit 12, a display unit 14, an operation unit 16, and an image analysis unit 18, and the anterior ocular optical coherence tomography device 104 functions as an example of the three-dimensional image capturing unit 20. To do.

制御部10は、前眼部3次元画像撮影装置100の各部を制御する。特に、制御部10は、前眼部の3次元画像を表示部14に表示させたり、操作部16を用いて操作がなされたときに、その操作内容に応じた処理を前眼部3次元画像撮影装置100に実行させる。また、記憶部12に記憶された情報を読み出す処理や、記憶部12に情報を記憶させる処理を行う。制御部10は、コンピュータ102のマイクロプロセッサを含んで構成される。   The control unit 10 controls each unit of the anterior segment 3D image capturing apparatus 100. In particular, when the control unit 10 displays a three-dimensional image of the anterior segment on the display unit 14 or when an operation is performed using the operation unit 16, the control unit 10 performs processing according to the operation content. The imaging apparatus 100 is made to execute. In addition, a process of reading information stored in the storage unit 12 and a process of storing information in the storage unit 12 are performed. The control unit 10 includes a microprocessor of the computer 102.

記憶部12は、前述のコンピュータプログラムや3次元画像を含む各種の情報を記憶する。記憶部12は、ハードディスクドライブを含んで構成され、RAMやROMを含んでいてもよい。   The storage unit 12 stores various information including the above-described computer program and three-dimensional image. The storage unit 12 includes a hard disk drive, and may include a RAM and a ROM.

表示部14は、制御部10により制御された情報を表示する表示デバイスである。表示部14は、例えば、液晶ディスプレイ等により構成される。   The display unit 14 is a display device that displays information controlled by the control unit 10. The display unit 14 is configured by, for example, a liquid crystal display.

操作部16は、前眼部3次元画像撮影装置100を操作するときや、前眼部3次元画像撮影装置100に情報を入力するときなどに検者により操作される。操作部16は、検者による操作に応じた信号を制御部10に入力する。制御部10は、この信号に基づいて前眼部3次元画像撮影装置100を動作させる。操作部16は、例えば、キーボード、マウスなどを含んで構成される。   The operation unit 16 is operated by the examiner when operating the anterior segment 3D image capturing apparatus 100 or inputting information to the anterior segment 3D image capturing apparatus 100. The operation unit 16 inputs a signal corresponding to the operation by the examiner to the control unit 10. The control unit 10 operates the anterior segment 3D image capturing apparatus 100 based on this signal. The operation unit 16 includes, for example, a keyboard and a mouse.

なお、表示部14と操作部16は、それぞれ個別のデバイスから構成されている必要はない。例えば、表示デバイスと操作デバイスとを一体化したタッチパネルを用いることも可能である。   The display unit 14 and the operation unit 16 do not need to be configured from individual devices. For example, it is possible to use a touch panel in which a display device and an operation device are integrated.

画像解析部18は、3次元画像における対象部位の体積測定を行う。画像処理部は、マイクロプロセッサを含んで構成される。   The image analysis unit 18 measures the volume of the target part in the three-dimensional image. The image processing unit includes a microprocessor.

以上のような構成を有する前眼部3次元画像撮影装置100において、画像解析部18が実行する対象部位の体積測定の処理手順の概略を図5に示し、以降、順に説明する。   In the anterior segment three-dimensional image capturing apparatus 100 having the above-described configuration, an outline of a processing procedure for volume measurement of a target region performed by the image analysis unit 18 is shown in FIG.

S1において、検者は、前眼部3次元画像からコントラストのよいi番目のC−スキャン画像を1枚選択し、抽出する。   In S1, the examiner selects and extracts one i-th C-scan image with good contrast from the anterior segment three-dimensional image.

S2において、制御部10は、抽出したC−スキャン画像(i番目)を表示部14に表示させる。   In S <b> 2, the control unit 10 causes the display unit 14 to display the extracted C-scan image (i-th).

S3において、検者は、表示部14に表示されたC−スキャン画像(i番目)に対して、操作部16を操作して計測部位を囲む局所画像の指定を行う。つまり、検者が表示部14に表示されたC−スキャン画像(i番目)を観察して計測したい部位、例えば、レイクに相当する部分を見つけ、その部位を囲む局所領域をマウスのドラッグ動作等により入力する。そして、制御部10は、入力された領域をi番目の局所画像として取得する。   In S <b> 3, the examiner operates the operation unit 16 for the C-scan image (i-th) displayed on the display unit 14 to designate a local image surrounding the measurement site. That is, the examiner finds a part to be measured by observing the C-scan image (i-th) displayed on the display unit 14, for example, a part corresponding to a rake, and drags a mouse over a local region surrounding the part. Enter with. And the control part 10 acquires the input area | region as an i-th local image.

S4において、制御部10は、取得した局所画像(i番目)を表示部14に表示させ、検者は表示部14に表示された局所画像(i番目)に対して、操作部16を操作して計測部位の指定を行う。つまり、検者が表示部14に表示された局所画像(i番目)のレイク内の1点Pをマウスのクリック動作等により入力する。このとき、入力する1点Pは、レイクの略中心であることが好ましい。   In S4, the control unit 10 displays the acquired local image (i-th) on the display unit 14, and the examiner operates the operation unit 16 on the local image (i-th) displayed on the display unit 14. To specify the measurement site. That is, the examiner inputs one point P in the rake of the local image (i-th) displayed on the display unit 14 by clicking the mouse or the like. At this time, it is preferable that one point P to be input is substantially the center of the rake.

S5において、制御部10は、S3(S15)にて取得された局所画像の輝度のクラスタリングのパターン数Nの初期値を設定する。本実施例では、N=3と初期値を設定する。これは、N=3より大きくなると、計測部位領域を抽出するためにクラス間を融合したりする等の処理が必要となることから、検知精度が悪くなる恐れがあり、さらに、画像処理時間も長くなる。逆に、N=3より小さいと計測部位領域が開口してしまう恐れがある。そのため、初期値としては、N=3がより好適に採用される。   In S5, the control unit 10 sets an initial value of the number N of patterns of clustering of the luminance of the local image acquired in S3 (S15). In this embodiment, N = 3 and an initial value are set. This is because if N is larger than 3, processing such as merging between classes is necessary to extract the measurement region, so that the detection accuracy may be deteriorated, and the image processing time is also long. become longer. Conversely, if N is smaller than 3, the measurement region may be opened. Therefore, N = 3 is more preferably adopted as the initial value.

S6において、制御部10は、クラスタリングのアルゴリズムを用いて局所画像をN値化する。   In S6, the control unit 10 converts the local image into N values using a clustering algorithm.

S7において、制御部10は、クラスタリングされた局所画像において、S4(S14)にて指定した点Pのある領域をレイク領域として特定する。   In S7, the control unit 10 identifies an area having the point P designated in S4 (S14) as a rake area in the clustered local image.

S8において、制御部10は、特定されたレイク領域が開口しているかどうかを判定する。レイク領域が開口していると判定された場合には、S9の処理を行う。レイク領域が開口していないと判定された場合には、良好な画像であると評価され、S10以降の処理が行われる。   In S8, the control unit 10 determines whether or not the specified rake region is open. If it is determined that the rake region is open, the process of S9 is performed. If it is determined that the rake region is not open, it is evaluated as a good image, and the processing from S10 onward is performed.

S9において、制御部10は、クラスタリングのパターン数:Nに1を加算する。そして、S6以降の処理を再び実行する。   In S9, the control unit 10 adds 1 to the number of clustering patterns: N. And the process after S6 is performed again.

S10において、制御部10は、レイクの領域が特定されると、レイク領域の面積S、重心Gを算出する。   In S10, when the rake region is specified, the control unit 10 calculates the area S and the center of gravity G of the rake region.

S11において、制御部10は、算出された面積Sが予め設定された面積閾値MinSよりも小さいかどうかを判定する。そして、面積S≧面積閾値MinSの場合、レイク領域は存在すると評価され、S12の処理を行う。面積S<面積閾値MinSの場合、レイク領域は存在しないと評価され、S16以降の処理が行われる。   In S11, the control unit 10 determines whether the calculated area S is smaller than a preset area threshold MinS. When area S ≧ area threshold MinS, it is evaluated that the rake region exists, and the process of S12 is performed. In the case of area S <area threshold MinS, it is evaluated that there is no rake region, and the processing after S16 is performed.

S12において、制御部10は、S10にて算出された面積Sを累積する。   In S12, the control unit 10 accumulates the area S calculated in S10.

S13において、制御部10は、i番目のC−スキャン画像の解析が終わると、隣接するC−スキャン画像の解析を行う。隣接するC−スキャン画像の解析は、i番目のC−スキャン画像を基準として増加方向と減少方向において行われる。(図3参照)増加方向解析の場合にはi=i+1番目、減少方向解析の場合には、i=i−1番目のC−スキャン画像の抽出が行われる。   In S13, when the analysis of the i-th C-scan image ends, the control unit 10 analyzes the adjacent C-scan image. Analysis of adjacent C-scan images is performed in an increasing direction and a decreasing direction with the i-th C-scan image as a reference. (See FIG. 3) In the case of increasing direction analysis, i = i + 1th, and in the case of decreasing direction analysis, i = i−1th C-scan image is extracted.

S14において、制御部10は、抽出されたC−スキャン画像(i=i+1番目またはi=i−1番目)において、S10にて算出されたレイク領域の重心G、形状や位置を用いて、C−スキャン画像(i=i+1番目またはi=i−1番目)のレイク領域の自動指定を行い、局所画像(i=i+1番目またはi=i−1番目)の取得が行われる。さらに、制御部10は、S10にて算出された重心Gを、C−スキャン画像(i=i+1番目またはi=i−1番目)における計測するレイク対象(点P)として自動指定する。   In S <b> 14, the control unit 10 uses the centroid G, shape, and position of the rake region calculated in S <b> 10 in the extracted C-scan image (i = i + 1-th or i = i−1-th). -The rake area of the scanned image (i = i + 1st or i = i-1st) is automatically specified, and the local image (i = i + 1th or i = i-1th) is acquired. Further, the control unit 10 automatically designates the center of gravity G calculated in S10 as a rake target (point P) to be measured in the C-scan image (i = i + 1 th or i = i−1 th).

S15において、制御部10は、局所画像(i=i+1番目またはi=i−1番目)のコントラスト調整を行う。本実施例では、まず、コントラスト調整を行いたい局所画像(i=i+1番目またはi=i−1番目)に隣接する局所画像(i番目)の輝度情報を用いて、局所画像(i=i+1番目またはi=i−1番目)の輝度調整を行う。具体的には、S6にて算出された局所画像(i番目)のレイク領域でない領域の中心輝度THを、局所画像(i=i+1番目またはi=i−1番目)の最大輝度値として変換する。つまり、局所画像(i=i+1番目またはi=i−1番目)の輝度情報を解析し、中心輝度THより高い輝度が存在した場合、全て中心輝度THに変換させる。そして、制御部10は、局所画像(i=i+1番目またはi=i−1番目)のコントラストを0〜THから0〜255に強調する。本実施例では、レイク領域でない領域を、レイク領域よりも2クラス輝度が高い領域とする。なお、図6に、コントラスト調整前とコントラスト調整後(中心輝度TH=90)の局所画像を示す。   In S15, the control unit 10 performs contrast adjustment of the local image (i = i + 1-th or i = i−1-th). In this embodiment, first, the local image (i = i + 1) is used by using luminance information of the local image (i-th) adjacent to the local image (i = i + 1-th or i = i-1-th) for which contrast adjustment is to be performed. Or, i = i−1) brightness adjustment is performed. Specifically, the central brightness TH of the area that is not the rake area of the local image (i-th) calculated in S6 is converted as the maximum brightness value of the local image (i = i + 1-th or i = i-1-th). . That is, the luminance information of the local image (i = i + 1-th or i = i−1-th) is analyzed, and when there is luminance higher than the central luminance TH, all are converted to the central luminance TH. Then, the control unit 10 enhances the contrast of the local image (i = i + 1-th or i = i−1-th) from 0 to TH to 0 to 255. In this embodiment, an area that is not a rake area is an area that has a higher 2-class luminance than the rake area. FIG. 6 shows local images before contrast adjustment and after contrast adjustment (center luminance TH = 90).

S16において、制御部10は、S12により累積した面積にC−スキャン画像間距離を乗算することにより、レイクの体積を算出する。   In S16, the control unit 10 calculates the volume of the rake by multiplying the area accumulated in S12 by the distance between the C-scan images.

以上、本発明の一実施形態について詳述してきたが、かかる実施形態における具体的な記載によって、本発明は、何等限定されるものでなく、当業者の知識に基づいて種々なる変更、修正、改良等を加えた態様で実施可能であり、また、そのような実施態様が、本発明の趣旨を逸脱しない限り、何れも、本発明の範囲内に含まれるものであることは、言うまでもない。   As mentioned above, although one embodiment of the present invention has been described in detail, the present invention is not limited in any way by the specific description in the embodiment, and various changes, modifications, and modifications based on the knowledge of those skilled in the art. Needless to say, the present invention can be implemented in a mode with improvements and the like, and all such modes are included in the scope of the present invention without departing from the gist of the present invention.

例えば、本実施例では、前眼部3次元画像撮影装置100として前眼部光干渉断層撮影装置104を用いているが、これに限定されず、3次元画像のデジタルデータを取得可能な装置であればよく、例えば、超音波前眼部観察装置でもよい。そして、この前眼部3次元画像撮影装置100であるコンピュータ102と前眼部光干渉断層撮影装置104とをケーブル106で接続しているが、通信回線上のサーバに前眼部光干渉断層撮影装置で撮影した前眼部の3次元画像を保存し、前眼部3次元画像処理装置が撮影画像を読み出す構成であってもよい。また、前眼部3次元画像処理装置を具備した前眼部3次元画像処理装置としたが、前眼部3次元画像撮影装置のみから構成されていてもよい。つまり、前眼部3次元画像処理装置を前眼部3次元画像撮影装置に搭載してもよい。   For example, in this embodiment, the anterior ocular segment optical coherence tomography apparatus 104 is used as the anterior ocular segment 3D image capturing apparatus 100. However, the present invention is not limited to this, and an apparatus capable of acquiring digital data of a 3D image. For example, an ultrasonic anterior ocular segment observation apparatus may be used. The computer 102 as the anterior segment 3D image capturing apparatus 100 and the anterior segment optical coherence tomography apparatus 104 are connected by a cable 106. The anterior segment optical coherence tomography is connected to a server on a communication line. A configuration may be used in which a three-dimensional image of the anterior segment captured by the apparatus is stored and the captured image is read out by the anterior segment three-dimensional image processing apparatus. Moreover, although it was set as the anterior eye part three-dimensional image processing apparatus provided with the anterior eye part three-dimensional image processing apparatus, you may be comprised only from the anterior eye part three-dimensional image imaging device. That is, the anterior segment 3D image processing apparatus may be mounted on the anterior segment 3D image capturing apparatus.

また、本実施例では、前眼部を対象としてレイクの体積測定を行っているが、ブレブの体積測定を行ってもよい。また、眼底を対象として黄斑浮腫における嚢胞や加齢黄斑変性の前駆病変であるドルーゼンの体積測定も可能である。つまり、閉じた空間を形成する対象部位の体積測定であれば適用可能である。   In this embodiment, rake volume measurement is performed for the anterior segment, but bleb volume measurement may be performed. It is also possible to measure the volume of drusen, which is the precursor lesion of cysts and age-related macular degeneration, in the fundus oculi. In other words, any volume measurement of a target part that forms a closed space is applicable.

また、本実施例の画像処理部18が実行する対象部位の体積測定の処理のS5では、N=3と初期値を設定しているが、これに限定されず、N=2と設定してもよい。なお、この場合には、画像処理部18が実行する対象部位の体積測定の処理のS15において、レイク領域でない領域は、レイク領域よりも1クラス輝度が高い領域となり、その領域の輝度情報に基づいて輝度調整が行われる。   Further, in S5 of the volume measurement process of the target part executed by the image processing unit 18 of the present embodiment, N = 3 and an initial value are set. However, the present invention is not limited to this, and N = 2 is set. Also good. In this case, in S15 of the volume measurement process of the target part executed by the image processing unit 18, a region that is not a rake region is a region having one class luminance higher than the rake region, and is based on luminance information of the region. Brightness adjustment.

また、本実施例の画像処理部18が実行する対象部位の体積測定の処理のS15では、レイク領域でない領域を、レイク領域よりも2クラス輝度が高い領域としているが、これに限定されず、レイク領域よりも3クラス輝度が高い領域でもよい。なお、この場合には、クラスタリングのパターン数Nを4に設定する必要がある。   Further, in S15 of the volume measurement process of the target part executed by the image processing unit 18 of the present embodiment, the area that is not the rake area is set as an area having a higher 2-class luminance than the rake area, but is not limited thereto. It may be an area having a three-class luminance higher than the rake area. In this case, it is necessary to set the number N of clustering patterns to 4.

10 制御部
12 記憶部
14 表示部
16 操作部
18 画像解析部
20 3次元画像撮影部
DESCRIPTION OF SYMBOLS 10 Control part 12 Memory | storage part 14 Display part 16 Operation part 18 Image analysis part 20 3D image imaging | photography part

Claims (5)

3次元画像を取得する3次元画像取得手段と、該取得された前記3次元画像を表示する表示手段と、前記3次元画像を解析する画像解析手段とを備えた3次元画像処理装置において、
前記画像解析手段は、前記3次元画像から前記C−スキャン画像を抽出するC−スキャン画像抽出手段と、該抽出された前記C−スキャン画像における計測部位を指定する指定手段と、該指定された前記計測部位の領域を特定する計測部位領域特定手段と、該特定された前記計測部位領域の面積を計測する面積計測手段とを備え、前記計測部位の体積計測を行うことを特徴とする3次元画像処理装置。
A three-dimensional image processing apparatus comprising: a three-dimensional image acquisition unit that acquires a three-dimensional image; a display unit that displays the acquired three-dimensional image; and an image analysis unit that analyzes the three-dimensional image.
The image analysis means includes a C-scan image extraction means for extracting the C-scan image from the three-dimensional image, a designation means for designating a measurement site in the extracted C-scan image, and the designated 3D characterized by comprising measurement part region specifying means for specifying the region of the measurement part and area measuring means for measuring the area of the specified measurement part region, and performing volume measurement of the measurement part Image processing device.
前記C−スキャン画像抽出手段は、前記C−スキャン画像の前記計測部位を囲む局所画像を抽出する局所画像抽出手段を含む、ことを特徴とする請求項1に記載の3次元画像処理装置。   The three-dimensional image processing apparatus according to claim 1, wherein the C-scan image extraction unit includes a local image extraction unit that extracts a local image surrounding the measurement site of the C-scan image. 前記C−スキャン画像抽出手段及び前記指定手段は、前記表示手段に表示される少なくとも1枚の前記C−スキャン画像に対して、検者が手動で抽出ならびに指定を行う操作手段を含む、ことを特徴とする請求項1又は2に記載の3次元画像処理装置。   The C-scan image extraction means and the designation means include an operation means for an examiner to manually extract and designate at least one C-scan image displayed on the display means. The three-dimensional image processing apparatus according to claim 1, wherein the three-dimensional image processing apparatus is characterized. 前記C−スキャン画像抽出手段は、該抽出された前記C−スキャン画像のコントラストを調整するコントラスト調整手段を含む、ことを特徴とする請求項1乃至3に記載の3次元画像処理装置。   The three-dimensional image processing apparatus according to claim 1, wherein the C-scan image extraction unit includes a contrast adjustment unit that adjusts a contrast of the extracted C-scan image. 前記コントラスト調整手段は、コントラスト調整を行う前記C−スキャン画像に隣接する前記C−スキャン画像の輝度情報に基づいてコントラスト調整する、ことを特徴とする請求項4に記載の3次元画像処理装置。   5. The three-dimensional image processing apparatus according to claim 4, wherein the contrast adjustment unit performs contrast adjustment based on luminance information of the C-scan image adjacent to the C-scan image on which contrast adjustment is performed.
JP2009108585A 2009-04-28 2009-04-28 3D image processing device Active JP5242492B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009108585A JP5242492B2 (en) 2009-04-28 2009-04-28 3D image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009108585A JP5242492B2 (en) 2009-04-28 2009-04-28 3D image processing device

Publications (2)

Publication Number Publication Date
JP2010253131A true JP2010253131A (en) 2010-11-11
JP5242492B2 JP5242492B2 (en) 2013-07-24

Family

ID=43314746

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009108585A Active JP5242492B2 (en) 2009-04-28 2009-04-28 3D image processing device

Country Status (1)

Country Link
JP (1) JP5242492B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013153881A (en) * 2012-01-27 2013-08-15 Canon Inc Image processing system, processing method, and program
JP2013153882A (en) * 2012-01-27 2013-08-15 Canon Inc Image processing system, processing method, and program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07334702A (en) * 1994-06-10 1995-12-22 Toshiba Corp Display device
JP2002224116A (en) * 2001-01-31 2002-08-13 Matsushita Electric Ind Co Ltd Ultrasonic diagnostic apparatus and image processor
JP2006239005A (en) * 2005-03-01 2006-09-14 Kobe Univ Image diagnostic processor and image diagnostic processing program
JP2006288495A (en) * 2005-04-06 2006-10-26 Toshiba Corp Image processor
JP2007325831A (en) * 2006-06-09 2007-12-20 Topcon Corp Fundus observation apparatus, ophthalmologic image processing apparatus, and ophthalmologic image processing program
JP2008175698A (en) * 2007-01-18 2008-07-31 Univ Of Tsukuba Image processing method and image processing apparatus of optical coherence tomography
JP2009082463A (en) * 2007-09-28 2009-04-23 Fujifilm Corp Image analysis apparatus, image processor, image analysis program, image processing program, image analysis method and image processing method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07334702A (en) * 1994-06-10 1995-12-22 Toshiba Corp Display device
JP2002224116A (en) * 2001-01-31 2002-08-13 Matsushita Electric Ind Co Ltd Ultrasonic diagnostic apparatus and image processor
JP2006239005A (en) * 2005-03-01 2006-09-14 Kobe Univ Image diagnostic processor and image diagnostic processing program
JP2006288495A (en) * 2005-04-06 2006-10-26 Toshiba Corp Image processor
JP2007325831A (en) * 2006-06-09 2007-12-20 Topcon Corp Fundus observation apparatus, ophthalmologic image processing apparatus, and ophthalmologic image processing program
JP2008175698A (en) * 2007-01-18 2008-07-31 Univ Of Tsukuba Image processing method and image processing apparatus of optical coherence tomography
JP2009082463A (en) * 2007-09-28 2009-04-23 Fujifilm Corp Image analysis apparatus, image processor, image analysis program, image processing program, image analysis method and image processing method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013153881A (en) * 2012-01-27 2013-08-15 Canon Inc Image processing system, processing method, and program
JP2013153882A (en) * 2012-01-27 2013-08-15 Canon Inc Image processing system, processing method, and program

Also Published As

Publication number Publication date
JP5242492B2 (en) 2013-07-24

Similar Documents

Publication Publication Date Title
US9872614B2 (en) Image processing apparatus, method for image processing, image pickup system, and computer-readable storage medium
JP6598502B2 (en) Image generating apparatus, image generating method, and program
US10980416B2 (en) Blood flow measurement apparatus
US8639001B2 (en) Image processing apparatus, image processing system, image processing method, and image processing computer program
US10426335B2 (en) Ophthalmic image display device and ophthalmic imaging device
JP5404358B2 (en) Image processing apparatus, image processing method, and program
JP5924955B2 (en) Image processing apparatus, image processing apparatus control method, ophthalmic apparatus, and program
JP2008295804A (en) Fundus examination device and program
JP2013000223A (en) Ophthalmologic apparatus, ophthalmologic system, controlling method for the ophthalmologic apparatus, and program for the controlling method
WO2011018950A1 (en) Tomography apparatus, control method for the same, program, and storage medium
JP6643982B2 (en) Image processing apparatus, image processing method, and image processing program
JP5175781B2 (en) Anterior segment 3D image processing device
KR20200026135A (en) The method for measuring microcirculation in cochlea and the apparatus thereof
JP2016140428A (en) Ophthalmologic apparatus, image processing method, and program
JP5242492B2 (en) 3D image processing device
JP6243957B2 (en) Image processing apparatus, ophthalmic system, control method for image processing apparatus, and image processing program
KR101374295B1 (en) Apparatus for ocular and method for measuring treatment position thereof
JP2009066325A (en) Anterior ocular segment tomographic image analyzing system, and anterior ocular segment tomographic image photographing apparatus
JP2018057828A (en) Image processing apparatus and image processing method
JP5634587B2 (en) Image processing apparatus, image processing method, and program
JP2021166906A (en) Ophthalmologic imaging apparatus
JP6526154B2 (en) Image processing apparatus, ophthalmologic system, control method of image processing apparatus, and image processing program
WO2016098472A1 (en) Blood flow measurement device
WO2019181554A1 (en) Control device and method, and surgical microscope system
Nam et al. Automated measurement of retinal vessel diameters on digital fundus photographs

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130318

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130403

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160412

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5242492

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250