JP2010063671A - Image processing method and image processing device - Google Patents

Image processing method and image processing device Download PDF

Info

Publication number
JP2010063671A
JP2010063671A JP2008233387A JP2008233387A JP2010063671A JP 2010063671 A JP2010063671 A JP 2010063671A JP 2008233387 A JP2008233387 A JP 2008233387A JP 2008233387 A JP2008233387 A JP 2008233387A JP 2010063671 A JP2010063671 A JP 2010063671A
Authority
JP
Japan
Prior art keywords
image
display
image processing
cup
polar coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008233387A
Other languages
Japanese (ja)
Other versions
JP5348982B2 (en
Inventor
Toshiaki Nakagawa
俊明 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kowa Co Ltd
Original Assignee
Kowa Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kowa Co Ltd filed Critical Kowa Co Ltd
Priority to JP2008233387A priority Critical patent/JP5348982B2/en
Publication of JP2010063671A publication Critical patent/JP2010063671A/en
Application granted granted Critical
Publication of JP5348982B2 publication Critical patent/JP5348982B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To output information concerning the shape and size of the disk, cup, rim, and the like of the optic nerve head of an eye as a target of optometry in a more understandable format so that the diagnosis of is easily carried out on the basis of the output information. <P>SOLUTION: A trace of a disk periphery (303) corresponding to the optic nerve head and a trace of a cup periphery (304) corresponding to the recessed area of the optic nerve head are obtained from photographed image data of fundus oculi, polar coordinates of pixels in a polar coordinate system around a reference point in the image corresponding to near the center of the optic nerve head of the eye as the target of optometry is obtained, a polar coordinate development image (300) is obtained by mapping the radius vector and deflection angle of the polar coordinates of the pixels in the axis of ordinate and the axis of abscissa of the two-dimensional orthogonal coordinate system to display and output, and each of the image areas demarcated by the disk periphery and the cup periphery is displayed in a display form identifiable from the other parts in the display and output of the polar coordinate development image (403 and 404). <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、被検眼の眼底画像を表示出力する画像処理方法および画像処理装置に関するものである。   The present invention relates to an image processing method and an image processing apparatus for displaying and outputting a fundus image of an eye to be examined.

従来より、眼科撮影データを用いて緑内障の診断を行なう手法として、眼底画像中の視神経乳頭部(以下単に乳頭ないし乳頭部と記す)の形状およびサイズを評価する画像処理が知られている。   Conventionally, as a technique for diagnosing glaucoma using ophthalmologic imaging data, image processing for evaluating the shape and size of the optic nerve head (hereinafter simply referred to as “nipple” or “nipple”) in a fundus image is known.

画像解析を介して乳頭陥凹部の大きさを評価するに際し、カップ(Cup)と呼ばれる乳頭陥凹部の縁とディスク(Disc)と呼ばれる乳頭縁の距離比、いわゆるC / D 比が用いられることがある(たとえば下記の特許文献1)。   When evaluating the size of the nipple recess through image analysis, a distance ratio between the edge of the nipple recess called “Cup” and the edge of the nipple called “Disc”, the so-called C / D ratio is used. There is (for example, Patent Document 1 below).

また、乳頭陥凹部であるディスク(Disc)と、乳頭縁であるカップ(Cup)の中間部の領域はリム(Rim)と呼ばれ、このリムの幅を検者が観察することによって緑内障の診断を行なう手法もある。撮影された乳頭領域のディスクおよびカップ領域の境界の決定は画像解析により自動的に行なうことも考えられるが、検者が撮影画像を解析することにより行なうことも多い。
特許第3594468号
In addition, a region in the middle of the disc (Disc) that is a nipple recess and a cup (Cup) that is a nipple margin is called a rim (Rim). Diagnosis of glaucoma by observing the width of the rim by an examiner. There is also a technique to do. Although it is conceivable to automatically determine the boundary between the disc and the cup region of the photographed nipple region by image analysis, it is often performed by the examiner analyzing the photographed image.
Japanese Patent No. 3594468

一般に、乳頭部のリムの幅は、局所的に狭くなることがあり、このような特異な形状の部分を発見することが緑内障の診断には重要であると考えられているが、リムは放射状に分布するために、単に乳頭部近傍の画像を表示し、検者がその画像を見てリムの幅を比較しつつリム全周を見回して狭くなったリムを客観的に同定することは困難であった。   In general, the width of the rim of the nipple may be locally narrowed, and it is considered to be important for the diagnosis of glaucoma to find such a unique shape, but the rim is radial. It is difficult to objectively identify a narrowed rim by simply displaying an image near the nipple and comparing the width of the rim while looking at the image and comparing the width of the rim. Met.

また、緑内障の診断を支援するのに、従来より横軸を角度、縦軸を撮影された乳頭部のディスク輪郭の高さをプロットして出力するような手法が用いられている(たとえば、HRTの結果シート)が、単に数値や棒グラフとしてディスク輪郭の高さのような情報を出力しても、検者にとって目視による原画像との対応付けは容易ではなかった。   Further, in order to support the diagnosis of glaucoma, a technique is conventionally used in which the horizontal axis is plotted as an angle, and the vertical axis is plotted and output as a disc contour height (for example, HRT). The result sheet) simply outputs information such as the height of the disk contour as numerical values or bar graphs, but it is not easy for the examiner to associate the original image with the visual inspection.

本発明の課題は、上記の問題に鑑み、被検眼の視神経乳頭部のディスク、カップ、リムなどの形状やサイズに関する情報をより理解しやすいフォーマットで出力することができ、これに基づき緑内障の診断を容易に行なえるようにすることにある。   In view of the above problems, an object of the present invention is to output information related to the shape and size of the disc, cup, rim, etc. of the optic papilla of the subject's eye in a format that is easier to understand, and based on this, diagnose glaucoma Is to make it easy to do.

上記の課題を解決するため、本発明においては、撮像された眼底画像の画像データから、視神経乳頭部に相当するディスク外周の軌跡、および視神経乳頭陥凹部に相当するカップ外周の軌跡を取得し、被検眼のほぼ視神経乳頭部中心に相当する画像中の基準点を中心とする極座標系における画素の極座標を求め、この画素の極座標の動径、偏角をそれぞれ2次元直交表示座標系の2軸に写像して得られる極座標展開画像を生成して表示出力するとともに、該極座標展開画像の表示出力において、前記ディスク外周と前記カップ外周とを境界とするそれぞれの画像領域を他の部分と識別可能な表示形式で表示する構成を採用した。   In order to solve the above problems, in the present invention, from the image data of the captured fundus image, the trajectory of the outer circumference of the disc corresponding to the optic papilla, and the trajectory of the cup outer circumference corresponding to the optic disc recess, The polar coordinates of the pixel in the polar coordinate system centered on the reference point in the image corresponding to the center of the optic nerve head of the eye to be examined are obtained, and the radius and declination of the polar coordinate of this pixel are respectively expressed in the two axes of the two-dimensional orthogonal display coordinate system. A polar coordinate developed image obtained by mapping to the image is generated, displayed and output, and in the display output of the polar coordinate developed image, each image area having the disc outer periphery and the cup outer periphery as a boundary can be distinguished from other parts. Adopted a configuration to display in various display formats.

上記構成によれば、画素の極座標の動径、偏角をそれぞれ2次元直交表示座標系の2軸に写像して得られる極座標展開画像を生成して表示出力するとともに、該極座標展開画像の表示出力において、前記ディスク外周と前記カップ外周とを境界とするそれぞれの画像領域を他の部分と識別可能な表示形式で表示するようにしているので、被検眼の視神経乳頭部のディスク、カップ、その中間部のリムなどの形状やサイズに関する情報をより理解しやすいフォーマットで出力することができ、また極座標展開画像にも血管などが表示されていて原画像との対応付けも容易にできるので、これに基づき緑内障の診断を容易に行なえる、という優れた効果がある。   According to the above configuration, a polar coordinate developed image obtained by mapping the radius and declination of the polar coordinates of the pixel to the two axes of the two-dimensional orthogonal display coordinate system is generated and displayed, and the polar coordinate developed image is displayed. In the output, since each image area having the boundary between the outer periphery of the disk and the outer periphery of the cup is displayed in a display format that can be distinguished from other parts, the disk, cup of the optic nerve head of the eye to be examined, Information on the shape and size of the middle rim, etc. can be output in a more easily understandable format, and blood vessels are also displayed on the polar coordinate developed image, making it easy to associate with the original image. Based on the above, there is an excellent effect that glaucoma can be easily diagnosed.

以下、本発明を実施するための最良の形態の一例として、被検眼眼底を撮影して得られた画像データに対して画像処理を行ない、乳頭部の形状に関するグラフィカルデータを出力する眼科測定装置に関する実施例につき説明する。   Hereinafter, as an example of the best mode for carrying out the present invention, an ophthalmic measurement apparatus that performs image processing on image data obtained by photographing a fundus of a subject's eye and outputs graphical data relating to the shape of the nipple is output. Examples will be described.

<システム構成>
図1は本発明を採用した眼科測定装置の構成を示している。図1において符号101は眼底撮影用のカメラで、被検眼(不図示)の眼底を所定の撮影条件で撮影するための機構、例えば、撮影距離を決定するアライメント機構などを備えた眼底カメラなどから構成される。カメラ101は、CCDやCMOSセンサなどの撮像素子を有し、デジタルデータとして撮影した被検眼の眼底画像データを画像処理装置に出力する。
<System configuration>
FIG. 1 shows the configuration of an ophthalmologic measuring apparatus employing the present invention. In FIG. 1, reference numeral 101 denotes a fundus photographing camera from a mechanism for photographing the fundus of a subject's eye (not shown) under a predetermined photographing condition, for example, a fundus camera equipped with an alignment mechanism for determining a photographing distance or the like. Composed. The camera 101 has an image sensor such as a CCD or a CMOS sensor, and outputs fundus image data of the eye to be examined photographed as digital data to the image processing apparatus.

画像処理装置100は、例えばパーソナルコンピュータなどのハードウェアを用いて構成される。画像処理装置100は、システム全体の制御を行なうとともに、後述の画像処理を実施する画像処理手段の主体を構成するCPU102を含む。   The image processing apparatus 100 is configured using hardware such as a personal computer. The image processing apparatus 100 includes a CPU 102 that controls the entire system and that constitutes the main body of image processing means that performs image processing to be described later.

後述の画像処理は、VRAM(画像メモリ)104をワークエリアとして実行される。この他にも、画像処理以外のシステム制御などに用いるためのメモリとして、ダイナミックRAMなどから構成されたメモリが設けられるものとする。後述の画像処理を実施するためのCPU102のプログラムはROM103かHDD105に格納しておく。   Image processing to be described later is executed using the VRAM (image memory) 104 as a work area. In addition to this, it is assumed that a memory composed of a dynamic RAM or the like is provided as a memory used for system control other than image processing. A program of the CPU 102 for performing image processing to be described later is stored in the ROM 103 or the HDD 105.

また、HDD105は、被検眼の撮影画像データ、測定結果などの数値データ、あるいは後述の画像処理により生成された出力画像データなどを格納するために用いられる。   The HDD 105 is used to store captured image data of the eye to be examined, numerical data such as measurement results, or output image data generated by image processing described later.

画像処理装置100には、表示出力手段として、LCDやELパネル、CRTなどから構成されたディスプレイ107が接続されており、ディスプレイ107には画像処理装置100の画像処理を制御するためのユーザーインターフェース画面などを表示させる。   A display 107 composed of an LCD, an EL panel, a CRT, or the like is connected to the image processing apparatus 100 as display output means. A user interface screen for controlling image processing of the image processing apparatus 100 is connected to the display 107. Etc. are displayed.

また、画像処理装置100は、後述の画像処理に基づき、被検眼眼底の乳頭部のディスク、カップ、リムなどの部位の形状やサイズに関する評価を検者が容易に行なえるよう構成した画像データを生成し、ディスプレイ107に出力させる。   Further, the image processing apparatus 100 generates image data configured so that the examiner can easily evaluate the shape and size of the disk, cup, rim, and other parts of the nipple of the eye fundus based on the image processing described later. Generate and output to the display 107.

画像処理装置100には、不図示のネットワークインターフェースを介してネットワーク106が接続される。画像処理装置100は、上述の被検眼の撮影画像データ、測定結果などの数値データ、あるいは後述の画像処理により生成された出力画像データなどを外部のコンピュータや別の画像処理装置、あるいは眼科測定装置などに出力する。   A network 106 is connected to the image processing apparatus 100 via a network interface (not shown). The image processing apparatus 100 uses an external computer, another image processing apparatus, or an ophthalmologic measurement apparatus for obtaining the above-described captured image data of the subject's eye, numerical data such as measurement results, or output image data generated by image processing described later. Output to etc.

図12は、本実施例において、緑内障診断のために眼底撮影を行ない、撮影画像を出力させる際の大まかな処理の流れを示している。   FIG. 12 shows a rough flow of processing when performing fundus imaging for glaucoma diagnosis and outputting a captured image in this embodiment.

カメラ101は、例えば、検者が眼底カメラに準じた操作系およびアライメント系を用いて被検眼(不図示)に対して位置決めされ、検者の特定の撮影操作に応じて被検眼眼底の画像を撮影する(ステップS10)。緑内障診断のための撮影においては、被検眼眼底の乳頭部およびその付近が画面中心に来るように撮影アングルを決定する。また、このとき、好ましくは被検眼眼底はステレオ撮影される。ステレオ撮影手段としては、例えばカメラ101の主光学系内に、光軸中心から左右に偏った位置に設けた絞りを各々開口/閉鎖して左右の視差画像を撮影するような構成を用いることができる。以下では、ステレオ撮影された画像データについても示す。   For example, the camera 101 is positioned with respect to the eye to be examined (not shown) using an operation system and an alignment system according to the fundus camera, and the camera 101 displays an image of the fundus of the eye to be examined according to a specific photographing operation of the examiner. A picture is taken (step S10). In photographing for glaucoma diagnosis, the photographing angle is determined so that the nipple of the fundus of the eye to be examined and its vicinity are at the center of the screen. At this time, preferably, the fundus of the eye to be examined is photographed in stereo. As the stereo photographing means, for example, in the main optical system of the camera 101, a configuration in which left and right parallax images are photographed by opening / closing apertures provided at positions offset to the left and right from the center of the optical axis is used. it can. In the following, stereo image data is also shown.

画像処理装置100は、カメラ101で撮影した被検眼眼底の画像データを取り込み(ステップS11)、所定の表示形式でディスプレイ107に表示させる(ステップS12)。   The image processing apparatus 100 captures image data of the fundus of the eye to be examined photographed by the camera 101 (step S11) and displays it on the display 107 in a predetermined display format (step S12).

撮影画像データ中の被検眼眼底の乳頭部のカップおよびディスク領域は、カップ外周取得手段110、およびディスク外周取得手段111を用いて特定する(ステップS13)。   The cup and disc area of the nipple portion of the fundus of the eye to be examined in the photographed image data are specified using the cup outer circumference obtaining unit 110 and the disk outer circumference obtaining unit 111 (step S13).

カップ外周取得手段110、およびディスク外周取得手段111はCPU102の画像認識ソフトウェアにより構成することも考えられるが、本実施例では、カップ外周取得手段110、およびディスク外周取得手段111は、不図示のキーボード、マウス、デジタイザパッド、ポインティングデバイスなどの操作部ハードウェアから構成し、検者がディスプレイ107に表示された被検眼眼底の画像を観察しつつ、これらの操作部ハードウェアを操作して、ディスプレイ107に表示された被検眼眼底の画像中のカップ外周およびディスク外周と判断した部位を特定する。具体的操作としては、たとえば、ポインティングデバイスで、眼底画像中に軌跡を描き込ませる操作が考えられる。   Although the cup outer periphery acquisition unit 110 and the disk outer periphery acquisition unit 111 may be configured by image recognition software of the CPU 102, in this embodiment, the cup outer periphery acquisition unit 110 and the disk outer periphery acquisition unit 111 are a keyboard (not shown). And an operation unit hardware such as a mouse, a digitizer pad, a pointing device, etc., and the examiner operates these operation unit hardware while observing an image of the fundus oculi to be inspected displayed on the display 107 to display the display 107. The region determined to be the outer periphery of the cup and the outer periphery of the disc in the image of the fundus oculi displayed on the eye is specified. As a specific operation, for example, an operation of drawing a locus in a fundus image with a pointing device can be considered.

カップ外周およびディスク外周領域が特定されると、検者は上記のキーボードおよびポインティングデバイスなどの操作手段を用いて表示方法を指定し(ステップS14)、画像処理装置100は指定された表示方法に応じて、表示すべき画像データを生成し、ディスプレイ107に表示させる。   When the cup outer periphery and the disc outer peripheral area are specified, the examiner designates a display method using the operation means such as the keyboard and the pointing device (step S14), and the image processing apparatus 100 responds to the designated display method. Thus, image data to be displayed is generated and displayed on the display 107.

<画像処理および表示制御>
次に以上の構成における画像処理および表示制御につき説明する。
<Image processing and display control>
Next, image processing and display control in the above configuration will be described.

本実施例の眼底撮影画像に対する画像処理では、被検眼のほぼ乳頭部中心に相当する画像中の基準点(例えばディスク外周内の所定の基準点を中心とする極座標系)を中心とする極座標系における画素の極座標を求め、この画素の極座標の(動径、偏角)をそれぞれ2次元直交表示座標系の2軸にマップ(写像)してグラフィック表示する表示出力方式を用いる。この表示出力方式の表示座標系は、たとえば後述のように横軸に角度を、縦軸に動径(距離)をとった2次元直交表示座標系である(図6〜図11)。   In the image processing for the fundus photographed image of the present embodiment, a polar coordinate system centered on a reference point (for example, a polar coordinate system centered on a predetermined reference point in the outer periphery of the disk) in the image that is substantially equivalent to the center of the nipple of the eye to be examined. A display output method is used in which the polar coordinates of the pixel in the pixel are obtained, and the polar coordinates (radial radius, declination) of the pixel are mapped (mapped) to the two axes of the two-dimensional orthogonal display coordinate system and displayed graphically. The display coordinate system of this display output system is, for example, a two-dimensional orthogonal display coordinate system having an angle on the horizontal axis and a moving radius (distance) on the vertical axis as will be described later (FIGS. 6 to 11).

また、本実施例では、そのような表示座標系において、例えば緑内障診断などに有用な種々の表示変換処理についても説明する。   In the present embodiment, various display conversion processes useful for glaucoma diagnosis, for example, in such a display coordinate system will also be described.

図2(a)、(b)および図3(a)、(b)は、カメラ101でステレオ撮影(図12のステップS10)した被検眼の右眼の視神経乳頭部のステレオペア画像、および被検眼の右眼の視神経乳頭部のペア画像をそれぞれ模式的に示している。図2(a)、図3(a)の上部にそれぞれ示した通り、ここでは画像の左側が側頭側、右側が鼻側に対応するように左(201)、右(202)のステレオ画像を配置してある(以下の各図においても図中に側頭側、鼻側の表示を必要に応じて行なうものとする)。   2 (a), 2 (b), 3 (a), and 3 (b) are a stereo pair image of the right optic nerve head of the eye to be inspected by the camera 101 (step S10 in FIG. 12), and A pair image of the optic papilla of the right eye of the optometry is schematically shown. As shown in the upper part of FIGS. 2A and 3A, the left (201) and right (202) stereo images so that the left side of the image corresponds to the temporal side and the right side corresponds to the nose side. (In each of the following figures, the temporal side and the nose side are displayed as needed in the figure).

図2および図3において、符号203は撮影された乳頭部のディスク領域外周、204は撮影された乳頭部のカップ領域外周をそれぞれ示している。ディスク領域外周203とカップ領域外周204の中間部はリムと呼ばれる領域で、一般にディスク領域外周203より外側よりも多少高く盛り上った形状となっている。緑内障の診断基準の1つとしては、このリムの部分の幅が(一部)狭くなっているかどうか、という形状評価が用いられることがある。   2 and 3, reference numeral 203 indicates the outer periphery of the disc area of the photographed nipple, and 204 indicates the outer periphery of the cup area of the imaged nipple. An intermediate portion between the disk area outer periphery 203 and the cup area outer periphery 204 is an area called a rim, and generally has a shape that rises slightly higher than the outside of the disk area outer periphery 203. As one of the criteria for diagnosing glaucoma, there is a case where shape evaluation is used to determine whether or not the width of the rim portion is (partly) narrow.

CPU102は図2(a)、(b)および図3(a)、(b)のようにカメラ101から取得(図12のステップS11)したステレオ画像をVRAM104に展開した上ディスプレイ107で表示(同ステップS12)させる。その場合、所定のステレオ表示方式などを用いてステレオ表示により検者に提示することができる。   The CPU 102 displays the stereo image acquired from the camera 101 (step S11 in FIG. 12) as shown in FIGS. 2 (a), 2 (b) and FIGS. Step S12). In that case, it can be presented to the examiner by stereo display using a predetermined stereo display method or the like.

本実施例の画像処理は、図2(a)、(b)、図3(a)、(b)のように撮影された左右のステレオ画像それぞれについて行ない、その結果を双方とも表示することができるが、以下ではステレオ画像の1つについての処理のみについて説明する。   The image processing of the present embodiment is performed for each of the left and right stereo images taken as shown in FIGS. 2A, 2B, 3A, and 3B, and the result can be displayed on both. However, only the processing for one of the stereo images will be described below.

図2(a)または(b)、図3(a)または(b)のようにそれぞれ撮影された右眼、および左眼の左(または右)のステレオ画像の1つに対して検者はカップ外周取得手段110、およびディスク外周取得手段111を用いてカップ領域外周204およびディスク領域外周203の位置を指定する。具体的には、この指定は、これらの取得手段110、111を構成するポインティングデバイスを用いて、右眼、および左眼の左(または右)のステレオ画像上に軌跡をマーキング指定することにより行なう(図12のステップS13)。   For the right eye and the left (or right) stereo image of the left eye taken as shown in FIG. 2 (a) or (b), FIG. 3 (a) or (b), the examiner The positions of the cup area outer circumference 204 and the disk area outer circumference 203 are designated using the cup outer circumference obtaining means 110 and the disk outer circumference obtaining means 111. Specifically, this designation is performed by marking the locus on the right eye and the left (or right) stereo image of the right eye and the left eye using the pointing device constituting these acquisition means 110 and 111. (Step S13 in FIG. 12).

なお、カップ領域外周204およびディスク領域外周203の決定は、特許文献1に記載されるような画像認識(例えば、ステレオ撮影画像から深さ情報を抽出し、ほぼ同一の深さの部位の軌跡を抽出するなど)によって行なうことも考えられるが、以下では、検者がカップ外周取得手段110、およびディスク外周取得手段111を用いてカップ領域外周204およびディスク領域外周203を指定するものとする。   The determination of the outer periphery 204 of the cup area and the outer periphery 203 of the disk area is performed by image recognition as described in Patent Document 1 (for example, by extracting depth information from a stereo photographed image and tracing the locus of parts having substantially the same depth. In the following, it is assumed that the examiner designates the cup area outer circumference 204 and the disk area outer circumference 203 using the cup outer circumference obtaining unit 110 and the disk outer circumference obtaining unit 111.

図4(a)および図5(a)は、カップ領域外周204およびディスク領域外周203を検者が指定し終わった時のディスプレイ107における表示状態を示している。図4(a)および図5(a)の例では、検者が指定したカップ領域外周204およびディスク領域外周203が太線で表示され、その中間のリムと、中央のカップ領域を他の画像の部分と識別できるような表示形式を用いた表示、例えば異なる色やパターン表示を利用した強調表示を行なっている。なお、これらの異なる色やパターン表示を用いた強調表示は、好ましくは乳頭部や眼底血管205の画像が視認できるように半透明表示とする。   FIGS. 4A and 5A show the display state on the display 107 when the examiner finishes specifying the cup area outer periphery 204 and the disk area outer periphery 203. FIG. In the example of FIGS. 4A and 5A, the cup area outer circumference 204 and the disk area outer circumference 203 designated by the examiner are displayed by bold lines, and the middle rim and the center cup area are displayed on other images. Display using a display format that can be distinguished from the part, for example, highlighting using different colors and pattern displays is performed. The highlighting using these different colors and pattern displays is preferably a semi-transparent display so that the image of the nipple and fundus blood vessels 205 can be visually recognized.

CPU102は、カップ外周取得手段110、およびディスク外周取得手段111を制御して、検者のポインティングデバイスなどの操作を読み取り、ディスプレイ107における表示を制御することにより、図4(a)、図5(a)に示すような表示を行なう。   The CPU 102 controls the cup outer periphery acquisition unit 110 and the disk outer periphery acquisition unit 111 to read the operation of the examiner's pointing device and the like, and to control the display on the display 107, thereby FIG. 4 (a) and FIG. A display as shown in a) is performed.

検者が指定したカップ領域外周204およびディスク領域外周203の軌跡は、例えばその軌跡上にある画素の画素アドレス(2次元直交座標におけるxy座標データ)の列(ポインタデータ列)として、VRAM104ないし他のRAMのようなメモリの所定領域に確保した格納領域に格納する。   The trajectory of the cup area outer periphery 204 and the disk area outer periphery 203 specified by the examiner is, for example, a VRAM 104 or other as a column (pointer data sequence) of pixel addresses (xy coordinate data in two-dimensional orthogonal coordinates) on the trajectory. Are stored in a storage area secured in a predetermined area of a memory such as a RAM.

続いて、CPU102は、図4(b)、図5(b)に示すように、本実施例の画像処理の基礎となる極座標系の中心(極座標中心:あるいは極座標原点)Oを求める。この極座標中心を求めるには、
(a)演算により2次元的にディスク領域の重心を求める。
Subsequently, as shown in FIGS. 4B and 5B, the CPU 102 obtains the center (polar coordinate center: or polar coordinate origin) O of the polar coordinate system that is the basis of the image processing of this embodiment. To find this polar center,
(A) The center of gravity of the disk area is obtained two-dimensionally by calculation.

(b)ステレオ画像から眼底の深さ情報のマップデータを作成し、最深点を中心とする。   (B) Map data of fundus depth information is created from the stereo image, and the deepest point is the center.

(c)検者(オペレータ)がポインティングデバイスなどを用いて任意に指定する。
といった手法が考えられる。本実施例では、ステレオ画像を取得しているので、(b)のごとく、ステレオ画像から眼底の深さマップを作成し、最深点を極座標中心Oとする手法を採用するものとする。この手法によれば、例えば単に2次元的な演算によりディスク領域の重心のような代表点を求めるよりも、よりその被検眼の乳頭部の3次元形状に即した代表点を乳頭部の中心を極座標中心Oとして求めることができる。
(C) An examiner (operator) arbitrarily designates using a pointing device or the like.
Such a method can be considered. In this embodiment, since a stereo image is acquired, a method of creating a fundus depth map from the stereo image and setting the deepest point as the polar coordinate center O as shown in (b) is adopted. According to this method, for example, rather than simply obtaining a representative point such as the center of gravity of the disk area by a two-dimensional calculation, a representative point that more closely matches the three-dimensional shape of the nipple of the subject's eye is set to the center of the nipple It can be obtained as the polar coordinate center O.

なお、極座標中心Oを重心演算により求める場合には、ディスク領域(ディスク領域外周204の内側)の重心を求めるかわりに、カップ領域(カップ領域外周203の内側)の重心を求めて、これを極座標中心Oとしてもよい。   When the polar coordinate center O is obtained by calculating the center of gravity, instead of obtaining the center of gravity of the disk area (inside of the disk area outer periphery 204), the center of gravity of the cup area (inside of the outer periphery of the cup area 203) is obtained, and this is determined as polar coordinates. It may be the center O.

続いて、CPU102は、上記のようにして求めた極座標中心Oを中心として、仮想線分を置き、この仮想線分を回転させ、仮想線分上の各画素データを順次取得することにより、極座標中心Oを中心とする極座標系における画素データに変換する。図4(b)および図5(b)は、それぞれ右眼および左眼の画像において、仮想線分O−Aを置き、これをO−B、O−C、O−D、O−E、O−F…のように回転させ、これら仮想線分の上を通る画素データを、中心Oを中心とする極座標系を表現したテーブルメモリにマップし直すことにより、極座標系への変換を行なうことができる。   Subsequently, the CPU 102 places a virtual line segment around the polar coordinate center O obtained as described above, rotates the virtual line segment, and sequentially acquires each pixel data on the virtual line segment, thereby obtaining polar coordinates. Conversion into pixel data in a polar coordinate system centered on the center O is performed. 4 (b) and 5 (b), respectively, put virtual line segments OA in the images of the right eye and the left eye, which are represented by OB, OC, OD, OE, The pixel data passing through these virtual line segments is re-mapped into a table memory representing the polar coordinate system centered on the center O, and converted to the polar coordinate system. Can do.

なお、図4(b)および図5(b)における仮想線分O−A、O−B、O−C、O−D、O−E、O−Fは、後述の図7の表示例におけるガイドラインの位置と一致している。   Note that virtual line segments OA, OB, OC, OD, OE, and OF in FIGS. 4B and 5B are shown in the display example of FIG. 7 described later. It is consistent with the guideline position.

具体的には、たとえば、変換前のxy座標系における画素データを格納したアドレスを極座標系を表現したテーブルメモリに格納する、といったポインタ配列(テーブル)を生成することにより、上記の極座標系へのデータ変換を行なうことができる。   Specifically, for example, by generating a pointer array (table) in which the address storing pixel data in the xy coordinate system before conversion is stored in a table memory representing the polar coordinate system, Data conversion can be performed.

なお、図4(b)および図5(b)は簡略化して短かく示してあるが実際には画素データが存在する範囲全体をカバーするだけの長さを有するものとし、また、仮想線分O−A、O−B、O−C、O−D、O−E、O−Fの回転は(たとえば画像周辺部で充分な分解能を確保できる程度の)微少角度ずつ行なうものとする。   4 (b) and 5 (b) are simplified and short, but actually have a length sufficient to cover the entire range in which pixel data exists, and virtual line segments The rotation of OA, OB, OC, OD, OE, and OF is performed by a minute angle (for example, sufficient resolution can be secured at the peripheral portion of the image).

本実施例では上記のようにして極座標変換画像データ(その画素データの内容は、変換前と同様、画素の輝度、ないし濃度データである)を図6〜図11に示すような、横軸に角度を、縦軸に動径(距離)をとった2次元直交表示座標系を用いて表示する。このような表示画像を、本実施例では便宜上極座標展開画像、という。   In this embodiment, the polar coordinate conversion image data (the content of the pixel data is the luminance or density data of the pixel as before the conversion) is plotted on the horizontal axis as shown in FIGS. The angle is displayed using a two-dimensional orthogonal display coordinate system with the radius (distance) on the vertical axis. In the present embodiment, such a display image is referred to as a polar coordinate developed image for convenience.

この極座標展開画像の表示においては、ディスプレイ107を用いて図6〜図11におけるような種々の異なる表示を行なうことができる。図6〜図11の極座標展開画像300では、横軸に角度を、縦軸に動径(距離)をとった2次元直交表示座標系を用いて上述のように極座標変換した画素データを表示している。図6〜図11では、極座標中心に近い側を図の下方にとっている。   In the display of the polar coordinate developed image, various different displays as shown in FIGS. 6 to 11 can be performed using the display 107. In the polar coordinate development images 300 of FIGS. 6 to 11, pixel data subjected to polar coordinate conversion as described above is displayed using a two-dimensional orthogonal display coordinate system in which an angle is taken on the horizontal axis and a moving radius (distance) is taken on the vertical axis. ing. 6 to 11, the side close to the polar coordinate center is set downward in the figure.

図6の表示において、カップ領域外周304およびディスク領域外周303は、通常表示座標系(直交座標系:例えば図2および図3)におけるカップ領域外周204およびディスク領域外周203に相当する輪郭、符号305は、眼底血管の映像である。   In the display of FIG. 6, a cup area outer periphery 304 and a disk area outer periphery 303 are contours corresponding to the cup area outer periphery 204 and the disk area outer periphery 203 in the normal display coordinate system (orthogonal coordinate system: for example, FIGS. 2 and 3), reference numeral 305. Is an image of a fundus blood vessel.

図6において、カップ領域外周304およびディスク領域外周303の中間部が、緑内障の診断において重要なリムの部位に相当し、このように極座標展開画像として水平方向にリムの部位が連続するように表示することによって、元の直交座標系における表示よりも、検者はより明瞭にカップ領域外周304〜ディスク領域外周303の中間のリムの部位の寸法分布を知ることができる。   In FIG. 6, the middle part of the cup area outer periphery 304 and the disk area outer periphery 303 corresponds to the rim part important in the diagnosis of glaucoma, and is thus displayed as a polar coordinate developed image such that the rim part continues in the horizontal direction. By doing so, the examiner can more clearly know the dimensional distribution of the part of the rim between the cup area outer periphery 304 and the disk area outer periphery 303 than the display in the original orthogonal coordinate system.

図6の極座標展開画像の表示は横軸に角度を、縦軸に動径(距離)をとった2次元直交表示座標系を用いて、上述のように極座標変換した画素データを表示したものである。眼底領域や、血管、乳頭部などに各々対応する画素の表示濃度(あるいは輝度)は図2〜図3に示した縦および横(xy)の距離を2軸にとった2次元直交座標系(以下、通常の2次元直交座標系という)における表示と同じであり、いわば、乳頭部を中心に判りやすく画素を展開、変形させたものといえる。   The display of the polar coordinate development image in FIG. 6 is a display of pixel data that has been subjected to polar coordinate conversion as described above, using a two-dimensional orthogonal display coordinate system in which the horizontal axis represents the angle and the vertical axis represents the moving radius (distance). is there. The display density (or luminance) of the pixels corresponding to the fundus region, blood vessels, nipples, etc. is a two-dimensional orthogonal coordinate system with the vertical and horizontal (xy) distances shown in FIGS. Hereinafter, it is the same as the display in a normal two-dimensional orthogonal coordinate system), so to speak, it can be said that the pixels are expanded and deformed in an easily understandable manner around the nipple.

この図6のような極座標展開画像の表示を、本実施例の基本表示形態(基本表示モード)とすると、さらに、図7〜図11に示すような異なる表示形態(表示モード)を用いることが考えられる。   If the display of the polar coordinate development image as shown in FIG. 6 is the basic display form (basic display mode) of the present embodiment, different display forms (display modes) as shown in FIGS. Conceivable.

図7の表示形態(表示モード)は、図6の基本表示形態で表示した眼底画像上に、図4(b)および図5(b)における仮想線分O−A、O−B、O−C、O−D、O−E、O−Fを置いた位置にガイドラインを置き、破線により表示したものである。ここでは同じA〜Fの符号を用いて各ガイドラインの外側の端部を示している(極座標中心Oは横軸上にある)。   7 is displayed on the fundus image displayed in the basic display form in FIG. 6 on the virtual line segments OA, OB, O- in FIGS. 4B and 5B. A guideline is placed at a position where C, OD, OE, and O-F are placed, and is indicated by a broken line. Here, the outer ends of each guideline are shown using the same symbols A to F (the polar coordinate center O is on the horizontal axis).

図7のような表示形態(表示モード)をとる場合には、図4(a)または図5(a)のように検者にカップ領域外周204およびディスク領域外周203を指定させた後(あるいはこれと同時に)、図4(b)または図5(b)のように仮想線分O−A、O−B、O−C、O−D、O−E、O−Fを通常の2次元直交座標系におけるガイドラインとして表示し、この図4(b)または図5(b)の表示形態で表示を行なった後、あるいは、この図4(b)または図5(b)の表示形態による表示と並べて図7の表示形態(表示モード)による表示を行なえばよい。   When the display form (display mode) as shown in FIG. 7 is adopted, after the examiner designates the cup area outer circumference 204 and the disk area outer circumference 203 as shown in FIG. 4 (a) or FIG. 5 (a) (or At the same time, imaginary line segments OA, OB, OC, OD, OE, and OF are converted into normal two-dimensional shapes as shown in FIG. 4B or 5B. Displayed as a guideline in the Cartesian coordinate system and displayed in the display form shown in FIG. 4B or 5B, or displayed in the display form shown in FIG. 4B or 5B And display according to the display form (display mode) of FIG.

図7のような表示を行なうことにより、通常の2次元直交座標系における表示部位と、極座標展開画像における表示部位との対応を非常に判り易く検者に提示することができる。   By performing the display as shown in FIG. 7, the correspondence between the display part in the normal two-dimensional orthogonal coordinate system and the display part in the polar coordinate developed image can be presented to the examiner very easily.

図8の表示形態(表示モード)は、図6の基本表示形態で表示した眼底画像上に、カップ領域404、およびリム領域403に相当する部位を強調表示したものである。このような強調表示は、図4(a)および図5(a)で説明したような他の撮影画像の部分と識別できるように異なる色やパターン表示を用いた強調表示とし、この強調表示の部位は好ましくは乳頭部や眼底血管205の画像が視認できるように半透明表示とする。なお、カップ領域外周304およびディスク領域外周303の位置は、当然ながら図4(a)、図5(a)において検者が指定したカップ領域外周204およびディスク領域外周203の位置と一致させる。   The display form (display mode) in FIG. 8 highlights parts corresponding to the cup area 404 and the rim area 403 on the fundus image displayed in the basic display form in FIG. Such an emphasis display is an emphasis display using a different color or pattern display so that it can be distinguished from other captured image portions as described with reference to FIGS. 4A and 5A. The part is preferably translucently displayed so that an image of the nipple and fundus blood vessel 205 can be visually recognized. It should be noted that the positions of the cup area outer periphery 304 and the disk area outer periphery 303 are made to coincide with the positions of the cup area outer periphery 204 and the disk area outer periphery 203 specified by the examiner in FIGS. 4 (a) and 5 (a).

図8のように、リム領域403、あるいはさらにカップ領域404に対して強調表示を付与した表示形態(表示モード)を用いることにより、図6のような基本表示形態(基本表示モード)のように元の画素の濃度(ないし輝度)のみ用いて画像を表現するよりも、明確に検者の領域指定に対応して定まるリム領域403、あるいはさらにカップ領域404の形状を提示することができる。   As shown in FIG. 8, by using a display form (display mode) with emphasis on the rim area 403 or further the cup area 404, a basic display form (basic display mode) as shown in FIG. Rather than representing the image using only the density (or luminance) of the original pixel, it is possible to present the shape of the rim region 403 or the cup region 404 that is clearly determined in accordance with the examiner's region designation.

図9の表示形態(表示モード)は、図7の表示形態(表示モード)と、図8の表示形態(表示モード)との複合表示形態(複合表示モード)であって、図7で説明したガイドライン表示を行なうとともに、図8で説明したリム領域403、およびカップ領域404に対する強調表示を付与したものである。このような複合表示形態(複合表示モード)によれば、ガイドライン表示によって円周方向の位置を明確に提示することができるとともに、検者の領域指定に対応して定まるリム領域403、あるいはさらにカップ領域404の形状を明確に提示することができる。   The display form (display mode) in FIG. 9 is a composite display form (composite display mode) of the display form (display mode) in FIG. 7 and the display form (display mode) in FIG. 8, and has been described with reference to FIG. The guideline is displayed and the rim region 403 and the cup region 404 described with reference to FIG. According to such a composite display mode (composite display mode), the position in the circumferential direction can be clearly presented by the guideline display, and the rim region 403 determined according to the region designation of the examiner, or further the cup. The shape of the region 404 can be clearly presented.

なお、図8および図9において、リム領域403、およびカップ領域404に対して付与する強調表示の色は、図4(a)、図5(a)に示した外周指定の際に、対応するリム領域、およびカップ領域に対して用いた強調表示の色と一致させると、より画像領域の対応を容易に読み取ることができる。   In FIGS. 8 and 9, the highlight color to be given to the rim area 403 and the cup area 404 corresponds to the outer periphery designation shown in FIGS. 4 (a) and 5 (a). By matching the highlight color used for the rim area and the cup area, the correspondence between the image areas can be read more easily.

図10の表示形態(表示モード)は、図6の基本表示形態(基本表示モード)における表示画像を変形した画像を表示するものである。   The display form (display mode) in FIG. 10 displays an image obtained by modifying the display image in the basic display form (basic display mode) in FIG.

図6の基本表示形態(基本表示モード)における表示画像における図の縦方向に沿った1画素の幅を有する1ラインを図10に示すように上下方向に平行移動することによって、検者が指定した特定の境界線がディスプレイ107上で直線として表示されるように画像を変形させることができる。画像を変形させる際にディスプレイ107上で直線として表示されるようにする部位としては、たとえば、検者が指定したカップ領域外周304またはディスク領域外周303の軌跡が考えられる。   The examiner specifies by moving one line having a width of one pixel along the vertical direction of the display image in the basic display form (basic display mode) of FIG. 6 in the vertical direction as shown in FIG. The image can be deformed so that the specific boundary line is displayed as a straight line on the display 107. As a part to be displayed as a straight line on the display 107 when the image is deformed, for example, the locus of the cup area outer periphery 304 or the disk area outer periphery 303 specified by the examiner can be considered.

図10の例では、カップ領域外周304がディスプレイ107上で直線として表示されるように、図の縦方向に沿った1画素の幅を有する1ラインを上下方向に平行移動する変形を行なっている。このような表示画像の変形によって、カップ領域外周304を直線として表示すると、リム領域503と、カップ領域504が図示のように変形する。   In the example of FIG. 10, the cup region outer periphery 304 is displayed as a straight line on the display 107, and one line having a width of one pixel along the vertical direction in the drawing is translated in the vertical direction. . When the cup region outer periphery 304 is displayed as a straight line by such deformation of the display image, the rim region 503 and the cup region 504 are deformed as illustrated.

そしてリム領域503と、カップ領域504が両者の境界であり、直線として表示されたカップ領域外周304を介して上下に並ぶため、検者はリム領域503や、カップ領域504の幅の変化を容易に読み取ることができる。例えば、緑内障の診断に有用なリム領域503の幅の変化(分布)は、図10のような表示によれば一種のグラフ表示として読み取ることができ、検者はひと目でリム領域503の幅の変化(分布)を認識することができる。   The rim region 503 and the cup region 504 are the boundary between them, and are lined up and down via the cup region outer periphery 304 displayed as a straight line, so the examiner can easily change the width of the rim region 503 and the cup region 504. Can be read. For example, the change (distribution) of the width of the rim region 503 useful for the diagnosis of glaucoma can be read as a kind of graph display according to the display as shown in FIG. 10, and the examiner can read the width of the rim region 503 at a glance. Change (distribution) can be recognized.

なお、図10の上部および下部の黒色の領域は、図の縦方向に沿った1画素の幅を有する1ラインを上下に平行移動することによって生じた画素データの無い部分で、図10では図示のように最も上方に平行移動した1ラインと最も下方に平行移動した1ラインを除く部分を黒色(または他の表示色)で埋めて表示している。このような表示により、いずれの縦方向の1ラインの画素情報も欠けないように表示を行なうことができる。しかし、このような画素データのない部分を表示しないよう、上下をトリミングした画像を表示してもよい。また、符号505で示したものは画像中の眼底血管である。   The black areas at the top and bottom of FIG. 10 are portions having no pixel data generated by moving one line having a width of one pixel along the vertical direction in the drawing up and down, and are shown in FIG. As shown in the figure, the portion excluding the one line translated in the uppermost direction and the one line translated in the lowermost direction is filled with black (or another display color) and displayed. By such display, it is possible to perform display so that pixel information of one vertical line is not lost. However, an image whose upper and lower sides are trimmed may be displayed so as not to display a portion without such pixel data. Also, what is indicated by reference numeral 505 is a fundus blood vessel in the image.

図11の表示は、ステレオ撮影データ(例えば図2、図3)から、3次元測定を行ない、眼底の各部位の深さ情報を得ることができる場合に、丁度、検者が指定したディスク領域外周(例えば図4(a)、図5(a)の203、図10の303)の軌跡の部分の深さ情報(3次元測定の基準点からの差分)を、横軸に角度をとってグラフ表示したものである。   The display in FIG. 11 shows the disc area designated by the examiner when three-dimensional measurement can be performed from stereo imaging data (for example, FIGS. 2 and 3) and depth information of each part of the fundus can be obtained. Depth information (difference from the reference point of three-dimensional measurement) of the portion of the locus of the outer periphery (for example, 203 in FIG. 4A, 203 in FIG. 5A, 303 in FIG. 10) and taking the angle on the horizontal axis. It is a graph display.

図11のようなディスク領域外周(203、303)の深さ情報のグラフ表示は、例えば、図10の表示形態(表示モード)による画像表示とともに、左右の幅を合せてディスプレイ107に表示することによって、検者により有用な情報を提示することができる。すなわち、検者はリム領域503の幅の変化(分布)を容易に把握できるとともに、そのリム領域503の端縁に相当するディスク領域外周(203、303)の高さの変化(分布)を同時に容易に読み取ることができ、3次元的、立体的にリム領域503の形状を把握することができる。   The graph information of the depth information of the outer periphery (203, 303) of the disk area as shown in FIG. 11 is displayed on the display 107 with the left and right widths aligned with the image display in the display form (display mode) of FIG. Thus, useful information can be presented to the examiner. That is, the examiner can easily grasp the change (distribution) of the width of the rim area 503 and simultaneously change the height (distribution) of the outer circumference (203, 303) of the disk area corresponding to the edge of the rim area 503. It can be easily read, and the shape of the rim region 503 can be grasped three-dimensionally and three-dimensionally.

図2〜図11に種々の撮影画像、あるいは種々の表示形態(表示モード)によるガイドライン付加、強調表示を施したり、変形させたりした画像を示したが、これらの画像表示は、ディスプレイ107で順次行なうこともでき、また、撮影画像や各種表示形態(表示モード)による表示画像は、その任意の部分、あるいは全部、などを検者の指定に応じてディスプレイ107で同時に表示(タイルウィンドウ表示や、重畳ウィンドウ表示、など任意の同時表示方式を利用できる)してもよい。   FIGS. 2 to 11 show various captured images or images in which guide lines are added, highlighted, or deformed in various display forms (display modes). These images are sequentially displayed on the display 107. In addition, the captured image and the display image in various display forms (display modes) can be displayed on the display 107 at the same time (tiled window display, Any simultaneous display method such as a superimposed window display may be used).

図13に、本実施例の画像処理システムにおけるより詳細な画像処理手順の流れを示す。図13では、検者の操作と画像処理装置100の画像処理の双方を示しているが、画像処理装置100の処理主体として画像処理を実施するためのCPU102のプログラムはROM103かHDD105に格納しておくものとする。なお、図12において既に説明した手順や処理については、以下では該当するステップ番号を記載するに留め、重複した説明は省略するものとする。   FIG. 13 shows a more detailed flow of the image processing procedure in the image processing system of the present embodiment. FIG. 13 shows both the operation of the examiner and the image processing of the image processing apparatus 100, but the program of the CPU 102 for executing the image processing as the processing subject of the image processing apparatus 100 is stored in the ROM 103 or the HDD 105. I shall keep it. In addition, about the procedure and process already demonstrated in FIG. 12, only a corresponding step number is described below and the overlapping description is abbreviate | omitted.

図13のステップS20では、図12のステップS10で説明したように、被検眼の画像データをカメラ101で撮影、取得する。なお、このとき処理対象として取得する画像データは必ずしもその都度カメラ101で撮影したものでなくてもよく、過去に撮影し、HDD105などを利用して構成されたファイリングシステムに保存されていてもよい。   In step S20 in FIG. 13, as described in step S10 in FIG. 12, image data of the eye to be examined is captured and acquired by the camera 101. Note that the image data acquired as a processing target at this time does not necessarily have to be captured by the camera 101 each time, but may be captured in the past and stored in a filing system configured using the HDD 105 or the like. .

ステップS21では、撮影した眼底画像を従来通りの表示フォーマットで表示する。続いてステップS22では、本発明による上述の極座標展開画像表示を行なうか否かを判定する。本発明による極座標展開画像表示を行なわない場合は、ステップS21に戻り、例えば、撮影した画像、ないしHDD105などに格納されている画像をそのまま表示する処理を従来通り行なう。   In step S21, the photographed fundus image is displayed in a conventional display format. Subsequently, in step S22, it is determined whether or not the above-described polar coordinate development image display according to the present invention is performed. When the polar coordinate development image display according to the present invention is not performed, the process returns to step S21, and, for example, the process of displaying the photographed image or the image stored in the HDD 105 or the like as it is is performed as usual.

ステップS22で本発明による極座標展開画像表示を行なう場合には、ステップS23に進み、カップ領域およびディスク領域の外周を決定する。このとき、例えば検者がカップ外周取得手段110、およびディスク外周取得手段111を制御して、カップ領域およびディスク領域の外周の軌跡を指定する(あるいは特許文献1に記載されるような手法により画像認識処理によりカップ領域およびディスク領域の外周の軌跡を決定する)。   When the polar coordinate development image display according to the present invention is performed in step S22, the process proceeds to step S23, and the outer peripheries of the cup area and the disk area are determined. At this time, for example, the examiner controls the cup outer periphery acquisition unit 110 and the disk outer periphery acquisition unit 111 to specify the outer track of the cup region and the disk region (or an image by a method described in Patent Document 1). The outer track of the cup area and the disk area is determined by the recognition process).

ステップS24では、極座標展開処理の基準点、すなわち、極座標中心(原点)Oを決定する。ここでは、上述のように、(a)演算により2次元的にディスク領域の重心を求める、(b)ステレオ画像から眼底の深さマップを作成し、最深点を中心とする、(c)検者(オペレータ)がポインティングデバイスなどを用いて任意に指定する、などの手法を用いることができる。   In step S24, a reference point for polar coordinate development processing, that is, a polar coordinate center (origin) O is determined. Here, as described above, (a) the center of gravity of the disc area is calculated two-dimensionally by calculation, (b) a fundus depth map is created from the stereo image, and the deepest point is the center, (c) An operator (operator) can arbitrarily specify using a pointing device or the like.

ステップS25では、図6〜図11に示した表示形式(図2〜図11で説明した各種の表示形態:または表示モードの1つまたは複数の組合せ)を選択する。ここでは、表示形式の1つのみを選択できるようにしてもよいし、また、任意ないし全ての表示形式による表示をディスプレイ107で行なうような選択も許容するようにしてよい。   In step S25, the display format shown in FIGS. 6 to 11 (various display modes described in FIGS. 2 to 11 or one or a combination of display modes) is selected. Here, only one display format may be selected, or selection such that display in any or all display formats is performed on the display 107 may be allowed.

ステップS26では、ステップS23におけるカップ領域およびディスク領域の外周の指定、ステップS24における極座標中心Oの決定、ステップS25において選択された表示形式に基づき、極座標展開画像を生成するか否かを判定する。極座標展開画像を生成しない場合には、ステップS21に戻り、従来通りの画像表示を行なう。   In step S26, it is determined whether or not to generate a polar coordinate development image based on the designation of the outer periphery of the cup area and the disk area in step S23, the determination of the polar coordinate center O in step S24, and the display format selected in step S25. When no polar coordinate development image is generated, the process returns to step S21, and the conventional image display is performed.

極座標展開画像を生成する場合にはステップS28で極座標展開の処理内容を決定し、必要な表示制御パラメータの決定などを行ない、極座標展開画像を生成する画像処理を行なうが、図13の例ではステップS28に先立ち、
ステップS27で、極座標展開画像を生成する眼底画像が右眼のものであるか左眼のものであるかを判別する。ディスプレイ107に眼底画像を表示する場合には、左右の被検眼によって、側頭部/鼻側の位置取りをディスプレイ107の右にとるか左にとるか(左眼と右眼では展開する方向を逆にとる)を選択したほうが好ましい。
When generating a polar coordinate development image, the processing contents of polar coordinate development are determined in step S28, necessary display control parameters are determined, etc., and image processing for generating a polar coordinate development image is performed. In the example of FIG. Prior to S28,
In step S27, it is determined whether the fundus image for generating the polar coordinate developed image is that of the right eye or that of the left eye. When the fundus image is displayed on the display 107, the position of the temporal / nose side is taken to the right or the left of the display 107 depending on the left and right eyes (the direction in which the left eye and the right eye are deployed) On the contrary, it is preferable to select “take”.

そこで図13の制御例では、ステップS28で極座標展開画像として表示すべき眼底画像が右眼のものであるか左眼のものであるかを判別し、その結果に応じて、極座標展開画像を表示する場合のディスプレイ107における側頭部/鼻側を左右いずれに位置取りするかを決定する。ここでHDD105などにファイリングされている眼底画像を用いる場合などにおいて、もし、眼底画像の被検眼の左右の識別情報が眼底画像と関連付けて記録されていればその情報を読み出して用いる。もし、眼底画像の被検眼の左右の識別情報が欠落していたり、読み出せない場合には検者(あるいはオペレータ)に入力を求めるようにしてもよい。   Therefore, in the control example of FIG. 13, it is determined in step S28 whether the fundus image to be displayed as the polar coordinate developed image is that of the right eye or that of the left eye, and the polar coordinate developed image is displayed according to the result. In this case, the left / right side of the display 107 on the display 107 is determined to be positioned. Here, when using a fundus image filed in the HDD 105 or the like, if the left and right identification information of the eye to be examined is recorded in association with the fundus image, the information is read and used. If the left and right identification information of the eye to be examined in the fundus image is missing or cannot be read, the examiner (or operator) may be requested to input.

次にステップS28では、決定された極座標展開処理を行ない、ステップS29では、ディスプレイ107を制御して極座標展開した眼底画像を表示させる。ステップS29では、図2〜図11で説明した表示形態:または表示モードの1つまたは複数の組合せにより眼底画像の表示を行なう。   Next, in step S28, the determined polar coordinate development process is performed, and in step S29, the fundus image developed by polar coordinates is displayed by controlling the display 107. In step S29, the fundus image is displayed by one or a combination of the display modes described in FIGS.

例えば図13に示したような画像処理を行なうことにより、被検眼眼底の視神経乳頭部の画像を撮影し、画像表示形式を適宜選択しつつ、極座標展開画像を中心として視神経乳頭部付近の部位、たとえばカップやディスクの周縁、その中間部のリムの形状や寸法の分布を判りやすく表示することができる。   For example, by performing image processing as shown in FIG. 13, an image of the optic nerve head on the fundus of the eye to be examined is captured, and an image display format is appropriately selected, and a region near the optic nerve head around the polar coordinate developed image, For example, the peripheral edge of the cup or disk and the rim shape and size distribution in the middle can be displayed in an easily understandable manner.

また極座標展開画像と原画像をディスプレイに並列表示し、片方の画像上で位置を指定すると、もう片方の画像上で指定された位置に対応する点を示すようにすると、極座標展開画像と原画像との対応がより判り易くなる。   Also, if the polar coordinate developed image and the original image are displayed in parallel on the display and the position is specified on one image, the point corresponding to the specified position on the other image is shown, and then the polar coordinate developed image and the original image are displayed. It becomes easier to understand the correspondence.

なお、以上では、ディスプレイ107を用いて極座標展開画像を表示出力する例を示したが、ディスプレイ107で表示する画像は同様にプリンタなどの画像出力手段を用いて出力することもでき、また、ネットワーク106を介して他のコンピュータや画像処理装置に対して送信することもできる。   In the above, an example in which a polar coordinate development image is displayed and output using the display 107 has been described. However, an image displayed on the display 107 can also be output using an image output unit such as a printer, and a network. The data can also be transmitted to another computer or image processing apparatus via 106.

本発明は、被検眼の眼底画像を表示出力する画像処理を行なう眼底カメラや眼科測定装置、ファイリング装置などの画像処理装置において実施することができる。   The present invention can be implemented in an image processing apparatus such as a fundus camera, an ophthalmologic measurement apparatus, or a filing apparatus that performs image processing for displaying and outputting a fundus image of a subject's eye.

本発明を採用した画像処理システムの構成を示したブロック図である。1 is a block diagram showing a configuration of an image processing system adopting the present invention. 図1の画像処理システムにおける被検眼右眼の視神経乳頭部近傍のステレオ撮影画像を示した説明図である。FIG. 2 is an explanatory diagram showing a stereo image of the right eye of the subject eye near the optic papilla in the image processing system of FIG. 1. 図1の画像処理システムにおける被検眼左眼の視神経乳頭部近傍のステレオ撮影画像を示した説明図である。FIG. 3 is an explanatory diagram showing a stereo image of the left eye of the subject eye near the optic papilla in the image processing system of FIG. 1. 図1の画像処理システムにおける被検眼右眼の視神経乳頭部の画像に対する画像処理を示した説明図である。It is explanatory drawing which showed the image process with respect to the image of the optic nerve head of the right eye to be examined in the image processing system of FIG. 図1の画像処理システムにおける被検眼左眼の視神経乳頭部の画像に対する画像処理を示した説明図である。It is explanatory drawing which showed the image process with respect to the image of the optic nerve head of the left eye to be examined in the image processing system of FIG. 図1の画像処理システムにおける被検眼右眼の視神経乳頭部の極座標展開画像を示した説明図である。It is explanatory drawing which showed the polar coordinate expansion | deployment image of the optic disc of the right eye to be examined in the image processing system of FIG. 図1の画像処理システムにおける被検眼右眼の視神経乳頭部の極座標展開画像の異なる表示形態を示した説明図である。It is explanatory drawing which showed the different display form of the polar coordinate expansion | deployment image of the optic disc of the right eye to be examined in the image processing system of FIG. 図1の画像処理システムにおける被検眼右眼の視神経乳頭部の極座標展開画像のさらに異なる表示形態を示した説明図である。It is explanatory drawing which showed the further different display form of the polar coordinate expansion | deployment image of the optic nerve head of the right eye to be examined in the image processing system of FIG. 図1の画像処理システムにおける被検眼右眼の視神経乳頭部の極座標展開画像のさらに異なる表示形態を示した説明図である。It is explanatory drawing which showed the further different display form of the polar coordinate expansion | deployment image of the optic nerve head of the right eye to be examined in the image processing system of FIG. 図1の画像処理システムにおける被検眼右眼の視神経乳頭部の極座標展開画像のさらに異なる表示形態を示した説明図である。It is explanatory drawing which showed the further different display form of the polar coordinate expansion | deployment image of the optic nerve head of the right eye to be examined in the image processing system of FIG. 図1の画像処理システムにおける被検眼右眼の視神経乳頭部のディスク領域外周の高さ情報の表示形態を示した説明図である。FIG. 2 is an explanatory diagram showing a display form of height information on the outer periphery of the disc area of the optic papilla of the right eye to be examined in the image processing system of FIG. 1. 図1の画像処理システムにおける画像処理の流れを示したフローチャート図である。It is the flowchart figure which showed the flow of the image processing in the image processing system of FIG. 図1の画像処理システムにおける画像処理の流れをより詳細に示したフローチャート図である。It is the flowchart figure which showed the flow of the image processing in the image processing system of FIG. 1 in detail.

符号の説明Explanation of symbols

O 極座標中心
100 画像処理装置
101 カメラ
102 CPU
103 ROM
105 HDD
106 ネットワーク
107 ディスプレイ
110 カップ外周取得手段
111 ディスク外周取得手段
203、303 ディスク領域外周
204、304 カップ領域外周
205、305、505 眼底血管
300 極座標展開画像
304 カップ領域外周
403 リム領域
404 カップ領域
O Polar coordinate center 100 Image processing apparatus 101 Camera 102 CPU
103 ROM
105 HDD
106 Network 107 Display 110 Cup outer periphery acquisition means 111 Disc outer periphery acquisition means 203, 303 Disk region outer periphery 204, 304 Cup region outer periphery 205, 305, 505 Fundus blood vessel 300 Polar coordinate developed image 304 Cup region outer periphery 403 Rim region 404 Cup region

Claims (6)

撮像された眼底画像の画像データから、視神経乳頭部に相当するディスク外周の軌跡、および視神経乳頭陥凹部に相当するカップ外周の軌跡を取得し、
被検眼のほぼ視神経乳頭部中心に相当する画像中の基準点を中心とする極座標系における画素の極座標を求め、
この画素の極座標の動径および偏角をそれぞれ2次元直交表示座標系の2軸に写像して得られる極座標展開画像を生成して表示出力するとともに、該極座標展開画像の表示出力において、前記ディスク外周と前記カップ外周とを境界とするそれぞれの画像領域を他の部分と識別可能な表示形式で表示することを特徴とする眼底画像処理方法。
From the image data of the imaged fundus image, obtain the trajectory of the outer circumference of the disc corresponding to the optic disc and the trajectory of the outer circumference of the cup corresponding to the concave portion of the optic disc,
Find the polar coordinates of the pixel in the polar coordinate system centered on the reference point in the image corresponding to the center of the optic nerve head of the eye to be examined,
A polar coordinate developed image obtained by mapping the radius and declination of the polar coordinates of the pixel to the two axes of the two-dimensional orthogonal display coordinate system is generated and displayed, and the display of the polar coordinate developed image is performed by the disk. A fundus image processing method characterized by displaying each image area having an outer periphery and the cup outer periphery as a boundary in a display format distinguishable from other parts.
請求項1に記載の眼底画像処理方法において、前記ディスク外周と、前記カップ外周の軌跡をステレオ撮像された眼底画像の画像データの深さ情報に基づき取得することを特徴とする眼底画像処理方法。   The fundus image processing method according to claim 1, wherein the outer periphery of the disc and the trajectory of the outer periphery of the cup are acquired based on depth information of image data of a fundus image captured in stereo. 請求項1または2に記載の眼底画像処理方法において、眼底画像をほぼそのまま表示する通常表示出力においては、前記取得された視神経乳頭部に相当するディスク外周の軌跡、および視神経乳頭陥凹部に相当するカップ外周の軌跡を境界とする画像領域に対して色分け表示を行ない、かつ、極座標展開画像の表示出力においては、視神経乳頭部に相当するディスク外周の軌跡、および視神経乳頭陥凹部に相当するカップ外周の軌跡を境界とする画像領域に対して前記通常表示出力におけるものと同一の色分け表示を行なうことを特徴とする眼底画像処理方法。   3. The fundus image processing method according to claim 1, wherein the normal display output for displaying the fundus image almost as it is corresponds to the trajectory of the outer circumference of the disc corresponding to the acquired optic papilla and the optic papilla recess. Color-coded display is performed on the image area bounded by the locus of the cup circumference, and in the display output of the polar coordinate developed image, the locus of the disk circumference corresponding to the optic papilla and the cup circumference corresponding to the optic papilla recess A fundus image processing method, wherein the same color-coded display as that in the normal display output is performed on an image region having the trajectory of the image as a boundary. 請求項1〜請求項3のいずれか1項に記載の眼底画像処理方法において、ステレオ撮像された眼底画像から、該撮像された眼底の深さ情報を検出し、該深さ情報から決定される最深点を前記基準点として、画素の極座標を求めることを特徴とする眼底画像処理方法。   The fundus image processing method according to any one of claims 1 to 3, wherein depth information of the captured fundus is detected from a stereo imaged fundus image, and is determined from the depth information. A fundus image processing method, wherein polar coordinates of a pixel are obtained using a deepest point as the reference point. 請求項1〜請求項4のいずれか1項に記載の眼底画像処理方法において、前記極座標展開画像の表示出力に際して、前記カップ外周またはディスク外周に対応する境界線が直線として表示されるように、2次元直交表示座標系の動径を対応づけた軸方向に平行移動して画像データを表示することを特徴とする眼底画像処理方法。   The fundus image processing method according to any one of claims 1 to 4, wherein a boundary line corresponding to the outer periphery of the cup or the outer periphery of the disk is displayed as a straight line when the polar coordinate development image is displayed and output. A fundus image processing method characterized by displaying image data by moving parallel to an axial direction in which the radius of a two-dimensional orthogonal display coordinate system is associated. 請求項1〜請求項5のいずれか1項に記載の眼底画像処理方法を実施する眼底画像処理装置において、
前記極座標展開処理を行なう画像処理手段と、
前記画像処理手段により生成された前記極座標展開画像を表示する表示出力手段を有することを特徴とする眼底画像処理装置。
In the fundus image processing apparatus for executing the fundus image processing method according to any one of claims 1 to 5,
Image processing means for performing the polar coordinate expansion process;
A fundus image processing apparatus comprising display output means for displaying the polar coordinate development image generated by the image processing means.
JP2008233387A 2008-09-11 2008-09-11 Image processing method and image processing apparatus Expired - Fee Related JP5348982B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008233387A JP5348982B2 (en) 2008-09-11 2008-09-11 Image processing method and image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008233387A JP5348982B2 (en) 2008-09-11 2008-09-11 Image processing method and image processing apparatus

Publications (2)

Publication Number Publication Date
JP2010063671A true JP2010063671A (en) 2010-03-25
JP5348982B2 JP5348982B2 (en) 2013-11-20

Family

ID=42189800

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008233387A Expired - Fee Related JP5348982B2 (en) 2008-09-11 2008-09-11 Image processing method and image processing apparatus

Country Status (1)

Country Link
JP (1) JP5348982B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008073188A (en) * 2006-09-21 2008-04-03 Gifu Univ Image analysis system and image analysis program
US20090033868A1 (en) * 2007-08-02 2009-02-05 Topcon Medical Systems, Inc. Characterization of the Retinal Nerve Fiber Layer

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008073188A (en) * 2006-09-21 2008-04-03 Gifu Univ Image analysis system and image analysis program
US20090033868A1 (en) * 2007-08-02 2009-02-05 Topcon Medical Systems, Inc. Characterization of the Retinal Nerve Fiber Layer

Also Published As

Publication number Publication date
JP5348982B2 (en) 2013-11-20

Similar Documents

Publication Publication Date Title
US10383511B2 (en) Image processing apparatus, image processing method, and program
US9824273B2 (en) Image processing system, processing method, and storage medium
JP6146952B2 (en) Image processing apparatus, image processing method, and program.
JP6188297B2 (en) Image processing apparatus, image processing method, and program
JP6115007B2 (en) Ophthalmic image processing apparatus and program
CN104042184B (en) Image processing equipment, image processing system and image processing method
US8870377B2 (en) Image processing apparatus, image processing apparatus control method, ophthalmologic apparatus, ophthalmologic apparatus control method, ophthalmologic system, and storage medium
US9149183B2 (en) Image processing system, processing method, and storage medium
US10964044B2 (en) Method of operating measurement device, measurement device, and recording medium
JP2012161595A (en) Image processor and image processing method
JP5998493B2 (en) Ophthalmic image processing apparatus and program
JP4901620B2 (en) Fundus examination image analysis system and fundus examination image analysis program
JP6243957B2 (en) Image processing apparatus, ophthalmic system, control method for image processing apparatus, and image processing program
JP2015104582A (en) Optical tomographic imaging device and optical tomographic imaging program
JP5348982B2 (en) Image processing method and image processing apparatus
JP4949007B2 (en) Fundus image processing apparatus, fundus photographing apparatus, and program
JP6033478B2 (en) Ophthalmic apparatus, layer thickness comparison method and program
JP5871890B2 (en) Ophthalmic apparatus, layer thickness comparison method and program
JP6626485B2 (en) Information processing apparatus, information processing method and program
JP6223527B2 (en) Ophthalmic apparatus, layer thickness comparison method and program
JP2017153826A (en) Ophthalmic image processing apparatus and ophthalmic image processing program
JP2022151874A (en) Processing of multimodal retinal images
JP2020028786A (en) Information processing device, information processing method, and program
JP2019191792A (en) Object recognition apparatus, object recognition method and program
JPH0824242A (en) Body shape image correcting apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110901

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130813

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130820

R150 Certificate of patent or registration of utility model

Ref document number: 5348982

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees