JP2010063671A - Image processing method and image processing device - Google Patents
Image processing method and image processing device Download PDFInfo
- Publication number
- JP2010063671A JP2010063671A JP2008233387A JP2008233387A JP2010063671A JP 2010063671 A JP2010063671 A JP 2010063671A JP 2008233387 A JP2008233387 A JP 2008233387A JP 2008233387 A JP2008233387 A JP 2008233387A JP 2010063671 A JP2010063671 A JP 2010063671A
- Authority
- JP
- Japan
- Prior art keywords
- image
- display
- image processing
- cup
- polar coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、被検眼の眼底画像を表示出力する画像処理方法および画像処理装置に関するものである。 The present invention relates to an image processing method and an image processing apparatus for displaying and outputting a fundus image of an eye to be examined.
従来より、眼科撮影データを用いて緑内障の診断を行なう手法として、眼底画像中の視神経乳頭部(以下単に乳頭ないし乳頭部と記す)の形状およびサイズを評価する画像処理が知られている。 Conventionally, as a technique for diagnosing glaucoma using ophthalmologic imaging data, image processing for evaluating the shape and size of the optic nerve head (hereinafter simply referred to as “nipple” or “nipple”) in a fundus image is known.
画像解析を介して乳頭陥凹部の大きさを評価するに際し、カップ(Cup)と呼ばれる乳頭陥凹部の縁とディスク(Disc)と呼ばれる乳頭縁の距離比、いわゆるC / D 比が用いられることがある(たとえば下記の特許文献1)。 When evaluating the size of the nipple recess through image analysis, a distance ratio between the edge of the nipple recess called “Cup” and the edge of the nipple called “Disc”, the so-called C / D ratio is used. There is (for example, Patent Document 1 below).
また、乳頭陥凹部であるディスク(Disc)と、乳頭縁であるカップ(Cup)の中間部の領域はリム(Rim)と呼ばれ、このリムの幅を検者が観察することによって緑内障の診断を行なう手法もある。撮影された乳頭領域のディスクおよびカップ領域の境界の決定は画像解析により自動的に行なうことも考えられるが、検者が撮影画像を解析することにより行なうことも多い。
一般に、乳頭部のリムの幅は、局所的に狭くなることがあり、このような特異な形状の部分を発見することが緑内障の診断には重要であると考えられているが、リムは放射状に分布するために、単に乳頭部近傍の画像を表示し、検者がその画像を見てリムの幅を比較しつつリム全周を見回して狭くなったリムを客観的に同定することは困難であった。 In general, the width of the rim of the nipple may be locally narrowed, and it is considered to be important for the diagnosis of glaucoma to find such a unique shape, but the rim is radial. It is difficult to objectively identify a narrowed rim by simply displaying an image near the nipple and comparing the width of the rim while looking at the image and comparing the width of the rim. Met.
また、緑内障の診断を支援するのに、従来より横軸を角度、縦軸を撮影された乳頭部のディスク輪郭の高さをプロットして出力するような手法が用いられている(たとえば、HRTの結果シート)が、単に数値や棒グラフとしてディスク輪郭の高さのような情報を出力しても、検者にとって目視による原画像との対応付けは容易ではなかった。 Further, in order to support the diagnosis of glaucoma, a technique is conventionally used in which the horizontal axis is plotted as an angle, and the vertical axis is plotted and output as a disc contour height (for example, HRT). The result sheet) simply outputs information such as the height of the disk contour as numerical values or bar graphs, but it is not easy for the examiner to associate the original image with the visual inspection.
本発明の課題は、上記の問題に鑑み、被検眼の視神経乳頭部のディスク、カップ、リムなどの形状やサイズに関する情報をより理解しやすいフォーマットで出力することができ、これに基づき緑内障の診断を容易に行なえるようにすることにある。 In view of the above problems, an object of the present invention is to output information related to the shape and size of the disc, cup, rim, etc. of the optic papilla of the subject's eye in a format that is easier to understand, and based on this, diagnose glaucoma Is to make it easy to do.
上記の課題を解決するため、本発明においては、撮像された眼底画像の画像データから、視神経乳頭部に相当するディスク外周の軌跡、および視神経乳頭陥凹部に相当するカップ外周の軌跡を取得し、被検眼のほぼ視神経乳頭部中心に相当する画像中の基準点を中心とする極座標系における画素の極座標を求め、この画素の極座標の動径、偏角をそれぞれ2次元直交表示座標系の2軸に写像して得られる極座標展開画像を生成して表示出力するとともに、該極座標展開画像の表示出力において、前記ディスク外周と前記カップ外周とを境界とするそれぞれの画像領域を他の部分と識別可能な表示形式で表示する構成を採用した。 In order to solve the above problems, in the present invention, from the image data of the captured fundus image, the trajectory of the outer circumference of the disc corresponding to the optic papilla, and the trajectory of the cup outer circumference corresponding to the optic disc recess, The polar coordinates of the pixel in the polar coordinate system centered on the reference point in the image corresponding to the center of the optic nerve head of the eye to be examined are obtained, and the radius and declination of the polar coordinate of this pixel are respectively expressed in the two axes of the two-dimensional orthogonal display coordinate system. A polar coordinate developed image obtained by mapping to the image is generated, displayed and output, and in the display output of the polar coordinate developed image, each image area having the disc outer periphery and the cup outer periphery as a boundary can be distinguished from other parts. Adopted a configuration to display in various display formats.
上記構成によれば、画素の極座標の動径、偏角をそれぞれ2次元直交表示座標系の2軸に写像して得られる極座標展開画像を生成して表示出力するとともに、該極座標展開画像の表示出力において、前記ディスク外周と前記カップ外周とを境界とするそれぞれの画像領域を他の部分と識別可能な表示形式で表示するようにしているので、被検眼の視神経乳頭部のディスク、カップ、その中間部のリムなどの形状やサイズに関する情報をより理解しやすいフォーマットで出力することができ、また極座標展開画像にも血管などが表示されていて原画像との対応付けも容易にできるので、これに基づき緑内障の診断を容易に行なえる、という優れた効果がある。 According to the above configuration, a polar coordinate developed image obtained by mapping the radius and declination of the polar coordinates of the pixel to the two axes of the two-dimensional orthogonal display coordinate system is generated and displayed, and the polar coordinate developed image is displayed. In the output, since each image area having the boundary between the outer periphery of the disk and the outer periphery of the cup is displayed in a display format that can be distinguished from other parts, the disk, cup of the optic nerve head of the eye to be examined, Information on the shape and size of the middle rim, etc. can be output in a more easily understandable format, and blood vessels are also displayed on the polar coordinate developed image, making it easy to associate with the original image. Based on the above, there is an excellent effect that glaucoma can be easily diagnosed.
以下、本発明を実施するための最良の形態の一例として、被検眼眼底を撮影して得られた画像データに対して画像処理を行ない、乳頭部の形状に関するグラフィカルデータを出力する眼科測定装置に関する実施例につき説明する。 Hereinafter, as an example of the best mode for carrying out the present invention, an ophthalmic measurement apparatus that performs image processing on image data obtained by photographing a fundus of a subject's eye and outputs graphical data relating to the shape of the nipple is output. Examples will be described.
<システム構成>
図1は本発明を採用した眼科測定装置の構成を示している。図1において符号101は眼底撮影用のカメラで、被検眼(不図示)の眼底を所定の撮影条件で撮影するための機構、例えば、撮影距離を決定するアライメント機構などを備えた眼底カメラなどから構成される。カメラ101は、CCDやCMOSセンサなどの撮像素子を有し、デジタルデータとして撮影した被検眼の眼底画像データを画像処理装置に出力する。
<System configuration>
FIG. 1 shows the configuration of an ophthalmologic measuring apparatus employing the present invention. In FIG. 1,
画像処理装置100は、例えばパーソナルコンピュータなどのハードウェアを用いて構成される。画像処理装置100は、システム全体の制御を行なうとともに、後述の画像処理を実施する画像処理手段の主体を構成するCPU102を含む。
The
後述の画像処理は、VRAM(画像メモリ)104をワークエリアとして実行される。この他にも、画像処理以外のシステム制御などに用いるためのメモリとして、ダイナミックRAMなどから構成されたメモリが設けられるものとする。後述の画像処理を実施するためのCPU102のプログラムはROM103かHDD105に格納しておく。
Image processing to be described later is executed using the VRAM (image memory) 104 as a work area. In addition to this, it is assumed that a memory composed of a dynamic RAM or the like is provided as a memory used for system control other than image processing. A program of the
また、HDD105は、被検眼の撮影画像データ、測定結果などの数値データ、あるいは後述の画像処理により生成された出力画像データなどを格納するために用いられる。
The
画像処理装置100には、表示出力手段として、LCDやELパネル、CRTなどから構成されたディスプレイ107が接続されており、ディスプレイ107には画像処理装置100の画像処理を制御するためのユーザーインターフェース画面などを表示させる。
A
また、画像処理装置100は、後述の画像処理に基づき、被検眼眼底の乳頭部のディスク、カップ、リムなどの部位の形状やサイズに関する評価を検者が容易に行なえるよう構成した画像データを生成し、ディスプレイ107に出力させる。
Further, the
画像処理装置100には、不図示のネットワークインターフェースを介してネットワーク106が接続される。画像処理装置100は、上述の被検眼の撮影画像データ、測定結果などの数値データ、あるいは後述の画像処理により生成された出力画像データなどを外部のコンピュータや別の画像処理装置、あるいは眼科測定装置などに出力する。
A
図12は、本実施例において、緑内障診断のために眼底撮影を行ない、撮影画像を出力させる際の大まかな処理の流れを示している。 FIG. 12 shows a rough flow of processing when performing fundus imaging for glaucoma diagnosis and outputting a captured image in this embodiment.
カメラ101は、例えば、検者が眼底カメラに準じた操作系およびアライメント系を用いて被検眼(不図示)に対して位置決めされ、検者の特定の撮影操作に応じて被検眼眼底の画像を撮影する(ステップS10)。緑内障診断のための撮影においては、被検眼眼底の乳頭部およびその付近が画面中心に来るように撮影アングルを決定する。また、このとき、好ましくは被検眼眼底はステレオ撮影される。ステレオ撮影手段としては、例えばカメラ101の主光学系内に、光軸中心から左右に偏った位置に設けた絞りを各々開口/閉鎖して左右の視差画像を撮影するような構成を用いることができる。以下では、ステレオ撮影された画像データについても示す。
For example, the
画像処理装置100は、カメラ101で撮影した被検眼眼底の画像データを取り込み(ステップS11)、所定の表示形式でディスプレイ107に表示させる(ステップS12)。
The
撮影画像データ中の被検眼眼底の乳頭部のカップおよびディスク領域は、カップ外周取得手段110、およびディスク外周取得手段111を用いて特定する(ステップS13)。
The cup and disc area of the nipple portion of the fundus of the eye to be examined in the photographed image data are specified using the cup outer
カップ外周取得手段110、およびディスク外周取得手段111はCPU102の画像認識ソフトウェアにより構成することも考えられるが、本実施例では、カップ外周取得手段110、およびディスク外周取得手段111は、不図示のキーボード、マウス、デジタイザパッド、ポインティングデバイスなどの操作部ハードウェアから構成し、検者がディスプレイ107に表示された被検眼眼底の画像を観察しつつ、これらの操作部ハードウェアを操作して、ディスプレイ107に表示された被検眼眼底の画像中のカップ外周およびディスク外周と判断した部位を特定する。具体的操作としては、たとえば、ポインティングデバイスで、眼底画像中に軌跡を描き込ませる操作が考えられる。
Although the cup outer
カップ外周およびディスク外周領域が特定されると、検者は上記のキーボードおよびポインティングデバイスなどの操作手段を用いて表示方法を指定し(ステップS14)、画像処理装置100は指定された表示方法に応じて、表示すべき画像データを生成し、ディスプレイ107に表示させる。
When the cup outer periphery and the disc outer peripheral area are specified, the examiner designates a display method using the operation means such as the keyboard and the pointing device (step S14), and the
<画像処理および表示制御>
次に以上の構成における画像処理および表示制御につき説明する。
<Image processing and display control>
Next, image processing and display control in the above configuration will be described.
本実施例の眼底撮影画像に対する画像処理では、被検眼のほぼ乳頭部中心に相当する画像中の基準点(例えばディスク外周内の所定の基準点を中心とする極座標系)を中心とする極座標系における画素の極座標を求め、この画素の極座標の(動径、偏角)をそれぞれ2次元直交表示座標系の2軸にマップ(写像)してグラフィック表示する表示出力方式を用いる。この表示出力方式の表示座標系は、たとえば後述のように横軸に角度を、縦軸に動径(距離)をとった2次元直交表示座標系である(図6〜図11)。 In the image processing for the fundus photographed image of the present embodiment, a polar coordinate system centered on a reference point (for example, a polar coordinate system centered on a predetermined reference point in the outer periphery of the disk) in the image that is substantially equivalent to the center of the nipple of the eye to be examined. A display output method is used in which the polar coordinates of the pixel in the pixel are obtained, and the polar coordinates (radial radius, declination) of the pixel are mapped (mapped) to the two axes of the two-dimensional orthogonal display coordinate system and displayed graphically. The display coordinate system of this display output system is, for example, a two-dimensional orthogonal display coordinate system having an angle on the horizontal axis and a moving radius (distance) on the vertical axis as will be described later (FIGS. 6 to 11).
また、本実施例では、そのような表示座標系において、例えば緑内障診断などに有用な種々の表示変換処理についても説明する。 In the present embodiment, various display conversion processes useful for glaucoma diagnosis, for example, in such a display coordinate system will also be described.
図2(a)、(b)および図3(a)、(b)は、カメラ101でステレオ撮影(図12のステップS10)した被検眼の右眼の視神経乳頭部のステレオペア画像、および被検眼の右眼の視神経乳頭部のペア画像をそれぞれ模式的に示している。図2(a)、図3(a)の上部にそれぞれ示した通り、ここでは画像の左側が側頭側、右側が鼻側に対応するように左(201)、右(202)のステレオ画像を配置してある(以下の各図においても図中に側頭側、鼻側の表示を必要に応じて行なうものとする)。 2 (a), 2 (b), 3 (a), and 3 (b) are a stereo pair image of the right optic nerve head of the eye to be inspected by the camera 101 (step S10 in FIG. 12), and A pair image of the optic papilla of the right eye of the optometry is schematically shown. As shown in the upper part of FIGS. 2A and 3A, the left (201) and right (202) stereo images so that the left side of the image corresponds to the temporal side and the right side corresponds to the nose side. (In each of the following figures, the temporal side and the nose side are displayed as needed in the figure).
図2および図3において、符号203は撮影された乳頭部のディスク領域外周、204は撮影された乳頭部のカップ領域外周をそれぞれ示している。ディスク領域外周203とカップ領域外周204の中間部はリムと呼ばれる領域で、一般にディスク領域外周203より外側よりも多少高く盛り上った形状となっている。緑内障の診断基準の1つとしては、このリムの部分の幅が(一部)狭くなっているかどうか、という形状評価が用いられることがある。
2 and 3,
CPU102は図2(a)、(b)および図3(a)、(b)のようにカメラ101から取得(図12のステップS11)したステレオ画像をVRAM104に展開した上ディスプレイ107で表示(同ステップS12)させる。その場合、所定のステレオ表示方式などを用いてステレオ表示により検者に提示することができる。
The
本実施例の画像処理は、図2(a)、(b)、図3(a)、(b)のように撮影された左右のステレオ画像それぞれについて行ない、その結果を双方とも表示することができるが、以下ではステレオ画像の1つについての処理のみについて説明する。 The image processing of the present embodiment is performed for each of the left and right stereo images taken as shown in FIGS. 2A, 2B, 3A, and 3B, and the result can be displayed on both. However, only the processing for one of the stereo images will be described below.
図2(a)または(b)、図3(a)または(b)のようにそれぞれ撮影された右眼、および左眼の左(または右)のステレオ画像の1つに対して検者はカップ外周取得手段110、およびディスク外周取得手段111を用いてカップ領域外周204およびディスク領域外周203の位置を指定する。具体的には、この指定は、これらの取得手段110、111を構成するポインティングデバイスを用いて、右眼、および左眼の左(または右)のステレオ画像上に軌跡をマーキング指定することにより行なう(図12のステップS13)。
For the right eye and the left (or right) stereo image of the left eye taken as shown in FIG. 2 (a) or (b), FIG. 3 (a) or (b), the examiner The positions of the cup area
なお、カップ領域外周204およびディスク領域外周203の決定は、特許文献1に記載されるような画像認識(例えば、ステレオ撮影画像から深さ情報を抽出し、ほぼ同一の深さの部位の軌跡を抽出するなど)によって行なうことも考えられるが、以下では、検者がカップ外周取得手段110、およびディスク外周取得手段111を用いてカップ領域外周204およびディスク領域外周203を指定するものとする。
The determination of the
図4(a)および図5(a)は、カップ領域外周204およびディスク領域外周203を検者が指定し終わった時のディスプレイ107における表示状態を示している。図4(a)および図5(a)の例では、検者が指定したカップ領域外周204およびディスク領域外周203が太線で表示され、その中間のリムと、中央のカップ領域を他の画像の部分と識別できるような表示形式を用いた表示、例えば異なる色やパターン表示を利用した強調表示を行なっている。なお、これらの異なる色やパターン表示を用いた強調表示は、好ましくは乳頭部や眼底血管205の画像が視認できるように半透明表示とする。
FIGS. 4A and 5A show the display state on the
CPU102は、カップ外周取得手段110、およびディスク外周取得手段111を制御して、検者のポインティングデバイスなどの操作を読み取り、ディスプレイ107における表示を制御することにより、図4(a)、図5(a)に示すような表示を行なう。
The
検者が指定したカップ領域外周204およびディスク領域外周203の軌跡は、例えばその軌跡上にある画素の画素アドレス(2次元直交座標におけるxy座標データ)の列(ポインタデータ列)として、VRAM104ないし他のRAMのようなメモリの所定領域に確保した格納領域に格納する。
The trajectory of the cup area
続いて、CPU102は、図4(b)、図5(b)に示すように、本実施例の画像処理の基礎となる極座標系の中心(極座標中心:あるいは極座標原点)Oを求める。この極座標中心を求めるには、
(a)演算により2次元的にディスク領域の重心を求める。
Subsequently, as shown in FIGS. 4B and 5B, the
(A) The center of gravity of the disk area is obtained two-dimensionally by calculation.
(b)ステレオ画像から眼底の深さ情報のマップデータを作成し、最深点を中心とする。 (B) Map data of fundus depth information is created from the stereo image, and the deepest point is the center.
(c)検者(オペレータ)がポインティングデバイスなどを用いて任意に指定する。
といった手法が考えられる。本実施例では、ステレオ画像を取得しているので、(b)のごとく、ステレオ画像から眼底の深さマップを作成し、最深点を極座標中心Oとする手法を採用するものとする。この手法によれば、例えば単に2次元的な演算によりディスク領域の重心のような代表点を求めるよりも、よりその被検眼の乳頭部の3次元形状に即した代表点を乳頭部の中心を極座標中心Oとして求めることができる。
(C) An examiner (operator) arbitrarily designates using a pointing device or the like.
Such a method can be considered. In this embodiment, since a stereo image is acquired, a method of creating a fundus depth map from the stereo image and setting the deepest point as the polar coordinate center O as shown in (b) is adopted. According to this method, for example, rather than simply obtaining a representative point such as the center of gravity of the disk area by a two-dimensional calculation, a representative point that more closely matches the three-dimensional shape of the nipple of the subject's eye is set to the center of the nipple It can be obtained as the polar coordinate center O.
なお、極座標中心Oを重心演算により求める場合には、ディスク領域(ディスク領域外周204の内側)の重心を求めるかわりに、カップ領域(カップ領域外周203の内側)の重心を求めて、これを極座標中心Oとしてもよい。 When the polar coordinate center O is obtained by calculating the center of gravity, instead of obtaining the center of gravity of the disk area (inside of the disk area outer periphery 204), the center of gravity of the cup area (inside of the outer periphery of the cup area 203) is obtained, and this is determined as polar coordinates. It may be the center O.
続いて、CPU102は、上記のようにして求めた極座標中心Oを中心として、仮想線分を置き、この仮想線分を回転させ、仮想線分上の各画素データを順次取得することにより、極座標中心Oを中心とする極座標系における画素データに変換する。図4(b)および図5(b)は、それぞれ右眼および左眼の画像において、仮想線分O−Aを置き、これをO−B、O−C、O−D、O−E、O−F…のように回転させ、これら仮想線分の上を通る画素データを、中心Oを中心とする極座標系を表現したテーブルメモリにマップし直すことにより、極座標系への変換を行なうことができる。
Subsequently, the
なお、図4(b)および図5(b)における仮想線分O−A、O−B、O−C、O−D、O−E、O−Fは、後述の図7の表示例におけるガイドラインの位置と一致している。 Note that virtual line segments OA, OB, OC, OD, OE, and OF in FIGS. 4B and 5B are shown in the display example of FIG. 7 described later. It is consistent with the guideline position.
具体的には、たとえば、変換前のxy座標系における画素データを格納したアドレスを極座標系を表現したテーブルメモリに格納する、といったポインタ配列(テーブル)を生成することにより、上記の極座標系へのデータ変換を行なうことができる。 Specifically, for example, by generating a pointer array (table) in which the address storing pixel data in the xy coordinate system before conversion is stored in a table memory representing the polar coordinate system, Data conversion can be performed.
なお、図4(b)および図5(b)は簡略化して短かく示してあるが実際には画素データが存在する範囲全体をカバーするだけの長さを有するものとし、また、仮想線分O−A、O−B、O−C、O−D、O−E、O−Fの回転は(たとえば画像周辺部で充分な分解能を確保できる程度の)微少角度ずつ行なうものとする。 4 (b) and 5 (b) are simplified and short, but actually have a length sufficient to cover the entire range in which pixel data exists, and virtual line segments The rotation of OA, OB, OC, OD, OE, and OF is performed by a minute angle (for example, sufficient resolution can be secured at the peripheral portion of the image).
本実施例では上記のようにして極座標変換画像データ(その画素データの内容は、変換前と同様、画素の輝度、ないし濃度データである)を図6〜図11に示すような、横軸に角度を、縦軸に動径(距離)をとった2次元直交表示座標系を用いて表示する。このような表示画像を、本実施例では便宜上極座標展開画像、という。 In this embodiment, the polar coordinate conversion image data (the content of the pixel data is the luminance or density data of the pixel as before the conversion) is plotted on the horizontal axis as shown in FIGS. The angle is displayed using a two-dimensional orthogonal display coordinate system with the radius (distance) on the vertical axis. In the present embodiment, such a display image is referred to as a polar coordinate developed image for convenience.
この極座標展開画像の表示においては、ディスプレイ107を用いて図6〜図11におけるような種々の異なる表示を行なうことができる。図6〜図11の極座標展開画像300では、横軸に角度を、縦軸に動径(距離)をとった2次元直交表示座標系を用いて上述のように極座標変換した画素データを表示している。図6〜図11では、極座標中心に近い側を図の下方にとっている。
In the display of the polar coordinate developed image, various different displays as shown in FIGS. 6 to 11 can be performed using the
図6の表示において、カップ領域外周304およびディスク領域外周303は、通常表示座標系(直交座標系:例えば図2および図3)におけるカップ領域外周204およびディスク領域外周203に相当する輪郭、符号305は、眼底血管の映像である。
In the display of FIG. 6, a cup area
図6において、カップ領域外周304およびディスク領域外周303の中間部が、緑内障の診断において重要なリムの部位に相当し、このように極座標展開画像として水平方向にリムの部位が連続するように表示することによって、元の直交座標系における表示よりも、検者はより明瞭にカップ領域外周304〜ディスク領域外周303の中間のリムの部位の寸法分布を知ることができる。
In FIG. 6, the middle part of the cup area
図6の極座標展開画像の表示は横軸に角度を、縦軸に動径(距離)をとった2次元直交表示座標系を用いて、上述のように極座標変換した画素データを表示したものである。眼底領域や、血管、乳頭部などに各々対応する画素の表示濃度(あるいは輝度)は図2〜図3に示した縦および横(xy)の距離を2軸にとった2次元直交座標系(以下、通常の2次元直交座標系という)における表示と同じであり、いわば、乳頭部を中心に判りやすく画素を展開、変形させたものといえる。 The display of the polar coordinate development image in FIG. 6 is a display of pixel data that has been subjected to polar coordinate conversion as described above, using a two-dimensional orthogonal display coordinate system in which the horizontal axis represents the angle and the vertical axis represents the moving radius (distance). is there. The display density (or luminance) of the pixels corresponding to the fundus region, blood vessels, nipples, etc. is a two-dimensional orthogonal coordinate system with the vertical and horizontal (xy) distances shown in FIGS. Hereinafter, it is the same as the display in a normal two-dimensional orthogonal coordinate system), so to speak, it can be said that the pixels are expanded and deformed in an easily understandable manner around the nipple.
この図6のような極座標展開画像の表示を、本実施例の基本表示形態(基本表示モード)とすると、さらに、図7〜図11に示すような異なる表示形態(表示モード)を用いることが考えられる。 If the display of the polar coordinate development image as shown in FIG. 6 is the basic display form (basic display mode) of the present embodiment, different display forms (display modes) as shown in FIGS. Conceivable.
図7の表示形態(表示モード)は、図6の基本表示形態で表示した眼底画像上に、図4(b)および図5(b)における仮想線分O−A、O−B、O−C、O−D、O−E、O−Fを置いた位置にガイドラインを置き、破線により表示したものである。ここでは同じA〜Fの符号を用いて各ガイドラインの外側の端部を示している(極座標中心Oは横軸上にある)。 7 is displayed on the fundus image displayed in the basic display form in FIG. 6 on the virtual line segments OA, OB, O- in FIGS. 4B and 5B. A guideline is placed at a position where C, OD, OE, and O-F are placed, and is indicated by a broken line. Here, the outer ends of each guideline are shown using the same symbols A to F (the polar coordinate center O is on the horizontal axis).
図7のような表示形態(表示モード)をとる場合には、図4(a)または図5(a)のように検者にカップ領域外周204およびディスク領域外周203を指定させた後(あるいはこれと同時に)、図4(b)または図5(b)のように仮想線分O−A、O−B、O−C、O−D、O−E、O−Fを通常の2次元直交座標系におけるガイドラインとして表示し、この図4(b)または図5(b)の表示形態で表示を行なった後、あるいは、この図4(b)または図5(b)の表示形態による表示と並べて図7の表示形態(表示モード)による表示を行なえばよい。
When the display form (display mode) as shown in FIG. 7 is adopted, after the examiner designates the cup area
図7のような表示を行なうことにより、通常の2次元直交座標系における表示部位と、極座標展開画像における表示部位との対応を非常に判り易く検者に提示することができる。 By performing the display as shown in FIG. 7, the correspondence between the display part in the normal two-dimensional orthogonal coordinate system and the display part in the polar coordinate developed image can be presented to the examiner very easily.
図8の表示形態(表示モード)は、図6の基本表示形態で表示した眼底画像上に、カップ領域404、およびリム領域403に相当する部位を強調表示したものである。このような強調表示は、図4(a)および図5(a)で説明したような他の撮影画像の部分と識別できるように異なる色やパターン表示を用いた強調表示とし、この強調表示の部位は好ましくは乳頭部や眼底血管205の画像が視認できるように半透明表示とする。なお、カップ領域外周304およびディスク領域外周303の位置は、当然ながら図4(a)、図5(a)において検者が指定したカップ領域外周204およびディスク領域外周203の位置と一致させる。
The display form (display mode) in FIG. 8 highlights parts corresponding to the
図8のように、リム領域403、あるいはさらにカップ領域404に対して強調表示を付与した表示形態(表示モード)を用いることにより、図6のような基本表示形態(基本表示モード)のように元の画素の濃度(ないし輝度)のみ用いて画像を表現するよりも、明確に検者の領域指定に対応して定まるリム領域403、あるいはさらにカップ領域404の形状を提示することができる。
As shown in FIG. 8, by using a display form (display mode) with emphasis on the
図9の表示形態(表示モード)は、図7の表示形態(表示モード)と、図8の表示形態(表示モード)との複合表示形態(複合表示モード)であって、図7で説明したガイドライン表示を行なうとともに、図8で説明したリム領域403、およびカップ領域404に対する強調表示を付与したものである。このような複合表示形態(複合表示モード)によれば、ガイドライン表示によって円周方向の位置を明確に提示することができるとともに、検者の領域指定に対応して定まるリム領域403、あるいはさらにカップ領域404の形状を明確に提示することができる。
The display form (display mode) in FIG. 9 is a composite display form (composite display mode) of the display form (display mode) in FIG. 7 and the display form (display mode) in FIG. 8, and has been described with reference to FIG. The guideline is displayed and the
なお、図8および図9において、リム領域403、およびカップ領域404に対して付与する強調表示の色は、図4(a)、図5(a)に示した外周指定の際に、対応するリム領域、およびカップ領域に対して用いた強調表示の色と一致させると、より画像領域の対応を容易に読み取ることができる。
In FIGS. 8 and 9, the highlight color to be given to the
図10の表示形態(表示モード)は、図6の基本表示形態(基本表示モード)における表示画像を変形した画像を表示するものである。 The display form (display mode) in FIG. 10 displays an image obtained by modifying the display image in the basic display form (basic display mode) in FIG.
図6の基本表示形態(基本表示モード)における表示画像における図の縦方向に沿った1画素の幅を有する1ラインを図10に示すように上下方向に平行移動することによって、検者が指定した特定の境界線がディスプレイ107上で直線として表示されるように画像を変形させることができる。画像を変形させる際にディスプレイ107上で直線として表示されるようにする部位としては、たとえば、検者が指定したカップ領域外周304またはディスク領域外周303の軌跡が考えられる。
The examiner specifies by moving one line having a width of one pixel along the vertical direction of the display image in the basic display form (basic display mode) of FIG. 6 in the vertical direction as shown in FIG. The image can be deformed so that the specific boundary line is displayed as a straight line on the
図10の例では、カップ領域外周304がディスプレイ107上で直線として表示されるように、図の縦方向に沿った1画素の幅を有する1ラインを上下方向に平行移動する変形を行なっている。このような表示画像の変形によって、カップ領域外周304を直線として表示すると、リム領域503と、カップ領域504が図示のように変形する。
In the example of FIG. 10, the cup region
そしてリム領域503と、カップ領域504が両者の境界であり、直線として表示されたカップ領域外周304を介して上下に並ぶため、検者はリム領域503や、カップ領域504の幅の変化を容易に読み取ることができる。例えば、緑内障の診断に有用なリム領域503の幅の変化(分布)は、図10のような表示によれば一種のグラフ表示として読み取ることができ、検者はひと目でリム領域503の幅の変化(分布)を認識することができる。
The
なお、図10の上部および下部の黒色の領域は、図の縦方向に沿った1画素の幅を有する1ラインを上下に平行移動することによって生じた画素データの無い部分で、図10では図示のように最も上方に平行移動した1ラインと最も下方に平行移動した1ラインを除く部分を黒色(または他の表示色)で埋めて表示している。このような表示により、いずれの縦方向の1ラインの画素情報も欠けないように表示を行なうことができる。しかし、このような画素データのない部分を表示しないよう、上下をトリミングした画像を表示してもよい。また、符号505で示したものは画像中の眼底血管である。
The black areas at the top and bottom of FIG. 10 are portions having no pixel data generated by moving one line having a width of one pixel along the vertical direction in the drawing up and down, and are shown in FIG. As shown in the figure, the portion excluding the one line translated in the uppermost direction and the one line translated in the lowermost direction is filled with black (or another display color) and displayed. By such display, it is possible to perform display so that pixel information of one vertical line is not lost. However, an image whose upper and lower sides are trimmed may be displayed so as not to display a portion without such pixel data. Also, what is indicated by
図11の表示は、ステレオ撮影データ(例えば図2、図3)から、3次元測定を行ない、眼底の各部位の深さ情報を得ることができる場合に、丁度、検者が指定したディスク領域外周(例えば図4(a)、図5(a)の203、図10の303)の軌跡の部分の深さ情報(3次元測定の基準点からの差分)を、横軸に角度をとってグラフ表示したものである。 The display in FIG. 11 shows the disc area designated by the examiner when three-dimensional measurement can be performed from stereo imaging data (for example, FIGS. 2 and 3) and depth information of each part of the fundus can be obtained. Depth information (difference from the reference point of three-dimensional measurement) of the portion of the locus of the outer periphery (for example, 203 in FIG. 4A, 203 in FIG. 5A, 303 in FIG. 10) and taking the angle on the horizontal axis. It is a graph display.
図11のようなディスク領域外周(203、303)の深さ情報のグラフ表示は、例えば、図10の表示形態(表示モード)による画像表示とともに、左右の幅を合せてディスプレイ107に表示することによって、検者により有用な情報を提示することができる。すなわち、検者はリム領域503の幅の変化(分布)を容易に把握できるとともに、そのリム領域503の端縁に相当するディスク領域外周(203、303)の高さの変化(分布)を同時に容易に読み取ることができ、3次元的、立体的にリム領域503の形状を把握することができる。
The graph information of the depth information of the outer periphery (203, 303) of the disk area as shown in FIG. 11 is displayed on the
図2〜図11に種々の撮影画像、あるいは種々の表示形態(表示モード)によるガイドライン付加、強調表示を施したり、変形させたりした画像を示したが、これらの画像表示は、ディスプレイ107で順次行なうこともでき、また、撮影画像や各種表示形態(表示モード)による表示画像は、その任意の部分、あるいは全部、などを検者の指定に応じてディスプレイ107で同時に表示(タイルウィンドウ表示や、重畳ウィンドウ表示、など任意の同時表示方式を利用できる)してもよい。
FIGS. 2 to 11 show various captured images or images in which guide lines are added, highlighted, or deformed in various display forms (display modes). These images are sequentially displayed on the
図13に、本実施例の画像処理システムにおけるより詳細な画像処理手順の流れを示す。図13では、検者の操作と画像処理装置100の画像処理の双方を示しているが、画像処理装置100の処理主体として画像処理を実施するためのCPU102のプログラムはROM103かHDD105に格納しておくものとする。なお、図12において既に説明した手順や処理については、以下では該当するステップ番号を記載するに留め、重複した説明は省略するものとする。
FIG. 13 shows a more detailed flow of the image processing procedure in the image processing system of the present embodiment. FIG. 13 shows both the operation of the examiner and the image processing of the
図13のステップS20では、図12のステップS10で説明したように、被検眼の画像データをカメラ101で撮影、取得する。なお、このとき処理対象として取得する画像データは必ずしもその都度カメラ101で撮影したものでなくてもよく、過去に撮影し、HDD105などを利用して構成されたファイリングシステムに保存されていてもよい。
In step S20 in FIG. 13, as described in step S10 in FIG. 12, image data of the eye to be examined is captured and acquired by the
ステップS21では、撮影した眼底画像を従来通りの表示フォーマットで表示する。続いてステップS22では、本発明による上述の極座標展開画像表示を行なうか否かを判定する。本発明による極座標展開画像表示を行なわない場合は、ステップS21に戻り、例えば、撮影した画像、ないしHDD105などに格納されている画像をそのまま表示する処理を従来通り行なう。
In step S21, the photographed fundus image is displayed in a conventional display format. Subsequently, in step S22, it is determined whether or not the above-described polar coordinate development image display according to the present invention is performed. When the polar coordinate development image display according to the present invention is not performed, the process returns to step S21, and, for example, the process of displaying the photographed image or the image stored in the
ステップS22で本発明による極座標展開画像表示を行なう場合には、ステップS23に進み、カップ領域およびディスク領域の外周を決定する。このとき、例えば検者がカップ外周取得手段110、およびディスク外周取得手段111を制御して、カップ領域およびディスク領域の外周の軌跡を指定する(あるいは特許文献1に記載されるような手法により画像認識処理によりカップ領域およびディスク領域の外周の軌跡を決定する)。
When the polar coordinate development image display according to the present invention is performed in step S22, the process proceeds to step S23, and the outer peripheries of the cup area and the disk area are determined. At this time, for example, the examiner controls the cup outer
ステップS24では、極座標展開処理の基準点、すなわち、極座標中心(原点)Oを決定する。ここでは、上述のように、(a)演算により2次元的にディスク領域の重心を求める、(b)ステレオ画像から眼底の深さマップを作成し、最深点を中心とする、(c)検者(オペレータ)がポインティングデバイスなどを用いて任意に指定する、などの手法を用いることができる。 In step S24, a reference point for polar coordinate development processing, that is, a polar coordinate center (origin) O is determined. Here, as described above, (a) the center of gravity of the disc area is calculated two-dimensionally by calculation, (b) a fundus depth map is created from the stereo image, and the deepest point is the center, (c) An operator (operator) can arbitrarily specify using a pointing device or the like.
ステップS25では、図6〜図11に示した表示形式(図2〜図11で説明した各種の表示形態:または表示モードの1つまたは複数の組合せ)を選択する。ここでは、表示形式の1つのみを選択できるようにしてもよいし、また、任意ないし全ての表示形式による表示をディスプレイ107で行なうような選択も許容するようにしてよい。
In step S25, the display format shown in FIGS. 6 to 11 (various display modes described in FIGS. 2 to 11 or one or a combination of display modes) is selected. Here, only one display format may be selected, or selection such that display in any or all display formats is performed on the
ステップS26では、ステップS23におけるカップ領域およびディスク領域の外周の指定、ステップS24における極座標中心Oの決定、ステップS25において選択された表示形式に基づき、極座標展開画像を生成するか否かを判定する。極座標展開画像を生成しない場合には、ステップS21に戻り、従来通りの画像表示を行なう。 In step S26, it is determined whether or not to generate a polar coordinate development image based on the designation of the outer periphery of the cup area and the disk area in step S23, the determination of the polar coordinate center O in step S24, and the display format selected in step S25. When no polar coordinate development image is generated, the process returns to step S21, and the conventional image display is performed.
極座標展開画像を生成する場合にはステップS28で極座標展開の処理内容を決定し、必要な表示制御パラメータの決定などを行ない、極座標展開画像を生成する画像処理を行なうが、図13の例ではステップS28に先立ち、
ステップS27で、極座標展開画像を生成する眼底画像が右眼のものであるか左眼のものであるかを判別する。ディスプレイ107に眼底画像を表示する場合には、左右の被検眼によって、側頭部/鼻側の位置取りをディスプレイ107の右にとるか左にとるか(左眼と右眼では展開する方向を逆にとる)を選択したほうが好ましい。
When generating a polar coordinate development image, the processing contents of polar coordinate development are determined in step S28, necessary display control parameters are determined, etc., and image processing for generating a polar coordinate development image is performed. In the example of FIG. Prior to S28,
In step S27, it is determined whether the fundus image for generating the polar coordinate developed image is that of the right eye or that of the left eye. When the fundus image is displayed on the
そこで図13の制御例では、ステップS28で極座標展開画像として表示すべき眼底画像が右眼のものであるか左眼のものであるかを判別し、その結果に応じて、極座標展開画像を表示する場合のディスプレイ107における側頭部/鼻側を左右いずれに位置取りするかを決定する。ここでHDD105などにファイリングされている眼底画像を用いる場合などにおいて、もし、眼底画像の被検眼の左右の識別情報が眼底画像と関連付けて記録されていればその情報を読み出して用いる。もし、眼底画像の被検眼の左右の識別情報が欠落していたり、読み出せない場合には検者(あるいはオペレータ)に入力を求めるようにしてもよい。
Therefore, in the control example of FIG. 13, it is determined in step S28 whether the fundus image to be displayed as the polar coordinate developed image is that of the right eye or that of the left eye, and the polar coordinate developed image is displayed according to the result. In this case, the left / right side of the
次にステップS28では、決定された極座標展開処理を行ない、ステップS29では、ディスプレイ107を制御して極座標展開した眼底画像を表示させる。ステップS29では、図2〜図11で説明した表示形態:または表示モードの1つまたは複数の組合せにより眼底画像の表示を行なう。
Next, in step S28, the determined polar coordinate development process is performed, and in step S29, the fundus image developed by polar coordinates is displayed by controlling the
例えば図13に示したような画像処理を行なうことにより、被検眼眼底の視神経乳頭部の画像を撮影し、画像表示形式を適宜選択しつつ、極座標展開画像を中心として視神経乳頭部付近の部位、たとえばカップやディスクの周縁、その中間部のリムの形状や寸法の分布を判りやすく表示することができる。 For example, by performing image processing as shown in FIG. 13, an image of the optic nerve head on the fundus of the eye to be examined is captured, and an image display format is appropriately selected, and a region near the optic nerve head around the polar coordinate developed image, For example, the peripheral edge of the cup or disk and the rim shape and size distribution in the middle can be displayed in an easily understandable manner.
また極座標展開画像と原画像をディスプレイに並列表示し、片方の画像上で位置を指定すると、もう片方の画像上で指定された位置に対応する点を示すようにすると、極座標展開画像と原画像との対応がより判り易くなる。 Also, if the polar coordinate developed image and the original image are displayed in parallel on the display and the position is specified on one image, the point corresponding to the specified position on the other image is shown, and then the polar coordinate developed image and the original image are displayed. It becomes easier to understand the correspondence.
なお、以上では、ディスプレイ107を用いて極座標展開画像を表示出力する例を示したが、ディスプレイ107で表示する画像は同様にプリンタなどの画像出力手段を用いて出力することもでき、また、ネットワーク106を介して他のコンピュータや画像処理装置に対して送信することもできる。
In the above, an example in which a polar coordinate development image is displayed and output using the
本発明は、被検眼の眼底画像を表示出力する画像処理を行なう眼底カメラや眼科測定装置、ファイリング装置などの画像処理装置において実施することができる。 The present invention can be implemented in an image processing apparatus such as a fundus camera, an ophthalmologic measurement apparatus, or a filing apparatus that performs image processing for displaying and outputting a fundus image of a subject's eye.
O 極座標中心
100 画像処理装置
101 カメラ
102 CPU
103 ROM
105 HDD
106 ネットワーク
107 ディスプレイ
110 カップ外周取得手段
111 ディスク外周取得手段
203、303 ディスク領域外周
204、304 カップ領域外周
205、305、505 眼底血管
300 極座標展開画像
304 カップ領域外周
403 リム領域
404 カップ領域
O Polar coordinate
103 ROM
105 HDD
Claims (6)
被検眼のほぼ視神経乳頭部中心に相当する画像中の基準点を中心とする極座標系における画素の極座標を求め、
この画素の極座標の動径および偏角をそれぞれ2次元直交表示座標系の2軸に写像して得られる極座標展開画像を生成して表示出力するとともに、該極座標展開画像の表示出力において、前記ディスク外周と前記カップ外周とを境界とするそれぞれの画像領域を他の部分と識別可能な表示形式で表示することを特徴とする眼底画像処理方法。 From the image data of the imaged fundus image, obtain the trajectory of the outer circumference of the disc corresponding to the optic disc and the trajectory of the outer circumference of the cup corresponding to the concave portion of the optic disc,
Find the polar coordinates of the pixel in the polar coordinate system centered on the reference point in the image corresponding to the center of the optic nerve head of the eye to be examined,
A polar coordinate developed image obtained by mapping the radius and declination of the polar coordinates of the pixel to the two axes of the two-dimensional orthogonal display coordinate system is generated and displayed, and the display of the polar coordinate developed image is performed by the disk. A fundus image processing method characterized by displaying each image area having an outer periphery and the cup outer periphery as a boundary in a display format distinguishable from other parts.
前記極座標展開処理を行なう画像処理手段と、
前記画像処理手段により生成された前記極座標展開画像を表示する表示出力手段を有することを特徴とする眼底画像処理装置。 In the fundus image processing apparatus for executing the fundus image processing method according to any one of claims 1 to 5,
Image processing means for performing the polar coordinate expansion process;
A fundus image processing apparatus comprising display output means for displaying the polar coordinate development image generated by the image processing means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008233387A JP5348982B2 (en) | 2008-09-11 | 2008-09-11 | Image processing method and image processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008233387A JP5348982B2 (en) | 2008-09-11 | 2008-09-11 | Image processing method and image processing apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010063671A true JP2010063671A (en) | 2010-03-25 |
JP5348982B2 JP5348982B2 (en) | 2013-11-20 |
Family
ID=42189800
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008233387A Expired - Fee Related JP5348982B2 (en) | 2008-09-11 | 2008-09-11 | Image processing method and image processing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5348982B2 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008073188A (en) * | 2006-09-21 | 2008-04-03 | Gifu Univ | Image analysis system and image analysis program |
US20090033868A1 (en) * | 2007-08-02 | 2009-02-05 | Topcon Medical Systems, Inc. | Characterization of the Retinal Nerve Fiber Layer |
-
2008
- 2008-09-11 JP JP2008233387A patent/JP5348982B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008073188A (en) * | 2006-09-21 | 2008-04-03 | Gifu Univ | Image analysis system and image analysis program |
US20090033868A1 (en) * | 2007-08-02 | 2009-02-05 | Topcon Medical Systems, Inc. | Characterization of the Retinal Nerve Fiber Layer |
Also Published As
Publication number | Publication date |
---|---|
JP5348982B2 (en) | 2013-11-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10383511B2 (en) | Image processing apparatus, image processing method, and program | |
US9824273B2 (en) | Image processing system, processing method, and storage medium | |
JP6146952B2 (en) | Image processing apparatus, image processing method, and program. | |
JP6188297B2 (en) | Image processing apparatus, image processing method, and program | |
JP6115007B2 (en) | Ophthalmic image processing apparatus and program | |
CN104042184B (en) | Image processing equipment, image processing system and image processing method | |
US8870377B2 (en) | Image processing apparatus, image processing apparatus control method, ophthalmologic apparatus, ophthalmologic apparatus control method, ophthalmologic system, and storage medium | |
US9149183B2 (en) | Image processing system, processing method, and storage medium | |
US10964044B2 (en) | Method of operating measurement device, measurement device, and recording medium | |
JP2012161595A (en) | Image processor and image processing method | |
JP5998493B2 (en) | Ophthalmic image processing apparatus and program | |
JP4901620B2 (en) | Fundus examination image analysis system and fundus examination image analysis program | |
JP6243957B2 (en) | Image processing apparatus, ophthalmic system, control method for image processing apparatus, and image processing program | |
JP2015104582A (en) | Optical tomographic imaging device and optical tomographic imaging program | |
JP5348982B2 (en) | Image processing method and image processing apparatus | |
JP4949007B2 (en) | Fundus image processing apparatus, fundus photographing apparatus, and program | |
JP6033478B2 (en) | Ophthalmic apparatus, layer thickness comparison method and program | |
JP5871890B2 (en) | Ophthalmic apparatus, layer thickness comparison method and program | |
JP6626485B2 (en) | Information processing apparatus, information processing method and program | |
JP6223527B2 (en) | Ophthalmic apparatus, layer thickness comparison method and program | |
JP2017153826A (en) | Ophthalmic image processing apparatus and ophthalmic image processing program | |
JP2022151874A (en) | Processing of multimodal retinal images | |
JP2020028786A (en) | Information processing device, information processing method, and program | |
JP2019191792A (en) | Object recognition apparatus, object recognition method and program | |
JPH0824242A (en) | Body shape image correcting apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110901 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121225 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130208 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130813 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130820 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5348982 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |