JP4751689B2 - Eye surface analysis system - Google Patents

Eye surface analysis system Download PDF

Info

Publication number
JP4751689B2
JP4751689B2 JP2005291701A JP2005291701A JP4751689B2 JP 4751689 B2 JP4751689 B2 JP 4751689B2 JP 2005291701 A JP2005291701 A JP 2005291701A JP 2005291701 A JP2005291701 A JP 2005291701A JP 4751689 B2 JP4751689 B2 JP 4751689B2
Authority
JP
Japan
Prior art keywords
region
image
function
vector
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005291701A
Other languages
Japanese (ja)
Other versions
JP2007068928A (en
Inventor
永 片岡
裕一 大橋
昌彦 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tomey Corp
Ehime University NUC
Original Assignee
Tomey Corp
Ehime University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tomey Corp, Ehime University NUC filed Critical Tomey Corp
Priority to JP2005291701A priority Critical patent/JP4751689B2/en
Publication of JP2007068928A publication Critical patent/JP2007068928A/en
Application granted granted Critical
Publication of JP4751689B2 publication Critical patent/JP4751689B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、眼球表面に存在する凹凸情報を取得する方法に関するものであり、特に蛍光染色された被検眼を撮影した画像データを解析処理することにより筋状の領域の状態を定量評価する眼球表面解析システムに関するものである。  The present invention relates to a method for acquiring unevenness information existing on the surface of an eyeball, and in particular, an eyeball surface that quantitatively evaluates the state of a streak region by analyzing image data obtained by photographing a fluorescently stained eye to be examined It relates to an analysis system.

眼科分野において、眼球表面の状態を観察する検査が行われている。特に、近年においては眼球表面に形成されている涙液層の挙動を観察することにより、ドライアイの診断が行なわれるようになっており、涙液層を観察することを目的とする装置が開発されている。(特許文献1〜2参照)  In the field of ophthalmology, an examination for observing the state of the surface of the eyeball is performed. In particular, in recent years, dry eye has been diagnosed by observing the behavior of the tear film formed on the surface of the eyeball, and a device for the purpose of observing the tear film has been developed. Has been. (See Patent Documents 1 and 2)

眼球表面は角膜と結膜に大別され、結膜部分では強膜上を球結膜が覆い、角膜境界で強膜と結びついて多くのしわを形成することで眼球運動を円滑にさせている。このしわは若年者では網目状の構造を示しているが、加齢と共に網目部分が分断されて異なった様相を呈してくる。蛍光染色液を用いて眼球を観察すると、この網目状のしわにそって蛍光染色濃度の高い部分が現れる。この蛍光染色濃度の高い部分は涙液がたまる部位であり、その形状・大きさ・方向を知ることは、涙液層の挙動によって症状を呈するドライアイなどの病変に対する情報を得るのに有用である。  The surface of the eyeball is roughly divided into a cornea and a conjunctiva. In the conjunctiva portion, the conjunctiva is covered with the bulbar conjunctiva, and is associated with the sclera at the corneal boundary to form many wrinkles, thereby smoothing the eye movement. This wrinkle shows a mesh-like structure in young people, but the mesh portion is divided with aging and appears different. When the eyeball is observed using the fluorescent staining solution, a portion having a high fluorescent staining density appears along the mesh-like wrinkles. This high fluorescent staining area is the site where tears accumulate, and knowing its shape, size, and direction is useful for obtaining information on lesions such as dry eye that present symptoms depending on the behavior of the tear film. is there.

特許文献1に記載の眼科装置は、投光光学系と受光光学系により構成され、被検眼を観察するための細隙灯顕微鏡とCCDカメラ等を備え、蛍光染色液を点眼した被検眼の角膜表面をCCDカメラで撮影する。そして、撮影された蛍光染色液の濃度から涙液層の厚みを解析する。しかし、該発明は涙液からの蛍光強度を種々の測定条件で定量的に測定するのみで、角膜の表面状態を定量的に解析するものではない。  The ophthalmologic apparatus described in Patent Document 1 is composed of a light projecting optical system and a light receiving optical system, and includes a slit lamp microscope and a CCD camera for observing the eye to be examined, and a cornea of the eye to be examined instilled with a fluorescent staining solution. Photograph the surface with a CCD camera. Then, the thickness of the tear film is analyzed from the concentration of the photographed fluorescent staining solution. However, this invention only measures the fluorescence intensity from tear fluid quantitatively under various measurement conditions, and does not quantitatively analyze the surface state of the cornea.

特許文献2に記載の眼科装置は、被検眼の涙液最表層(脂質層)の所定点に光が投影され、脂質層の表面と裏面で反射された反射光の干渉模様がCCDカメラによって撮影される。CCDカメラで撮影された画像はモニタに表示され、検者はモニタに表示される画像から脂質層の状態や様子を観察して簡易的に診断を行う。この眼科装置では、CCDカメラによって観察された画像と指標となる参照画像とを見比べることで、被検眼の涙液層の状態を検者が主観的に決定するものである。従って、検者により評価基準が統一されず、普遍的な診断は期待できない。  In the ophthalmologic apparatus described in Patent Document 2, light is projected onto a predetermined point on the outermost tear layer (lipid layer) of the subject's eye, and an interference pattern of reflected light reflected on the front and back surfaces of the lipid layer is photographed with a CCD camera. Is done. An image photographed by the CCD camera is displayed on a monitor, and the examiner simply makes a diagnosis by observing the state and state of the lipid layer from the image displayed on the monitor. In this ophthalmologic apparatus, the examiner subjectively determines the state of the tear film of the eye to be examined by comparing the image observed by the CCD camera with a reference image serving as an index. Therefore, the evaluation criteria are not unified by the examiner, and universal diagnosis cannot be expected.

また、いずれの装置も主たる観察部位は角膜であり、結膜のしわを特定して定量解析するものではない。  Moreover, the main observation site | part of any apparatus is a cornea, It does not carry out the quantitative analysis by specifying the wrinkle of a conjunctiva.

一方、美容分野においては、皮膚に係る評価の主要素としてしわ解析を行なっている(例えば特許文献3〜6)。  On the other hand, in the beauty field, wrinkle analysis is performed as a main element of evaluation relating to skin (for example, Patent Documents 3 to 6).

特許文献3に記載の装置では、注視領域を撮影して照明による皮膚のしわが形成する陰影による輝度ヒストグラムを中心に解析するものであるが、皮膚のしわそのものを識別して個別に抽出を行うわけではない。  In the apparatus described in Patent Document 3, a gaze area is photographed and analyzed centering on a luminance histogram due to a shadow formed by lighting skin wrinkles, but the skin wrinkles themselves are identified and extracted individually. Do not mean.

特許文献4および5に記載の装置では、皮膚のしわだけでなく皮膚のキメといった皮膚固有の特徴的な要素を評価するために、照明系と皮膚のしわとの位置関係に係る要素を強調する明暗強調撮像装置を用いて、皮膚の荒さ度合いを定量評価するものである。これらの手法は、その計測手法を見ても明らかなように、皮膚に特化された手法である。  In the devices described in Patent Documents 4 and 5, in order to evaluate not only skin wrinkles but also skin-specific characteristic elements such as skin texture, the elements related to the positional relationship between the illumination system and the skin wrinkles are emphasized. The degree of skin roughness is quantitatively evaluated using a light / dark enhancement imaging apparatus. These techniques are specialized for the skin, as is apparent from the measurement technique.

特許文献6に記載の装置では、注視領域に対してフーリエ変換を用いたフィルタ処理をすることで、皮膚のしわの持つ周波数成分を利用して、その特徴毎に分離するものであり、注視領域が持つしわを特定してその方向成分を抽出するものではない。
特開平6−277179公報 特開平7−136120公報 特開平2− 46833公報 特開平6−189942公報 特開平7−231883公報 特開平7−116146公報
In the device described in Patent Literature 6, the frequency component of skin wrinkles is separated by performing filtering using Fourier transform on the gaze region, and the gaze region is separated. It does not identify the wrinkle of the and extract its direction component.
JP-A-6-277179 JP 7-136120 A Japanese Patent Laid-Open No. 2-46833 Japanese Patent Laid-Open No. 6-189842 Japanese Patent Application Laid-Open No. 7-231883 JP-A-7-116146

本発明は上述した実情に鑑みてなされたものであり、その目的とするところは、蛍光物質により染色された眼球上の任意の注視領域を撮影して取得されたデジタル画像を利用し、その注視領域内のしわに代表される筋状の領域を特定・抽出して、筋状の領域の大きさと方向を定量的に解析して表示することを可能にする眼球表面解析システムを提供することにある。  The present invention has been made in view of the above-described circumstances, and an object of the present invention is to use a digital image obtained by photographing an arbitrary gaze area on an eyeball stained with a fluorescent substance, and gaze at the gaze area. To provide an eyeball surface analysis system capable of identifying and extracting a streak region represented by wrinkles in a region and quantitatively analyzing and displaying the size and direction of the streak region is there.

上記課題を解決するため、本発明に係る眼球表面解析システムは、標識蛍光物質を含む溶液により染色された被検眼の前眼部の表面状態を解析するシステムであって、蛍光染色された前眼部像のデジタル画像を取得する機能と、取得された画像データに含まれる外乱情報を除去する機能と画像データが有する画素毎の濃淡情報に基づいて筋状の領域を特定する機能と、画像データを所定範囲に分割する機能と、各分割領域において蛍光強度に応じた濃淡画像に基づいて蛍光濃度重心を算出する機能と、該分割領域毎の濃度重心と特定された筋状の領域の位置情報に基づいて分割領域を抽出する機能と、抽出された領域毎に筋状の領域に係るベクトルを生成する機能と、前記生成された筋状の領域に係るベクトルの解析を行なう機能と、前記濃度重心及び/または生成された筋状の領域に係るベクトルの解析結果を出力する機能を有することを特徴とする。  In order to solve the above problems, an eyeball surface analysis system according to the present invention is a system for analyzing the surface state of the anterior ocular segment of a subject's eye stained with a solution containing a labeled fluorescent substance, and the fluorescently stained anterior eye A function of acquiring a digital image of a partial image, a function of removing disturbance information included in the acquired image data, a function of specifying a streak area based on grayscale information for each pixel included in the image data, and image data A function for dividing the image into predetermined ranges, a function for calculating the fluorescence density centroid based on the grayscale image corresponding to the fluorescence intensity in each divided area, and the position information of the streak area identified as the density centroid for each divided area A function for extracting a segmented area based on the function, a function for generating a vector related to a streak area for each extracted area, a function for analyzing a vector related to the generated streaky area, And having a function of outputting the analysis result of the vector according to the center of gravity and / or generated streak regions.

上述のように、本発明に係る眼球表面解析システムは、蛍光染色された被検眼前眼部のデジタル化された画像を利用することにより眼球表面の筋状の領域を抽出して、各種の定量解析・統計処理が可能な数値を演算し、得られた結果を表示する機能を有するため、同一被検者に対する経年変化、薬剤投与前後・手術前後の計測による定量的な比較、或いは被検者間の違いにおける定量的な比較が可能となる。  As described above, the eyeball surface analysis system according to the present invention extracts a streak region on the surface of the eyeball by using a digitized image of the anterior segment of the eye to be examined that has been fluorescently stained, and performs various quantifications. Since it has a function to calculate numerical values that can be analyzed and statistically processed and to display the results, it is possible to perform secular changes for the same subject, quantitative comparison by measurement before and after drug administration, and before and after surgery, or subject A quantitative comparison of the differences between them is possible.

以下図面を参照して、本発明に係る実施の形態を説明する。本実施例では、筋状の領域として、眼球結膜に形成されるしわを対象とした抽出・解析している。  Embodiments according to the present invention will be described below with reference to the drawings. In this embodiment, extraction / analysis is performed on wrinkles formed in the eyeball conjunctiva as a streak-like region.

図1は本発明における基本処理フロー、図2は本発明に係るシステムを組み込んだ第1の実施例である前眼部観察光学系を有する装置、図3は図2の装置に組み込まれている前眼部観察光学系の基本構成、図4は本実施例におけるシステム構成を示したものである。  FIG. 1 is a basic processing flow in the present invention, FIG. 2 is a first embodiment incorporating an anterior ocular segment observation optical system incorporating a system according to the present invention, and FIG. 3 is incorporated in the apparatus of FIG. FIG. 4 shows the basic configuration of the anterior ocular segment observation optical system, and FIG. 4 shows the system configuration in this embodiment.

図3の前眼部観察光学系30は、照明光源31a、31bから前眼部観察用の光束を蛍光染色物質により染色された被検眼Cに照射して、その被検眼Cにより反射された光束を拡大用レンズ32、ハーフミラー33、集束用レンズ36を通して撮像素子37に導くように構成されている。そして、光学系が被検眼Cに対して適切な位置に合わせるための位置決め或いは被検眼Cを光学系の光軸方向へ固視させるために用いられる光束を照射する光源35及びレンズ34が配置されている。ここで、照明光源31a、31bの波長は、蛍光染色物質の発光に適したものであることが望ましい。  The anterior ocular segment observation optical system 30 in FIG. 3 irradiates the eye C to be examined stained with a fluorescent staining material from the illumination light sources 31a and 31b and reflects the luminous flux reflected by the eye C to be examined. Is guided to the image sensor 37 through the magnifying lens 32, the half mirror 33, and the focusing lens 36. A light source 35 and a lens 34 for irradiating a light beam used for positioning the optical system at an appropriate position with respect to the eye C or fixing the eye C in the optical axis direction of the optical system are disposed. ing. Here, it is desirable that the wavelengths of the illumination light sources 31a and 31b are suitable for light emission of the fluorescent staining material.

図2の装置20はベース部23と前後左右方向に摺動可能な機構を有する可動部24及びジョイスティック26を回転させることにより可動部24に対してヘッド部21を上下方向に移動可能な機構を有し、ベース部に対してヘッド部21が3次元的に移動可能な構成になっている。図3の前眼部観察光学系30は、ヘッド部21の内部に収納されている。撮像素子37から出力される生画像信号は、装置20の内部に収納されている図示しない信号処理装置を介して表示装置22に出力される。被検者がアゴ受台25に顔を当接した後、検査者は表示装置22に出力されている前眼部画像を確認しながらジョイスティック26を操作してヘッド部21が被検者に対して適切な位置になるように位置合わせを実施する。位置合わせ完了後、押しボタン28を押すことにより装置20の内部に収納されている図示しない画像記憶装置にデジタル化された画像が取得される。  The apparatus 20 shown in FIG. 2 has a mechanism that can move the head unit 21 in the vertical direction with respect to the movable unit 24 by rotating the movable unit 24 and the joystick 26 having a mechanism that can slide in the front-rear and left-right directions. And the head portion 21 can be moved three-dimensionally with respect to the base portion. The anterior ocular segment observation optical system 30 in FIG. 3 is housed inside the head unit 21. The raw image signal output from the image sensor 37 is output to the display device 22 via a signal processing device (not shown) housed in the device 20. After the subject comes into contact with the jaw cradle 25, the examiner operates the joystick 26 while confirming the anterior eye portion image output to the display device 22, and the head portion 21 moves toward the subject. Align it so that it is in the proper position. After the alignment is completed, by pressing the push button 28, a digitized image is acquired in an image storage device (not shown) housed in the device 20.

以下に前眼部画像の取得から表示までの流れを図1、図4に基づいて説明する。図4に示される撮像素子37は前述の図3の37に該当し、常時画像信号を取り込んでいる。制御装置41は押しボタン28が押されたか否かを監視しており、押しボタン28が押されていない場合は点線により示される流れに従って画像処理装置44を介して表示装置22に生画像を出力する。  The flow from the acquisition of the anterior segment image to the display will be described below with reference to FIGS. The image sensor 37 shown in FIG. 4 corresponds to 37 in FIG. 3 described above, and always captures an image signal. The control device 41 monitors whether or not the push button 28 has been pressed. When the push button 28 has not been pressed, a raw image is output to the display device 22 via the image processing device 44 according to the flow indicated by the dotted line. To do.

押しボタン28が押された場合、制御装置41は画像信号を実線により示される流れに従って、A/D変換器42により画像信号をデジタル化した後フレームメモリ43に画像データとして記憶する。この後、記憶された画像データ信号は画像処理装置44に転送される。この押しボタン28が押されてからフレームメモリ43を介して画像処理手段44転送されるまでの処理が図1のステップ1に示される前眼部デジタル画像データ取得の段階に該当する。図5は転送された画像データをそのまま表示した例であり、画像の大きさは縦480画素、横640画素である。  When the push button 28 is pressed, the control device 41 digitizes the image signal by the A / D converter 42 and stores it as image data in the frame memory 43 according to the flow indicated by the solid line. Thereafter, the stored image data signal is transferred to the image processing device 44. The process from when the push button 28 is pressed until it is transferred to the image processing means 44 via the frame memory 43 corresponds to the anterior segment digital image data acquisition step shown in step 1 of FIG. FIG. 5 shows an example in which the transferred image data is displayed as it is. The size of the image is 480 pixels vertically and 640 pixels horizontally.

続いて、図1のステップ2に示される外乱に起因する背景ムラ除去の段階に進む。ここで述べている外乱は、蛍光灯に代表される室内用照明、あるいは装置等により反射されて間接的に前眼部に投射される照明光源31a、31bからの光束に起因する前眼部上に局所的に照射される光を指す。先に示した図5の画像は蛍光染色された眼球の主として結膜部分を撮影したものであり、この画像から結膜上のしわが蛍光染料で満たされ、筋状の模様として見えている。この画像上部の円弧状の暗い領域は角膜である。しかし、角膜領域以外においても、画像の中心付近は比較的明るく、画像の両端に近い部分は暗くなっており、周辺の暗い部分においてもしわが認められる。この明るさの差は前述の外乱に起因する背景ムラである。図4に示される撮像素子37を構成する各画素は、涙液中に含まれる蛍光物質の濃度に対応する輝度情報と共に、前述の背景ムラに起因する輝度情報も取得する。背景ムラに係る輝度情報は、この後に実施するしわ領域の抽出に際して誤った抽出を行なう可能性があるため、除去する方が好ましい。  Subsequently, the process proceeds to the stage of removing background unevenness due to the disturbance shown in Step 2 of FIG. The disturbance described here is on the anterior ocular segment caused by the light from the illumination light sources 31a and 31b reflected by the room illumination represented by fluorescent lamps or indirectly by the apparatus or the like and projected onto the anterior ocular segment. Refers to the light that is locally irradiated. The above-mentioned image of FIG. 5 is an image of mainly the conjunctiva portion of the fluorescently stained eyeball. From this image, the wrinkles on the conjunctiva are filled with the fluorescent dye and appear as a streak pattern. The arcuate dark area at the top of the image is the cornea. However, even outside the cornea region, the vicinity of the center of the image is relatively bright, the portions near both ends of the image are dark, and wrinkles are also observed in the surrounding dark portions. This difference in brightness is background unevenness caused by the above-described disturbance. Each pixel constituting the image sensor 37 shown in FIG. 4 acquires luminance information caused by the background unevenness as well as luminance information corresponding to the concentration of the fluorescent substance contained in the tear fluid. Luminance information related to background unevenness may be erroneously extracted when a wrinkle region is subsequently extracted. Therefore, it is preferable to remove the luminance information.

まず、しわ領域はある均一な背景上に重畳しているという考えに基づいて、背景蛍光染色濃度情報を除去する。この除去処理には、しわ領域や血管の大きさに比べて広い領域における画像輝度情報の平均値、つまり画像全ての画素について各画素を中心として設定した選択領域の平均蛍光染色濃度を求める。図6は選択領域の形状を示す例である。図6(A)は基準画素を中心とするN×N画素の正方領域としたものである。この場合、基準画素における平均蛍光染色濃度は(N×N)個の画素が有する輝度の和を(N×N)で除した値である。図6(B)は直径N画素の円領域を指定した例である。この場合においても、平均蛍光染色濃度は選択領域に含まれる画素の輝度の和を画素数で除することで求められる。求められた各画素の背景平均蛍光染色濃度情報を元の画像データの濃度情報から差分することにより元の画像データに含まれる背景ムラが除去され、画像全体の明るさが均一化される。平均蛍光染色濃度を求める選択領域の形状及び大きさは、背景ムラの除去処理に要する時間と処理後の画像に残されるしわ本来の情報の度合いに影響する。例えば領域を大きくした場合、しわに基づく情報を損なうことなく均一化された画像を取得できるが、処理に時間を要する。逆に領域を小さくした場合、処理時間は短縮できるが、しわに起因する輝度情報に対する影響が大きくなり、この後の抽出処理の際に誤差が大きくなる。さらに、観察倍率により画像上に形成されるしわ領域の大きさが変化するため、選択領域の形状及び大きさは処理精度、処理速度、観察倍率とを考慮して設定する必要がある。  First, the background fluorescent staining density information is removed based on the idea that the wrinkle region is superimposed on a uniform background. In this removal process, the average value of the image luminance information in a wide area compared to the size of the wrinkle area or blood vessel, that is, the average fluorescent staining density of the selected area set around each pixel for all pixels of the image is obtained. FIG. 6 shows an example of the shape of the selected area. FIG. 6A shows a square region of N × N pixels centered on the reference pixel. In this case, the average fluorescent staining density in the reference pixel is a value obtained by dividing the sum of the luminance of (N × N) pixels by (N × N). FIG. 6B shows an example in which a circular area having a diameter of N pixels is designated. Even in this case, the average fluorescent staining density can be obtained by dividing the sum of the luminances of the pixels included in the selected region by the number of pixels. By subtracting the obtained background average fluorescent staining density information of each pixel from the density information of the original image data, background unevenness included in the original image data is removed, and the brightness of the entire image is made uniform. The shape and size of the selected area for obtaining the average fluorescent staining density affects the time required for the background unevenness removal process and the degree of wrinkle original information left in the processed image. For example, when the area is enlarged, a uniform image can be acquired without damaging the information based on wrinkles, but processing takes time. Conversely, if the area is reduced, the processing time can be shortened, but the influence on the luminance information due to wrinkles increases, and the error increases during the subsequent extraction processing. Furthermore, since the size of the wrinkle region formed on the image changes depending on the observation magnification, the shape and size of the selected region must be set in consideration of processing accuracy, processing speed, and observation magnification.

続いて、図1のステップ3に示される画素毎の蛍光濃度変化値算出を行なう。眼球表面のしわ領域に代表される凹部には多くの涙液が存在するため蛍光染色濃度は高くなり、凹部と比較して涙液があまり存在しないその他の領域では蛍光染色濃度は低くなることから、隣接する領域に対して濃度変化が大きい画素位置に凹凸形状の境界が存在すると推測される。この考えに基づいて、外乱に起因する背景ムラが除去された画像を構成する全ての画素を対象として縦及び横方向に微分を行ない、得られた微分値の2乗和の平方根を対象画素における蛍光染色濃度の変化値とする。そして、画像を構成している全ての画素について近傍画素との蛍光染色濃度の変化値を比較し、変化値の大きい画素をしわ領域の境界の候補とする。ここで位置精度を向上させるためには近傍画素の設定を隣接する画素にすることが望ましいが、この場合比較する変化値同士の差が小さくなり、変化値が同じである画素が集中して存在する領域において判定を誤る可能性が高くなる。逆に比較する画素の設定を離し過ぎた場合は、しわ領域の認識精度の低下を招く。そのため、比較に使用する画素は近傍2画素離れた位置に存在する画素が好ましい。図9は近傍2画素離れた画素を示した例である。図9(A)は1次元、(B)は2次元的な場合を示した例である。  Subsequently, the fluorescence density change value calculation for each pixel shown in step 3 of FIG. 1 is performed. Since there are many tears in the depressions represented by the wrinkle area on the surface of the eyeball, the fluorescence staining concentration is high, and in other areas where there is not much tear fluid, the fluorescence staining concentration is low compared to the depressions. Therefore, it is estimated that there is a concavo-convex shape boundary at a pixel position where the density change is large with respect to the adjacent region. Based on this idea, differentiation is performed in the vertical and horizontal directions for all the pixels constituting the image from which the background unevenness due to the disturbance is removed, and the square root of the square sum of the obtained differential values in the target pixel. Change value of fluorescent staining concentration. Then, the change values of the fluorescent staining density with the neighboring pixels are compared for all the pixels constituting the image, and the pixel having the large change value is set as a candidate for the boundary of the wrinkle region. Here, in order to improve the position accuracy, it is desirable to set the neighboring pixels to adjacent pixels. In this case, however, the difference between the change values to be compared is reduced, and pixels having the same change value are concentrated. There is a high possibility of erroneous determination in the area to be performed. On the other hand, if the setting of the pixel to be compared is set too far, the recognition accuracy of the wrinkle region is lowered. For this reason, the pixels used for comparison are preferably pixels that are located two pixels away from each other. FIG. 9 shows an example of pixels that are two pixels apart. FIG. 9A is an example showing a one-dimensional case and FIG. 9B is a two-dimensional case.

次に、図1のステップ4に示される筋状の領域の抽出を行なう。前述の手順により抽出されたしわ領域の境界候補の画素群から得られる蛍光染色濃度の変化値の平均を閾値として、その閾値よりも蛍光染色濃度の高い画素をしわ領域に存在する画素として抽出する。  Next, the streak area shown in step 4 of FIG. 1 is extracted. The average of the change value of the fluorescent staining density obtained from the pixel group of the boundary candidate of the wrinkle region extracted by the above procedure is used as a threshold value, and a pixel having a fluorescent staining density higher than the threshold value is extracted as a pixel existing in the wrinkle region. .

抽出されたしわ領域は、太さ・方向がまちまちである。また、先に示した図5の画像では蛍光染色によって明るい部分として認知されるしわに対して、下方より上方に向かう暗い樹状成分として認知される蛍光染色されない血管の重畳が認められる。このように血管の侵入等によってしわの一部が見かけ上分断される場合がある。したがって、前述のステップを経てしわ領域として抽出された画素の中で隣接して存在する画素群をそのまま一つのしわとして扱うと、血管等の分断要因による影響を受けることになるため、本来のしわの形態解析の際に障害となる血管等に係る情報についても前述の外乱に起因する背景ムラと同様に除去する方が好ましい。  The extracted wrinkle region varies in thickness and direction. In addition, in the image shown in FIG. 5 described above, superimposition of blood vessels that are not fluorescently stained and recognized as dark dendritic components directed upward from below is recognized on wrinkles that are recognized as bright portions by fluorescent staining. Thus, a part of the wrinkle may be apparently divided due to the invasion of the blood vessel or the like. Therefore, if a pixel group adjacent to the pixels extracted as a wrinkle region through the above-described steps is treated as one wrinkle as it is, it will be affected by a division factor such as a blood vessel. It is preferable to remove the information related to the blood vessel or the like which becomes an obstacle during the morphological analysis as well as the background unevenness caused by the above-described disturbance.

そのため、しわ形態の解析の際に障害となる情報の除去処理及び以降の解析処理の効率化を目的として、図1のステップ5に示される抽出画像の所定形状領域への分割を行なう。領域分割を行なう所定形状として前述の図6に示したものが利用可能である。図6(A)に示されるN×N画素で構成される正方領域を採用する場合、1辺の画素Nを画像全体の縦・横両画素の公約数にすることで、分割領域を重複させることなく画像全体に対する解析を行なえるため、以降の処理時間を短縮できる。ただし、公約数に必ずしも制限されるものではない。図6(B)に示される直径N画素の円領域を採用する場合、画像全体に対する解析を行なうには一部領域を重複させることが必要となるが、斜め方向についても領域毎の基準画素に対してほぼ同一な距離範囲に位置する画素のみ選択されるため、画素の直交配列に依存する正方領域と比較してより自然な領域が設定可能である。前述の画素Nは、撮像倍率に依存する画像上に形成された一般的な大きさのしわ領域の幅寸法が収まるように設定することが好ましい。さらに、撮像倍率情報、画像の大きさ、しわ領域の幅寸法等の条件を入力あるいは取得する手段を設けることで最適な画素Nを算出及び設定を可能にすることが望ましい。  For this reason, the extracted image is divided into predetermined shape regions shown in step 5 of FIG. 1 for the purpose of removing information that becomes an obstacle in analyzing the wrinkle shape and improving the efficiency of the subsequent analysis processing. As the predetermined shape for performing the region division, the shape shown in FIG. 6 can be used. When the square area composed of N × N pixels shown in FIG. 6A is adopted, the divided areas are overlapped by making the pixel N on one side the common divisor of both the vertical and horizontal pixels of the entire image. Therefore, the subsequent processing time can be shortened because the entire image can be analyzed. However, it is not necessarily limited to the common divisor. When a circular area having a diameter of N pixels shown in FIG. 6B is employed, it is necessary to overlap some areas in order to analyze the entire image. On the other hand, since only pixels located within the substantially same distance range are selected, a more natural region can be set as compared with a square region that depends on an orthogonal arrangement of pixels. The above-mentioned pixel N is preferably set so that the width dimension of a wrinkle region having a general size formed on an image depending on the imaging magnification is accommodated. Furthermore, it is desirable to be able to calculate and set the optimum pixel N by providing means for inputting or acquiring conditions such as imaging magnification information, image size, and width size of the wrinkle region.

続いて、図1のステップ6に示される分割領域毎の蛍光染色濃度重心算出を行なう。ここで、蛍光染色濃度重心は分割領域内に含まれる画素の蛍光染色濃度値と領域内の画素の位置情報から求められる。  Subsequently, the fluorescence staining density centroid is calculated for each divided region shown in Step 6 of FIG. Here, the fluorescence staining density centroid is obtained from the fluorescence staining density value of the pixels included in the divided area and the position information of the pixels in the area.

次に、図1のステップ7に示される筋状の領域を含む分割領域の抽出を行なう。前述のステップ6を経て分割領域毎の濃度重心として求められた画素が、前述のステップ4でしわ領域として抽出した画素群に含まれる分割領域のみをこの後の解析において有用な領域として抽出する。図7は分割領域におけるしわ領域の画素と濃度重心の画素の関係を示した例である。図7(A)及び(B)は分割領域内の濃度重心画素がしわ領域に存在する状態、(C)、(D)及び(E)は濃度重心画素がしわ領域に存在しない場合を示した例である。図7(C)は濃度重心画素が2本のしわ領域の間に存在する場合、(D)は2方向へ分岐する連結点が存在する場合であり、このような単一直線でしわ領域を近似することが困難な分割領域については、以降で行なうベクトル情報算出を行なっても正しい情報を得られないため、解析対象領域から除外する。図7(E)に示されるしわ領域が単一直線で近似可能で前述の抽出条件から外れる分割領域については、該当する領域数が少なく、除外することによる以降の解析結果に与える影響はほとんど無いという前提に基づいて、抽出条件の複雑化を避ける為に(C)、(D)と同様に除外対象とする。図8は分割領域の形状として図6(A)に示される正方領域の1辺を20画素に設定して、しわ領域を含む分割領域を抽出した結果を示したものである。図8において、濃度重心画素がしわ領域に存在しないとして解析対象から除外された分割領域は分割枠が非表示になっている。  Next, a segmented region including a streak region shown in step 7 of FIG. 1 is extracted. Only the divided area included in the pixel group extracted as the wrinkle area in the above-described step 4 is extracted as a useful area in the subsequent analysis. FIG. 7 is an example showing the relationship between the pixels in the wrinkle region and the pixels in the density centroid in the divided region. FIGS. 7A and 7B show a state in which the density centroid pixel in the divided area exists in the wrinkle area, and FIGS. 7C and 7E show a case in which the density centroid pixel does not exist in the wrinkle area. It is an example. FIG. 7C shows a case where a density barycentric pixel exists between two wrinkle regions, and FIG. 7D shows a case where there is a connecting point that branches in two directions. Such a straight line approximates the wrinkle region. The divided areas that are difficult to do are excluded from the analysis target area because correct information cannot be obtained even if vector information calculation is performed thereafter. 7E, the wrinkle region shown in FIG. 7E can be approximated by a single straight line, and there are few applicable regions for the divided regions that deviate from the above-described extraction conditions, and the exclusion has almost no effect on the subsequent analysis results. Based on the premise, in order to avoid complicating the extraction conditions, it is excluded as in (C) and (D). FIG. 8 shows a result of extracting a divided area including a wrinkle area by setting one side of the square area shown in FIG. 6A as 20 pixels as the shape of the divided area. In FIG. 8, the divided frame is not displayed in the divided area excluded from the analysis target because the density barycentric pixel does not exist in the wrinkled area.

そして、図1のステップ8に示される抽出領域の筋状の領域のベクトル情報算出を行なう。ここでは前述のステップ7を経て抽出された分割領域毎にしわ領域のベクトル化を行なう。ここで述べるベクトル化とは、分割領域内におけるしわ領域の方向(角度)及び大きさ(長さ)を求めることである。図1のステップ6で求めた蛍光染色重心画素を中心とする回転線分をある一定角度毎に回転させて、分割領域内のしわ領域に対する蛍光染色濃度値を加味した最小自乗誤差が最小となる角度をしわ領域ベクトルの方向とする。回転線分の長さは、N×N画素の正方領域の場合はその最大内接円の直径であり、直径N画素の円領域で分割した場合はその直径である、N画素とする。そして、線分を回転させる角度は、求める精度及び処理速度に影響するため、精度あるいは高速処理の優先度を考慮して設定することが好ましい。図10は分割領域におけるしわ領域のベクトル角度を算出する考え方を示すものである。また、分割領域におけるしわ領域の長さをそのベクトルの大きさとする。この場合、分割領域内の中心からずれた重心を持つしわ領域に対しては、境界に近いために短い線分として扱われる。図11は取得された分割領域毎のしわ領域ベクトルの長さ及び角度を図形表示した例である。  Then, vector information of the streak-like region of the extraction region shown in step 8 of FIG. 1 is calculated. Here, the wrinkle area is vectorized for each of the divided areas extracted through step 7 described above. The vectorization described here is to obtain the direction (angle) and size (length) of the wrinkle region in the divided region. The least square error considering the fluorescence staining density value for the wrinkle region in the divided region is minimized by rotating the rotation line segment centered on the fluorescence staining barycentric pixel obtained in step 6 in FIG. 1 at a certain angle. Let the angle be the direction of the wrinkle region vector. The length of the rotation line segment is N pixels, which is the diameter of the maximum inscribed circle in the case of a square area of N × N pixels, and is the diameter of a circle area having a diameter of N pixels. The angle at which the line segment is rotated affects the accuracy and processing speed to be obtained, and therefore it is preferable to set the angle in consideration of the accuracy or the priority of high-speed processing. FIG. 10 shows the concept of calculating the vector angle of the wrinkle region in the divided region. In addition, the length of the wrinkle region in the divided region is the size of the vector. In this case, the wrinkle region having the center of gravity deviated from the center in the divided region is treated as a short line segment because it is close to the boundary. FIG. 11 shows an example in which the length and angle of the obtained wrinkle area vector for each divided area are displayed in a graphic form.

さらに図11においては、分割領域内の平均蛍光染色濃度値に基づいた分割領域に占めるしわ領域の比率(面積)のグレイレベルによる表示、図1のステップ6の段階で算出済の分割領域内のしわ領域重心位置の点表示が成されている。以上で、しわ領域に係る画像処理が終了し、処理により取得された情報は、図4の45に示される演算手段に転送される。  Further, in FIG. 11, the ratio (area) of the wrinkle area in the divided area based on the average fluorescent staining density value in the divided area is displayed in gray level, and the calculated area in the step 6 in FIG. A point display of the wrinkle region centroid position is made. Thus, the image processing relating to the wrinkle region is completed, and the information acquired by the processing is transferred to the calculation means indicated by 45 in FIG.

ここから、図1のステップ9に示される濃度重心/ベクトル情報算出データ解析を行なう。図4の45に示される演算装置は、前述の図1のステップ8を経て取得された分割領域毎のしわ領域の特性を代表する平均蛍光染色濃度、ベクトル方向(角度)、ベクトルの大きさ(長さ)について抽出分割領域全数に対する分布を解析する。その結果は図4の22に示される表示装置に転送される。  From here, the density centroid / vector information calculation data analysis shown in step 9 of FIG. 1 is performed. The arithmetic unit shown by 45 in FIG. 4 has an average fluorescent staining density, a vector direction (angle), and a vector size (representing the characteristics of the wrinkle region for each divided region obtained through step 8 in FIG. The distribution of the total number of extracted divided areas is analyzed for (length). The result is transferred to the display device 22 shown in FIG.

最後に、図1のステップ10に示される解析結果出力を行なう。図4の22に示される表示装置は、前述の図1のステップ9を経て転送された解析結果を表示する。図12は解析結果の表示例を示すものである。”ブロック内平均濃度”は、分割領域毎に求められた平均蛍光染色濃度の分布を表示したものであり、分割領域に対するしわ領域の面積比の分布状態が把握できる。”識別領域平均濃度”は分割領域毎のしわ領域についての平均蛍光染色濃度の分布を表示したものであり、しわ領域の深さの分布状態が把握できる。”傾き”は、分割領域毎に求められたしわ領域の傾斜(角度)の分布を表示したものであり、0°(水平)方向に伸びるしわ領域が多く存在していることが把握できる。”直線度”は、分割領域の1辺又は直径に対するしわ領域の長さの比率であり、しわ領域の長さの分布を表示したものであり、比較的長い(連続した)しわ領域が多く存在していることが把握できる。  Finally, the analysis result output shown in step 10 of FIG. 1 is performed. The display device indicated by 22 in FIG. 4 displays the analysis result transferred through step 9 in FIG. FIG. 12 shows a display example of the analysis result. The “average density in block” displays the distribution of the average fluorescent staining density obtained for each divided region, and the distribution state of the area ratio of the wrinkle region to the divided region can be grasped. The “identification area average density” displays the distribution of the average fluorescent staining density for the wrinkled area in each divided area, and the depth distribution state of the wrinkled area can be grasped. “Inclination” indicates the distribution of the inclination (angle) of the wrinkle area obtained for each divided area, and it can be understood that there are many wrinkle areas extending in the 0 ° (horizontal) direction. “Linearity” is the ratio of the length of the wrinkled area to one side or diameter of the divided area, and indicates the distribution of the length of the wrinkled area. There are many relatively long (continuous) wrinkled areas. You can see what you are doing.

しわ領域の面積、深さ、傾斜、長さの情報は年齢とともに変化するものであり、その経過を観察することは高齢者に多く認められる結膜弛緩の早期発見等に利用することが考えられる。また、本実施例では抽出された分割領域全体について上述の解析数値で表現したが、ある分割領域に着目した場合、近傍の分割領域との解析数値の比較・相関をとることで新しい解析結果を取得可能であることは言うまでもない。  Information on the area, depth, slope, and length of the wrinkle region changes with age, and observing the progress can be used for early detection of conjunctival relaxation, which is often observed in the elderly. In the present embodiment, the entire extracted divided region is expressed by the above-described analysis numerical value. However, when attention is paid to a certain divided region, a new analysis result is obtained by comparing / correlating the analytical value with a neighboring divided region. Needless to say, it can be acquired.

さらに、前述の実施例において、図3に示される前眼部観察光学系の構成による前眼部画像の取得を説明しているが、眼科検査において使用される眼屈折力、角膜形状、眼圧、角膜観察等の検査装置において採用されている被検眼に対する位置合わせ用観察光学系を利用することにより、本発明に係る機能を付属機能として搭載可能であることは言うまでもない。  Further, in the above-described embodiment, the acquisition of the anterior ocular segment image by the configuration of the anterior ocular segment observation optical system shown in FIG. 3 is described, but the ocular refractive power, corneal shape, and intraocular pressure used in the ophthalmic examination are described. Needless to say, the function according to the present invention can be mounted as an accessory function by using an observation optical system for alignment with the eye to be examined, which is employed in an inspection apparatus such as corneal observation.

図13及び図14は、本発明に係るシステムを組み込んだ第2の実施例を示したものである。図13は、前眼部画像を取得するため、細隙灯顕微鏡50にCCDカメラ61を取付けた構成を示したものである。図14は、図13におけるCCDカメラ61によって撮影された画像を画像信号伝達装置62(ビデオケーブル)を介してコンピュータ71に取り込んで処理を行なうシステム構成を示している。  13 and 14 show a second embodiment in which the system according to the present invention is incorporated. FIG. 13 shows a configuration in which a CCD camera 61 is attached to the slit lamp microscope 50 in order to acquire an anterior ocular segment image. FIG. 14 shows a system configuration in which an image photographed by the CCD camera 61 in FIG. 13 is taken into a computer 71 via an image signal transmission device 62 (video cable) and processed.

図13に示される細隙灯顕微鏡50は照明ユニット51から照射された光束をプリズム59を介して被検眼Cを照明する。検者は、被検者がアゴ受け台58に顔を当接した後、ベース部57に対して摺動可能な可動部56と、拡大レンズユニット52、ジョイント53、接眼部54から構成される観察光学系が取付けられ可動部56に対して上下方向に移動する支柱55を、ジョイスティック60の操作により移動させて被検眼Cに対する位置合せを行なう。照明ユニット51は軸Aを中心として回転可能であり、観察光学系の光路から退避して、被検眼Cの斜めから照明光を照射することが可能な構成になっている。拡大レンズユニット52は内部に光束分離部材を有し、接眼部54において観察される被検眼観察像の光束の一部をCCDカメラ61に導く。CCDカメラにおいて受光された被検眼観察像は画像信号伝達装置62(ビデオケーブル)を介して出力される。  The slit lamp microscope 50 shown in FIG. 13 illuminates the eye C through the prism 59 with the light beam emitted from the illumination unit 51. The examiner is composed of a movable portion 56 slidable with respect to the base portion 57, a magnifying lens unit 52, a joint 53, and an eyepiece portion 54 after the subject abuts his face on the jaw support 58. The column 55, which is attached to the observation optical system and moves up and down with respect to the movable portion 56, is moved by operating the joystick 60 to align the eye C to be examined. The illumination unit 51 is rotatable about the axis A, and is configured to be able to irradiate illumination light from an oblique direction of the eye C to be retracted from the optical path of the observation optical system. The magnifying lens unit 52 has a light beam separating member inside, and guides a part of the light beam of the eye observation image observed at the eyepiece 54 to the CCD camera 61. An eye observation image received by the CCD camera is output via an image signal transmission device 62 (video cable).

図14は、図13に示されるCCDカメラ61から出力された画像情報が処理される流れを示すものである。点線枠はコンピュータ71が構成している機能を示している。コンピュータ71には画像の取込みを指示する信号を発生する信号発生装置74、表示装置72、プリンタ73が接続されている。CCDカメラ61からは常時画像信号が出力されている。検者は、図13の細隙灯顕微鏡50の接眼部54から被検眼Cを観察しつつ信号発生装置74により画像取込み指示を行なう。制御装置711は信号発生装置74から信号を受取るとA/D変換装置712に画像信号を転送する。ここで、デジタル化された画像信号は、画像データ記憶装置713を介して画像処理装置714転送される。以上が、図1及び図16の1に示されるデジタル画像データ取得の段階に該当する。なお、本実施例において、A/D変換装置712はコンピュータ71に内臓あるいは増設可能な画像処理基板を想定しているが、コンピュータ71の外部に設け、デジタル化された画像データをコンピュータ71に転送する構成に置換え可能である。  FIG. 14 shows the flow of processing the image information output from the CCD camera 61 shown in FIG. A dotted line frame indicates a function configured by the computer 71. A computer 71 is connected to a signal generator 74 that generates a signal for instructing image capture, a display device 72, and a printer 73. An image signal is always output from the CCD camera 61. The examiner gives an image capture instruction by the signal generator 74 while observing the eye C from the eyepiece 54 of the slit lamp microscope 50 of FIG. When the control device 711 receives the signal from the signal generation device 74, it transfers the image signal to the A / D conversion device 712. Here, the digitized image signal is transferred to the image processing device 714 via the image data storage device 713. The above corresponds to the stage of digital image data acquisition shown in 1 of FIGS. In this embodiment, the A / D conversion device 712 is assumed to be an image processing board that can be built in or added to the computer 71, but is provided outside the computer 71 and transfers digitized image data to the computer 71. It can be replaced with a configuration to

この後の処理手順は第1の実施例と同様のため、説明は省略する。最終的な解析結果はコンピュータ71に接続されたモニタ72に表示される。さらに、解析結果をコンピュータ71に接続されたプリンタ73に出力しても良い。  Since the subsequent processing procedure is the same as that of the first embodiment, description thereof is omitted. The final analysis result is displayed on a monitor 72 connected to the computer 71. Further, the analysis result may be output to a printer 73 connected to the computer 71.

この第2の実施例においては、眼科検査において一般的に使用される細隙灯顕微鏡を前眼部画像の取得に利用し、取得された画像をコンピュータにより処理・解析を行なうため、新たな設備を準備する必要なく、観察が可能になる。  In this second embodiment, a slit lamp microscope generally used in ophthalmic examinations is used for acquiring an anterior segment image, and the acquired image is processed and analyzed by a computer. Observation is possible without having to prepare

図15は、第2の実施例の構成において、図13のCCDカメラ61をデジタルカメラ81に置換えた本発明に係るシステムを組み込んだ第3の実施例のシステム構成を示したものである。ここで、画像データ記憶装置82はデジタルカメラ81に着脱可能な一時記憶手段(コンパクトフラッシュメモリ等)を想定している。画像データ記憶装置82に記憶された画像データはコンピュータ83の画像データ取込装置831(コンパクトフラッシュメモリ用スロット等)を介して、コンピュータ83の画像データ記憶装置713に転送される。なお、図14に示される信号入力装置74はデジタルカメラ81のシャッターにより代用される。このように直接デジタル画像データを取得することにより図14の711及び712のA/D変換に係る構成を省略することも可能である。  FIG. 15 shows a system configuration of a third embodiment in which a system according to the present invention in which the CCD camera 61 of FIG. 13 is replaced with a digital camera 81 in the configuration of the second embodiment is incorporated. Here, the image data storage device 82 is assumed to be temporary storage means (such as a compact flash memory) that can be attached to and detached from the digital camera 81. The image data stored in the image data storage device 82 is transferred to the image data storage device 713 of the computer 83 via the image data capturing device 831 (such as a compact flash memory slot) of the computer 83. It should be noted that the signal input device 74 shown in FIG. By directly acquiring digital image data in this way, the configuration relating to A / D conversion in 711 and 712 in FIG. 14 can be omitted.

この第3の実施例においては、第2の実施例をデジタルカメラに置換えることにより、構成要素の削減だけでなく、前眼部画像の取得(撮影)を検査室にて行ない、保存された画像データを別室に設置されたコンピュータにおいて読込みさせることが可能になり、検査室における設置スペースをも削減できることが可能になる。なお、前述の実施例においてデジタルカメラからの画像データの取得に使用する画像データ記憶装置として着脱可能な一時記憶手段を例としているが、デジタルカメラとコンピュータをケーブル接続してデータを転送することを包括することは言うまでもない。  In this third embodiment, by replacing the second embodiment with a digital camera, not only the components were reduced, but the anterior segment image acquisition (imaging) was performed in the laboratory and stored. Image data can be read by a computer installed in a separate room, and the installation space in the examination room can be reduced. In the above-described embodiment, the detachable temporary storage means is taken as an example of the image data storage device used for acquiring the image data from the digital camera. However, the data can be transferred by connecting the digital camera and the computer with a cable. Needless to say, it is included.

さらに、前述の第1の実施例において記載の装置20に前眼部観察画像を直接出力するビデオ端子を設けることで第2の実施例における細隙灯顕微鏡61の代用が可能となり、また、装置20においてデジタル処理化済の画像データを出力するビデオ端子あるいは画像データ記録装置を設けることで第3の実施例のデジタルカメラ81の代用が可能であり、新規の設備を準備することなく、本発明に係る機能を実現可能となる。  Further, by providing the device 20 described in the first embodiment with a video terminal for directly outputting an anterior ocular segment observation image, the slit lamp microscope 61 in the second embodiment can be substituted, and the device 20, the digital camera 81 of the third embodiment can be substituted by providing a video terminal or an image data recording device for outputting digitally processed image data, and the present invention can be used without preparing new equipment. It becomes possible to realize the function concerning.

さらに、実施例においては、結膜上のしわ領域を観察・解析の対象としているが、コンタクトレンズの装用等で角膜についた線状の傷の抽出・確認等の医学的に有用と思われる解析への応用も考えられるものであり、本明細に記載された構成に限定されるものではない。  Furthermore, in the examples, the wrinkle region on the conjunctiva is the object of observation and analysis, but the analysis seems to be medically useful, such as the extraction and confirmation of linear wounds on the cornea due to the wearing of contact lenses, etc. Is also conceivable, and is not limited to the configuration described in this specification.

本発明に係る処理フローを示した図である。It is the figure which showed the processing flow which concerns on this invention. 第1の実施例を示した図である。It is the figure which showed the 1st Example. 前眼部観察光学系の基本構成を示した図である。It is the figure which showed the basic composition of the anterior ocular segment observation optical system. 第1の実施例に係る処理フローを示した図である。It is the figure which showed the processing flow which concerns on a 1st Example. 蛍光染色された眼球(結膜上のしわ領域)を示した画像である。It is the image which showed the eyeball (wrinkle area | region on the conjunctiva) dye | stained fluorescence. 選択領域の形状例を示した図である。It is the figure which showed the example of the shape of the selection area | region. 分割領域の平均蛍光濃度重心としわ領域の関係を示した図である。It is the figure which showed the relationship of the wrinkle area | region with the average fluorescence density gravity center of a division area. 画面分割及び抽出処理実施後の画像である。It is the image after screen division and extraction processing execution. 近傍2画素の画素位置を示した図である。It is the figure which showed the pixel position of two adjacent pixels. ベクトルの傾斜(角度)の算出に関する説明図である。It is explanatory drawing regarding calculation of the inclination (angle) of a vector. しわ領域のベクトル情報の解析実施後の画像である。It is an image after performing analysis of vector information of a wrinkle region. 定量解析結果に係る表示例を示した図である。It is the figure which showed the example of a display concerning a quantitative analysis result. 第2の実施例に係る前眼部観察画像の取得手段の一部を示した図である。It is the figure which showed a part of acquisition means of the anterior ocular segment observation image which concerns on a 2nd Example. 第2の実施例に係る処理フローを示した図である。It is the figure which showed the processing flow which concerns on a 2nd Example. 第3の実施例に係る処理フローを示した図である。It is the figure which showed the processing flow which concerns on a 3rd Example.

Claims (6)

標識蛍光物質を含む溶液により染色された被検眼の前眼部の表面状態を解析するシステムであって、
蛍光染色された前眼部像のデジタル画像を取得する機能と、
取得された画像データに含まれる外乱情報を除去する機能と
画像データが有する画素毎の濃淡情報に基づいて筋状の領域を特定する機能と、
画像データを所定範囲に分割する機能と、
各分割領域において蛍光強度に応じた濃淡画像に基づいて蛍光濃度重心を算出する機能と、
該分割領域毎の濃度重心と特定された筋状の領域の位置情報に基づいて分割領域を抽出する機能と、
抽出された領域毎に筋状の領域に係るベクトルを生成する機能と、
前記生成された筋状の領域に係るベクトルの解析を行なう機能と
前記濃度重心及び/または生成された筋状の領域に係るベクトルの解析結果を出力する機能を有することを特徴とする前眼部表面解析システム。
A system for analyzing the surface state of the anterior segment of an eye to be examined stained with a solution containing a labeled fluorescent substance,
The ability to acquire a digital image of the anterior segment image that has been fluorescently stained;
A function of removing disturbance information included in the acquired image data, a function of specifying a streak area based on grayscale information for each pixel included in the image data,
A function of dividing image data into a predetermined range;
A function of calculating a fluorescence density centroid based on a grayscale image corresponding to the fluorescence intensity in each divided region;
A function of extracting a divided region based on the density centroid for each divided region and the position information of the specified streak region;
A function for generating a vector related to a streaky region for each extracted region;
An anterior segment having a function of analyzing a vector related to the generated streaky region and a function of outputting an analysis result of the concentration centroid and / or a vector related to the generated streaky region Surface analysis system.
前記筋状の領域が、前眼部表面に形成されるしわ乃至傷などの凹凸状態に基づき染色されるものである、請求項1に記載の前眼部表面解析システム。  The anterior ocular surface analysis system according to claim 1, wherein the streak region is stained based on an uneven state such as wrinkles or scratches formed on the anterior ocular surface. 前記生成されたベクトルの解析が、ベクトルの長さ及び/または方向に基づく統計処理であることを特徴とする請求項1乃至2に記載の前眼部表面解析システム。  The anterior segment surface analysis system according to claim 1, wherein the analysis of the generated vector is statistical processing based on a length and / or direction of the vector. 前記出力が、前記分割領域毎に生成されたベクトルの前記分割領域において想定される最大のベクトルに対する長さの比率の個数分布を出力することを特徴とする請求項1乃至3に記載の前眼部表面解析システム。  4. The anterior eye according to claim 1, wherein the output outputs a number distribution of a ratio of a length of a vector generated for each divided region to a maximum vector assumed in the divided region. 5. Surface analysis system. 前記出力が、前記分割領域毎に生成されたベクトルの方向毎の個数分布を出力することを特徴とする請求項1乃至4に記載の前眼部表面解析システム。  5. The anterior ocular surface analysis system according to claim 1, wherein the output outputs a number distribution in each direction of a vector generated for each divided region. 請求項1乃至5に記載の前眼部表面解析システムを有する眼科装置。  An ophthalmologic apparatus having the anterior ocular surface analysis system according to claim 1.
JP2005291701A 2005-09-02 2005-09-02 Eye surface analysis system Expired - Fee Related JP4751689B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005291701A JP4751689B2 (en) 2005-09-02 2005-09-02 Eye surface analysis system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005291701A JP4751689B2 (en) 2005-09-02 2005-09-02 Eye surface analysis system

Publications (2)

Publication Number Publication Date
JP2007068928A JP2007068928A (en) 2007-03-22
JP4751689B2 true JP4751689B2 (en) 2011-08-17

Family

ID=37930875

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005291701A Expired - Fee Related JP4751689B2 (en) 2005-09-02 2005-09-02 Eye surface analysis system

Country Status (1)

Country Link
JP (1) JP4751689B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8888286B2 (en) 2009-04-01 2014-11-18 Tearscience, Inc. Full-eye illumination ocular surface imaging of an ocular tear film for determining tear film thickness and/or providing ocular topography
US9888839B2 (en) 2009-04-01 2018-02-13 Tearscience, Inc. Methods and apparatuses for determining contact lens intolerance in contact lens wearer patients based on dry eye tear film characteristic analysis and dry eye symptoms
US9642520B2 (en) 2009-04-01 2017-05-09 Tearscience, Inc. Background reduction apparatuses and methods of ocular surface interferometry (OSI) employing polarization for imaging, processing, and/or displaying an ocular tear film
US8915592B2 (en) 2009-04-01 2014-12-23 Tearscience, Inc. Apparatuses and methods of ocular surface interferometry (OSI) employing polarization and subtraction for imaging, processing, and/or displaying an ocular tear film
US8545017B2 (en) * 2009-04-01 2013-10-01 Tearscience, Inc. Ocular surface interferometry (OSI) methods for imaging, processing, and/or displaying an ocular tear film
JP5487498B2 (en) * 2009-09-18 2014-05-07 国立大学法人山口大学 Evaluation method for punctate staining in cornea or conjunctiva
US9339177B2 (en) 2012-12-21 2016-05-17 Tearscience, Inc. Full-eye illumination ocular surface imaging of an ocular tear film for determining tear film thickness and/or providing ocular topography
CN105792729B (en) 2013-05-03 2018-04-27 眼泪科学公司 For being imaged to Meibomian gland for the eyelid lighting system and method for Meibomian gland analysis
US9795290B2 (en) 2013-11-15 2017-10-24 Tearscience, Inc. Ocular tear film peak detection and stabilization detection systems and methods for determining tear film layer characteristics

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3169244B2 (en) * 1991-11-19 2001-05-21 キヤノン株式会社 Fundus image processing method
DE19837932C2 (en) * 1998-08-20 2000-09-07 Bioshape Ag Method and device for determining the surface shape of biological tissue
JP2005211633A (en) * 2004-01-29 2005-08-11 Tomey Corporation Ophthalmologic apparatus
JP4624122B2 (en) * 2005-01-31 2011-02-02 株式会社トーメーコーポレーション Ophthalmic equipment

Also Published As

Publication number Publication date
JP2007068928A (en) 2007-03-22

Similar Documents

Publication Publication Date Title
JP4751689B2 (en) Eye surface analysis system
JP5628839B2 (en) Ocular surface disease detection system and ocular surface inspection device
JP5964932B2 (en) Ocular surface interference spectroscopy (OSI) apparatus, system and method for imaging, processing and / or displaying ocular tear film and / or measuring ocular tear film layer thickness
US10264965B2 (en) Eye imaging device and method of use
KR101736728B1 (en) Information processing apparatus, information processing method and computer readable storage medium
US8696123B2 (en) Apparatus, method, and program for processing information
US8303115B2 (en) Method and system for retinal health management
US10165939B2 (en) Ophthalmologic apparatus and ophthalmologic apparatus control method
JP5932369B2 (en) Image processing system, processing method, and program
RU2637851C2 (en) Image processing device and method for image processing device control
JP7368568B2 (en) ophthalmology equipment
JP2023138577A (en) slit lamp microscope
JP2024028448A (en) slit lamp microscope
KR20200026135A (en) The method for measuring microcirculation in cochlea and the apparatus thereof
JP2019213733A (en) Slit lamp microscope and ophthalmologic system
WO2020050308A1 (en) Image processing device, image processing method and program
JP2022075772A (en) Ophthalmologic apparatus
JP7384987B2 (en) ophthalmology equipment
US20230410306A1 (en) Alignment guidance user interface system
US20230380682A1 (en) Devices, systems, and methods to measure corneal topography
JP6844949B2 (en) Ophthalmic equipment
JP2022075771A (en) Ophthalmologic apparatus
JP2013153880A (en) Image processing system, processing method, and program
CN117858654A (en) Anterior segment analysis device, anterior segment analysis method, and program
JP2006280703A (en) Ophthalmologic photography apparatus and method of photography

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080825

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20080827

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110511

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110523

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140527

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees