JP2013048696A - Image analysis device for ophthalmic disease, image analysis method for ophthalmic disease, and image analysis program for ophthalmic disease - Google Patents

Image analysis device for ophthalmic disease, image analysis method for ophthalmic disease, and image analysis program for ophthalmic disease Download PDF

Info

Publication number
JP2013048696A
JP2013048696A JP2011187872A JP2011187872A JP2013048696A JP 2013048696 A JP2013048696 A JP 2013048696A JP 2011187872 A JP2011187872 A JP 2011187872A JP 2011187872 A JP2011187872 A JP 2011187872A JP 2013048696 A JP2013048696 A JP 2013048696A
Authority
JP
Japan
Prior art keywords
image
eyeball
image analysis
pole
vertex
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011187872A
Other languages
Japanese (ja)
Other versions
JP5935146B2 (en
Inventor
Toshio Modegi
敏雄 茂出木
Junichi Kondo
純一 近藤
Yoichi Takahashi
洋一 高橋
Ikuo Morita
育男 森田
Kyoko Ono
京子 大野
Muka MORIYAMA
無価 森山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Tokyo Medical and Dental University NUC
Original Assignee
Dai Nippon Printing Co Ltd
Tokyo Medical and Dental University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd, Tokyo Medical and Dental University NUC filed Critical Dai Nippon Printing Co Ltd
Priority to JP2011187872A priority Critical patent/JP5935146B2/en
Priority to PCT/JP2012/070730 priority patent/WO2013031536A1/en
Publication of JP2013048696A publication Critical patent/JP2013048696A/en
Application granted granted Critical
Publication of JP5935146B2 publication Critical patent/JP5935146B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/68Analysis of geometric attributes of symmetry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Eye Examination Apparatus (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

PROBLEM TO BE SOLVED: To perform automation and quantification of analysis so that the determination depending on the subjectivity of a reading doctor may be not caused as much as possible when performing diagnostic imaging.SOLUTION: An image analysis device for ophthalmic disease is characterized by comprising: an image input unit for acquiring three-dimensional voxel images of the head including the eyeballs; a voxel image extraction unit for extracting, from the input three-dimensional voxel images, at least one three-dimensional eyeball voxel image of the eye in an eyeball region separately for the right and left eyeballs; a projection image calculation unit for creating a first projection image obtained by projecting the extracted three-dimensional eyeball voxel image in an upward- and/or downward-direction; and a projection image analysis unit for setting an eye axis that links an ocular anterior pole apex and an ocular posterior pole apex on the first projection image, and calculating, as parameters for image analysis, at least the eye axis length between the ocular anterior pole apex and the ocular posterior pole apex, and the degree of left/right asymmetry on the basis of a region obtained by segmenting the posterior pole side to the right and left bordered by the eye axis.

Description

本発明は、眼科疾患の画像解析技術に関し、特に、強度近視の画像解析技術に関する。   The present invention relates to an image analysis technique for ophthalmic diseases, and more particularly to an image analysis technique for high myopia.

眼科疾患でポピュラーな近視の中に、眼球後極の組織が変性して眼軸が伸び、強度な近視の症状を呈し、場合により失明に至る重篤な疾患「強度近視」が知られている。強度近視は、網膜の変性や萎縮などが原因で起こり、眼球が楕円形に伸び、眼軸長が正視より3.5ミリ以上長い。全国で40歳以上の人口約6700万人のうち、360万人ほどが強度近視とみられている。網膜に負担がかかり、飛蚊症、網膜剥離、緑内障などの病気をひきおこし、視野が狭くなり、視力低下や失明にいたる可能性がある。   Popular myopia in ophthalmological diseases is known as severe myopia, a severe illness that causes posterior polar tissue degeneration, eye axis elongation, strong myopia, and sometimes blindness. . Intensity myopia occurs due to degeneration or atrophy of the retina, the eyeball extends elliptically, and the axial length is 3.5 mm or more longer than normal vision. Of the approximately 67 million people over the age of 40 in the country, about 3.6 million people are considered to have high myopia. The retina is burdened, causing illnesses such as flying mosquito disease, retinal detachment, and glaucoma, narrowing the field of view, and may lead to vision loss and blindness.

現状では本疾患に対する根治術は特許文献1など研究段階で、薬物療法や外科治療により病態の症状や進行を抑える対症療法しかなく、早期発見が重要となる。しかし、本疾患は20年以上の長期に渡るタイムスパンで病態が徐々に進行し、早期の段階では眼軸長の延長や視力の低下を呈さないことが多いため、眼底カメラなど現状の眼科診断機器では発見が遅れがちになるという問題があった。   At present, the curative treatment for this disease is in the research stage such as Patent Document 1 and there is only symptomatic treatment that suppresses the symptoms and progression of the disease state by pharmacotherapy and surgical treatment, and early detection is important. However, since this disease gradually progresses over a long time span of 20 years or more, and in many cases it does not show an increase in axial length or a decrease in visual acuity at an early stage, current ophthalmologic diagnosis such as a fundus camera, etc. There was a problem that discovery tends to be delayed in the equipment.

近視は、屈折矯正するために必要なレンズの度数D(ディオプターあるいはディオプトリ、D=1(m)/焦点距離(m))の値を基準に判定される。正視の場合は、D値は0となり、遠視では正値となる。Dが負値の場合が近視で、−6D以下が強度近視である。ただし、強度近視の初期段階では、D値が異常値を示さないことがあるため、眼球が前後方向に伸びる特徴を基準にする方が早期に診断できる。   Myopia is determined on the basis of the value of the lens power D (diopter or diopter, D = 1 (m) / focal length (m)) required for refractive correction. In normal vision, the D value is 0, and in hyperopia, it is positive. A case where D is a negative value is myopia, and -6D or less is intense myopia. However, in the initial stage of intense myopia, the D value may not show an abnormal value, so that it is possible to diagnose earlier by using the characteristic that the eyeball extends in the front-rear direction.

本疾患に対する従来の診断手法として、上記の屈折検査装置(特許文献2「眼屈折計」、キャノンなど)による視力測定(特許文献3「眼鏡、コンタクトレンズ度数決定システム」、ビジョンメガネ)のほかに、超音波による眼軸測定(特許文献4「眼科用超音波診断装置」、キャノン)、光干渉による眼軸測定(特許文献5「生体眼の寸法測定装置」、トプコン)、眼底カメラによる網膜合併症解析(特許文献6「眼底疾患の解析装置」、トプコン)、また緑内障との合併症の診断に液体パルスによる眼圧測定(特許文献7「非接触式眼圧計」、トプコン)などがある。   As a conventional diagnostic method for this disease, in addition to the above-described refraction inspection apparatus (Patent Document 2, “eye refractometer”, Canon, etc.) visual acuity measurement (Patent Document 3, “glasses, contact lens power determination system”, vision glasses) , Ocular axis measurement by ultrasound (Patent Document 4, “Ophthalmic Ultrasound Diagnostic Device”, Canon), Ocular axis measurement by optical interference (Patent Document 5, “Dimensional measurement device for living eye”, Topcon), Retina merge by fundus camera For example, there is an analysis of symptoms (Patent Document 6 “Analyzer for fundus disease”, Topcon) and an intraocular pressure measurement (Patent Document 7 “Non-contact tonometer”, Topcon) for diagnosis of complications with glaucoma.

特表2007−536272号公報Special table 2007-536272 gazette 特公平5−054774号公報Japanese Patent Publication No. 5-054744 特許第4014438号公報Japanese Patent No. 4014438 特公平3−058726号公報Japanese Patent Publication No. 3-058726 特許第2723967号公報Japanese Patent No. 2723967 特許第3479788号公報Japanese Patent No. 3479788 特公平4−030294号公報Japanese Examined Patent Publication No. 4-030294 特開2007−121259号公報JP 2007-121259 A

Brain J.Curtin, “The Posterior Staphyloma of Pathlogic Myopia”, Transaction of American Opthalmology Society, Vol. LXXXV, pp.67-86,(1997).Brain J. Curtin, “The Posterior Staphyloma of Pathlogic Myopia”, Transaction of American Opthalmology Society, Vol. LXXXV, pp. 67-86, (1997).

非特許文献1に記載に強度近視の病態については、1977年にB.J.Curtinが発表した眼底カメラ像に基づく10タイプ分類が知られている。   As for the pathological condition of intense myopia described in Non-Patent Document 1, 10 types classification based on a fundus camera image published by BJ Curtin in 1977 is known.

また、特許文献2から7までに示される従来のその他の眼科診断機器を用いて、眼軸延長や視力低下といった「強度近視」の典型的症状の診断は可能であるが、眼球後極の変性・肥大といった病変については、眼球前方からアプローチする従来の検査手段では計測困難であった。   In addition, it is possible to diagnose typical symptoms of “intensity myopia” such as extension of the eye axis and reduction of visual acuity using other conventional ophthalmologic diagnostic devices disclosed in Patent Documents 2 to 7, but degeneration of the posterior pole of the eyeball is possible.・ Regarding lesions such as hypertrophy, it was difficult to measure with conventional examination means approached from the front of the eyeball.

また、画像診断を導入して変性・肥大を診断する場合、いずれかの方向に非対称性があるという定性的判定は読影医間でバラツキを生じさせやすいという問題もある。   In addition, when diagnosing degeneration / hypertrophy by introducing image diagnosis, there is a problem that qualitative determination that there is an asymmetry in either direction is likely to cause variation among interpretation doctors.

本発明の第1の目的は、眼軸延長や視力低下といった「強度近視」の典型的症状を呈する前段階で、本疾患の早期兆候である眼球後極の変性・肥大(後部ぶどう腫とよばれる)の度合いを非侵襲かつ定量的に解析することである。そして、早期に「強度近視」の診断を確定し、病態の進行を抑止できるようにすることである。   The first object of the present invention is a stage before presenting typical symptoms of “intensity myopia” such as extension of the eye axis and decreased visual acuity, and degeneration / hypertrophy of the posterior pole of the eye, which is an early sign of the disease (referred to as posterior vineoma). Non-invasive and quantitative analysis. Then, the diagnosis of “intensity myopia” is confirmed early so that the progression of the disease state can be suppressed.

また、本発明の第2の目的は、画像診断にあたっては読影医の主観に依存する判定ができるだけ生じないように解析の自動化と定量化を実現することである。   A second object of the present invention is to realize automation and quantification of an analysis so that determination depending on the subjectivity of an interpreting doctor does not occur as much as possible in image diagnosis.

本発明は、頭部疾患の診断ではポピュラーな3次元トモグラフィー技術を眼科分野に導入し、主として頭部のMRI(核磁気共鳴画像、Magnetic Resonance Imaging)により眼球部の3次元画像を取得し、重症化しやすいかといった本疾患の予後と相関のある眼球後極の形態特徴パラメータを非侵襲的、定量的かつ自動的に解析する手法を提案するものである。   The present invention introduces a popular three-dimensional tomography technique in the field of ophthalmology in the diagnosis of head disease, and acquires a three-dimensional image of the eyeball mainly by MRI (Magnetic Magnetic Resonance Imaging) of the head. We propose a method for noninvasive, quantitative and automatic analysis of the morphological feature parameters of the posterior pole of the eye, which correlates with the prognosis of this disease.

例えば、頭部のMRI画像より特許3049021号(「画像処理装置」、五大)等に記載の技術を用いて切り出した左右の眼球の3次元MRボクセル画像を、特許44979651号(「医用画像表示装置」、日立メディコ)等の技術を用いて上下左右前後の6方向でボリュームレンダリングした6フレームの投影画像を準備し、眼球の解析を行う。   For example, a three-dimensional MR voxel image of the left and right eyeballs cut out from the MRI image of the head using the technique described in Japanese Patent No. 3049021 (“Image Processing Device”, five majors) is disclosed in Japanese Patent No. 44799651 (“Medical Image Display Device”). ”, Hitachi Medical Corp.) and other techniques are used to prepare six-frame projected images that have been volume-rendered in six directions, up, down, left and right, and to analyze the eyeball.

続いて、上下左右方向の4枚の各投影画像に対して眼軸を設定し、重心から後極部に向かう放射状のエリアで左右方向(耳鼻方向)または上下方向の幾何学的対称性と、後部曲面の尖鋭度を算出する。更に、オプションとして後部投影画像より後部の突起(ぶどう腫)の個数が単一か複数かといった解析を行う。   Subsequently, an eye axis is set for each of the four projected images in the vertical and horizontal directions, and a geometrical symmetry in the horizontal and vertical directions in the radial area from the center of gravity to the posterior pole, The sharpness of the rear curved surface is calculated. Furthermore, as an option, an analysis is performed as to whether the number of rear projections (vines) is single or plural from the rear projection image.

眼軸の設定は自動抽出を基本とし、場合により対話的手段により補正を加える。これ以外の算出処理は全て自動化し、操作者間で算出される各パラメータにバラツキが生じないようにする。これらの眼軸長、左右対称性、上下対称性、尖鋭度、突起数の4+オプション1項目を基に、強度近視の病態を分類し、予後判定や治療方針の策定に活用する。   The setting of the eye axis is based on automatic extraction, and in some cases, correction is made by interactive means. All other calculation processes are automated so that the parameters calculated among operators do not vary. Based on these 4 + option 1 items of axial length, left-right symmetry, vertical symmetry, sharpness, and number of protrusions, we classify the pathological conditions of high myopia and use them for prognosis determination and treatment policy formulation.

本発明の一観点によれば、眼球を含む頭部の3次元ボクセル画像を取得する画像入力部と、入力した前記3次元ボクセル画像より、左右眼球別に眼球領域の少なくともいずれか一方の眼の3次元眼球ボクセル画像を抽出するボクセル画像抽出部と、抽出した3次元眼球ボクセル画像を、少なくとも上下いずれかの方向に投影した第1の投影画像を作成する投影画像算出部と、前記第1の投影画像に対して眼球前極部頂点と眼球後極部頂点とを結ぶ眼軸を設定し、少なくとも眼球前極部頂点と眼球後極部頂点との間の眼軸長と、眼軸を境界に後極側を左右に分割した領域をもとに左右方向の非対称性の度合いと、を画像解析のパラメータとして算出する投影画像解析部と、を備えることを特徴とする眼科疾患の画像解析装置が提供される。   According to one aspect of the present invention, an image input unit that acquires a three-dimensional voxel image of a head including an eyeball, and 3 of the eye region of at least one of eyeball regions by left and right eyeballs from the input three-dimensional voxel image. A voxel image extraction unit that extracts a three-dimensional eyeball voxel image; a projection image calculation unit that creates a first projection image obtained by projecting the extracted three-dimensional eyeball voxel image in at least one of the upper and lower directions; and the first projection. Set an eye axis connecting the anterior ocular vertex and the posterior ocular vertex with respect to the image, and at least the ocular axial length between the ocular anterior vertex and the ocular posterior vertex, with the eye axis as the boundary An image analysis apparatus for ophthalmic diseases, comprising: a projection image analysis unit that calculates a degree of asymmetry in the left-right direction based on a region obtained by dividing the posterior pole side into left and right, and a parameter for image analysis Provided.

この発明によれば、眼軸長の長さ又は左右方向の非対称性の度合いに基づいて、強度近視を判定することができる。パラメータは強度近視を特定するためのパラメータを含む。   According to the present invention, intensity myopia can be determined based on the length of the axial axis or the degree of asymmetry in the left-right direction. The parameter includes a parameter for specifying the intensity myopia.

前記3次元ボクセル画像は、MRIを用いて取得したものであることを特徴とする。
前記投影画像算出部は、前記3次元眼球ボクセル画像を、少なくとも左右いずれかの方向に投影した第2の投影画像を作成し、前記画像解析部は、前記第2の投影画像に対して眼軸を設定し、少なくとも眼球前極部頂点と眼球後極部頂点との間の眼軸長と眼軸を境界に後極側を上下に分割した領域をもとに上下方向の非対称性の度合いを、画像解析のパラメータとして算出することを特徴とする。これにより、上下方向の非対称性を算出することができる。
The three-dimensional voxel image is acquired using MRI.
The projection image calculation unit creates a second projection image obtained by projecting the three-dimensional eyeball voxel image in at least one of the left and right directions, and the image analysis unit generates an eye axis with respect to the second projection image. And at least the degree of asymmetry in the vertical direction based on the axial length between the apex of the front of the eyeball and the apex of the back of the eyeball and the area obtained by dividing the back pole side up and down with the eye axis as the boundary. , And is calculated as a parameter for image analysis. Thereby, the asymmetry in the vertical direction can be calculated.

また、前記画像解析部は、前記第1又は第2の投影画像のうちの少なくともいずれかに対して、後極の円弧部曲率の尖鋭度合いを、画像解析のパラメータとして算出することを特徴とする。これにより、後極尖鋭度の算出をすることができる。   In addition, the image analysis unit calculates a sharpness degree of the arcuate curvature of the back pole as an image analysis parameter for at least one of the first and second projection images. . Thereby, the back pole sharpness can be calculated.

また、前記画像解析部は、前記第1又は第2の少なくともいずれか一方の投影画像について、左右又は上下の少なくともいずれか一方の組の前記パラメータを平均した値を算出結果とすることを特徴とする。これにより、非対称性、後極尖鋭度の平均値を算出することができる。   In addition, the image analysis unit calculates a value obtained by averaging the parameters of at least one of the left, right, and upper and lower sets for at least one of the first and second projection images. To do. Thereby, the average value of asymmetry and rear pole sharpness can be calculated.

また、前記投影画像算出部は、前記3次元眼球ボクセル画像に対して、後方向に投影した第3の投影画像を作成し、前記画像解析部は、前記第3の投影画像に対して、後極突出部に対応するピーク点の個数を、画像解析のパラメータとして算出することを特徴とする。これにより、後極突出数の算出をすることができる。   Further, the projection image calculation unit creates a third projection image projected backward with respect to the three-dimensional eyeball voxel image, and the image analysis unit performs posterior to the third projection image. The number of peak points corresponding to the pole protrusions is calculated as a parameter for image analysis. Thereby, the number of rear pole protrusions can be calculated.

また、前記画像解析部は、前記第3の投影画像に対して、眼球部の輪郭線抽出を行い、更に眼球部の重心点を設定し、前記算出された各ピーク点の位置を、画像解析のパラメータとして、前記重心点を基準とした極座標である重心からの距離と重心からピーク点方向の角度で算出することを特徴とする。これにより、後極突出数の位置を算出することができる。   In addition, the image analysis unit extracts an outline of an eyeball part from the third projection image, sets a center of gravity of the eyeball part, and performs image analysis on the calculated position of each peak point. As a parameter, the distance from the center of gravity, which is a polar coordinate based on the center of gravity point, and the angle from the center of gravity to the peak point direction are calculated. Thereby, the position of the number of rear pole protrusions can be calculated.

また、前記画像解析部は、前記投影画像に対して眼球部の輪郭線抽出を行い、前記眼球前極部頂点および前記眼球後極部頂点は前記眼球部の輪郭線上に位置し、かつ前記眼球前極部頂点と前記眼球後極部頂点とを結ぶ直線が前記直線の幾つかの頂点より鉛直方向に左右または上下方向に延長した前記輪郭線との交点までの距離が均等になるように、前記眼球前極部頂点および前記眼球後極部頂点を設定することにより、前記眼軸を自動設定することを特徴とする。これにより、眼軸の自動設定をすることができる。   Further, the image analysis unit extracts an outline of an eyeball from the projection image, the anterior ocular vertex and the ocular posterior apex are located on the outline of the eyeball, and the eyeball The straight line connecting the front pole apex and the posterior pole apex of the eyeball is equal in distance to the intersection with the contour line extending vertically from left and right or up and down from several vertices of the straight line, The eye axis is automatically set by setting the apex of the front of the eyeball and the apex of the back of the eyeball. Thereby, it is possible to automatically set the eye axis.

或いは、前記画像解析部は、前記投影画像に対して眼球部の輪郭線抽出を行い、更に眼球部の重心点を設定し、前記眼球前極部頂点および前記眼球後極部頂点は前記眼球部の輪郭線上に位置し、かつ前記眼球前極部頂点と前記重心点と前記眼球後極部頂点との3点を結ぶ折れ線ができるだけ直線になるように、前記眼球前極部頂点、前記眼球後極部頂点および前記重心点を設定することにより、前記眼軸を自動設定するようにしても良い。   Alternatively, the image analysis unit extracts an outline of an eyeball part from the projection image, further sets a center of gravity of the eyeball part, and the eyeball front pole vertex and the eyeball rear pole vertex are the eyeball part. And the posterior pole of the eyeball and the posterior part of the eyeball so that a polygonal line connecting the three points of the apex of the anterior eyeball, the center of gravity and the posterior pole of the eyeball is as straight as possible. The eye axis may be automatically set by setting the pole apex and the barycentric point.

また、前記画像解析部は、前記第1又は第2の投影画像に対して眼球部の輪郭線抽出を行い、前記眼球前極部頂点または前記眼球後極部頂点のいずれかに対して、画面との対話形式により設定する対話型頂点入力部により設定された前記眼球前極部頂点または前記眼球後極部頂点に対して、前記眼球前極部頂点と前記眼球後極部頂点とを結ぶ直線の延長線上で前記輪郭線との交点に自動的に補正する頂点補正部を備えていることを特徴とする。これにより、眼軸の手動設定をすることができる。   Further, the image analysis unit extracts an outline of an eyeball part from the first or second projection image, and displays a screen for either the frontal vertex of the eyeball or the vertex of the back of the eyeball. A straight line connecting the anterior ocular pole vertex and the posterior pole apex with respect to the anterior ocular pole vertex or the posterior pole apex set by the interactive apex input unit set in an interactive form with A vertex correction unit that automatically corrects the intersection with the contour line on the extended line is provided. Thereby, it is possible to manually set the eye axis.

また、前記画像解析部は、前記第1又は第2の投影画像に対して眼球部の輪郭線抽出を行い、更に眼球部に計測用重心点を設定し、計測用重心点より前記眼球後極部頂点を結ぶ基準線に対して、計測用重心点を中心に+第1の角度および−第1の角度の方向の直線Aと直線Bを設定し、前記直線Aと前記基準線に囲まれた前記輪郭線の内部の面積Aと、前記直線Bと前記基準線に囲まれた前記輪郭線の内部の面積Bを算出し、面積Aと面積Bとの比率を前記非対称性の度合いとして与えることを特徴とする。これにより、非対称性の算出を行うことができる。
尚、第1の角度は、例えば、40度以上90度未満である。
Further, the image analysis unit extracts an outline of the eyeball part from the first or second projection image, further sets a measurement center point on the eyeball part, and sets the posterior pole of the eyeball from the measurement center point. A straight line A and a straight line B in the direction of the first angle and the first angle are set around the center of gravity for measurement with respect to the reference line connecting the vertices, and are surrounded by the straight line A and the reference line. Further, an area A inside the contour line and an area B inside the contour line surrounded by the straight line B and the reference line are calculated, and the ratio of the area A to the area B is given as the degree of asymmetry. It is characterized by that. As a result, asymmetry can be calculated.
The first angle is, for example, not less than 40 degrees and less than 90 degrees.

前記画像解析部は、前記第1又は第2の投影画像に対して眼球部の輪郭線抽出を行い、更に眼球部に計測用重心点を設定し、計測用重心点より前記眼球後極部頂点を結ぶ基準線に対して、計測用重心点を中心に+第2の角度および−第2の角度の方向の直線Aと直線Bを設定し、前記直線Aと前記輪郭線との交点Aと前記眼球後極部頂点と前記直線Bと前記輪郭線との交点Bとの3頂点のなす角を前記尖鋭度合いとして与えることを特徴とする。これにより、後極尖鋭度の算出をすることができる。尚、第2の角度は、例えば、10度から40度程度である。   The image analysis unit extracts an outline of an eyeball from the first or second projection image, further sets a measurement center of gravity in the eyeball, and determines the posterior pole apex of the eyeball from the measurement center of gravity. A straight line A and a straight line B are set in the direction of the second angle and the second angle around the center of gravity for measurement with respect to the reference line connecting the straight line A and the intersection A between the straight line A and the contour line An angle formed by three vertices of the posterior pole apex of the eyeball and the intersection B of the straight line B and the contour line is given as the sharpness degree. Thereby, the back pole sharpness can be calculated. Note that the second angle is, for example, about 10 degrees to 40 degrees.

或いは、前記画像解析部は、計測用重心点より前記眼球後極部頂点を結ぶ基準線に対して、計測用重心点を中心に+第2の角度および−第2の角度の方向の直線Cと直線Dを追加設定し、前記直線Cと前記基準線に囲まれた前記輪郭線の内部の面積Cと、前記直線Dと前記基準線に囲まれた前記輪郭線の内部の面積Dを追加算出し、面積Cと面積Dとの比率と前記面積Aと面積Bとの比率のいずれか大きい値を前記非対称性の度合いとするようにしても良い。   Alternatively, the image analysis unit may define a straight line C in the direction of the + second angle and the −second angle with respect to the reference line connecting the vertex of the posterior pole of the eyeball from the center of gravity for measurement with respect to the center of gravity for measurement. A straight line D is additionally set, and an area C inside the contour line surrounded by the straight line C and the reference line, and an area D inside the contour line surrounded by the straight line D and the reference line are added. It may be calculated and a larger value of the ratio between the area C and the area D and the ratio between the area A and the area B may be set as the degree of asymmetry.

また、前記画像解析部は、前記計測用重心点として前記眼球前極部頂点と前記眼球後極部頂点とを結ぶ眼軸上に、前記眼球後極部頂点より所定の距離だけ離した点を与えることを特徴とする。これにより、計測用重心点の設定をすることができる。   In addition, the image analysis unit, as the center of gravity for measurement, on the eye axis that connects the apex of the front of the eyeball and the apex of the back of the eyeball, a point separated from the apex of the back of the eyeball by a predetermined distance It is characterized by giving. Thereby, the center-of-gravity point for measurement can be set.

例えば、前記画像解析部は、前記所定の距離として正常者の眼球の平均的な眼軸長の1/2(例えば、87画素、13.4mm)を設定するようにしても良い。   For example, the image analysis unit may set 1/2 (for example, 87 pixels, 13.4 mm) of the average eye axis length of a normal eyeball as the predetermined distance.

本発明の他の観点によれば、眼球を含む頭部の3次元ボクセル画像を取得する画像入力ステップと、入力した前記3次元ボクセル画像より、左右眼球別に眼球領域の少なくともいずれか一方の眼の3次元眼球ボクセル画像を抽出するボクセル画像抽出ステップと、抽出した3次元眼球ボクセル画像を、少なくとも上下いずれかの方向に投影した第1の投影画像を作成する投影画像算出ステップと、前記第1の投影画像に対して眼球前極部頂点と眼球後極部頂点とを結ぶ眼軸を設定し、少なくとも眼球前極部頂点と眼球後極部頂点との間の眼軸長と、眼軸を境界に後極側を左右に分割した領域をもとに左右方向の非対称性の度合いと、を画像解析のパラメータとして算出する投影画像解析ステップと、を備えることを特徴とする眼科疾患の画像解析方法が提供される。   According to another aspect of the present invention, an image input step for acquiring a three-dimensional voxel image of a head including an eyeball, and at least one eye of an eyeball region for each of right and left eyeballs from the input three-dimensional voxel image. A voxel image extraction step of extracting a three-dimensional eyeball voxel image, a projection image calculation step of creating a first projection image obtained by projecting the extracted three-dimensional eyeball voxel image in at least one of the upper and lower directions, and the first Set the eye axis connecting the anterior-polarity vertex and the posterior-polarity vertex to the projected image, and at least the eye-axis length between the anterior-polarity vertex and the posterior-polarity vertex, and the eye axis And a projected image analysis step for calculating a degree of asymmetry in the left-right direction based on a region obtained by dividing the posterior pole side into left and right sides, and an image of the ophthalmic disease characterized by comprising:析方 there is provided a method.

又、本発明は、コンピュータに、上記に記載の眼科疾患の画像解析方法を実行させるためのプログラムであっても良く、当該プログラムを記録するコンピュータ読み取り可能な記憶媒体であっても良い。   The present invention may be a program for causing a computer to execute the above-described ophthalmic disease image analysis method, or may be a computer-readable storage medium for recording the program.

本発明では、MRIを用いて強度近視の3次元的な眼球特徴を非侵襲的に計測することにより、臨床的な予後と相関が高そうな形状特徴パラメータに基づく、新規な病態分類手法を提案する。6方向からレンダリングした3次元MR投影画像を基に、合併症の併発と相関が高そうな、眼軸長、眼球後部の左右および上下の対称性、眼球後部の尖鋭度を自動的に算出することができ、これらを基に病態分類できる。   The present invention proposes a novel pathological classification method based on shape feature parameters that are highly correlated with clinical prognosis by non-invasively measuring three-dimensional eye features of intense myopia using MRI. To do. Based on the 3D MR projection image rendered from 6 directions, the axial length, the left / right and up / down symmetry of the back of the eyeball, and the sharpness of the back of the eyeball, which are likely to be highly correlated with complications, are automatically calculated. Can be classified based on these conditions.

本発明によれば、患者に負担をかけずに「強度近視」の早期診断に寄与でき、読影医の主観に依存しない客観性のある診断データを提供することができる。   According to the present invention, it is possible to contribute to an early diagnosis of “intensity myopia” without imposing a burden on the patient, and to provide objective diagnosis data that does not depend on the subjectivity of the interpretation doctor.

また、安価な汎用パーソナルコンピュータのソフトウェアで画像処理を実現することができ、GPU(Graphics Processing Unit)など特殊なグラフィックスボードの増設も必要とないため、安価な診断サービスを提供できる。   Further, image processing can be realized with inexpensive general-purpose personal computer software, and a special graphics board such as a GPU (Graphics Processing Unit) is not required, so that an inexpensive diagnostic service can be provided.

強度近視診断の大まかな診断処理の流れを示すフローチャート図である。It is a flowchart figure which shows the flow of the rough diagnostic process of an intensity | strength myopia diagnosis. 本実施の形態による、頭部MRI撮影データを用いた眼科疾患の画像解析技術を利用した強度近視診断手法の概要を示すフローチャート図である。It is a flowchart figure which shows the outline | summary of the intensity | strength myopia diagnostic method using the image analysis technique of the ophthalmic disease using head MRI imaging | photography data by this Embodiment. 図2B(a)は、上部から撮影したMRI投影画像の例を示し、図2B(b)は左から見た眼球の投影画像、図2B(c)は上方から見た眼球の投影画像、図2B(d)は後方から見た眼球の投影画像である。2B (a) shows an example of an MRI projection image taken from above, FIG. 2B (b) is an eyeball projection image viewed from the left, FIG. 2B (c) is an eyeball projection image viewed from above, and FIG. 2B (d) is a projected image of the eyeball viewed from behind. 図3(a)は、本発明の一実施の形態による画像解析装置の一構成例を示す機能ブロック図であり、図3(b)は、投影画像解析部の構成例を示す機能ブロック図である。FIG. 3A is a functional block diagram illustrating a configuration example of an image analysis apparatus according to an embodiment of the present invention, and FIG. 3B is a functional block diagram illustrating a configuration example of a projection image analysis unit. is there. 本実施の形態によるMRIにより取得した画像を用いた強度近視の計測派多メータを示す図であり、例えば図2Bの(b)から(d)までの画像より求めるが、詳細な求め方は一例である。It is a figure which shows the measurement group of intensity myopia using the image acquired by MRI by this Embodiment, for example, it calculates | requires from the image of (b) to (d) of FIG. It is. 本実施の形態による、MRIによる強度近視診断手法の一例を示すフローチャート図である。It is a flowchart figure which shows an example of the intensity | strength myopia diagnostic method by MRI by this Embodiment. 前後左右上下の各画像(300×300画素)であり、前後の投影画像は解析に必須のものではないが、参照用に取得している。These are front and rear, right and left images (300 × 300 pixels), and the front and rear projection images are not essential for analysis, but are acquired for reference. MRIによる強度近視の計測パラメータの詳細を示す図である。It is a figure which shows the detail of the measurement parameter of the intensity | strength myopia by MRI. MRIによる強度近視の計測パラメータの詳細を示す図である。It is a figure which shows the detail of the measurement parameter of the intensity | strength myopia by MRI. ステップS31−1の、上下方向又は左右方向の投影画像の解析処理を示す図である。It is a figure which shows the analysis process of the projection image of an up-down direction or the left-right direction of step S31-1. ステップS31−1の、上下方向又は左右方向の投影画像の解析処理を示す図である。It is a figure which shows the analysis process of the projection image of an up-down direction or the left-right direction of step S31-1. ステップS31−1の、上下方向又は左右方向の投影画像の解析処理を示す図である。It is a figure which shows the analysis process of the projection image of an up-down direction or the left-right direction of step S31-1. 図5のステップS51からの、後方向投影画像処理の様子を示す図である。It is a figure which shows the mode of the back projection image process from step S51 of FIG. 図12(a)は、図11(a)に続く処理を示す図である。図12(b)〜(e)は、処理の様子を示す図である。FIG. 12A is a diagram illustrating processing subsequent to FIG. FIGS. 12B to 12E are diagrams showing the processing. 画像の二値化処理と輪郭抽出処理(S32)の詳細について説明する図である。It is a figure explaining the detail of the binarization process of an image, and an outline extraction process (S32). 図14(a)は、近傍領域の統合処理の流れを示すフローチャート図であり、図14(b)〜(d)は、処理の様子を示す図である。FIG. 14A is a flowchart showing the flow of the neighborhood region integration processing, and FIGS. 14B to 14D are views showing the processing. 眼軸の自動設定のアルゴリズムの概要を示す図である。It is a figure which shows the outline | summary of the algorithm of the automatic setting of an eye axis. 眼軸の自動設定処理(ステップS33)の詳細を示す図である。It is a figure which shows the detail of the automatic setting process (step S33) of an eye axis. 図15に続く処理の流れを示す図である。It is a figure which shows the flow of the process following FIG. 後極側エッジ点の補正と眼軸の決定処理とその様子を示す図である。It is a figure which shows the correction | amendment of a back pole side edge point, the determination process of an eye axis, and the mode. 眼軸の修正処理の流れを示す図と、その様子を示す図である。It is a figure which shows the flow of the correction process of an eye axis, and a figure which shows the mode. 後極輪郭部におけるエッジ点の作成処理(S38)の詳細とその様子を示す図である。It is a figure which shows the detail of the creation process (S38) of the edge point in a back pole outline part, and its mode. 図20(a)は、平滑化フィルタ処理(図11(a):S52)の流れを示すフローチャート図である。図20(b)は、平滑化フィルタの例を示す図である。FIG. 20A is a flowchart showing the flow of the smoothing filter process (FIG. 11A: S52). FIG. 20B is a diagram illustrating an example of the smoothing filter. 投影画像に対する濃淡ピーク点の抽出処理(図11(b):S53参照)の流れを示すフローチャート図である。It is a flowchart figure which shows the flow of the extraction process (refer FIG.11 (b): S53) of the light / dark peak point with respect to a projection image. 図21の処理で抽出できたピーク点の周辺画素のクリア処理の流れを示すフローチャート図である(図11のステップS54)。It is a flowchart figure which shows the flow of the clear process of the surrounding pixel of the peak point extracted by the process of FIG. 21 (step S54 of FIG. 11). 原画像に対する重心点の算出処理を示すフローチャート図である(図12(a):ステップS55)。It is a flowchart figure which shows the calculation process of the gravity center point with respect to an original image (FIG. 12 (a): step S55). 画素の二値化処理(ステップS32)の詳細を示すフローチャート図である。It is a flowchart figure which shows the detail of the binarization process (step S32) of a pixel. 図25(a)は、近傍画素の連結処理、領域抽出処理の流れを示すフローチャート図である(ステップS32−3、図13(d)参照)。図25(b)は、8近傍画素のうちの4つの画素を示す図である。FIG. 25A is a flowchart showing the flow of neighboring pixel connection processing and region extraction processing (see step S32-3, FIG. 13D). FIG. 25B is a diagram illustrating four of the eight neighboring pixels. 図26(a)は、近傍領域の統合処理の流れを示すフローチャート図である(図14、ステップS32−4、図14(b)参照)。図26(b)は、8近傍画素の例を示す図である。FIG. 26A is a flowchart showing the flow of the neighborhood region integration process (see FIG. 14, step S32-4, FIG. 14B). FIG. 26B is a diagram illustrating an example of 8 neighboring pixels. 図26に続く処理の流れを示す図である。It is a figure which shows the flow of the process following FIG. 周辺のごみのような微小面積を削除して、眼軸の決定における間違いを低減するための、微小面積領域の削除処理(ステップS32−5)を示すフローチャート図である(図14(c)参照)。FIG. 15 is a flowchart showing a minute area deletion process (step S32-5) for deleting a minute area such as dust around and reducing an error in determining an eye axis (see FIG. 14C). ). 輪郭抽出処理の流れを示すフローチャート図である(図14(d)参照)。It is a flowchart figure which shows the flow of an outline extraction process (refer FIG.14 (d)). 前極側および後極側エッジ点と重心点の算出処理の流れを示すフローチャート図である(S33−1:図15B)。It is a flowchart figure which shows the flow of a calculation process of a front pole side and a back pole side edge point, and a gravity center point (S33-1: FIG. 15B). 前極側エッジ点の補正と決定処理の流れを示すフローチャート図である(S33−3、図16参照)。It is a flowchart figure which shows the correction | amendment and determination process of a front pole side edge point (refer S33-3 and FIG. 16). 図31のステップS33−3−1の処理である前後エッジ点と重心点方向の距離差算出処理の流れを示すフローチャート図である(図16、ステップS33−4)。It is a flowchart figure which shows the flow of the distance difference calculation process of the front-and-back edge point and gravity center direction which is a process of step S33-3-1 of FIG. 31 (FIG. 16, step S33-4). 重心点の補正と決定処理(S33−4)の流れを示すフローチャート図である(図16(c)参照)。It is a flowchart figure which shows the flow of correction | amendment and a determination process (S33-4) of a gravity center point (refer FIG.16 (c)). 後極側エッジ点の補正と眼軸の決定処理の流れを示すフローチャート図である(図16の眼軸の自動設定処理S33)。It is a flowchart figure which shows the correction | amendment of a back pole side edge point, and the determination process of an eye axis (automatic axis setting process S33 of FIG. 16). 3頂点の直線性の判定処理の流れを示すフローチャート図である(図18参照)。It is a flowchart figure which shows the flow of the determination process of the linearity of 3 vertices (refer FIG. 18). 手動設定エッジ点の輪郭線上への自動補正処理(S35−3)を示すフローチャート図である。It is a flowchart figure which shows the automatic correction | amendment process (S35-3) to the outline of a manually set edge point. 既に決定された眼軸と直交する方向に90度および−90度エッジ点の追加を行う処理(ステップS38−1、図19(a)参照)の流れを示すフローチャート図である。It is a flowchart figure which shows the flow of the process (refer step S38-1, Fig.19 (a)) which adds a 90 degree and -90 degree edge point to the direction orthogonal to the already determined eye axis. θおよび−θのエッジ点(±第1の角度)の追加処理の流れを示すフローチャート図である(ステップS38−2、図19(a)、(c)参照)。It is a flowchart showing the flow of additional processing of edge points of theta w and - [theta] w (± first angle) (see step S38-2, FIG 19 (a), (c)). θおよび−θ度のエッジ点(±第2の角度)、の追加処理の流れを示すフローチャート図である(ステップS38−3、図19(a)、(d)参照)。It is a flowchart figure which shows the flow of an addition process of the edge point (+/- 2nd angle) of (theta) n and-(theta) n degree (refer step S38-3, FIG. 19 (a), (d)). (a)は左方向投影画像の場合の円弧面積の算出方法を示す図であり、(b)は(a)で求めた面積の比率を示す図である。(A) is a figure which shows the calculation method of the circular arc area in the case of a left direction projection image, (b) is a figure which shows the ratio of the area calculated | required by (a). 図40で説明した後極部における円弧面積の算出処理例を示すフローチャート図である。FIG. 41 is a flowchart illustrating an example of calculation processing of an arc area in a rear pole portion described in FIG. 40. (a)は、後極部における円弧面積の算出方法(狭領域)を示す図であり、(b)は面積比を示す図である。(A) is a figure which shows the calculation method (narrow area | region) of the circular arc area in a rear pole part, (b) is a figure which shows an area ratio. 図42で説明した後極部における円弧面積の算出処理例を示すフローチャート図である。FIG. 43 is a flowchart illustrating an example of calculation processing of an arc area in a rear pole portion described in FIG. 42. 後極部3エッジ点(先鋭度)の成す角ηの算出方法を説明する図である。It is a figure explaining the calculation method of angle (eta) which the back pole part 3 edge point (sharpness) comprises. 解析対象の6方向投影画像例であり、左右、上下、前後の6方向からの投影画像が得られていることがわかる。It is an example of a six-direction projection image to be analyzed, and it can be seen that projection images from six directions, i.e., left and right, up and down, and front and rear, are obtained. 解析における解析パラメータの設定画面の例を示す図である。It is a figure which shows the example of the setting screen of the analysis parameter in analysis. 解析結果の一例を示す図であり、解析処理に基づく解析結果を一画面で見る図である。It is a figure which shows an example of an analysis result, and is a figure which sees the analysis result based on an analysis process on one screen. 図45に対応する図であり、解析時の補助線設定状況の確認画面の一例を示す図である。It is a figure corresponding to FIG. 45, and is a figure which shows an example of the confirmation screen of the auxiliary line setting condition at the time of analysis. 強度近視の場合の解析対象の6方向投影画像の例を示す図である。It is a figure which shows the example of the 6 direction projection image of the analysis object in the case of intense myopia. 解析パラメータの設定画面例を示す図である。It is a figure which shows the example of a setting screen of an analysis parameter. 図50と同じ設定において、解析を行った結果の例を示す図である。It is a figure which shows the example of the result of having analyzed in the same setting as FIG. 解析時の補助線設定状況の確認画面を示す図である。It is a figure which shows the confirmation screen of the auxiliary line setting condition at the time of analysis. 解析対象の6方向投影画像(軽症)の6方向投影画像の例を示す図である。It is a figure which shows the example of the 6-direction projection image of the 6-direction projection image (mild) of the analysis object. 左眼を解析対称とした解析パラメータの設定画面である。It is a setting screen of the analysis parameter which made the left eye an analysis symmetry. 図54に基づく解析結果を示す図である。It is a figure which shows the analysis result based on FIG. 解析時の補助線設定状況の確認画面の例を示す図である。It is a figure which shows the example of the confirmation screen of the auxiliary line setting condition at the time of analysis. 解析時の補助線設定状況の確認画面であって、眼軸の修正(この例では手動修正)を付加した様子を示す図である。It is a confirmation screen of the auxiliary line setting situation at the time of analysis, and is a diagram showing a state in which correction of the eye axis (manual correction in this example) is added. 解析パタメータの設定画面であり、例えば図54に示す設定画面から設定値が変更されていないが、設定値を画面で確認することができる。This is the analysis parameter setting screen. For example, the setting value is not changed from the setting screen shown in FIG. 54, but the setting value can be confirmed on the screen. 修正後の再解析結果の一例を示す図である。It is a figure which shows an example of the reanalysis result after correction.

本発明の実施の形態における強度近視の検査技術は、3次元トモグラフィー技術を用いて、眼球を含む複数の視点からの投影画像を取得し、この投影画像に基づいて、強度近視の診断を行うことを特徴とするものである。   Intensity myopia inspection technology according to an embodiment of the present invention uses three-dimensional tomography technology to acquire projection images from a plurality of viewpoints including an eyeball, and performs diagnosis of intensity myopia based on the projection images. It is characterized by.

以下に、本発明の実施の形態による頭部MRI撮影データを用いた眼科疾患の画像解析技術について、強度近視を例にして詳細に説明する。   Hereinafter, an image analysis technique for an ophthalmic disease using head MRI imaging data according to an embodiment of the present invention will be described in detail with an example of intensity myopia.

まず始めに、強度近視診断の大まかな診断処理の流れについて、図1のフローチャート図を参照しながら説明を行う。まず、ステップS1において、一般的な眼科診断機器による診断を行う。一般的な眼科診断とは、視力検査、屈折率検査、網膜の病変検査、視野の検査などである。ステップS2において、診断は確定したか否かを判定する。診断が確定していれば、治療方針も確定する(ステップS8へ)。   First, the flow of a rough diagnosis process for intensity myopia diagnosis will be described with reference to the flowchart of FIG. First, in step S1, diagnosis is performed using a general ophthalmologic diagnosis device. Common ophthalmic diagnoses include visual acuity tests, refractive index tests, retinal lesion tests, visual field tests, and the like. In step S2, it is determined whether or not the diagnosis is confirmed. If the diagnosis is confirmed, the treatment policy is also confirmed (to step S8).

ステップS2でNoの場合には、頭部MRI撮影及び眼球部位のレンダリング(左右眼球別々に)を行う。ステップS4において、上下左右前後の6方向の頭部の投影画像データを左右眼球別に生成する。次いで、2次元(2D)投影画像に対する画像解析処理を行う。ステップS6において、形状パラメータおよび強度近視タイプの分類処理を行う。ステップS6の結果より、治療方針の検討を行い(ステップS7)、ステップS8に進み治療方針が確定する。   In the case of No in step S2, head MRI imaging and eyeball part rendering (separate left and right eyeballs) are performed. In step S4, projection image data of the head in six directions, up, down, left and right, front and rear, is generated for each left and right eyeball. Next, image analysis processing is performed on a two-dimensional (2D) projection image. In step S6, shape parameter and intensity myopia type classification processing is performed. Based on the result of step S6, the treatment policy is examined (step S7), and the process proceeds to step S8 to determine the treatment policy.

図2Aは、本実施の形態による、頭部MRI撮影データを用いた眼科疾患の画像解析技術を利用した強度近視診断手法の概要を示すフローチャート図である。図2B(a)は、人体の頭部を撮影したMRIより眼球部位をスライスした断層画像の例を示し、更に頭部MRI撮影データより片側の眼球部を抽出した3次元ボクセル画像に対して、図2B(b)は左から見た眼球の投影画像、図2B(c)は上方から見た眼球の投影画像、図2B(d)は後方から見た眼球の投影画像である。   FIG. 2A is a flowchart showing an overview of an intensity myopia diagnosis method using an image analysis technique for ophthalmic diseases using head MRI imaging data according to the present embodiment. FIG. 2B (a) shows an example of a tomographic image obtained by slicing an eyeball part from an MRI obtained by imaging the head of a human body, and for a three-dimensional voxel image obtained by extracting one eyeball part from the head MRI imaging data. 2B (b) is a projected image of the eyeball viewed from the left, FIG. 2B (c) is a projected image of the eyeball viewed from above, and FIG. 2B (d) is a projected image of the eyeball viewed from the rear.

図2Aに示すように、まず、ステップS11で、頭部MRI撮影を行い、眼球部位のボクセルデータを左右眼球別に抽出する(特許第3049021号公報に記載の方法を用いることができる)。   As shown in FIG. 2A, first, in step S11, head MRI imaging is performed, and voxel data of the eyeball region is extracted for each of the left and right eyeballs (the method described in Japanese Patent No. 3049021 can be used).

次いで、ステップS21において、左右別に、各眼球ボクセルデータに対し、上下方向または左右方向の2次元投影像をボリュームレンダリング(上下方向または左右方向に各1枚または2枚)して、投影画像を作成する(特許第4497965号公報に記載の方法を用いることができる)。   Next, in step S21, a two-dimensional projection image in the vertical direction or the horizontal direction is volume-rendered (one or two in the vertical direction or the horizontal direction) for each eyeball voxel data separately on the left and right sides to create a projection image. (The method described in Japanese Patent No. 4497965 can be used).

次いで、ステップS31において、左右眼球別に2〜4枚の上下方向または左右方向の各投影画像に対し眼軸を設定する。任意に、後極の形状特徴を投影画像により計測する。   Next, in step S31, an eye axis is set for each of 2 to 4 projection images in the vertical direction or the horizontal direction for the left and right eyeballs. Optionally, the shape characteristic of the back pole is measured from the projection image.

さらに、ステップS51おいて、左右眼球別に各眼球ボクセルデータに対し、後方向の2次元投影像をレンダリングして投影画像(各1枚)を作成する。この投影画像を用いて、任意に、突出数を計測する。   Further, in step S51, a rearward two-dimensional projection image is rendered for each eyeball voxel data for each of the left and right eyeballs to create a projection image (one each). Using this projection image, the number of protrusions is arbitrarily measured.

図2B(a)は、健常者の頭部MRIによる断層画像である。図2B(b)の左から見た眼球の投影画像、図2B(c)の上方から見た眼球の投影画像、図2B(d)の後方から見た眼球の投影画像を用いている。   FIG. 2B (a) is a tomographic image obtained by a head MRI of a healthy person. The projection image of the eyeball seen from the left of FIG. 2B (b), the projection image of the eyeball seen from the upper part of FIG. 2B (c), and the projection image of the eyeball seen from the rear of FIG. 2B (d) are used.

図3(a)は、本発明の一実施の形態による画像解析装置の一構成例を示す機能ブロック図であり、図3(b)は、投影画像解析部の構成例を示す機能ブロック図である。   FIG. 3A is a functional block diagram illustrating a configuration example of an image analysis apparatus according to an embodiment of the present invention, and FIG. 3B is a functional block diagram illustrating a configuration example of a projection image analysis unit. is there.

図3(a)に示す画像解析装置は、MRIにより取得した画像を入力する画像入力部1と、画像からボクセルデータを抽出するボクセル画像抽出部3と、ボクセルデータから投影画像を算出する投影画像算出部5と、この投影画像の画像解析を行う投影画像解析部7と、解析結果を出力する出力部11と、を有している。図3(b)に示すように、画像解析部7は、非対称性を算出する非対称性算出部7−1と、尖鋭度合いを算出する尖鋭度合い算出部7−2と、後極突出部のピークを算出する後極突出部ピーク算出部7−3と、眼軸を自動で設定する眼軸自動設定部7−4と、頂点を補正する頂点補正部7−5と、を有している。   The image analysis apparatus shown in FIG. 3A includes an image input unit 1 that inputs an image acquired by MRI, a voxel image extraction unit 3 that extracts voxel data from the image, and a projection image that calculates a projection image from the voxel data. The calculation unit 5 includes a projection image analysis unit 7 that performs image analysis of the projection image, and an output unit 11 that outputs an analysis result. As shown in FIG. 3B, the image analysis unit 7 includes an asymmetry calculation unit 7-1 that calculates asymmetry, a sharpness degree calculation unit 7-2 that calculates the degree of sharpness, and a peak of the rear pole protrusion. A rear pole protrusion peak calculation unit 7-3 for calculating the eye axis, an eye axis automatic setting unit 7-4 for automatically setting the eye axis, and a vertex correction unit 7-5 for correcting the vertex.

図4は、本実施の形態によるMRIにより取得した投影画像を用いた強度近視の計測パラメータを示す図であり、例えば図2Bの(b)から(d)までの投影画像より求める。図4(a)は、眼軸に沿った眼の長さである眼軸長L1を上下・左右の投影画像より求める方法を示す図であり、例えば、眼軸長L1を、上下・左右方向の4つの投影画像による計測結果の平均値で判定する。図2B(b)の投影画像でいえば、白で表示されている眼球部分の中で左側の小さな半円領域(水晶体)の左端部分から、眼球の右端部分まで水平方向(図2B(b)の場合は若干右上向きに)に伸ばした線の長さを求める。図4(b)は、後極先鋭度θを求める方法を示す図であり、C1を眼軸として計測用重心より後極方向に±θnの角度で伸ばした後極輪郭線との2つの交点と眼球後極部頂点とを結んだ線L、Lのなす角度θ(後極尖鋭度θ)を、上下・左右方向の4つの投影画像による計測結果の平均値で判定する。図4(c)は、左右対称性を求める方法を示す図であり、例えば、左右対称性を、上下方向の2つの投影画像による計測結果の平均値で判定する。具体的には、図4(c)では、眼軸C1により区画された耳側領域(右目の場合:0〜+θ、左目の場合:0〜−θ)の後極の面積Eと鼻側領域(右目の場合:0〜−θ、左目の場合:0〜+θ)の後極の面積Nとの比を求める。実際には、後述するように、θより小さいθを用いて面積Eと面積Nとの比を同様に求め、いずれか面積の比率の非対称度が大きい方を採用する。尚、この左右対称性は重症度との相関が高く重要なパラメータである。図4(d)は、上下対称性を求める方法を示す図であり、例えば、上下対称性を眼軸C1により区画された上側領域T(0〜+θ)と下側領域B(0〜−θ)との比T/B面積比率を求め、上下の値の平均値を求める。実際には、後述するように、θより小さいθを用いて面積Tと面積Bとの比を同様に求め、いずれか面積の比率が大きい方を採用する。図4(e)は、後極突出数を後方向の投影画像より求めるものであり、後部ぶどう腫の数が複数個あるか否かを求める。 FIG. 4 is a diagram showing intensity myopia measurement parameters using projection images acquired by MRI according to the present embodiment, and is obtained from, for example, the projection images from (b) to (d) of FIG. 2B. FIG. 4A is a diagram showing a method of obtaining the axial length L1 that is the length of the eye along the axial axis from the vertical and horizontal projection images. For example, the axial length L1 is calculated in the vertical and horizontal directions. The average value of the measurement results from the four projected images is determined. In the projection image of FIG. 2B (b), the horizontal direction from the left end portion of the small semicircle region (crystal) on the left side to the right end portion of the eyeball in the eyeball portion displayed in white (FIG. 2B (b) In the case of, find the length of the line stretched slightly upwards). FIG. 4B is a diagram showing a method for obtaining the posterior pole sharpness θ, and two intersections with the posterior polar contour line that extends from the measurement center of gravity to the posterior pole direction at an angle of ± θn with C1 as the eye axis. The angle θ (rear pole sharpness θ) formed by the lines L 2 and L 3 connecting the vertebra and the apex of the back of the eyeball is determined by the average value of the measurement results of the four projected images in the vertical and horizontal directions. FIG. 4C is a diagram illustrating a method for obtaining the left-right symmetry. For example, the left-right symmetry is determined by the average value of the measurement results obtained from the two vertical projection images. Specifically, in FIG. 4 (c), the area E and the nose of the posterior pole divided by the eye axis C1 (the right eye: 0 to + θ W , the left eye: 0 to −θ W ). The ratio with the area N of the rear pole of the side region (for the right eye: 0 to −θ W , for the left eye: 0 to + θ W ) is obtained. Actually, as will be described later, the ratio of the area E to the area N is similarly obtained using θ n smaller than θ W , and the one having the larger asymmetry degree of the area ratio is adopted. This symmetry is an important parameter having a high correlation with the severity. FIG. 4D is a diagram illustrating a method of obtaining vertical symmetry. For example, the upper region T (0 to + θ W ) and the lower region B (0 to −) whose vertical symmetry is partitioned by the eye axis C1. The ratio T / B area ratio with θ W ) is obtained, and the average value of the upper and lower values is obtained. Actually, as will be described later, the ratio between the area T and the area B is similarly obtained using θ n smaller than θ W , and the one with the larger area ratio is adopted. FIG. 4 (e) obtains the number of rear pole protrusions from the projected image in the rear direction, and obtains whether or not there are a plurality of rear vines.

Figure 2013048696
Figure 2013048696

表1は、MRIによる強度近視のタイプ分類の一例を示すものである。表1に示すように、4桁タイプの分類コード(0000〜2221までの全54通り)は、1の位が眼軸長であり、正常が“0”、異常が“1”である。10の位は、左右方向の対称性(上下の投影画像で後極左右方向θ度円弧の面積比で判定する)であり、0:対称、1:鼻寄り(面積比90%未満)、2:耳寄り(面積比110%以上)である。100の位は、上下方向の対称性であり、左右像で後極上下方向θ度円弧の面積比で判定する。0:対称、1:下寄り(90%未満)、2:上寄り(110%以上)とする。1000の位は、後極尖鋭タイプであり、上下左右の投影画像で後極先端中心の成す角で判定する。0:中間、1:紡錘型(140度未満)、2:樽型(150度以上)である。この4桁のコードにより、強度近視に関する病態等を分類して整理することができる。 Table 1 shows an example of type classification of intensity myopia by MRI. As shown in Table 1, in the four-digit type classification code (all 54 patterns from 0000 to 2221), the first place is the axial length, normal is “0”, and abnormality is “1”. Position 10 is a horizontal direction of symmetry (determined at the posterior pole lateral direction theta w degree arc area ratio above and below the projection image), 0: symmetry, 1: Nose closer (area ratio less than 90%), 2: Close to the ear (area ratio of 110% or more). 100's place are vertical symmetry, it determines at best under the direction theta w degree arc area ratio rear left and right images. 0: Symmetric, 1: Lower (less than 90%), 2: Upper (110% or more). The position of 1000 is the rear pole sharp type, which is determined by the angle formed by the center of the rear pole tip in the upper, lower, left and right projected images. 0: Intermediate, 1: Spindle type (less than 140 degrees), 2: Barrel type (150 degrees or more). With this four-digit code, it is possible to classify and organize the pathological conditions related to intense myopia.

図5は、本実施の形態による、MRIによる強度近視診断手法の一例を示す図である。図6は、眼球の前後左右上下方向の各投影画像(300×300画素)であり、前後方向の投影画像は解析に必須のものではないが、参照用に取得している。   FIG. 5 is a diagram showing an example of an intensity myopia diagnostic technique based on MRI according to the present embodiment. FIG. 6 shows projection images (300 × 300 pixels) in the front-rear, left-right, up-down directions of the eyeball. The projection images in the front-rear direction are not essential for analysis, but are acquired for reference.

まず、ステップS11において、頭部MRI撮影を行う(眼球部位のボクセルデータを左右眼球別に抽出する)。その処理アルゴリズムとしては、例えば、特許第3049021号に記載の方法を用いることができる。左右眼球別に各眼球ボクセルデータに対し、上下、左右、前後6方向の2次元投影像をレンダリングする(全6枚)。その処理アルゴリズムとしては、例えば、特許第4497965号に記載の方法を用いることができる。   First, in step S11, head MRI imaging is performed (voxel data of the eyeball region is extracted for each of the left and right eyeballs). As the processing algorithm, for example, the method described in Japanese Patent No. 3049021 can be used. For each eyeball voxel data for each left and right eyeball, two-dimensional projection images in six directions, up and down, left and right, and front and rear, are rendered (total of six images). As the processing algorithm, for example, the method described in Japanese Patent No. 4497965 can be used.

より詳細には、上方向・下方向・左方向・右方向の4投影画像に対しては、後述する手法により眼軸を自動または手動で設定し、パラメータを算出する。後方向の投影画像については、後部ぶどう腫の突出の個数を自動または目視で判定するためのもので、複数個存在する場合に、後述する左右対称性または上下対称性の結果が適切に判定されない場合があるため、その結果を補足するために使用する。後部ぶどう腫の突出の個数を自動抽出する手法としては、上記特許文献8に記載の核医学画像よりピーク点を自動抽出するアルゴリズムにより実現できる。前方向の投影画像については解析対象としないが、自動設定される眼軸が適切か否かを読影医が判断するための参考にする。   More specifically, for the four projected images in the upward, downward, leftward, and rightward directions, the eye axis is set automatically or manually by a method described later, and parameters are calculated. The rear projection image is for automatically or visually determining the number of protrusions of the posterior vine, and when there are a plurality of projections, the result of left-right symmetry or vertical symmetry described later is not properly determined. It may be used to supplement the results. As a method for automatically extracting the number of protrusions of the posterior vine, it can be realized by an algorithm for automatically extracting peak points from the nuclear medicine image described in Patent Document 8. Although the forward projection image is not subject to analysis, it is used as a reference for the interpretation doctor to determine whether or not the automatically set eye axis is appropriate.

続いて、後述する図7A(b)のように、4つの各投影画像ごとに設定された眼軸上に後極エッジ点Pbより所定の距離の位置に計測用重心Poを定義する。この計測用重心Poは、正常眼の場合は、眼軸Pf-Pbの中点あるいは眼球重心Pgに近くなるが、強度近視眼では眼球の後部側に偏る。これら設定された眼軸および計測用重心を基に、図4で示される4つのパラメータを以下のように解析する。   Subsequently, as shown in FIG. 7A (b), which will be described later, a measurement gravity center Po is defined at a predetermined distance from the rear pole edge point Pb on the eye axis set for each of the four projected images. The center of gravity Po for measurement is close to the midpoint of the eye axis Pf-Pb or the center of gravity of the eyeball Pg in the case of a normal eye, but is biased toward the rear side of the eyeball in high myopia. Based on these set eye axes and measurement center of gravity, the four parameters shown in FIG. 4 are analyzed as follows.

次いで、ステップS31−1において、上下または左右方向の4枚の投影画像に対し、眼軸を設定し、後極の形状特徴を画像計測する(4投影画像分、繰り返すが、少なくとも1枚の投影画像があれば処理は可能である)。次いで、ステップS31−2において、4枚の投影画像の計測結果を基に、左右方向の対称性、上下方向の対称性、後極尖鋭度を算出する。ここで、左右方向の対称性は上下方向の投影画像の計測結果の平均値を算出し、上下方向の対称性は左右方向の投影画像の計測結果の平均値を算出し、後極尖鋭度は4枚の投影画像の計測結果の平均値を算出する。次いで、ステップS51において、後方向の投影画像に対し、突出数を計測する。
上記の処理により、図4に示したパラメータを実際の眼球に関して求めることができる。
Next, in step S31-1, the eye axis is set for the four projected images in the vertical and horizontal directions, and the shape characteristic of the posterior pole is measured (repeated by four projected images, but at least one projection is performed). Processing is possible if there is an image). Next, in Step S31-2, the left-right direction symmetry, the up-down direction symmetry, and the rear pole sharpness are calculated based on the measurement results of the four projected images. Here, the symmetry in the horizontal direction calculates the average value of the measurement results of the vertical projection image, the symmetry in the vertical direction calculates the average value of the measurement result of the horizontal projection image, and the rear polar sharpness is An average value of the measurement results of the four projected images is calculated. Next, in step S51, the number of protrusions is measured for the backward projected image.
With the above processing, the parameters shown in FIG. 4 can be obtained for the actual eyeball.

図7A、Bは、強度近視の形態解析パラメータの具体例を示す図である。図7A・Bをもとに、各パラメータの解析方法の概略について説明する。   7A and 7B are diagrams illustrating specific examples of the morphological analysis parameters for intensity myopia. Based on FIGS. 7A and 7B, an outline of an analysis method of each parameter will be described.

(1)眼軸長: 眼軸長は図7A(a)をもとに説明する。上方向・下方向・左方向・右方向の4方向の各投影画像ごとに設定された眼軸P−Pの長さを個別に算出する。続いて、左方向または右方向の投影画像の眼軸P−PとX軸(水平線)とのなす角αを算出するとともに、上方向または下方向の投影画像の眼軸P−PとY軸(垂直線)とのなす角βを算出する。左方向または右方向の投影画像から算出される眼軸長に対しては、1/cosβを乗算して上下方向の傾き補正を行い、上方向または下方向の投影画像から算出される眼軸長に対しては、1/cosαを乗算して左右方向の傾き補正を行う。ただし、これらの補正係数による補正量はかなり微小であるため、実用上は省略しても影響ない。最後に、これら4方向の投影画像を基に算出された眼軸長L、L、L、Lの平均値((L+L+L+L)/4)が、所定のしきい値(例.175画素)を超えるか否かで0(正常)または1(異常)と判定する。 (1) Axial length: The axial length is described based on FIG. 7A (a). The lengths of the eye axes P f -P b set for each of the projected images in the four directions of the upward direction, the downward direction, the left direction, and the right direction are calculated individually. Subsequently, the angle α formed between the eye axis P f −P b of the left or right projected image and the X axis (horizontal line) is calculated, and the eye axis P f −P of the upward or downward projected image. An angle β formed by b and the Y axis (vertical line) is calculated. For the axial length calculated from the projected image in the left or right direction, the axial length calculated from the projected image in the upward or downward direction is obtained by multiplying 1 / cosβ to correct the tilt in the vertical direction. Is multiplied by 1 / cos α to correct the horizontal inclination. However, since the correction amount by these correction coefficients is very small, there is no effect even if omitted in practice. Finally, an average value ((L 1 + L 2 + L 3 + L 4 ) / 4) of the axial lengths L 1 , L 2 , L 3 , and L 4 calculated based on the projection images in the four directions is a predetermined value. It is determined as 0 (normal) or 1 (abnormal) depending on whether a threshold value (eg, 175 pixels) is exceeded.

(2)後極尖鋭度: 後極尖鋭度は図7A(b)をもとに説明する。上方向・下方向・左方向・右方向の4方向の各投影画像ごとに後極エッジ点Pにおける曲率を算出する。ただし、曲率半径では固体差が生じにくいので、計測用重心Pから後極エッジ点Pを中心に左右または上下に所定の角度(例えば、±θ度)方向に延長した直線の後極輪郭線上の交点をP+nとP−nとし、2つの交点とPbとの3頂点のなす角P+n−P−P−nを算出し、この角度(360度単位)を後極尖鋭度と定義する。具体的には、

Figure 2013048696
により算出できる。そして、4方向の画像を基に算出された後極尖鋭度θ、θ、θ、θの平均値((θ+θ+θ+θ)/4)が、2つの下限しきい値(例.140度)と上限しきい値(例.150度)を設定し、両しきい値範囲であれば0(中間型)、下限しきい値未満は1(紡錘型)、上限しきい値を超えたら2(樽型)と判定する。 (2) Rear pole sharpness: The rear pole sharpness will be described based on FIG. 7A (b). Calculating a curvature at Kokyoku edge point P b every four directions of each projected image upward, downward, leftward and right direction. However, since a difference in solids hardly occurs at the radius of curvature, the rear pole of a straight line extending in the direction of a predetermined angle (for example, ± θ n degrees) from the center of gravity P 0 to the left or right or up and down around the rear pole edge point P b. the intersection of the contour and P + n and P -n, calculates the angle P + n -P b -P -n three vertices of the two intersections and Pb, the angle (360 ° increments) the posterior pole acuity It is defined as In particular,
Figure 2013048696
Can be calculated. Then, the average value ((θ 1 + θ 2 + θ 3 + θ 4 ) / 4) of the rear polar sharpness θ 1 , θ 2 , θ 3 , θ 4 calculated based on the images in the four directions has two lower limits. Set threshold value (eg 140 degrees) and upper threshold value (eg 150 degrees), 0 (intermediate type) if both threshold ranges, 1 (spindle type) if lower threshold value, upper limit If it exceeds the threshold, it is determined to be 2 (barrel type).

(3)左右対称性: 左右対称性は、図7B(c)を用いて説明する。上方向または下方向の投影画像の各計測用重心Pから後極エッジ点Pを中心に左右に大小2種類の角度(例えば、±θ度および±θ度)方向に延長した直線の後極輪郭線上の交点をP+wとP−wおよびP+nとP−nとする。そして、P−P−P+wで囲まれた円弧の面積をS+w、P−P−P−wで囲まれた円弧の面積をS−w、P−P−P+nで囲まれた円弧の面積をS+n、P−P−P−nで囲まれた円弧の面積をS-nとして、4領域の円弧面積を算出する。

Figure 2013048696
続いて、右眼の場合はS+w×100/S−wを広領域E/N面積比率およびS+n×100/S−nを狭領域E/N面積比率とし、左眼の場合はS−w×100/S+wを広領域E/N面積比率およびS−n×100/S+nを狭領域E/N面積比率として算出する。そして、2種類の広領域E/N面積比率と狭領域E/N面積比率より100との差が大きい方のE/N面積比率を左右対称性の判定に採用し、上方向と下方向の投影画像を基に算出された2投影画像のE/N面積比率(耳側/鼻側比率)[%]の平均値を左右対称性とする。最後に、2つの下限しきい値(例.90%)と上限しきい値(例.110%)を設定し、両しきい値範囲であれば0(対称)、下限しきい値未満は1(鼻側非対称)、上限しきい値を超えたら2(耳側非対称)と判定する。 (3) Left-right symmetry: Right-left symmetry will be described with reference to FIG. 7B (c). Straight lines extending in the direction of two types of angles (for example, ± θ w degrees and ± θ n degrees) from the measurement center of gravity P 0 of the upward or downward projection image to the left and right around the rear pole edge point P b Let P + w and P −w and P + n and P −n be the intersections on the rear polar outline. The area of the arc surrounded by P 0 -P b -P + w is S + w , the area of the arc surrounded by P 0 -P b -P -w is S -w , and P 0 -P b -P + n. The arc area of four regions is calculated with the area of the arc surrounded by S + n and the area of the arc surrounded by P 0 −P b −P −n being S −n .
Figure 2013048696
Subsequently, in the case of the right eye, S + w × 100 / S −w is the wide region E / N area ratio and S + n × 100 / S −n is the narrow region E / N area ratio, and in the case of the left eye, S − w × 100 / S + w is calculated as the wide region E / N area ratio, and S −n × 100 / S + n is calculated as the narrow region E / N area ratio. Then, the E / N area ratio, which has a larger difference between the two types of wide area E / N area ratio and 100 than the narrow area E / N area ratio, is adopted for the determination of left-right symmetry. The average value of the E / N area ratio (ear side / nose side ratio) [%] of the two projected images calculated based on the projected images is defined as left-right symmetry. Finally, two lower threshold values (eg 90%) and upper threshold value (eg 110%) are set. If both threshold ranges are 0 (symmetric), less than the lower threshold is 1 (Nose side asymmetry), 2 (ear side asymmetry) is determined if the upper threshold is exceeded.

尚、大小2種類の角度範囲でE/N面積比率を算出する理由は、後極部の拡張容積が比較的小さい場合には、後極エッジ点Pbがわずかに左右(通常は耳側)に偏移し、後極部の拡張容積が比較的大きい場合には、後極部が大きく左右(通常は鼻側)に偏移するという強度近視の病態進行上の特性によるものである。前者の場合は狭領域E/N面積比率で非対称性と判定されるが、広領域E/N面積比率では対称と判定されやすい。一方、後者の場合は狭領域E/N面積比率で非対称性(通常は耳側)と判定されるとともに、広領域E/N面積比率でも反対方向(通常は鼻側)に非対称と判定され、後者の非対称性の方が顕著であることを、見出した。   The reason for calculating the E / N area ratio in the two large and small angle ranges is that the rear pole edge point Pb is slightly left and right (usually the ear side) when the expansion volume of the rear pole is relatively small. This is due to the characteristic of the myopia progression of intense myopia that the rear pole part is shifted to the left and right (usually the nasal side) when the rear volume part is displaced and the expansion volume of the rear pole part is relatively large. In the former case, the narrow area E / N area ratio is determined to be asymmetric, but the wide area E / N area ratio is easily determined to be symmetric. On the other hand, in the latter case, the narrow area E / N area ratio is determined to be asymmetric (usually the ear side), and the wide area E / N area ratio is also determined to be asymmetric in the opposite direction (usually the nose side). The latter asymmetry was found to be more prominent.

(4)上下対称性:上下対称性は、図7B(d)を用いて説明する。左方向または右方向の投影画像の各計測用重心Poから、上記左右対称性の算出手法と同様に、後極エッジ点Pbを中心に上下に大小2種類の角度(例えば、±θ度および±θ度)方向に延長した直線の後極輪郭線上の交点をP+wとP−wおよびP+nとP−nとする。そして、P−P−P+wで囲まれた円弧の面積をS+w、P−P−P−wで囲まれた円弧の面積をS−w、P−P−P+nで囲まれた円弧の面積をS+n、P−P−P−nで囲まれた円弧の面積をS−nとして、4領域の円弧面積を算出する。続いて、S+w×100/S−wを広領域T/B面積比率およびS+n×100/S−nを狭領域T/B面積比率として算出する。そして、2種類の広領域T/B面積比率と狭領域T/B面積比率より100との差が大きい方のT/B面積比率を上下対称性の判定に採用し、左方向と右方向の投影画像を基に算出された2つの投影画像のT/B面積比率(上側/下側比率)[%]の平均値を上下対称性とする。最後に、2つの下限しきい値(例.90%)と上限しきい値(例.110%)を設定し、両しきい値範囲であれば0(対称)、下限しきい値未満は1(下側非対称)、上限しきい値を超えたら2(上側非対称)と判定する。ただし、強度近視では上側非対称と判定される例は稀である。 (4) Vertical symmetry: Vertical symmetry will be described with reference to FIG. 7B (d). From the center of gravity Po for each measurement of the left or right projection image, two angles (for example, ± θ w degrees and up and down) with respect to the back pole edge point Pb up and down are used in the same manner as the above-described left-right symmetry calculation method. Intersections on the rear polar outline of the straight line extending in the direction of ± θ n degrees) are defined as P + w and P −w and P + n and P −n . The area of the arc surrounded by P 0 -P b -P + w is S + w , the area of the arc surrounded by P 0 -P b -P -w is S -w , and P 0 -P b -P + n. The arc area of the four regions is calculated with the area of the arc surrounded by S + n and the area of the arc surrounded by P 0 −P b −P −n being S −n . Subsequently, S + w × 100 / S −w is calculated as a wide region T / B area ratio, and S + n × 100 / S −n is calculated as a narrow region T / B area ratio. Then, the T / B area ratio having the larger difference between the two types of wide area T / B area ratio and 100 than the narrow area T / B area ratio is adopted for the determination of the vertical symmetry. The average value of the T / B area ratio (upper / lower ratio) [%] of the two projection images calculated based on the projection images is defined as vertical symmetry. Finally, two lower threshold values (eg 90%) and upper threshold value (eg 110%) are set. If both threshold ranges are 0 (symmetric), less than the lower threshold is 1 (Lower asymmetric), if the upper threshold value is exceeded, 2 (upper asymmetric) is determined. However, in the case of high myopia, it is rare to be determined as upper asymmetric.

以上の解析を行うと、眼軸長は0(正常)または1(異常)の2通り、後極尖鋭度は0(中間型)、1(紡錘型)、2(樽型)の3通り、左右対称性は0(対称)、1(鼻側非対称)または2(耳側非対称)の3通り、上下対称性は0(対称)、1(下側非対称)、2(上側非対称)の3通りに分類され、強度近視の病態が理論上は正常眼を含めて全54通りにタイプ分類されることになる。   When the above analysis is performed, the axial length is 0 (normal) or 1 (abnormal), and the posterior sharpness is 0 (intermediate type), 1 (spindle type), 2 (barrel type), Left / right symmetry is 0 (symmetric), 1 (nasal asymmetry) or 2 (ear asymmetry), and vertical symmetry is 0 (symmetry), 1 (lower asymmetry), 2 (upper asymmetry). The pathological conditions of high myopia are theoretically classified into 54 types including normal eyes.

以下に、前述した形態解析パラメータの算出を行うための、投影画像に対する具体的な前処理の内容を説明する。   Below, the content of the specific pre-processing with respect to a projection image for calculating the form analysis parameter mentioned above is demonstrated.

図8(a)、図9(a)、図10(a)は、ステップS31−1の、上下方向又は左右方向の投影画像の解析処理を示す図である。図8(b)、図9(c)、図10(d)は、それぞれの処理に対応する画像の概要を示す図である。   FIG. 8A, FIG. 9A, and FIG. 10A are diagrams illustrating the analysis processing of the projected image in the vertical direction or the horizontal direction in step S31-1. FIG. 8B, FIG. 9C, and FIG. 10D are diagrams showing an outline of an image corresponding to each process.

まず、ステップS32において、左右方向、上下方向のいずれかの投影画像に対し、投影画像の二値化処理と輪郭抽出する(図8(b)参照)。次いで、ステップS33において、眼軸Cの自動設定処理を行う(ステップS33)。ステップS34において、設定された眼軸は適正か否かを判定し、Yesの場合には、ステップS36に、Noの場合にはステップS35に進む。ステップS35では、眼軸の修正処理を行う(図8(d)参照)。ここでは、眼軸Cと眼球の輪郭との交点を上下させて眼軸をC’に修正する。
図9(a)に示すように、ステップS36で、決定された眼軸Cで眼軸長(前極側エッジ点から後極側エッジ点までの距離Da)を計測する(図9(b): Da={(X2−X1)+(Y2−Y1)1/2)。
First, in step S32, the binarization process and contour extraction of the projected image are performed on the projected image in either the horizontal direction or the vertical direction (see FIG. 8B). Next, in step S33, an automatic setting process for the eye axis C is performed (step S33). In Step S34, it is determined whether or not the set eye axis is appropriate. If Yes, the process proceeds to Step S36, and if No, the process proceeds to Step S35. In step S35, an eye axis correction process is performed (see FIG. 8D). Here, the intersection of the eye axis C and the outline of the eyeball is moved up and down to correct the eye axis to C ′.
As shown in FIG. 9 (a), in step S36, the axial length (distance Da from the front pole side edge point to the rear pole side edge point) is measured with the determined eye axis C (FIG. 9 (b)). : Da = {(X2-X1 ) 2 + (Y2-Y1) 2} 1/2).

ステップS37で、眼軸C上に後極側エッジ点より所定の距離位置(正常眼軸長/2)に計測用の重心点Po(X0,Y0)を追加する。ここで、X0=(X1−X2)Ds/Da+X2、Y0=(Y1−Y2)Ds/Da+Y2である(図9(c)参照)。実施例では、Ds=87pixel(13.4mm)である。   In step S37, a measurement center of gravity Po (X0, Y0) is added to the eye axis C at a predetermined distance position (normal eye axis length / 2) from the rear pole side edge point. Here, X0 = (X1-X2) Ds / Da + X2 and Y0 = (Y1-Y2) Ds / Da + Y2 (see FIG. 9C). In the embodiment, Ds = 87 pixels (13.4 mm).

ステップS38において、後極側輪郭に、後極側エッジ点を中心に計測用重心点Poから正負θ・θ度の方向にエッジ点P+w、P+n、P−w、P−nを追加する(図9(d)参照)。 In step S38, edge points P + w , P + n , P −w , and P −n in the direction of positive / negative θ w · θ n degrees from the center of gravity Po for measurement centering on the rear pole side edge point are formed on the rear pole side contour. It adds (refer FIG.9 (d)).

次いで、図10に示すように、ステップS39において、後極部−θ(例えば22.5度を設定)〜0度および0度〜+θ度範囲で円弧面積比の算出(狭領域対称性)する(図10(b)参照)。ステップS40で、後極部−θ(例えば45度を設定)〜0度および0度〜+θ範囲で円弧面積比の算出(広領域対称性)する(図10(c)参照)。ステップS41で、狭領域面積比と広領域面積比のいずれか比率が大きい方を対称性パラメータとする。次いで、ステップS42において、後極部輪郭の−θ度、0度、+θ度の3つのエッジ点を結ぶなす角を算出する(図10(d)参照: 尖鋭度θ)。 Next, as shown in FIG. 10, in step S39, the arc area ratio is calculated in the range of the rear pole portion -θ n (for example, 22.5 degrees is set) to 0 degrees and 0 degrees to + θ n degrees (narrow region symmetry). (See FIG. 10B). In step S40, the calculation of the posterior pole portions - [theta] w (e.g. setting the 45 °) to 0 ° and 0 ° ~ + theta w arc area ratio in the range (wide area symmetry) to (see FIG. 10 (c)). In step S41, the larger one of the narrow area area ratio and the wide area area ratio is set as the symmetry parameter. Next, in step S42, an angle formed by connecting the three edge points of −θ n degrees, 0 degrees, and + θ n degrees of the rear pole contour is calculated (see FIG. 10D: sharpness θ).

図11(a)は、図5のステップS51からの、後方向投影画像処理の流れを示すフローチャート図である。まず、ステップS52において、後方向(左右各1枚)の投影画像に対し、平滑化フィルタ処理(ノイズ除去)を行う(図11(b)参照)。次いで、ステップS53において、更新された投影画像に対し、濃淡ピーク点Pn(n=1、2、…)をまず1つ抽出する。図11(c)はピークP1を抽出した様子を示す図である。図11(d)は、ピークP2を抽出した様子を示す図である。尚、ピークがない場合には、図12(a)のステップS55に進む。ピークがある場合には、ステップS54に進み、抽出したピーク点Pnの周辺画素値を0にクリアする(図11(e)、(f)参照)。   FIG. 11A is a flowchart showing a flow of backward projection image processing from step S51 of FIG. First, in step S52, smoothing filter processing (noise removal) is performed on the projected images in the backward direction (one each on the left and right) (see FIG. 11B). Next, in step S53, one shade peak point Pn (n = 1, 2,...) Is first extracted from the updated projection image. FIG. 11C is a diagram illustrating a state where the peak P1 is extracted. FIG. 11D is a diagram illustrating a state where the peak P2 is extracted. If there is no peak, the process proceeds to step S55 in FIG. If there is a peak, the process proceeds to step S54, and the peripheral pixel value of the extracted peak point Pn is cleared to 0 (see FIGS. 11E and 11F).

図12(a)は、図11(a)に続く処理を示す図である。ステップS54からステップS55に進み、原画像に対し、重心点Pg(Xg、Yg)を算出する(図12(b)、図12(c)より、図12(d)を求める)。   FIG. 12A is a diagram illustrating processing subsequent to FIG. Proceeding from step S54 to step S55, the barycentric point Pg (Xg, Yg) is calculated for the original image (see FIG. 12D from FIG. 12B and FIG. 12C).

各ピーク点(Px1、Py1),(Px2,Py2)の重心Pg(Xg,Yg)からのオフセットと角度(γ1、γ2)を算出する。   The offset and angle (γ1, γ2) from the center of gravity Pg (Xg, Yg) of each peak point (Px1, Py1), (Px2, Py2) are calculated.

Figure 2013048696
Figure 2013048696

次に、レンダリング画像の前処理について図13、図14を参照しながら説明する。
図13(b)は左方向レンダリング画像の例で、画像サイズはW300×H300画素程度(症例によりフレームからはみ出すこともあるため、画像サイズは若干増減する)で、階調はモノクロ256階調である。これに対して、固定しきい値(例えば、0〜255値に対して25を設定)で二値化を行った結果が図13(c)であり、眼球内部は1、背景は0で与えられる。この時、原画像の撮像状態により階調が均一でないと、右下部のように、二値化によりゴミ領域が残留する場合がある。数画素のゴミについては、上記特許文献8に記載のように、二値化処理の前に3×3の平均化マトリックス等を用いて、事前に平滑化を加えることで回避できる。比較的面積の大きいゴミ領域に対しては、二値画像から8近傍画素の連結性に基づいて閉領域を抽出する処理を行い、面積が所定のしきい値以下(例えば、200画素に設定)の閉領域を削除する処理を行う。その結果、眼球内部は2、背景は0で与えられる。最後に、眼球内部と背景との境界部分に輪郭画素を設定する。具体的には眼球内部に設定されている画素の8近傍画素のうち、4画素以上が背景画素になっている場合、輪郭画素として画素の値を1に変更する。その結果が図13(d)であり、眼球内部は2、輪郭線上は1、背景は0で与えられる。
Next, pre-processing of a rendering image will be described with reference to FIGS.
FIG. 13B shows an example of a left-direction rendered image. The image size is about W300 × H300 pixels (the image size may slightly increase or decrease because it may protrude from the frame depending on the case), and the gradation is 256 monochrome gradations. is there. On the other hand, the result of binarization with a fixed threshold value (for example, 25 is set for 0 to 255 values) is shown in FIG. 13C. The inside of the eyeball is 1 and the background is 0. It is done. At this time, if the gradation is not uniform depending on the imaging state of the original image, a dust region may remain due to binarization as shown in the lower right. The dust of several pixels can be avoided by applying smoothing in advance using a 3 × 3 averaging matrix or the like before the binarization process as described in Patent Document 8 above. For a dust area with a relatively large area, a process of extracting a closed area from the binary image based on the connectivity of 8 neighboring pixels is performed, and the area is below a predetermined threshold (for example, set to 200 pixels) The process of deleting the closed region is performed. As a result, the inside of the eyeball is 2 and the background is 0. Finally, a contour pixel is set at the boundary between the inside of the eyeball and the background. Specifically, when four or more pixels are background pixels among eight neighboring pixels of the pixels set inside the eyeball, the value of the pixel is changed to 1 as a contour pixel. The result is shown in FIG. 13D, where 2 is given for the inside of the eyeball, 1 is given for the outline, and 0 is given for the background.

より詳細に説明すると、図13は、投影画像の二値化処理と輪郭抽出処理(S32)の詳細について説明するための図である。まず、ステップS32−1において、左右方向、上下方向のいずれかの投影濃淡画像に対し、平滑化フィルタ処理を行う(図13(b)参照)。
ここで、ソース画像データ256階調であり、Image(x,y)=0〜255 (x=0,…,Xs-1; y=0,…,Ys-1)である。
More specifically, FIG. 13 is a diagram for explaining details of the binarization processing and the contour extraction processing (S32) of the projection image. First, in step S32-1, a smoothing filter process is performed on the projected grayscale image in either the horizontal direction or the vertical direction (see FIG. 13B).
Here, the source image data has 256 gradations, and Image (x, y) = 0 to 255 (x = 0,..., Xs-1; y = 0,..., Ys-1).

ステップS32−2において、投影画像の二値化処理を行う(図13(b)参照)。
ここで、二値画像データは、
ImageM(x,y)={0:背景,1:内部}である。
In step S32-2, binarization processing of the projection image is performed (see FIG. 13B).
Here, the binary image data is
ImageM (x, y) = {0: background, 1: inside}.

次いで、ステップS32−3において、近傍画素の連結処理、領域抽出処理を行う。
ここで、多値画像データは、
ImageM(x,y)={0:背景,2以上:内部} (x=0,…,Xs-1; y=0,…,Ys-1) である。
Next, in step S32-3, a neighboring pixel connection process and a region extraction process are performed.
Here, the multi-value image data is
ImageM (x, y) = {0: Background, 2 or more: Internal} (x = 0, ..., Xs-1; y = 0, ..., Ys-1).

次いで、図14(a)のステップS32−4において、近傍領域の統合処理を行う(図14(b)参照)。
ここで、多値画像データは、
ImageM(x,y)={0:背景,2以上:内部} (x=0,…,Xs-1; y=0,…,Ys-1)である。
Next, in step S32-4 in FIG. 14A, the neighboring region is integrated (see FIG. 14B).
Here, the multi-value image data is
ImageM (x, y) = {0: Background, 2 or more: Internal} (x = 0, ..., Xs-1; y = 0, ..., Ys-1).

次いで、ステップS32−5において、微小面積領域の削除処理を行う(図14(c)参照、3の領域が削除される)。
ここで、多値画像データは、
ImageM(x,y)={0:背景,2:内部} (x=0,…,Xs-1; y=0,…,Ys-1) である。
Next, in step S32-5, a minute area region is deleted (see FIG. 14C), the region 3 is deleted.
Here, the multi-value image data is
ImageM (x, y) = {0: Background, 2: Internal} (x = 0, ..., Xs-1; y = 0, ..., Ys-1).

次いで、ステップS32−6において、輪郭抽出処理を行う(図14(d)参照)。
ここで、三値画像データは、
Image(x,y)={0:背景,1:輪郭,2:内部} (x=0,…,Xs-1; y=0,…,Ys-1) である。このようにして、眼球の投影画像を、背景、輪郭、内部の3値に区別できる。
Next, in step S32-6, contour extraction processing is performed (see FIG. 14D).
Here, the ternary image data is
Image (x, y) = {0: background, 1: contour, 2: inside} (x = 0, ..., Xs-1; y = 0, ..., Ys-1). In this way, the projected image of the eyeball can be distinguished into three values: background, contour, and internal.

図15Aは、眼軸の自動設定アルゴリズムの概要を示す図である。
前述の通り、眼軸は後極の左右対称性や上下対称性などのパラメータを算出する際の基準になるもので、高精度に設定されることが要求される。しかし、病態により眼球の形状自体が大幅に変化する以上、画一的な眼球形状特徴を手がかりにして自動的に眼軸を設定することは困難である。強度近視では一般に後極側が非対称になっても、前極側は対称性が維持されるということを仮定し、前極の対称性を基に眼軸を自動設定する手法を提案する。そして、前極も非対称である場合など、この仮定が成立しない場合には、手動による対話型修正を加えて個別に対応するものとする。
FIG. 15A is a diagram illustrating an outline of an automatic setting function of an eye axis.
As described above, the eye axis serves as a reference for calculating parameters such as the left-right symmetry and vertical symmetry of the rear pole, and is required to be set with high accuracy. However, as long as the shape of the eyeball changes greatly depending on the pathological condition, it is difficult to automatically set the eye axis based on uniform eyeball shape characteristics. Intensity myopia, we propose a method to automatically set the eye axis based on the symmetry of the front pole, assuming that the symmetry of the front pole is maintained even if the back pole side is generally asymmetric. If this assumption does not hold, such as when the front pole is also asymmetric, manual interaction type correction is applied to deal with each case individually.

図14(d)の画像に対して、値が1となる画素のX方向の最小値Xと最大値Xを求め、各々最小最大をとるときのY方向の画素位置をYおよびYとする。また、値が1以上となる画素のX座標の平均値をXg、Y座標の平均値をYgとする。これらの座標値を基に、図15A(1)に示されるように、(X,Y)を前極エッジ点Pf、(X,Y)を後極エッジ点Pb、(Xg,Yg)を重心点Pgと定義する。この時、Pf−Pg−Pbが眼軸に対応するが、正常眼のように前極も後極も対称性をもつ眼球でない限り、この段階で仮設定される眼軸は適切な方向にならない。 For the image of FIG. 14 (d), the value determined for one and becomes the minimum value X 1 of the X direction of the pixel and a maximum value X 2, the Y-direction pixel position at which each takes the minimum and maximum Y 1 and Y 2 . In addition, an average value of X coordinates of pixels having a value of 1 or more is Xg, and an average value of Y coordinates is Yg. Based on these coordinate values, as shown in FIG. 15A (1), (X 1 , Y 1 ) is the front pole edge point Pf, (X 2 , Y 2 ) is the back pole edge point Pb, (Xg, Yg) is defined as the barycentric point Pg. At this time, Pf-Pg-Pb corresponds to the eye axis, but the eye axis temporarily set at this stage does not have an appropriate direction unless the anterior and posterior poles are symmetrical like the normal eye. .

Pf, Pg, Pbの3点で最も信頼できる点はPgである。そこで、Pgを基準にしてPfを補正する。具体的には、図15A(2)のように、前極エッジ点PfをPfのX座標がPgに近づかない範囲で、前極の輪郭線上に上下に微少量移動させる。移動させた各位置で、Pg−Pfの直線上にPcなる中間計測点を設定し、Pcより直線Pg−Pfと直交する上下方向に直線を延ばし、輪郭線との交点をP+vおよびP−vとし、距離Pc−P+vとPc−P−vとの差を計算する。この差が最小値をとるときのPfの位置を前極エッジ点に決定する。このとき、Pcは一箇所でなく、直線Pg−Pf上に所定の範囲で動かし(例えば、PcをPgからPf方向に2〜12画素の距離だけ動かす)、各々算出される距離Pc−P+vとPc−P−vとの差の総和が最小値をとるPfの位置を探索する。続いて、逆に決定されたPfを基準にしてPgを補正する。具体的には、図15A(3)のように、重心点PgをPgのY座標が上下の輪郭線に近づかない範囲で、X座標Xgを固定にして上下に微少量移動させる。上記と同様に、移動させた各位置で、Pf−Pgの直線上にPcなる中間計測点を設定し、Pcより直線Pf−Pgと直交する上下方向に直線を延ばし、輪郭線との交点をP+vおよびP−vとし、距離Pc−P+vとPc−P−vとの差を計算する。この差が最小値をとるときのPgの位置を重心点に決定する。同様に、Pcは一箇所でなく、直線Pf−Pg上に所定の範囲で動かし(例えば、PcをPfからPg方向に2〜12画素の距離だけ動かす)、各々算出される距離Pc−P+vとPc−P−vとの差の総和が最小値をとるPgの位置を探索する。 The most reliable point among the three points Pf, Pg, and Pb is Pg. Therefore, Pf is corrected based on Pg. Specifically, as shown in FIG. 15A (2), the front pole edge point Pf is slightly moved up and down on the contour line of the front pole within a range where the X coordinate of Pf does not approach Pg. At each moved position, an intermediate measurement point Pc is set on the straight line Pg-Pf, a straight line is extended from Pc in the vertical direction perpendicular to the straight line Pg-Pf, and the intersections with the contour lines are defined as P + v and P −. v and calculates the difference between the distance Pc-P + v and Pc-P -v. The position of Pf when this difference takes the minimum value is determined as the front pole edge point. At this time, Pc is not a single place, but is moved within a predetermined range on the straight line Pg-Pf (for example, Pc is moved by a distance of 2 to 12 pixels in the Pf direction from Pg), and each calculated distance Pc-P + v And the position of Pf where the sum of the differences between Pc-P- v takes the minimum value is searched. Subsequently, Pg is corrected based on Pf determined in reverse. Specifically, as shown in FIG. 15A (3), the center of gravity Pg is moved slightly up and down with the X coordinate Xg fixed while the Y coordinate of Pg does not approach the upper and lower contour lines. Similarly to the above, an intermediate measurement point Pc is set on the straight line Pf-Pg at each moved position, a straight line is extended from Pc in the vertical direction perpendicular to the straight line Pf-Pg, and the intersection with the contour line is set. and P + v and P -v, calculates the difference between the distance Pc-P + v and Pc-P -v. The position of Pg when this difference takes the minimum value is determined as the barycentric point. Similarly, Pc is not a single place, but is moved within a predetermined range on the straight line Pf−Pg (for example, Pc is moved by a distance of 2 to 12 pixels in the Pg direction from Pf), and each calculated distance Pc−P + v And the position of Pg where the sum of the differences between Pc-P- v takes the minimum value.

最後に、決定されたPfとPgを基準にして、Pf−Pg−Pbが一直線上に近づくようにPbを補正する。具体的には、図15A(4)のように、後極側エッジ点PbをPbのX座標がPgに近づかない範囲で、後極の輪郭線上に上下に微少量移動させる。移動させた各位置で、重心点Pgから直線Pf−Pbに下ろした垂線と直線Pf−Pbとの交点と重心点Pgとの距離を算出する。この距離が最小値をとるときのPbの位置を後極エッジ点に決定する。   Finally, Pb is corrected so that Pf-Pg-Pb approaches a straight line with reference to the determined Pf and Pg. Specifically, as shown in FIG. 15A (4), the rear pole side edge point Pb is slightly moved up and down on the contour line of the rear pole within a range where the X coordinate of Pb does not approach Pg. At each moved position, the distance between the intersection point of the perpendicular line drawn from the barycentric point Pg to the straight line Pf-Pb and the straight line Pf-Pb and the barycentric point Pg is calculated. The position of Pb when this distance takes the minimum value is determined as the rear pole edge point.

以上の処理により、Pf−Pbを眼軸と決定できるが、眼軸位置を画面に表示して読影医による判断を仰ぎ、不適切な場合、2点PfとPbを画面上で対話形式に修正し、修正されたPfとPbの中点をPgに再設定する。また、パラメータ解析を行うため、図7A(b)に示されるように、決定された眼軸上でPbより所定の距離(例えば、87画素)位置に計測原点Poを設定し、 Poから後極エッジ点Pbを中心に上下に大小2種類の角度(例えば、±θおよび±θ)方向に延長した直線の後極輪郭線上の交点P+wとP−wおよびP+nとP−nを設定する。 With the above processing, Pf-Pb can be determined as the eye axis, but the eye position is displayed on the screen for judgment by the interpretation doctor. If inappropriate, the two points Pf and Pb are corrected to the interactive form on the screen. Then, the midpoint of the corrected Pf and Pb is reset to Pg. In addition, in order to perform parameter analysis, as shown in FIG. 7A (b), a measurement origin Po is set at a predetermined distance (for example, 87 pixels) from Pb on the determined eye axis. Intersections P + w and P −w and P + n and P −n on the rear polar contour of a straight line extending in two directions of angles (for example, ± θ w and ± θ n ) up and down around the edge point Pb Set.

より詳細な処理内容を以下に説明する。
図15Bは、眼軸の自動設定処理(ステップS33)の詳細を示す図である。
図15B(a1)に示すように、ステップS33−1において、輪郭抽出後の投影画像に対し、前極側および後極側のエッジ点(X1,Y1)、(X2,Y2)と重心点(Xg,Yg)を算出する。左右方向の投影画像の場合(図15B(a2))、X軸方向の最大最小エッジ点を前後極側のエッジ点とし、上下方向の投影画像の場合、Y軸方向の最大最小エッジ点を前後極側のエッジ点とする(ステップS33−2)。図15B(b)から図15B(e)までは、左右、上下方向の投影画像に関する処理を行った様子を示す図である。
More detailed processing contents will be described below.
FIG. 15B is a diagram illustrating details of the automatic setting process of the eye axis (step S33).
As shown in FIG. 15B (a1), in step S33-1, the edge points (X1, Y1), (X2, Y2) and the center of gravity ( Xg, Yg) is calculated. In the case of a projected image in the left-right direction (FIG. 15B (a2)), the maximum and minimum edge points in the X-axis direction are the front and rear pole side edge points, and in the case of the projected image in the vertical direction, the maximum and minimum edge points in the Y-axis direction are The edge point is on the pole side (step S33-2). FIG. 15B (b) to FIG. 15B (e) are diagrams showing a state in which processing related to the projected images in the horizontal and vertical directions is performed.

図16(a)は、図15に続く処理の流れを示す図である。ここで、前極側は対称性が保持されていることを前提とする。ステップS33−3において、前極側エッジ点の補正と決定処理を行う(図16(b)参照)。ここで、前極側エッジ点を輪郭線上で微少量動かし、重心点Pgから前極側エッジ点方向のベクトルから垂直方向に上下に輪郭線まで延ばした2つの距離(両矢印)が最も近くなるように、前極側エッジ点Pfを決定する。   FIG. 16A is a diagram showing the flow of processing following FIG. Here, it is assumed that the symmetry is maintained on the front pole side. In step S33-3, correction and determination processing of the front pole side edge point is performed (see FIG. 16B). Here, the front pole side edge point is slightly moved on the contour line, and the two distances (double arrows) extending from the center of gravity Pg to the contour line in the vertical direction from the vector in the front pole side edge point direction are closest. Thus, the front pole side edge point Pf is determined.

次いで、ステップS33−4において、重心点の補正と決定処理を行う(図16(c)参照)。
重心点Pgを輪郭線内部で垂直方向に上下に動かし、既に決定されている前極側エッジ点Pfから重心点方向のベクトルから垂直方向に上下に輪郭線まで延ばした2つの距離(両矢印)が最も近くなるように、重心点Pg’を決定する。
Next, in step S33-4, the center of gravity point is corrected and determined (see FIG. 16C).
Two distances (double arrows) in which the center of gravity Pg is moved up and down in the vertical direction inside the contour line and extended from the previously determined front pole side edge point Pf to the contour line in the vertical direction from the vector in the center of gravity point direction. The center of gravity Pg ′ is determined so that is closest.

次に、図17(a)に示すように、ステップS33−5において、後極側エッジ点の補正と眼軸の決定処理を行う(図17(b)参照)。ここで、後極側エッジ点を輪郭線上で微少量動かし、既決定の前極側エッジ点Pfから重心点Pg’のベクトルの延長線上に最も近くなるように、後極側エッジ点Pbを決定する。   Next, as shown in FIG. 17A, in step S33-5, the rear pole edge point correction and the eye axis determination processing are performed (see FIG. 17B). Here, the rear pole side edge point Pb is determined so that the rear pole side edge point is slightly moved on the contour line and is closest to the extension line of the vector of the center of gravity Pg ′ from the predetermined front pole side edge point Pf. To do.

図18(a)は、眼軸の修正処理の流れを示す図である。まず、ステップS35−1において、画面上で前極側エッジ点Pfまたは後極側エッジ点Pbのいずれかを選択する(図18(b)参照)。   FIG. 18A is a diagram showing a flow of eye axis correction processing. First, in step S35-1, either the front pole side edge point Pf or the rear pole side edge point Pb is selected on the screen (see FIG. 18B).

次いで、ステップS35−2において、選択した前極側エッジ点Pfまたは後極側エッジ点Pbを画面上で所望の位置(Px)へ移動させる(図18(c)参照)。   Next, in step S35-2, the selected front pole side edge point Pf or rear pole side edge point Pb is moved to a desired position (Px) on the screen (see FIG. 18C).

次いで、移動させて設定したエッジ点Pxの輪郭線LR上への自動補正と重心点Pg’の自動補正を行う(図18(d)参照)。エッジ点を最も近傍の輪郭線上の位置へ移動させ、更新したエッジ点ともう一方の更新しないエッジ点を結ぶ直線上に重心点を移動させる)。   Next, automatic correction of the edge point Px set by movement onto the contour line LR and automatic correction of the center of gravity Pg ′ are performed (see FIG. 18D). The edge point is moved to the position on the nearest contour line, and the barycentric point is moved on the straight line connecting the updated edge point and the other non-updated edge point).

ステップS35−4において、適切な方向か否かを判定し、YESであれば、処理を終了し、Noであれば、ステップS35−1に戻る。   In step S35-4, it is determined whether or not the direction is appropriate. If YES, the process ends. If NO, the process returns to step S35-1.

図19(a)は、後極輪郭部における計測用エッジ点の作成処理(S38)の詳細を示す図である。
ステップS38−1において、計測用重心点(X0,Y0)より眼軸Cと直交する方向に上下の輪郭線LR上に90度および−90度計測用エッジ点(Xp9,Yp9)、(Xm9,Ym9)を追加する(図19(b)参照)。
FIG. 19A is a diagram showing details of the measurement edge point creation process (S38) in the rear pole contour portion.
In step S38-1, 90 ° and −90 ° measurement edge points (Xp9, Yp9), (Xm9,...) On the upper and lower contour lines LR in the direction orthogonal to the eye axis C from the measurement center point (X0, Y0). Ym9) is added (see FIG. 19B).

ステップS38−2において、90度、0度、−90度計測用エッジ点をもとに、θおよび−θ度計測用エッジ点(Xp4,Yp4)、(Xm4,Ym4)を追加する(図19(c)参照)。 In step S38-2, 90 °, 0 °, on the basis of -90 degree measuring edge points, theta w and - [theta] w of the measurement edge point (Xp4, YP4), to add (Xm4, Ym4) ( FIG. 19 (c)).

ステップS38−3において、θ、0度、−θ計測用エッジ点をもとに、θおよび−θ度計測用エッジ点(Xp2,Yp2)、(Xm2,Ym2)を追加(図19(d)参照)。
このようにして後極部に計測用エッジ点を作成する。
In step S38-3, θ n and −θ n degree measurement edge points (Xp2, Yp2) and (Xm2, Ym2) are added based on the θ w , 0 degree, and −θ w measurement edge points (FIG. 19 (d)).
In this way, measurement edge points are created at the rear pole.

図20(a)は、平滑化フィルタ処理(図11(a):S52)の流れを示すフローチャート図である。図20(b)は、平滑化フィルタの例を示す図である。   FIG. 20A is a flowchart showing the flow of the smoothing filter process (FIG. 11A: S52). FIG. 20B is a diagram illustrating an example of the smoothing filter.

フィルタ演算は、マトリックスを画像データに対して掛け合わせて処理するものである。処理する注目する画素の近傍を領域を複数個選んで参照する(例えば3×3、上下左右)。この値(1/9)を画素の値に乗算して、加算する処理により平均値を取る(3×3の9画素の総和の平均値をとる)。   The filter operation is performed by multiplying the matrix with image data. A plurality of areas are selected and referred to near the pixel of interest to be processed (for example, 3 × 3, up, down, left, and right). This value (1/9) is multiplied by the pixel value, and an average value is obtained by the addition process (an average value of the sum total of 9 pixels of 3 × 3).

図20(b)に示すように、3×3の平滑化フィルタ・マトリックスを、M(i,j)の例として示す図である。ステップS52−1において、図20(b)に示す3×3の平滑化マトリックスを定義する。次いで、ステップS52−2において、x=y=1,i=j=−1、一時的な変数(画素値の一時的な変数)v=0として初期化の定義とを行う。vはx,yは、画素をスキャンするx方向のアドレスとy方向のアドレス(トータルXs、Ys個の画素)の先頭を決める。i、jは、マトリックスを演算するために加える変位であり、入力の投影画像は、Image(x、y)であり、x=(0,1,…,Xs−1)、y=(0,1,…,Ys−1)で定義できる。iとjとは、−1から+1の範囲の整数値を取る。   As shown in FIG. 20B, a 3 × 3 smoothing filter matrix is shown as an example of M (i, j). In step S52-1, a 3 × 3 smoothing matrix shown in FIG. 20B is defined. Next, in step S52-2, initialization is defined as x = y = 1, i = j = -1, and a temporary variable (temporary variable of pixel value) v = 0. v is x, and y is an x-direction address and y-direction address (total Xs, Ys pixels) for scanning pixels. i and j are displacements to be applied to calculate the matrix, the input projection image is Image (x, y), x = (0, 1,..., Xs−1), y = (0, 1, ..., Ys-1). i and j take integer values ranging from −1 to +1.

ステップS52−3で、v←v+Image(x+i,y+j)・M(i,j)とする。ステップS52−4で、iを1ずつインクリメントし、ステップS52−5で、iと+1とを比較し、i>1になれば、1つの3×3のフィルタによる処理を終えて、ステップS52−6に進み、jに+1を行い、同様の処理を行うことで、3×3のマトリックスを乗算する処理を終える。そして、ステップS52−9、ステップS52−11で、全ての画素に関する演算が行われたか否かを判定し、処理を終了する(End)。このようにして、3×3の平滑化マトリックスを入力投影画像上で動かすことにより、3×3の平滑化フィルタにより、投影画像の画素値の平滑化を行うことができる。   In step S52-3, v ← v + Image (x + i, y + j) · M (i, j) is set. In step S52-4, i is incremented by 1. In step S52-5, i and +1 are compared. If i> 1, the processing by one 3 × 3 filter is finished, and step S52- Proceeding to step 6, j is incremented by 1, and the same processing is performed to finish the processing of multiplying the 3 × 3 matrix. Then, in Steps S52-9 and S52-11, it is determined whether or not calculation has been performed for all pixels, and the process ends (End). In this manner, by moving the 3 × 3 smoothing matrix on the input projection image, the pixel values of the projection image can be smoothed by the 3 × 3 smoothing filter.

図21は、投影画像に対する濃淡ピーク点の抽出処理(図11(a):S53参照)の流れを示すフローチャート図である。xとyとでループ処理を行う点は、図20と同様である。但し、Xs、Ysまでの処理を行う。画素Image(x,y)は、0〜255までの値を持っている。投影画像の中で局所的にピークをもつローカルピークを見い出す処理である。画素が0から255までの値をもっており、ステップS53−1において、初期値の例として128より小さくない値としてVm=128に設定し、ピーク座標(Px,Py)として、初期値(−1,−1)を、設定する。また、濃淡画像Image(x,y)をコピーした一時的なコピーImage2(x,y)をバックアップとして持つとともに、初期値としてx=y=0を設定する。ステップS53−2において、Image2(x,y)と濃淡のピークVmとを比較する。Image2(x,y)>Vmであれば、ステップS53−3に進み、Vm=Image2(x,y)とし、Px=x,Py=yを保存する。以下、全ての画素において処理を行うと、ピーク点が求まる。すなわち、Image2(x,y)<=Vmであれば、ステップS53−3をスルーし、ステップS53−4で、xを1だけインクリメントする。画像の水平方向の末端にあたるまで(x=Xs)処理を繰り返し(ステップS53−5)、次いで、yについても処理を行う(ステップS53−6、7)。ステップS53−8で、Xp<0かつYp<0であるか否かを判定し、Yesであれば、濃淡のピークが存在しないとして(ピーク点無し)、例えば初期値を再設定する。Noであれば、ピークあり(Xp,Yp)、このピーク(Xp,Yp)を出力する。   FIG. 21 is a flowchart showing the flow of the shading peak point extraction process (see FIG. 11A: S53) for the projected image. The point that loop processing is performed with x and y is the same as in FIG. However, processing up to Xs and Ys is performed. Pixel Image (x, y) has a value from 0 to 255. This is a process of finding a local peak having a local peak in the projection image. The pixel has a value from 0 to 255. In step S53-1, as an example of the initial value, Vm = 128 is set as a value not smaller than 128, and the initial value (-1, x) is set as the peak coordinates (Px, Py). -1) is set. Further, a temporary copy Image2 (x, y) obtained by copying the grayscale image Image (x, y) is provided as a backup, and x = y = 0 is set as an initial value. In step S53-2, Image2 (x, y) is compared with the light and dark peak Vm. If Image2 (x, y)> Vm, the process proceeds to step S53-3, Vm = Image2 (x, y) is set, and Px = x and Py = y are saved. Hereinafter, when processing is performed for all pixels, a peak point is obtained. That is, if Image2 (x, y) <= Vm, step S53-3 is passed, and x is incremented by 1 in step S53-4. The process is repeated until the end of the image in the horizontal direction (x = Xs) (step S53-5), and then y is also processed (steps S53-6, 7). In step S53-8, it is determined whether or not Xp <0 and Yp <0. If Yes, it is determined that there is no dark peak (no peak point), and the initial value is reset, for example. If No, there is a peak (Xp, Yp), and this peak (Xp, Yp) is output.

次いで、図22に進む。図22は、図21の処理で抽出できたピーク点の周辺画素のクリア処理の流れを示すフローチャート図である(図11のステップS54)。図21のピーク出力から、ステップS54−1において、ピーク座標(Xp,Yp)で、x=y=0としてリセットする。ステップS54−2において、ピーク点(Xp,Yp)までの距離rを
r={(x-Px)2+(y-Py)2}1/2
により算出する。ステップS54−3において、距離rと、そのしきい値(例えば50画素)とを比較する。rがSr以下であれば、ステップS54−4に進み、Image2(x,y)=0として、rがSrより大きい場合とともに、ステップS54−5でxを1だけインクリメントし、ステップS54−6において、xとXsとを比較する。x<Xsであれば、ステップS54−2に戻る。xがXs以上であれば、ステップS54−7に進み、yについても同様の処理を行い、クリア処理を終了する。これにより、ピーク点(Xp,Yp)から半径Srの範囲の領域における画素値をクリア処理することができる。
Next, the process proceeds to FIG. FIG. 22 is a flowchart showing the flow of processing for clearing the pixels around the peak point extracted by the processing of FIG. 21 (step S54 of FIG. 11). From the peak output in FIG. 21, in step S54-1, the peak coordinates (Xp, Yp) are reset as x = y = 0. In step S54-2, the distance r to the peak point (Xp, Yp) is set to r = {(x−Px) 2 + (y−Py) 2 } 1/2.
Calculated by In step S54-3, the distance r is compared with a threshold value (for example, 50 pixels). If r is equal to or smaller than Sr, the process proceeds to step S54-4, where Image2 (x, y) = 0, and when r is larger than Sr, x is incremented by 1 in step S54-5, and in step S54-6 , X and Xs are compared. If x <Xs, the process returns to step S54-2. If x is equal to or greater than Xs, the process proceeds to step S54-7, the same process is performed for y, and the clear process is terminated. Thereby, it is possible to clear the pixel values in the region in the range from the peak point (Xp, Yp) to the radius Sr.

図23は、原画像に対する重心点の算出処理を示すフローチャート図である(図12(a):ステップS55)。ここでは、画素の平均値を取ることで、重心点を求めている。   FIG. 23 is a flowchart showing the calculation process of the barycentric point for the original image (FIG. 12A: step S55). Here, the barycentric point is obtained by taking the average value of the pixels.

まず、ステップS55−1で、重心座標(Xg,Yg)において, Xg=Yg=0, 重み総和V=0, x=y=0と初期化する。次いで、ステップS55−2において、
Xg←Xg+Image(x,y)・x, Yg←Yg+Image(x,y) ・y, V←V+ Image(x,y)
として、ステップS55−3からステップS55−6までの処理により、画素の平均値を計算し、ステップS55−7で、
Xg←Xg/V, Yg←Yg/V
と、原画像に対する重心点を求めることができる(図12(d)参照)。
First, in step S55-1, the center of gravity coordinates (Xg, Yg) are initialized as Xg = Yg = 0, weight sum V = 0, x = y = 0. Next, in step S55-2,
Xg ← Xg + Image (x, y) ・ x, Yg ← Yg + Image (x, y) ・ y, V ← V + Image (x, y)
As a result, the average value of the pixels is calculated by the processing from step S55-3 to step S55-6, and in step S55-7,
Xg ← Xg / V, Yg ← Yg / V
Then, the barycentric point for the original image can be obtained (see FIG. 12D).

図24は、画素の二値化処理(ステップS32)の詳細を示すフローチャート図である。画素値0〜255を0か1かのいずれかに変換する。すなわち、Sl(エル)よりも大きければ“1”にして、そうでなければ“0”にする。   FIG. 24 is a flowchart showing details of pixel binarization processing (step S32). Pixel values 0 to 255 are converted to either 0 or 1. That is, if it is larger than Sl, it is set to “1”, otherwise it is set to “0”.

まず、ステップS32−2−1において、二値画像データImageM(x,y)=0(初期値は全画素0),x=y=1を設定する。ステップS32−2−2において、Image(x,y)をしきい値Sl(エル)と比較する。しきい値Slは、例えば25である。Image(x,y)がしきい値Slより大きい場合には、ステップS32−2−3に進み、二値画像データImageM(x,y)=1とし、Image(x,y)がしきい値Sl(エル)以下である場合とともに、ステップS32−2−4に進み、xを1だけインクリメントし、ステップS32−2−5に示すように、xがXs−1になるまで上記の処理を繰り返す。xがXs−1より大きくなると、ステップS32−2−6に進み、yについて1だけインクリメントし、yがYs−1より大きくなるまで処理を繰り返す。yがYs−1以上になると、処理が終了する。これにより、Sl(エル)よりも大きければ“1”にして、そうでなければ“0”にする画像の二値化処理をすることができる(図13(c)参照)。   First, in step S32-2-1, binary image data ImageM (x, y) = 0 (initial value is all pixels 0) and x = y = 1 are set. In step S32-2-2, Image (x, y) is compared with a threshold value Sl (L). The threshold value Sl is 25, for example. If Image (x, y) is larger than the threshold value Sl, the process proceeds to step S32-2-3, and binary image data ImageM (x, y) = 1 is set, and Image (x, y) is the threshold value. When it is equal to or less than Sl, the process proceeds to step S32-2-4, x is incremented by 1, and the above process is repeated until x becomes Xs-1 as shown in step S32-2-5. . When x becomes larger than Xs-1, the process proceeds to step S32-2-6, y is incremented by 1, and the process is repeated until y becomes larger than Ys-1. When y becomes Ys-1 or more, the process ends. Thus, it is possible to perform binarization processing of an image that is set to “1” if it is larger than S1 (L), and to “0” otherwise (see FIG. 13C).

図25(a)は、近傍画素の連結処理、領域抽出処理の流れを示すフローチャート図である(ステップS32−3、図13(d)参照)。図25(b)は、8近傍画素のうちの4つの近傍画素を示す図である。0、1で2値化した場合に、例えば、対象画素の値が1で、2以上の値(領域Id)を持ったものが対象画素の4つの近傍画素のいずれかに存在するかをみる。2以上の値をもつ近傍画素が存在する場合、対象画素の値を当該近傍画素のIdに設定するとともに、当該近傍画素のIdに対応する領域テーブル内の面積値(領域内の画素の個数)を1だけインクリメントする。2以上の値をもつ近傍画素が存在しない場合、対象画素に新規な領域Id(初期値は2)を割り当てるとともに、当該Idに対応する領域テーブルに新規なレコードを登録し、その初期面積値を1に設定するする。このような処理を繰り返すことにより、0、1で2値化された画像の中で1をもつ全画素に2以上の領域Idが割り当てられ、N個の領域に分割されるとともに、領域テーブルに各領域の面積算出結果が格納される。   FIG. 25A is a flowchart showing the flow of neighboring pixel connection processing and region extraction processing (see step S32-3, FIG. 13D). FIG. 25B is a diagram illustrating four neighboring pixels among the eight neighboring pixels. When binarization is performed with 0 and 1, for example, the value of the target pixel is 1 and whether or not a pixel having a value (region Id) of 2 or more exists in any of the four neighboring pixels of the target pixel . When there is a neighboring pixel having a value of 2 or more, the value of the target pixel is set to the Id of the neighboring pixel, and the area value (number of pixels in the region) in the region table corresponding to the Id of the neighboring pixel Is incremented by one. When there is no neighboring pixel having a value of 2 or more, a new area Id (initial value is 2) is assigned to the target pixel, a new record is registered in the area table corresponding to the Id, and the initial area value is set. Set to 1. By repeating such processing, two or more areas Id are allocated to all pixels having 1 in the image binarized by 0 and 1, and are divided into N areas, and are also stored in the area table. The area calculation result of each area is stored.

まず、ステップS32−3−1において、Id: 領域Id (初期値:1), 領域テーブルTb(id):初期値0, n:領域数(初期値n=0)、x=y=1を設定する。ステップS32−3−2において、対象画素(x、y)が眼球内部にあるか否か、即ち、ImageM(x,y)と0とを比較する。眼球内部にある場合、即ち、0より大きい場合には、ステップS32−3−3において、4つの8近傍画素(x-1,y-1), (x,y-1), (x+1,y-1), (x-1,y)を確認する。すなわち、自分のアドレスよりもアドレスが小さい4つの画素について、背景(0)と眼球内部(2以上、アドレスが小さい既処理画素では値1は存在しない)のうち、内部と指定されているものがあるか否かを確認する。即ち、ステップS32−3−4において、2以上の値Idpをもつ画素があるか否かを判定する。   First, in step S32-3-1, Id: region Id (initial value: 1), region table Tb (id): initial value 0, n: number of regions (initial value n = 0), x = y = 1 Set. In step S32-3-2, whether or not the target pixel (x, y) is inside the eyeball, that is, ImageM (x, y) is compared with 0. If it is inside the eyeball, that is, if it is larger than 0, in step S32-3-3, four 8-neighbor pixels (x-1, y-1), (x, y-1), (x + 1) , y-1), (x-1, y). That is, for the four pixels whose addresses are smaller than their own addresses, the background (0) and the inside of the eyeball (2 or more, there is no value 1 for processed pixels with a small address) are designated as internal. Check if it exists. That is, in step S32-3-4, it is determined whether there is a pixel having a value Idp of 2 or more.

Yesの場合は近傍画素のIdpを自己の画素の領域Idとして流用し、Noの場合には、ステップS32−3−6に進み、新規領域Idの割り当てを行い、Id←Id+1, Idp=Id, n←n+1とし、Yesの場合とともに、ステップS32−3−5に進み、テーブルの値(2番)に画素のカウント値(初期値0)に1を加算して1とし、同時に領域番号Idp(=2)として画像データを更新する。
Tb(Idp)←Tb(Idp)+1, ImageM(x,y)=Idp
In the case of Yes, the Idp of the neighboring pixel is diverted as the area Id of its own pixel. In the case of No, the process proceeds to Step S32-3-6 to assign a new area Id, and Id ← Id + 1, Idp = Id, n ← n + 1, and in the case of Yes, the process proceeds to step S32-3-5, and 1 is added to the count value (initial value 0) of the pixel to the table value (No. 2), and at the same time The image data is updated as the area number Idp (= 2).
Tb (Idp) ← Tb (Idp) +1, ImageM (x, y) = Idp

次いで、ステップS32−3−7に進み、xを1だけインクリメントし、ステップS32−3−8において、xとXs−1とを比較し、輪郭まで処理を繰り返し、次いで、yについても同様の処理を行う。これにより、近傍画素の連結処理、領域抽出処理を終了する(End:図13(d)参照)。これにより、領域分割と各領域の面積計算が完成する。しかし、領域Id割り当て時に、4近傍画素しか参照していないため、本来同一Idが割り当てられるべき近傍の領域に異なる領域Idが割り当てられ、過剰に領域分割されがちになる。そこで、近傍領域を統合する補正処理を行う。   Next, the process proceeds to step S32-3-7, and x is incremented by 1. In step S32-3-8, x and Xs-1 are compared, and the process is repeated until the contour, and the same process is performed for y. I do. Thus, the neighboring pixel connection processing and region extraction processing are terminated (End: see FIG. 13D). Thereby, area division and area calculation of each area are completed. However, since only four neighboring pixels are referenced when assigning the region Id, different regions Id are assigned to neighboring regions to which the same Id should be originally assigned, and the region tends to be excessively divided. Therefore, correction processing for integrating neighboring regions is performed.

図26(a)は、近傍領域の統合処理の流れを示すフローチャート図である(図14、ステップS32−4、図14(b)参照)。図26(b)は、8近傍画素の例を示す図である。領域テーブルが完成した状態で、8近傍画素全部を見て抽出した領域を整理する処理であり、全画素の領域番号が再割り当てされて整理される。   FIG. 26A is a flowchart showing the flow of the neighborhood region integration process (see FIG. 14, step S32-4, FIG. 14B). FIG. 26B is a diagram illustrating an example of 8 neighboring pixels. This is a process of organizing the extracted regions by looking at all eight neighboring pixels in a state where the region table is completed, and the region numbers of all the pixels are reassigned and organized.

上記処理を行った結果、多値画像データは、
ImageM(x,y)={0:背景,2以上:内部} (x=0,…,Xs; y=0,…,Ys)
になっており、2以上の値をもつ画素をできるだけ小さい値(2以上の範囲で)になるように統合する。
As a result of the above processing, the multi-value image data is
ImageM (x, y) = {0: Background, 2 or more: Internal} (x = 0, ..., Xs; y = 0, ..., Ys)
The pixels having values of 2 or more are integrated so as to be as small as possible (within a range of 2 or more).

まず、ステップS32−4−1で、x=y=1とし、ステップS32−4−2において、対象画素(x、y)が領域内部にあるか否か、即ち、ImageM(x,y)が正か0かを判定する。正の場合には、ステップS32−4−3に進み、8近傍画素(x-1,y-1), (x,y-1), (x+1,y-1), (x-1,y), (x+1,y), (x-1,y+1), (x,y+1), (x+1,y+1)を確認する。すなわち、ステップS32−4−4において、ImageM(x+i,y+j)< ImageM(x,y)となる近傍の異なる領域内画素が存在するか否かを判定する。即ち、2以上の値が入っていて、自分のID番号よりも若い番号の付けられている近傍の画素を調べる。Yesの場合には、ステップS32−4−5に進み、領域Id更新処理を行い、Noの場合、ステップS32−4−2でImageM(x,y)が0の場合と同様に、ステップS32−4−6に進み、xを1だけインクリメントし、処理を継続する。xがXs−1になると、yに関して同様の処理を行い、y=Ys−1になると、処理を終了する(End)。   First, in step S32-4-1, x = y = 1, and in step S32-4-2, whether or not the target pixel (x, y) is inside the region, that is, ImageM (x, y) is determined. Determine whether it is positive or zero. If it is positive, the process proceeds to step S32-4-3, and 8 neighboring pixels (x-1, y-1), (x, y-1), (x + 1, y-1), (x-1 , y), (x + 1, y), (x-1, y + 1), (x, y + 1), (x + 1, y + 1). That is, in step S32-4-4, it is determined whether there are pixels in different regions in the vicinity where ImageM (x + i, y + j) <ImageM (x, y). That is, a pixel in the vicinity that has a value of 2 or more and is numbered lower than its own ID number is examined. In the case of Yes, the process proceeds to step S32-4-5, and the area Id update process is performed. In the case of No, in the same manner as in the case where ImageM (x, y) is 0 in step S32-4-2, Proceed to 4-6, x is incremented by 1, and the process is continued. When x becomes Xs−1, the same processing is performed with respect to y, and when y = Ys−1, the processing ends (End).

次いで、図27に示すように、自分のID番号よりも若い番号の付けられている近傍の画素を調べて若い番号が付いている場合には、自分の画素を若い番号の方に入れ直す(若いグループに入れる)。自分の領域idを周辺画素(x+i,y+j)のIdpに入れ替える場合、画像データ全体に渡って、自分と同一の領域idをもつ全画素をIdpに変更する。そうすると、当該領域idの値をもつ画素が無くなるため、当該領域idの値より大きい値をもつ全ての画素の値を1だけ減少させる。これにより、使用される領域idの種類Nが1だけ減少し、本処理を繰り返すことにより、領域が順次統合されNが小さくなる。   Next, as shown in FIG. 27, when a pixel in the vicinity that is assigned a younger number than its own ID number is examined and a young number is assigned, its own pixel is re-entered into the younger number (younger) Group). When the own area id is replaced with the Idp of the peripheral pixel (x + i, y + j), all the pixels having the same area id as the self are changed to Idp over the entire image data. Then, since there is no pixel having the value of the region id, the values of all the pixels having a value larger than the value of the region id are decreased by 1. As a result, the type N of the area id to be used is decreased by 1, and by repeating this process, the areas are sequentially integrated and N becomes smaller.

領域ステップS32−4−11において、
id= ImageM(x,y), Idp=ImageM(x+i,y+j), u=v=1を設定し、ステップS32−4−12において、ImageM(u,v)とidとを比較する。ImageM(u,v)が0の場合には、ステップS32−4−15に進む。ImageM(u,v)がidの場合には、ステップS32−4−13に進み、ImageM(u,v)=Idpとし、ステップS32−4−15に進む。ImageM(u,v)>idの場合には、ステップS32−4−14に進み、ImageM(u,v)←ImageM(u,v)-1とし、ステップS32−4−15に進む。ステップS32−4−15においては、uを1だけインクリメントし、ステップS32−4−15においてuとXs−1とを比較し、u≧Xs-1であれば、ステップS32−4−17に進み、u<Xs-1であればステップS32−4−12に戻る。ステップS32−4−17においては、u=1, v←v+1として、ステップS32−4−18において、vとYs−1とを比較する。v≧Ys-1の場合には、ステップS32−4−19に進み、v≧Ys-1の場合にはステップS32−4−12に戻る。ステップS32−4−19においては、領域テーブルTbに関して、領域idをIdpに統合させ、idを0クリアする。即ち、
Tb(Idp)←Tb(Idp)+Tb(id), Tb(id)=0, id←id+1
とし、ステップS32−4−20において、idとn+2とを比較し、id≧n+2であれば、ステップS32−4−22に進み、id<n+2であれば、ステップS32−4−21に進む。ステップS32−4−21では、全ての領域のid番号を1だけ減少させる。即ち、
Tb(id-1)←Tb(id), id ← id+1
として、ステップS32−4−20に戻る。最終的にid≧n+2になると、ステップS32−4−22において、nを1だけデクリメントして処理を終了する。これにより図14(b)に示すような、近傍領域の統合処理を行うことができる。
In region step S32-4-11,
Set id = ImageM (x, y), Idp = ImageM (x + i, y + j), u = v = 1, and compare ImageM (u, v) with id in step S32-4-12 To do. If ImageM (u, v) is 0, the process proceeds to step S32-4-15. If ImageM (u, v) is id, the process proceeds to step S32-4-13, where ImageM (u, v) = Idp, and the process proceeds to step S32-4-15. If ImageM (u, v)> id, the process proceeds to step S32-4-14, and ImageM (u, v) ← ImageM (u, v) -1 is set, and the process proceeds to step S32-4-15. In step S32-4-15, u is incremented by 1. In step S32-4-15, u and Xs-1 are compared. If u ≧ Xs-1, the process proceeds to step S32-4-17. If u <Xs-1, the process returns to step S32-4-12. In step S32-4-17, u = 1, v ← v + 1, and v and Ys-1 are compared in step S32-4-18. If v ≧ Ys−1, the process proceeds to step S32-4-19. If v ≧ Ys−1, the process returns to step S32-4-12. In step S32-4-19, regarding the area table Tb, the area id is integrated into Idp, and the id is cleared to 0. That is,
Tb (Idp) ← Tb (Idp) + Tb (id), Tb (id) = 0, id ← id + 1
In step S32-4-20, id and n + 2 are compared. If id ≧ n + 2, the process proceeds to step S32-4-22. If id <n + 2, step S32- Proceed to 4-21. In step S32-4-21, the id numbers of all areas are decreased by 1. That is,
Tb (id-1) ← Tb (id), id ← id + 1
Return to Step S32-4-20. When id ≧ n + 2 is finally reached, n is decremented by 1 in step S32-4-22, and the process is terminated. As a result, it is possible to perform integration processing of neighboring regions as shown in FIG.

図28は、周辺のごみのような微小面積を削除して、眼軸の決定における間違いを低減するための、微小面積領域の削除処理(ステップS32−5)を示すフローチャート図である(図14(c)参照)。まず、ステップS32−5−1においてid=2とし、ステップS32−5−2において、Tb(id)とStとを比較する。ここで、Stは、面積の下限しきい値であり、例えば200である。Tb(id)>=Stであれば、ステップS32−5−10に進む。Tb(id)<Stであれば、ステップS32−5−3に進み、画像データ中の全てのidという値をもつ画素を背景画素に設定する。ステップS32−5−3において、変数u、vを1とし、ステップS32−5−4において、ImageM(u,v)と領域番号idとを比較する。ImageM(u,v)=idであれば、ステップS32−5−5において、ImageM(u,v)=0として領域内の画素を背景領域にしていき、ステップS32−5−6に進む。ImageM(u,v)がidと等しくなければ何もせずに、ステップS32−5−6に進む。   FIG. 28 is a flowchart showing a deletion process of a small area region (step S32-5) for deleting a small area such as peripheral dust and reducing an error in determining an eye axis (FIG. 14). (See (c)). First, id = 2 is set in step S32-5-1, and Tb (id) and St are compared in step S32-5-2. Here, St is a lower limit threshold value of the area, for example, 200. If Tb (id)> = St, the process proceeds to step S32-5-10. If Tb (id) <St, the process proceeds to step S32-5-3, and all pixels having the value id in the image data are set as background pixels. In step S32-5-3, the variables u and v are set to 1. In step S32-5-4, ImageM (u, v) is compared with the area number id. If ImageM (u, v) = id, in step S32-5-5, ImageM (u, v) = 0 and the pixels in the area are set as the background area, and the process proceeds to step S32-5-6. If ImageM (u, v) is not equal to id, nothing is done and the process proceeds to step S32-5-6.

ステップ32−5−6において、uを1だけインクリメントし、ステップ32−5−7において、uとXs-1とを比較する。u<Xs-1であればステップS32−5−4に戻り、u>=Xs-1であればステップS32−5−8において、u=1, v←v+1とする。   In step 32-5-6, u is incremented by 1. In step 32-5-7, u is compared with Xs-1. If u <Xs−1, the process returns to step S32-5-4. If u> = Xs−1, in step S32-5-8, u = 1 and v ← v + 1.

次いで、ステップS32−5−9において、vとYs-1とを比較し、v≧Ys-1であればステップS32−5−4に戻り、v≧Ys-1であればステップS32−5−10に進み、Idを1だけインクリメントし、ステップS32−5−11において、idとn+2とを比較する。id<n+2であれば、ステップS32−5−4に戻り、id≧n+2であれば、ステップS32−5−12に進む。   Next, in step S32-5-9, v and Ys-1 are compared. If v≥Ys-1, the process returns to step S32-5-4, and if v≥Ys-1, step S32-5-5 is performed. Proceeding to 10, Id is incremented by 1, and in step S32-5-11, id is compared with n + 2. If id <n + 2, the process returns to step S32-5-4, and if id ≧ n + 2, the process proceeds to step S32-5-12.

このように、前の処理で面積の小さい領域を削除した後に、まだ領域番号3以上の値が残った場合に、無条件に3以上の値を2に変更する(3値化する、図14(c)参照)。すなわち、ステップS32−5−12においてu=v=1として、ステップS32−5−13において、ImageM(u,v)と2との大小を比較し、ImageM(u,v)>2であれば、ステップS32−5−14に進み、ImageM(u,v)=2とし、ImageM(u,v)<=2の場合とともに、ステップS32−5−15において、uを1だけインクリメントする。これにより、図14(c)の3以上の領域を2に変更する。ステップS32−5−16において、uとXs-1とを比較しu<Xs-1であれば、ステップS32−5−13に戻り、u>=Xs-1であれば、ステップS32−5−17に進み、u=1, v←v+1とする。次いで、ステップS32−5−18において、vとYs-1とを比較し、v<Ys-1であれば、ステップS32−5−13に戻り、v>=Ys-1であれば、処理を終了する。これにより、あるしきい値Stよりも小さい領域を削除する(図14(b)の3番の領域を背景(0)に置き換える処理を行うこと、すなわち微小面積の領域を削除することができる。   As described above, after a region having a small area is deleted in the previous processing, if a value of region number 3 or more still remains, the value of 3 or more is unconditionally changed to 2 (trinarization is performed, FIG. 14). (See (c)). That is, in step S32-5-12, u = v = 1, and in step S32-5-13, the size of ImageM (u, v) is compared with 2, and if ImageM (u, v)> 2, In step S32-5-14, ImageM (u, v) = 2 is set, and in the case of ImageM (u, v) <= 2, u is incremented by 1 in step S32-5-15. As a result, the three or more areas in FIG. In step S32-5-16, u is compared with Xs-1, and if u <Xs-1, the process returns to step S32-5-13, and if u> = Xs-1, step S32-5 is returned. Proceed to 17, and set u = 1 and v ← v + 1. Next, in step S32-5-18, v and Ys-1 are compared. If v <Ys-1, the process returns to step S32-5-13, and if v> = Ys-1, processing is performed. finish. As a result, an area smaller than a certain threshold value St is deleted (the process of replacing the area No. 3 in FIG. 14B with the background (0)), that is, an area having a very small area can be deleted.

図29は、輪郭抽出処理の流れを示すフローチャート図である(図14(d)参照)。自分自身も含めて8近傍の合計9つの画素において、2(内部)になっている画素の数を数え、それが3番から7番の値であれば輪郭として、“1”に変更する処理である。ステップS32−6−1において、x=y=1を設定する。次いで、画素カウンタにおいて、c=0、i=j=−1を設定する。ステップS32−6−3において、対象画素(x、y)の8近傍画素(x+i,y+j)が領域内部にあるか否か、即ち、ImageM(x+i,y+j)と0とを比較し、ImageM(x+i,y+j)>0であれば、ステップS32−6−4において、cを1だけインクリメントし、ステップS32−6−3において、=0の場合とともに、ステップS32−6−5において、iを1だけインクリメントする。次いで、iと1とを比較し、i≦1であれば、ステップS32−6−3に戻る。iと1とを比較し、i>1であれば、ステップS32−6−6に進み、iを1だけインクリメントする。ステップS32−6−6において、iと+1とを比較し、i≦1であればステップS32−6−3に戻り、i>1であれば、ステップS32−6−7において、i=-1, j←j+1とする。   FIG. 29 is a flowchart showing the flow of the contour extraction process (see FIG. 14D). A process of counting the number of pixels that are 2 (internal) in a total of 9 pixels in the vicinity of 8 including myself, and changing it to “1” as an outline if it is a value from 3 to 7 It is. In step S32-6-1, x = y = 1 is set. Next, c = 0 and i = j = −1 are set in the pixel counter. In step S32-6-3, whether or not eight neighboring pixels (x + i, y + j) of the target pixel (x, y) are inside the region, that is, ImageM (x + i, y + j) and If ImageM (x + i, y + j)> 0 is compared with 0, c is incremented by 1 in step S32-6-4, and in the case of = 0 in step S32-6-3 In step S32-6-5, i is incremented by one. Next, i is compared with 1, and if i ≦ 1, the process returns to step S32-6-3. If i> 1 is compared with i, the process proceeds to step S32-6-6 and i is incremented by 1. In step S32-6-6, i and +1 are compared. If i ≦ 1, the process returns to step S32-6-3. If i> 1, i = −1 in step S32-6-7. , j ← j + 1.

次いで、ステップS32−6−8において、jと+1とを比較し、j≦1であれば、ステップS32−6−3に戻り、j>1であれば、ステップ32−6−9において、カウントした領域内部にある近傍画素の個数cの値を基に対象画素が輪郭になるかを判定する。例えば、3≦c≦7であるか否か(8近傍画素の数が3から7の範囲に入っているかで輪郭と判定する。yesの場合には、ステップS32−6−10において、ImageM(x,y)=1と輪郭設定し、noである場合とともに、ステップS32−6−11において、xを1だけインクリメントする。次いで、ステップS32−6−12において、xとXs−1を比較し、x<Xs-1であればステップS32−6−2に戻る。x≧Xs-1であれば、ステップS32−6−13に進み、x=1, y←y+1とし、ステップS32−6−14において、yとYs-1とを比較し、y≧Ys-1であればステップS32−6−2に戻る。y≧Ys-1になると、処理を終了することで、輪郭を抽出することができる。   Next, in step S32-6-8, j and +1 are compared. If j ≦ 1, the process returns to step S32-6-3. If j> 1, the process returns to step 32-6-9. It is determined whether the target pixel has a contour based on the value of the number c of neighboring pixels in the counted area. For example, it is determined whether or not 3 ≦ c ≦ 7 (the contour is determined based on whether the number of 8 neighboring pixels falls within the range of 3 to 7. In the case of yes, in Step S32-6-10, ImageM ( x, y) = 1, and when it is no, in step S32-6-11, x is incremented by 1. Then, in step S32-6-12, x and Xs-1 are compared. If x <Xs-1, the process returns to step S32-6-2, and if x ≧ Xs-1, the process proceeds to step S32-6-13, where x = 1, y ← y + 1, and step S32- 6-14, y and Ys-1 are compared, and if y≥Ys-1, the process returns to step S32-6-2, and if y≥Ys-1, the process is terminated to extract the contour. can do.

図30は、前極側および後極側エッジ点と重心点の算出処理の流れを示すフローチャート図である(S33−1:図15B)。前述する重心を求める処理と同様であるが、0から255までの階調画像ではなく、0、1、2の3つの値のみをとる。   FIG. 30 is a flowchart showing a flow of processing for calculating the front pole side and rear pole side edge points and the barycentric point (S33-1: FIG. 15B). Although it is the same as the process for obtaining the center of gravity described above, it takes only three values 0, 1, and 2 instead of a gradation image from 0 to 255.

まず、ステップS33−1−1において、重心座標(Xg,Yg), Xg=Yg=0, 重み総和V=0, x=y=0、前極側エッジ点(X1,Y1), X1=Y1=-1,後極側エッジ点(X2,Y2), X2=Y2=-1を設定する。   First, in step S33-1-1, barycentric coordinates (Xg, Yg), Xg = Yg = 0, weight sum V = 0, x = y = 0, front pole side edge point (X1, Y1), X1 = Y1 = -1, Set the rear pole edge point (X2, Y2), X2 = Y2 = -1.

次いで、ステップS33−1−2において、対象画素(x、y)が領域内部または輪郭にあるか否か、即ち、ImageM(x,y)と0とを比較する。ImageM(x,y)=0の場合には、ステップS33−1−13に進む。ImageM(x,y)>0の場合には、ステップS33−1−3に進み、Xg←Xg+x, Yg←Yg+y, V←V+1とする。次いで、ステップS33−1−4において、左右方向の投影画像であるか否かを判定する。Yesの場合には、ステップS33−1−5に、Noの場合にはステップS33−1−9に進む。   Next, in step S33-1-2, whether or not the target pixel (x, y) is inside the region or in the outline, that is, ImageM (x, y) is compared with 0. If ImageM (x, y) = 0, the process proceeds to step S33-1-13. If ImageM (x, y)> 0, the process proceeds to step S33-1-3, where Xg ← Xg + x, Yg ← Yg + y, V ← V + 1. Next, in step S33-1-4, it is determined whether or not the projected image is in the left-right direction. In the case of Yes, it progresses to step S33-1-5, and in No, it progresses to step S33-1-9.

ステップS33−1−5において、X1<0 or x<X1であるか否かを判定し、Yesの場合には、ステップS33−1−6においてX1=x, Y1=y(最小値候補)とし、Noの場合とともにステップS33−1−7に進み、X>X2であるか否かを判定し、Yesの場合にはX2=x, Y2=yとし。Noの場合と共に、X2=x, Y2=y(最大値候補)とする。このようにして、x方向で最小と最大を見つける処理である。   In step S33-1-5, it is determined whether or not X1 <0 or x <X1. If Yes, X1 = x, Y1 = y (minimum value candidate) is set in step S33-1-6. In the case of No, the process proceeds to step S33-1-7 to determine whether X> X2, and in the case of Yes, X2 = x, Y2 = y. Along with No, X2 = x, Y2 = y (maximum value candidate). In this way, the process is to find the minimum and maximum in the x direction.

ステップS33−1−4でNoの場合には、上下方向についても同様に、ステップS33−1−9に進み、Y1<0 又は y<Y1であるか否かを判定し、Yesの場合にはステップS33−1−19に進み、X1=x, Y1=yとし、Noの場合とともに、ステップS33−1−11において、y>Y2であるか否かを判定する。Yesの場合には、ステップS33−1−12において、X2=x, Y2=yとし、Noの場合とともに、ステップS33−1−13において、xに1をインクリメントする。ステップS33−1−14において、xとXsとを比較し、x<Xsであれば、ステップS33−1−2に戻り、x≧XsであればステップS33−1−15においてx=0, y←y+1とし、ステップS33−1−16において、yとYsとを比較する。y≧Ysであれば、ステップS33−1−2に戻り、y≧Ysであれば、ステップS33−1−17において、Xg←Xg/V, Yg←Yg/Vとして、ステップS33−1−18において、右・下方向投影であるか否かを判定し、Noであれば、そのまま終了し、Yesであれば上下左右をひっくり返して、ステップS33−1−19において、X1≪X2, Y1≪Y2として処理を終了する。これにより、X1、X2、Y1、Y2を求めることができる。
仮決定された点に順番に補正する。
In the case of No in step S33-1-4, similarly in the vertical direction, the process proceeds to step S33-1-9 to determine whether Y1 <0 or y <Y1, and in the case of Yes, Proceeding to step S33-1-19, X1 = x, Y1 = y is set, and in addition to the case of No, in step S33-1-11, it is determined whether y> Y2. In the case of Yes, X2 = x and Y2 = y are set in step S33-1-12, and with the case of No, 1 is incremented to x in step S33-1-13. In step S33-1-14, x and Xs are compared. If x <Xs, the process returns to step S33-1-2, and if x ≧ Xs, x = 0, y in step S33-1-15. ← y + 1, and in step S33-1-16, y is compared with Ys. If y ≧ Ys, the process returns to step S33-1-2. If y ≧ Ys, in step S33-1-17, Xg ← Xg / V, Yg ← Yg / V is set, and step S33-1-18. In step S33-1-19, X1 << X2, Y1 << is determined. In step S33-1-19, the process is terminated. The process ends as Y2. Thereby, X1, X2, Y1, and Y2 can be obtained.
Corrections are made in order to the temporarily determined points.

図31は、前極側エッジ点の補正と決定処理の流れを示すフローチャート図である(S33−3、図16参照)。ステップS33−3−1において、X1、Y1を補正するために、(X1,Y1)と(Xg,Yg)より、後述する方法により距離差dを算出する。まず、ステップS33−3−2において、前極側エッジ点(x1,y1)、初期値x1=X1, y1=Y1、最小距離差dm=d, x=y=0を設定する。   FIG. 31 is a flowchart showing a flow of correction and determination processing of the front pole side edge point (see S33-3 and FIG. 16). In step S33-3-1, in order to correct X1 and Y1, a distance difference d is calculated from (X1, Y1) and (Xg, Yg) by a method described later. First, in step S33-3-2, a front pole side edge point (x1, y1), an initial value x1 = X1, y1 = Y1, and a minimum distance difference dm = d, x = y = 0 are set.

ステップS33−3−3において、対象画素(x、y)が輪郭上にあるか否か、即ち、ImageM(x,y)と1とを比較し、異なれば、輪郭上の点でないと判断しステップS33−3−8に進み、同じであれば、輪郭上の点であると判断しステップS33−3−4に進み、
左方向:x<{X1*(Sw-1)+Xg}/Sw
右方向:x>{X1*(Sw-1)+Xg}/Sw
上方向:y<{Y1*(Sw-1)+Yg}/Sw
下方向:y>{Y1*(Sw-1)+Yg}/Sw
を満たすか否かを判定する。ここで、Swは、走査重みであり、例えば16である。ここで、候補にある点の範囲を決めておく。
In step S33-3-3, whether or not the target pixel (x, y) is on the contour, that is, ImageM (x, y) is compared with 1, and if not, it is determined that it is not a point on the contour. Proceed to step S33-3-8, and if it is the same, determine that the point is on the contour, and proceed to step S33-3-4,
Left direction: x <{X1 * (Sw-1) + Xg} / Sw
Right direction: x> {X1 * (Sw-1) + Xg} / Sw
Up direction: y <{Y1 * (Sw-1) + Yg} / Sw
Down: y> {Y1 * (Sw-1) + Yg} / Sw
It is determined whether or not the above is satisfied. Here, Sw is a scanning weight, for example, 16. Here, a range of points in the candidate is determined.

ここで、Noであれば、ステップS33−3−8に進む。Yesであれば、ステップS33−3−5において、(x,y)と(Xg,Yg)より距離差dを算出する(図16(b)参照)。ここで、ステップS33−3−6において、d<dmであるか否かを判定する。Yesの場合には、ステップS33−3−7に進み、x1=x, y1=y, dm=d(前極側エッジ点候補)と更新して、Noの場合とともに、ステップS33−3−8に進む。このような処理を繰り返すことにより、前極側のエッジ点が決まる。   Here, if it is No, it will progress to step S33-3-8. If Yes, in step S33-3-5, the distance difference d is calculated from (x, y) and (Xg, Yg) (see FIG. 16B). Here, in step S33-3-6, it is determined whether d <dm. In the case of Yes, it progresses to step S33-3-7, and it updates with x1 = x, y1 = y, dm = d (front pole side edge point candidate), and in the case of No, step S33-3-8 Proceed to By repeating such processing, the edge point on the front pole side is determined.

ステップS33−3−8では、xを1だけインクリメントする。次いで、ステップS33−3−9において、xとXsとを比較し、x<Xsの場合には、ステップS33−3−3に戻る。x≧Xsの場合には、ステップS33−3−10に進み、yとYsとを比較し、y≧Ysの場合には、ステップS33−3−3に戻る。y≧Ysの場合には、ステップS33−3−12に進みX1←x1, Y1←y1として、前極側エッジ点の補正処理を終了する。   In step S33-3-8, x is incremented by one. Next, in step S33-3-9, x and Xs are compared. If x <Xs, the process returns to step S33-3-3. If x ≧ Xs, the process proceeds to step S33-3-10, y and Ys are compared, and if y ≧ Ys, the process returns to step S33-3-3. If y ≧ Ys, the process proceeds to step S33-3-12, and X1 ← x1, Y1 ← y1, and the correction processing for the front pole side edge point is completed.

図32は、図31のステップS33−3−1およびS33−3−5の処理である前極側エッジ点と重心点方向の距離差算出処理の流れを示すフローチャート図である(図16、ステップS33−4)。尚、図32では本処理を前極側エッジ点の補正だけでなく、後述する重心点の補正にも流用するため、前極側エッジ点に対して前方エッジ点、重心点に対して後方エッジ点という汎用化した表記にしている。図31のステップS33−3−1の(X1,Y1)およびS33−3−5の(x,y)はいずれも、図32の前方エッジ点(Xs,Ys)に対応し、図31のステップS33−3−1およびS33−3−5の(Xg,Yg)はいずれも、図32の後方エッジ点(Xe,Ye)に対応する。距離差の算出は、まず、ステップS33−4’−1において、
前方エッジ点(Xs,Ys),後方エッジ点(Xe,Ye)とし、
前方エッジ点から後方エッジ点の方向の単位ベクトル
dx=(Xe-Xs)/L, dy=(Ye-Ys)/Lを求める。
FIG. 32 is a flowchart showing a flow of a distance difference calculation process between the front pole side edge point and the gravity center point, which is the process of steps S33-3-1 and S33-3-5 of FIG. 31 (FIG. 16, step S33-4). In FIG. 32, since this process is used not only for correcting the front pole side edge point but also for correcting the center of gravity point described later, the front edge point with respect to the front pole side edge point and the rear edge with respect to the center of gravity point. It has a generalized notation called point. Both (X1, Y1) in step S33-3-1 and (x, y) in S33-3-5 in FIG. 31 correspond to the front edge point (Xs, Ys) in FIG. Both (Xg, Yg) in S33-3-1 and S33-3-5 correspond to the rear edge point (Xe, Ye) in FIG. First, in step S33-4′-1, the distance difference is calculated.
The front edge point (Xs, Ys), the rear edge point (Xe, Ye),
Unit vector in the direction from the front edge point to the rear edge point
dx = (Xe-Xs) / L and dy = (Ye-Ys) / L are obtained.

但し、L={(Xe-Xs)2+ (Ye-Ys)2}1/2
前極側エッジ点Pからの距離r(初期値:2, 上限:12)を定義し、
出力距離差の初期値=0として、r=2から=12まで11回計算する。
However, L = {(Xe-Xs) 2 + (Ye-Ys) 2 } 1/2
Define distance r (initial value: 2, upper limit: 12) from front pole side edge point P f ,
The initial value = 0 of the output distance difference is calculated 11 times from r = 2 to = 12.

ステップS33−4’−2において、
xc=dx×r+Xs, yc=dy×r+Ysの計測用中間点を規定し(前方エッジ点から後方エッジ点に向かう軸上に規定される計測用中間点 (xc,yc)が求まる。)、前記計測用中間点より前方エッジ点から後方エッジ点に向かう軸と直交する上方向に直線を延ばし、眼球領域の上側の輪郭上の交点(xc1,yc1)を以下のように算出する。
In step S33-4′-2,
Specify the measurement intermediate point xc = dx × r + Xs, yc = dy × r + Ys (the measurement intermediate point (xc, yc) specified on the axis from the front edge point to the rear edge point is obtained .), Extending a straight line upward from the measurement intermediate point perpendicular to the axis from the front edge point to the rear edge point, and calculating the intersection (xc1, yc1) on the upper contour of the eyeball region as follows: .

ステップS33−4’−3において、xc1=yc1=-1, t=0.5(0.5画素単位)を代入して変数を初期化し、ステップS33−4’−4において、
x= -dy×t+xc, y=dx×t+ycで表される直線、すなわち、前方エッジ点から後方エッジ点に向かう軸と直交する方向の単位ベクトルを、tという値で変化させて上側に移動させる。tを増していきながら線を上方向に延ばして輪郭とぶつかったところを探す、すなわち、ステップS33−4’−5に示すように、
x<Xs, y<Ys, ImageM(x,y)=1であるか否かを判定することで見つける。
In step S33-4'-3, variables are initialized by substituting xc1 = yc1 = -1, t = 0.5 (0.5 pixel unit), and in step S33-4'-4,
x = -dy × t + xc, y = dx × t + yc, that is, the unit vector in the direction orthogonal to the axis from the front edge point to the rear edge point is changed by the value t Move up. While increasing t, the line is extended upward to search for a place where the outline collides, that is, as shown in step S33-4′-5,
It is found by determining whether x <Xs, y <Ys, and ImageM (x, y) = 1.

Yesの場合には、ステップS33−4’−6において、上方向に延ばした線と輪郭とが交わった点を(図16(b))
xc1=x, yc1=yとし、
Noの場合には、ステップS33−4’−7でtに0.5を足してステップS33−4’−4に戻る。
In the case of Yes, in step S33-4′-6, the point where the line extending in the upward direction and the outline intersect (FIG. 16B).
xc1 = x, yc1 = y,
In the case of No, 0.5 is added to t in step S33-4′-7, and the process returns to step S33-4′-4.

次は、前記計測用中間点より前方エッジ点から後方エッジ点に向かう軸と直交する下方向に直線を延ばし、眼球領域の下側の輪郭上の交点(xc2,yc2)を同様に算出する。ステップS33−4’−6からステップS33−4’−8に進み、xc2=yc2=-1, t=-0.5とする。次いで、ステップS33−4’−9において、
x= -dy×t+xc, y=dx×t+ycとする。
Next, a straight line is extended in the downward direction perpendicular to the axis from the front edge point to the rear edge point from the measurement intermediate point, and the intersection point (xc2, yc2) on the lower contour of the eyeball region is similarly calculated. The process proceeds from step S33-4′-6 to step S33-4′-8, where xc2 = yc2 = −1 and t = −0.5. Next, in step S33-4′-9,
x = −dy × t + xc, y = dx × t + yc.

次いで、ステップS33−4’−10において、
x<Xs, y<YsでImageM(x,y)=1であるか否かを判定し、Noの場合には、ステップS33−4’−12においてtから0.5を減算し、ステップS33−4’−9に戻る。Yesの場合には、ステップS33−4’−11において、延ばした線と輪郭とが交わった点を(図16(b))
xc2=x, yc2=y
として、ステップS33−4’−13において、前記計測用中間点より上側の輪郭上の交点までの距離と前記計測用中間点より下側の輪郭上の交点までの距離との距離差を以下のように算出して距離差の総和値dに加算する。
d←d+|(xc1-xc)2+(yc1-yc)2-(xc2-xc)2-(yc2-yc)2|
とし(ここで、求めたdは、点(xc,yc)を基準にして、(xc1,yc1)と(xc2,yc2)との間の距離、の総和である。)、ステップS33−4’−14でrをセンター方向(重心点)に動かし、ステップS33−4’−15で
r<上限値(12)
であるか否かを判定することで、計測用中間点(xc,yc)を動かしながら複数個所にわたって上下方向の距離差を求めて、その総和をdとし、dが出力される。
Next, in step S33-4′-10,
It is determined whether x <Xs, y <Ys and whether ImageM (x, y) = 1. If No, 0.5 is subtracted from t in step S33-4′-12, and step S33. Return to -4'-9. In the case of Yes, in step S33-4′-11, the point where the extended line and the outline intersect (FIG. 16B).
xc2 = x, yc2 = y
In step S33-4′-13, the distance difference between the distance to the intersection on the contour above the measurement intermediate point and the distance to the intersection on the contour below the measurement intermediate point is expressed as follows: And is added to the sum d of distance differences.
d ← d + | (xc1-xc) 2 + (yc1-yc) 2- (xc2-xc) 2- (yc2-yc) 2 |
(Here, the obtained d is the sum of the distances between (xc1, yc1) and (xc2, yc2) with reference to the point (xc, yc)), and step S33-4 ′. −14, r is moved in the center direction (center of gravity), and in step S33-4′-15
r <Upper limit value (12)
By determining whether or not, the distance difference in the vertical direction is obtained over a plurality of locations while moving the measurement intermediate point (xc, yc), and the sum is d, and d is output.

Yesの場合には、ステップS33−4’−2に戻り、Noの場合には、処理を終了する(End)。この処理により、前極側エッジ点と重心点方向の距離差dを算出することができる。   If yes, the process returns to step S33-4'-2, and if no, the process ends (End). By this processing, the distance difference d between the front pole side edge point and the center of gravity can be calculated.

図33は、重心点の補正と決定処理(S33−4)の流れを示すフローチャート図である(図16(c)参照)。基本的な考え方は図31と同様であり、図31は重心点を仮決めし、仮の重心点から前極側エッジ点を求めた。そして、距離差dが最も小さくなるときが前極側エッジ点となる。異なる点は、図31では輪郭線上を通るのに対して、重心は内部で変動する点が異なる。ステップS33−4−1において、(Xg,Yg)と(X1,Y1)より距離差dを算出する。(Xg,Yg)はいずれも、図32の前方エッジ点(Xs,Ys)に対応し、(X1,Y1)は図32の後方エッジ点(Xe,Ye)に対応させ、同様なロジックで距離差dを算出する。ここで、ステップS33−4−2において、重心点(xg,yg)、初期値xg=Xg, yg=Yg, 最小距離差dm=dを設定する。次いで、ステップS33−4−3において、左右方向であるか否かを判定する。Noの場合(上下方向)には、ステップS33−4−11に進み、Yesの場合(左右方向)にはステップS33−4−4に進む。   FIG. 33 is a flowchart showing the flow of the center-of-gravity point correction and determination process (S33-4) (see FIG. 16C). The basic idea is the same as that in FIG. 31. In FIG. 31, the center of gravity is provisionally determined, and the front pole side edge point is obtained from the provisional center of gravity. The time when the distance difference d becomes the smallest is the front pole side edge point. The difference is that in FIG. 31 it passes on the contour line, whereas the center of gravity varies internally. In step S33-4-1, the distance difference d is calculated from (Xg, Yg) and (X1, Y1). Each of (Xg, Yg) corresponds to the front edge point (Xs, Ys) in FIG. 32, and (X1, Y1) corresponds to the rear edge point (Xe, Ye) in FIG. The difference d is calculated. Here, in step S33-4-2, the barycentric point (xg, yg), the initial value xg = Xg, yg = Yg, and the minimum distance difference dm = d are set. Next, in step S33-4-3, it is determined whether or not the direction is the left-right direction. If No (up and down direction), the process proceeds to step S33-4-11. If Yes (left and right direction), the process proceeds to step S33-4-4.

ステップS33−4−4(左右方向)においては、重心をy軸方向に移動させる(x軸方向は動かさない(xgは初期値のまま変更しない)。
Ymin={Yg*(100-Sw)+Y1*Sw}/100
Ymax={Yg*(100-Sw)+Y2*Sw}/100, y=Ymin
とする。これにより、動かす範囲を決めて、不要な範囲を動かさないようにする。ここで、Sw:走査重みは例えば30である。
In step S33-4-4 (left-right direction), the center of gravity is moved in the y-axis direction (the x-axis direction is not moved (xg is not changed with the initial value)).
Ymin = {Yg * (100-Sw) + Y1 * Sw} / 100
Ymax = {Yg * (100-Sw) + Y2 * Sw} / 100, y = Ymin
And As a result, a range to be moved is determined so that an unnecessary range is not moved. Here, Sw: the scanning weight is 30, for example.

次いで、ステップS33−4−5において、Y方向に関して、(Xg,y)と(X1,Y1)より距離差dを算出する。(Xg,y)はいずれも、図32の前方エッジ点(Xs,Ys)に対応し、(X1,Y1)は図32の後方エッジ点(Xe,Ye)に対応させ、同様なロジックで距離差dを算出する。   Next, in step S33-4-5, the distance difference d is calculated from (Xg, y) and (X1, Y1) in the Y direction. (Xg, y) corresponds to the front edge point (Xs, Ys) in FIG. 32, (X1, Y1) corresponds to the rear edge point (Xe, Ye) in FIG. The difference d is calculated.

まず、ステップS33−4−6において、d<dmであるか否かを判定する。Yesの場合には、ステップS33−4−7において、
yg=y, dm=d(重心候補)
とし、Noの場合とともに、ステップS33−4−8において
y←y+1
とし、ステップS33−4−9において、y>Ymaxを判定する。
First, in step S33-4-6, it is determined whether d <dm. In the case of Yes, in step S33-4-7,
yg = y, dm = d (center of gravity candidate)
And in the case of No, in step S33-4-8
y ← y + 1
In step S33-4-9, y> Ymax is determined.

Noの場合には、ステップS33−4−6に戻り、Yesの場合には、ステップS33−4−10において
Yg=ygとする。
If No, the process returns to Step S33-4-6. If Yes, the process returns to Step S33-4-10.
Yg = yg.

一方、ステップS33−4−11において、Swは走査重み(例30)である。これにより、上下方向の動かす範囲を決めて、不要な範囲を動かさないようにする。
Xmin={Xg*(100-Sw)+X1*Sw}/100
Xmax={Xg*(100-Sw)+X2*Sw}/100, x=Xmin
On the other hand, in step S33-4-11, Sw is a scanning weight (example 30). As a result, the range of movement in the vertical direction is determined so that the unnecessary range is not moved.
Xmin = {Xg * (100-Sw) + X1 * Sw} / 100
Xmax = {Xg * (100-Sw) + X2 * Sw} / 100, x = Xmin

ステップS33−4−12において、
X方向に関して、(x,Yg)と(X1,Y1)より距離差dを算出する。(x,Yg)はいずれも、図32の前方エッジ点(Xs,Ys)に対応し、(X1,Y1)は図32の後方エッジ点(Xe,Ye)に対応させ、同様なロジックで距離差dを算出する。
In step S33-4-12,
For the X direction, the distance difference d is calculated from (x, Yg) and (X1, Y1). (x, Yg) corresponds to the front edge point (Xs, Ys) in FIG. 32, (X1, Y1) corresponds to the rear edge point (Xe, Ye) in FIG. The difference d is calculated.

次いで、ステップS33−4−13において、d<dmを判定する。Noの場合には、ステップS33−4−13に戻り、Yesの場合には、ステップS33−4−17に進み、Xg=xgとすることでXgが求まる。
これにより、図16(c)に示すように、重心点の補正と決定処理が終了する。
Next, in step S33-4-13, d <dm is determined. In the case of No, the process returns to Step S33-4-13. In the case of Yes, the process proceeds to Step S33-4-17, and Xg is obtained by setting Xg = xg.
Thereby, as shown in FIG.16 (c), the correction | amendment and determination process of a gravity center point are complete | finished.

次に、図34は、後極側エッジ点の補正と眼軸の決定処理の流れを示すフローチャート図である(図17の眼軸の自動設定処理S33)。Pf、Pg’が決まったため、次いで、Pf、Pg’の延長線上に来るようにPbを求める。まず、ステップS35−5−1において、(X1,Y1)-(Xg,Yg)-(X2,Y2)より直線性dの判定処理を行う。ステップS35−5−2において、後極側エッジ点(x2,y2)、初期値x2=X2, y2=Y2、最小判定値dm=d、 x=y=0を設定する。ステップS33−5−3において、ImageM(x,y)と1とを比べる。ImageM(x,y)が1でない場合には、ステップS33−5−8に進み、ImageM(x,y)が1の場合には、ステップS33−5−4に進む。ここで、x、yの値が以下の条件で示される所定の範囲に含まれるか否かを確認する。
左方向:x>{X2*(Sw-1)+Xg}/Sw
右方向:x<{X2*(Sw-1)+Xg}/Sw
上方向:y>{Y2*(Sw-1)+Yg}/Sw
下方向:y<{Y2*(Sw-1)+Yg}/Sw
を満たすか?
を確認する(Sw: 走査重み(例は4))。
Next, FIG. 34 is a flowchart showing the flow of correction of the posterior pole side edge point and the determination process of the eye axis (automatic setting process S33 of the eye axis in FIG. 17). Since Pf and Pg ′ are determined, Pb is then obtained so as to be on an extension line of Pf and Pg ′. First, in step S35-5-1, the linearity d is determined from (X1, Y1)-(Xg, Yg)-(X2, Y2). In step S35-5-2, a rear pole edge point (x2, y2), an initial value x2 = X2, y2 = Y2, a minimum judgment value dm = d, and x = y = 0 are set. In step S33-5-3, ImageM (x, y) is compared with 1. If ImageM (x, y) is not 1, the process proceeds to step S33-5-8. If ImageM (x, y) is 1, the process proceeds to step S33-5-4. Here, it is confirmed whether or not the values of x and y are included in a predetermined range indicated by the following conditions.
Left direction: x> {X2 * (Sw-1) + Xg} / Sw
Right direction: x <{X2 * (Sw-1) + Xg} / Sw
Upward: y> {Y2 * (Sw-1) + Yg} / Sw
Downward: y <{Y2 * (Sw-1) + Yg} / Sw
Meet?
(Sw: scanning weight (example is 4)).

Noの場合には、ステップS33−5−8に進む。Yesの場合には、ステップS33−5−5において、(X1,Y1)-(Xg,Yg)-(x,y)より直線性dを判定する処理を行う。   In No, it progresses to step S33-5-8. In the case of Yes, in step S33-5-5, a process of determining the linearity d from (X1, Y1)-(Xg, Yg)-(x, y) is performed.

まず、制約を決めるため、ステップS33−5−6において、d<dmを判定する。Noの場合には、ステップS33−5−8に進む。Yesの場合には、
x2=x, y2=y, dm=d(後極側エッジ点候補)
となる。次いで、ステップS33−5−8において、
x←x+1
とし、ステップS33−5−9において、xとXsとを比較する。ここで、x<Xsの場合には、ステップS33−5−3に戻る。x≧Xsの場合には、
x=0, y←y+1として、ステップS33−5−11においてyとYsとを比較する。y≧Ysの場合には、ステップS33−5−3に戻り、y≧Ysの場合にはステップS33−5−12において、
X2←x2, Y2←y2
として、処理を終了する(End)。これにより、X2、Y2を補正することができる(図17(b)参照)。
First, in order to determine a constraint, d <dm is determined in step S33-5-6. In No, it progresses to step S33-5-8. In the case of Yes,
x2 = x, y2 = y, dm = d (rear pole edge candidate)
It becomes. Next, in step S33-5-8,
x ← x + 1
In step S33-5-9, x is compared with Xs. If x <Xs, the process returns to step S33-5-3. If x ≧ Xs,
As x = 0, y ← y + 1, y and Ys are compared in step S33-5-11. If y ≧ Ys, the process returns to step S33-5-3, and if y ≧ Ys, in step S33-5-12,
X2 ← x2, Y2 ← y2
Then, the process ends (End). Thereby, X2 and Y2 can be corrected (see FIG. 17B).

図35は、図34のS33-5-1と、S33-5-5の処理内容の具体的な例である3頂点の直線性の判定処理の流れを示すフローチャート図である(図17(b)参照)。図34のS33-5-1における(X1,Y1)は図35における(xs,ys)に、(Xg,Yg)は図35における(xm,ym)に、(X2,Y2)は図35における(xe,ye)に対応し、S33-5-5における(X1,Y1)は図35における(xs,ys)に、(Xg,Yg)は図35における(xm,ym)に、(x,y)は図35における(xe,ye)に対応する。まず、ステップS33−5−1−1において、与えられた3頂点を(xs,ys), (xm,ym), (xe,ye)とする。また、dx=xe-xs, dy=ye-ys、出力判定値d=0とする。   FIG. 35 is a flowchart showing the flow of the process of determining the linearity of the three vertices, which is a specific example of the processing contents of S33-5-1 and S33-5-5 of FIG. 34 (FIG. 17B). )reference). In FIG. 34, (X1, Y1) in S33-5-1 is (xs, ys) in FIG. 35, (Xg, Yg) is in (xm, ym) in FIG. 35, and (X2, Y2) is in FIG. (xe, ye), (X1, Y1) in S33-5-5 is (xs, ys) in FIG. 35, (Xg, Yg) is (xm, ym) in FIG. y) corresponds to (xe, ye) in FIG. First, in step S33-5-1-1, given three vertices are set to (xs, ys), (xm, ym), (xe, ye). Also, dx = xe-xs, dy = ye-ys, and output determination value d = 0.

ステップS33−5−1−2において、|dx|>|dy|を判定する。Noの場合(上下方向)には、ステップS33−5−1−4に、Yesの場合(左右方向)にはステップS33−5−3に進む。   In step S33-5-1-2, | dx |> | dy | is determined. If No (up and down direction), the process proceeds to step S33-5-1-4. If Yes (left and right direction), the process proceeds to step S33-5-3.

ステップS33−5−1−3において、d=|dy×(xm-1)/dx+ys-ym|により、dを求め、ステップS33−5−1−4において、d=|dx×(ym-1)/dy+xs-xm|によりdを求め、処理を終了する(End:図17(b)参照))。
ここまでが、眼軸の設定処理である。
In step S33-5-1-3, d is obtained by d = | dy × (xm-1) / dx + ys-ym |. In step S33-5-1-4, d = | dx × (ym -1) d is obtained from / dy + xs-xm |, and the process is terminated (End: see FIG. 17B)).
The process up to this point is the eye axis setting process.

以降は、手動の調整を行う。
図36は、手動設定エッジ点の輪郭線上への自動補正処理(S35−3)を示すフローチャート図である。図18の輪郭線上の点を見つける処理である。
Thereafter, manual adjustment is performed.
FIG. 36 is a flowchart showing an automatic correction process (S35-3) for manually setting edge points on the contour line. This is a process of finding a point on the contour line in FIG.

まず、ステップS35−3−1において、
補正対象の前極側エッジ点を(x1,y1)、補正後の前極側エッジ点を(X1,Y1)、重心点を(Xg,Yg)とし、後極側エッジ点(X2,Y2)は固定とする。尚、具体的な説明は省略するが、逆に、前極側エッジ点(X1,Y1)を固定とし、補正対象の後極側エッジ点を(x2,y2)、補正後の後極側エッジ点を(X2,Y2)、重心点を(Xg,Yg)とする方法も同様に実現できる。補正前の前極側エッジ点を用いて眼軸方向の単位ベクトルを以下のように定義する。
L={(x1-X2)2+ (y1-Y2)2}1/2
dx=(x1-X2)/L, dy=(y1-Y2)/L
t=0.5
補正後の前極側エッジ点を(x,y)とし、初期値をx=x1、y=y1とする。
First, in step S35-3-1,
The front pole edge point to be corrected is (x1, y1), the corrected front pole edge point is (X1, Y1), the center of gravity is (Xg, Yg), and the rear pole edge point (X2, Y2) Is fixed. Although specific explanation is omitted, conversely, the front pole side edge point (X1, Y1) is fixed, the rear pole side edge point to be corrected is (x2, y2), and the rear pole side edge after correction A method in which the point is (X2, Y2) and the center of gravity is (Xg, Yg) can be similarly realized. The unit vector in the axial direction is defined as follows using the front pole side edge point before correction.
L = {(x1-X2) 2 + (y1-Y2) 2 } 1/2
dx = (x1-X2) / L, dy = (y1-Y2) / L
t = 0.5
The corrected front pole side edge point is (x, y), and the initial values are x = x1 and y = y1.

ステップS35−3−2において、対象画素(x、y)が輪郭上にあるか否か、即ち、ImageM(x,y)=1であるか否かを判定する。Yesの場合には、ステップS35−3−10に進み、Noの場合には、ステップS35−3−2に進み、
x=dx×t+x1, y=dy×t+y1
と変更する。次いで、ステップS35−3−4において、対象画素(x、y)が輪郭上にあるか否か、即ち、
ImageM(x,y)=1
であるか否かを判定し、Yesの場合にはステップS35−3−10に進み、Noの場合には、ステップS35−3−に進み、
x=-dx×t+x1, y=-dy×t+y1
と変更する。次いで、ステップS35−3−7において、対象画素(x、y)が輪郭上にあるか否か、即ち、ImageM(x,y)=1であるか否かを判定する。Yesの場合には、ステップS35−3−10に進み、Noの場合には、ステップS35−3−8に進み、t←t+0.5とする。次いで、ステップS35−3−9において、
t<L/2であるか否かを判定し、
Noの場合には、ステップS35−3−3に戻り、Yesの場合には、Error(補正不可)となる。ステップS35−3−10においては、
X1=x, Y1=y
Xg=(X1+X2)/2
Yg=(Y1+Y2)/2
として、処理を終了する(End)。これにより、手動設定されたエッジ点の輪郭線上への自動補正処理が行われる。
In step S35-3-2, it is determined whether or not the target pixel (x, y) is on the contour, that is, whether or not ImageM (x, y) = 1. In the case of Yes, it progresses to step S35-3-10, and in the case of No, it progresses to step S35-3-2.
x = dx × t + x1, y = dy × t + y1
And change. Next, in step S35-3-4, whether or not the target pixel (x, y) is on the contour, that is,
ImageM (x, y) = 1
In the case of Yes, the process proceeds to step S35-3-10. In the case of No, the process proceeds to step S35-3-.
x = -dx × t + x1, y = -dy × t + y1
And change. Next, in step S35-3-7, it is determined whether or not the target pixel (x, y) is on the contour, that is, whether or not ImageM (x, y) = 1. In the case of Yes, it progresses to step S35-3-10, and in the case of No, it progresses to step S35-3-8, and is set to t ← t + 0.5. Next, in step S35-3-9,
Determine if t <L / 2,
If No, the process returns to Step S35-3-3, and if Yes, Error (cannot be corrected) is set. In Step S35-3-10,
X1 = x, Y1 = y
Xg = (X1 + X2) / 2
Yg = (Y1 + Y2) / 2
Then, the process ends (End). Thereby, automatic correction processing is performed on the contour line of the manually set edge point.

図37は、既に決定された眼軸と直交する方向に90度および−90度エッジ点の追加を行う処理(ステップS38−1、図19(a)参照)の流れを示すフローチャート図である。まず、ステップS38−1−1において、前極側エッジ点を基点にした後極方向への眼軸上の単位ベクトルを求める。図36までのXg,Ygは、眼軸の自動設定を行うために導入した眼球の幾何学的な重心であり、図37、図38のXo,Yoは、計測用重心であり、人為的に設定した眼軸上の後極点から一定距離離れた値であるため、両者では値がかわってくる(ただし、正常眼ではほぼ一致するように計測用重心を設定する)。眼軸上の単位ベクトルは、
dx=(X2-X1)/L, dy=(Y2-Y1)/L
ただし、L={(X2-X1)2+ (Y2-Y1)2}1/2
とする。
FIG. 37 is a flowchart showing the flow of processing for adding 90-degree and -90-degree edge points in a direction orthogonal to the already determined eye axis (see step S38-1, FIG. 19A). First, in step S38-1-1, a unit vector on the eye axis in the rear pole direction with the front pole side edge point as a base point is obtained. 36. Xg and Yg up to FIG. 36 are the geometric center of gravity of the eyeball introduced to automatically set the eye axis, and Xo and Yo in FIGS. 37 and 38 are the center of gravity for measurement. Since the values are a certain distance away from the set rear pole on the eye axis, the values are different between the two (however, the center of gravity for measurement is set so that they are almost the same for normal eyes). The unit vector on the eye axis is
dx = (X2-X1) / L, dy = (Y2-Y1) / L
However, L = {(X2-X1) 2 + (Y2-Y1) 2 } 1/2
And

ステップS38−1−2において、t=0.5とする。ステップS38−1−3において、計測用重心より上記単位ベクトルの方向に伸ばした点として、
x=-dy×t+X0, y=dx×t+Y0
を定義する。
In step S38-1-2, t = 0.5. In step S38-1-3, as a point extended from the measurement center of gravity in the direction of the unit vector,
x = -dy × t + X0, y = dx × t + Y0
Define

次いで、ステップS38−1−4において、上方向にスキャンし、輪郭線にぶつかる点を求める。対象画素(x、y)が輪郭上にあるか否か、即ち、
x<Xs, y<Ys, ImageM(x,y)=1
を判定し、Noの場合には、ステップS38−1−5において、
t¬t+0.5
とし、ステップS38−1−3に戻る。
Next, in step S38-1-4, scanning is performed in the upward direction, and a point hitting the contour line is obtained. Whether the target pixel (x, y) is on the contour, ie,
x <Xs, y <Ys, ImageM (x, y) = 1
In the case of No, in step S38-1-5,
t¬t + 0.5
And return to Step S38-1-3.

Yesの場合には、ステップS38−1−6に進み、
Xp9=x, Yp9=y
とする。
ステップS38−1−7において、t=0.5とする。
In the case of Yes, it progresses to step S38-1-6,
Xp9 = x, Yp9 = y
And
In step S38-1-7, t = 0.5.

次いで、ステップS38−1−8において、下方向にスキャンし、輪郭線にぶつかる点を求める。
x= -dy×t+X0, y=dx×t+Y0とし、
ステップS38−1−9において、対象画素(x、y)が輪郭上にあるか否か、即ち、
x<Xs, y<Ys, ImageM(x,y)=1であるか否かを判定する。Noの場合には、ステップS38−1−10に進み、t¬t-0.5とした後、ステップS38−1−8に戻る。
Next, in step S38-1-8, the scan is performed in the downward direction, and a point that hits the contour line is obtained.
x = -dy × t + X0, y = dx × t + Y0,
In step S38-1-9, whether or not the target pixel (x, y) is on the contour, that is,
It is determined whether x <Xs, y <Ys, and ImageM (x, y) = 1. In No, it progresses to step S38-1-10, and after setting it as t¬t-0.5, it returns to step S38-1-8.

Yesの場合には、ステップS38−1−11において、
Xm9=x, Ym9=y
とする。
これにより計測用エッジ点を追加することができる。
In the case of Yes, in step S38-1-11,
Xm9 = x, Ym9 = y
And
Thereby, an edge point for measurement can be added.

図38は、θ度および−θ度の計測用エッジ点(±第1の角度)の追加処理の流れを示すフローチャート図である(ステップS38−2、図19(a)、(c)参照)。ここでは、θが45度の例を示すが、第1の角度は、90度より狭く、後述する第2の角度よりも広い角度である(40度から90度)。 Figure 38 is a flowchart showing the flow of a process of adding theta w degree and - [theta] w of the measuring edge point (± first angle) (Step S38-2, FIG 19 (a), (c) reference). Here, an example in which θw is 45 degrees is shown, but the first angle is narrower than 90 degrees and wider than a second angle described later (40 degrees to 90 degrees).

まず、ステップS38−2−1(プラス45度の計測用エッジ点)で、θ度方向の単位ベクトルを計算する。本実施例では、以下dx、dyは45度方向の単位ベクトルである。
dx={(X2-X0)/L+(Xp9-X0)/Lp}/2
dy={(Y2-Y0)/L+(Yp9-Y0)/Lp}/2
ただし、L={(X2-X0)2+ (Y2-Y0)2}1/2、Lp={(Xp9-X0)2+ (Yp9-Y0)2}1/2である。
First, in step S38-2-1 (measuring edge point plus 45 degrees), calculates the unit vector of theta w degree direction. In this embodiment, dx and dy are unit vectors in the 45 degree direction.
dx = {(X2-X0) / L + (Xp9-X0) / Lp} / 2
dy = {(Y2-Y0) / L + (Yp9-Y0) / Lp} / 2
However, L = {(X2-X0 ) 2 + (Y2-Y0) 2} 1/2, is Lp = {(Xp9-X0) 2 + (Yp9-Y0) 2} 1/2.

次いで、ステップS38−2−2で、t=0.5とする。ステップS38−2−3で、計測用重心より上記単位ベクトルの方向に伸ばした点として
x=dx×t+X0, y=dy×t+Y0を定義する。次いで、ステップS38−2−4において、対象画素(x、y)が輪郭上にあるか否か、即ち、x<Xs, y<Ys, ImageM(x,y)=1であるか否かを判定する。ここでNoであれば、ステップS38−2−5において、tに0.5を加算する。Yesの場合には、ステップS38−2−6において、Xp4=x, Yp4=yと計測用エッジ点が求める(End)。
Next, t = 0.5 is set in step S38-2-2. In step S38-2-3, the point extended from the measurement center of gravity in the direction of the unit vector
Define x = dx × t + X0 and y = dy × t + Y0. Next, in step S38-2-4, it is determined whether or not the target pixel (x, y) is on the contour, that is, whether x <Xs, y <Ys, ImageM (x, y) = 1. judge. If No here, 0.5 is added to t in step S38-2-5. In the case of Yes, in step S38-2-6, Xp4 = x, Yp4 = y and a measurement edge point are obtained (End).

また、ステップS38−2−11において(マイナスθの計測用エッジ点)、−θ度方向の単位ベクトルを計算する。本実施例では、以下dx、dyは−45度方向の単位ベクトルである。
dx={(X2-X0)/L+(Xm9-X0)/Lm}/2
dy={(Y2-Y0)/L+(Ym9-Y0)/Lm}/2
ただし、L={(X2-X0)2+ (Y2-Y0)2}1/2 、Lm={(Xm9-X0)2+ (Ym9-Y0)2}1/2である。
次いで、ステップS38−2−12で、t=0.5とする。ステップS38−2−13で、計測用重心より上記単位ベクトルの方向に伸ばした点として
x=dx×t+X0, y=dy×t+Y0を定義する。次いで、ステップS38−2−14において、対象画素(x、y)が輪郭上にあるか否か、即ち、x<Xs, y<Ys, ImageM(x,y)=1であるか否かを判定する。ここでNoであれば、ステップS38−2−15において、tに0.5を加算する。Yesの場合には、ステップS38−2−16において、Xmp4=x, Ym4=yと計測用エッジ点が求める(End)。
以上により、θ度及び−θ度の計測用エッジ点を追加することができる。
Further, (minus theta w of the measurement edge points) at step S38-2-11, - calculating the unit vector in the theta w degree direction. In this embodiment, dx and dy are unit vectors in the −45 degree direction.
dx = {(X2-X0) / L + (Xm9-X0) / Lm} / 2
dy = {(Y2-Y0) / L + (Ym9-Y0) / Lm} / 2
However, L = {(X2-X0 ) 2 + (Y2-Y0) 2} 1/2, is Lm = {(Xm9-X0) 2 + (Ym9-Y0) 2} 1/2.
Next, t = 0.5 is set in step S38-2-12. In step S38-2-13, the point extended from the measurement center of gravity in the direction of the unit vector
Define x = dx × t + X0 and y = dy × t + Y0. Next, in step S38-2-14, it is determined whether or not the target pixel (x, y) is on the contour, that is, whether x <Xs, y <Ys, ImageM (x, y) = 1. judge. If No here, 0.5 is added to t in step S38-2-15. In the case of Yes, in step S38-2-16, Xmp4 = x, Ym4 = y and a measurement edge point are obtained (End).
As described above, the measurement edge points of θ w degrees and −θ w degrees can be added.

図39は、θ度および−θ度の計測用エッジ点(±第2の角度)、の追加処理の流れを示すフローチャート図である(ステップS38−3、図19(a)、(d)参照)。ここでは、第2の角度が22.5度の例を示すが、第2の角度は、上記第1の角度よりも狭い角度である(10度から40度)。 FIG. 39 is a flowchart showing the flow of the additional processing of the measurement edge point (± second angle) of θ n degrees and −θ n degrees (step S38-3, FIGS. 19A and 19D). )reference). Here, an example in which the second angle is 22.5 degrees is shown, but the second angle is an angle narrower than the first angle (10 degrees to 40 degrees).

ステップS38−3−1において、以下のように、+22.5度方向の単位ベクトルを定義する。
dx={(X2-X0)/L+(Xp4-X0)/Lp}/2
dy={(Y2-Y0)/L+(Yp4-Y0)/Lp}/2
ただし、L={(X2-X0)2+ (Y2-Y0)2}1/2 、Lm={(Xm4-X0)2+ (Ym4-Y0)2}1/2である。
In step S38-3-1, a unit vector in the +22.5 degree direction is defined as follows.
dx = {(X2-X0) / L + (Xp4-X0) / Lp} / 2
dy = {(Y2-Y0) / L + (Yp4-Y0) / Lp} / 2
However, L = {(X2-X0 ) 2 + (Y2-Y0) 2} 1/2, is Lm = {(Xm4-X0) 2 + (Ym4-Y0) 2} 1/2.

次いで、ステップS38−3−2で、t=0.5とする。ステップS38−3−3で、計測用重心より上記単位ベクトルの方向に伸ばした点として
x=dx×t+X0, y=dy×t+Y0を定義する。次いで、ステップS38−3−4において、対象画素(x、y)が輪郭上にあるか否か、即ち、x<Xs, y<Ys, ImageM(x,y)=1であるか否かを判定する。ここでNoであれば、ステップS38−3−5において、tに0.5を加算する。Yesの場合には、ステップS38−3−6において、Xp2=x, Yp2=yとエッジ点が求める(End)。
Next, t = 0.5 is set in step S38-3-2. In step S38-3-3, the point extended from the measurement center of gravity in the direction of the unit vector
Define x = dx × t + X0 and y = dy × t + Y0. Next, in step S38-3-4, it is determined whether or not the target pixel (x, y) is on the contour, that is, whether x <Xs, y <Ys, ImageM (x, y) = 1. judge. If No here, 0.5 is added to t in step S38-3-5. In the case of Yes, in step S38-3-6, Xp2 = x, Yp2 = y and an edge point are obtained (End).

また、ステップS38−3−11において、以下のように、−22.5度方向の単位ベクトルを定義する。
dx={(X2-X0)/L+(Xm4-X0)/Lm}/2
dy={(Y2-Y0)/L+(Ym4-Y0)/Lm}/2
ただし、L={(X2-X0)2+ (Y2-Y0)2}1/2 、Lm={(Xm4-X0)2+ (Ym4-Y0)2}1/2である。
In step S38-3-11, a unit vector in the -22.5 degree direction is defined as follows.
dx = {(X2-X0) / L + (Xm4-X0) / Lm} / 2
dy = {(Y2-Y0) / L + (Ym4-Y0) / Lm} / 2
However, L = {(X2-X0 ) 2 + (Y2-Y0) 2} 1/2, is Lm = {(Xm4-X0) 2 + (Ym4-Y0) 2} 1/2.

次いで、ステップS38−3−12で、t=0.5とする。ステップS38−3−13で、計測用重心より上記単位ベクトルの方向に伸ばした点として
x=dx×t+X0, y=dy×t+Y0を定義する。次いで、ステップS38−3−14において、対象画素(x、y)が輪郭上にあるか否か、即ち、x<Xs, y<Ys, ImageM(x,y)=1であるか否かを判定する。ここでNoであれば、ステップS38−3−15において、tに0.5を加算する。Yesの場合には、ステップS38−3−16において、Xm2=x, Ym2=yと計測用エッジ点が求める(End)。
Next, in step S38-3-12, t = 0.5 is set. In step S38-3-13, the point extended from the measurement center of gravity in the direction of the unit vector
Define x = dx × t + X0 and y = dy × t + Y0. Next, in step S38-3-14, it is determined whether or not the target pixel (x, y) is on the contour, that is, whether x <Xs, y <Ys, ImageM (x, y) = 1. judge. If No here, in step S38-3-15, 0.5 is added to t. In the case of Yes, in step S38-3-16, Xm2 = x, Ym2 = y and a measurement edge point are obtained (End).

次に、後極部における円弧面積の算出方法を説明する。面積比率は、−θ度から+θ度の範囲の広領域での算出と、−θ度から+θ度の範囲の狭領域での算出の2段階で行われるが、始めに、広領域での算出方法について説明する。 Next, a method for calculating the arc area at the rear pole will be described. Area ratio, the calculation of a wide area ranging from - [theta] w of the + theta w degree is carried out in two stages in the calculation of the narrow area in the range of - [theta] n of the + theta n degrees, first, wide A calculation method in the area will be described.

図40(a)は左方向投影画像の場合の図であり、図40(b)は、求めた広領域での面積値を基に比率を算出する方法を示す表である。   FIG. 40A is a diagram in the case of a left direction projection image, and FIG. 40B is a table showing a method for calculating a ratio based on the obtained area values in a wide region.

Figure 2013048696
Figure 2013048696

図41は、図40で説明した後極部における円弧面積の算出処理例を示すフローチャート図である。まず、ステップS40c−1において、上部面積Ap=0、v=0と初期化し、ステップS40c−2でu=0と初期化する。次いで、ステップS40c−3において、
x=(Xp4-X0)×u/Lup+(X2-X0)×v/Lv
y=(Yp4-Y0)×u/Lup+(Y2-Y0)×v/Lv
の式により、+45度方向と0度方向に囲まれた領域内のxとyを求める。
FIG. 41 is a flowchart showing an example of calculation processing of the arc area in the rear pole portion described with reference to FIG. First, in step S40c-1, the upper area Ap = 0 and v = 0 are initialized, and in step S40c-2, u = 0 is initialized. Next, in step S40c-3,
x = (Xp4-X0) × u / Lup + (X2-X0) × v / Lv
y = (Yp4-Y0) × u / Lup + (Y2-Y0) × v / Lv
X and y in the region surrounded by the +45 degree direction and the 0 degree direction are obtained by the following equation.

ステップS40c−4において、(x、y)が面積の算出対象領域内にあるか否か、即ち、ImageM(x,y):0を判定する。

Figure 2013048696
0でない場合には、同一画素が既に重複してカウントされていないかをBuff(x,y):0で確認し、Buff(x,y)=0の場合のみBuff(x,y)=1、Ap¬Ap+1を代入して、ステップS40c−7に進み、u¬u+0.5とする。ステップS40c−8で、uとLupの大小を比較し、u<Lupであれば、ステップS40c−3に戻り、u3Lupであれば、ステップS40c−9に進む。vについて判定をし、その結果、u3Lupであれば、上部面積Apが決定される。同様に処理によりS40c−11以降の処理でAmについて求める。Amの算出において、Apの算出と異なる点は、S40c−15、S40c−16の処理で、Apの算出において同一画素が既に重複してカウントされている場合は、ApとAmの双方に重複する境界領域であることを示すため、Am側で二重カウントを抑止するだけでなく、S40c−16の処理で、Ap側に既にカウントされた当該1画素を取り消す処理を行う。このようにして、図20に示す後極部における円弧面積を求めることができる。 In step S40c-4, it is determined whether (x, y) is within the area calculation target region, that is, ImageM (x, y): 0.
Figure 2013048696
If it is not 0, Buff (x, y): 0 is used to check whether the same pixel has already been counted twice. Only when Buff (x, y) = 0, Buff (x, y) = 1 , Ap¬Ap + 1 is substituted, and the process proceeds to step S40c-7 to set u¬u + 0.5. Step S40C-8, and compares the u and Lup, if u <Lup, the process returns to step S40C-3, if u 3 Lup, the process proceeds to step S40C-9. If v is determined and u 3 Lup is determined as a result, the upper area Ap is determined. Similarly, Am is obtained in the processing after S40c-11 by the processing. In the calculation of Am, the difference from the calculation of Ap is that in the processes of S40c-15 and S40c-16, if the same pixel has already been counted repeatedly in the calculation of Ap, both Ap and Am overlap. In order to indicate the boundary region, not only the double counting is suppressed on the Am side, but also the process of canceling the one pixel already counted on the Ap side is performed in the process of S40c-16. In this manner, the arc area at the rear pole portion shown in FIG. 20 can be obtained.

続いて狭領域での算出方法について説明する。図42(a)は、後極部における円弧面積の算出方法(狭領域)を示す図である。この図は、左方向投影画像の場合の例である。上記で求めたXp2、Yp2と、Xm2、Ym2を用いて算出を行う。図42(b)に示すように、左方向画像、右方向画像、上方向画像、下方向画像におけるE/N比率、T/B比率を求めることができる。   Next, a calculation method in a narrow area will be described. Fig.42 (a) is a figure which shows the calculation method (narrow area | region) of the circular arc area in a back pole part. This figure is an example in the case of a left direction projection image. Calculation is performed using Xp2, Yp2 and Xm2, Ym2 obtained above. As shown in FIG. 42B, the E / N ratio and the T / B ratio in the left direction image, the right direction image, the upward direction image, and the downward direction image can be obtained.

図43は、後極部における円弧面積の算出方法(狭領域)を示すフローチャート図である。前述した広領域と同様に計算できる。単位ベクトルは、上記において定義したものである(数1)。   FIG. 43 is a flowchart showing a method of calculating the arc area in the rear pole part (narrow region). It can be calculated in the same manner as the wide area described above. The unit vector is defined above (Formula 1).

ここで、+22.5度方向、−22.5度方向、0度方向に対して、単位ベクトルUp→=(Xp2-X0,Yp2-0Y)/Lup、Um→=(Xm2-X0,Ym2-0Y)/Lum、V→=(X2-X0,Y2-Y0)/Lvを求める。
ただし、Lup={(Xp2-X0)2+ (Yp2-Y0)2}1/2、Lum={(Xm2-X0)2+ (Ym2-Y0)2}1/2、Lv={(X2-X0)2+ (Y2-Y0)2}1/2
Here, the unit vector Up → = (Xp2-X0, Yp2-0Y) / Lup, Um → = (Xm2-X0, Ym2-) with respect to the +22.5 degree direction, -22.5 degree direction, and 0 degree direction. 0Y) / Lum, V → = (X2-X0, Y2-Y0) / Lv.
However, Lup = {(Xp2-X0) 2 + (Yp2-Y0) 2 } 1/2 , Lum = {(Xm2-X0) 2 + (Ym2-Y0) 2 } 1/2 , Lv = {(X2- X0) 2 + (Y2-Y0) 2 } 1/2

輪郭抽出後の投影画像データをImageM(x,y)={0:背景,1:輪郭,2:内部} (x=0,…,Xs; y=0,…,Ys) Xs=Ys=300 [pixel]とし、併せて同サイズの画像バッファBuff(x,y)を定義し、画像バッファの初期値は全て0にする。画像バッファBuff(x,y)は、同じ画素を2回カウントするのを防止する。   Projected image data after contour extraction is ImageM (x, y) = {0: Background, 1: Contour, 2: Inside} (x = 0,…, Xs; y = 0,…, Ys) Xs = Ys = 300 [pixel] and an image buffer Buff (x, y) of the same size are defined, and the initial values of the image buffer are all set to 0. The image buffer Buff (x, y) prevents the same pixel from being counted twice.

上部面積をAp2、下部面積をAm2とし、初期値は各々0とする。算出されたAp2とAm2を用いて、面積比率を算出する。   The upper area is Ap2, the lower area is Am2, and the initial values are 0 respectively. The area ratio is calculated using the calculated Ap2 and Am2.

まず、ステップS39−1において、Ap2=0, v=0を設定し、ステップS39−2において、u=0とする。v,uは媒介変数である。ステップS39−3において図20(a)の後極部における左右の上側の円弧面積の算出を以下の式により計算する。+22.5度方向と0度方向に囲まれた領域内のxとyを求める。
x= (Xp2-X0)×u/Lup+ (X2-X0)×v/Lv
y= (Yp2-Y0)×u/Lup+ (Y2-Y0)×v/Lv
First, Ap2 = 0 and v = 0 are set in step S39-1, and u = 0 is set in step S39-2. v and u are parameters. In step S39-3, calculation of the left and right upper circular arc areas in the rear pole part of FIG. X and y in the region surrounded by the +22.5 degree direction and the 0 degree direction are obtained.
x = (Xp2-X0) × u / Lup + (X2-X0) × v / Lv
y = (Yp2-Y0) × u / Lup + (Y2-Y0) × v / Lv

ステップS39−4で、(x、y)が面積の算出対象領域内にあるか否か、即ち、ImageM(x,y):0であるか否かを計算する。Noの場合には、ステップS39−5で同一画素が既に重複してカウントされていないかをBuff(x,y):0で確認し、0であれば、ステップS39−6でバッファに同じ値Buff(x,y)=1を格納し、左右方向上側の面積Ap2に1を加算する。そして、ステップS39−4でImageM(x,y)=0である場合とともに、ステップS39−8において、uに0.5を加算し、ステップS39−8でuとLupとを比較する。ここで、u<Lupであれば、ステップS39−2に戻り、u3Lupであれば、ステップS39−9に進み、vに0.5を加算する。そして、ステップS39−10に進み、vとLvとを比較し、v<LvであればステップS39−2に戻り、v3Lvであれば、ステップS39−11において、Am2=0、v=0とし、ステップS39−12でu=0とする。これで、Ap2が求まる。 In step S39-4, it is calculated whether (x, y) is within the area calculation target region, that is, whether it is ImageM (x, y): 0. In the case of No, in step S39-5, it is confirmed by Buff (x, y): 0 whether or not the same pixel has already been counted, and if it is 0, the same value is stored in the buffer in step S39-6. Buff (x, y) = 1 is stored, and 1 is added to the area Ap2 on the upper side in the horizontal direction. Then, in the case where ImageM (x, y) = 0 in step S39-4, 0.5 is added to u in step S39-8, and u and Lup are compared in step S39-8. Here, if u <Lup, the flow returns to step S39-2, if u 3 Lup, the process proceeds to step S39-9, adding 0.5 to v. In step S39-10, v and Lv are compared. If v <Lv, the process returns to step S39-2. If v 3 Lv, Am2 = 0 and v = 0 in step S39-11. And u = 0 in step S39-12. Thus, Ap2 is obtained.

次いで、ステップS39−13において、−22.5度方向と0度方向に囲まれた領域内のxとyを求める。
x= (Xm2-X0)×u/Lum+ (X2-X0) ×v/Lv
y= (Ym2-Y0)×u/Lum+ (Y2-Y0)×v/Lv
により、図20(a)の後極部における左右の下側の円弧面積の算出を行う。
Next, in step S39-13, x and y in the region surrounded by the -22.5 degree direction and the 0 degree direction are obtained.
x = (Xm2-X0) × u / Lum + (X2-X0) × v / Lv
y = (Ym2-Y0) × u / Lum + (Y2-Y0) × v / Lv
Thus, the arc areas on the lower left and right sides in the rear pole portion of FIG.

次いで、ステップS39−14において、(x、y)が面積の算出対象領域内にあるか否か、即ち、ImageM(x,y)が0か否かを判断し、ImageM(x,y)>0であれば、ステップS39−15に進み、同一画素が既に重複してカウントされていないかをBuff(x,y):0で確認する。Buff(x,y)が0であれば、ステップS39−17に進み、
Buff(x,y)=2
Am2←Am2+1
とし、
Buff(x,y)が0でなければ、ステップS39−16に進み、
Buff(x,y)=2
Ap2←Ap2-1
とする。これで、上側において既にカウントされる境界部分のカウントを除く。
Next, in step S39-14, it is determined whether or not (x, y) is within the area calculation target region, that is, whether or not ImageM (x, y) is 0. ImageM (x, y)> If 0, the process proceeds to step S39-15, and it is confirmed by Buff (x, y): 0 whether the same pixel has already been counted twice. If Buff (x, y) is 0, go to Step S39-17,
Buff (x, y) = 2
Am2 ← Am2 + 1
age,
If Buff (x, y) is not 0, go to Step S39-16,
Buff (x, y) = 2
Ap2 ← Ap2-1
And This removes the count of the boundary portion already counted on the upper side.

そして、ステップS39−18でuに0.5加算し、ステップS39−19でuとLumとを比較する。u<Lumであれば、ステップS39−12に戻り、u3Lumであれば、ステップS39−20でvに0.5を加算する。そして、ステップS39−21において、vとLvとを比較し、v<LvであればステップS39−12に戻る。v3Lvであれば、処理を終了する。これで、Am2が求まる。これにより、図20の後極部における円弧面積をAp2とAm2として重複しないように画素をカウントして算出することができる。 In step S39-18, 0.5 is added to u, and u and Lum are compared in step S39-19. If u <Lum, the process returns to step S39-12. If u 3 Lum, 0.5 is added to v in step S39-20. In step S39-21, v and Lv are compared. If v <Lv, the process returns to step S39-12. If v 3 Lv, the process is terminated. Thus, Am2 is obtained. As a result, it is possible to calculate by counting the pixels so that the arc area at the rear pole portion of FIG. 20 does not overlap as Ap2 and Am2.

図44は、後極部3エッジ点(尖鋭度)の成す角の算出方法の一例を示す図である。   FIG. 44 is a diagram illustrating an example of a method of calculating an angle formed by the rear pole 3 edge points (sharpness).

Figure 2013048696
Figure 2013048696

尚、前述の面積比率の算出と異なり、上記なす角の算出は、狭領域の面積に対応する領域のみで行う。
以上で、解析処理のアルゴリズムについての説明を行った。
Note that, unlike the calculation of the area ratio described above, the calculation of the angle is performed only in the region corresponding to the area of the narrow region.
The analysis processing algorithm has been described above.

次に、実際に得られる投影画像及び測定結果について説明する。
図45は、解析対象の6方向投影画像例であり、左右、上下、前後の6方向からの投影画像が得られていることがわかる。図46は、解析における解析パラメータの設定画面の例を示す図である。設定パラメータとしては、二値化しきい値(0〜255の範囲、通常の設定値:25)、削除スポット面積(単位:画素、通常の設定値:200)、探索範囲重み(前極、後極、通常の設定値:16と4)、水晶体エッジの測定範囲(図15A(2)(3)においてPcを移動させる範囲、通常の設定値:2〜12)、重心探索範囲(図15A(3)においてPgを移動させる範囲、単位%、通常の設定値:30)、計測の原点(=計測用重心、後極側エッジ点からの距離、通常の設定値:87画素)、対称性算出角度(広領域の面積算出角度範囲、通常の設定値:45度)、尖鋭度算出角度(尖鋭度算出および狭領域の面積算出角度範囲、通常の設定値:22度)、解析眼球が左眼であるか右眼であるか、標準眼軸長上限(単位:画素、通常の設定値:175画素)、左右対称性下限値(%、通常の設定値:90%)、上限値(%、通常の設定値:110%)、上下対称性下限値(%、通常の設定値:90%)、上限値(%、通常の設定値:110%)、後極尖鋭度下限値(通常の設定値:140度)、上限値(通常の設定値:150度)を設定することができるが、一般的には、解析眼球が左眼であるか右眼であるのみを設定すれば良い。
Next, the actually obtained projection image and measurement results will be described.
FIG. 45 is an example of a six-direction projection image to be analyzed, and it can be seen that projection images from six directions, ie, left, right, up, down, and front and rear, are obtained. FIG. 46 is a diagram illustrating an example of an analysis parameter setting screen in analysis. As setting parameters, a binarization threshold (range 0 to 255, normal setting value: 25), a deleted spot area (unit: pixel, normal setting value: 200), search range weight (front pole, rear pole) Normal setting values: 16 and 4), lens edge measurement range (range in which Pc is moved in FIGS. 15A (2) and (3), normal setting value: 2 to 12), centroid search range (FIG. 15A (3 ) In which Pg is moved, unit%, normal set value: 30), measurement origin (= measurement center of gravity, distance from back pole edge point, normal set value: 87 pixels), symmetry calculation angle (Area calculation angle range of wide area, normal setting value: 45 degrees), Sharpness calculation angle (sharpness calculation and area calculation angle range of narrow area, normal setting value: 22 degrees), analysis eyeball is left eye Standard eye length upper limit (unit: pixel, common eye) Setting value: 175 pixels), left-right symmetry lower limit value (%, normal setting value: 90%), upper limit value (%, normal setting value: 110%), vertical symmetry lower limit value (%, normal setting) Value: 90%), upper limit (%, normal setting value: 110%), rear pole sharpness lower limit value (normal setting value: 140 degrees), upper limit value (normal setting value: 150 degrees) In general, however, it is only necessary to set whether the analysis eyeball is the left eye or the right eye.

図47は、解析結果の一例を示す図である。上記解析処理に基づく解析結果を一画面で見ることができる。例えば、L(左方向投影像)、R(右方向投影像)、T(上方向投影像)、B(下方向投影像)について、眼軸長(単位:画素)、後極尖鋭度(0〜360度)、狭領域面積比率(%)、広領域面積比率(%)、面積比率(T/B、E/N、狭領域または広領域面積比率のいずれかの値、100との差が大きい値)、後極ピーク位置(座標値、画素単位)、左右方向の対称性(耳寄り、左右対称、鼻寄りのいずれかの判定結果)、上下方向の対称性(上寄り、左右対称、下寄りのいずれかの判定結果)、後極尖鋭タイプ(樽型、中間、紡錘型のいずれかの判定結果)、タイプ分類(表1の4桁)が表示されるようになっている。タイプ分類は2000であり、後極尖鋭タイプが2の樽型であり、その他の眼軸長、左右方向の対称性、上下方向の対称性は正常である。この画面より、解析結果と、病態とが一目でわかるようになっている。   FIG. 47 is a diagram illustrating an example of the analysis result. Analysis results based on the above analysis process can be viewed on a single screen. For example, for L (left projection image), R (right projection image), T (upward projection image), and B (downward projection image), the axial length (unit: pixel), rear polar sharpness (0 ~ 360 degrees), narrow area ratio (%), wide area ratio (%), area ratio (T / B, E / N, one of the values of narrow area or wide area area ratio, difference from 100 Large value), rear pole peak position (coordinate value, pixel unit), left-right symmetry (ear, left-right symmetry, nose-side judgment result), vertical symmetry (upward, left-right symmetry, bottom) The determination result of any one of the shifts, the rear sharp tip type (the determination result of any of barrel type, intermediate type, spindle type), and the type classification (four digits in Table 1) are displayed. The type classification is 2000, the rear pole sharp type is barrel type 2, and the other axial length, left-right direction symmetry, and up-down direction symmetry are normal. From this screen, the analysis results and pathological conditions can be seen at a glance.

図48は、図45に対応する図であり、解析時の補助線設定状況の確認画面の一例を示す図である。図48においては、上下左右前後の眼球の投影画像において、眼軸について修正を行うための補助線(計測用重心から各種計測用エッジ点を結ぶ直線)を示している。この確認画面において、眼軸を修正し、指示した補助線で再解析を行うことができる。   FIG. 48 is a diagram corresponding to FIG. 45 and is a diagram illustrating an example of a confirmation screen for the auxiliary line setting status at the time of analysis. FIG. 48 shows auxiliary lines (straight lines connecting various measurement edge points from the measurement center of gravity) for correcting the eye axis in the projected images of the upper, lower, left, and right eyeballs. On this confirmation screen, the eye axis can be corrected and reanalysis can be performed with the designated auxiliary line.

以上は、正常な場合の例であるが、以下に、強度近視の場合の例について示す。
図49は、強度近視の場合の解析対象の6方向投影画像の例を示す図である。図45に示す画像とは、形状がかなり異なっていることがわかる。図50は、解析パラメータの設定画面例を示す図であり、この画面は、図46と同様である。同じ設定において、解析を行った結果の例について図51を例にして説明する。図46とは、解析結果がかなり異なっていることがわかる。特に、眼軸長、後極尖鋭度、左右方向の対称性、上下方向の対称性、後極尖鋭度のタイプなどが異なっている。タイプ分類において、表1において、タイプ分類が11であり、眼軸長が異常、左右方向の対称性が鼻寄り(90%未満)であることがわかる。図52は、解析時の補助線設定状況の確認画面が示される。図52においては、上下左右前後の眼球の投影画像において、眼軸について修正を行うための補助線を示している。この確認画面において、眼軸を修正し、指示した補助線で再解析を行うことができる。
The above is an example in the normal case, but an example in the case of intense myopia is shown below.
FIG. 49 is a diagram illustrating an example of a six-direction projection image to be analyzed in the case of intensity myopia. It can be seen that the image is quite different from the image shown in FIG. FIG. 50 shows an example of an analysis parameter setting screen, which is the same as FIG. An example of the result of analysis with the same setting will be described with reference to FIG. It can be seen that the analysis result is quite different from FIG. In particular, the axial length, rear pole sharpness, left-right symmetry, vertical symmetry, rear pole sharpness, and the like are different. In the type classification, it can be seen in Table 1 that the type classification is 11, the axial length is abnormal, and the left-right symmetry is near the nose (less than 90%). FIG. 52 shows a confirmation screen for the auxiliary line setting status at the time of analysis. FIG. 52 shows auxiliary lines for correcting the eye axis in the projected images of the eyeballs before and after the upper, lower, left, and right. On this confirmation screen, the eye axis can be corrected and reanalysis can be performed with the designated auxiliary line.

図53は、解析対象の6方向投影画像(軽症)の6方向投影画像の例を示す図である。図49と比較すると、やや図45に近い投影画像になっていることがわかる。この場合には、図54に示すように、左眼を解析対象としている。その結果が、図55であり、タイプ分類をみると、121であり、眼軸長が異常、左右方向の対称性が耳寄り(110%以上)、上下方向の対称性が下寄り(90%未満)であることがわかる。   FIG. 53 is a diagram illustrating an example of a 6-direction projection image of a 6-direction projection image (mild) to be analyzed. Compared to FIG. 49, it can be seen that the projected image is somewhat similar to FIG. In this case, as shown in FIG. 54, the left eye is the analysis target. The result is FIG. 55 and the type classification is 121. The axial length is abnormal, the left-right direction symmetry is closer to the ear (110% or more), and the vertical direction symmetry is lower (less than 90%) )It can be seen that it is.

図56は、解析時の補助線設定状況の確認画面の例を示す図である。図56に示すように、眼軸自動設定については、画面の平行・垂直方向とはずれており、明らかに不適切であることがわかる。図57は、解析時の補助線設定状況の確認画面であって、眼軸の修正(この例では手動修正)を付加した様子を示す図である。図57に示すように、眼軸の補助線は、画面の平行・垂直方向と一致しており、正しく修正されていることが確認できる。   FIG. 56 is a diagram showing an example of a confirmation screen for the auxiliary line setting status at the time of analysis. As shown in FIG. 56, regarding the automatic setting of the eye axis, it is clear that it is out of the parallel / vertical direction of the screen and is clearly inappropriate. FIG. 57 is a confirmation screen for the auxiliary line setting status at the time of analysis, and shows a state in which correction of the eye axis (manual correction in this example) is added. As shown in FIG. 57, the auxiliary line of the eye axis coincides with the parallel / vertical direction of the screen, and it can be confirmed that it is corrected correctly.

図58は、解析パタメータの設定画面であり、例えば図54に示す設定画面から設定値が変更されていないが、設定値を画面で確認することができる。   FIG. 58 is an analysis parameter setting screen. For example, the setting value is not changed from the setting screen shown in FIG. 54, but the setting value can be confirmed on the screen.

図59は、修正後の再解析結果の一例を示す図である。図55と比較して、左右方向の対称性が耳寄りから左右対称に変化しており、後極尖鋭度は中間型から紡錘型に変化しており(正常眼は図47に示される通り樽型)、タイプ分類は121から1101に変化している。このように、眼軸を変更した後に解析結果を得ることで、正しい値を得ることができる。   FIG. 59 is a diagram illustrating an example of a reanalysis result after correction. Compared with FIG. 55, the symmetry in the left-right direction has changed from the near side to the left-right symmetry, and the posterior pole sharpness has changed from an intermediate type to a spindle type (normal eyes are barrel-shaped as shown in FIG. 47). ), The type classification has changed from 121 to 1101. Thus, the correct value can be obtained by obtaining the analysis result after changing the eye axis.

上記の実施の形態において、添付図面に図示されている構成等については、これらに限定されるものではなく、本発明の効果を発揮する範囲内で適宜変更することが可能である。その他、本発明の目的の範囲を逸脱しない限りにおいて適宜変更して実施することが可能である。上記眼球部MRIの画像処理方法をコンピュータに実行させるためのプログラム、当該プログラムを記録するコンピュータ読み取り可能な記録媒体であっても良い。   In the above-described embodiment, the configuration and the like illustrated in the accompanying drawings are not limited to these, and can be appropriately changed within a range in which the effect of the present invention is exhibited. In addition, various modifications can be made without departing from the scope of the object of the present invention. It may be a program for causing a computer to execute the image processing method of the eyeball MRI, or a computer-readable recording medium for recording the program.

(まとめ)
本発明によれば、患者に負担をかけずに「強度近視」の早期診断に寄与でき、読影医の主観に依存しない客観性のある診断データを提供することができる。
(Summary)
According to the present invention, it is possible to contribute to an early diagnosis of “intensity myopia” without imposing a burden on the patient, and to provide objective diagnosis data that does not depend on the subjectivity of the interpretation doctor.

また、安価な汎用パーソナルコンピュータのソフトウェアで実現することができ、GPU(Graphics Processing Unit)など特殊なグラフィックスボードの増設も必要とないため、安価な診断サービスを提供できる。   Further, it can be realized by inexpensive general-purpose personal computer software, and it is not necessary to add a special graphics board such as a GPU (Graphics Processing Unit), so that an inexpensive diagnostic service can be provided.

また、画像入力系も新規に眼科専用設備を導入することなく、既存のポピュラーなMRI機器を流用し、放射線を使用しないので被爆の問題が無く、定期的に繰り返し診断を行うことができ、眼科向けのカスタマイズも必要としない。即ち、本願発明は、新規なハードウェア設備の投資をすることなく、安価のシステムを構築することができる。   In addition, without introducing new ophthalmology equipment for the image input system, existing popular MRI equipment can be diverted and radiation is not used, so there is no problem of exposure, and it is possible to make repeated diagnoses regularly. There is no need for customization. That is, according to the present invention, an inexpensive system can be constructed without investing in new hardware equipment.

(付記)
本発明は、以下の発明を含む。
(1)眼科診断機器による診断を行う第1のステップと、
前記第1のステップで診断ができない場合に、頭部のMRI撮影及び眼球部位の3次元ボクセル画像を抽出するステップと、
前記眼球部位の3次元ボクセル画像を基に、上下/左右/前後の6方向のいずれかの方向の投影画像データを左右眼球別にレンダリングするステップと、
前記投影画像に対して、画像解析による眼球の形状パラメータである、眼軸長、後極先鋭度、左右対称性、上下対称性、後極突出数の少なくともいずれか1のパラメータに基づいて、強度近視を診断するステップと、
を有することを特徴とする強度近視の診断方法。
(2)前記形状パラメータ毎に、強度近視のタイプの分類処理を行うステップを有することを特徴とする(1)に記載の強度近視の診断方法。
(Appendix)
The present invention includes the following inventions.
(1) a first step of making a diagnosis with an ophthalmologic diagnostic device;
If diagnosis is not possible in the first step, MRI imaging of the head and extracting a 3D voxel image of the eyeball part;
Rendering the projection image data in any one of the six directions of up / down / left / right / front / back based on the three-dimensional voxel image of the eyeball part;
Based on at least one of the parameters of the eyeball shape by image analysis, the rear axis sharpness, the left / right symmetry, the left / right symmetry, the up / down symmetry, and the number of rear pole protrusions with respect to the projected image. Diagnosing myopia; and
A method for diagnosing intense myopia, comprising:
(2) The method for diagnosing intense myopia according to (1), further comprising a step of performing classification processing of the type of intense myopia for each shape parameter.

このように、一般的な眼科診断で強度近視の診断が確定しない場合に、本実施の形態による、頭部MRI撮影データを用いた眼科疾患の画像解析技術を用いると良い。   As described above, when the diagnosis of intense myopia is not confirmed in a general ophthalmic diagnosis, it is preferable to use the image analysis technique for ophthalmic diseases using head MRI imaging data according to the present embodiment.

本発明は、眼科疾患の画像解析装置に利用できる。   The present invention can be used in an image analysis apparatus for ophthalmic diseases.

A…画像解析装置、1…画像入力部、3…ボクセル画像抽出部、5…投影画像算出部、7…投影画像解析部、11…出力部、7−1…非対称性算出部、7−2…先鋭度合い算出部、7−3…後極突出部ピーク算出部、7−4…眼軸自動設定部、7−5…頂点補正部。 DESCRIPTION OF SYMBOLS A ... Image analysis apparatus, 1 ... Image input part, 3 ... Voxel image extraction part, 5 ... Projection image calculation part, 7 ... Projection image analysis part, 11 ... Output part, 7-1 ... Asymmetry calculation part, 7-2 ... sharpness calculation part, 7-3 ... rear pole protrusion peak calculation part, 7-4 ... eye axis automatic setting part, 7-5 ... vertex correction part.

Claims (17)

眼球を含む頭部の3次元ボクセル画像を取得する画像入力部と、
入力した前記3次元ボクセル画像より、左右眼球別に眼球領域の少なくともいずれか一方の眼の3次元眼球ボクセル画像を抽出するボクセル画像抽出部と、
抽出した3次元眼球ボクセル画像を、少なくとも上下いずれかの方向に投影した第1の投影画像を作成する投影画像算出部と、
前記第1の投影画像に対して眼球前極部頂点と眼球後極部頂点とを結ぶ眼軸を設定し、少なくとも眼球前極部頂点と眼球後極部頂点との間の眼軸長と、眼軸を境界に後極側を左右に分割した領域をもとに左右方向の非対称性の度合いと、を画像解析のパラメータとして算出する投影画像解析部と、
を備えることを特徴とする眼科疾患の画像解析装置。
An image input unit for acquiring a three-dimensional voxel image of the head including the eyeball;
A voxel image extraction unit that extracts a three-dimensional eyeball voxel image of at least one eye of the eyeball region for each of the left and right eyeballs from the input three-dimensional voxel image;
A projection image calculation unit that creates a first projection image obtained by projecting the extracted three-dimensional eyeball voxel image in at least one of the upper and lower directions;
Setting an eye axis connecting the anterior ocular pole vertex and the posterior ocular pole vertex to the first projection image, and at least the ocular axial length between the ocular anterior pole vertex and the ocular posterior pole vertex; A projection image analysis unit that calculates the degree of asymmetry in the left-right direction based on a region obtained by dividing the posterior pole side into the left and right with the eye axis as a boundary, and an image analysis parameter;
An image analysis apparatus for ophthalmic diseases, comprising:
前記3次元ボクセル画像は、MRIを用いて取得したものであることを特徴とする請求項1に記載の眼科疾患の画像解析装置。   The ophthalmic disease image analysis apparatus according to claim 1, wherein the three-dimensional voxel image is acquired using MRI. 前記投影画像算出部は、
前記3次元眼球ボクセル画像を、少なくとも左右いずれかの方向に投影した第2の投影画像を作成し、
前記画像解析部は、前記第2の投影画像に対して眼軸を設定し、少なくとも眼球前極部頂点と眼球後極部頂点との間の眼軸長と眼軸を境界に後極側を上下に分割した領域をもとに上下方向の非対称性の度合いを、画像解析のパラメータとして算出することを特徴とする請求項1又は2に記載の眼科疾患の画像解析装置。
The projection image calculation unit
Creating a second projection image obtained by projecting the three-dimensional eyeball voxel image in at least one of the left and right directions;
The image analysis unit sets an eye axis with respect to the second projection image, and sets the rear pole side at the boundary between the eye axis length and the eye axis between at least the anterior anterior vertex of the eyeball and the posterior apex of the eyeball. The image analysis apparatus for ophthalmic diseases according to claim 1 or 2, wherein the degree of asymmetry in the vertical direction is calculated as a parameter for image analysis based on the vertically divided region.
前記画像解析部は、
前記第1又は第2の投影画像のうちの少なくともいずれかに対して、後極の円弧部曲率の尖鋭度合いを、画像解析のパラメータとして算出することを特徴とする請求項1から3までのいずれか1項に記載の眼科疾患の画像解析装置。
The image analysis unit
The sharpness degree of the arcuate curvature of the rear pole is calculated as an image analysis parameter for at least one of the first and second projection images. The image analysis apparatus for ophthalmic diseases according to claim 1.
前記画像解析部は、
前記第1又は第2の少なくともいずれか一方の投影画像について、左右又は上下の少なくともいずれか一方の組の前記パラメータを平均した値を算出結果とすることを特徴とする請求項1から4までのいずれか1項に記載の眼科疾患の画像解析装置。
The image analysis unit
5. The calculation result of at least one of the first and second projection images is a value obtained by averaging at least one of the left and right or upper and lower sets of parameters. The image analysis apparatus for ophthalmic diseases according to any one of the above.
前記投影画像算出部は、
前記3次元眼球ボクセル画像に対して、後方向に投影した第3の投影画像を作成し、
前記画像解析部は、前記第3の投影画像に対して、後極突出部に対応するピーク点の個数を、画像解析のパラメータとして算出することを特徴とする請求項1から5までのいずれか1項に記載の眼科疾患の画像解析装置。
The projection image calculation unit
Creating a third projected image projected backward with respect to the three-dimensional eyeball voxel image;
The said image analysis part calculates the number of the peak points corresponding to a back pole protrusion part with respect to a said 3rd projection image as a parameter of image analysis. The image analysis apparatus for ophthalmic diseases according to item 1.
前記画像解析部は、前記第3の投影画像に対して、眼球部の輪郭線抽出を行い、更に眼球部の重心点を設定し、前記算出された各ピーク点の位置を、画像解析のパラメータとして、前記重心点を基準とした極座標である重心からの距離と重心からピーク点方向の角度で算出することを特徴とする請求項6に記載の眼科疾患の画像解析装置。   The image analysis unit extracts an outline of an eyeball from the third projection image, further sets a center of gravity of the eyeball, and sets the position of each calculated peak point as an image analysis parameter. The image analysis apparatus for ophthalmic diseases according to claim 6, wherein the image is calculated based on a distance from the center of gravity, which is a polar coordinate based on the center of gravity point, and an angle in a peak point direction from the center of gravity. 前記画像解析部は、
前記投影画像に対して眼球部の輪郭線抽出を行い、前記眼球前極部頂点および前記眼球後極部頂点は前記眼球部の輪郭線上に位置し、かつ前記眼球前極部頂点と前記眼球後極部頂点とを結ぶ直線が前記直線の幾つかの頂点より鉛直方向に左右または上下方向に延長した前記輪郭線との交点までの距離が均等になるように、前記眼球前極部頂点および前記眼球後極部頂点を設定することにより、前記眼軸を自動設定することを特徴とする請求項1から3までのいずれか1項に記載の眼科疾患の画像解析装置。
The image analysis unit
Contour line extraction of the eyeball part is performed on the projected image, and the anterior ocular vertex and the posterior ocular vertex are located on the ocular outline, and the anterior ocular vertex and the posterior eyeball The straight line connecting the extreme vertices is equal in distance to the intersection with the contour line extending vertically from side to side or up and down from several vertices of the straight line, and The image analysis apparatus for ophthalmic diseases according to any one of claims 1 to 3, wherein the eye axis is automatically set by setting a vertex of the posterior pole of the eyeball.
前記画像解析部は、
前記投影画像に対して眼球部の輪郭線抽出を行い、更に眼球部の重心点を設定し、前記眼球前極部頂点および前記眼球後極部頂点は前記眼球部の輪郭線上に位置し、かつ前記眼球前極部頂点と前記重心点と前記眼球後極部頂点との3点を結ぶ折れ線ができるだけ直線になるように、前記眼球前極部頂点、前記眼球後極部頂点および前記重心点を設定することにより、前記眼軸を自動設定するようにしていることを特徴とする請求項1から3までのいずれか1項に記載の眼科疾患の画像解析装置。
The image analysis unit
Extracting the outline of the eyeball from the projected image, further setting the center of gravity of the eyeball, the apex of the front of the eyeball and the apex of the back of the eyeball being located on the outline of the eyeball, and The eyeball front pole vertex, the eyeball rear pole vertex, and the barycentric point are set so that a polygonal line connecting the three points of the eyeball front pole vertex, the center of gravity point, and the eyeball rear pole vertex is as straight as possible. The image analysis apparatus for ophthalmic diseases according to any one of claims 1 to 3, wherein the eye axis is automatically set by setting.
前記画像解析部は、
前記第1又は第2の投影画像に対して眼球部の輪郭線抽出を行い、前記眼球前極部頂点または前記眼球後極部頂点のいずれかに対して、画面との対話形式により設定する対話型頂点入力部により設定された前記眼球前極部頂点または前記眼球後極部頂点に対して、前記眼球前極部頂点と前記眼球後極部頂点とを結ぶ直線の延長線上で前記輪郭線との交点に自動的に補正する頂点補正部を備えていることを特徴とする請求項1から3までのいずれか1項に記載の眼科疾患の画像解析装置。
The image analysis unit
Contour extraction of the eyeball part with respect to the first or second projection image, and a dialog that is set in an interactive form with the screen for either the frontal vertex of the eyeball or the rearward vertex of the eyeball The contour line on the extension line of the straight line connecting the anterior ocular pole vertex and the posterior pole apex with respect to the anterior ocular pole vertex or the ocular posterior pole apex set by the mold apex input unit The image analysis apparatus for ophthalmic diseases according to any one of claims 1 to 3, further comprising a vertex correction unit that automatically corrects the intersection of the two.
前記画像解析部は、
前記第1又は第2の投影画像に対して眼球部の輪郭線抽出を行い、更に眼球部に計測用重心点を設定し、計測用重心点より前記眼球後極部頂点を結ぶ基準線に対して、計測用重心点を中心に+第1の角度および−第1の角度の方向の直線Aと直線Bを設定し、前記直線Aと前記基準線に囲まれた前記輪郭線の内部の面積Aと、前記直線Bと前記基準線に囲まれた前記輪郭線の内部の面積Bを算出し、面積Aと面積Bとの比率を前記非対称性の度合いとして与えることを特徴とする請求項1から3までのいずれか1項に記載の眼科疾患の画像解析装置。
The image analysis unit
Contour extraction of the eyeball part is performed on the first or second projection image, a measurement center of gravity point is set in the eyeball part, and a reference line connecting the vertex of the back of the eyeball from the measurement center of gravity point is set. Then, a straight line A and a straight line B in the direction of the + first angle and the first angle are set around the center of gravity for measurement, and the area inside the contour line surrounded by the straight line A and the reference line 2. An area B inside the contour line surrounded by A, the straight line B, and the reference line is calculated, and a ratio of the area A to the area B is given as the degree of asymmetry. The image analysis apparatus for ophthalmic diseases according to any one of items 1 to 3.
前記画像解析部は、
前記第1又は第2の投影画像に対して眼球部の輪郭線抽出を行い、更に眼球部に計測用重心点を設定し、計測用重心点より前記眼球後極部頂点を結ぶ基準線に対して、計測用重心点を中心に+第2の角度および−第2の角度の方向の直線Aと直線Bを設定し、前記直線Aと前記輪郭線との交点Aと前記眼球後極部頂点と前記直線Bと前記輪郭線との交点Bとの3頂点のなす角を前記尖鋭度合いとして与えることを特徴とする請求項4に記載の眼科疾患の画像解析装置。
The image analysis unit
Contour extraction of the eyeball part is performed on the first or second projection image, a measurement center of gravity point is set in the eyeball part, and a reference line connecting the vertex of the back of the eyeball from the measurement center of gravity point is set. Then, a straight line A and a straight line B are set in the direction of the second angle and the second angle around the center of gravity for measurement, and the intersection A between the straight line A and the contour line and the vertex of the posterior pole of the eyeball The image analysis apparatus for ophthalmic diseases according to claim 4, wherein an angle formed by three vertices of the intersection B of the straight line B and the contour line is given as the sharpness degree.
前記画像解析部は、計測用重心点より前記眼球後極部頂点を結ぶ基準線に対して、計測用重心点を中心に+第2の角度および−第2の角度の方向の直線Cと直線Dを追加設定し、前記直線Cと前記基準線に囲まれた前記輪郭線の内部の面積Cと、前記直線Dと前記基準線に囲まれた前記輪郭線の内部の面積Dを追加算出し、面積Cと面積Dとの比率と前記面積Aと面積Bとの比率のいずれか大きい値を前記非対称性の度合いとすることを特徴とする請求項11に記載の眼科疾患の画像解析装置。   The image analysis unit has a straight line C and a straight line in the direction of the second angle and the second angle with respect to the reference line connecting the center of gravity for measurement to the apex of the posterior pole of the eyeball. D is additionally set, and an area C inside the contour line surrounded by the straight line C and the reference line and an area D inside the contour line surrounded by the straight line D and the reference line are additionally calculated. The image analysis apparatus for ophthalmic diseases according to claim 11, wherein the degree of asymmetry is a larger value of the ratio of the area C to the area D and the ratio of the area A to the area B. 前記画像解析部は、
前記計測用重心点として前記眼球前極部頂点と前記眼球後極部頂点とを結ぶ眼軸上に、前記眼球後極部頂点より所定の距離だけ離した点を与えることを特徴とする請求項11から13までのいずれか1項に記載の眼科疾患の画像解析装置。
The image analysis unit
The center of gravity point for measurement is provided on the eye axis connecting the apex of the front of the eyeball and the apex of the back of the eyeball at a predetermined distance from the apex of the back of the eyeball. The image analysis apparatus for ophthalmic diseases according to any one of 11 to 13.
前記画像解析部は、
前記所定の距離として正常者の眼球の平均的な眼軸長の1/2を設定することを特徴とする請求項14に記載の眼科疾患の画像解析装置。
The image analysis unit
The ophthalmic disease image analysis apparatus according to claim 14, wherein the predetermined distance is set to ½ of an average axial length of an eyeball of a normal person.
眼球を含む頭部の3次元ボクセル画像を取得する画像入力ステップと、
入力した前記3次元ボクセル画像より、左右眼球別に眼球領域の少なくともいずれか一方の眼の3次元眼球ボクセル画像を抽出するボクセル画像抽出ステップと、
抽出した3次元眼球ボクセル画像を、少なくとも上下いずれかの方向に投影した第1の投影画像を作成する投影画像算出ステップと、
前記第1の投影画像に対して眼球前極部頂点と眼球後極部頂点とを結ぶ眼軸を設定し、少なくとも眼球前極部頂点と眼球後極部頂点との間の眼軸長と、眼軸を境界に後極側を左右に分割した領域をもとに左右方向の非対称性の度合いと、を画像解析のパラメータとして算出する投影画像解析ステップと、
を備えることを特徴とする眼科疾患の画像解析方法。
An image input step of acquiring a three-dimensional voxel image of the head including the eyeball;
A voxel image extraction step of extracting a three-dimensional eye voxel image of at least one eye of the eyeball region for each of the right and left eyeballs from the input three-dimensional voxel image;
A projection image calculation step of creating a first projection image obtained by projecting the extracted three-dimensional eyeball voxel image in at least one of the upper and lower directions;
Setting an eye axis connecting the anterior ocular pole vertex and the posterior ocular pole vertex to the first projection image, and at least the ocular axial length between the ocular anterior pole vertex and the ocular posterior pole vertex; A projection image analysis step for calculating the degree of asymmetry in the left-right direction based on a region obtained by dividing the rear pole side into the left and right with the eye axis as a boundary;
An image analysis method for ophthalmic diseases, comprising:
コンピュータに、請求項16に記載の眼科疾患の画像解析方法を実行させるためのプログラム。   A program for causing a computer to execute the image analysis method for ophthalmic diseases according to claim 16.
JP2011187872A 2011-08-30 2011-08-30 Ophthalmic disease image analysis apparatus, ophthalmic image analysis method, and ophthalmic image analysis program Active JP5935146B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011187872A JP5935146B2 (en) 2011-08-30 2011-08-30 Ophthalmic disease image analysis apparatus, ophthalmic image analysis method, and ophthalmic image analysis program
PCT/JP2012/070730 WO2013031536A1 (en) 2011-08-30 2012-08-15 Image analysis device for ophthalmic disease, image analysis method for ophthalmic disease, and image analysis program for ophthalmic disease

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011187872A JP5935146B2 (en) 2011-08-30 2011-08-30 Ophthalmic disease image analysis apparatus, ophthalmic image analysis method, and ophthalmic image analysis program

Publications (2)

Publication Number Publication Date
JP2013048696A true JP2013048696A (en) 2013-03-14
JP5935146B2 JP5935146B2 (en) 2016-06-15

Family

ID=47756030

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011187872A Active JP5935146B2 (en) 2011-08-30 2011-08-30 Ophthalmic disease image analysis apparatus, ophthalmic image analysis method, and ophthalmic image analysis program

Country Status (2)

Country Link
JP (1) JP5935146B2 (en)
WO (1) WO2013031536A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015089477A (en) * 2013-11-07 2015-05-11 大日本印刷株式会社 Image analysis device and method for determining ophthalmologic disease
EP2957219A1 (en) 2014-06-18 2015-12-23 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and program
JP2016158906A (en) * 2015-03-02 2016-09-05 株式会社ニデック Eye axial length measurement device, eye ball shape information acquisition method, and eye ball shape information acquisition program
WO2019074077A1 (en) * 2017-10-13 2019-04-18 株式会社ニコン Ophthalmology system, image signal output method, image signal output device, program, and three-dimensional oculus fundi image generation method

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109671049B (en) * 2018-11-07 2024-03-01 哈尔滨工业大学(深圳) Medical image processing method, system, equipment and storage medium
CN113662659B (en) * 2021-08-25 2022-08-12 中山大学中山眼科中心 Eye parameter acquisition system based on 3D-MRI eyeball model

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004024739A (en) * 2002-06-28 2004-01-29 Inst Of Physical & Chemical Res Method and apparatus for three-dimensional display and coordinate measurement of fundus oculi
JP2006061196A (en) * 2004-08-24 2006-03-09 Institute Of Physical & Chemical Research Constructing/displaying device for three-dimensional eye fundus image

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004024739A (en) * 2002-06-28 2004-01-29 Inst Of Physical & Chemical Res Method and apparatus for three-dimensional display and coordinate measurement of fundus oculi
JP2006061196A (en) * 2004-08-24 2006-03-09 Institute Of Physical & Chemical Research Constructing/displaying device for three-dimensional eye fundus image

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015089477A (en) * 2013-11-07 2015-05-11 大日本印刷株式会社 Image analysis device and method for determining ophthalmologic disease
EP2957219A1 (en) 2014-06-18 2015-12-23 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and program
US9585560B2 (en) 2014-06-18 2017-03-07 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and program
JP2016158906A (en) * 2015-03-02 2016-09-05 株式会社ニデック Eye axial length measurement device, eye ball shape information acquisition method, and eye ball shape information acquisition program
WO2019074077A1 (en) * 2017-10-13 2019-04-18 株式会社ニコン Ophthalmology system, image signal output method, image signal output device, program, and three-dimensional oculus fundi image generation method

Also Published As

Publication number Publication date
JP5935146B2 (en) 2016-06-15
WO2013031536A1 (en) 2013-03-07

Similar Documents

Publication Publication Date Title
Abràmoff et al. Retinal imaging and image analysis
US8781214B2 (en) Enhanced imaging for optical coherence tomography
JP5935146B2 (en) Ophthalmic disease image analysis apparatus, ophthalmic image analysis method, and ophthalmic image analysis program
AU2021202217B2 (en) Methods and systems for ocular imaging, diagnosis and prognosis
US9299139B2 (en) Volumetric analysis of pathologies
CN102458225A (en) Image processing apparatus, control method thereof, and computer program
JP6526145B2 (en) Image processing system, processing method and program
JP7374615B2 (en) Information processing device, information processing method and program
JP7102112B2 (en) Image processing equipment, image processing methods and programs
CN113543695A (en) Image processing apparatus, image processing method, and program
JP6192496B2 (en) Image analysis apparatus for ophthalmic disease determination and image analysis method for ophthalmology
JP7027076B2 (en) Image processing equipment, alignment method and program
JP7005382B2 (en) Information processing equipment, information processing methods and programs
Eichel et al. Automated 3D reconstruction and segmentation from optical coherence tomography
JP2019150485A (en) Image processing system, image processing method, and program
JP2022033290A (en) Information processing device, information processing method, and program
US11419495B2 (en) Image processing method, image processing device, and storage medium
Syga et al. A fully automated 3D in-vivo delineation and shape parameterization of the human lamina cribrosa in optical coherence tomography
JP2022062620A (en) Image processing device, image processing method and program
WO2020090439A1 (en) Image processing apparatus, image processing method, and program
JP2019063446A (en) Image processing apparatus, image processing method, and program
JP7281872B2 (en) Image processing device, image processing method and program
JP7158860B2 (en) Image processing device, image processing method and program
JP2022062619A (en) Image processing device, image processing method and program
Capps Visualization and Analysis of Microstructure in Images of the Living Human Retina

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151022

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160419

R150 Certificate of patent or registration of utility model

Ref document number: 5935146

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250