JP5160823B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP5160823B2
JP5160823B2 JP2007185153A JP2007185153A JP5160823B2 JP 5160823 B2 JP5160823 B2 JP 5160823B2 JP 2007185153 A JP2007185153 A JP 2007185153A JP 2007185153 A JP2007185153 A JP 2007185153A JP 5160823 B2 JP5160823 B2 JP 5160823B2
Authority
JP
Japan
Prior art keywords
fundus
parallax
eye
image
dimensional shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007185153A
Other languages
Japanese (ja)
Other versions
JP2009022308A (en
Inventor
孝佳 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kowa Co Ltd
Original Assignee
Kowa Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kowa Co Ltd filed Critical Kowa Co Ltd
Priority to JP2007185153A priority Critical patent/JP5160823B2/en
Priority to US12/070,323 priority patent/US7625088B2/en
Publication of JP2009022308A publication Critical patent/JP2009022308A/en
Application granted granted Critical
Publication of JP5160823B2 publication Critical patent/JP5160823B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Description

本発明は、画像処理装置、特に被検眼眼底を眼底撮影光学系を介して所定の視差でステレオ撮影し、得られた視差画像を用いて3次元形状測定処理、および3次元表示を行う画像処理装置に関するものである。   The present invention relates to an image processing device, and in particular, image processing for performing stereo imaging with a predetermined parallax through a fundus imaging optical system and performing three-dimensional shape measurement processing and three-dimensional display using the obtained parallax image. It relates to the device.

従来より、緑内障の診断などの目的で、被検眼眼底の形状を把握するため、被検眼眼底の立体画像を撮影する眼底カメラなどの画像処理装置が知られている。たとえば、眼底カメラの単一の光学系内の絞りを光軸から左右(あるいは上下)に偏心した異なる位置に移動させ、それぞれの絞り位置で撮影を行うことにより被検眼眼底をステレオ撮影する装置が知られている(下記の特許文献1)。   2. Description of the Related Art Conventionally, for the purpose of diagnosing glaucoma, an image processing apparatus such as a fundus camera that captures a three-dimensional image of the fundus of the eye to be examined is known in order to grasp the shape of the fundus of the eye to be examined. For example, there is a device that stereo-photographs the fundus of the eye to be examined by moving the diaphragm in a single optical system of the fundus camera to different positions that are decentered from the optical axis to the left and right (or up and down). Known (Patent Document 1 below).

眼底を3次元測定する画像処理は、次のように行うことができる。たとえば、ステレオ撮影された左右(あるいは上下)の画像のパターンマッチングを行い、対応する像点、すなわち対応点を探索する。対応点が探索できれば、3角測量の原理を用いて対応点に共役な物点のxy軸(画像平面に平行な直交2軸)、およびz軸(光軸に平行な1軸)に沿う各座標を計算することができる。そして、充分な数の物点の3次元座標値を求めれば、被検眼眼底の3次元モデルを作成することができる。   Image processing for three-dimensional measurement of the fundus can be performed as follows. For example, pattern matching is performed on left and right (or upper and lower) images taken in stereo to search for corresponding image points, that is, corresponding points. If the corresponding points can be searched, each of the object points conjugated with the corresponding points using the principle of triangulation along the xy axes (two orthogonal axes parallel to the image plane) and the z axis (one axis parallel to the optical axis). Coordinates can be calculated. If a three-dimensional coordinate value of a sufficient number of object points is obtained, a three-dimensional model of the fundus of the eye to be examined can be created.

また、撮影した左右の視差画像を、各種方式による3Dモニタなどを用いて3次元表示(3D表示)する、すなわち、撮影した左右の視差画像をそれぞれ独立して観察者(検者)の左右両眼にそれぞれ観察させることにより、撮影した被検眼眼底の状態を立体視で観察させることができる。
特開平10−75932号公報 特開2002−34924号公報
Further, the captured left and right parallax images are three-dimensionally displayed (3D display) using a 3D monitor or the like using various methods, that is, the captured left and right parallax images are independently displayed on both the left and right sides of the observer (examiner). By observing each of the eyes, the state of the photographed eye fundus can be observed stereoscopically.
JP-A-10-75932 JP 2002-34924 A

ところで、眼底カメラのような撮影装置の光学系には像歪がある。たとえば、平面に置いた方眼紙のような方眼パターンを撮影すると、図5の符号151のような画像が撮影される。この歪みには、光学系で設計上あらかじめ想定されている歪みの他、光学系個体毎に生じる製造上の誤差により生じる歪みも含まれる。   Incidentally, an optical system of a photographing apparatus such as a fundus camera has image distortion. For example, when a grid pattern such as graph paper placed on a plane is captured, an image such as reference numeral 151 in FIG. 5 is captured. This distortion includes distortion that is caused by a manufacturing error that occurs in each optical system, in addition to distortion that is preliminarily designed in the optical system.

もし、このような像歪を有する光学系で上記のようなステレオ撮影および3次元測定の画像処理を行うと、たとえばP〜P’線上で得られるz軸座標は、平面に置いた方眼パターンであれば符号152のように直線的に測定されるべきであるにもかかわらず、符号153のように変形してしまう可能性がある。   If stereo imaging and three-dimensional measurement image processing as described above are performed with an optical system having such image distortion, the z-axis coordinates obtained on the P-P ′ line, for example, are square patterns placed on a plane. Even if it should be measured linearly as indicated by reference numeral 152, there is a possibility of deformation as indicated by reference numeral 153.

一般に、ステレオ撮影された画像を用いた3次元測定においては、上記のような像歪を補正する必要があり、補正なしでは被写体の実態と異なる3次元形状が測定されてしまう可能性がある。この点に鑑み、あらかじめ見積もった光学系の歪みに対応するパラメータを用いて画像データをアフィン変換するような構成が用いられている。また、眼底撮影の場合には眼底をあらかじめ理想球面と仮定した上でステレオ撮影された画像を補正する構成も知られている(上記の特許文献2)。   Generally, in the three-dimensional measurement using a stereo image, it is necessary to correct the image distortion as described above, and there is a possibility that a three-dimensional shape different from the actual condition of the subject may be measured without correction. In view of this point, a configuration is used in which image data is affine transformed using parameters corresponding to the distortion of the optical system estimated in advance. In addition, in the case of fundus photography, there is also known a configuration in which a stereo photographed image is corrected on the assumption that the fundus is an ideal spherical surface in advance (Patent Document 2 described above).

しかしながら、このような従来の補正処理は、実際に撮影に用いられる光学系の特性を正確に反映したものとはいい難く、眼底の3次元測定結果に何らかの誤差が生じる可能性が高い。眼底網膜形状解析や視神経乳頭部形状解析のような臨床アプリケーションにおいては、誤差の程度によっては、誤診をまねく危険があり、ステレオ撮影画像から光学系の歪みを正確に補正できる画像処理が求められている。   However, it is difficult to say that such conventional correction processing accurately reflects the characteristics of the optical system actually used for photographing, and there is a high possibility that some error will occur in the three-dimensional measurement result of the fundus. In clinical applications such as fundus retinal shape analysis and optic nerve head shape analysis, depending on the degree of error, there is a risk of misdiagnosis, and image processing that can accurately correct optical distortion from stereo images is required. Yes.

たとえば、図5の平面に置いた方眼パターンの場合、P〜P’線上で符号153のように歪んで測定されてしまう3次元形状を正確に符号154のように補正できるようにすることが望まれる。   For example, in the case of a grid pattern placed on the plane of FIG. 5, it is desirable that a three-dimensional shape that is distorted and measured as indicated by reference numeral 153 on the line P to P ′ can be accurately corrected as indicated by reference numeral 154. It is.

また、このように光学系の歪みの影響を除去すべく被検眼眼底の3次元モデルの形状データの補正を行うのももちろん、さらに、撮影した眼底画像も補正すべきである、と考えられる。たとえば、撮影した左右の視差画像を、3Dモニタなどを用いて3D表示し、撮影した被検眼眼底を立体視で検者に観察させる場合には、形状データの補正に応じた形状で被検眼眼底の形状を検者が観察(知覚)できるように、3D表示用の画像も補正されていることが望ましい。また、撮影された眼底画像が紙などへのプリントや、HDDなどへのデータ記録の対象となる記録用に用いられる場合であっても、その画像が同様に補正されていることが望ましいのはいうまでもない。   In addition to correcting the shape data of the three-dimensional model of the fundus oculi to be examined so as to eliminate the influence of the distortion of the optical system in this way, it is considered that the photographed fundus image should also be corrected. For example, when the captured left and right parallax images are displayed in 3D using a 3D monitor or the like, and the examiner observes the captured fundus of the eye to be examined in a stereoscopic view, the fundus of the eye to be examined has a shape corresponding to the correction of the shape data. It is desirable that the 3D display image is also corrected so that the examiner can observe (perceive) the shape. In addition, even when the photographed fundus image is used for printing on paper or for recording that is a target of data recording on an HDD or the like, it is desirable that the image be corrected similarly. Needless to say.

本発明の課題は、上記の問題に鑑み、被検眼眼底をステレオ撮影し、得られた撮影画像データに対して3次元測定処理を行う画像処理装置において、実際に撮影に用いられる光学系の歪みを考慮し、眼底画像に対して正確な3次元測定処理を行え、あるいはさらにその3次元測定結果に対応する正確な眼底画像を提供でき、検者が被検眼眼底の立体形状を正確に評価できるようにすることにある。   In view of the above problems, an object of the present invention is to provide a distortion of an optical system that is actually used for photographing in an image processing apparatus that performs stereo photographing of the fundus of the eye to be examined and performs three-dimensional measurement processing on the obtained photographed image data. Therefore, accurate 3D measurement processing can be performed on the fundus image, or an accurate fundus image corresponding to the 3D measurement result can be provided, and the examiner can accurately evaluate the three-dimensional shape of the fundus There is in doing so.

上記課題を解決するため、本発明においては、被検眼眼底を眼底撮影光学系を介して所定の視差でステレオ撮影し、得られた視差画像を用いて3次元形状測定処理を行う画像処理装置において、所定形状の被写体を前記眼底撮影光学系を介して前記所定の視差でステレオ撮影し、得られた視差画像の画像データに基づき前記被写体の所定部位の3次元形状を測定し、前記所定部位の実際の3次元形状と前記画像データに基づき測定された前記所定部位の3次元形状との差分に相当するとともに、前記3次元形状測定処理において補正すべき視差量により表現された校正データを作成し、前記校正データを用いて被検眼眼底のステレオ撮影で得られた3次元形状データに対して形状歪補正を行うとともに、前記校正データを用いて被検眼眼底のステレオ撮影で得られた視差画像データに対して前記形状歪補正を加えることにより補正画像データを作成する構成を採用した。
あるいは、被検眼眼底を眼底撮影光学系を介して所定の視差でステレオ撮影し、得られた視差画像を用いて3次元形状測定処理を行う画像処理装置において、所定形状の被写体を前記眼底撮影光学系を介して前記所定の視差でステレオ撮影し、得られた視差画像の画像データに基づき前記被写体の所定部位の3次元形状を測定し、前記所定部位の実際の3次元形状と前記画像データに基づき測定された前記所定部位の3次元形状との差分に相当するとともに、前記3次元形状測定処理において補正すべき深さ量により表現された校正データを作成し、前記校正データを用いて被検眼眼底のステレオ撮影で得られた3次元形状データに対して形状歪補正を行うとともに、前記校正データを用いて被検眼眼底のステレオ撮影で得られた視差画像データに対して前記形状歪補正を加えることにより補正画像データを作成する構成を採用した。
あるいは、被検眼眼底を眼底撮影光学系を介して所定の視差でステレオ撮影し、得られた視差画像を用いて3次元形状測定処理を行う画像処理装置において、所定形状の被写体を前記眼底撮影光学系を介して前記所定の視差でステレオ撮影し、得られた視差画像の画像データに基づき前記被写体の所定部位の3次元形状を測定し、前記所定部位の実際の3次元形状と前記画像データに基づき測定された前記所定部位の3次元形状との差分に相当するとともに、3次元形状データの横座標、または前記眼底撮影光学系によりステレオ撮影される視差画像中の特定部位に関連づけられてテーブル形式で作成された校正データを作成し、前記校正データを用いて被検眼眼底のステレオ撮影で得られた3次元形状データに対して形状歪補正を行うとともに、前記校正データを用いて被検眼眼底のステレオ撮影で得られた視差画像データに対して前記形状歪補正を加えることにより補正画像データを作成する構成を採用した。
In order to solve the above problems, in the present invention, in an image processing apparatus that performs stereo imaging of a subject's eye fundus with a predetermined parallax via a fundus imaging optical system, and performs a three-dimensional shape measurement process using the obtained parallax image , Subjecting a subject having a predetermined shape in stereo with the predetermined parallax via the fundus imaging optical system, measuring a three-dimensional shape of the predetermined portion of the subject based on image data of the obtained parallax image, Calibration data represented by the amount of parallax to be corrected in the three-dimensional shape measurement process is created, corresponding to the difference between the actual three-dimensional shape and the three-dimensional shape of the predetermined part measured based on the image data. , Correction of shape distortion is performed on the three-dimensional shape data obtained by stereo imaging of the fundus of the eye to be examined using the calibration data, and the eye fundus of the eye to be examined is used by using the calibration data. By adding the shape distortion correction on the parallax image data obtained by the stereo imaging employs a configuration that creates a corrected image data.
Alternatively, in an image processing apparatus that performs stereo imaging with a predetermined parallax through a fundus imaging optical system and performs a three-dimensional shape measurement process using the obtained parallax image, the fundus imaging optics Stereo shooting with the predetermined parallax through the system, the three-dimensional shape of the predetermined part of the subject is measured based on the image data of the obtained parallax image, the actual three-dimensional shape of the predetermined part and the image data A calibration data corresponding to a difference from the three-dimensional shape of the predetermined portion measured based on the three-dimensional shape and expressed by a depth amount to be corrected in the three-dimensional shape measurement process is created, and the eye to be examined is used using the calibration data The shape distortion correction is performed on the three-dimensional shape data obtained by stereo imaging of the fundus, and the parallax image data obtained by stereo imaging of the fundus of the eye to be examined using the calibration data. Adopting a structure that creates a corrected image data by adding the shape distortion correction on data.
Alternatively, in an image processing apparatus that performs stereo imaging with a predetermined parallax through a fundus imaging optical system and performs a three-dimensional shape measurement process using the obtained parallax image, the fundus imaging optics Stereo shooting with the predetermined parallax through the system, the three-dimensional shape of the predetermined part of the subject is measured based on the image data of the obtained parallax image, the actual three-dimensional shape of the predetermined part and the image data The table format corresponds to a difference from the three-dimensional shape of the predetermined part measured based on the abscissa of the three-dimensional shape data or a specific part in a parallax image that is stereo-photographed by the fundus photographing optical system. When the calibration data created in step 1 is created and shape distortion correction is performed on the three-dimensional shape data obtained by stereo imaging of the fundus oculi to be examined using the calibration data. The adopted a structure that creates a corrected image data by adding the shape distortion correction on the parallax image data obtained by the stereo imaging of the fundus by using the calibration data.

特に、前記被写体としては、人眼の形状および光学特性を模擬するとともに、所定の濃淡パターンを付与した眼底模擬面を前記所定部位として有する模型眼を用いることができる。   In particular, as the subject, a model eye that simulates the shape and optical characteristics of the human eye and has a simulated fundus surface with a predetermined shading pattern as the predetermined portion can be used.

また、前記校正データを用いて被検眼眼底のステレオ撮影で得られた左右の視差画像データに対してそれぞれ前記形状歪補正を加えることにより左右の補正画像データを作成し、ステレオモニタを用いて立体表示を行う構成とすることができる。   Further, left and right corrected image data is created by applying the shape distortion correction to the left and right parallax image data obtained by stereo imaging of the fundus of the eye to be examined using the calibration data, and three-dimensional correction is performed using a stereo monitor. It can be set as the structure which performs a display.

また、前記校正データが前記3次元形状測定処理において補正すべき深さ量により表現され、該校正データを用いた幾何演算によって被検眼眼底のステレオ撮影で得られた視差画像データに対して前記形状歪補正を加えることにより補正画像データを作成する構成とすることができる。   Further, the calibration data is expressed by a depth amount to be corrected in the three-dimensional shape measurement process, and the shape of the parallax image data obtained by stereo imaging of the fundus of the eye to be examined by geometric calculation using the calibration data. It can be set as the structure which produces correction | amendment image data by adding distortion correction.

上記構成によれば、被検眼眼底をステレオ撮影光学系を介してステレオ撮影し、得られた撮影画像データに対して3次元測定処理を行う画像処理装置において、実際に撮影に用いられる光学系の歪みを補正し、眼底画像に対して正確な3次元測定処理を行なえ、あるいはさらにその3次元測定結果に対応する正確な眼底画像を提供できるので、被検眼眼底の立体形状を正確に評価でき、誤診などの問題を回避することができる、という優れた効果がある。   According to the above configuration, in the image processing apparatus that performs the three-dimensional measurement process on the obtained fundus image data in stereo through the stereo imaging optical system, the optical system actually used for imaging is used. Distortion can be corrected and accurate three-dimensional measurement processing can be performed on the fundus image, or an accurate fundus image corresponding to the three-dimensional measurement result can be provided, so that the three-dimensional shape of the fundus can be accurately evaluated, There is an excellent effect that problems such as misdiagnosis can be avoided.

また、被検眼の形状および光学的構造を模擬する模型眼を用いることにより、他の撮影条件や演算条件を変更することなく容易に校正測定および演算を行うことができる。   Further, by using a model eye that simulates the shape and optical structure of the eye to be examined, calibration measurement and calculation can be easily performed without changing other imaging conditions and calculation conditions.

また、前記形状歪補正に対応する左右の補正画像データを作成し、ステレオモニタを用いて立体表示を行うことにより、検者は立体視を介して被検者眼底の状態を容易に把握できる。   Further, by creating left and right corrected image data corresponding to the shape distortion correction and performing stereoscopic display using a stereo monitor, the examiner can easily grasp the state of the fundus of the subject through stereoscopic vision.

また、前記3次元形状測定処理において補正すべき深さ量により表現された該校正データを用いた幾何演算によって被検眼眼底のステレオ撮影で得られた視差画像データに対して前記形状歪補正を加えた補正画像データを作成することができ、該補正画像データを表示、記録などの用に供することができる。   Further, the shape distortion correction is applied to the parallax image data obtained by stereo imaging of the fundus of the eye to be examined by geometric calculation using the calibration data expressed by the depth amount to be corrected in the three-dimensional shape measurement process. Corrected image data can be created, and the corrected image data can be used for display, recording, and the like.

以下、本発明を実施するための最良の形態の一例として、被検眼眼底をステレオ撮影光学系を介してステレオ撮影し、得られた撮影画像データに対して3次元測定処理、および3次元表示を行う眼科測定装置に関する実施例につき説明する。   Hereinafter, as an example of the best mode for carrying out the present invention, the fundus of the eye to be examined is photographed in stereo via a stereo photographing optical system, and three-dimensional measurement processing and three-dimensional display are performed on the obtained photographed image data. An embodiment relating to the ophthalmic measuring apparatus to be performed will be described.

図1において、一点鎖線で囲まれて図示された眼底カメラ10には、赤外光並びに可視光の照明光を発光する観察ランプ11が球面ミラー12の曲率中心に配置され、観察ランプ11並びに球面ミラー12からの光は、コンデンサーレンズ14、撮影用光源であるストロボ15、コンデンサーレンズ16を経て、全反射ミラー17に入射する。   In the fundus camera 10 illustrated in FIG. 1 surrounded by a one-dot chain line, an observation lamp 11 that emits infrared light and visible illumination light is disposed at the center of curvature of the spherical mirror 12. The light from the mirror 12 is incident on the total reflection mirror 17 through the condenser lens 14, the strobe 15 that is a photographing light source, and the condenser lens 16.

全反射ミラー17で反射した照明光は、照明絞り19を経てリレーレンズ22を通過し、穴あき全反射ミラー23で反射され、対物レンズ24を経て被検眼Eの前眼部(瞳)Epに入射する。照明絞り19は、照明光学系内に被検眼の前眼部Ep(瞳)とほぼ共役な位置に配置される。   The illumination light reflected by the total reflection mirror 17 passes through the relay lens 22 through the illumination diaphragm 19, is reflected by the perforated total reflection mirror 23, and passes through the objective lens 24 to the anterior eye part (pupil) Ep of the eye E to be examined. Incident. The illumination stop 19 is disposed in a position substantially conjugate with the anterior segment Ep (pupil) of the eye to be examined in the illumination optical system.

照明光で照明された眼底Erからの反射光は、対物レンズ24、穴あき全反射ミラー23の開口23a、2開口撮影絞り(2孔絞り)28の開口、合焦レンズ35、結像レンズ36、変倍レンズ38aを通過してリターンミラー39に入射する。リターンミラー39が図示の位置では、眼底からの反射光が眼底とほぼ共役な位置にあり赤外光に感度を有するCCD(撮像手段)40に入射し、眼底がCCD40により撮像され、またリターンミラー39が光路から離脱すると、眼底からの反射光が眼底とほぼ共役な位置にあり可視光に感度を有するCCD(撮像手段)41に入射し、眼底がCCD41により撮影される。   The reflected light from the fundus Er illuminated with the illumination light is transmitted through the objective lens 24, the aperture 23a of the perforated total reflection mirror 23, the aperture of the 2 aperture aperture stop (2 aperture aperture) 28, the focusing lens 35, and the imaging lens 36. Then, the light passes through the zoom lens 38a and enters the return mirror 39. When the return mirror 39 is in the position shown in the figure, the reflected light from the fundus is incident on a CCD (imaging means) 40 that is substantially conjugate with the fundus and is sensitive to infrared light, and the fundus is imaged by the CCD 40, and the return mirror. When 39 leaves the optical path, the reflected light from the fundus is incident on a CCD (imaging means) 41 that is at a position almost conjugate with the fundus and is sensitive to visible light, and the fundus is photographed by the CCD 41.

撮影絞り28には、図2に示すように、矩形の2つの開口28a、28bが設けられている。撮影絞り28は、その開口28a、28bが光軸26に対して偏心し、かつ左右対称となるように、またそれぞれ被検眼前眼部(瞳)とほぼ共役な位置となるように配置される。   The photographing aperture 28 is provided with two rectangular openings 28a and 28b as shown in FIG. The photographing aperture 28 is disposed such that the openings 28a and 28b are decentered with respect to the optical axis 26 and are symmetric with respect to the optical axis 26, and are substantially conjugate with the anterior eye portion (pupil) of the eye to be examined. .

また、開口28a、28bの位置とその大きさは、穴あき全反射ミラー23の開口23aが、開口28a、28bの全体を含むように設定される。   The positions and sizes of the openings 28a and 28b are set so that the opening 23a of the perforated total reflection mirror 23 includes the entire openings 28a and 28b.

撮影絞り28の開口28a、28bは、それぞれガイド28c、28dに沿って移動されるシャッタ板29、30により開放されるか、あるいは閉じられる。   The apertures 28a and 28b of the photographing aperture 28 are opened or closed by shutter plates 29 and 30 moved along guides 28c and 28d, respectively.

この開閉のためにロータリーソレノイド31、32から構成される切替手段が設けられ、ロータリーソレノイド31、32が通電されない状態では、シャッタ板29、30は、図2(a)の位置にあり、開口28a、28bはそれぞれ開放される。   For this opening and closing, switching means comprising rotary solenoids 31 and 32 is provided. When the rotary solenoids 31 and 32 are not energized, the shutter plates 29 and 30 are at the position of FIG. , 28b are opened.

一方、ロータリーソレノイド31、32が通電されると、ロータリーソレノイド31、32のロッド31a、32aが回動し、ロッド31a、32aの他端がシャッタ板29、30に設けられたピン29a、30aと係合していることによりシャッタ板29、30がそれぞれ内側に移動して開口28a、28bが閉じられる。   On the other hand, when the rotary solenoids 31 and 32 are energized, the rods 31a and 32a of the rotary solenoids 31 and 32 rotate, and the other ends of the rods 31a and 32a are connected to pins 29a and 30a provided on the shutter plates 29 and 30, respectively. Engagement causes the shutter plates 29 and 30 to move inward to close the openings 28a and 28b.

CCD40が撮像した眼底像は、CPUなどで構成される制御演算部60に入力され、その画像がモニタ62に動画像として表示される。検者は、モニタ62に表示される画像を見て、後述するようにアライメントやフォーカス調整などの操作を行うことができる。また、立体視専用ディスプレイとしてステレオモニタ63が設けられ、検者は、このステレオモニタ63を介して左右の画像を観察することにより眼底を立体視することができる。   The fundus image captured by the CCD 40 is input to a control calculation unit 60 constituted by a CPU or the like, and the image is displayed on the monitor 62 as a moving image. The examiner looks at the image displayed on the monitor 62 and can perform operations such as alignment and focus adjustment as will be described later. In addition, a stereo monitor 63 is provided as a stereoscopic display, and the examiner can observe the fundus in a stereoscopic manner by observing the left and right images through the stereo monitor 63.

ステレオモニタ63の表示方式には、偏光方向や表示色を左右のステレオ画像で異ならせる、左右の視野を分離する観察スコープを介して左右のステレオ画像を独立して観察させる、といった種々の方式があるが、本実施例のステレオモニタ63の表示方式は任意であり、左右の視差画像をそれぞれ独立して検者の左右の眼で観察させることができるように構成されたものであれば任意のステレオ表示方式を用いることができる。   The display method of the stereo monitor 63 includes various methods such that the polarization direction and display color are different between the left and right stereo images, and the left and right stereo images are independently observed through an observation scope that separates the left and right visual fields. However, the display method of the stereo monitor 63 according to the present embodiment is arbitrary, and any display device can be used as long as the left and right parallax images can be observed independently by the left and right eyes of the examiner. A stereo display system can be used.

また、CCD41により、シャッタスイッチ66を操作したときストロボ15で照明された眼底を静止画として撮影することができる。この眼底像は一旦高速なメモリ61に格納され、制御演算部60を介して外部記録装置としての低速なハードディスク(HDD)64で実現される記録手段に記録されたり、あるいはモニタ62、ステレオモニタ63に表示される。   Further, the fundus illuminated by the strobe 15 when the shutter switch 66 is operated can be photographed as a still image by the CCD 41. This fundus image is temporarily stored in the high-speed memory 61 and recorded on a recording means realized by a low-speed hard disk (HDD) 64 as an external recording device via the control calculation unit 60, or a monitor 62 and a stereo monitor 63. Is displayed.

また、キーボード67、マウス68などの入力手段が設けられ、これらの入力手段を介して、種々のデータが入力できるようになっている。   Also, input means such as a keyboard 67 and a mouse 68 are provided, and various data can be input via these input means.

また、眼底カメラには、CPUなどからなる制御部65が設けられ、この制御部65は、制御演算部60と接続されて互いに信号を交換するとともに、シャッタスイッチ66が操作されたときに、リターンミラー39を光路から離脱させるとともに、ストロボ15を適量な光量で発光させる。また、制御部65は、変倍レンズ38aなどの光路への挿脱を制御し、上述のロータリーソレノイド31、32の駆動を制御する。   Further, the fundus camera is provided with a control unit 65 composed of a CPU or the like. The control unit 65 is connected to the control calculation unit 60 and exchanges signals with each other. When the shutter switch 66 is operated, the control unit 65 returns. The mirror 39 is removed from the optical path, and the strobe 15 is caused to emit light with an appropriate amount of light. The control unit 65 controls insertion / removal of the variable magnification lens 38a and the like into the optical path, and controls driving of the rotary solenoids 31 and 32 described above.

また、眼底カメラには、操作部(操作パネル)69が設けられ、この操作部69で、撮影モードを選択できる。更に、撮影する被検眼が左眼か右眼かを検知する左右眼検知部70が設けられ、この左右眼検知部70で検知された左眼か右眼かの情報が制御部65に入力される。   In addition, the fundus camera is provided with an operation unit (operation panel) 69, and the operation unit 69 can select a photographing mode. Further, a left / right eye detection unit 70 for detecting whether the subject eye to be photographed is the left eye or the right eye is provided, and information on whether the left eye or the right eye is detected by the left / right eye detection unit 70 is input to the control unit 65. The

ここで、上記構成における被検眼眼底のステレオ撮影の概略につき説明する。   Here, an outline of stereo imaging of the fundus of the eye to be examined in the above configuration will be described.

最初、観察時には、観察ランプ11が点灯され、照明絞り19が光路に挿入される。ロータリーソレノイド31、32は図2(a)に示した位置に駆動され、それにより撮影絞り28の2つの開口28a、28bは開放した位置をとる。照明絞り19を介して非赤外光で照射された被検眼眼底からの反射光は、撮影絞り28の開口28a、28bを介して観察用のCCD40に受像され、眼底像がモニタ62に表示される。   First, at the time of observation, the observation lamp 11 is turned on, and the illumination stop 19 is inserted into the optical path. The rotary solenoids 31 and 32 are driven to the positions shown in FIG. 2A, whereby the two openings 28a and 28b of the photographing aperture 28 are in the open positions. Reflected light from the fundus of the subject's eye irradiated with non-infrared light through the illumination diaphragm 19 is received by the observation CCD 40 through the openings 28a and 28b of the imaging diaphragm 28, and the fundus image is displayed on the monitor 62. The

この状態で、被検眼とのアライメント、ピント合せが行われるが、このとき、不図示の視標投影系などにより検者のアライメント、ピント合せ操作が支援される。   In this state, alignment and focusing with the eye to be examined are performed. At this time, alignment and focusing operations of the examiner are supported by a target projection system (not shown).

アライメント、ピント合せの後、シャッタ操作が完了したら、検者はシャッタスイッチ66を押下する。この操作に応じて制御部65は、ロータリーソレノイド31を駆動してシャッタ板29を右方に移動させ、撮影絞り28の左側の開口28aを閉じる。シャッタスイッチ66の操作と同期してストロボ15が発光し、リターンミラー39が光路から離脱するので、ストロボで照明された眼底からの光束は、撮影絞り28の開放している開口28bを通過してCCD41の受像面に入射し、立体視用の1枚目の眼底画像がCCD41により静止画像として撮像され、メモリ61に格納される。   When the shutter operation is completed after the alignment and focusing, the examiner presses the shutter switch 66. In response to this operation, the control unit 65 drives the rotary solenoid 31 to move the shutter plate 29 to the right, and closes the opening 28a on the left side of the photographing aperture 28. The strobe 15 emits light in synchronization with the operation of the shutter switch 66, and the return mirror 39 leaves the optical path, so that the light flux from the fundus illuminated by the strobe passes through the opening 28b of the photographing aperture 28 that is open. The light enters the image receiving surface of the CCD 41, and the first fundus image for stereoscopic viewing is captured as a still image by the CCD 41 and stored in the memory 61.

続いて、ロータリーソレノイド31、32を制御し、シャッタ板29、30を左方向に移動して、開口28aが開放し、開口28bが閉じたとき、ストロボ15を再度発光させる。このとき、開口28aを通過した立体視用の2枚目の眼底画像がCCD41により静止画像として撮像されて、メモリ61に格納される。   Subsequently, the rotary solenoids 31 and 32 are controlled to move the shutter plates 29 and 30 to the left, and when the opening 28a is opened and the opening 28b is closed, the strobe 15 is caused to emit light again. At this time, the second fundus image for stereoscopic viewing that has passed through the opening 28 a is captured as a still image by the CCD 41 and stored in the memory 61.

このようにして、1回のシャッタ操作で連続して左右2つの視点から撮影、すなわち、ステレオ撮影された2枚の視差画像は、開放している撮影絞りの開口の位置ないし左位置、右位置などの情報を付して、メモリ61からHDD64に保存される。また、このように保存された2枚の視差画像は、HDD64から読み出されて、ステレオモニタ63を用いて表示し、検者は左右の眼でそれぞれ対応する一方の眼底画像を観察することにより眼底を立体視することができる。   In this way, two parallax images photographed from two left and right viewpoints in succession by one shutter operation, that is, stereo photography, are the positions of the aperture of the photographing aperture that is open, the left position, and the right position. And the like are added to the HDD 64 from the memory 61. The two parallax images stored in this way are read from the HDD 64 and displayed using the stereo monitor 63, and the examiner observes one corresponding fundus image with the left and right eyes. The fundus can be viewed stereoscopically.

ここで、本発明による校正処理につき述べる前に、上記のようにしてステレオ撮影された左右の視差画像から、被検眼眼底の立体形状を3次元測定する処理の概要につき説明しておく。   Here, before describing the calibration process according to the present invention, an outline of a process for three-dimensionally measuring the three-dimensional shape of the fundus of the eye to be examined from the left and right parallax images taken in stereo as described above will be described.

図6は、この眼底の3次元測定処理の概略を示している。図6のステップS161において、上記のようにして被検眼眼底がステレオ撮影される。   FIG. 6 shows an outline of this fundus three-dimensional measurement process. In step S161 in FIG. 6, the fundus of the eye to be examined is photographed in stereo as described above.

続いてステップS162でステレオ撮影された左右の視差画像間の視差量算出処理を行う。この視差量算出処理は、次のようなものである。   Subsequently, a parallax amount calculation process between the left and right parallax images taken in stereo is performed in step S162. This parallax amount calculation processing is as follows.

まず、左視差画像中に視差量を求める注目点を中心とした15×15画素の関心領域を設定する(図7(a)、(b))。そして、左視差画像の関心領域(15×15画素:図7(c))と最も相関が高い領域を右視差画像(図7(d))の中から探索する。   First, a region of interest of 15 × 15 pixels is set in the left parallax image with the focus point for obtaining the parallax amount as the center (FIGS. 7A and 7B). Then, a region having the highest correlation with the region of interest (15 × 15 pixels: FIG. 7C) of the left parallax image is searched from the right parallax image (FIG. 7D).

その際、画像全面から探索すると計算時間が掛かるので、探索する領域を20×20画素に制限する。すなわち、左視差画像の視差量を求める点を中心として右視差画像中の20×20画素の範囲で探索を行う。   At this time, since it takes a calculation time to search from the entire image, the search area is limited to 20 × 20 pixels. That is, the search is performed in the range of 20 × 20 pixels in the right parallax image with the point for obtaining the parallax amount of the left parallax image as the center.

視差量を求める注目点は左視差画像中の全ての点とし、各点について右視差画像中で最も相関が高くなる領域を探索するが、1画素ごとに探索を行うのではなく、たとえば4画素程度の間隔を開けて探索を行ってもよい。   The attention points for obtaining the amount of parallax are all points in the left parallax image, and an area having the highest correlation in the right parallax image is searched for each point, but instead of searching for each pixel, for example, four pixels The search may be performed with a certain interval.

そして、左視差画像中の関心領域に対して最も相関が高くなった右視差画像中の領域の位置のずれを視差(視差画素数)として求める。このようにして視差量は、各注目点ごとに1つ算出される。   Then, the position shift of the region in the right parallax image having the highest correlation with the region of interest in the left parallax image is obtained as parallax (number of parallax pixels). In this way, one amount of parallax is calculated for each attention point.

上記の処理によって、特定の画素、ないし特定の部位の視差画素数、すなわち、特定の画素、ないし特定の部位が左右の視差画像で何画素ずれて撮影されているかを求めることができる。   Through the above processing, it is possible to obtain the number of parallax pixels of a specific pixel or a specific part, that is, how many pixels the specific pixel or the specific part is imaged in the left and right parallax images.

そして、光学系の倍率(ないし撮影距離)の条件を記録しておけば、撮影画面上の特定の画素、ないし特定の部位の視差画素数は、網膜(眼底)上における実際の視差量に変換することができる。   If the conditions of the magnification (or shooting distance) of the optical system are recorded, the number of parallax pixels on a specific pixel or specific part on the shooting screen is converted into the actual amount of parallax on the retina (fundus) can do.

特定の画素、ないし特定の部位の網膜(眼底)上における実際の視差量を求めれば、その特定の画素、ないし特定の部位の深さ(あるいは光軸に平行なz軸方向の座標値)を次のようにして求めることができる(図6のS163)。   If the actual amount of parallax on the retina (fundus) of a specific pixel or a specific part is obtained, the depth of the specific pixel or the specific part (or the coordinate value in the z-axis direction parallel to the optical axis) is obtained. It can be obtained as follows (S163 in FIG. 6).

ここで、特定の撮影において、撮影距離、および、絞り28a、28bの位置で定まる視差角度が8度であるものとし、ある特定部位の眼底上における視差量が上記の演算(S162)により0.1mmと算出された場合、図8に示すように三角測量の原理を用いてこの視差量から特定部位の深さ量(奥行き、ないしz軸方向の座標)は、
深さ量=(視差量/2)/tan(視差角/2) (式1)
により、0.715mm(視差量0の部位からの相対量)と算出される。
Here, in specific imaging, the parallax angle determined by the imaging distance and the positions of the stops 28a and 28b is 8 degrees, and the parallax amount on the fundus of a specific site is set to 0. 0 by the above calculation (S162). When calculated as 1 mm, the depth of the specific part (depth or coordinates in the z-axis direction) is calculated from this parallax amount using the principle of triangulation as shown in FIG.
Depth amount = (parallax amount / 2) / tan (parallax angle / 2) (Formula 1)
Is calculated to be 0.715 mm (relative amount from a part having a parallax amount of 0).

なお、眼底カメラの場合、撮影距離は撮影前のアライメントにより、特定のワーキングディスタンスに調整されるため、絞り28a、28bの位置により定まる視差角度(上の例では8度)は一定であるものとして3次元測定処理を行うことができる。   In the case of a fundus camera, since the shooting distance is adjusted to a specific working distance by alignment before shooting, the parallax angle (8 degrees in the above example) determined by the positions of the stops 28a and 28b is assumed to be constant. A three-dimensional measurement process can be performed.

さて、図1の眼底カメラの撮影光学系、すなわち、対物レンズ24…変倍レンズ38aには図5に示したような像歪があり、上記のようにして撮影される左右の視差画像もこの影響を受ける。   Now, the imaging optical system of the fundus camera in FIG. 1, that is, the objective lens 24... Variable magnification lens 38a has the image distortion as shown in FIG. to be influenced.

そこで、本実施例では、所定形状の被写体、特に、図3に示すような模型眼300をステレオ撮影し、本眼底カメラの光学系に起因する固有の形状歪をあらかじめ算出し、この歪に対応する、すなわち、この歪みを補正できる校正データを取得する。   Therefore, in this embodiment, a subject having a predetermined shape, in particular, a model eye 300 as shown in FIG. 3 is photographed in stereo, and an inherent shape distortion caused by the optical system of the fundus camera is calculated in advance, and this distortion is dealt with. That is, calibration data that can correct this distortion is acquired.

そして、この校正データに基づき、図6〜図8のようにして測定される3次元測定データとしての深さ量(奥行き、ないしz軸方向の座標)を補正する。また、同じ歪データを用いて、ステレオモニタ63で検者に立体視で観察させるステレオ画像を補正する。   Based on this calibration data, the depth amount (depth or coordinates in the z-axis direction) as the three-dimensional measurement data measured as shown in FIGS. 6 to 8 is corrected. Further, using the same distortion data, the stereo image that the examiner observes in stereoscopic view is corrected on the stereo monitor 63.

模型眼300は、図3に示すような人眼の光学特性を模擬(シミュレート)する形状に作成される。たとえば、模型眼300は、屈折率n=1.52程度の光学ガラスを切削、研磨するなどの手法により作成する。角膜模擬面(入射面)302の曲率はR7.7mm程度、網膜に相当する網膜模擬面301の曲率はR15mm程度の球面とする。これら2面の距離はたとえば22.6mm程度とする。   The model eye 300 is created in a shape that simulates (simulates) the optical characteristics of the human eye as shown in FIG. For example, the model eye 300 is created by a technique such as cutting and polishing optical glass having a refractive index n = 1.52. The curvature of the cornea simulated surface (incident surface) 302 is a spherical surface of about R7.7 mm, and the curvature of the simulated retina surface 301 corresponding to the retina is a spherical surface of about R15 mm. The distance between these two surfaces is about 22.6 mm, for example.

後述の校正撮影では、校正データを取得するための所定部位として模型眼300の眼底を模擬する眼底模擬面が撮影される。より詳細には、この眼底模擬面は本実施例の模型眼300では、網膜を模擬する面301として構成してある。網膜を模擬する面301はスリ(半透明)面に加工し、何らかの濃淡パターン(たとえば方眼パターンなどでもよい)を彫刻+着色、印刷などの手法で付与しておく。なお、後述の校正データ作成の際、処理が容易になるように、特定のパターンを特定の色に決めておくとよい。   In the later-described calibration imaging, a fundus simulating surface that simulates the fundus of the model eye 300 is imaged as a predetermined part for acquiring calibration data. More specifically, this fundus simulating surface is configured as a surface 301 that simulates the retina in the model eye 300 of this embodiment. The surface 301 simulating the retina is processed into a three-sided (semi-transparent) surface, and a certain shade pattern (for example, a square pattern or the like) is given by a technique such as engraving + coloring or printing. It should be noted that when creating calibration data, which will be described later, a specific pattern may be set to a specific color so as to facilitate processing.

なお、模型眼300は、図1の眼底カメラの顎載せ台310に、装着部材として所定形状に校正された治具311を介してワンタッチで着脱(たとえばラッチ結合や螺合などの構造を用いる)でき、装着時に、光学系に対して被検眼Eの(理想)位置とほぼ同一の位置に位置決めされるように構成しておくと便利である。   The model eye 300 is attached to and detached from the chin rest 310 of the fundus camera of FIG. 1 through a jig 311 calibrated to a predetermined shape as a mounting member (for example, using a structure such as latch coupling or screwing). It is convenient to configure the optical system so that it is positioned at substantially the same position as the (ideal) position of the eye E when mounted.

上記の模型眼300を用いて、図1の眼底カメラの出荷前、あるいは出荷後の任意のタイミングで、以下のように3次元測定に用いる画像データを補正するための校正データを取得することができる。   Using the above model eye 300, calibration data for correcting image data used for three-dimensional measurement can be acquired as follows at any timing before or after shipment of the fundus camera of FIG. it can.

まず、上記のような治具311などを用いて、模型眼300を被検眼Eの(理想)位置とほぼ同一の位置に位置決めし、上述の通り、左右の視差画像を撮影する。   First, the model eye 300 is positioned at substantially the same position as the (ideal) position of the eye E using the jig 311 as described above, and right and left parallax images are captured as described above.

撮影距離および倍率に関しても、校正処理のための一定の値となるように制御する。このため、光学系の位置や変倍リング(ダイヤル)などにノッチを設けておき、容易に校正処理のための撮影距離および倍率が選択できるように構成しておくと好都合である。   The photographing distance and the magnification are also controlled so as to be constant values for the calibration process. For this reason, it is convenient to provide a notch in the position of the optical system, the variable magnification ring (dial), etc. so that the photographing distance and magnification for calibration processing can be easily selected.

本実施例において、校正データは、模型眼300を撮影し、上記のようにして3次元形状を算出することで求めることができる。なお、眼底カメラの変倍レンズ38aにより、異なる撮影変倍条件で撮影が行われる場合には、校正データは各変倍条件ごとに求めておく。   In this embodiment, the calibration data can be obtained by photographing the model eye 300 and calculating the three-dimensional shape as described above. When photographing is performed under different photographing magnification conditions by the magnification lens 38a of the fundus camera, calibration data is obtained for each magnification condition.

この校正データは、図10(a)に示すように、模型眼300を撮影して求めた3次元形状(深さ情報(z座標)のカーブ)1002と、現実の模型眼300の形状1001との差分1003に相当するものである。この差分1003に相当する量の具体的な演算例については後述する。   As shown in FIG. 10A, the calibration data includes a three-dimensional shape (curve of depth information (z coordinate)) 1002 obtained by photographing the model eye 300, and a shape 1001 of the actual model eye 300. This is equivalent to the difference 1003. A specific calculation example of the amount corresponding to the difference 1003 will be described later.

図10(a)において、模型眼300を撮影して求めた3次元形状1002は、像歪の影響を受けており、本来、模型眼300の眼底形状は、1001のように求められなければならない。なお、ここでは、説明を容易にするため、模型眼300の眼底形状1001は、ほぼフラットな形状に図示してある。   In FIG. 10A, the three-dimensional shape 1002 obtained by photographing the model eye 300 is affected by image distortion, and the fundus shape of the model eye 300 must be obtained as 1001 originally. . Here, for ease of explanation, the fundus shape 1001 of the model eye 300 is illustrated in a substantially flat shape.

本実施例の校正データは、図10(a)に図示した通りの深さ量(z軸方向の座標)の差分1003の表現で記録しておくか、または、上記の3次元形状の測定で用いる視差量の差分により表現することができる(視差量が決まれば上記の式1から明らかなように、深さ量は一意に求められる)。   The calibration data of the present embodiment is recorded with the expression of the difference 1003 in the depth amount (coordinate in the z-axis direction) as shown in FIG. 10A, or by the measurement of the above three-dimensional shape. It can be expressed by the difference in the amount of parallax used (if the amount of parallax is determined, the depth amount is uniquely determined as apparent from the above equation 1).

そして、この校正データは、実際に被検眼を撮影して求めた眼底の3次元形状を補正して、現実の被検眼の眼底の3次元形状を得るために用いることができる。   The calibration data can be used to correct the three-dimensional shape of the fundus obtained by actually photographing the eye to be examined to obtain the three-dimensional shape of the fundus of the actual eye to be examined.

たとえば、図10(b)のように、被検眼眼底の形状1004(深さ情報(z座標)のカーブ)が測定された場合、差分1003を表現する校正データを作用させることにより、図10(c)のように被検眼の眼底形状1005を補正することができる(ここでも説明を容易にするため、被検眼の眼底形状1005はほぼフラットな形状に図示してある)。   For example, as shown in FIG. 10B, when the shape 1004 (depth information (z coordinate) curve) of the fundus of the eye to be examined is measured, the calibration data expressing the difference 1003 is applied to act as shown in FIG. The fundus shape 1005 of the eye to be examined can be corrected as in c) (the fundus shape 1005 of the eye to be examined is shown in a substantially flat shape for the sake of easy explanation).

上記のようにして求めた校正データは、テーブル形式でHDDや不揮発メモリなどに記録しておくことができる。   The calibration data obtained as described above can be recorded in an HDD or a non-volatile memory in a table format.

たとえば、深さ量(z軸方向の座標)表現の校正データの場合は、上記3次元測定処理により、撮影画像深さ量(z軸方向の座標)まで求めた後で適用するため、3次元形状データの横座標(xy座標、あるいは画像中心(光軸)からの極座標表現でもよい)に関連づけて記録しておく。そして、眼底形状データ内の所定部位の横座標を用いて、テーブルから校正データを読み出し、適用すれば、当該部位の補正された深さ量(z軸方向の座標)を求めることができる。   For example, in the case of calibration data representing a depth amount (coordinate in the z-axis direction), since it is applied after obtaining the captured image depth amount (coordinate in the z-axis direction) by the above three-dimensional measurement process, the three-dimensional The shape data is recorded in association with the abscissa (xy coordinate or polar coordinate expression from the image center (optical axis)). Then, if calibration data is read from the table using the abscissa of the predetermined part in the fundus shape data and applied, the corrected depth amount (coordinate in the z-axis direction) of the part can be obtained.

また、校正データが、上記の3次元形状の測定で用いる視差量の表現である場合には、視差量測定処理は、視差画像中の特定の間隔の注目点(上の例では4画素程度)で行うので、注目点ごとに視差量表現の校正データをテーブル形式で記録しておけばよい。そして、図6の視差量算出処理(ステップS162)の段階で、処理中の注目点(点番号や画素アドレス)に基づき、テーブルデータを参照し、視差量表現の校正データを読み出し、深さ量算出(ステップS163)に用いる視差量に適用すればよい。   In addition, when the calibration data is a representation of the amount of parallax used in the measurement of the three-dimensional shape, the parallax amount measurement processing is performed with attention points at specific intervals in the parallax image (about 4 pixels in the above example). Therefore, the calibration data representing the parallax amount may be recorded in a table format for each point of interest. Then, at the stage of the parallax amount calculation process (step S162) in FIG. 6, based on the attention point (point number or pixel address) being processed, the table data is referred to, the calibration data representing the parallax amount expression is read, and the depth amount What is necessary is just to apply to the amount of parallax used for calculation (step S163).

上記のようなテーブル構成による校正データを用いることにより、極めて小さな演算負荷により、高速に像歪補正を行うことができる。   By using the calibration data having the table configuration as described above, it is possible to perform image distortion correction at a high speed with an extremely small calculation load.

図9は、上記の形状歪補正および実際の眼底ステレオ撮影の流れを示している。   FIG. 9 shows a flow of the above-described shape distortion correction and actual fundus stereo photography.

図9のステップS901、S902は、図1の眼底カメラの出荷前、あるいは出荷後の任意のタイミングで行われる校正撮影、および校正データ取得処理を示している。   Steps S901 and S902 in FIG. 9 show calibration photographing and calibration data acquisition processing performed at any timing before or after shipment of the fundus camera in FIG.

ステップS901では、上述のようにして模型眼300をステレオ撮影し、ステップS902では、上述のようにして校正データを求める。   In step S901, the model eye 300 is photographed in stereo as described above, and in step S902, calibration data is obtained as described above.

すなわち、ステップS902では、模型眼300の左右の視差画像から視差量を注目点ごとに算出し、模型眼300の形状データ(図10(a)の1002)を求める。模型眼300の眼底形状(図10(a)の1001)は既知であるため、両者の差分(上記の深さ量または視差量による表現)として校正データを取得することができる。取得した校正データは、上述のようにHDDや不揮発メモリなどに記録しておく。   That is, in step S902, the amount of parallax is calculated for each point of interest from the left and right parallax images of the model eye 300, and the shape data of the model eye 300 (1002 in FIG. 10A) is obtained. Since the fundus shape of the model eye 300 (1001 in FIG. 10A) is known, calibration data can be acquired as the difference between them (representation by the depth amount or parallax amount). The acquired calibration data is recorded in the HDD or nonvolatile memory as described above.

その後、ステップS161以降において実際の眼底のステレオ撮影が行われる。図9のステップS161、S162’、S163’は、図6のステレオ撮影(S161)、視差画素数測定(S162)、深さ量算出(S163)の処理とほぼ同じであるが、図9ではステップS162’、または、S163’で上記のようにしてテーブル形式で記録した校正データを用いて補正する処理を行う。   Thereafter, actual stereo imaging of the fundus is performed after step S161. Steps S161, S162 ′, and S163 ′ in FIG. 9 are substantially the same as the stereo shooting (S161), parallax pixel number measurement (S162), and depth amount calculation (S163) in FIG. In S162 ′ or S163 ′, correction processing is performed using the calibration data recorded in the table format as described above.

すなわち、上記のように校正データが視差量による表現の場合には、ステップS162の視差画素数測定の段階で補正を行う。あるいは、校正データが深さ量による表現の場合には、ステップS163の深さ量算出の段階で補正を行う。   That is, when the calibration data is expressed by the amount of parallax as described above, correction is performed at the stage of measuring the number of parallax pixels in step S162. Alternatively, when the calibration data is expressed by a depth amount, correction is performed at the depth amount calculation stage in step S163.

このようにして、左右の撮影画像に対して、光学系に固有の形状歪補正を適用した上で、ステップS162およびS163の視差画素数測定、深さ量算出を正確に行うことができる。   In this way, it is possible to accurately measure the number of parallax pixels and calculate the depth amount in steps S162 and S163 after applying the shape distortion correction inherent to the optical system to the left and right captured images.

さらに、同じ校正データを用いて、ステップS170で、撮影画像、たとえばステレオモニタ63で検者に立体視で観察させるステレオ画像を補正することができる。このステレオモニタ63による3D表示は、必ずしも図9に示したように校正処理(ステップS162’、S163’)に続き順次行うべきものではなく、テーブルデータとして用意した校正データを用い、たとえば校正処理と同時に実行することができる。   Furthermore, using the same calibration data, in step S170, a captured image, for example, a stereo image that the examiner observes in stereoscopic view on the stereo monitor 63 can be corrected. The 3D display by the stereo monitor 63 is not necessarily performed sequentially following the calibration processing (steps S162 ′ and S163 ′) as shown in FIG. 9, but using calibration data prepared as table data, for example, calibration processing and Can be executed at the same time.

図11、および図12は、ステップS170において、ステレオモニタ63による3D表示画像を校正する処理の概要を示したものである。ここでは、説明を容易にするため、深さ方向校正の方向と、z軸方向の関係を図10とは逆にとってある。   11 and 12 show an outline of processing for calibrating a 3D display image by the stereo monitor 63 in step S170. Here, for ease of explanation, the relationship between the direction of depth direction calibration and the z-axis direction is opposite to that in FIG.

図11、および図12は、図1の光学系で模型眼300を撮影した場合の結像関係を示したものである。図11、および図12において、a面およびb面はCCD41で撮影されるそれぞれ右、左の視差画像面に相当し、物点側の共役位置に図示されている。なお、ここでは、図の理解を容易にするため、実際には直線上に一致しているa面およびb面を図の上下に少しずらして図示している。   FIG. 11 and FIG. 12 show the imaging relationship when the model eye 300 is photographed with the optical system of FIG. In FIGS. 11 and 12, the a-plane and the b-plane correspond to the right and left parallax image planes captured by the CCD 41, respectively, and are illustrated at conjugate positions on the object point side. Here, in order to facilitate understanding of the drawing, the a and b surfaces that are actually coincident with each other on the straight line are slightly shifted up and down in the drawing.

c面は模型眼構築面、すなわち、歪みを持つ図1の光学系で撮影された視差量から構築された模型眼の3次元形状で、模型眼の本来の形状に相当する校正基準面であるd面に補正されるべき3次元形状である。   The c-plane is a model eye construction plane, that is, a calibration reference plane corresponding to the original shape of the model eye, which is a three-dimensional shape of the model eye constructed from the amount of parallax photographed by the optical system of FIG. A three-dimensional shape to be corrected to the d-plane.

ここで、以下の説明を容易にするため、d面、すなわち、本来の模型眼の形状は、平面であって、c面とd面は、光軸(z軸に一致)上の補正基準点C0において一致するものとする。   Here, in order to facilitate the following description, the d-plane, that is, the original model eye shape is a plane, and the c-plane and d-plane are correction reference points on the optical axis (coincident with the z-axis). Assume that they match at C0.

すなわち、補正基準点C0においては、xyz各軸方向の補正量は0であり、以下では、補正基準点C0以外のc面上の座標をd面に移動(たとえば下記の点(Xc,Zc)から点(Xd,Zd)への移動)した時に、これに応じてどのようにa面、およびb面内の画素を平行移動すれば良いかを示す。   That is, at the correction reference point C0, the correction amount in each of the xyz axial directions is 0. In the following, the coordinates on the c plane other than the correction reference point C0 are moved to the d plane (for example, the following points (Xc, Zc) This shows how the pixels in the a and b planes should be translated in accordance with the movement from the point to the point (Xd, Zd).

なお、補正基準点C0のa面(右視差画像面)における結像点の座標は(a0、f)であるものとする。   It is assumed that the coordinates of the image forming point on the a-plane (right parallax image plane) of the correction reference point C0 are (a0, f).

また、点(Pa,0)、(Pb,0)は、それぞれ右瞳位置、および左瞳位置で、被検眼前眼部(瞳)に一致した絞り28a、28bの共役位置に相当する。また、上述の撮影距離の設定により、左右の瞳と上記のa面およびb面(右、左の視差画像面)の距離は被検眼の眼球焦点距離fに一致する。   Points (Pa, 0) and (Pb, 0) correspond to the conjugate positions of the stops 28a and 28b that coincide with the anterior eye part (pupil) of the eye to be examined at the right pupil position and the left pupil position, respectively. In addition, the distance between the left and right pupils and the above-described a-plane and b-plane (right and left parallax image planes) matches the eyeball focal length f of the eye to be inspected by the setting of the photographing distance.

なお、ここでは、xz平面を用い、a面およびb面の画像のx軸方向に関する補正について説明するが、以下の説明はxをyに読み換えればyz平面についても通用し、同様にしてa面およびb面の画像のy軸方向に関する補正も行うことができる。   Here, the xz plane will be used to explain the correction of the a-plane and b-plane images in the x-axis direction. However, the following explanation is valid for the yz plane if x is replaced with y. Correction regarding the y-axis direction of the image of the surface and b-plane can also be performed.

ここで、図1の光学系で模型眼300を撮影した場合、図11のc面(模型眼構築面)が上述の深さ量として測定される。この形状は、図1の光学系の歪みを反映して周辺部が遠く(凹んだ)形状として演算される。   Here, when the model eye 300 is photographed with the optical system of FIG. 1, the c-plane (model eye construction surface) of FIG. 11 is measured as the above-described depth amount. This shape is calculated as a shape in which the peripheral portion is far (dented) reflecting the distortion of the optical system in FIG.

すなわち、a面およびb面(右、左の視差画像面)上に(Xa,f)、(Xb,f)として撮影される対応点から、c面(模型眼構築面)上の点(Xc,Zc)が求められる。   That is, from the corresponding points photographed as (Xa, f) and (Xb, f) on the a-plane and b-plane (right and left parallax image planes), the point (Xc) on the c-plane (model eye construction plane) , Zc).

そして、上述の通り、たとえば、テーブルデータとして深さ量の差分Δzを記録しておけば、点(Xc,Zc)を点(Xd,Zd)に補正する処理が可能となる。   As described above, for example, if the depth amount difference Δz is recorded as the table data, the process of correcting the point (Xc, Zc) to the point (Xd, Zd) becomes possible.

ここで、相似3角形の演算より、点(Xc,Zc)のx座標値Xc、およびz座標値Zcは
Xc=(Pa・Xb−Pb・Xa)/((Pa−Pb)−(Xa−Xb)) (式2)
Zc=f・(Pa−Pb)/((Pa−Pb)−(Xa−Xb)) (式3)
次にこの点(Xc,Zc)をz軸方向にシフトさせ、d面(校正基準面)上の点(Xd,Zd)を算出する。点(Xd,Zd)のx、y座標値Xd、Zdはそれぞれ
Xd=Xc (式4)
Zd=f・Pa/(Pa−a0) (式5)
と対応づけることができる。
Here, from the calculation of the similar triangle, the x coordinate value Xc and the z coordinate value Zc of the point (Xc, Zc) are: Xc = (Pa · Xb−Pb · Xa) / ((Pa−Pb) − (Xa− Xb)) (Formula 2)
Zc = f · (Pa−Pb) / ((Pa−Pb) − (Xa−Xb)) (Formula 3)
Next, this point (Xc, Zc) is shifted in the z-axis direction to calculate a point (Xd, Zd) on the d-plane (calibration reference plane). The x and y coordinate values Xd and Zd of the point (Xd, Zd) are respectively Xd = Xc (Formula 4)
Zd = f · Pa / (Pa−a0) (Formula 5)
Can be associated.

したがって、深さ量の差分Δzは
Δz=Zd−Zc (式6)
として求めることができる。ここで、Zd、Zcは既に式5および式3で得られる値を使う。このΔzは上述の校正データとしてテーブルに格納することもできる。
Therefore, the depth difference Δz is expressed as: Δz = Zd−Zc (Formula 6)
Can be obtained as Here, Zd and Zc already use values obtained by Equation 5 and Equation 3. This Δz can also be stored in the table as the calibration data described above.

さらに、ステレオモニタ63による3D表示画像を補正するには、図11で示したa面およびb面(右、左の視差画像面)上の(Xa,f)、(Xb,f)の位置を、図12に示すようにa面およびb面内で補正しなければならない。つまり、校正基準面であるd面上の点(Xd,Zd)を新たな構築点とするには、a面およびb面上に撮影されるべき対応点は図12において(Xa’,f)、(Xb’,f)の位置に補正すべきである。   Furthermore, in order to correct the 3D display image by the stereo monitor 63, the positions of (Xa, f) and (Xb, f) on the a and b planes (right and left parallax image planes) shown in FIG. As shown in FIG. 12, correction must be made in the a and b planes. That is, in order to make the point (Xd, Zd) on the d-plane which is the calibration reference plane as a new construction point, the corresponding points to be photographed on the a-plane and the b-plane are (Xa ′, f) in FIG. , (Xb ′, f).

図12の点(Xa’,f)、(Xb’,f)は、補正後の点(Xd,Zd)を撮影してa面およびb面(右、左の視差画像面)にそれぞれ撮影される対応点を示している。   The points (Xa ′, f) and (Xb ′, f) in FIG. 12 are photographed on the a-plane and b-plane (right and left parallax image planes) by photographing the corrected point (Xd, Zd). The corresponding points are shown.

ここで点(Xa’,f)、(Xb’,f)のx座標Xa’およびXb’は、
Xa’=(Zd・Pa−f・Pa−f・Xd)/(Zd−2f) (式7)
Xb’=(Zd・Pb−f・Pb−f・Xd)/(Zd−2f) (式8)
と求めることができる。
Here, the x coordinates Xa ′ and Xb ′ of the points (Xa ′, f) and (Xb ′, f) are
Xa '= (Zd.Pa-f.Pa-f.Xd) / (Zd-2f) (Formula 7)
Xb ′ = (Zd · Pb−f · Pb−f · Xd) / (Zd−2f) (Formula 8)
It can be asked.

以上のようにして、点(Xc,Zc)を点(Xd,Zd)に補正(ただしXc=Xd)、すなわち、深さ方向(z軸方向)の補正が行えれば、x軸方向にa面およびb面の右、左の視差画像中の対応点の位置を補正することができる。この対応点の位置の補正は、実際には右、左の視差画像中の画素の移動処理により行なうことができる。   As described above, if the point (Xc, Zc) is corrected to the point (Xd, Zd) (Xc = Xd), that is, if correction in the depth direction (z-axis direction) can be performed, a in the x-axis direction The positions of corresponding points in the right and left parallax images of the plane and b plane can be corrected. The correction of the position of the corresponding point can actually be performed by moving a pixel in the right and left parallax images.

図11および図12では、xz平面内におけるx軸方向の補正(校正)を示したが、yz平面内におけるy方向の補正(校正)も同様に行うことができる。煩雑となるのでここではyz平面内におけるy軸方向の補正(校正)については図示を省略するが、その場合、図11および図12中のx座標に関する表記をy座標に読み換えれば図示の処理はyz平面内におけるy方向の補正(校正)と同等の処理になる。   11 and 12 show the correction (calibration) in the x-axis direction in the xz plane, the correction (calibration) in the y direction in the yz plane can be performed in the same manner. In this case, illustration of the correction (calibration) in the y-axis direction in the yz plane is omitted, but in this case, the processing shown in FIG. 11 and FIG. Is equivalent to the correction (calibration) in the y direction in the yz plane.

このようにして、a面およびb面の右、左の視差画像中の対応点(画素)の位置をxy平面内で補正した補正画像データを得ることができる。得られた補正画像データは、表示、記録出力(たとえばプリント)したり、データベースレコードとして外部記憶装置や他の処理装置(コンピュータなど)にデータ転送したりすることができる。   In this way, it is possible to obtain corrected image data in which the positions of corresponding points (pixels) in the right and left parallax images on the a and b planes are corrected in the xy plane. The obtained corrected image data can be displayed, recorded and output (for example, printed), or transferred as a database record to an external storage device or another processing device (such as a computer).

たとえば、上記のようにして補正した左右の補正画像データをステレオモニタ63により3D表示すれば、その3D表示画像の見え方が補正されることになる。すなわち、ステレオモニタ63を介した3D表示上において、補正前は図11および図12のc面として検者に知覚される形状をd面として知覚されるように校正することができる。   For example, if the left and right corrected image data corrected as described above is displayed in 3D on the stereo monitor 63, the appearance of the 3D display image is corrected. That is, on the 3D display via the stereo monitor 63, before correction, the shape perceived by the examiner as the c-plane in FIGS. 11 and 12 can be calibrated so as to be perceived as the d-plane.

なお、図11および図12の説明では、d面が補正基準点C0においてc面に一致する平面である(に近似される)場合の演算例を示した。この場合には上述のように簡単な幾何演算によって点(Xc,Zc)から(Xd,Zd)への深さ方向の補正(Δzの算出)、および視差画像の補正が行える。しかしながら、たとえば、d面の表現には、模型眼をあらかじめ実測して得られた(あるいは模型眼の設計データから得られた)深さデータ(z軸データ)を用いることもできる。その場合には、たとえば、撮影データから構築されたc面上の点(Xc,Zc)とd面上でx座標が一致する点(Xd,Zd)を対応づけ、その点(Xd,Zd)から、式7および式8から明かなように、点(Xc,Zc)に対応する左右の視差画像上の補正後の画素の座標を容易に求めることができる(y軸についても同様)。   In the description of FIG. 11 and FIG. 12, an example of calculation in the case where the d-plane is a plane that coincides with (is approximated to) the c-plane at the correction reference point C0 is shown. In this case, the correction in the depth direction (calculation of Δz) from the point (Xc, Zc) to (Xd, Zd) and the correction of the parallax image can be performed by a simple geometric operation as described above. However, for example, depth data (z-axis data) obtained by actually measuring a model eye in advance (or obtained from design data of the model eye) can also be used for the d-plane representation. In this case, for example, a point (Xc, Zc) on the c plane constructed from the photographing data is associated with a point (Xd, Zd) having the same x coordinate on the d plane, and the point (Xd, Zd) Thus, as is clear from Equations 7 and 8, the corrected pixel coordinates on the left and right parallax images corresponding to the point (Xc, Zc) can be easily obtained (the same applies to the y-axis).

以上のようにして、本実施例によれば、被検眼眼底をステレオ撮影光学系を介してステレオ撮影し、得られた撮影画像データに対して3次元測定処理を行う画像処理装置において、実際に撮影に用いられる光学系の歪みを補正し、眼底画像に対して正確な3次元測定処理を行え、被検眼眼底の立体形状を正確に評価でき、誤診などの問題を回避することができる。   As described above, according to the present embodiment, in the image processing apparatus that performs the three-dimensional measurement processing on the obtained photographed image data by actually photographing the fundus of the eye to be examined through the stereo photographing optical system. It is possible to correct distortion of the optical system used for photographing, perform accurate three-dimensional measurement processing on the fundus image, accurately evaluate the three-dimensional shape of the fundus of the eye to be examined, and avoid problems such as misdiagnosis.

たとえば、図4のような眼底画像141の場合、上記のような補正を行うことにより、P〜P’線上で符号142のように乳頭部分143の形状を正確に反映した立体形状を深さ情報(z軸座標値)として求めることができる。   For example, in the case of the fundus image 141 as shown in FIG. 4, by performing the correction as described above, a three-dimensional shape that accurately reflects the shape of the nipple portion 143 on the line P-P ′ is represented by depth information. (Z-axis coordinate value).

さらに、本実施例によれば、光学系の歪みを補正した3次元測定結果に対応する正確な眼底画像を提供する、特にステレオモニタを介して検者に観察させることができる。上記の構成(補正)処理によれば、撮影した左右の視差画像を3D表示し、撮影した被検眼眼底を立体視で検者に観察させるに際し、形状データの補正に応じた形状で被検眼眼底の形状を検者が観察(知覚)できるように、3D表示用の画像(左右の視差画像)を補正することができるので、検者は3D表示画像の知覚を介しても被検眼眼底の立体形状を正確に評価できる。   Furthermore, according to the present embodiment, it is possible to provide an accurate fundus image corresponding to the three-dimensional measurement result in which the distortion of the optical system is corrected, in particular, to allow the examiner to observe through a stereo monitor. According to the above configuration (correction) processing, the captured right and left parallax images are displayed in 3D, and when the photographed eye fundus is observed by the examiner in stereoscopic view, the fundus eye to be examined has a shape corresponding to the correction of the shape data. 3D display images (left and right parallax images) can be corrected so that the examiner can observe (perceive) the shape of the 3D display image. The shape can be accurately evaluated.

なお、上述の通り、図11および図12に示した校正処理をx軸およびy軸に沿って行うことにより、3D表示画像のxy平面における形状補正を行うことができる。しかしながら、図11および図12に示した校正処理は、3D表示を行うことのみを目的としたものではなく、左ないし右の視差画像のみを測定画像として利用する場合に実施しても充分効果がある。   As described above, by performing the calibration process shown in FIGS. 11 and 12 along the x-axis and the y-axis, it is possible to correct the shape of the 3D display image on the xy plane. However, the calibration processing shown in FIGS. 11 and 12 is not intended only for 3D display, and is sufficiently effective when performed only when the left or right parallax image is used as a measurement image. is there.

なぜなら、上述の光学系で撮影される左右の視差画像は、光学系の光軸から偏心した絞り開口を介して撮影されるため、画像の歪みは左右不均等に生じる。そして、原理上、図11および図12に示した校正処理は、この左右不均等な画像の歪みを補正することができるものであるから、たとえば、光軸上の絞りを介して撮影した場合とほぼ同等の画像に歪みを補正することができ、歪みのない正確な眼底測定画像を得ることができるようになる。   This is because the left and right parallax images photographed by the above-described optical system are photographed through a diaphragm aperture that is decentered from the optical axis of the optical system, so that the image distortion occurs unevenly. In principle, the calibration process shown in FIGS. 11 and 12 can correct the distortion of the left-right unequal image. For example, when the image is photographed through an aperture on the optical axis, Distortion can be corrected to a substantially equivalent image, and an accurate fundus measurement image without distortion can be obtained.

さらに、本実施例の校正処理は、被検眼の形状および光学的構造を模擬する模型眼を撮影して得た校正データを用いて容易に行うことができる。校正データは深さ量または視差量により表現された差分として記録され、軽い計算負荷で容易に眼底の深さ情報(3次元形状データ)を補正することができ、さらに同じ校正データを用いて図11および図12に示したようなシンプルな幾何演算によって表示用、あるいは記録用の眼底画像を補正することができる。   Furthermore, the calibration process of the present embodiment can be easily performed using calibration data obtained by photographing a model eye that simulates the shape and optical structure of the eye to be examined. Calibration data is recorded as a difference expressed by depth or parallax, and fundus depth information (three-dimensional shape data) can be easily corrected with a light calculation load. The fundus image for display or recording can be corrected by a simple geometric operation as shown in FIGS.

また、校正データを求めるためにステレオ撮影する被写体は、理論上は方眼紙のような被写体であっても構わない。しかしながら、上記実施例のように、被検眼の形状および光学的構造を模擬する模型眼を用いることにより、他の撮影条件や演算条件を変更することなく容易に校正測定および演算を行うことができる。   In addition, the subject to be stereo-photographed to obtain the calibration data may theoretically be a subject such as graph paper. However, by using a model eye that simulates the shape and optical structure of the eye to be examined as in the above embodiment, calibration measurement and calculation can be easily performed without changing other imaging conditions and calculation conditions. .

また、上記の治具311のような模型眼装着用アダプタなどを設けておくことにより、容易に校正測定および演算を行うことができ、また、模型眼、治具311、模型眼装着用アダプタなどの製品を校正用のキットや拡張部品としてユーザや保守を行う業者に供給、販売することができる。   Further, by providing a model eye wearing adapter such as the jig 311 described above, calibration measurement and calculation can be easily performed, and the model eye, the jig 311, the model eye wearing adapter, etc. This product can be supplied and sold to users and maintenance companies as calibration kits and expansion parts.

本発明は、被検眼眼底をステレオ撮影光学系を介してステレオ撮影し、得られた撮影画像データに対して3次元測定処理あるいはさらに撮影画像の表示/記録処理を行う眼底カメラのような画像処理装置において実施することができる。   The present invention provides an image processing such as a fundus camera that performs stereo imaging of the fundus of a subject's eye via a stereo imaging optical system and performs three-dimensional measurement processing or further display / recording processing of the captured image on the obtained captured image data. It can be implemented in the device.

本発明を採用した画像処理装置として、眼底カメラの構成を示した説明図である。It is explanatory drawing which showed the structure of the retinal camera as an image processing apparatus which employ | adopted this invention. 図1の撮影絞り廻りの構成を示した説明図である。It is explanatory drawing which showed the structure around the imaging | photography diaphragm of FIG. 図1の装置において用いられる模型眼を示した説明図である。It is explanatory drawing which showed the model eye used in the apparatus of FIG. 図1の装置において得られる眼底の立体形状測定結果を示した説明図である。It is explanatory drawing which showed the three-dimensional shape measurement result of the fundus oculi obtained in the apparatus of FIG. 従来の立体撮影における像歪の問題を示した説明図である。It is explanatory drawing which showed the problem of the image distortion in the conventional stereo photography. 図1の装置におけるステレオ撮影処理、および3次元測定処理を示したフローチャート図である。It is the flowchart figure which showed the stereo imaging | photography process and three-dimensional measurement process in the apparatus of FIG. 図1の装置における視差量測定処理の様子を示した説明図である。It is explanatory drawing which showed the mode of the parallax amount measurement process in the apparatus of FIG. 図1の装置における深さ量(z軸座標)測定の様子を示した説明図である。It is explanatory drawing which showed the mode of depth amount (z-axis coordinate) measurement in the apparatus of FIG. 図1の装置における校正および撮影処理を示したフローチャート図である。It is the flowchart figure which showed the calibration and imaging | photography process in the apparatus of FIG. 図1の装置における深さ(z軸)方向の校正処理を示した説明図である。It is explanatory drawing which showed the calibration process of the depth (z-axis) direction in the apparatus of FIG. 図1の装置におけるステレオ表示画像の校正処理を示した説明図である。It is explanatory drawing which showed the calibration process of the stereo display image in the apparatus of FIG. 図1の装置におけるステレオ表示画像の校正処理を示した説明図である。It is explanatory drawing which showed the calibration process of the stereo display image in the apparatus of FIG.

符号の説明Explanation of symbols

10 眼底カメラ
24 対物レンズ
28 撮影絞り
28a、28b 開口
300 模型眼
301 網膜模擬面
302 角膜模擬面
311 治具
DESCRIPTION OF SYMBOLS 10 Fundus camera 24 Objective lens 28 Imaging stop 28a, 28b Aperture 300 Model eye 301 Retina simulation surface 302 Cornea simulation surface 311 Jig

Claims (8)

被検眼眼底を眼底撮影光学系を介して所定の視差でステレオ撮影し、得られた視差画像を用いて3次元形状測定処理を行う画像処理装置において、
所定形状の被写体を前記眼底撮影光学系を介して前記所定の視差でステレオ撮影し、得られた視差画像の画像データに基づき前記被写体の所定部位の3次元形状を測定し、
前記所定部位の実際の3次元形状と前記画像データに基づき測定された前記所定部位の3次元形状との差分に相当するとともに、前記3次元形状測定処理において補正すべき視差量により表現された校正データを作成し、
前記校正データを用いて被検眼眼底のステレオ撮影で得られた3次元形状データに対して形状歪補正を行うとともに、
前記校正データを用いて被検眼眼底のステレオ撮影で得られた視差画像データに対して前記形状歪補正を加えることにより補正画像データを作成することを特徴とする画像処理装置。
In an image processing apparatus that performs stereo imaging of the fundus of a subject's eye with a predetermined parallax via a fundus imaging optical system and performs a three-dimensional shape measurement process using the obtained parallax image.
Stereo shooting of a subject having a predetermined shape with the predetermined parallax through the fundus imaging optical system, and measuring a three-dimensional shape of a predetermined portion of the subject based on image data of the obtained parallax image,
A calibration that corresponds to the difference between the actual three-dimensional shape of the predetermined part and the three-dimensional shape of the predetermined part measured based on the image data, and that is expressed by the amount of parallax to be corrected in the three-dimensional shape measurement process Create data,
While performing shape distortion correction on the three-dimensional shape data obtained by stereo imaging of the fundus of the eye to be examined using the calibration data,
An image processing apparatus, wherein corrected image data is created by applying the shape distortion correction to parallax image data obtained by stereo imaging of the fundus of the eye to be examined using the calibration data.
被検眼眼底を眼底撮影光学系を介して所定の視差でステレオ撮影し、得られた視差画像を用いて3次元形状測定処理を行う画像処理装置において、
所定形状の被写体を前記眼底撮影光学系を介して前記所定の視差でステレオ撮影し、得られた視差画像の画像データに基づき前記被写体の所定部位の3次元形状を測定し、
前記所定部位の実際の3次元形状と前記画像データに基づき測定された前記所定部位の3次元形状との差分に相当するとともに、前記3次元形状測定処理において補正すべき深さ量により表現された校正データを作成し、
前記校正データを用いて被検眼眼底のステレオ撮影で得られた3次元形状データに対して形状歪補正を行うとともに、
前記校正データを用いて被検眼眼底のステレオ撮影で得られた視差画像データに対して前記形状歪補正を加えることにより補正画像データを作成することを特徴とする画像処理装置。
In an image processing apparatus that performs stereo imaging of the fundus of a subject's eye with a predetermined parallax via a fundus imaging optical system and performs a three-dimensional shape measurement process using the obtained parallax image.
Stereo shooting of a subject having a predetermined shape with the predetermined parallax through the fundus imaging optical system, and measuring a three-dimensional shape of a predetermined portion of the subject based on image data of the obtained parallax image,
This corresponds to the difference between the actual three-dimensional shape of the predetermined portion and the three-dimensional shape of the predetermined portion measured based on the image data, and is expressed by the depth amount to be corrected in the three-dimensional shape measurement process. Create calibration data,
While performing shape distortion correction on the three-dimensional shape data obtained by stereo imaging of the fundus of the eye to be examined using the calibration data,
An image processing apparatus, wherein corrected image data is created by applying the shape distortion correction to parallax image data obtained by stereo imaging of the fundus of the eye to be examined using the calibration data.
被検眼眼底を眼底撮影光学系を介して所定の視差でステレオ撮影し、得られた視差画像を用いて3次元形状測定処理を行う画像処理装置において、
所定形状の被写体を前記眼底撮影光学系を介して前記所定の視差でステレオ撮影し、得られた視差画像の画像データに基づき前記被写体の所定部位の3次元形状を測定し、
前記所定部位の実際の3次元形状と前記画像データに基づき測定された前記所定部位の3次元形状との差分に相当するとともに、3次元形状データの横座標、または前記眼底撮影光学系によりステレオ撮影される視差画像中の特定部位に関連づけられてテーブル形式で作成された校正データを作成し、
前記校正データを用いて被検眼眼底のステレオ撮影で得られた3次元形状データに対して形状歪補正を行うとともに、
前記校正データを用いて被検眼眼底のステレオ撮影で得られた視差画像データに対して前記形状歪補正を加えることにより補正画像データを作成することを特徴とする画像処理装置。
In an image processing apparatus that performs stereo imaging of the fundus of a subject's eye with a predetermined parallax via a fundus imaging optical system and performs a three-dimensional shape measurement process using the obtained parallax image.
Stereo shooting of a subject having a predetermined shape with the predetermined parallax through the fundus imaging optical system, and measuring a three-dimensional shape of a predetermined portion of the subject based on image data of the obtained parallax image,
This corresponds to the difference between the actual three-dimensional shape of the predetermined part and the three-dimensional shape of the predetermined part measured based on the image data, and is stereo-photographed using the abscissa of the three-dimensional shape data or the fundus photographing optical system. Create calibration data created in table format in association with a specific part in the parallax image
While performing shape distortion correction on the three-dimensional shape data obtained by stereo imaging of the fundus of the eye to be examined using the calibration data,
An image processing apparatus, wherein corrected image data is created by applying the shape distortion correction to parallax image data obtained by stereo imaging of the fundus of the eye to be examined using the calibration data.
請求項1〜3のいずれか1項に記載の画像処理装置において、前記被写体が、人眼の形状および光学特性を模擬するとともに、所定の濃淡パターンを付与した眼底模擬面を前記所定部位として有する模型眼であることを特徴とする画像処理装置。 4. The image processing apparatus according to claim 1, wherein the subject has a simulated fundus oculi surface having a predetermined shading pattern as the predetermined portion while simulating the shape and optical characteristics of a human eye. An image processing apparatus characterized by being a model eye. 請求項1〜3のいずれか1項に記載の画像処理装置において、前記校正データが前記眼底撮影光学系の変倍条件ごとに作成されることを特徴とする画像処理装置。 The image processing apparatus according to claim 1, wherein the calibration data is created for each zooming condition of the fundus photographing optical system. 請求項に記載の画像処理装置において、前記模型眼を前記眼底撮影光学系に対して被検眼の位置とほぼ同一の位置に位置決めする装着部材を含むことを特徴とする画像処理装置。 5. The image processing apparatus according to claim 4 , further comprising a mounting member that positions the model eye at substantially the same position as the eye to be examined with respect to the fundus photographing optical system. 請求項1〜3のいずれか1項に記載の画像処理装置において、前記校正データを用いて被検眼眼底のステレオ撮影で得られた左右の視差画像データに対してそれぞれ前記形状歪補正を加えることにより左右の補正画像データを作成し、ステレオモニタを用いて立体表示を行うことを特徴とする画像処理装置。 4. The image processing device according to claim 1, wherein the shape distortion correction is applied to left and right parallax image data obtained by stereo imaging of the fundus of the eye to be examined using the calibration data. 5. An image processing apparatus, wherein left and right corrected image data are generated by the three-dimensional display using a stereo monitor. 請求項に記載の画像処理装置において、前記校正データを用いた幾何演算によって被検眼眼底のステレオ撮影で得られた視差画像データに対して前記形状歪補正を加えることにより補正画像データを作成することを特徴とする画像処理装置。 3. The image processing apparatus according to claim 2 , wherein corrected image data is created by applying the shape distortion correction to parallax image data obtained by stereo imaging of the fundus of the eye to be examined by geometric calculation using the calibration data. An image processing apparatus.
JP2007185153A 2007-02-22 2007-07-17 Image processing device Expired - Fee Related JP5160823B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007185153A JP5160823B2 (en) 2007-07-17 2007-07-17 Image processing device
US12/070,323 US7625088B2 (en) 2007-02-22 2008-02-14 Image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007185153A JP5160823B2 (en) 2007-07-17 2007-07-17 Image processing device

Publications (2)

Publication Number Publication Date
JP2009022308A JP2009022308A (en) 2009-02-05
JP5160823B2 true JP5160823B2 (en) 2013-03-13

Family

ID=40394739

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007185153A Expired - Fee Related JP5160823B2 (en) 2007-02-22 2007-07-17 Image processing device

Country Status (1)

Country Link
JP (1) JP5160823B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220148179A1 (en) * 2019-02-15 2022-05-12 Kowa Company, Ltd. Method for inspecting ophthalmic device, inspection jig for ophthalmic device, and ophthalmic device
WO2021079504A1 (en) * 2019-10-25 2021-04-29 株式会社ニコン Image processing method, image processing device, and program

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0746947Y2 (en) * 1989-06-08 1995-10-25 株式会社トプコン Model eye
JP4846912B2 (en) * 2000-03-22 2011-12-28 キヤノン株式会社 Ophthalmic imaging equipment
JP4653906B2 (en) * 2001-06-21 2011-03-16 株式会社トプコン Model eye for optometry equipment
JP4877891B2 (en) * 2001-08-03 2012-02-15 株式会社トプコン Calibration subject
JP4121881B2 (en) * 2003-03-28 2008-07-23 株式会社トプコン Three-dimensional observation state measuring apparatus and method
JP4551107B2 (en) * 2004-03-31 2010-09-22 株式会社トプコン Optical system alignment apparatus and method, and three-dimensional observation state measurement apparatus and method using the same
JP4699064B2 (en) * 2005-03-29 2011-06-08 株式会社ニデック Stereoscopic fundus image processing method and processing apparatus
JP4889030B2 (en) * 2007-02-22 2012-02-29 興和株式会社 Image processing device

Also Published As

Publication number Publication date
JP2009022308A (en) 2009-02-05

Similar Documents

Publication Publication Date Title
US7625088B2 (en) Image processing apparatus
JP4553578B2 (en) Ophthalmic apparatus and ophthalmic measurement method
US20190212533A9 (en) Surgical microscope with integrated optical coherence tomography and display systems
JP7379704B2 (en) System and method for integrating visualization camera and optical coherence tomography
CN114945089A (en) Stereoscopic visualization camera and platform
US20150335234A1 (en) Ophthalmologic apparatus
JP7404534B2 (en) Surgical applications using integrated visualization camera and optical coherence tomography
CN103989453B (en) Multifunctional measuring apparatus for ophthalmology department and method for testing different portions of human eyes
JP6525777B2 (en) Ophthalmic surgery system
JP4889030B2 (en) Image processing device
CN112512402A (en) Slit-lamp microscope and ophthalmological system
US11822089B2 (en) Head wearable virtual image module for superimposing virtual image on real-time image
US11806077B2 (en) Ophthalmologic apparatus, and ophthalmologic information processing apparatus
JP5160823B2 (en) Image processing device
JP2006122160A (en) Ophthalmic measurement apparatus
HUT71646A (en) Spatial refractometer
JP5108650B2 (en) Image processing method and image processing apparatus
JP5027624B2 (en) Image processing method and image processing apparatus
JP2022066325A (en) Ophthalmologic apparatus
JP5054579B2 (en) Image processing method and image processing apparatus
CN111759271B (en) Synoptophore
EP3644829B1 (en) Ophthalmological apparatus
JPH05161607A (en) Stereoscopic measuring retinal camera
JP2006271740A (en) Three-dimensional fundus image display apparatus
JP2020199210A (en) Ophthalmologic apparatus and method of controlling ophthalmologic apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100608

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120703

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121213

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151221

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees