JP2011250976A - Image processor, image processing method, and program - Google Patents

Image processor, image processing method, and program Download PDF

Info

Publication number
JP2011250976A
JP2011250976A JP2010126566A JP2010126566A JP2011250976A JP 2011250976 A JP2011250976 A JP 2011250976A JP 2010126566 A JP2010126566 A JP 2010126566A JP 2010126566 A JP2010126566 A JP 2010126566A JP 2011250976 A JP2011250976 A JP 2011250976A
Authority
JP
Japan
Prior art keywords
coordinate conversion
color
coordinates
fundus
pixel values
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010126566A
Other languages
Japanese (ja)
Other versions
JP5025761B2 (en
Inventor
Shinya Tanaka
信也 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010126566A priority Critical patent/JP5025761B2/en
Publication of JP2011250976A publication Critical patent/JP2011250976A/en
Application granted granted Critical
Publication of JP5025761B2 publication Critical patent/JP5025761B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To suppress a resolution deterioration that occurs when correcting chromatic aberration of magnification including chromatic aberration of magnification generated in a fundus camera optical system and also that generated in an eyeball optical system which is an object of photography.SOLUTION: An imaging element 19 photographs a fundus image by using light reflected by the fundus and entering the imaging element via color filters of a plurality of colors. In accordance with focusing conditions of the fundus photography, an image signal processing section 23 converts, by using coordinates of a pixel value of a specific color among the plurality of colors as reference coordinates, coordinates of pixel values of other colors, and calculates, on the basis of pixel values of the other colors after coordinate conversion, pixel values of the other colors at coordinates before coordinate conversion which correspond respectively to the pixel values of the other colors after coordinate conversion. The image signal processing section 23 then interpolates, on the basis of the pixel value of the specific color, pixel values of the specific color at other coordinates, and interpolates, on the basis of the interpolated pixel values of the specific color and the pixel values of the other colors at the coordinates before coordinate conversion, pixel values of the other colors at the other coordinates.

Description

本発明は、被検眼の眼底像を撮像するための技術に関するものである。   The present invention relates to a technique for capturing a fundus image of an eye to be examined.

医用画像データを撮像した際の撮像光学系の撮像条件に基づいて補正関数を作成し、その補正関数を基に医用画像データを補正する技術が知られている(例えば、特許文献1参照)。このような従来技術では、主に眼底カメラ光学系で発生する歪曲収差の補正を主眼としていた。ここで、歪曲収差は光軸を中心とした同心の変形であるため、画像の中心である光軸に対して同心円の補正を行うことになる。また、撮像条件として被検眼の乱視まで考慮した場合、この補正は同心円(回転対称)ではなくなるものの、乱視軸に対して線対称な補正を行うことが特許文献1に記載されている。さらに、歪曲収差をRGBの各色を対象に行うことにより、眼底カメラが有する倍率色収差の補正が可能なことが特許文献1に記載されている。   A technique is known in which a correction function is created based on imaging conditions of an imaging optical system when medical image data is captured, and medical image data is corrected based on the correction function (see, for example, Patent Document 1). In such a conventional technique, correction of distortion occurring mainly in the fundus camera optical system has been the main focus. Here, since the distortion is a concentric deformation around the optical axis, the concentric circle is corrected with respect to the optical axis that is the center of the image. Further, in the case where astigmatism of the eye to be examined is considered as the imaging condition, Patent Document 1 describes that correction is axisymmetric with respect to the astigmatism axis, although this correction is not concentric (rotationally symmetric). Further, Patent Document 1 describes that it is possible to correct lateral chromatic aberration of a fundus camera by performing distortion on each color of RGB.

特開平3−81879号公報Japanese Patent Laid-Open No. 3-81879

しかしながら、特許文献1には、眼底カメラが有する倍率色収差の補正方法についての具体的な記載はない。またこの補正は、RGB画像平面の全ての画素が生成された後の補正を前提としており、単板式カメラを用いた画素補完プロセスを考慮した補正方法については言及されていないため、必ずしも元画像の解像度を維持できるとは限らなかった。   However, Patent Document 1 does not specifically describe a method for correcting the lateral chromatic aberration of the fundus camera. This correction is based on the assumption that all the pixels in the RGB image plane have been generated, and no correction method considering a pixel complementation process using a single-plate camera is mentioned. It was not always possible to maintain the resolution.

そこで、本発明の目的は、単板式カメラを用いた画素補完プロセスを考慮して、眼底カメラ光学系で生ずる倍率色収差のみならず、撮影対象である眼球光学系で発生するものを含んだ倍率色収差を補正した場合に生じる解像度の低下を抑えることにある。   Accordingly, an object of the present invention is to consider a pixel complementation process using a single-plate camera, and not only chromatic aberration of magnification that occurs in the fundus camera optical system but also chromatic aberration of magnification including that that occurs in the eyeball optical system that is the subject of photographing. This is to suppress a decrease in resolution that occurs when correction is made.

本発明の画像処理装置は、被検眼の眼底を照明する照明手段と、複数色の色フィルタを介して前記眼底からの反射光を入射し、眼底像を撮像する撮像手段と、前記眼底の撮影時における合焦状態に応じて、前記複数色のうちの所定の色の画素値の座標を基準座標として他の色の画素値の座標を変換する座標変換手段と、座標変換後における前記他の色の画素値に基づいて、当該画素値に対応する座標変換前の座標における前記他の色の画素値を算出する算出手段と、前記所定の色の画素値に基づいて、前記所定の色における他の座標の画素値を補間する第1の補間手段と、前記第1の補間手段により画素値が補間された前記所定の色の画素値と、前記算出手段により座標変換前の座標における前記他の色の画素値とに基づいて、前記他の色における他の座標の画素値を補間する第2の補間手段とを有することを特徴とする。   An image processing apparatus according to the present invention includes an illuminating unit that illuminates the fundus of a subject's eye, an imaging unit that receives reflected light from the fundus through a plurality of color filters, and captures a fundus image, and imaging of the fundus A coordinate conversion means for converting the coordinates of pixel values of other colors using the coordinates of pixel values of a predetermined color of the plurality of colors as reference coordinates according to the in-focus state, and the other after the coordinate conversion Calculating means for calculating the pixel value of the other color at the coordinates before the coordinate conversion corresponding to the pixel value based on the pixel value of the color, and the pixel value of the predetermined color based on the pixel value of the predetermined color; First interpolation means for interpolating pixel values of other coordinates, pixel values of the predetermined color obtained by interpolating the pixel values by the first interpolation means, and the other in coordinates before coordinate conversion by the calculation means The other color based on the pixel value of the color of And having a second interpolation means for interpolating the pixel values of kicking other coordinates.

本発明によれば、単板式カメラを用いた画素補完プロセスを考慮して、眼底カメラ光学系で生ずる倍率色収差のみならず、撮影対象である眼球光学系で発生するものを含んだ倍率色収差を補正した場合に生じる解像度の低下を抑えることが可能となる。   According to the present invention, in consideration of the pixel complementation process using a single-plate camera, not only the lateral chromatic aberration that occurs in the fundus camera optical system, but also the lateral chromatic aberration that includes what occurs in the eyeball optical system that is the subject of photographing is corrected. Therefore, it is possible to suppress a decrease in resolution that occurs in the case of this.

本発明の実施形態に係る眼底カメラの構成を示す図である。It is a figure which shows the structure of the fundus camera which concerns on embodiment of this invention. 位置及びピント合わせを行うための表示画面の例を示す図である。It is a figure which shows the example of the display screen for performing a position and a focusing. 一般的な三色カラーフィルタの配置状態とRGBの各色フィルタの分光透過率を示す図である。It is a figure which shows the arrangement | positioning state of a general 3 color filter, and the spectral transmittance of each color filter of RGB. 本発明の実施形態における画素補間演算の方法を説明するための図である。It is a figure for demonstrating the method of the pixel interpolation calculation in embodiment of this invention. 画像信号処理部の構成を示す図である。It is a figure which shows the structure of an image signal process part. 眼底画像の倍率色収差を説明するための図である。It is a figure for demonstrating the magnification chromatic aberration of a fundus image. 固視灯によい誘導される被検眼の視線方向を説明するための図である。It is a figure for demonstrating the gaze direction of the to-be-examined eye induced | guided | derived by the fixation light.

以下、本発明を適用した好適な実施形態を、添付図面を参照しながら詳細に説明する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments to which the invention is applied will be described in detail with reference to the accompanying drawings.

先ず、本発明の第1の実施形態について説明する。図1は、本発明の第1の実施形態に係る眼底カメラの構成を示す図である。図1に示すように、本実施形態に係る眼底カメラは、観察用光源1及び撮影用光源3から対物レンズ13に至る光路上には、観察用光源1の先にリング状の開口を有する絞り5、撮影用光源3の先にリング状の開口を有する絞り2がそれぞれ配置され、ミラー4に至る。ミラー4の先には、リレーレンズ6、ミラー7、リレーレンズ11、孔あきミラー12が順次に配列され、眼底照明光学系01を構成する。なお、本実子形態に係る眼底カメラは、本発明の画像処理装置の適用例となる構成である。   First, a first embodiment of the present invention will be described. FIG. 1 is a diagram illustrating a configuration of a fundus camera according to the first embodiment of the present invention. As shown in FIG. 1, the fundus camera according to the present embodiment has an aperture having a ring-shaped opening at the tip of the observation light source 1 on the optical path from the observation light source 1 and the imaging light source 3 to the objective lens 13. 5. A diaphragm 2 having a ring-shaped opening is disposed at the tip of the photographing light source 3 and reaches the mirror 4. A relay lens 6, a mirror 7, a relay lens 11, and a perforated mirror 12 are sequentially arranged at the tip of the mirror 4 to constitute a fundus illumination optical system 01. Note that the fundus camera according to the present embodiment has a configuration that is an application example of the image processing apparatus of the present invention.

ミラー7の反射方向には、2穴絞り36、レンズ8、合焦用指標9、合焦用指標光源10が配置され、合焦用指標投影光学系03を構成する。合焦用指標投影光学系03は、合焦レンズ14と連動して図中Aの方向へ動き、被検眼の眼底Erに合焦用指標を投影し、静止画撮影時には図中Bの方向へ動き、照明光学系01上から退避される。   In the reflection direction of the mirror 7, a two-hole aperture 36, a lens 8, a focusing index 9, and a focusing index light source 10 are arranged to constitute a focusing index projection optical system 03. The focusing index projection optical system 03 moves in the direction A in the figure in conjunction with the focusing lens 14, projects the focusing index on the fundus Er of the eye to be examined, and in the direction B in the figure when taking a still image. Move and retract from the illumination optical system 01.

孔あきミラー12の透過方向の光路上には、合焦レンズ14、撮影レンズ15、撮像部20が配置される。撮影レンズ15、撮像部20の間には斜設された部分反射ミラー38が配置される。被検眼の視線を固定させるために被検者に固視させる固視灯光路が用意されている。固視灯光路の撮像部20と略共役位置にはLEDアレイで形成された複数の固視灯光源39が配置されており、制御部25に接続されている。固視灯光源39は、固視灯位置変更スイッチ36により入力された位置のLED一つが点灯するよう制御される。また、合焦レンズ14はレンズ位置を検出可能なレンズ位置検出器37に接続され、レンズ位置検出器37の出力も制御部25に接続されている。孔あきミラー12には光ファイバ17を通じて位置合わせ用指標光源18が接続されている。以上の構成が眼底撮影光学系02である。   On the optical path in the transmission direction of the perforated mirror 12, a focusing lens 14, a photographing lens 15, and an imaging unit 20 are disposed. An oblique partial reflection mirror 38 is disposed between the photographic lens 15 and the imaging unit 20. In order to fix the line of sight of the subject's eye, a fixation lamp optical path for fixing the subject's eye is prepared. A plurality of fixation lamp light sources 39 formed of LED arrays are arranged at positions substantially conjugate with the imaging section 20 of the fixation lamp optical path, and are connected to the control section 25. The fixation lamp light source 39 is controlled so that one LED at the position input by the fixation lamp position change switch 36 is lit. The focusing lens 14 is connected to a lens position detector 37 that can detect the lens position, and the output of the lens position detector 37 is also connected to the control unit 25. An alignment index light source 18 is connected to the perforated mirror 12 through an optical fiber 17. The above configuration is the fundus photographing optical system 02.

撮像部20内には、撮像素子19、三色波長分解部16が配置され、三色波長分解部16の直前には撮像範囲を規定する実体マスク40が接着されている。さらに撮像部20の出力は画像信号処理部23、画像を表示する表示器24へ順次接続されている。観察用光源1は観察用光源駆動回路27へ接続される。撮影用光源3は撮影用光源駆動回路26へ接続される。合焦用指標光源10は合焦用指標光源駆動回路22へ接続される。位置合わせ用指標光源18は位置合わせ用指標光源駆動回路21へ接続される。なお、位置合わせ用指標光源駆動回路21、合焦用指標光源駆動回路22、画像信号処理部23、撮影用光源駆動回路26、観察用光源駆動回路27、入力部28、記録部34、固視灯位置変更スイッチ36は制御部25に接続されている。   An imaging element 19 and a three-color wavelength decomposing unit 16 are disposed in the imaging unit 20, and an actual mask 40 that defines an imaging range is bonded immediately before the three-color wavelength decomposing unit 16. Further, the output of the imaging unit 20 is sequentially connected to an image signal processing unit 23 and a display 24 for displaying an image. The observation light source 1 is connected to the observation light source drive circuit 27. The photographing light source 3 is connected to the photographing light source driving circuit 26. The focus index light source 10 is connected to the focus index light source drive circuit 22. The alignment index light source 18 is connected to the alignment index light source driving circuit 21. Note that the alignment index light source drive circuit 21, the focusing index light source drive circuit 22, the image signal processing unit 23, the imaging light source drive circuit 26, the observation light source drive circuit 27, the input unit 28, the recording unit 34, and fixations. The lamp position change switch 36 is connected to the control unit 25.

次に、眼底観察時の動作について説明する。制御部25は、観察用光源1を点灯、調光するために観察用光源駆動回路27を駆動するとともに、固視灯光源39のうちの1つを固視灯として点灯する。被検者にこの固視灯を注視させることで眼底上の撮影部位を決定することができる。観察用光源1を出射した光束は、リング状の開口を有する絞り5、ミラー4を通過する。ここで、観察用光源1は850nmに中心波長を持つ近赤外LEDで構成されており、ミラー4は赤外光を透過し、可視光を反射するダイクロイックミラーとしているため、観察用光源1を出射した光束はミラー4を通過する。ミラー4を通過した光束は、リレーレンズ6、ミラー7、リレーレンズ11を通り、孔あきミラー12の周辺で反射し、対物レンズ13、被検眼Eの角膜Ec、瞳Epを通り眼底Erを照明する。   Next, operations during fundus observation will be described. The control unit 25 drives the observation light source drive circuit 27 to turn on and dim the observation light source 1 and lights one of the fixation lamp light sources 39 as a fixation lamp. The imaging region on the fundus can be determined by having the subject gaze at the fixation lamp. The light beam emitted from the observation light source 1 passes through a diaphragm 5 and a mirror 4 having a ring-shaped opening. Here, the observation light source 1 is composed of a near-infrared LED having a center wavelength at 850 nm, and the mirror 4 is a dichroic mirror that transmits infrared light and reflects visible light. The emitted light beam passes through the mirror 4. The light beam that has passed through the mirror 4 passes through the relay lens 6, the mirror 7, and the relay lens 11, is reflected around the perforated mirror 12, and illuminates the fundus Er through the objective lens 13, the cornea Ec of the eye E to be examined, and the pupil Ep. To do.

制御部25は、合焦用指標光源10を点灯するために合焦用指標光源駆動回路22を駆動する。合焦用指標光源10は合焦用指標9を照明し、合焦用指標9の像はレンズ8を通過し、ミラー7で反射して観察用光源1からの光束に重畳して被検眼Eの眼底Erに投影される。合焦用指標光源10は、850nmに中心波長を持つ近赤外LEDで構成されている。   The control unit 25 drives the focusing index light source driving circuit 22 to turn on the focusing index light source 10. The focusing index light source 10 illuminates the focusing index 9, and the image of the focusing index 9 passes through the lens 8, is reflected by the mirror 7, and is superimposed on the light beam from the observation light source 1 to be examined E Projected onto the fundus Er. The focusing index light source 10 is composed of a near-infrared LED having a center wavelength at 850 nm.

照明された眼底像及び合焦用指標像は、被検眼Eの瞳Ep、角膜Ec、対物レンズ13、孔あきミラー12の孔の中を通り、合焦レンズ14、撮影レンズ15を通過し、撮像部20内の三色波長分解部16を通り、撮像素子19に入射して結像される。   The illuminated fundus image and focusing index image pass through the pupil Ep, the cornea Ec, the objective lens 13, and the apertured mirror 12 of the eye E, and pass through the focusing lens 14 and the imaging lens 15. The light passes through the three-color wavelength resolving unit 16 in the imaging unit 20 and is incident on the imaging device 19 to form an image.

制御部25は、位置合わせ用指標光源18を点灯するために位置合わせ用指標光源駆動回路21を駆動する。位置合わせ用指標光源18は光ファイバ17、対物レンズ13を通じて被検眼Eの角膜Ecを照射する。その反射光は、観察用光源1及び合焦用指標光源10の眼底からの反射光と重畳して撮像素子19に結像される。ここで位置合わせ用指標光源18は、850nmに中心波長を持つ近赤外LEDで構成されている。   The controller 25 drives the alignment index light source driving circuit 21 to turn on the alignment index light source 18. The alignment index light source 18 irradiates the cornea Ec of the eye E through the optical fiber 17 and the objective lens 13. The reflected light is superimposed on the reflected light from the fundus of the observation light source 1 and the focusing index light source 10 and is imaged on the image sensor 19. Here, the alignment index light source 18 is composed of a near-infrared LED having a center wavelength of 850 nm.

撮像素子19では、結像した眼底像、合焦用指標像、位置合わせ用指標像に対して光電変換が行なわれる。そして画像信号処理部23は、撮像素子19からのデータの読み出し及び増幅を行う。これにより、動画であるデジタル画像データが生成され、表示部24に表示される。その様子を図2に示す。図2(a)は、位置及びピントがずれている様子を示しており、操作者はこの画像を見ながら不図示の操作部により眼底カメラを前後、左右、上下に移動して被検眼の眼底像の位置合わせを行う。また、合焦用指標投影光学系03が合焦レンズ14と連動して図中Aの方向に移動することによりピント合わせが行われる。図2(b)は、位置合わせ用指標と位置合わせ用指標サークルとが一致して位置合わせが完了し、また合焦用指標が一直線になりピント合わせが完了した状態を示している。なお、眼底像の外側の斜線部分40´は、三色波長分解部16の直前に接着された撮像範囲を規定する実体マスク40の像である。被検眼の前眼部で発生する反射光及び散乱光をカットし、フレア・ゴーストが混入しない範囲の眼底像のみを記録する役割を有する。   In the image sensor 19, photoelectric conversion is performed on the formed fundus image, the focusing index image, and the alignment index image. The image signal processing unit 23 reads and amplifies data from the image sensor 19. Thereby, digital image data which is a moving image is generated and displayed on the display unit 24. This is shown in FIG. FIG. 2A shows a state in which the position and focus are shifted. The operator moves the fundus camera back and forth, right and left, and up and down by an operation unit (not shown) while viewing this image, and the fundus of the eye to be examined. Align the image. Further, the focusing index projection optical system 03 is moved in the direction of A in the figure in conjunction with the focusing lens 14 to perform focusing. FIG. 2B shows a state in which the alignment index is aligned with the alignment index circle, the alignment is completed, and the focusing index is in a straight line and the focusing is completed. A hatched portion 40 ′ outside the fundus image is an image of the substance mask 40 that defines the imaging range adhered immediately before the three-color wavelength separation unit 16. It has the role of cutting only the fundus image in the range where flare and ghost are not mixed by cutting off the reflected light and scattered light generated in the anterior segment of the eye to be examined.

ここで、撮像部20の構成及び観察時の動作について詳細に説明する。撮像部20内の撮像素子19には、撮像素子19の各画素に一致するようにモザイク状に配置された、赤(以下、Rと称す)、緑(以下、Gと称す)、青(以下、Bと称す)の三色波長分解部16が配置されている。画像信号処理部23は、撮像素子19からの各画素のデータを読み出して増幅を行い、全画素値を算出して画像データを生成する。   Here, the configuration of the imaging unit 20 and the operation during observation will be described in detail. The imaging device 19 in the imaging unit 20 has red (hereinafter referred to as “R”), green (hereinafter referred to as “G”), blue (hereinafter referred to as “R”) mosaic arrangement so as to match each pixel of the imaging device 19. , B)) is arranged. The image signal processing unit 23 reads and amplifies the data of each pixel from the image sensor 19, calculates all pixel values, and generates image data.

ここで、画像データ生成時の各画素値の演算について詳細に説明する。図3(a)は、一般的な三色カラーフィルタの配置状態を示している。撮像部20の各画素には、図3(b)に示す分光透過率を有するRGBの各色フィルタが配置され、対応する画素が各色フィルタに割り当てられる。各画素に用意された各フィルタは可視域である700nmより長い波長の近赤外光(ここでは850nm)にも感度を有することになり、この出力を用いて、前述の眼底観察が行われることになる。一般的には、特定の色要素(例えばG)に割り振られた画素から、その他の色要素(例えばRB)に割り当てられた画素の特定の色要素の画素値(G)が作成され、RGB各色の平面画像データが生成される。これに対し、本実施形態では、観察時に使用されている波長は850nmであり、且つその波長においてRGBの各色フィルタはほぼ同一の透過率を有する。従って、画像信号処理部23は各画素を逐次読み出し、そのままモノクロの画像信号を作り出してもよい。   Here, the calculation of each pixel value at the time of image data generation will be described in detail. FIG. 3A shows an arrangement state of a general three-color color filter. In each pixel of the imaging unit 20, RGB color filters having the spectral transmittance shown in FIG. 3B are arranged, and the corresponding pixels are assigned to the color filters. Each filter prepared for each pixel is sensitive to near infrared light (here, 850 nm) having a wavelength longer than 700 nm, which is the visible range, and the fundus observation described above is performed using this output. become. In general, a pixel value (G) of a specific color element of a pixel assigned to another color element (for example, RB) is created from pixels allocated to the specific color element (for example, G), and each color of RGB Plane image data is generated. On the other hand, in this embodiment, the wavelength used at the time of observation is 850 nm, and each RGB color filter has substantially the same transmittance at that wavelength. Therefore, the image signal processing unit 23 may sequentially read out each pixel and produce a monochrome image signal as it is.

次に、眼底撮影時の動作について説明する。操作者は、表示器24に表示された図2(a)に示すような画像を見ながら位置合わせ、ピント合わせを行い、位置とピントとが合ったところで入力部28に構成される撮影スイッチを押す。これにより、制御部25は、フォーカスレンズ14の位置をレンズ位置検出器37に検知させ、位置合わせ用指標光源駆動回路21、合焦用指標光源駆動回路22を駆動して、合焦用指標光源10、位置合わせ用指標光源18を消灯する。そして制御部25は、合焦用指標投影光学系03をBの方向へ駆動し、光路外へ退避させた後、撮影用光源駆動回路26を駆動して撮影用光源3を発光させる。   Next, the operation at the time of fundus photographing will be described. The operator aligns and focuses while viewing an image as shown in FIG. 2A displayed on the display 24, and when the position and the focus are matched, a shooting switch configured in the input unit 28 is set. Push. As a result, the control unit 25 causes the lens position detector 37 to detect the position of the focus lens 14 and drives the alignment index light source drive circuit 21 and the focus index light source drive circuit 22 to focus the index light source for focus. 10. The alignment index light source 18 is turned off. Then, the control unit 25 drives the focusing index projection optical system 03 in the direction B and retracts it outside the optical path, and then drives the photographing light source drive circuit 26 to cause the photographing light source 3 to emit light.

撮影用光源3を出射した光束は、リング状の開口を有する絞り2を通過し、ミラー4で反射し、以降、観察用光源と同じ経路で被検眼Eの眼底Erを照明する。そして、その反射光である眼底像は撮像素子19に導かれ、結像する。ここで撮影用光源3は可視光であり、ミラー4は赤外光を透過し、可視光を反射するダイクロイックミラーとしてあるため、撮影用光源3を出射した可視光領域のみの光束がミラー4で反射する。   The light beam emitted from the imaging light source 3 passes through the diaphragm 2 having a ring-shaped opening, is reflected by the mirror 4, and thereafter illuminates the fundus Er of the eye E to be examined along the same path as the observation light source. Then, the fundus image, which is the reflected light, is guided to the image sensor 19 to form an image. Here, since the imaging light source 3 is visible light and the mirror 4 is a dichroic mirror that transmits infrared light and reflects visible light, only the visible light region emitted from the imaging light source 3 is reflected by the mirror 4. reflect.

撮像素子19では光電変換が行われ、画像信号処理部23によって静止画であるRGB平面の画像データからなる眼底画像データが生成され、表示部24へ表示されると同時に、制御部25経由で記録部34へ眼底画像データが記録される。その際の画像信号処理部23の動作の概念を図4及び図5を参照しながら詳細に説明する。   The image sensor 19 performs photoelectric conversion, and the image signal processing unit 23 generates fundus image data composed of RGB plane image data as a still image, which is displayed on the display unit 24 and simultaneously recorded via the control unit 25. Fundus image data is recorded in the unit 34. The concept of the operation of the image signal processing unit 23 at that time will be described in detail with reference to FIGS.

図5は、画像信号処理部23の詳細な構成を示す図である。図3(a)に示す画素配列を有する撮像素子19から読み出し部231により読み出された画素データは演算部232を経由し、仮想メモリ234に設けられたRGB各色に対応するR平面メモリ235、G平面メモリ236、B平面メモリ237に配される。このときの各平面メモリ上の画素値の状態が図4の401〜403に示されている。401がR平面メモリ235の配置を示し、402がG平面メモリ236の配置を示し、403がB平面メモリ237の配置を示している。即ち、図4の401〜403においては、各色要素に対応しているフィルタが配された画素位置にその画素の画素値が埋め込まれた状態を示している。このとき、他の色要素で撮像された画素に対する画素値(例えば、R平面におけるG01の座標位置のRの画素値等)はまだ空白のままである。   FIG. 5 is a diagram showing a detailed configuration of the image signal processing unit 23. The pixel data read by the reading unit 231 from the image sensor 19 having the pixel arrangement shown in FIG. 3A passes through the calculation unit 232, and the R plane memory 235 corresponding to each RGB color provided in the virtual memory 234. The G plane memory 236 and the B plane memory 237 are arranged. The state of the pixel values on each plane memory at this time is shown in 401 to 403 in FIG. 401 indicates the arrangement of the R plane memory 235, 402 indicates the arrangement of the G plane memory 236, and 403 indicates the arrangement of the B plane memory 237. That is, 401 to 403 in FIG. 4 show a state in which the pixel value of the pixel is embedded at the pixel position where the filter corresponding to each color element is arranged. At this time, pixel values (for example, R pixel value at the coordinate position of G01 on the R plane) for pixels captured with other color elements are still blank.

次に演算部232は、倍率色収差補正のための座標補正位置を記憶している補正記憶部233から、撮影時に検出した合焦レンズ位置に対応して被検眼の視度に応じた座標変換関数、即ち、基準色要素(本実施形態では、最も画素数の多いGに相当する)に対するその他の色要素(本実施形態では、RBに相当する)の座標変換関数を読み出し、配置されている画素の補正後の座標を算出する。さらに演算部232は、この補正後の座標を有する周囲の画素値から元の基準座標に相当する画素値を算出し、画素値の書き換えを実行する。この概念を示したものが図4の404、406となる。即ち、図4の401の時点でのR22(図4の404ではR22´と表記)の画素値の決定は、座標軸の原点、即ち撮像画面の中心であるOに対し、同一経線上にあるR22とR44に一度図4の404に示したR22、R44に位置する座標変換を施し、R22、R44の補正後の座標を得る。このとき、R00の座標が補正後の基準座標値であり、R00´の座標が元の基準座標値であり、両者の距離ΔBが補正すべき倍率色収差量に相当する。その後、演算部232は、この両者の座標変換後の座標から線形補間演算等により元の基準座標上の画素値R22´を算出することになる。説明においては簡略化のために同一経線上にあるR22、R44を例に挙げて説明したが、同一経線上にない場合には、対称画素近傍にある対称画素を囲む4つの周辺画素から算出すればよいことになる。B平面に対する画素補間の考え方も同様であるが、図4の406では、図4の404で示したR平面が倍率色収差により原点から近い距離で撮像されているのに対して、逆方向にずれていることを示している。   Next, the computing unit 232 stores a coordinate conversion function corresponding to the diopter of the eye to be examined corresponding to the focus lens position detected at the time of photographing from the correction storage unit 233 storing the coordinate correction position for correcting the chromatic aberration of magnification. In other words, the coordinate conversion function of the other color element (corresponding to RB in this embodiment) with respect to the reference color element (corresponding to G having the largest number of pixels in this embodiment) is read and arranged. The corrected coordinates are calculated. Further, the calculation unit 232 calculates a pixel value corresponding to the original reference coordinate from surrounding pixel values having the corrected coordinates, and rewrites the pixel value. This concept is indicated by 404 and 406 in FIG. That is, the determination of the pixel value of R22 (denoted as R22 ′ in 404 of FIG. 4) at the time of 401 in FIG. 4 is determined on the same meridian with respect to the origin of the coordinate axes, that is, O which is the center of the imaging screen. And R44 are once subjected to coordinate conversion located at R22 and R44 indicated by 404 in FIG. 4 to obtain corrected coordinates of R22 and R44. At this time, the coordinates of R00 are the corrected reference coordinate values, the coordinates of R00 ′ are the original reference coordinate values, and the distance ΔB between them corresponds to the amount of lateral chromatic aberration to be corrected. Thereafter, the calculation unit 232 calculates the pixel value R22 ′ on the original reference coordinates by linear interpolation calculation or the like from the coordinates after the coordinate conversion of both. In the description, for simplicity, R22 and R44 on the same meridian have been described as examples. However, if they are not on the same meridian, they are calculated from four peripheral pixels surrounding the symmetric pixel in the vicinity of the symmetric pixel. It will be good. The concept of pixel interpolation for the B plane is the same, but in 406 in FIG. 4, the R plane indicated by 404 in FIG. 4 is imaged at a distance close to the origin due to lateral chromatic aberration, but shifted in the reverse direction. It shows that.

以上の演算により倍率色収差が補正された画像データが各画像平面に配されることになる。補正記憶部253に用意されている座標変換関数は、例えば以下のように作成された複数の関数からなる。   Image data in which the lateral chromatic aberration is corrected by the above calculation is arranged on each image plane. The coordinate conversion function prepared in the correction storage unit 253 includes a plurality of functions created as follows, for example.

先ず、基準(正視)座標変換関数の作成方法について説明する。
標準的色収差を有する眼球光学系モデル、それに光軸が一致するよう配置された眼底カメラ光学系の設計データを用意する。これに対し、演算部232は、使用する光源の標準の分光分布と光学系の透過率、三色分解手段である各色フィルタ特性を加味した分光分布ウエイトを有する複数の波長によりなる多数光線追跡による点像強度分布シミュレーションにより、各像位置におけるRGB各々の点像の重心位置を求める。求めたRBの点像重心位置と基準であるGの点像重心位置との差分が補正量となる。本実施形態ではこの補正値の計算に点像強度分布の重心を用いたが、中央値を採用しても、またはRBに対し組み合わせて使用してもよい。さらには合成した点像強度分布の最大値が最大になるよう補正値を決定することも可能である。この際、連続的な像高全てを計算する必要なく、複数の像高について計算し、その間は補間によって決定すれば十分である。また、この補間は前もって計算し、各画素に対応させるLOTの形式で補正記憶部253に用意してもよいし、実際に補正する際、逐次演算部232が計算する方法をとってもよい。さらにGの点像重心位置との差分そのものを補正量としてもよいが、被検眼の個人差により過補正になることを避けるため、予め少なめに見積もっておく等の味付けは可能である。当然、被検眼には個人差があるため、厳密な補正量が必要であるわけでなく、このような味付けを行なっても程度の差はあるとはいえ、画像改善効果があることは変わらない。重要なことは眼底カメラの光学系でのみ発生する色収差を対象にするのではなく、被写体である被検眼の光学系も加味した補正を行うことにある。
First, a method for creating a reference (straight vision) coordinate conversion function will be described.
An eyeball optical system model having standard chromatic aberration and design data of a fundus camera optical system arranged so that its optical axis coincides with it are prepared. On the other hand, the calculation unit 232 is based on multiple ray tracing composed of a plurality of wavelengths having a spectral distribution weight that takes into account the standard spectral distribution of the light source used, the transmittance of the optical system, and the color filter characteristics of the three-color separation means. The center of gravity position of each point image of RGB at each image position is obtained by point image intensity distribution simulation. The difference between the obtained RB point image centroid position and the reference G point image centroid position is the correction amount. In the present embodiment, the center of gravity of the point image intensity distribution is used for the calculation of the correction value. However, the median value may be adopted or may be used in combination with RB. Further, the correction value can be determined so that the maximum value of the combined point image intensity distribution is maximized. At this time, it is sufficient to calculate a plurality of image heights and determine by interpolation between them without having to calculate all the continuous image heights. In addition, this interpolation may be calculated in advance and prepared in the correction storage unit 253 in the LOT format corresponding to each pixel, or a method in which the sequential calculation unit 232 calculates when actually correcting. Furthermore, although the difference itself from the point image center of gravity of G may be used as a correction amount, seasoning such as a small estimate in advance is possible in order to avoid overcorrection due to individual differences in the eye to be examined. Naturally, since there are individual differences in the eye to be examined, a strict correction amount is not necessary, and even if such a seasoning is performed, although there is a difference in degree, it does not change that it has an image improvement effect . What is important is not to target chromatic aberration that occurs only in the optical system of the fundus camera, but to make corrections that also take into account the optical system of the subject's eye that is the subject.

次に、被検眼視度(合焦状態)に対する座標変換関数の作成方法について説明する。
被検眼が正視でない場合の眼球光学系モデルは確立していない。従って本実施形態では、既知の光学設計値がある眼底カメラと既知のフィルタ設計値がわかっている撮像手段で実写した様々な被検眼視度の人眼画像から必要な倍率色収差の補正量を推定したものを用いている。図6にその補正値を決定する方法の例を示す。図6(a)は視度がわかっている被検眼に対してほぼ光軸を合わせて実写したカラー画像である。ここで画面中心Oからの経線に垂直な血管の経線上の矢印Aの領域の各RGB平面の画素値をプロットしたものが図6(b)であり、ここで血管は濃い赤であるので図示の如くのプロファイルを有する。血管の位置は各プロットのボトムBb、Gb、Rbであり、倍率色収差が無ければこれはほぼ一致すべきものである。従って、R平面、B平面で補正すべき収差量はおのおのΔB、ΔRとなる。これを異なる画角にある図6(b)でも計測し、各画角における色収差を得ることができる。このような画像計測をほぼ同じ視度を有する複数の被検眼に対して実施し、その平均を得ることにより、各視度における補正量を決定することができる。その際、連続的な視度全てを計算する必要なく、複数の視度について計算し、その間は補間によって決定すれば十分である。また、この補間は前もって計算し、各画素に対応させるLOTの形式で補正記憶部253に用意してもよいし、実際に補正する際、逐次演算部232が計算する方法をとってもよいことは画角に対する補正量の決定方法と同様である。なお、上述した基準(正視)座標変換関数も同様に実写した眼底画像から算出してもよい。
Next, a method for creating a coordinate transformation function for the eye diopter (in-focus state) will be described.
An eyeball optical system model when the subject's eye is not normal is not established. Therefore, in this embodiment, the amount of correction of the necessary chromatic aberration of magnification is estimated from human eye images of various eye diopters that are actually captured by a fundus camera having a known optical design value and an imaging means having a known filter design value. We use what we did. FIG. 6 shows an example of a method for determining the correction value. FIG. 6A is a color image that is actually taken with the optical axis substantially aligned with the eye to be examined whose diopter is known. Here, FIG. 6B is a plot of the pixel values of each RGB plane in the region of the arrow A on the meridian of the blood vessel perpendicular to the meridian from the center O of the screen, and the blood vessel is shown here because it is dark red. The profile is as follows. The positions of the blood vessels are the bottoms Bb, Gb, and Rb of each plot. If there is no lateral chromatic aberration, this should be almost the same. Accordingly, the aberration amounts to be corrected on the R plane and the B plane are ΔB and ΔR, respectively. This can also be measured in FIG. 6B at different angles of view to obtain chromatic aberration at each angle of view. By performing such image measurement on a plurality of eyes to be examined having substantially the same diopter and obtaining an average thereof, the correction amount at each diopter can be determined. At this time, it is sufficient to calculate for a plurality of diopters and determine by interpolation between them without having to calculate all the continuous diopters. In addition, this interpolation may be calculated in advance and prepared in the correction storage unit 253 in the LOT format corresponding to each pixel, or a method in which the sequential calculation unit 232 calculates when actually correcting may be used. This is the same as the method for determining the correction amount for the corner. Note that the above-described reference (straight vision) coordinate conversion function may also be calculated from a fundus image that is actually captured.

以上の座標変換は、図2に示す、三色波長分解部16の直前に接着された撮像範囲を規定する実体マスクの像40´の内側にある眼底像のみが対象である。倍率色収差が発生しているのは眼底像のみであり、この実体マスクは眼球光学系も撮影光学系も介さずに撮像されているため、眼底像と同様の補正を実施してしまうと、マスクの境界にアーティファクトとしての色にじみを発生し、診断上のノイズとなるからである。勿論、演算部232が演算の単純化のために実体マスク40を用いず、全撮像範囲に対して座標変換を行い、さらに後述のRGB平面の画素補間処理を行なった上で、実体マスクに相当するマスク部位の画素を黒く塗りつぶす処理を実施しても同等の効果が得られる。   The above coordinate conversion is only for the fundus image located inside the actual mask image 40 ′ defining the imaging range adhered immediately before the three-color wavelength separation unit 16 shown in FIG. 2. The chromatic aberration of magnification occurs only in the fundus image, and since this substantial mask is imaged without any eyeball optical system or imaging optical system, if the same correction as the fundus image is performed, the mask This is because color blur as an artifact is generated at the boundary of the image and becomes diagnostic noise. Of course, the calculation unit 232 does not use the entity mask 40 for simplification of the calculation, performs coordinate conversion on the entire imaging range, and performs pixel interpolation processing on the RGB plane described later, and corresponds to the entity mask. The same effect can be obtained even if the process of painting the pixels of the mask portion to be blacked out is performed.

次に演算部232は、先ほどのG平面メモリ236の画素値に対してG平面の画素補間を実施し、空白画素の画素値をG平面メモリ236に格納する。演算部232が行う各色平面座標上の空白の画素値を画素補間により求める方法を、図4の407〜409の黒枠で囲まれた部分の画素を例に挙げて説明する。図4の408に示すように、G22の空白の画素は上下左右を既に画素値を有する画素で囲われている。従って、次のように、その4つの画素の平均を取ることで補間が可能である。
G22=(G12+G21+G23+G32)/4
G11、G13等についても同様に計算が可能である。
Next, the calculation unit 232 performs G-plane pixel interpolation on the pixel values of the G-plane memory 236, and stores the pixel values of blank pixels in the G-plane memory 236. A method of calculating a blank pixel value on each color plane coordinate performed by the calculation unit 232 by pixel interpolation will be described by taking a pixel surrounded by a black frame 407 to 409 in FIG. 4 as an example. As indicated by reference numeral 408 in FIG. 4, the blank pixel of G22 is surrounded by pixels that already have pixel values on the top, bottom, left, and right. Therefore, interpolation is possible by taking the average of the four pixels as follows.
G22 = (G12 + G21 + G23 + G32) / 4
The same calculation is possible for G11, G13, and the like.

次に、演算部232が実施するのはR平面の画素補間である。Rの空白の画素には3つの種類が存在する。即ち、R12、R32は上下を既に画素値を有する画素ではさまれている。R21、R23は左右を既に画素値を有する画素ではさまれている。さらにR11は斜め方向4つの既に画素値を有する画素で囲われている。これらを用いて画素の補間を行うことは当然可能であるが、Gの如く近接する上下左右の画素による補間に比して、使用する情報量が少ないことになる。従ってこの補間により、画像の空間における高周波成分が失われる可能性が高くなり、解像度が維持されない。そこで、本実施形態では、G平面の画素値を利用した色差信号を用いた補間を行ってこの高周波成分の維持に努めている。すなわち、次のように、3種類のRの画素に対して補間計算により空白の画素値を決定し、R平面メモリへの書込みを行う。
R12=((R02´−G02)+(R22´−G22)−2xG12)/2
R21=((R20´−G20)+(R22´−G22)−2xG21)/2
R11=((R00´−G00)+(R02´−G02)+(R20´−G20)+(R22´−G22)−4xG11)/4
次のように、B平面の補間も同様に行われ、その結果がB平面メモリに格納される。
B12=((B11´−G11)+(B13´−G13)−2xG12)/2
B21=((B20−G20)+(B22−G22)−2xG21)/2
B22=((B11´−G11)+(B13´−G13)+(B31´−G31)+(B33´−G33)−4xG22)/4
Next, the calculation unit 232 performs pixel interpolation on the R plane. There are three types of R blank pixels. That is, R12 and R32 are sandwiched between pixels that already have pixel values. R21 and R23 are sandwiched between pixels that already have pixel values. Further, R11 is surrounded by four pixels having already pixel values in the oblique direction. It is naturally possible to perform pixel interpolation using these, but the amount of information to be used is small compared to interpolation using pixels close to the top, bottom, left, and right as in G. Therefore, this interpolation increases the possibility of losing high-frequency components in the image space, and the resolution is not maintained. Therefore, in this embodiment, interpolation using a color difference signal using pixel values on the G plane is performed to maintain this high frequency component. That is, blank pixel values are determined by interpolation calculation for the three types of R pixels as follows, and writing to the R plane memory is performed.
R12 = ((R02′−G02) + (R22′−G22) −2xG12) / 2
R21 = ((R20′−G20) + (R22′−G22) −2xG21) / 2
R11 = ((R00'-G00) + (R02'-G02) + (R20'-G20) + (R22'-G22) -4xG11) / 4
The B plane interpolation is performed in the same manner as described below, and the result is stored in the B plane memory.
B12 = ((B11′−G11) + (B13′−G13) −2xG12) / 2
B21 = ((B20−G20) + (B22−G22) −2xG21) / 2
B22 = ((B11′−G11) + (B13′−G13) + (B31′−G31) + (B33′−G33) −4xG22) / 4

以上のように本実施形態では、演算部232は、第2の補間演算において、最も画素数の多い平面(本実施形態の場合はG平面)のもつ高い解像度を利用することにより、画質の維持を図っている。言い換えれば基準色要素平面でない色要素平面の補間にはその色要素平面と基準色要素平面という2つの色要素平面の情報を用いるのである。   As described above, in the present embodiment, the calculation unit 232 maintains the image quality by using the high resolution of the plane with the largest number of pixels (G plane in the present embodiment) in the second interpolation calculation. I am trying. In other words, information on two color element planes, that is, the color element plane and the reference color element plane, is used for interpolation of the color element plane that is not the reference color element plane.

以上の説明により、このR平面、B平面の第2の補間演算を、先に述べた座標変換後に実施するG平面の第1の補間演算の前に行ってはならないことが理解されよう。本実施形態以外の方法であっても、このように単独の色要素平面ではなく複数の色要素平面からの画素補間を行う場合、上記2つの補間の順序が重要であることはいうまでもない。一般的な仮想画素の計算方式、すなわち、4x4の3つの色要素を用いた補間演算と比較を行うと、本方式のメリットが明らかになる。   From the above description, it will be understood that the second interpolation calculation for the R plane and the B plane should not be performed before the first interpolation calculation for the G plane performed after the coordinate conversion described above. Even in a method other than this embodiment, when performing pixel interpolation from a plurality of color element planes instead of a single color element plane, it goes without saying that the order of the two interpolations is important. . Comparing with a general virtual pixel calculation method, that is, an interpolation calculation using three 4 × 4 color elements, the merits of this method become clear.

一般的な補間演算では、図4の407〜409における仮想画素P00のRGB各色の値は仮想画素P00周辺の実線で囲まれた画素のうち、R00、R02、B11、G12、B13、R20、G21、R22、B31、B33の画素の受光データから以下の式で演算される。仮想画素のRGBの値をそれぞれRP00、GP00、BP00とすると、次のようになる。
P00=(G12+G21)/2
P00=(9・R22+3・R02+3・R20+R00)/16
P00=(9・B11+3・B13+3・B31+B33)/16
In a general interpolation calculation, the values of RGB colors of the virtual pixel P00 in 407 to 409 in FIG. , R22, B31, and B33 are calculated from the received light data by the following formula. If the RGB values of the virtual pixels are R P00 , G P00 and B P00 , respectively, the following is obtained.
G P00 = (G12 + G21) / 2
R P00 = (9 · R22 + 3 · R02 + 3 · R20 + R00) / 16
B P00 = (9 · B11 + 3 · B13 + 3 · B31 + B33) / 16

画素補間時に利用する各画素にウエイトはかけているものの、かなりの距離の画素を用いた平均化が行われていることが理解されよう。演算部232が全ての計算を終了した後、読み取り部238は仮想メモリ234から全ての画像データを読み出し、制御部25へ転送する。制御部25はこれを表示及び記録に利用することになる。   It will be understood that although the pixels used during pixel interpolation are weighted, averaging is performed using pixels at a considerable distance. After the calculation unit 232 finishes all calculations, the reading unit 238 reads all image data from the virtual memory 234 and transfers the image data to the control unit 25. The controller 25 uses this for display and recording.

本実施形態の説明では、色要素平面毎にどのような演算を行うかを説明したが、実際の演算部が行う演算は必ずしもこの順序に限らず、小領域毎に繰り返し演算を行うアルゴリズムを採用し、演算時間の短縮を図ることも可能である。また、撮影直後の表示を行う際には、この倍率色収差補正の過程を省略することにより、撮影後、短時間での表示を可能とすることもできる。そのような場合、本演算はバックグランド処理にて実行し、演算終了後に表示を切替えることが望ましい。   In the description of the present embodiment, the calculation performed for each color element plane has been described. However, the calculation performed by the actual calculation unit is not necessarily limited to this order, and an algorithm that performs calculation repeatedly for each small area is adopted. In addition, the calculation time can be shortened. Further, when performing display immediately after shooting, the process of correcting the chromatic aberration of magnification can be omitted to enable display in a short time after shooting. In such a case, it is desirable to execute this calculation by background processing and switch the display after the calculation is completed.

本実施形態によれば、単板式カメラを用いた画素補完プロセスを考慮して、眼底カメラ光学系で生ずる倍率色収差のみならず、撮影対象である眼球光学系で発生するものを含んだ倍率色収差を補正した場合に生じる解像度の低下を抑えることが可能となる。   According to the present embodiment, in consideration of the pixel complementation process using a single-plate camera, not only the lateral chromatic aberration that occurs in the fundus camera optical system, but also the lateral chromatic aberration that includes what occurs in the eyeball optical system that is the object to be imaged. It is possible to suppress a decrease in resolution that occurs when correction is performed.

次に、本発明の第2の実施形態について説明する。第1の実施形態においては、倍率色収差を補正するための基準座標変換関数として、標準的色収差を有する眼球光学系モデル、それに光軸が一致するよう配置した眼底カメラ光学系の設計データを用意した。しかしながら、近年白内障眼に対しては白濁した水晶体を切除し、人工水晶体IOLを挿入する手術が普及している。このような手術が行なわれた被検眼(いわゆるIOL眼)の倍率色収差は、標準的な倍率色収差と異なっていることが知られている。なお、本実施形態に係る眼底カメラの構成は、図1に示す第1の実施形態に係る眼底カメラの構成と同様である。   Next, a second embodiment of the present invention will be described. In the first embodiment, an eyeball optical system model having standard chromatic aberration and design data of a fundus camera optical system arranged so that its optical axis coincides are prepared as a reference coordinate conversion function for correcting lateral chromatic aberration. . However, in recent years, for cataractous eyes, an operation in which an opaque lens is excised and an artificial lens IOL is inserted has become widespread. It is known that the lateral chromatic aberration of an eye to be examined (so-called IOL eye) on which such a surgery has been performed is different from the standard lateral chromatic aberration. The configuration of the fundus camera according to the present embodiment is the same as that of the fundus camera according to the first embodiment shown in FIG.

従って、本発明の第2の実施形態では、このようなIOL眼に対する座標変換関数と、被検眼がIOL眼であると検者が判断したこととを入力するためのIOL眼選択スイッチとを設けている。なお、IOL眼選択スイッチは図1の制御部25に対して接続されている。さらに、IOL眼選択スイッチのONを制御部25が検知した場合、図5の演算部232は、倍率色収差補正のための座標変換関数を記憶している補正記憶部253からIOL眼に対応した別の座標変換関数を呼び出した上で、第1の実施形態と同様の演算を実施する。被検眼が正視でない場合に、撮影時に検出した合焦レンズ位置に対応する座標変換関数を用いることは第1の実施形態と同様であり、且つその他の構成及び動作も第1の実施形態と同様であるので説明は割愛する。   Therefore, in the second embodiment of the present invention, such a coordinate conversion function for the IOL eye and an IOL eye selection switch for inputting that the examiner determines that the eye to be examined is an IOL eye are provided. ing. The IOL eye selection switch is connected to the control unit 25 in FIG. Further, when the control unit 25 detects that the IOL eye selection switch is turned on, the calculation unit 232 in FIG. 5 performs another operation corresponding to the IOL eye from the correction storage unit 253 storing the coordinate conversion function for correcting the chromatic aberration of magnification. After calling the coordinate conversion function, the same calculation as in the first embodiment is performed. When the eye to be examined is not normal, the coordinate conversion function corresponding to the in-focus lens position detected at the time of shooting is the same as in the first embodiment, and other configurations and operations are the same as in the first embodiment. Therefore, explanation is omitted.

ここで用意したIOL眼に対する基準座標変換関数は、標準的色収差を有する眼球光学系モデルから水晶体部分をIOLに置換したものを用い、先の通常被検眼に対する基準座標変換関数と同様に作成する。また、各視度に対する座標変換関数の作成方法も被検眼としてIOL眼を用いる以外は同様である。しかしながら、基準となる座標変換関数は異なるものの、視度に対する座標変換関数の変化(倍率色収差の変化)そのものは標準的な被検眼に対する変化とほぼ同様である。従って、IOL眼に対する基準座標変換関数を用意する代わりに、IOL眼に対する補正用座標変換関数を用意して、実際の座標変換演算を実施してもよい。すなわち、IOL眼に対してもまず標準眼の視度に対応した座標変換をかけた上で、IOL眼に対する補正用座標変換を施す手順をとってもよい。本方法によれば、補正記憶部253が記憶する座標変換関数もしくは座標変換用LOTの数を減らすことが可能となる。   The reference coordinate conversion function for the IOL eye prepared here is created in the same manner as the reference coordinate conversion function for the normal eye to be examined by using an eyeball optical system model having standard chromatic aberration and replacing the lens portion with IOL. Also, the method for creating the coordinate conversion function for each diopter is the same except that the IOL eye is used as the eye to be examined. However, although the reference coordinate conversion function is different, the change of the coordinate conversion function with respect to the diopter (change in lateral chromatic aberration) itself is substantially the same as the change for the standard eye to be examined. Therefore, instead of preparing the reference coordinate conversion function for the IOL eye, a correction coordinate conversion function for the IOL eye may be prepared to perform the actual coordinate conversion calculation. In other words, the IOL eye may be first subjected to the coordinate conversion corresponding to the diopter of the standard eye and then the correction coordinate conversion for the IOL eye may be performed. According to this method, the number of coordinate conversion functions or coordinate conversion LOTs stored in the correction storage unit 253 can be reduced.

次に、本発明の第3の実施形態について説明する。第1及び第2の実施形態においては、図7(a)に示すように、被検眼光軸が撮影光軸と一致するような光軸に点対称な補正を行う例について説明した。しかしながら、実際の撮影においては、第1の実施形態で説明したように、検者は図1に示した固視灯位置変更スイッチ36を操作する。これにより、固視灯光源39のうちの1つを固視灯として点灯し、図7(b)に示すように、被検者にこの固視灯を注視させることで眼底上の撮影部位を決定する。このとき、固視灯により誘導された被検者の視線(被検眼光軸)SLは対物レンズ光軸に対し、経線方向にθ、接線方向にφの角度となる。このような場合、被検眼の光軸は対物レンズ13の光軸と一致せず、この被検眼光学系の傾きにより、撮影光軸に非対称な倍率色収差が発生することになるが、その量は被検眼の視線の方向θの関数となり、方向は視線の方向φの関数となる。なお、図7でEは被検眼、Erは被検眼眼底撮影部位、Epは被検眼瞳である。また、本実施形態に係る眼底カメラの構成は、図1に示す第1の実施形態に係る眼底カメラの構成と同様である。また、本実施形態に係る眼底カメラは、被験者の視線(被検眼光軸)を固視灯の位置から検出するようにしている。   Next, a third embodiment of the present invention will be described. In the first and second embodiments, as shown in FIG. 7A, an example has been described in which correction is made point-symmetrically with respect to the optical axis such that the optical axis of the eye to be examined coincides with the imaging optical axis. However, in actual photographing, as described in the first embodiment, the examiner operates the fixation lamp position change switch 36 shown in FIG. As a result, one of the fixation lamp light sources 39 is turned on as a fixation lamp, and, as shown in FIG. decide. At this time, the line of sight (inspection eye optical axis) SL of the subject guided by the fixation lamp has an angle of θ in the meridian direction and φ in the tangential direction with respect to the optical axis of the objective lens. In such a case, the optical axis of the eye to be inspected does not coincide with the optical axis of the objective lens 13, and an asymmetric magnification chromatic aberration is generated in the photographing optical axis due to the inclination of the eye optical system to be examined. The function is a function of the line-of-sight direction θ of the eye, and the direction is a function of the line-of-sight direction φ. In FIG. 7, E is the eye to be examined, Er is the fundus imaging region of the eye to be examined, and Ep is the eye to be examined. The configuration of the fundus camera according to the present embodiment is the same as that of the fundus camera according to the first embodiment shown in FIG. In addition, the fundus camera according to the present embodiment detects the subject's line of sight (the optical axis of the eye to be examined) from the position of the fixation lamp.

従って、本実施形態では、このような光軸に非対称な倍率色収差を補正するための座標変換関数を補正記憶部253に複数用意している。検者が固視灯位置変更スイッチ36を操作した場合、制御部25は、固視灯の発光位置を制御するとともに、固視灯位置に対応した非対称な倍率色収差補正のための座標変換関数を補正記憶部253から呼び出すよう演算部232に対して指示を出す。そして、演算部232は、補正記憶部253から光軸に非対称な倍率色収差を補正するための座標変換関数を呼び出した後、第1の実施形態と同様の演算を実施する。被検眼が正視でない場合に、撮影時に検出した合焦レンズ位置に対応する座標変換関数を用いることは第1の実施形態と同様であり、且つその他の構成及び動作も第1の実施形態と同様であるので説明は割愛する。   Therefore, in this embodiment, a plurality of coordinate conversion functions for correcting such asymmetric chromatic aberration of magnification with respect to the optical axis are prepared in the correction storage unit 253. When the examiner operates the fixation lamp position change switch 36, the control unit 25 controls the light emission position of the fixation lamp, and calculates a coordinate conversion function for correcting asymmetric magnification chromatic aberration corresponding to the fixation lamp position. The operation unit 232 is instructed to be called from the correction storage unit 253. Then, the calculation unit 232 calls the coordinate conversion function for correcting the chromatic aberration of magnification that is asymmetric with respect to the optical axis from the correction storage unit 253, and then performs the same calculation as in the first embodiment. When the eye to be examined is not normal, the coordinate conversion function corresponding to the in-focus lens position detected at the time of shooting is the same as in the first embodiment, and other configurations and operations are the same as in the first embodiment. Therefore, explanation is omitted.

ここで用意した非対称な倍率色収差補正のための座標補正関数は、撮影光学系の光軸に対し、標準的色収差を有する眼球光学系モデルを固視灯が誘導する視線θ方向に傾けた配置で、先の通常被検眼に対する基準座標変換関数と同様にシミュレートすることで作成可能である。眼球光学系と撮影光学系は基本的に同軸光学要素で構成されているため、φ方向に関してはこの座標変換関数を視線方向φへ回転させればよい。また、各視度に対する座標変換関数の作成方法も第1の実施形態と同様に実写画像から作成することができる。   The coordinate correction function for correcting the asymmetric magnification chromatic aberration prepared here is an arrangement in which the eyeball optical system model having standard chromatic aberration is tilted in the direction of the line of sight θ guided by the fixation lamp with respect to the optical axis of the photographing optical system. It can be created by simulating in the same manner as the reference coordinate conversion function for the normal eye to be examined. Since the eyeball optical system and the photographing optical system are basically composed of coaxial optical elements, the coordinate transformation function may be rotated in the line-of-sight direction φ with respect to the φ direction. Also, a method for creating a coordinate conversion function for each diopter can be created from a photographed image as in the first embodiment.

しかし、視線方向の変化に対する倍率色収差の変化は、第1の実施形態に基準座標変換関数に加算的に発生する性格を有している。従って、視線の変更が行なわれている場合に対して、先ず標準眼の視度に対応した座標変換をかけた上で、所定の視度の視線方向θに対する座標変換を視線方向φの方向へ施す手順を取ることができる。本方法によれば、補正記憶部253が記憶する座標変換関数もしくは座標変換用LOTの数を減らすことが可能となる。   However, the change in the chromatic aberration of magnification with respect to the change in the line-of-sight direction has a characteristic that occurs in addition to the reference coordinate conversion function in the first embodiment. Therefore, when the line of sight is changed, first, coordinate conversion corresponding to the diopter of the standard eye is performed, and then the coordinate conversion of the predetermined diopter with respect to the line of sight θ is performed in the direction of the line of sight φ. You can take steps to apply. According to this method, the number of coordinate conversion functions or coordinate conversion LOTs stored in the correction storage unit 253 can be reduced.

さらに、本実施形態では、視線方法の検出において固視灯の位置を用いているが、視線方向は、実画像上の乳頭位置と左右眼区別により検出することも可能であることはいうまでもない。この場合では乳頭の存在が画像上確認できない場合には、倍率色収差の補正を行わないようにすることもできる。   Furthermore, in the present embodiment, the position of the fixation lamp is used in the detection of the gaze method, but it goes without saying that the gaze direction can also be detected by discriminating between the nipple position on the actual image and the left and right eyes. Absent. In this case, if the presence of the nipple cannot be confirmed on the image, the lateral chromatic aberration can be corrected.

上記実施形態によれば、撮像素子の持つ解像度を十分に保ったまま倍率色収差を補正することが可能となる。上記実施形態により生成される眼底画像は、色収差がほとんど無く、かつ十分な解像度を有することから、従来の眼底画像に比して非常に高い診断価値を有することになる。また、上記画素補間の過程において基準面はG平面とすることにより、従来の単板カラーカメラと共通の信号処理を共用可能となり、コストダウンの効果を有する。   According to the above embodiment, it is possible to correct lateral chromatic aberration while maintaining a sufficient resolution of the image sensor. Since the fundus image generated by the above embodiment has almost no chromatic aberration and has a sufficient resolution, it has a very high diagnostic value as compared with the conventional fundus image. Further, by setting the reference plane to the G plane in the pixel interpolation process, it is possible to share the same signal processing with the conventional single-panel color camera, and the cost can be reduced.

ここで用いられる座標変換関数は、眼底カメラ光学系の設計データ及び標準的色収差を有する眼球光学系モデルによって生成される倍率色収差の補正量を利用して生成されたものである。或いは、座標変換関数は、既知の光学系で撮影された様々な被検眼視度の画像から推定された倍率色収差の補正量を利用して生成されたものである。従って、被検眼の光学系で発生する倍率色収差を含め、十分な倍率色収差の補正が可能である。   The coordinate conversion function used here is generated using design data of the fundus camera optical system and a correction amount of lateral chromatic aberration generated by an eyeball optical system model having standard chromatic aberration. Alternatively, the coordinate conversion function is generated by using a correction amount of lateral chromatic aberration estimated from images of various diopter diopters photographed with a known optical system. Accordingly, it is possible to sufficiently correct the lateral chromatic aberration including the lateral chromatic aberration that occurs in the optical system of the eye to be examined.

さらに、上記実施形態では、レンズ位置検出器37の出力に応じた座標変換関数を与えることにより、視度の異なる被検眼に対しても適切な補正を行うことができる。また、上記実施形態では、生成された眼底画像に電子マスクをかけることにより、マスク部分に発生するアーティファクトの無い眼底画像を提供することができる。また、座標変換は実体マスクの通過部分に制限することにより同等の効果が得られることになる。   Furthermore, in the above-described embodiment, by providing a coordinate conversion function according to the output of the lens position detector 37, it is possible to perform appropriate correction even for the subject's eyes having different diopters. In the above-described embodiment, a fundus image free from artifacts generated in the mask portion can be provided by applying an electronic mask to the generated fundus image. In addition, the same effect can be obtained by limiting the coordinate transformation to the passage part of the substance mask.

また、上記実施形態では、IOL眼であることを入力すると、IOL眼に対する補正も適切に行うことが可能である。さらに、上記実施形態では、被検眼の視線方向(光軸)に応じた座標変換関数を与えることにより、任意の撮影部位に対しても適切な補正を行うことができる。この際の視線方向の検出に固視標位置を利用することにより、特別な構成を用いることなく、この効果を得ることができる。また、視線方向は乳頭位置と左右眼区別により推定することも可能である。   Moreover, in the said embodiment, if it inputs that it is an IOL eye, correction | amendment with respect to an IOL eye can also be performed appropriately. Furthermore, in the above-described embodiment, appropriate correction can be performed for any imaging region by giving a coordinate conversion function corresponding to the line-of-sight direction (optical axis) of the eye to be examined. By using the fixation target position for detection of the gaze direction at this time, this effect can be obtained without using a special configuration. The line-of-sight direction can also be estimated by discriminating the nipple position and the left and right eyes.

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

23:画像信号処理部、25:制御部、37:レンズ位置検出器、39:固視灯光源、232:演算部、235:R平面メモリ、236:G平面メモリ、237:B平面メモリ   23: Image signal processing unit, 25: Control unit, 37: Lens position detector, 39: Fixation lamp light source, 232: Calculation unit, 235: R plane memory, 236: G plane memory, 237: B plane memory

Claims (12)

被検眼の眼底を照明する照明手段と、
複数色の色フィルタを介して前記眼底からの反射光を入射し、眼底像を撮像する撮像手段と、
前記眼底の撮影時における合焦状態に応じて、前記複数色のうちの所定の色の画素値の座標を基準座標として他の色の画素値の座標を変換する座標変換手段と、
座標変換後における前記他の色の画素値に基づいて、当該画素値に対応する座標変換前の座標における前記他の色の画素値を算出する算出手段と、
前記所定の色の画素値に基づいて、前記所定の色における他の座標の画素値を補間する第1の補間手段と、
前記第1の補間手段により画素値が補間された前記所定の色の画素値と、前記算出手段により座標変換前の座標における前記他の色の画素値とに基づいて、前記他の色における他の座標の画素値を補間する第2の補間手段とを有することを特徴とする画像処理装置。
Illumination means for illuminating the fundus of the eye to be examined;
An imaging unit that receives reflected light from the fundus via a color filter of a plurality of colors and captures a fundus image;
Coordinate conversion means for converting the coordinates of pixel values of other colors using the coordinates of pixel values of a predetermined color of the plurality of colors as reference coordinates according to the in-focus state at the time of photographing the fundus;
Based on the pixel value of the other color after coordinate conversion, calculation means for calculating the pixel value of the other color at coordinates before coordinate conversion corresponding to the pixel value;
First interpolation means for interpolating pixel values of other coordinates in the predetermined color based on the pixel values of the predetermined color;
Based on the pixel value of the predetermined color in which the pixel value is interpolated by the first interpolation means and the pixel value of the other color in the coordinates before coordinate conversion by the calculation means, the other color in the other color And a second interpolation means for interpolating pixel values of the coordinates of the image processing apparatus.
前記所定の色は、前記撮像手段において前記複数色のうち最も画素数の多い色であることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the predetermined color is a color having the largest number of pixels among the plurality of colors in the imaging unit. 前記座標変換手段は、標準的な色収差を有する眼球光学系モデルと前記眼球光学系モデルに光軸が一致するように配置された眼底カメラ光学系の設計データとを用いて生成された座標変換関数を用いて座標変換を行うことを特徴とする請求項1又は2に記載の画像処理装置。   The coordinate conversion means includes a coordinate conversion function generated using an eyeball optical system model having standard chromatic aberration and design data of a fundus camera optical system arranged so that an optical axis coincides with the eyeball optical system model. The image processing apparatus according to claim 1, wherein coordinate conversion is performed using the image processing apparatus. 前記座標変換手段は、既知の光学系で撮影された複数の被検眼視度の人眼画像から推定される倍率色収差の補正量に基づいて生成された座標変換関数を用いて座標変換を行うことを特徴とする請求項1又は2に記載の画像処理装置。   The coordinate conversion means performs coordinate conversion using a coordinate conversion function generated based on a correction amount of chromatic aberration of magnification estimated from a human eye image of a plurality of eye diopters photographed with a known optical system. The image processing apparatus according to claim 1, wherein: 前記撮像手段の撮像範囲を規定するマスクをかけるマスク手段を更に有し、
前記座標変換手段は、前記マスクがかけられた部分以外の画素値に対して座標変換を行うことを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。
Mask means for applying a mask for defining an imaging range of the imaging means;
5. The image processing apparatus according to claim 1, wherein the coordinate conversion unit performs coordinate conversion on a pixel value other than a portion on which the mask is applied. 6.
前記座標変換手段は、IOL眼に対応した座標変換を行うことを特徴とする請求項1乃至5の何れか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the coordinate conversion unit performs coordinate conversion corresponding to an IOL eye. 前記座標変換手段は、前記被検眼の光軸が前記撮像手段の光軸と一致しない場合に対応する座標変換を行うことを特徴とする請求項1乃至5の何れか1項に記載の画像処理装置。   6. The image processing according to claim 1, wherein the coordinate conversion unit performs coordinate conversion corresponding to a case where the optical axis of the eye to be examined does not coincide with the optical axis of the imaging unit. apparatus. 前記座標変換手段は、前記被検眼の光軸の方向に応じて異なる座標変換を行うことを特徴とする請求項7に記載の画像処理装置。   The image processing apparatus according to claim 7, wherein the coordinate conversion unit performs different coordinate conversion according to a direction of an optical axis of the eye to be examined. 前記被検眼の光軸の方向を固視灯の位置から検出する検出手段を更に有することを特徴とする請求項8に記載の画像処理装置。   The image processing apparatus according to claim 8, further comprising detection means for detecting a direction of an optical axis of the eye to be examined from a position of a fixation lamp. 前記被検眼の光軸の方向を乳頭位置と左右眼区別とから検出する検出手段を更に有することを特徴とする請求項8に記載の画像処理装置。   The image processing apparatus according to claim 8, further comprising a detecting unit that detects a direction of an optical axis of the eye to be examined from a nipple position and a left / right eye distinction. 被検眼の眼底を照明する照明手段と、複数色の色フィルタを介して前記眼底からの反射光を入射し、眼底像を撮像する撮像手段とを有する画像処理装置によって実行される画像処理方法であって、
前記眼底の撮影時における合焦状態に応じて、前記複数色のうちの所定の色の画素値の座標を基準座標として他の色の画素値の座標を変換する座標変換ステップと、
座標変換後における前記他の色の画素値に基づいて、当該画素値に対応する座標変換前の座標における前記他の色の画素値を算出する算出ステップと、
前記所定の色の画素値に基づいて、前記所定の色における他の座標の画素値を補間する第1の補間ステップと、
前記第1の補間ステップにより画素値が補間された前記所定の色の画素値と、前記算出ステップにより座標変換前の座標における前記他の色の画素値とに基づいて、前記他の色における他の座標の画素値を補間する第2の補間ステップとを含むことを特徴とする画像処理方法。
An image processing method executed by an image processing apparatus including an illuminating unit that illuminates the fundus of a subject's eye and an imaging unit that receives reflected light from the fundus via a plurality of color filters and captures a fundus image There,
A coordinate conversion step for converting the coordinates of pixel values of other colors using the coordinates of pixel values of a predetermined color of the plurality of colors as reference coordinates according to the in-focus state at the time of photographing the fundus;
Based on the pixel value of the other color after coordinate conversion, a calculation step of calculating the pixel value of the other color at coordinates before coordinate conversion corresponding to the pixel value;
A first interpolation step of interpolating pixel values of other coordinates in the predetermined color based on the pixel values of the predetermined color;
Based on the pixel value of the predetermined color in which the pixel value is interpolated by the first interpolation step and the pixel value of the other color at the coordinates before coordinate conversion by the calculation step, the other color in the other color And a second interpolation step for interpolating pixel values of the coordinates of the image processing method.
被検眼の眼底を照明する照明手段と、複数色の色フィルタを介して前記眼底からの反射光を入射し、眼底像を撮像する撮像手段とを有する画像処理装置によって実行される画像処理方法をコンピュータに実行させるためのプログラムであって、
前記眼底の撮影時における合焦状態に応じて、前記複数色のうちの所定の色の画素値の座標を基準座標として他の色の画素値の座標を変換する座標変換ステップと、
座標変換後における前記他の色の画素値に基づいて、当該画素値に対応する座標変換前の座標における前記他の色の画素値を算出する算出ステップと、
前記所定の色の画素値に基づいて、前記所定の色における他の座標の画素値を補間する第1の補間ステップと、
前記第1の補間ステップにより画素値が補間された前記所定の色の画素値と、前記算出ステップにより座標変換前の座標における前記他の色の画素値とに基づいて、前記他の色における他の座標の画素値を補間する第2の補間ステップとをコンピュータに実行させるためのプログラム。
An image processing method executed by an image processing apparatus comprising: an illuminating unit that illuminates the fundus of the eye to be examined; and an imaging unit that receives reflected light from the fundus via a plurality of color filters and captures a fundus image. A program for causing a computer to execute,
A coordinate conversion step for converting the coordinates of pixel values of other colors using the coordinates of pixel values of a predetermined color of the plurality of colors as reference coordinates according to the in-focus state at the time of photographing the fundus;
Based on the pixel value of the other color after coordinate conversion, a calculation step of calculating the pixel value of the other color at coordinates before coordinate conversion corresponding to the pixel value;
A first interpolation step of interpolating pixel values of other coordinates in the predetermined color based on the pixel values of the predetermined color;
Based on the pixel value of the predetermined color in which the pixel value is interpolated by the first interpolation step and the pixel value of the other color at the coordinates before coordinate conversion by the calculation step, the other color in the other color A program for causing a computer to execute a second interpolation step for interpolating pixel values of the coordinates.
JP2010126566A 2010-06-02 2010-06-02 Image processing apparatus, image processing method, and program Expired - Fee Related JP5025761B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010126566A JP5025761B2 (en) 2010-06-02 2010-06-02 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010126566A JP5025761B2 (en) 2010-06-02 2010-06-02 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2011250976A true JP2011250976A (en) 2011-12-15
JP5025761B2 JP5025761B2 (en) 2012-09-12

Family

ID=45415437

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010126566A Expired - Fee Related JP5025761B2 (en) 2010-06-02 2010-06-02 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP5025761B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103211575A (en) * 2013-03-06 2013-07-24 南京航空航天大学 Control method for human eye aberration correction
JP2013169332A (en) * 2012-02-21 2013-09-02 Canon Inc Optical image photographing apparatus
JP2019063243A (en) * 2017-09-29 2019-04-25 株式会社ニデック Ophthalmologic imaging apparatus
JP7468162B2 (en) 2020-06-03 2024-04-16 株式会社ニデック Fundus image processing program and fundus photographing device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0381879A (en) * 1989-08-24 1991-04-08 Canon Inc Medical image processor
JP2002535022A (en) * 1999-01-22 2002-10-22 ハーグ−シュトライト アーゲー An ophthalmic device comprising a beam for illumination and / or radiation therapy and having an adjustable planar luminous intensity distribution of the beam, and an arrangement comprising this device for treatment of the eye
JP2006020275A (en) * 2004-05-31 2006-01-19 Nikon Corp Image processing device for detecting magnification chromatic aberration from raw data, image processing program, and electronic camera
JP2009049482A (en) * 2007-08-13 2009-03-05 Olympus Corp Image processing device, imaging device,image processing program, and image processing method
JP2009194573A (en) * 2008-02-13 2009-08-27 Ricoh Co Ltd Method and device for image processing, and imaging device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0381879A (en) * 1989-08-24 1991-04-08 Canon Inc Medical image processor
JP2002535022A (en) * 1999-01-22 2002-10-22 ハーグ−シュトライト アーゲー An ophthalmic device comprising a beam for illumination and / or radiation therapy and having an adjustable planar luminous intensity distribution of the beam, and an arrangement comprising this device for treatment of the eye
JP2006020275A (en) * 2004-05-31 2006-01-19 Nikon Corp Image processing device for detecting magnification chromatic aberration from raw data, image processing program, and electronic camera
JP2009049482A (en) * 2007-08-13 2009-03-05 Olympus Corp Image processing device, imaging device,image processing program, and image processing method
JP2009194573A (en) * 2008-02-13 2009-08-27 Ricoh Co Ltd Method and device for image processing, and imaging device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013169332A (en) * 2012-02-21 2013-09-02 Canon Inc Optical image photographing apparatus
CN103211575A (en) * 2013-03-06 2013-07-24 南京航空航天大学 Control method for human eye aberration correction
JP2019063243A (en) * 2017-09-29 2019-04-25 株式会社ニデック Ophthalmologic imaging apparatus
JP7024294B2 (en) 2017-09-29 2022-02-24 株式会社ニデック Ophthalmologic photography equipment
JP7468162B2 (en) 2020-06-03 2024-04-16 株式会社ニデック Fundus image processing program and fundus photographing device

Also Published As

Publication number Publication date
JP5025761B2 (en) 2012-09-12

Similar Documents

Publication Publication Date Title
JP6066595B2 (en) Fundus image processing apparatus, fundus image processing method, and program
JP5232165B2 (en) Optical system for fundus camera
JP5371638B2 (en) Ophthalmic imaging apparatus and method
US10098541B2 (en) Image processing apparatus
JP5773598B2 (en) Image processing apparatus, image processing method, and program
JP2023009530A (en) Image processing method, image processing device, and program
EP3697287B1 (en) Flash optimization during retinal burst imaging
US11786120B2 (en) Dynamic eye fixation for retinal imaging
JP2013248254A (en) Ophthalmic device
JP7306467B2 (en) Image processing method, image processing apparatus, and program
JP5025761B2 (en) Image processing apparatus, image processing method, and program
JP5340955B2 (en) Optical device for improving the quality of fundus images intended for ophthalmic devices
JP2016140428A (en) Ophthalmologic apparatus, image processing method, and program
JP2017184787A (en) Ophthalmology imaging apparatus and image processing program
JP6884995B2 (en) Ophthalmologic imaging equipment and image processing program
JP5048103B2 (en) Ophthalmic imaging equipment
JP2021104229A (en) Ocular fundus image processing device and ocular fundus image processing program
US20160089027A1 (en) Method for photographically observing and/or documenting the fundus of an eye, and fundus camera
JP2023033406A (en) Ophthalmologic apparatus
JP2020039490A (en) Image processing device, medical diagnostic system, learned model, image processing method, and program
KR20140053790A (en) Fundus imaging apparatus and control method
JP5460490B2 (en) Ophthalmic equipment
JPWO2020111104A1 (en) Ophthalmic equipment
JP6558161B2 (en) Ophthalmic apparatus and image processing program
CN114599267A (en) Image processing method, image processing apparatus, and program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120221

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120522

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120619

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150629

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5025761

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees