JP6507528B2 - Ophthalmic device - Google Patents

Ophthalmic device Download PDF

Info

Publication number
JP6507528B2
JP6507528B2 JP2014174714A JP2014174714A JP6507528B2 JP 6507528 B2 JP6507528 B2 JP 6507528B2 JP 2014174714 A JP2014174714 A JP 2014174714A JP 2014174714 A JP2014174714 A JP 2014174714A JP 6507528 B2 JP6507528 B2 JP 6507528B2
Authority
JP
Japan
Prior art keywords
image
imaging
optical system
mask
optical axis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014174714A
Other languages
Japanese (ja)
Other versions
JP2016049158A (en
JP2016049158A5 (en
Inventor
一貴 岡田
一貴 岡田
晃一 伊藤
晃一 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidek Co Ltd
Original Assignee
Nidek Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nidek Co Ltd filed Critical Nidek Co Ltd
Priority to JP2014174714A priority Critical patent/JP6507528B2/en
Publication of JP2016049158A publication Critical patent/JP2016049158A/en
Publication of JP2016049158A5 publication Critical patent/JP2016049158A5/en
Application granted granted Critical
Publication of JP6507528B2 publication Critical patent/JP6507528B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本開示は、被検者眼の眼情報を取得する眼科装置関する。 The present disclosure relates to an ophthalmic apparatus for obtaining ocular information of the eye.

被検者眼を撮像して得た受光画像に含まれる不要な画像情報を取り除くために、受光画像の不要な領域に電子マスクと呼ばれる電子的なマスキング処理を施して診断画像(合成画像)とする眼科装置が知られている(例えば特許文献1参照)。   In order to remove unnecessary image information included in the light reception image obtained by imaging the subject's eye, an unnecessary area of the light reception image is subjected to an electronic masking process called an electronic mask to obtain a diagnostic image (composite image) An ophthalmologic apparatus is known (see, for example, Patent Document 1).

特開平9−206278号公報JP-A-9-206278

しかしながら、画像の中心とは異なる位置(座標)に撮影光軸が形成される受光画像に対して、受光画像の中心を基準とした電子マスク処理を施しても、撮影光軸に対して不均等に電子マスクが行われる。例えば、撮影光軸に対して一方の側の合成画像は、不要な領域にマスキングが行われるが、他方の側の合成画像は、不要な領域にマスキングが行われない場合があった。また、合成画像に対して画像処理または解析を行う場合、撮影光軸に対して非対称な画像処理または解析を行ってしまう可能性があった。また、単に受光画像の不要な領域をマスキングしただけでは、異なる眼科装置で撮影した撮影画像同士の比較、もしくは同一の眼科装置であっても、異なる光学系を用いて撮影した撮影画像同士の比較が好適に行えない可能性があった。   However, even if electronic mask processing is performed with respect to the center of the received light image, the received light image in which the shooting optical axis is formed at a position (coordinates) different from the center of the image is uneven with respect to the shooting optical axis. An electronic mask is performed. For example, the composite image on one side with respect to the photographing optical axis may be masked in the unnecessary region, but the composite image in the other side may not be masked in the unnecessary region. In addition, when performing image processing or analysis on a composite image, there is a possibility that image processing or analysis asymmetric with respect to the imaging optical axis may be performed. In addition, simply by masking unnecessary areas of the received light image, comparison between photographed images taken by different ophthalmologic apparatuses, or even between the same ophthalmologic apparatus, comparison between photographed images taken using different optical systems There was a possibility that it could not be done suitably.

本開示は、従来技術の少なくとも1つの課題を解決することを技術課題とする。   The present disclosure makes it a technical subject to solve at least one subject of the prior art.

上記課題を解決するために、本発明は以下のような構成を備えることを特徴とする。
(1) 受光画像にマスク画像を合成して合成画像を出力する眼科装置であって、光学系を介して撮像素子で被検者眼の前記受光画像を得る撮像手段と、前記受光画像の中心と前記光学系の光軸とのズレであって、前記眼科装置の組み立て時に装置個別に生じる前記ズレを考慮して前記受光画像に前記マスク画像を合成するマスク合成手段と、前記ズレを考慮した前記受光画像に前記マスク画像を合成させる座標に関する情報を装置個別の基準位置情報として記憶する記憶手段と、を備え、前記マスク合成手段は、前記基準位置情報を用いて前記マスク画像の中心が前記光軸となるように前記組み立て時に生じるズレが考慮された前記合成画像を生成することを特徴とする。
In order to solve the above-mentioned subject, the present invention is characterized by having the following composition.
(1) An ophthalmologic apparatus which combines a mask image with a received light image and outputs a composite image, an imaging unit for obtaining the received light image of the subject's eye with an imaging device via an optical system, and a center of the received light image And a mask combining means for combining the mask image with the received light image in consideration of the shift between the optical system of the optical system and the optical axis of the optical system, and the shift being taken into account. Storage means for storing information on coordinates for combining the mask image with the received light image as reference position information specific to each apparatus , the mask combining means using the reference position information to set the center of the mask image to the It is characterized in that the composite image is generated in which the displacement occurring at the time of the assembly is considered so as to be the optical axis .

眼科装置の外観構成図である。It is an external appearance block diagram of an ophthalmologic apparatus. 撮影部に収容される光学系及び制御系の概略構成図である。It is a schematic block diagram of the optical system and control system which are accommodated in an imaging | photography part. 受光画像とマスク画像の合成を説明するフローチャートである。It is a flowchart explaining combination of a light receiving image and a mask image. 受光画像の説明図である。It is explanatory drawing of a light reception image. マスク画像の説明図である。It is explanatory drawing of a mask image. 合成画像の説明図である。It is explanatory drawing of a synthetic | combination image. 図3のフローチャートの説明に用いる図である。It is a figure used for description of the flowchart of FIG. 眼科装置の製造方法を説明するフローチャートである。It is a flowchart explaining the manufacturing method of an ophthalmologic apparatus. 治具Aが用いるチャートの図である。It is a figure of the chart which the jig | tool A uses. 眼科装置の製造方法の図であり、眼底撮影光学系が係わる説明図である。It is a figure of the manufacturing method of an ophthalmologic apparatus, and is explanatory drawing in which a fundus imaging optical system is related. 眼科装置の製造方法の図であり、眼底撮影光学系が係わる説明図である。It is a figure of the manufacturing method of an ophthalmologic apparatus, and is explanatory drawing in which a fundus imaging optical system is related. 眼科装置の製造方法の図であり、OCT光学系が係わる説明図である。It is a figure of the manufacturing method of an ophthalmologic apparatus, and is explanatory drawing in which an OCT optical system is related. 眼科装置の製造方法の図であり、眼底観察光学系が係わる説明図である。It is a figure of the manufacturing method of an ophthalmologic apparatus, and is explanatory drawing in which a fundus observation optical system is related.

以下、図面を参照して、本開示における典型的な実施形態を説明する。図1は本実施形態に係る眼科装置100の外観構成図である。眼科装置100は、基台1、XY摺動機構2、Y駆動部6、撮影部3、モニタ8、操作部材4、および顔支持ユニット5を備える。   Hereinafter, exemplary embodiments of the present disclosure will be described with reference to the drawings. FIG. 1 is an external view of an ophthalmologic apparatus 100 according to the present embodiment. The ophthalmologic apparatus 100 includes a base 1, an XY sliding mechanism 2, a Y drive unit 6, an imaging unit 3, a monitor 8, an operation member 4, and a face support unit 5.

XY摺動機構2は、検者が操作部材4を操作することで、基台1に対して左右方向(X方向)及び前後方向(Z方向)に移動可能とされている。Y駆動部6は、検者が操作部材4の回転ノブ4aを操作することで、撮影部3を基台1に対して上下方向(Y方向)に移動可能とされている。撮影部3は、後述する眼底撮影光学系10を含む光学系を収納する。モニタ8は、撮影部3が取得した被検者眼Eの画像情報、および眼科装置100の各種設定等を表示する表示手段とされる。   The XY sliding mechanism 2 is movable in the left-right direction (X direction) and the front-rear direction (Z direction) with respect to the base 1 by the examiner operating the operation member 4. The Y drive unit 6 is movable in the vertical direction (Y direction) with respect to the base 1 by the examiner operating the rotation knob 4 a of the operation member 4. The imaging unit 3 accommodates an optical system including a fundus imaging optical system 10 described later. The monitor 8 is a display unit that displays the image information of the subject's eye E acquired by the imaging unit 3 and various settings of the ophthalmologic apparatus 100.

操作部材4は、被検者眼Eに対して撮影部3をXYZ方向に移動させるための操作手段である。操作部材4は、回転ノブ4a、および撮影スイッチ4bを含む。操作部材4は、XY摺動機構2から離れる方向に伸びる棒状の部材である。操作部材4をジョイスティックと呼んでもよい。回転ノブ4aは、操作部材4の側面に設けられている。撮影スイッチ4bは、操作部材4の上端に設けられている。顔支持ユニット5は、基台1に固設され、被検者の顔を支持する。   The operation member 4 is an operation means for moving the imaging unit 3 in the XYZ directions with respect to the subject's eye E. The operation member 4 includes a rotation knob 4a and a photographing switch 4b. The operation member 4 is a rod-like member extending in the direction away from the XY sliding mechanism 2. The operation member 4 may be called a joystick. The rotation knob 4 a is provided on the side surface of the operation member 4. The photographing switch 4 b is provided at the upper end of the operation member 4. The face support unit 5 is fixed to the base 1 and supports the subject's face.

図2は、撮影部3に収容される光学系、および制御系の概略構成図である。撮影部3は、眼底撮影光学系10(第1撮像光学系)、眼底観察光学系20(第2撮像光学系)、前眼部観察光学系30(第3撮像光学系)、眼底照明光学系40(第1投光光学系)、前眼部照明光学系50(第2投光光学系)、およびOCT光学系60を含む。   FIG. 2 is a schematic configuration diagram of an optical system and a control system accommodated in the imaging unit 3. The imaging unit 3 includes a fundus imaging optical system 10 (first imaging optical system), a fundus observation optical system 20 (second imaging optical system), an anterior segment observation optical system 30 (third imaging optical system), and a fundus illumination optical system. 40 (first projection optical system), anterior eye illumination optical system 50 (second projection optical system), and OCT optical system 60.

眼底撮影光学系10は、被検者眼Eの眼底Erを、静止画または動画で撮像するための光学系とされている。なお、操作部材4を操作して、撮影部3と被検者眼Eとを眼底Erを撮影する際よりも大きく離間させれば、眼底撮影光学系10を用いて被検者眼Eの前眼部Ecを撮影することも可能である。眼底観察光学系20は、被検者眼Eの眼底Erを動画で撮像するための光学系とされている。前眼部観察光学系30は、被検者眼Eの前眼部Ecを動画で撮像するための光学系とされている。   The fundus imaging optical system 10 is an optical system for imaging the fundus Er of the subject's eye E with a still image or a moving image. When the operation member 4 is operated to separate the imaging unit 3 and the subject's eye E by a distance larger than when imaging the fundus Er, the fundus imaging optical system 10 is used to front the subject's eye E. It is also possible to shoot the eye Ec. The fundus oculi observation optical system 20 is an optical system for imaging the fundus oculi Er of the subject's eye E with a moving image. The anterior eye observation optical system 30 is an optical system for imaging the anterior eye Ec of the subject's eye E as a moving image.

眼底照明光学系40は、被検者眼Eの眼底Erを照明するための光学系とされている。前眼部照明光学系50は、被検者眼Eの前眼部Ecを照明するための光学系とされている。OCT光学系60は、被検者眼Eの眼底Erまたは前眼部Ecの、少なくとも断層画像を撮像するための光学系とされている。OCT光学系60は、光学系を介して受光素子で被検者眼Eの受光画像を得る撮像手段の一例として用いられる。OCT光学系60は、例えば、OCTユニット61を有する。OCTユニット61は、OCT光源からの測定光(被検眼に照射される)と参照光とを干渉させる干渉計と、測定光と参照光との干渉を受光するための受光素子(例えば、ラインセンサ、APD等)を含む。OCTユニット61の原理は特に限定されず、SD−OCT、SS−OCT、TD―OCTであってもよい。OCTユニット61は光軸L3を用いる。OCTユニット61は、対物レンズ11を、眼底撮影光学系10、眼底観察光学系20、および前眼部観察光学系30と共用する。   The fundus illumination optical system 40 is an optical system for illuminating the fundus Er of the subject's eye E. The anterior eye illumination optical system 50 is an optical system for illuminating the anterior eye Ec of the subject's eye E. The OCT optical system 60 is an optical system for capturing at least a tomographic image of the fundus Er or the anterior segment Ec of the subject's eye E. The OCT optical system 60 is used as an example of an imaging unit that obtains a light receiving image of the subject's eye E with a light receiving element via the optical system. The OCT optical system 60 has an OCT unit 61, for example. The OCT unit 61 includes an interferometer that causes the measurement light from the OCT light source (which is irradiated to the eye to be examined) to interfere with the reference light, and a light receiving element for receiving the interference between the measurement light and the reference light (for example, a line sensor , APD etc.). The principle of the OCT unit 61 is not particularly limited, and may be SD-OCT, SS-OCT, or TD-OCT. The OCT unit 61 uses the optical axis L3. The OCT unit 61 shares the objective lens 11 with the fundus imaging optical system 10, the fundus observation optical system 20, and the anterior segment observation optical system 30.

<眼底撮影光学系> 眼底撮影光学系10は、光学系を介して撮像素子16で被検者眼Eの受光画像を得る撮像手段の一例として用いられる。眼底撮影光学系10は、例えば、対物レンズ11、孔あきミラー12、撮像絞り13、フォーカシングレンズ14、結像レンズ15、および撮像素子16を備える。眼底撮影光学系10は光軸L1を用いる。対物レンズ11は、被検者眼Eの前方に配置される。撮像絞り13は、対物レンズ11を介して被検者眼Eの瞳孔Epと略共役となる位置に配置される。フォーカシングレンズ14は、光軸(後述する光軸L1および光軸L2)の軸方向に移動可能とされている。後述する跳ね上げミラー21は、眼底撮影光学系10と眼底観察光学系20とで一部の光路を共用するための光路分岐部材とされている。跳ね上げミラー21は、撮像素子16で撮像する際には、挿脱機構321によって眼底撮影光学系10の光路から退避される。ダイクロイックミラー31は、眼底撮影光学系10を用いた撮影の際は、挿脱機構331によって眼底撮影光学系10の光路外に退避される。   <Fundus imaging optical system> The fundus imaging optical system 10 is used as an example of an imaging unit that obtains a light reception image of the subject's eye E with the imaging element 16 via the optical system. The fundus imaging optical system 10 includes, for example, an objective lens 11, a perforated mirror 12, an imaging diaphragm 13, a focusing lens 14, an imaging lens 15, and an imaging element 16. The fundus imaging optical system 10 uses an optical axis L1. The objective lens 11 is disposed in front of the subject's eye E. The imaging diaphragm 13 is disposed at a position substantially conjugate to the pupil Ep of the subject's eye E via the objective lens 11. The focusing lens 14 is movable in the axial direction of an optical axis (an optical axis L1 and an optical axis L2 described later). The flip-up mirror 21 described later is an optical path branching member for sharing a part of the optical path between the fundus imaging optical system 10 and the fundus observation optical system 20. The flip-up mirror 21 is retracted from the optical path of the fundus imaging optical system 10 by the insertion and removal mechanism 321 when imaging is performed by the imaging element 16. The dichroic mirror 31 is retracted out of the optical path of the fundus imaging optical system 10 by the insertion and removal mechanism 331 at the time of imaging using the fundus imaging optical system 10.

撮像素子16は2次元撮像素子とされている。眼底撮影光学系10と後述する眼底照明光学系40は、被検者眼Eの眼底Erを可視光で撮像するカラー眼底撮像手段の一例として用いられる。されている。眼科装置100を組み立てる際に、カラー眼底撮像手段は、被写体を動画および静止画で撮像し、眼科装置100を使用する際に、カラー眼底撮像手段は、被検者眼Eを静止画で撮像する。撮像素子16、撮像素子24、および撮像素子36に、CCD(Charge Coupled Device)イメージセンサ、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等を用いてもよい。撮像素子16は、単板のイメージセンサである。撮像素子16は、カラー撮影を行うためにベイヤ配列のカラーフィルタを用いている。カラー撮像手段として用いる受光素子(受光手段)はこれに限るものではなく、例えば、イメージサンサを3つ用いた3板方式の受光手段としてもよい。   The imaging device 16 is a two-dimensional imaging device. The fundus imaging optical system 10 and the fundus illumination optical system 40 described later are used as an example of a color fundus imaging means for imaging the fundus Er of the subject's eye E with visible light. It is done. When assembling the ophthalmologic apparatus 100, the color fundus imaging means images the subject with a moving image and a still image, and when using the ophthalmologic apparatus 100, the color fundus imaging means images the subject eye E with a still image . A charge coupled device (CCD) image sensor, a complementary metal oxide semiconductor (CMOS) image sensor, or the like may be used as the image sensor 16, the image sensor 24, and the image sensor 36. The imaging device 16 is a single-plate image sensor. The imaging element 16 uses a Bayer-arranged color filter to perform color photographing. The light receiving element (light receiving means) used as the color imaging means is not limited to this, and may be, for example, a three-plate light receiving means using three image sensors.

また、撮像素子16は、受光画像を生成するプリ画像処理部312に接続されている。プリ画像処理部312は、撮像素子16の出力信号を信号処理するコンピュータでもある。撮像素子16とプリ画像処理部312とを一体化して撮影カメラユニット313を形成している。眼科装置100の内部に撮影カメラユニット313が含まれる。2次元画像の生成に特化されたプロセッサ(コンピュータ)がプリ画像処理部312に用いられている。撮影カメラユニット313が、2次元画像の生成に特化されたプロセッサを用いることで、受光画像の生成を制御部391で行うよりも短い時間で受光画像を生成できる。したがって、撮影後、速やかに合成画像を検者へ呈示できる。受光画像を生成するまでの信号処理をプリ画像処理部312で行い、マスク合成のみ制御部391が行うことで、制御部391の信号処理の負担が低減し、制御部391を構成する部品の費用を低減することが出来る。撮影カメラユニット313は、記憶手段として不揮発性メモリを有している。記憶手段には、撮影カメラユニット313の光学的な調整値が記憶されている。光学的な調整値の一例として、色調整係数または階調変換係数が考えられる。撮影カメラユニット313が記憶手段を有することで、例えば、撮影カメラユニット313の交換が容易となる。   The imaging element 16 is also connected to a pre-image processing unit 312 that generates a light reception image. The pre-image processing unit 312 is also a computer that processes the output signal of the imaging device 16. The image pickup device 16 and the pre-image processing unit 312 are integrated to form a photographing camera unit 313. The photographing camera unit 313 is included in the inside of the ophthalmologic apparatus 100. A processor (computer) specialized for generating a two-dimensional image is used in the pre-image processing unit 312. By using a processor specialized for generating a two-dimensional image, the imaging camera unit 313 can generate a light reception image in a shorter time than the generation of the light reception image by the control unit 391. Therefore, the composite image can be presented to the examiner immediately after shooting. The signal processing until the light reception image is generated is performed by the pre-image processing unit 312, and the control unit 391 performs only the mask composition, thereby reducing the load of the signal processing of the control unit 391 Can be reduced. The photographing camera unit 313 has a non-volatile memory as a storage unit. In the storage means, the optical adjustment value of the photographing camera unit 313 is stored. A color adjustment coefficient or a gradation conversion coefficient can be considered as an example of the optical adjustment value. When the photographing camera unit 313 has storage means, for example, replacement of the photographing camera unit 313 becomes easy.

<眼底観察光学系> 眼底観察光学系20は、光学系を介して撮像素子24で被検者眼Eの受光画像を得る撮像手段の一例として用いられる。眼底観察光学系20は、例えば、対物レンズ11から結像レンズ15までの光学系を眼底撮影光学系10と共用する。眼底観察光学系20は、跳ね上げミラー21、ミラー22、レンズ23、および撮像素子24を含む。眼底観察光学系20は光軸L2を用いる。撮像素子38で撮像する際、挿脱機構321によって跳ね上げミラー21は眼底撮影光学系10の光路上に挿入される。撮像素子24は、少なくとも赤外光に感度を有する2次元撮像素子とされる。眼底撮影光学系10と後述する眼底照明光学系40とによって、被検者眼Eの眼底Erを赤外光で撮像するモノクロ観察撮像手段とされる。眼底観察光学系20を用いた観察の際、ダイクロイックミラー31は眼底観察光学系20の光路に挿入される。ミラー22はダイクロイックミラーであり、光路合成部材である。光源73、遮光板72、およびレンズ71によって、被検者眼Eの視線を誘導する固視標呈示手段が形成される。ミラー22は、光源73の波長に対応した可視光を透過し、撮像素子24が受光する波長に対応した赤外光を反射する。   <Fundus observation optical system> The fundus observation optical system 20 is used as an example of an imaging unit that obtains a light reception image of the subject's eye E with the imaging device 24 via the optical system. The fundus observation optical system 20 shares, for example, an optical system from the objective lens 11 to the imaging lens 15 with the fundus imaging optical system 10. The fundus oculi observation optical system 20 includes a flip-up mirror 21, a mirror 22, a lens 23, and an imaging element 24. The fundus oculi observation optical system 20 uses an optical axis L2. When imaging is performed by the imaging device 38, the flip-up mirror 21 is inserted into the optical path of the fundus imaging optical system 10 by the insertion and removal mechanism 321. The imaging device 24 is a two-dimensional imaging device having sensitivity to at least infrared light. The fundus oculi photographing optical system 10 and a fundus illumination optical system 40 to be described later constitute a monochrome observation and imaging means for imaging the fundus Er of the subject's eye E with infrared light. During observation using the fundus observation optical system 20, the dichroic mirror 31 is inserted into the optical path of the fundus observation optical system 20. The mirror 22 is a dichroic mirror and is an optical path combining member. The light source 73, the light shielding plate 72, and the lens 71 form fixation target presenting means for guiding the line of sight of the subject's eye E. The mirror 22 transmits visible light corresponding to the wavelength of the light source 73 and reflects infrared light corresponding to the wavelength received by the imaging device 24.

<前眼部観察光学系> 前眼部観察光学系30は、光学系を介して撮像素子36で被検者眼Eの受光画像を得る撮像手段の一例として用いられる。前眼部観察光学系30は、例えば、ダイクロイックミラー31、フィールドレンズ32、ダイクロイックミラー33、絞り34、リレーレンズ35、および撮像素子36を備える。前眼部観察光学系30は光軸L4を用いる。ダイクロイックミラー31は、撮像素子36が受光する光源51の波長に対応した光、およびOCTユニット61が投光および受光する波長に対応した光を反射する。挿脱機構331にダイクロイックミラー31が接続されている。眼底観察光学系20を用いた観察の際は、ダイクロイックミラー31は、眼底観察光学系20の光路に挿入されている。前眼部観察光学系30と前眼部照明光学系50とによって、被検者眼Eの前眼部Ecを赤外光で撮像する前眼部観察手段が形成される。ダイクロイックミラー33は光路合成手段である。ダイクロイックミラー33は、撮像素子36が受光する光源51の波長に対応した光(被検者眼Eの反射光)を反射し、OCTユニット61が投光および受光する光に対応した波長の光を透過する。前眼部照明光学系50は光源51を含む。光源51は、赤外光を射出する。   Anterior Eye Observation Optical System The anterior eye observation optical system 30 is used as an example of an imaging unit that obtains a light reception image of the subject's eye E with the imaging device 36 via the optical system. The anterior eye observation optical system 30 includes, for example, a dichroic mirror 31, a field lens 32, a dichroic mirror 33, a stop 34, a relay lens 35, and an imaging element 36. The anterior eye observation optical system 30 uses an optical axis L4. The dichroic mirror 31 reflects the light corresponding to the wavelength of the light source 51 received by the imaging element 36 and the light corresponding to the wavelengths projected and received by the OCT unit 61. The dichroic mirror 31 is connected to the insertion and removal mechanism 331. At the time of observation using the fundus observation optical system 20, the dichroic mirror 31 is inserted in the light path of the fundus observation optical system 20. The anterior eye observation optical system 30 and the anterior eye illumination optical system 50 form an anterior eye observation means for imaging the anterior eye Ec of the subject's eye E with infrared light. The dichroic mirror 33 is an optical path combining means. The dichroic mirror 33 reflects light corresponding to the wavelength of the light source 51 received by the imaging element 36 (reflected light of the subject's eye E), and light having a wavelength corresponding to light projected and received by the OCT unit 61 To Penetrate. The anterior eye illumination optical system 50 includes a light source 51. The light source 51 emits infrared light.

<眼底照明光学系> 眼底照明光学系40は、対物レンズ11から穴あきミラー12までの光学系を、少なくとも眼底撮影光学系10と眼底観察光学系20とで共用する。眼底照明光学系40は、例えば、リレーレンズ42、黒点板43、ミラー44、リレーレンズ45、リングスリット46、およびダイクロイックプリズム47を備える。黒点板43は、中央に黒点を有する。リングスリット46によって、光源49または光源83を発した光は、一旦、被検者眼Eの瞳孔Epでリング状に結像される。瞳孔Epに結像した光は、被検者眼Eの眼底Erを照明する。ダイクロイックプリズム47によって、可視光投光用(カラー撮影用)の光路と赤外光投光用(赤外観察用)の光路とが合成される。眼底照明光学系40は、可視光投光用の光路としてコンデンサレンズ48、および光源49を備える。眼底照明光学系40は、赤外光投光用の光路としてコンデンサレンズ81、赤外フィルタ82、および光源83を備える。光源49にフラッシュランプまたはLED(Light Emitting Diode)等を用いてもよい。光源83にハロゲンランプまたはLEDを用いてもよい。赤外フィルタ82が、波長750nm以上の近赤外光を透過してもよい。   <Fundus illumination optical system> The fundus illumination optical system 40 shares an optical system from the objective lens 11 to the perforated mirror 12 at least between the fundus imaging optical system 10 and the fundus observation optical system 20. The fundus illumination optical system 40 includes, for example, a relay lens 42, a black point plate 43, a mirror 44, a relay lens 45, a ring slit 46, and a dichroic prism 47. The black dot plate 43 has a black dot at the center. The light emitted from the light source 49 or the light source 83 is once imaged in a ring shape at the pupil Ep of the subject eye E by the ring slit 46. The light focused on the pupil Ep illuminates the fundus Er of the subject's eye E. The dichroic prism 47 combines the optical path for visible light projection (for color imaging) and the optical path for infrared light projection (for infrared observation). The fundus illumination optical system 40 includes a condenser lens 48 and a light source 49 as an optical path for visible light projection. The fundus illumination optical system 40 includes a condenser lens 81, an infrared filter 82, and a light source 83 as an optical path for projecting infrared light. A flash lamp or a light emitting diode (LED) may be used as the light source 49. A halogen lamp or an LED may be used as the light source 83. The infrared filter 82 may transmit near infrared light having a wavelength of 750 nm or more.

<制御系> プリ画像処理部312、撮像素子24、および撮像素子36は、制御部391に接続されている。モニタ8は、制御部391に接続される。制御部391は、モニタ8に表示させる表示内容を制御する。本実施形態では、制御部391とモニタ8は、表示手段として用いられる。制御部391は表示制御手段である。制御部391には、フォーカシングレンズ14を移動させる移動機構311、ダイクロイックミラー31を挿脱させる挿脱機構331、跳ね上げミラー21を挿脱させる挿脱機構321、回転ノブ4aの出力信号、撮影スイッチ4bの出力信号、各種のスイッチを持つスイッチ部392、記憶手段としてのメモリ393、OCTユニット61、各光源等が接続される。制御部391はコンピュータの機能を有する。制御部391は、眼科装置100の各種制御、および画像処理を行う。メモリ393に、制御部391が実行する各種制御に関わるプログラムが記憶されている。メモリ393は、記憶手段の一例として用いられる。メモリ393は、眼科装置100の制御方法をコンピュータに実行させるためのプログラムを記憶した制御部391(コンピュータ)が読み取り可能な記憶媒体である。   Control System The pre-image processing unit 312, the imaging device 24, and the imaging device 36 are connected to the control unit 391. The monitor 8 is connected to the control unit 391. The control unit 391 controls the display content to be displayed on the monitor 8. In the present embodiment, the control unit 391 and the monitor 8 are used as display means. The control unit 391 is a display control unit. The control unit 391 includes a moving mechanism 311 for moving the focusing lens 14, an inserting and removing mechanism 331 for inserting and removing the dichroic mirror 31, an inserting and removing mechanism 321 for inserting and removing the bounce mirror 21, an output signal of the rotation knob 4a, and a photographing switch An output signal 4 b, a switch unit 392 having various switches, a memory 393 as a storage unit, an OCT unit 61, each light source and the like are connected. The control unit 391 has a computer function. The control unit 391 performs various controls of the ophthalmologic apparatus 100 and image processing. Programs related to various controls executed by the control unit 391 are stored in the memory 393. The memory 393 is used as an example of a storage unit. The memory 393 is a storage medium readable by the control unit 391 (computer) storing a program for causing a computer to execute the control method of the ophthalmologic apparatus 100.

眼科装置100は、プリ画像処理部312で受光画像の生成を行ない、制御部391で合成画像の生成を行う。プリ画像処理部312は、撮像素子16の出力信号を用いた信号処理を行う第1画像処理手段の一例として用いられる。制御部391は、第1画像処理手段の出力信号を用いた信号処理を行う第2画像処理手段の一例として用いられる。ここで、眼科装置100は、受光画像の中心と撮影光軸とのズレを考慮して受光画像にマスク画像を合成するための構成(マスク合成手段)を備えており、例えば、第1画像処理手段、第2画像処理手段、および記憶手段(メモリ393)が用いられる(詳しくは後述する)。マスク合成において、第1画像処理手段と第2画像処理手段とを同一のユニットとしてもよい。例えば、撮影カメラユニット313が第1画像処理手段と第2画像処理手段とを有してもよい。プリ画像処理部312または制御部391に、CPU(マイクロプロセッサ)、DSP(デジタル・シグナル・プロセッサ)、PLD(プログラマブル・ロジック・デバイス)を用いてもよい。   In the ophthalmologic apparatus 100, the pre-image processing unit 312 generates a light reception image, and the control unit 391 generates a composite image. The pre-image processing unit 312 is used as an example of a first image processing unit that performs signal processing using an output signal of the imaging device 16. The control unit 391 is used as an example of a second image processing unit that performs signal processing using an output signal of the first image processing unit. Here, the ophthalmologic apparatus 100 includes a configuration (mask combining unit) for combining the mask image with the received light image in consideration of the shift between the center of the received light image and the photographing optical axis. For example, the first image processing Means, second image processing means, and storage means (memory 393) are used (details will be described later). In the mask composition, the first image processing means and the second image processing means may be the same unit. For example, the photographing camera unit 313 may have a first image processing unit and a second image processing unit. A CPU (microprocessor), a DSP (digital signal processor), or a PLD (programmable logic device) may be used for the pre-image processing unit 312 or the control unit 391.

以上のような構成を備える眼科装置100の動作について説明する。検者は、対物レンズ11の前方に被検者眼Eを位置させて、眼底Erを撮影するためのアライメントを行う。先ず検者は、モニタ8に表示される被検者の観察像(動画)を確認しながら、前眼部観察光学系30を用いて大まかなアライメントを行う。大まかなアライメントを行った後、眼底観察光学系20を用いて精密なアライメントを行う。アライメントの際、被検者眼Eの観察像は白黒(無彩色)でモニタ8へ表示されている。被検者眼Eの観察は赤外光で行われ、被検者眼Eの縮瞳を抑制する。   The operation of the ophthalmologic apparatus 100 having the above-described configuration will be described. The examiner positions the subject's eye E in front of the objective lens 11 and performs alignment for photographing the fundus Er. First, the examiner performs rough alignment using the anterior eye observation optical system 30 while confirming the observation image (moving image) of the subject displayed on the monitor 8. After rough alignment is performed, precise alignment is performed using the fundus observation optical system 20. At the time of alignment, the observation image of the subject's eye E is displayed on the monitor 8 in black and white (achromatic color). The observation of the subject's eye E is performed with infrared light to suppress miosis of the subject's eye E.

検者は、眼底Erを撮影するためのアライメントが完了すると、撮影スイッチ4bを押す。制御部391は、撮影スイッチ4bが押されたことを検知すると、光源49を点灯させる。光源49を発した光は、眼底照明光学系40を介して被検者眼Eに投光する。投光された光は、被検者眼Eの眼底Erを可視光で照明する。眼底Erで反射した可視光は、眼底撮影光学系10を介して撮像素子16に結像される。プリ画像処理部312は、撮像素子16の出力信号を用いて受光画像(2次元画像)を生成する。受光画像は有彩色の情報を有するカラー画像である。プリ画像処理部312は、生成した受光画像を制御部391へ出力する。制御部391は、プリ画像処理部312から入力した受光画像にマスキング処理を行い、合成画像(撮影画像)を生成する。制御部391は、合成画像をモニタ8へ表示(出力)する。   The examiner presses the imaging switch 4b when the alignment for imaging the fundus oculi Er is completed. When detecting that the photographing switch 4b is pressed, the control unit 391 turns on the light source 49. The light emitted from the light source 49 is projected onto the subject's eye E via the fundus illumination optical system 40. The projected light illuminates the fundus Er of the subject's eye E with visible light. The visible light reflected by the fundus Er is imaged on the imaging device 16 through the fundus imaging optical system 10. The pre-image processing unit 312 generates a light reception image (two-dimensional image) using the output signal of the imaging device 16. The light receiving image is a color image having chromatic color information. The pre-image processing unit 312 outputs the generated light reception image to the control unit 391. The control unit 391 performs masking processing on the received light image input from the pre-image processing unit 312 to generate a composite image (captured image). The control unit 391 displays (outputs) the composite image on the monitor 8.

制御部391は、検者が操作するスイッチ部392の操作に応じて、メモリ393へ合成画像を記憶(出力)してもよい。制御部391は、プリンタ等の印刷手段を用いて合成画像を印刷(出力)してもよい。制御部391は、眼科装置100に接続されたPC(パーソナルコンピュータ)へ合成画像を転送(出力)してもよい。PCは、転送された合成画像を表示手段へ表示(出力)してもよい。   The control unit 391 may store (output) the composite image in the memory 393 according to the operation of the switch unit 392 operated by the examiner. The control unit 391 may print (output) the composite image using a printing unit such as a printer. The control unit 391 may transfer (output) the composite image to a PC (personal computer) connected to the ophthalmologic apparatus 100. The PC may display (output) the transferred composite image on the display means.

図3は、本実施形態の眼科装置100が行う信号処理のフローチャートである。制御部391は、ステップS101において、受光画像を撮影カメラユニット313から入力する。続けて、制御部391は、ステップS102において、予め記憶されているマスク画像データをメモリ393から読み出す。続けて、制御部391は、ステップS103において、受光画像とマスク画像とを合成した合成画像を生成する。続けて、制御部391は、ステップS104において、モニタ8へ合成画像を表示(出力)させる。   FIG. 3 is a flowchart of signal processing performed by the ophthalmologic apparatus 100 of the present embodiment. The control unit 391 inputs a light reception image from the photographing camera unit 313 in step S101. Subsequently, in step S102, the control unit 391 reads mask image data stored in advance from the memory 393. Subsequently, in step S103, the control unit 391 generates a composite image obtained by combining the light reception image and the mask image. Subsequently, in step S104, the control unit 391 causes the monitor 8 to display (output) the composite image.

続けて、図4〜7を用いて、図3のステップS103で行う信号処理(画像処理)を説明する。図4は、受光画像を説明する図である。図5は、マスク画像を説明する図である。図6は、合成画像を説明する図である。図7は、図3のフローチャートの処理によって、合成画像が生成される様子を示す図である。   Subsequently, signal processing (image processing) performed in step S103 of FIG. 3 will be described using FIGS. FIG. 4 is a diagram for explaining a light reception image. FIG. 5 is a diagram for explaining a mask image. FIG. 6 is a diagram for explaining a composite image. FIG. 7 is a diagram showing how a composite image is generated by the processing of the flowchart of FIG. 3.

先ず、図4を用いて受光画像を説明する。受光画像は、撮像素子16の有効画素領域を用いて生成された2次元画像(平面画像)である。受光画像は、X方向(横方向)の幅Waが4000ピクセル、Y方向(縦方向)の高さHaが3000ピクセルである。受光画像の各ピクセルは、8ビット(256階調)のR/G/Bデータで構成されている。受光画像はカラー静止画像であり、アスペクト比が4:3(長方形)の画像である。図4においてPCaで示す位置(座標)は、受光画像の中心となる中心位置PCaである。図4においてPAaで示す位置(座標)は、受光画像の撮影光軸に対応する光軸位置PAaである。なお、撮影光軸に対応する位置とは、撮像素子16の撮像面において、眼底撮影光学系10の光軸L1が通過する位置である。   First, the received light image will be described with reference to FIG. The light reception image is a two-dimensional image (planar image) generated using the effective pixel area of the imaging device 16. The light reception image has a width Wa of 4000 pixels in the X direction (horizontal direction) and a height Ha of 3000 pixels in the Y direction (vertical direction). Each pixel of the received light image is composed of 8-bit (256 gradations) R / G / B data. The light reception image is a color still image, and is an image with an aspect ratio of 4: 3 (rectangle). The position (coordinates) indicated by PCa in FIG. 4 is the center position PCa that is the center of the received light image. The position (coordinates) indicated by PAa in FIG. 4 is an optical axis position PAa corresponding to the photographing optical axis of the received light image. Note that the position corresponding to the imaging optical axis is a position where the optical axis L1 of the fundus imaging optical system 10 passes on the imaging surface of the imaging element 16.

受光画像の中心位置PCaから離間した位置に、受光画像の光軸位置PAaが位置されている。より詳しくは、受光画像の中心位置PCaから、X方向にΔx1ピクセル、およびy方向にΔy1ピクセル離間した位置に光軸位置PAaが位置されている。なお、眼科装置100の製造時に、受光画像の中心位置PCaと光軸位置PAaとが一致するように撮像素子16の組み付けを行うことが好ましい。しかし、受光画像の中心位置PCaと光軸位置PAaとを一致させるには、高額な部品、および精密な組立治具を要する可能性がある。また、精密な調整が行える、熟練した組立作業者が必要となる可能性がある。また、例えば、眼科装置100の使用現場で撮像素子16等が故障した際に、高額な修理費用を要する可能性がある。したがって、撮像素子16の組付け工程においては、受光画像の中心位置PCaと光軸位置PAaとの離間を許容することが好適である。例えば、中心位置PCaまたは光軸位置PAaを基準として許容幅を設け、撮影部3に撮像素子16を組み付けることが考えられる。   The optical axis position PAa of the light reception image is located at a position separated from the center position PCa of the light reception image. More specifically, the optical axis position PAa is located at a position separated by Δx1 pixels in the X direction and Δy1 pixels in the y direction from the central position PCa of the light reception image. When manufacturing the ophthalmologic apparatus 100, it is preferable to assemble the imaging device 16 so that the center position PCa of the received light image and the optical axis position PAa coincide with each other. However, in order to match the center position PCa of the received light image with the optical axis position PAa, expensive parts and a precise assembly jig may be required. There may also be a need for a skilled assembly worker who can make precise adjustments. In addition, for example, when the imaging device 16 or the like breaks down at the use site of the ophthalmologic apparatus 100, an expensive repair cost may be required. Therefore, in the assembling process of the image pickup device 16, it is preferable to allow the separation between the center position PCa of the light reception image and the optical axis position PAa. For example, it is conceivable to provide an allowable width with reference to the center position PCa or the optical axis position PAa, and assemble the imaging element 16 into the imaging unit 3.

受光画像は、領域DTrと領域DTaで構成される。領域DTrは、撮像素子16が撮像した眼科装置100の外部(例えば、被検眼)に起因する情報である。領域DTaは、撮像素子16が撮像した眼科装置100の内部構造(例えば、撮影部3に収容される光学系)に起因する情報である。受光画像は、中央部に領域DTrが配置され、領域DTrの周辺に領域DTaが配置される。領域DTrに、被検者眼Eの眼底Erの撮像情報が含まれる。被検者眼Eと撮影部3とのアライメント状態、または被検者眼Eの眼球の構造によって、領域DTrには、眼底Erとは異なる眼部位の撮像情報が含まれる場合がある。領域DTrと領域DTaの境界となる箇所には、撮影部3の構成部材が、ピントが合わない状態(ボケた状態)で明るく写り込む。領域DTrは、光軸位置PAaから離れた位置になるほど、被検者眼Eの眼底Erとは異なる部位で照明光が反射した情報が写り込み易い。眼底Erとは異なる部位(例えば角膜または水晶体)で反射した情報は不要反射とされ、フレアと呼ばれる場合がある。領域DTrと領域DTaとの境界付近は、眼底撮影光学系10の結像性能が急激に低下する。結像性能が急激に低下することで、領域DTrと領域DTaとの境界付近には、被検者眼Eの眼底Erの像が、著しく歪んで写り込み易い。   The light reception image is composed of a region DTr and a region DTa. The area DTr is information originating in the outside (for example, an eye to be examined) of the ophthalmologic apparatus 100 captured by the imaging device 16. The area DTa is information resulting from the internal structure of the ophthalmologic apparatus 100 captured by the imaging device 16 (for example, an optical system accommodated in the imaging unit 3). In the light reception image, a region DTr is disposed at the central portion, and a region DTa is disposed around the region DTr. The region DTr includes imaging information of the fundus Er of the subject's eye E. Depending on the alignment state of the subject's eye E and the imaging unit 3 or the structure of the eyeball of the subject's eye E, the region DTr may include imaging information of an eye site different from that of the fundus Er. The component members of the imaging unit 3 are brightly captured in the out-of-focus state (in a blurred state) at a position that is the boundary between the area DTr and the area DTa. As the region DTr is farther away from the optical axis position PAa, information reflected by the illumination light at a site different from the fundus Er of the subject's eye E is likely to be reflected. Information reflected by a site different from the fundus Er (for example, the cornea or the lens) is considered as unnecessary reflection and may be called flare. In the vicinity of the boundary between the area DTr and the area DTa, the imaging performance of the fundus imaging optical system 10 is sharply reduced. When the imaging performance is rapidly reduced, an image of the fundus oculi Er of the subject's eye E is significantly distorted and is likely to be captured near the boundary between the area DTr and the area DTa.

図5を用いてマスク画像を説明する。マスク画像は、X方向(横方向)の幅Wbが3000ピクセル、Y方向(縦方向)の高さHbが3000ピクセルで構成される。マスク画像は、各ピクセルが8ビット(256階調)のR/G/Bデータで構成され、2次元画像(平面画像)である。マスク画像は、アスペクト比が1:1の正方形の画像である。図5においてDTbで示す領域は、合成画像を生成する際に、受光画像の情報(データ)を優先する透過領域DTbである。一方、図5においてDTmskで示す領域は、合成画像を生成する際に、マスク画像の情報(データ)を優先するマスク領域DTmskである。透過領域DTbは円形状である。透過領域DTbの周辺にマスク領域DTmskが配置されている。マスク画像は、アパーチャマスク形状のマスクパターンである。円形状の透過領域DTbは、直径(=Wm=Hm)が2850ピクセルである。透過領域DTbの中心は、マスク画像の中心位置PCbと同一位置である。マスク画像は、透過領域DTbの外周に、少なくとも75ピクセル以上のマスク領域DTmskの区間が形成されている(図5のWc,Hc参照)。マスク領域DTmskを構成する各ピクセルは、無彩色かつ暗黒となる8ビット(256階調)のR/G/Bデータである。透過領域DTbのサイズ(面積)は、受光画像の領域DTrよりも小さいサイズ(面積)である。透過領域DTbのサイズ(面積)が、受光画像の領域DTrよりも小さいサイズ(面積)よりも小さいことで、受光画像の不要な画像領域にマスキング処理を行うことが可能である。つまり、幅Wr>幅Wm、および高さHr>高さHmの関係である(図4,図5参照)。透過領域DTbのサイズは、眼科装置100の設計データ、または眼科装置100の実写実験等により決定される。なお、眼底撮影光学系10の特性によってフォーカシングレンズ14の位置で撮影倍率が変化するならば、制御部391は、フォーカシングレンズ14の位置に応じて透過領域DTbのサイズを変更してもよい。   The mask image is described with reference to FIG. The mask image is configured such that the width Wb in the X direction (horizontal direction) is 3000 pixels, and the height Hb in the Y direction (longitudinal direction) is 3000 pixels. The mask image is a two-dimensional image (planar image) in which each pixel is composed of 8-bit (256 gradations) R / G / B data. The mask image is a square image with an aspect ratio of 1: 1. An area indicated by DTb in FIG. 5 is a transmission area DTb in which information (data) of the light reception image is prioritized when generating a composite image. On the other hand, an area indicated by DTmsk in FIG. 5 is a mask area DTmsk in which information (data) of the mask image is prioritized when generating a composite image. The transmissive region DTb is circular. A mask region DTmsk is disposed around the transmissive region DTb. The mask image is a mask pattern in the shape of an aperture mask. The circular transmission region DTb has a diameter (= Wm = Hm) of 2850 pixels. The center of the transmissive region DTb is the same position as the central position PCb of the mask image. In the mask image, a section of the mask area DTmsk of at least 75 pixels or more is formed on the outer periphery of the transmissive area DTb (see Wc and Hc in FIG. 5). Each pixel constituting the mask area DTmsk is 8-bit (256 gradations) R / G / B data which is achromatic and dark. The size (area) of the transmission area DTb is smaller than the area DTr of the light reception image. When the size (area) of the transmission area DTb is smaller than the size (area) smaller than the area DTr of the light reception image, it is possible to perform the masking process on the unnecessary image area of the light reception image. That is, the relationship is width Wr> width Wm and height Hr> height Hm (see FIGS. 4 and 5). The size of the transmission region DTb is determined by design data of the ophthalmologic apparatus 100, a copy experiment of the ophthalmologic apparatus 100, or the like. If the imaging magnification changes at the position of the focusing lens 14 due to the characteristics of the fundus imaging optical system 10, the control unit 391 may change the size of the transmissive region DTb according to the position of the focusing lens 14.

図6を用いて合成画像を説明する。合成画像は、X方向(横方向)の幅Wcが3000ピクセル、Y方向(縦方向)の高さHcが3000ピクセルで構成される。各ピクセルは8ビット(256階調)のR/G/Bデータで構成される。合成画像は、2次元画像(平面画像)とされる。合成画像はカラー画像である。合成画像のサイズ(面積)は、マスク画像と同一のサイズである。合成画像は、アスペクト比が1:1の正方形の画像である。図6においてPCcで示す位置(座標)は、合成画像の中心位置PCcである。なお、図6においてPAaで示す位置(座標)、および領域DTr、領域DTmskで示す領域の意味は、図4および図5と同一である。合成画像は、領域DTrとマスク領域DTmskで構成される。領域DTrは、被検者眼Eの眼底Erの画像情報である。マスク領域DTmskは、領域DTrの周辺に位置されている。なお、本実施形態の受光画像、マスク画像、合成画像のパラメータは一例に過ぎない。   The composite image will be described with reference to FIG. The composite image is configured such that the width Wc in the X direction (horizontal direction) is 3000 pixels, and the height Hc in the Y direction (longitudinal direction) is 3000 pixels. Each pixel is composed of 8-bit (256 gradations) R / G / B data. The composite image is a two-dimensional image (planar image). The composite image is a color image. The size (area) of the composite image is the same size as the mask image. The composite image is a square image with an aspect ratio of 1: 1. The position (coordinates) indicated by PCc in FIG. 6 is the center position PCc of the composite image. Note that the meaning of the position (coordinates) indicated by PAa in FIG. 6 and the area indicated by the area DTr and the area DTmsk is the same as that in FIGS. 4 and 5. The composite image is composed of a region DTr and a mask region DTmsk. The area DTr is image information of the fundus Er of the subject's eye E. The mask area DTmsk is located around the area DTr. The parameters of the light reception image, the mask image, and the composite image of the present embodiment are merely examples.

次いで、図7を用いて合成画像を生成する状態を説明する。合成画像を生成する場合、例えば、記憶手段としてのメモリ393は、受光画像にマスク画像を合成させるための座標に関する情報が予め記憶するために用いられる、プリ画像処理部312及び制御部391は、その座標に関する情報を用いてマスク画像の中心が光軸となるように前記合成画像を生成するために用いられる。
より詳細には、図7において、各画像の左上を座標(0,0)、右下を座標(2999,2999)または座標(3999,2999)としている。また、各画像の左上の座標(0,0)を原点座標としている。図7(a)のマスク画像において、PCbで示す位置(座標)はマスク画像の中心位置PCbである。以降では、マスク画像の中心位置PCbの座標を(m0,n0)として説明する。図7(b)の受光画像において、PCaで示す位置は受光画像の中心位置PCaである。以降では、受光画像の中心位置PCaの座標を(u0,v0)として説明する。図7(b)の受光画像において、PAaで示す位置は、受光画像の撮影光軸が形成される光軸位置PAaである。以降では、受光画像の光軸位置PAaの座標を(u1,v1)として説明する。
Next, the state of generating a composite image will be described using FIG. When generating a composite image, for example, the pre-image processing unit 312 and the control unit 391 are used to store in advance information on coordinates for combining the mask image with the received light image as the memory 393 as the storage unit. The information on the coordinates is used to generate the composite image so that the center of the mask image is the optical axis.
More specifically, in FIG. 7, the upper left of each image is coordinate (0, 0), and the lower right is coordinate (2999, 2999) or coordinate (3999, 2999). Further, the upper left coordinate (0, 0) of each image is set as the origin coordinate. In the mask image of FIG. 7A, the position (coordinates) indicated by PCb is the center position PCb of the mask image. Hereinafter, the coordinates of the center position PCb of the mask image will be described as (m0, n0). In the light reception image of FIG. 7B, the position indicated by PCa is the center position PCa of the light reception image. Hereinafter, the coordinates of the center position PCa of the light reception image will be described as (u0, v0). In the light reception image of FIG. 7B, the position indicated by PAa is an optical axis position PAa at which the photographing optical axis of the light reception image is formed. Hereinafter, the coordinates of the optical axis position PAa of the light reception image will be described as (u1, v1).

受光画像において、光軸位置PAaの座標(u1,v1)は、中心位置PCaの座標(u0,v0)からX方向にΔx1ピクセル、y方向にΔy1ピクセルずれている。つまり、受光画像において、受光画像の中心から若干右上にずれた位置に撮影光軸が位置されている。受光画像の撮影光軸が位置する座標は、メモリ393に予め記憶されている。制御部391は、図7で説明するマスキング処理を行う前に、予め、メモリ393から受光画像の光軸位置PAaに関する情報を読み出しておく。   In the light reception image, the coordinates (u1, v1) of the optical axis position PAa are shifted by Δx1 pixels in the X direction and Δy1 pixels in the y direction from the coordinates (u0, v0) of the center position PCa. That is, in the light reception image, the photographing optical axis is positioned at a position slightly offset to the upper right from the center of the light reception image. The coordinates at which the shooting optical axis of the received light image is located are stored in advance in the memory 393. The control unit 391 reads out information on the optical axis position PAa of the received light image from the memory 393 in advance before performing the masking process described with reference to FIG. 7.

制御部391は、先ず、メモリ393から読み出したマスク画像の原点となる座標(0,0)のデータを解析する。マスキング処理を行うデータと判定したならば、マスク画像のデータを書き換えない(当該ピクセルは、合成画像において無彩色かつ暗黒のデータとなる)。続けて、原点からX方向に1ピクセル隣の座標(0,1)のデータを、原点の処理と同様にして解析する。以降、制御部391は、同様の解析をマスク画像の右端(X方向端)のピクセルまで続ける。なお、マスキングを示すデータではない場合の処理については後述する。制御部391は、右端の座標(0,2999)の解析が終了すると、Y方向に1ピクセルずらして、左端から順に右端までマスク画像の各ピクセルを解析する。つまり、制御部391は、マスク画像の座標(0,1)から座標(2999,1)を解析する。このように、制御部391は、X方向およびY方向にずらしながら、マスク画像の座標(0,0)から座標(2999,2999)の各ピクセルを解析する。マスク画像を構成する各ピクセルの階調値によって、マスキングするピクセルか否かの判定を行ってもよい。   First, the control unit 391 analyzes data of coordinates (0, 0) that is the origin of the mask image read from the memory 393. If it is determined that the data is to be subjected to the masking process, the data of the mask image is not rewritten (the pixel becomes achromatic and dark data in the composite image). Subsequently, data of coordinates (0, 1) adjacent to one pixel in the X direction from the origin is analyzed in the same manner as processing of the origin. Thereafter, the control unit 391 continues the same analysis up to the pixel at the right end (X direction end) of the mask image. In addition, the process in the case of not the data which shows masking is mentioned later. When the analysis of the coordinates (0, 2999) at the right end is completed, the control unit 391 shifts each pixel in the Y direction by one pixel, and analyzes each pixel of the mask image sequentially from the left end to the right end. That is, the control unit 391 analyzes coordinates (2999, 1) from coordinates (0, 1) of the mask image. Thus, the control unit 391 analyzes each pixel of the coordinates (0, 0) of the mask image to the coordinates (2999, 2999) while shifting in the X direction and the Y direction. Whether or not the pixel is to be masked may be determined according to the tone value of each pixel constituting the mask image.

続けて、制御部391が、マスキングではないデータを解析した場合の処理を説明する。例えば、制御部391は、P1と記した座標P1で、当該ピクセルはマスキングしないデータと解析すると、受光画像のP2と記した座標P2からデータを読み取り、読み取ったデータをマスク画像の座標P1のピクセルに上書きする。このような制御で、受光画像とマスク画像の合成が行われる。なお、制御部391は、メモリ393から読み出した光軸位置PAaに関する情報を用いて、撮影光軸を考慮した合成処理を行う。より詳しくは、マスク画像において、対象となるマスキング処理を行うピクセル(例えばP1)の中心位置PCbからの距離および方位と、受光画像から読み出すピクセル(例えばP2)の光軸位置PAaからの距離および方位とが同一となるように制御する。   Subsequently, processing in the case where the control unit 391 analyzes data that is not masking will be described. For example, when the control unit 391 analyzes the pixel as unmasked data at coordinate P1 described as P1, the control unit 391 reads data from coordinate P2 described as P2 of the received light image, and the read data is a pixel of coordinate P1 of the mask image Overwrite By such control, synthesis of the light reception image and the mask image is performed. The control unit 391 performs combining processing in consideration of the photographing optical axis using the information on the optical axis position PAa read from the memory 393. More specifically, in the mask image, the distance and orientation from the center position PCb of the pixel (for example, P1) to be subjected to the target masking process and the distance and orientation from the optical axis position PAa of the pixel (for example, P2) to be read from the light reception image Control to be the same.

中心位置PCbからX方向にΔx0、−Y方向にΔy0ずれた座標に光軸位置PAaが形成された受光画像を用いて、マスク画像の中心位置PCbから−X方向にΔx1、−Y方向にΔy1ずれた座標のピクセルに対して合成を行う場合、受光画像の座標(u0+Δx0−Δx1,v0−Δy0−Δy1)のデータを読み出して、前述したマスク画像の座標(m0−Δx1,n0−Δy1)のデータに上書きする。なお、光軸位置PAaの座標は(u0+Δx0,v0−Δy0)であり、マスク画像の中心位置PCbの座標は(m0−Δx1,n0−Δy1)である。このような信号処理を行うことによって、受光画像の撮影光軸を考慮して、受光画像とマスク画像を合成した合成画像が生成される(図7(c)参照)。   Using the light reception image in which the optical axis position PAa is formed at a coordinate displaced by Δx0 in the X direction from the central position PCb and Δy0 in the −Y direction, Δx1 in the −X direction from the central position PCb of the mask image and Δy1 in the −Y direction When combining is performed on pixels at shifted coordinates, the data of the coordinates (u0 + Δx0−Δx1, v0−Δy0−Δy1) of the received light image are read out, and the coordinates (m0−Δx1, n0−Δy1) of the mask image described above are obtained. Overwrite data. The coordinates of the optical axis position PAa are (u0 + Δx0, v0−Δy0), and the coordinates of the center position PCb of the mask image are (m0−Δx1, n0−Δy1). By performing such signal processing, a composite image obtained by combining the light reception image and the mask image is generated in consideration of the photographing optical axis of the light reception image (see FIG. 7C).

生成された合成画像は、合成画像の中心位置PCcと光軸位置PAaとが一致した画像となる(図7(c)参照)。また、生成された合成画像は、受光画像の光軸位置PAaを中心として、受光画像の領域DTrから、不要な領域をマスキングした画像となる。合成画像は、受光画像に含まれる不要な情報が低減された画像であると共に、マスクの中央に撮影光軸が位置し、また、合成画像の中心に撮影光軸が位置された画像となる。   The generated composite image is an image in which the center position PCc of the composite image and the optical axis position PAa coincide with each other (see FIG. 7C). The generated composite image is an image obtained by masking an unnecessary area from the area DTr of the received light image with the optical axis position PAa of the received light image as a center. The composite image is an image in which unnecessary information included in the received light image is reduced, the imaging optical axis is positioned at the center of the mask, and the imaging optical axis is positioned at the center of the composite image.

続けて、図8に示すフローチャート、および図9〜図13を用いて、本実施形態の眼科装置100の製造方法を説明する。この説明においては、合成画像または撮影画像の光軸が係わる眼科装置100の製造部分を説明する。ステップ201において、組立作業者は、対物レンズ11の前方(図2において被検者眼Eが配置される位置)に治具Aを組付ける。治具Aは、撮影部3を構成する支基に十分な精度を保って組み付けられる。本実施形態の治具Aは、レンズとチャートを有しており、被検者眼Eの眼底Erと共役となる位置(即ち、光学的に略無限遠となる位置)にチャート500が置かれることとなる。本実施形態のチャート500は、図9に示すように十字形状の図柄が描画されている。チャート500に描画されている十字形状を形成する2つの線分が交わる位置(光軸位置PAa)を治具Aの光軸が通る。続けて、ステップ202において、組立作業者は、撮影カメラユニット313と制御部391とが通信可能となるように各々のユニットを結線する。組立作業者は、スイッチ部392を操作して、撮影カメラユニット313で撮像した動画をモニタ8へ表示させる。この際、フォーカシングレンズ14は、眼底撮影光学系10上の所定位置(撮像素子16とチャート500が共役関係となる位置)に位置させる。   Then, the manufacturing method of the ophthalmologic apparatus 100 of this embodiment is demonstrated using the flowchart shown in FIG. 8, and FIGS. 9-13. In this description, the manufacturing part of the ophthalmologic apparatus 100 in which the optical axis of the composite image or the photographed image is involved will be described. In step 201, the assembling worker assembles the jig A in front of the objective lens 11 (a position where the subject eye E is disposed in FIG. 2). The jig A is assembled to the support base constituting the imaging unit 3 with sufficient accuracy. The jig A according to the present embodiment has a lens and a chart, and the chart 500 is placed at a position conjugate with the fundus Er of the subject's eye E (that is, a position optically nearly infinite). It will be. In the chart 500 of the present embodiment, as shown in FIG. 9, a cross-shaped symbol is drawn. The optical axis of the jig A passes a position (optical axis position PAa) where two line segments forming a cross shape drawn on the chart 500 intersect. Subsequently, in step 202, the assembling operator connects each unit so that the photographing camera unit 313 and the control unit 391 can communicate. The assembling operator operates the switch unit 392 to display the moving image captured by the imaging camera unit 313 on the monitor 8. At this time, the focusing lens 14 is positioned at a predetermined position on the fundus imaging optical system 10 (a position where the imaging device 16 and the chart 500 have a conjugate relationship).

続けて組立作業者は、ステップ203において、撮影カメラユニット313を撮影部3へ組付けると共に、眼底撮影光学系10の光軸L1に対する撮影カメラユニット313の位置調整を行う。換言するなら、組立作業者は、光軸L1に直交する面上で撮像素子16を移動させて位置調整する。モニタ8には、十字形状の電子チャートGaが、受光画像および受光画像にスーパーインポーズされて表示される(図10(a)参照)。治具Aのチャート500を撮影カメラユニット313が撮像すると、治具Aのチャート500の像Maがモニタ8に表示される。図10(a)においてPCaで示す位置は、受光画像の中心位置PCaである。同図においてPDで示す位置は、電子チャートGaの十字状を構成する2つの線分の交点位置PDである。   Subsequently, in step 203, the assembling worker assembles the imaging camera unit 313 into the imaging unit 3 and adjusts the position of the imaging camera unit 313 with respect to the optical axis L1 of the fundus imaging optical system 10. In other words, the assembly worker moves and adjusts the imaging element 16 on the plane orthogonal to the optical axis L1. A cross-shaped electronic chart Ga is superimposed on the received light image and the received light image and displayed on the monitor 8 (see FIG. 10A). When the photographing camera unit 313 captures an image of the chart 500 of the jig A, an image Ma of the chart 500 of the jig A is displayed on the monitor 8. The position indicated by PCa in FIG. 10A is the center position PCa of the received light image. The position indicated by PD in the same figure is an intersection position PD of two line segments that form the cross shape of the electronic chart Ga.

続けて組立作業者は、ステップS204において、スイッチ部392を操作し、治具Aのチャート500の像Maの光軸位置PAaに電子チャートGaを重ねる。より詳しくは、スイッチ部392を操作することで、受光画像にスーパーインポーズされる電子チャートGaが上下左右方向に相対変化(移動)する。組立作業者は、像Maの光軸位置PAaと電子チャートGaの交点位置PDとが重なるようにスイッチ部392を操作する。組立作業者は、図10(b)で示すように光軸位置PAaと交点位置PDとを重ねたら、スイッチ部392を操作して、受光画像において光軸位置PAaに対応する座標に関する情報を眼科装置100のメモリ393(記憶手段)へ記憶させる。制御部391は、受光画像において光軸位置PAaに対応する座標に関する情報を、受光画像とマスク画像とを合成する際に用いる、基準位置に関する情報としてメモリ393へ記憶する。続けて、ステップS205において、組立作業者は、撮影スイッチ4bを押して眼底撮影光学系10を用いた静止画の撮影を行う。当該操作が行われると、制御部391は、メモリ393に記憶されている基準位置に関する情報を用いて受光画像とマスク画像との合成を行い、合成画像を生成する。組立作業者は、モニタ8に表示された合成画像を確認する(図11参照)。以上説明したステップS201からステップS205の作業によって、合成画像の生成に用いる基準位置PBaに関する情報(受光画像において光軸位置PAaに対応する座標に関する情報)を眼科装置100へ記憶させる作業が終了する。   Subsequently, in step S204, the assembling operator operates the switch portion 392 to superimpose the electronic chart Ga on the optical axis position PAa of the image Ma of the chart 500 of the jig A. More specifically, by operating the switch portion 392, the electronic chart Ga superimposed on the light reception image is relatively changed (moved) in the vertical and horizontal directions. The assembly worker operates the switch portion 392 so that the optical axis position PAa of the image Ma and the intersection position PD of the electronic chart Ga overlap. When the assembling worker superimposes the optical axis position PAa and the intersection position PD as shown in FIG. 10 (b), the assembling operator operates the switch portion 392 to obtain information on coordinates corresponding to the optical axis position PAa in the received light image. It is stored in the memory 393 (storage means) of the device 100. The control unit 391 stores information on the coordinates corresponding to the optical axis position PAa in the light reception image in the memory 393 as information on the reference position, which is used when combining the light reception image and the mask image. Subsequently, in step S205, the assembling operator presses the imaging switch 4b to perform imaging of a still image using the fundus imaging optical system 10. When the operation is performed, the control unit 391 combines the light reception image and the mask image using the information on the reference position stored in the memory 393 to generate a combined image. The assembly worker confirms the composite image displayed on the monitor 8 (see FIG. 11). The operation of storing the information on the reference position PBa (information on the coordinates corresponding to the optical axis position PAa in the light reception image) in the ophthalmologic apparatus 100 is completed by the operations from step S201 to step S205 described above.

続けて、OCTユニット61の調整を行う。ステップS206において、組立作業者は、ステップ201で装着した治具Aを、治具Bに交換する。治具Bは、治具Aと同様に、対物レンズ11の前方(図2において被検者眼Eが配置される位置)に配置される。治具Bはレンズとターゲットを有する。治具Bは、眼底Erと共役となる位置に、治具Aのチャート500とは異なる構造のターゲットが形成されている。ステップS207において、組立作業者は、スイッチ部392を操作して、撮影カメラユニット313が撮像した動画をモニタ8へ表示させる。撮影カメラユニット313が撮像した受光画像、および電子チャートGbが、モニタ8に表示される。電子チャートGbは十字状の図柄であり、受光画像に電子チャートGbがスーパーインポーズされている。撮影カメラユニット313が撮像した受光画像の光軸が形成される位置に、電子チャートGbを構成する2つの線分の交点が位置するように、電子チャートGbが描画される(図12(a)参照)。撮影カメラユニット313が撮像した治具Bのターゲットの像Mbがモニタ8に写り込む。   Subsequently, the OCT unit 61 is adjusted. In step S206, the assembling operator replaces the jig A mounted in step 201 with the jig B. Similar to the jig A, the jig B is disposed in front of the objective lens 11 (a position at which the subject eye E is disposed in FIG. 2). The jig B has a lens and a target. In the jig B, a target having a structure different from that of the chart 500 of the jig A is formed at a position conjugate with the fundus Er. In step S207, the assembly operator operates the switch unit 392 to display the moving image captured by the imaging camera unit 313 on the monitor 8. The light reception image captured by the photographing camera unit 313 and the electronic chart Gb are displayed on the monitor 8. The electronic chart Gb is a cross-shaped pattern, and the electronic chart Gb is superimposed on the light reception image. The electronic chart Gb is drawn so that the intersection of the two line segments that make up the electronic chart Gb is located at the position where the optical axis of the received light image captured by the photographing camera unit 313 is formed (FIG. 12 (a)) reference). An image Mb of the target of the jig B captured by the photographing camera unit 313 is reflected on the monitor 8.

続けて組立作業者は、ステップS208において、モニタ8に表示される電子チャートGbの交点(基準位置PBa)とターゲットの像Mbの交差位置PAdとが重なるように、治具Bのターゲットの部分を光軸L1に直交する面上で移動させて位置調整する。なお、治具Bのターゲットの位置調整は、後述するラインセンサの組付け位置を調整するための準備作業として行われる。図12(b)で示すように、電子チャートGbの交点(基準位置PBa)と治具Bのターゲットの像Mbの交差位置PAdとが重なったら治具Bのターゲットの位置調整を完了する。続けて組立作業者は、ステップS209において、スイッチ部392を操作してOCT断層画像をモニタ8へ表示させる。続けて組立作業者は、ステップS210において、OCTユニット61が持つラインセンサの位置調整を行う。より詳しくは、組立作業者は、モニタ8を見ながら、OCT画像が所定パターンの画像でモニタ8に表示されるように、光軸L3に直交する面上でラインセンサを移動させる。なお、この説明では、OCT断層画像の図は省略する。以上説明したステップS206からステップS210の作業によって、OCTユニット61が持つラインセンサの位置調整が終了する。ステップS201からステップS205で記憶した基準位置PBaに関する情報を用いて、OCTユニット61のラインセンサの位置調整が行われることで、眼底撮影光学系10を用いて取得した撮像画像と、OCT光学系60を用いて取得した撮像画像との相関が得られ易くなる。   Subsequently, in step S208, the assembling worker places the target portion of the jig B such that the intersection point (reference position PBa) of the electronic chart Gb displayed on the monitor 8 and the intersection position PAd of the image Mb of the target overlap. The position is adjusted by moving on a plane orthogonal to the optical axis L1. In addition, position adjustment of the target of the jig | tool B is performed as a preparatory work for adjusting the assembly position of the line sensor mentioned later. As shown in FIG. 12B, when the intersection point (reference position PBa) of the electronic chart Gb overlaps the intersection position PAd of the image Mb of the target of the jig B, the adjustment of the target position of the jig B is completed. Subsequently, in step S 209, the assembly operator operates the switch unit 392 to display an OCT tomographic image on the monitor 8. Subsequently, in step S210, the assembly worker adjusts the position of the line sensor of the OCT unit 61. More specifically, the assembly worker moves the line sensor on the plane orthogonal to the optical axis L3 so that the OCT image is displayed on the monitor 8 in a predetermined pattern while watching the monitor 8. In the description, the OCT tomographic image is omitted. The position adjustment of the line sensor of the OCT unit 61 is completed by the operations from step S206 to step S210 described above. The position adjustment of the line sensor of the OCT unit 61 is performed using the information on the reference position PBa stored in step S201 to step S205, whereby a captured image obtained using the fundus imaging optical system 10 and the OCT optical system 60 are obtained. It is easy to obtain the correlation with the captured image acquired using

続けて組立作業者は、ステップS211において、スイッチ部392を操作してモニタ8に撮像素子24の受光画像(動画)を表示させる。前述したステップS206からステップS210で用いた治具Bをそのまま利用する。モニタ8には、撮像素子24が撮像した受光画像、および受光画像にスーパーインポーズされた電子チャートGcが表示される(図13(a)参照)。なお、治具Bのターゲットを撮像素子24が撮像すると、治具Bのターゲットの像Mbが受光画像に写り込む。また、電子チャートGcは、十字状の図柄であり、十字状を形成する2つの線分の交点が、受光画像の中心位置PCaと一致するように描画されている。   Subsequently, in step S211, the assembling worker operates the switch unit 392 to display the light reception image (moving image) of the image pickup device 24 on the monitor 8. The jig B used in steps S206 to S210 described above is used as it is. The monitor 8 displays a light reception image captured by the imaging device 24 and an electronic chart Gc superimposed on the light reception image (see FIG. 13A). When the image pickup element 24 picks up the target of the jig B, the image Mb of the target of the jig B is reflected in the received light image. Further, the electronic chart Gc is a cross-shaped symbol, and is drawn so that an intersection of two line segments forming the cross shape coincides with the center position PCa of the received light image.

続けて組立作業者は、ステップS212において、光軸L2に直交する面上で撮像素子24を移動させて、撮像素子24の位置調整を行う。より詳しくは、組立作業者は、中心位置PCaと,治具Bのターゲットの像Mbの交差位置PAdとが一致するように、撮像素子24の位置調整を行う(図13(b)参照)。以上説明したステップS211およびステップS212の作業によって、撮像素子24の位置調整が終了する。なお、ステップS201からステップS206で行った作業と同様に、交差位置PAdに関する情報を眼科装置100に記憶させて、眼底観察光学系20の撮影光軸を考慮した受光画像とマスク画像の合成を行ってもよい。   Subsequently, in step S212, the assembly worker moves the imaging device 24 on the plane orthogonal to the optical axis L2 to adjust the position of the imaging device 24. More specifically, the assembling operator adjusts the position of the imaging element 24 so that the central position PCa and the intersecting position PAd of the image Mb of the target of the jig B coincide with each other (see FIG. 13B). The position adjustment of the image sensor 24 is completed by the operations of step S211 and step S212 described above. As in the operations performed in steps S201 to S206, information on the intersection position PAd is stored in the ophthalmologic apparatus 100, and the light reception image and the mask image are combined in consideration of the photographing optical axis of the fundus observation optical system 20. May be

ステップS201からステップS212の調整、および図3のフローチャートで示した画像合成によって、受光画像の光軸を考慮して、受光画像とマスク画像の合成画像が生成される。光軸位置PAaに関する情報を用いて、眼底観察光学系20で用いる撮像素子24、およびOCT光学系60で用いるラインセンサの位置調整が行われる。光軸位置PAaに関する情報を用いて、対物レンズ11を用いる複数の光学系の光軸に相関を保った眼科装置100を製造できる。対物レンズ11から被検者眼Eまでの光路を複数種類の光学系で共用する眼科装置100において、各々の光学系の光軸に相関を持たせた調整を行うため、各々の光学系で得た画像の光軸特性に相関を得ることができる。したがって、検者は、同一の被検者眼Eを異なる光学系で撮像した各画像に対して、各画像の関連性に迷うことなく、被検者眼Eを速やかに診断できる。   A composite image of the light reception image and the mask image is generated in consideration of the optical axis of the light reception image by the adjustment of steps S201 to S212 and the image synthesis shown in the flowchart of FIG. The position adjustment of the image sensor 24 used in the fundus oculi observation optical system 20 and the line sensor used in the OCT optical system 60 is performed using information on the optical axis position PAa. The ophthalmologic apparatus 100 maintaining correlation with the optical axes of a plurality of optical systems using the objective lens 11 can be manufactured using information on the optical axis position PAa. In the ophthalmologic apparatus 100 in which the optical path from the objective lens 11 to the subject's eye E is shared by a plurality of types of optical systems, the adjustment is performed with the optical axes of the respective optical systems being correlated. A correlation can be obtained with the optical axis characteristics of the image. Therefore, the examiner can promptly diagnose the subject's eye E without losing the relevance of the respective images obtained by imaging the same subject's eye E with different optical systems.

本実施形態においては、マスク画像を解析し、透過領域DTbの箇所に、受光画像の光軸を考慮して受光画像のデータを埋め込む合成手法(マスキング方法)としている。合成方法はこれに限るものではない。受光画像とマスク画像の合成を、受光画像の光軸を考慮して行えばよい。一例として、受光画像とマスク画像を一旦合成した後に、所定のサイズで切り出す合成手法としてもよい。また、受光画像の光軸を考慮して、受光画像にマスクを描画してもよい。また、マスキングに係わるテーブルデータをプリ画像処理部312が持つ記憶手段に記憶してもよい。この場合、プリ画像処理部312が撮像素子16の出力信号を入力する段階(2次元画像の形成前)で、前述したテーブルデータを用いて、撮像素子16から入力するデータに逐次マスキングを行ってもよい。かかる手法を用いれば、受光画像を生成する際と同等の時間で合成画像を生成できる。また、眼科装置100は、受光画像と光軸位置PAaに関するデータとを関連付けて記憶するのみとしてもよい。関連付けて記憶した情報を眼科装置100とは異なる機器(ファイリングPC)へ転送し、眼科装置100とは異なる機器で合成画像を生成してもよい。   In this embodiment, a mask image is analyzed, and a composition method (masking method) is used in which data of a received light image is embedded in the transmission region DTb in consideration of the optical axis of the received light image. The composition method is not limited to this. The synthesis of the light reception image and the mask image may be performed in consideration of the optical axis of the light reception image. As an example, after the light reception image and the mask image are once combined, a combination method of cutting out in a predetermined size may be used. In addition, the mask may be drawn on the received light image in consideration of the optical axis of the received light image. Also, table data related to masking may be stored in storage means possessed by the pre-image processing unit 312. In this case, when the pre-image processing unit 312 inputs the output signal of the imaging device 16 (before forming the two-dimensional image), masking is sequentially performed on the data input from the imaging device 16 using the table data described above. It is also good. By using such a method, it is possible to generate a composite image in the same time as generating a light reception image. Further, the ophthalmologic apparatus 100 may only store the light reception image and the data regarding the optical axis position PAa in association with each other. Information associated and stored may be transferred to a device (filing PC) different from the ophthalmologic apparatus 100, and a composite image may be generated by the device different from the ophthalmologic apparatus 100.

なお、機構のガタ、または光学系を構成する部品の公差など理由によって、フォーカシングレンズ14の移動に連動して光軸位置PAaが変位する可能性が考えられる。フォーカシングレンズ14の位置に対応した複数の光軸位置PAaに関する情報を記憶手段へ記憶してもよい。制御部391は、記憶手段に記憶されているフォーカシングレンズ14の位置に対応した光軸位置PAaの情報を用いて、合成画像を生成してもよい。   It is possible that the optical axis position PAa may be displaced in conjunction with the movement of the focusing lens 14 due to the play of the mechanism or the tolerance of the parts constituting the optical system. Information on a plurality of optical axis positions PAa corresponding to the position of the focusing lens 14 may be stored in the storage means. The control unit 391 may generate a composite image using the information of the optical axis position PAa corresponding to the position of the focusing lens 14 stored in the storage unit.

<作用及び効果>
上記のように、本実施形態の眼科装置100は、眼底撮影光学系10を介して撮像素子16で被検者眼Eの受光画像を取得し、受光画像の中心(中心位置PCa)と眼底撮影光学系10の光軸(光軸位置PAa)とのズレを考慮して受光画像にマスク画像を合成可能である。かかる態様によって、例えば、受光画像に含まれる不要な画像情報を好適に低減させた合成画像を得ることができる。一例として、検者が不要な画像情報の判断に費やす時間を低減でき、診断を速やかに行うことができる。
<Operation and effect>
As described above, the ophthalmologic apparatus 100 according to the present embodiment acquires the light reception image of the subject's eye E with the imaging device 16 through the fundus imaging optical system 10, and the center (center position PCa) of the light reception image and the fundus imaging The mask image can be synthesized with the received light image in consideration of the deviation from the optical axis (optical axis position PAa) of the optical system 10. According to this aspect, for example, it is possible to obtain a composite image in which unnecessary image information included in the received light image is suitably reduced. As an example, the time spent by the examiner in determining unnecessary image information can be reduced, and diagnosis can be performed promptly.

また、本実施形態の眼科装置100では、受光画像にマスク画像を合成させるための座標に関する情報として、受光画像にマスク画像を合成させるための、受光画像の光軸位置に基づく基準位置情報が予め記憶される。基準位置情報は、受光画像の中心(中心位置PCa)と眼底撮影光学系10の光軸(光軸位置PAa)とのズレを考慮して受光画像にマスク画像を合成させるための基準位置情報であり、例えば、受光画像上における光軸の位置座標が基準位置情報として記憶される。さらに、基準位置情報を用いてマスク画像の中心(中心位置PCb)が光軸(光軸位置PAa)となるように合成画像が生成される。かかる態様によって、例えば、受光画像に含まれる不要な画像情報を好適に低減させた合成画像を得ることができる。その一例として、光軸に対して対象となる一対の位置に不要な画像情報が受光画像に重畳していても、片側のみ不要な画像情報が残ることなく、バランスよく不要な画像情報を低減させることができる。また、合成画像に対して歪補正などの画像処理を精度よく行い易くなる。   Further, in the ophthalmologic apparatus 100 according to the present embodiment, reference position information based on the optical axis position of the light reception image for combining the mask image with the light reception image as information on coordinates for combining the mask image with the light reception image. It is memorized. The reference position information is reference position information for combining the mask image with the received light image in consideration of the deviation between the center of the received light image (center position PCa) and the optical axis (optical axis position PAa) of the fundus imaging optical system 10. For example, position coordinates of the optical axis on the light reception image are stored as reference position information. Furthermore, a composite image is generated using the reference position information so that the center (center position PCb) of the mask image is on the optical axis (optical axis position PAa). According to this aspect, for example, it is possible to obtain a composite image in which unnecessary image information included in the received light image is suitably reduced. As an example, even if unnecessary image information is superimposed on a light reception image at a pair of target positions with respect to the optical axis, unnecessary image information does not remain only at one side, and unnecessary image information is reduced in a balanced manner. be able to. Further, image processing such as distortion correction can be easily performed on the composite image with high accuracy.

また、本実施形態の眼科装置100は、合成画像の中心がマスク画像の中心(中心位置PCb)となるように合成画像を生成している。かかる態様によって、合成画像の取り扱いが容易となる。一例として、各々画像によって眼情報が表示される領域のレイアウトのズレが低減され、合成画像を並べて比較することが容易となる。   Further, the ophthalmologic apparatus 100 according to the present embodiment generates a composite image so that the center of the composite image is the center of the mask image (center position PCb). Such an aspect facilitates the handling of the composite image. As one example, the deviation of the layout of the region where the eye information is displayed by each image is reduced, and it becomes easy to align and compare the synthesized images.

また、本実施形態の眼科装置100のマスク画像は、中央部に非マスク領域(透過領域DTb)が配置されて、周辺部にマスク領域(マスク領域DTmsk)が配置されるアパーチャマスク形状のマスクパターンとされている。かかる態様によって、例えば、光学系の撮影画角を有効に活用でき、また、受光画像に含まれる不要な画像領域を好適にマスキングすることができる。   In the mask image of the ophthalmologic apparatus 100 of this embodiment, a mask pattern in the shape of an aperture mask in which a non-mask area (transmission area DTb) is disposed at the center and a mask area (mask area DTmsk) is disposed at the periphery. It is assumed. According to this aspect, for example, the imaging angle of view of the optical system can be effectively utilized, and unnecessary image areas included in the light reception image can be suitably masked.

また、眼科装置100は、光軸方向に移動可能なフォーカシングレンズ14を眼底撮影光学系10に有しており、マスク合成手段は、フォーカシングレンズ14の動作情報と、前述の基準位置情報とを用いて合成画像を生成させてもよい。かかる態様によって、例えば、フォーカシングレンズ14の位置に応じて受光画像にマスク画像を合成する位置を変更でき、不要な画像情報を好適に低減することができる。   The ophthalmologic apparatus 100 further includes a focusing lens 14 movable in the optical axis direction in the fundus imaging optical system 10, and the mask combining unit uses operation information of the focusing lens 14 and the reference position information described above. Thus, a composite image may be generated. According to this aspect, for example, the position at which the mask image is synthesized with the light reception image can be changed according to the position of the focusing lens 14, and unnecessary image information can be suitably reduced.

なお、本実施形態においては、被検者眼Eの眼底Erを撮像する眼科装置100を用いて説明したが、これに限るものではない。少なくとも、被検者眼Eの眼画像を取得する眼科装置に適用してもよい。一例として、被検者眼Eの前眼部Ecを観察して眼屈折力を測定する眼屈折力測定装置(例えば、徹照像撮影)に適用できる。また、主にスリット状の光を投光して被検者眼Eの前眼部等を撮像する細隙灯顕微鏡(スリットランプ)に適用してもよい。   Although the present embodiment has been described using the ophthalmologic apparatus 100 for imaging the fundus Er of the subject's eye E, the present invention is not limited to this. You may apply to the ophthalmologic apparatus which acquires the eye image of the test subject's eye E at least. As an example, the present invention can be applied to an eye refractive power measurement apparatus (for example, trans-illumination image photography) that measures the eye refractive power by observing the anterior segment Ec of the subject's eye E. In addition, the present invention may be applied to a slit lamp microscope (slit lamp) that mainly emits slit-like light to image an anterior segment or the like of the subject's eye E.

今回開示された実施形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲及びこれと均等の意味及び範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is shown not by the above description but by the scope of claims, and is intended to include all modifications within the scope of claims and equivalents thereof.

3 撮影部
8 モニタ
11 対物レンズ
16 撮像素子
312 プリ画像処理部
313 撮影カメラユニット
391 制御部
393 メモリ
3 imaging unit 8 monitor 11 objective lens 16 imaging device 312 pre-image processing unit 313 imaging camera unit 391 control unit 393 memory

Claims (2)

受光画像にマスク画像を合成して合成画像を出力する眼科装置であって、
光学系を介して撮像素子で被検者眼の前記受光画像を得る撮像手段と、
前記受光画像の中心と前記光学系の光軸とのズレであって、前記眼科装置の組み立て時に装置個別に生じる前記ズレを考慮して前記受光画像に前記マスク画像を合成するマスク合成手段と、
前記ズレを考慮した前記受光画像に前記マスク画像を合成させる座標に関する情報を装置個別の基準位置情報として記憶する記憶手段と、を備え
前記マスク合成手段は、前記基準位置情報を用いて前記マスク画像の中心が前記光軸となるように前記組み立て時に生じるズレが考慮された前記合成画像を生成する
ことを特徴とする眼科装置。
An ophthalmologic apparatus that combines a mask image with a received light image and outputs a combined image,
Imaging means for obtaining the light reception image of the subject's eye with an imaging device via an optical system;
A mask combining unit that combines the mask image with the received light image in consideration of the shift between the center of the received light image and the optical axis of the optical system, which occurs individually when assembling the ophthalmologic apparatus ;
Storage means for storing information on coordinates for combining the mask image with the received light image in consideration of the deviation as reference position information specific to the apparatus ;
An ophthalmologic apparatus , wherein the mask composition unit uses the reference position information to generate the composite image in which a shift occurring at the time of the assembly is considered so that the center of the mask image is the optical axis .
請求項1に記載の眼科装置であって、An ophthalmologic apparatus according to claim 1, wherein
前記マスク合成手段は、前記合成画像の中心が前記マスク画像の中心となるように前記合成画像を生成することを特徴とする眼科装置。An ophthalmologic apparatus, wherein the mask compositing unit generates the composite image such that the center of the composite image is at the center of the mask image.
JP2014174714A 2014-08-29 2014-08-29 Ophthalmic device Active JP6507528B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014174714A JP6507528B2 (en) 2014-08-29 2014-08-29 Ophthalmic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014174714A JP6507528B2 (en) 2014-08-29 2014-08-29 Ophthalmic device

Publications (3)

Publication Number Publication Date
JP2016049158A JP2016049158A (en) 2016-04-11
JP2016049158A5 JP2016049158A5 (en) 2017-10-05
JP6507528B2 true JP6507528B2 (en) 2019-05-08

Family

ID=55657176

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014174714A Active JP6507528B2 (en) 2014-08-29 2014-08-29 Ophthalmic device

Country Status (1)

Country Link
JP (1) JP6507528B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6833455B2 (en) 2016-10-31 2021-02-24 キヤノン株式会社 Ophthalmologic imaging equipment and its control method, ophthalmologic imaging system, and programs

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07271961A (en) * 1994-03-30 1995-10-20 Canon Inc Image processor
JP2003265411A (en) * 2002-03-20 2003-09-24 Pentax Corp Electronic endoscope apparatus, electronic endoscope and image signal processor
JP4095494B2 (en) * 2003-05-30 2008-06-04 キヤノン株式会社 Ophthalmic image processing apparatus and processing method
JP4636841B2 (en) * 2004-09-29 2011-02-23 キヤノン株式会社 Ophthalmic image photographing apparatus and photographing method
JP2006102096A (en) * 2004-10-05 2006-04-20 Canon Inc Ophthalmologic image processing apparatus
JP4795000B2 (en) * 2005-11-25 2011-10-19 キヤノン株式会社 Fundus camera
JP5162374B2 (en) * 2008-08-21 2013-03-13 富士フイルム株式会社 Endoscopic image deviation amount measuring apparatus and method, electronic endoscope and endoscope image processing apparatus

Also Published As

Publication number Publication date
JP2016049158A (en) 2016-04-11

Similar Documents

Publication Publication Date Title
US9565999B2 (en) Ophthalmologic apparatus
JP6566541B2 (en) Ophthalmic equipment
JP5850349B2 (en) Ophthalmic imaging equipment
JP6143436B2 (en) Ophthalmic device, control method and program
US8267516B2 (en) Fundus imaging apparatus and method therefor
JP6498398B2 (en) Ophthalmic equipment
JP6978165B2 (en) Eyeball imaging device
JP5101370B2 (en) Fundus photographing device
JP6388440B2 (en) Ophthalmic equipment
JP2015085044A (en) Ophthalmology imaging apparatus, ophthalmology imaging system, and ophthalmology imaging program
WO2016017664A1 (en) Tomography device
JP5460152B2 (en) Ophthalmic equipment
JP6407631B2 (en) Ophthalmic equipment
JP7376847B2 (en) Fundus image processing device and fundus image processing program
JP6270312B2 (en) Ophthalmic apparatus, image processing method, and program
JP2008006104A (en) Fundus camera
JP6507528B2 (en) Ophthalmic device
JP6507536B2 (en) Ophthalmic imaging apparatus and ophthalmologic imaging program
JP7098964B2 (en) Fundus photography device
JP2009207572A (en) Fundus camera
JP2015195874A (en) Eyeground imaging device
US20180368676A1 (en) Fundus camera
JP7200516B2 (en) Fundus camera
JP7468162B2 (en) Fundus image processing program and fundus photographing device
JP2011030689A (en) Fundus photographing system and method for processing three-dimensional fundus image

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170828

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170828

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180724

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190318

R150 Certificate of patent or registration of utility model

Ref document number: 6507528

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250