JP7271976B2 - ophthalmic equipment - Google Patents
ophthalmic equipment Download PDFInfo
- Publication number
- JP7271976B2 JP7271976B2 JP2019018332A JP2019018332A JP7271976B2 JP 7271976 B2 JP7271976 B2 JP 7271976B2 JP 2019018332 A JP2019018332 A JP 2019018332A JP 2019018332 A JP2019018332 A JP 2019018332A JP 7271976 B2 JP7271976 B2 JP 7271976B2
- Authority
- JP
- Japan
- Prior art keywords
- eye
- unit
- information
- face
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Eye Examination Apparatus (AREA)
Description
本開示は、被検眼を検査するための眼科装置に関する。 The present disclosure relates to an ophthalmic apparatus for examining an eye to be examined.
従来の眼科装置としては、例えば、眼屈折力測定装置、角膜曲率測定装置、眼圧測定装置、眼底カメラ、OCT、SLO等が知られている。これらの眼科装置では、例えば、ジョイスティック等の操作による手動アライメントと、前眼部画像の輝点検出による自動アライメントなどによって、被検眼に対して検眼部を所定の位置にアライメントすることが一般的である(特許文献1参照)。 As conventional ophthalmologic devices, for example, an eye refractive power measuring device, a corneal curvature measuring device, an intraocular pressure measuring device, a fundus camera, an OCT, an SLO, and the like are known. In these ophthalmologic apparatuses, for example, manual alignment by operating a joystick or the like and automatic alignment by detecting bright spots in the anterior segment image are generally used to align the eye to be examined at a predetermined position. (see Patent Document 1).
また、特許文献2では、被検者の顔を撮影した画像に基づいて被検眼に対する検眼部の位置合わせを行う装置が提案されている。 Further, Japanese Patent Application Laid-Open No. 2002-200002 proposes an apparatus that aligns an eye examination unit with respect to an eye to be examined based on an image of the subject's face.
装置の作動距離が短い装置では、検眼部の位置合わせの際に、検眼部の先端が、眼の周囲と接触してしまいやすい。しかしながら、上記従来技術のいずれにおいても、被検者における鼻の位置や高さ等は考慮されていなかった。 In a device with a short working distance, the tip of the eye examination unit is likely to come into contact with the surroundings of the eye when the eye examination unit is aligned. However, none of the above-described conventional techniques take into consideration the position, height, etc. of the subject's nose.
本開示は、従来技術の問題点に鑑み、検眼部を被検眼へ接近させる際の検眼部と鼻との接触が抑制された眼科装置を提供することを技術課題とする。 A technical problem of the present disclosure is to provide an ophthalmologic apparatus that suppresses contact between the eye examination unit and the nose when the eye examination unit is brought closer to the subject's eye.
上記課題を解決するために、本開示の第1態様に係る眼科装置は、前記被検眼を検査するための検眼手段と、左右の被検眼のうち少なくとも一方と鼻とを含む顔の画像を撮影する顔撮影手段と、前記被検眼に対して前記検眼手段を3次元的に相対移動させる第1駆動手段と、を備え、前記顔の画像から、前記被検眼の位置情報である第1情報と、前記鼻の位置情報である第2情報と、を取得し、取得された前記第1情報および前記第2情報に基づいて前記第1駆動手段の駆動を制御することによって、前記被検眼へ前記検眼手段を接近させる制御手段と、を備える。 In order to solve the above problems, an ophthalmologic apparatus according to a first aspect of the present disclosure includes eye examination means for examining the eye to be examined, and captures an image of a face including at least one of left and right eyes to be examined and a nose. and first driving means for three-dimensionally moving the eye examination means relative to the eye to be examined, wherein first information, which is position information of the eye to be examined, is obtained from the image of the face. , second information that is the position information of the nose, and controlling the driving of the first driving means based on the acquired first information and the second information, thereby performing the and control means for approximating the optometric means.
本開示の第2態様に係る眼科装置は、前記被検眼を検査するための検眼手段と、前記被検眼の前眼部画像を撮影する前眼撮影手段と、前記被検眼の角膜にアライメント指標を投影する指標投影手段と、前記被検眼に対して前記検眼手段を3次元的に相対移動させる第1駆動手段と、を備え、前記前眼部画像に対する前記アライメント指標の検出処理を行い、前記検出処理によって検出された前記アライメント指標の位置に基づいて前記第1駆動手段を駆動制御し、前記被検眼に対する前記検眼手段のアライメントを行う制御手段と、を備え、前記制御手段は、前記アライメント指標の前記鼻によるケラレが検出された場合は、前記被検眼に対する前記検眼手段の移動を停止させる、或いは、前記被検者の顔の向きと前記検眼手段の検眼軸の向きとを調整する、又は、調整されるよう誘導する。 An ophthalmologic apparatus according to a second aspect of the present disclosure includes eye examination means for examining the eye to be examined, anterior eye photographing means for photographing an anterior segment image of the eye to be examined, and an alignment index on the cornea of the eye to be examined. index projection means for projecting; and first driving means for three-dimensionally moving the eye examination means relative to the eye to be examined, performing detection processing of the alignment index on the anterior segment image, and detecting the alignment index. control means for driving and controlling the first driving means based on the position of the alignment index detected by the process, and aligning the eye examination means with respect to the eye to be examined, wherein the control means controls the alignment index. When vignetting by the nose is detected, the movement of the eye examination means with respect to the eye to be examined is stopped, or the orientation of the subject's face and the orientation of the eye examination axis of the eye examination means are adjusted, or guide them to adjust.
<実施形態>
本実施形態を図面に基づいて簡単に説明する。眼科装置(例えば、眼科装置1)は、例えば、被検眼を検査する。例えば、眼科装置は、被検眼の眼屈折力、角膜曲率、眼圧等を測定してもよいし、被検眼の前眼部、眼底等の画像を撮影してもよい。
<Embodiment>
This embodiment will be briefly described with reference to the drawings. An ophthalmologic apparatus (for example, ophthalmologic apparatus 1) examines an eye to be examined, for example. For example, the ophthalmologic apparatus may measure the refractive power, corneal curvature, intraocular pressure, etc. of the eye to be inspected, and may capture images of the anterior ocular segment, fundus, etc. of the eye to be inspected.
眼科装置は、例えば、検眼部(例えば、検眼部2)と、第1駆動部(例えば、第1駆動部4)と、顔撮影部(例えば、顔撮影部90)と、制御部(例えば、制御部70)等を備える。検眼部は、例えば、被検眼を検査する。検眼部は、例えば、眼屈折力測定光学系、角膜曲率測定光学系、眼圧測定光学系、眼底撮影光学系、断層像撮影光学系など、種々の検査光学系の少なくとも一つを備えてもよい。 The ophthalmologic apparatus includes, for example, an optometry unit (e.g., optometry unit 2), a first drive unit (e.g., first drive unit 4), a face photographing unit (e.g., face photographing unit 90), and a control unit ( For example, it includes a control unit 70) and the like. The optometric unit, for example, examines an eye to be examined. The optometry unit includes at least one of various examination optical systems such as an eye refractive power measurement optical system, a corneal curvature measurement optical system, an intraocular pressure measurement optical system, a fundus imaging optical system, and a tomography optical system. good too.
駆動部は、被検眼に対して検眼部を3次元的に相対移動させる。顔撮影部は、例えば、左右の被検眼のうち少なくとも一方を含む顔の画像を撮影する。 The drive unit three-dimensionally moves the eye examination unit relative to the eye to be examined. The face imaging unit, for example, captures an image of a face including at least one of the left and right eyes to be examined.
追加的に、前眼撮影部(例えば、前眼撮影光学系60)、指標投影部(例えば、指標投影光学系50)、第2駆動部(例えば、第2駆動部15)を有していてもよい。 Additionally, it has an anterior eye imaging unit (eg, anterior eye imaging optical system 60), an index projection unit (eg, index projection optical system 50), and a second driving unit (eg, second driving unit 15). good too.
前眼撮影部は、例えば、被検眼の前眼部の画像を撮影する。 The anterior eye photographing unit, for example, photographs an image of the anterior segment of the subject's eye.
指標投影部は、例えば、被検眼の角膜にアライメント指標を投影する。第2駆動部は、被検者の顔の向きと検眼手段の検眼軸の向きとを変更するために利用される。顔支持部、又は、検眼部、が、第2駆動部によって駆動される。 The index projection unit projects an alignment index onto the cornea of the subject's eye, for example. The second driving section is used to change the orientation of the subject's face and the orientation of the optometric axis of the optometric means. A face support part or an optometry part is driven by a second drive part.
制御部は、駆動部の駆動を制御する。制御部は、例えば、被検者の顔の画像から、第1情報および第2情報を取得する。第1情報は、被検眼の位置情報である。第2情報は、被検者の鼻の位置情報である。第1情報および第2情報を得るために、顔撮影部は、被検者の顔の画像を複数枚撮影してもよい。 The control section controls driving of the driving section. The control unit acquires the first information and the second information, for example, from the face image of the subject. The first information is position information of the eye to be examined. The second information is position information of the subject's nose. In order to obtain the first information and the second information, the face photographing section may photograph a plurality of images of the subject's face.
以下のように、照明および撮影光軸のうちいずれかが互いに異なる複数の画像は、位置情報として、3次元位置情報を得るうえで有利である。例えば、顔撮影部は、被検者の顔を複数の異なる方向から同時に撮影してもよい。また、被検者の顔に対する顔撮影部の位置きを変化させつつ異なる方向から被検者の顔を撮影してもよい。また、顔に対する照明の向きを変化させつつ、複数枚を撮影してもよい。3次元位置情報は、装置に対する3次元的な位置関係を示す情報である。3次元位置情報は、例えば、ステレオ計測によって求められてもよい。 As described below, a plurality of images in which either the illumination or the imaging optical axis is different from each other is advantageous in obtaining three-dimensional position information as position information. For example, the face photographing unit may simultaneously photograph the subject's face from a plurality of different directions. Further, the subject's face may be photographed from different directions while changing the position of the face photographing unit with respect to the subject's face. Also, a plurality of images may be taken while changing the direction of lighting with respect to the face. The three-dimensional position information is information indicating a three-dimensional positional relationship with respect to the device. Three-dimensional position information may be obtained by, for example, stereo measurement.
以下の説明では、特に断りが無い限り、第1位置情報および第2位置情報として、それぞれ、被検眼の3次元位置情報および鼻の3次元位置情報が得られる場合について説明する。 In the following description, unless otherwise specified, a case will be described in which three-dimensional position information of the subject's eye and three-dimensional position information of the nose are obtained as the first position information and the second position information, respectively.
但し、第2情報が、顔の画像に基づく実測値を表している必要は、必ずしも無い。例えば、例えば、顔の画像に基づく鼻の2次元的な検出位置、および、左右の被検眼の検出位置のうち少なくともいずれかを基準とした、一定の形状の鼻を想定して、第2情報が求められてもよい。詳細には、平均的なサイズに比べて十分大きな鼻のモデル(便宜上、「鼻モデル」と称する)が想定されてもよい。例えば、顔の画像に基づく鼻の2次元的な検出位置、および、左右の被検眼の検出位置から等距離な位置に、鼻モデルが配置されたときの鼻モデルの3次元的な位置情報が、被検者における鼻の3次元位置情報として、取得されてもよい。なお、この場合、鼻モデルは、少なくともZ方向に関しては、例えば、被検眼の位置に対する相対位置によって定義されていてもよい。鼻モデルを表す情報には、少なくとも鼻の頂点位置の位置情報が、含まれる。その他に、鼻モデルを表す情報には、鼻の幅を表す情報、鼻の稜線の位置情報、等が含まれていてもよい。また、鼻モデルを表す情報は、3次元仮想空間上で、鼻モデルに対応するオブジェクトを形成するための情報であってもよい。 However, the second information does not necessarily have to represent the measured value based on the face image. For example, assuming a nose of a certain shape based on at least one of the two-dimensional detection position of the nose based on the face image and the detection positions of the left and right eyes, the second information may be required. In particular, a model of a nose sufficiently large compared to the average size (for convenience called "nose model") may be envisaged. For example, the three-dimensional position information of the nose model when the nose model is placed at positions equidistant from the two-dimensional detection position of the nose based on the face image and the detection positions of the left and right eyes to be examined. , may be obtained as three-dimensional position information of the nose of the subject. In this case, the nose model may be defined at least in the Z direction, for example, by its position relative to the position of the subject's eye. The information representing the nose model includes at least the positional information of the apex position of the nose. In addition, the information representing the nose model may include information representing the width of the nose, positional information of the ridgeline of the nose, and the like. Also, the information representing the nose model may be information for forming an object corresponding to the nose model in the three-dimensional virtual space.
制御部は、第1情報および第2情報に基づいて検眼部を被検眼へ接近させる際に、鼻を迂回する経路で検眼部を移動させてもよい。この場合、第1経路と、一部または全部の区間が第1経路に比べてより耳側を通過する第2経路と、の少なくとも2つの経路の中から一方が、第1情報および第2情報に基づいて選択されてもよい。このとき、被検眼の3次元位置に応じて経路の終点(目標位置)が設定されると共に、通過点が被検眼と鼻との相対位置に応じて設定されてもよい。多数の被検者についての、鼻等に接触することなく検眼部を目標位置まで移動させたときの経路を表す経路学習データと、被検眼および鼻の3次元位置との関係とが対応付けられた相関データ(例えば、関数、ルックアップテーブル等)を、眼科装置は予め有していてもよい。検査の際には、被検者の顔の画像から求められた第1情報および第2情報に基づいて、相関データを参照することによって、被検者に応じた経路を選択してもよい。 The control unit may move the optometric unit along a route bypassing the nose when the optometric unit approaches the eye to be examined based on the first information and the second information. In this case, one of at least two routes, a first route and a second route, a section of which is partly or wholly passed closer to the ear than the first route, is the first information and the second information. may be selected based on At this time, the end point (target position) of the route may be set according to the three-dimensional position of the eye to be inspected, and the passing point may be set according to the relative position of the eye to be inspected and the nose. Correlation between path learning data representing the path of moving the optometric unit to the target position without contacting the nose and the three-dimensional positions of the subject's eye and nose for a large number of subjects. The ophthalmic device may already have the correlation data (eg, functions, lookup tables, etc.). During the examination, a route suitable for the subject may be selected by referring to the correlation data based on the first information and the second information obtained from the facial image of the subject.
また、検眼部を被検眼へ接近させるときの経路を選択する方法は、必ずしもこれに限られるものでは無い。例えば、3次元仮想空間におけるシミュレーションに基づいて、経路が算出されてもよい。シミュレーションを用いた場合、被検者の顔の形をより適正に考慮して、検眼部を被検眼へ接近させるときの経路を選択しやすい。 Further, the method of selecting a route for bringing the eye examination unit closer to the eye to be examined is not necessarily limited to this. For example, the route may be calculated based on a simulation in a three-dimensional virtual space. When the simulation is used, it is easy to select a route for bringing the eye examination unit closer to the eye to be examined, taking into account the shape of the subject's face more appropriately.
シミュレーションでは、例えば、所定の基準位置を原点として設定される3次元仮想空間(オブジェクト空間)において検眼部の少なくとも先端部の位置を特定するために、検眼部の3次元形状情報が必要となる。検眼部の3次元形状情報は、3次元仮想空間において検眼部のオブジェクトを形成するために利用される情報であってもよい。また、この場合、制御部は、第1情報および第2情報の他に、被検眼の周囲における顔の3次元形状情報を取得してもよい。3次元形状情報は、異なる方向から撮影された被検者の顔の各点の3次元位置情報に基づいて取得され得る。これにより、被検者の顔を表すオブジェクトが、3次元仮想空間上で形成され得る。なお、3次元仮想空間における被検眼及び鼻の位置は、第1情報および第2情報に基づいて特定され得る。この場合、例えば、複数の経路によるシミュレーションが行われ、その中から、検眼部を表すオブジェクトと鼻を表すオブジェクトとの接触が無く、全長が比較的短い経路が、制御部によって選択されてもよい。 In the simulation, for example, three-dimensional shape information of the eye examination part is required in order to specify the position of at least the tip of the eye examination part in a three-dimensional virtual space (object space) set with a predetermined reference position as the origin. Become. The three-dimensional shape information of the optometric section may be information used to form an object of the optometric section in the three-dimensional virtual space. Also, in this case, the control unit may acquire three-dimensional shape information of the face around the subject's eye in addition to the first information and the second information. The 3D shape information can be obtained based on the 3D position information of each point of the subject's face photographed from different directions. As a result, an object representing the subject's face can be formed in the three-dimensional virtual space. Note that the positions of the subject's eye and nose in the three-dimensional virtual space can be specified based on the first information and the second information. In this case, for example, a simulation is performed using a plurality of routes, and the control unit selects a route with a relatively short total length and without contact between the object representing the eye examination unit and the object representing the nose. good.
このように、本実施形態において、制御部は、第1情報および第2情報に基づいて第1駆動部の駆動を制御することによって、被検眼へ検眼部を接近させる。つまり、被検者の鼻の3次元位置を考慮して、第1駆動部は駆動制御される。その結果、検眼部の先端と被検者の鼻との接触を回避しつつ、検眼部を被検眼に接近させやすくなる。 As described above, in the present embodiment, the control section brings the optometric section closer to the subject's eye by controlling the driving of the first driving section based on the first information and the second information. That is, the driving of the first driving unit is controlled in consideration of the three-dimensional position of the subject's nose. As a result, it becomes easier to bring the eye examination section closer to the subject's eye while avoiding contact between the tip of the eye examination section and the subject's nose.
なお、検眼部を被検眼へ接近させる途中で、被検眼および鼻の3次元位置情報を逐次更新できる場合は、随時、経路選択を繰り返してもよい。例えば、検眼部を被検眼へ接近させる途中で被検者の顔が動いてしまった場合等において、検眼部の先端と被検者の鼻との接触を回避しつつ、検眼部を被検眼に接近できる。 If the three-dimensional position information of the eye to be inspected and the nose can be successively updated while the optometric unit is being brought closer to the eye to be inspected, the route selection may be repeated at any time. For example, when the subject's face moves while the eye examination unit is being brought closer to the subject's eye, etc., the eye examination unit is moved while avoiding contact between the tip of the eye examination unit and the subject's nose. The eye to be examined can be approached.
また、制御部は、検眼部を被検眼に対して予め定められた目標位置へ移動させたときに、検眼部が被検者の顔に接触するか否かを予測してもよい。例えば、複数の異なる方向から撮影された被検者の顔の画像に基づいて、接触するか否かが予測されてもよい。詳細には、被検眼との鼻との相対位置に基づいて、予測することができる。また、顔撮影部とは別体の撮影部または検出部での撮影結果または検出結果に基づいて予測されてもよい。 Further, the control unit may predict whether the eye examination unit will come into contact with the subject's face when the eye examination unit is moved to a predetermined target position with respect to the eye to be examined. For example, based on images of the subject's face captured from a plurality of different directions, it may be predicted whether or not contact will occur. Specifically, it can be predicted based on the relative positions of the subject's eye and the nose. Also, the prediction may be made based on the photographing result or the detection result of a photographing unit or a detecting unit that is separate from the face photographing unit.
制御部は、検眼手段が被検者の顔に接触すると予測される場合は、第2駆動手段を駆動して、被検者の顔の向きと検眼手段の検眼軸の向きとを調整してもよい。又は、制御部によって、調整のための操作が誘導されてもよい。調整のための操作を示す画像や音声ガイダンスを出力することによって、調整のための操作は誘導されてもよい。このとき、検眼部が被検者の顔の耳側または顎側へ相対的に旋回されるように、被検者の顔の向きと検眼軸の向きとが調整されると、検眼部を所用作動距離まで被検眼へ接近させる際に、被検者の鼻、頬、および、額等に、検眼部が接触しにくく好ましい。 When the eye examination means is predicted to come into contact with the subject's face, the control unit drives the second driving means to adjust the orientation of the subject's face and the orientation of the eye examination axis of the eye examination means. good too. Alternatively, an operation for adjustment may be guided by the control unit. The operation for adjustment may be guided by outputting an image or voice guidance indicating the operation for adjustment. At this time, when the orientation of the subject's face and the orientation of the optometric axis are adjusted so that the optometric section is relatively turned toward the ear side or jaw side of the subject's face, the optometric section is brought close to the eye to be inspected up to the required working distance, the eye examination part is less likely to come into contact with the subject's nose, cheeks, forehead and the like.
制御部は、第1情報および第2情報に基づいて検眼部を移動させる間、前眼部画像に対するアライメント指標の検出処理を並行して行ってもよい。検出処理によって検出されるアライメント指標の位置に基づいて、被検眼に対する検眼部のアライメントが、更に制御部によって制御されてもよい。この場合、アライメント指標の位置に基づいて、アライメント状態が最終的に調整される。よって、例えば、制御部は、第1情報および第2情報に基づく検眼部の目標位置にズレがある場合であっっても、被検眼に対して検眼部を適正にアライメントできる。なお、目標位置にズレがある場合とは、例えば、顔撮影部によって顔の画像を撮影した時点と、前眼部画像を撮影した時点で、被検眼が動いた場合などが想定される。 While moving the optometric unit based on the first information and the second information, the control unit may concurrently perform alignment index detection processing for the anterior segment image. Alignment of the eye examination unit with respect to the eye to be examined may be further controlled by the control unit based on the position of the alignment index detected by the detection process. In this case, the alignment state is finally adjusted based on the position of the alignment index. Therefore, for example, even if there is a deviation in the target position of the optometric unit based on the first information and the second information, the controller can properly align the optometric unit with respect to the subject's eye. It should be noted that the case where there is a shift in the target position is assumed to be, for example, the case where the subject's eye moves between when the face image is captured by the face capturing unit and when the anterior segment image is captured.
検出処理において、アライメント指標が鼻によってケラレているか否かが検出されてもよい。このとき、アライメント指標は、複数の斜め方向から角膜に向けて投影されてもよく、角膜頂点に対して鼻側のアライメント指標が検出されないことによって、ケラレが検出されてもよい。アライメント指標の鼻によるケラレが検出された場合は、被検者の鼻に対して検眼部の先端が相当程度接近しているので、この場合、被検眼に対する検眼部の移動が停止されてもよい。これにより、被検者の鼻に対して検眼部が接触してしまうことが抑制される。 In the detection process, it may be detected whether the alignment index is vignetted by the nose. At this time, the alignment indices may be projected toward the cornea from a plurality of oblique directions, and vignetting may be detected by not detecting the alignment indices on the nasal side with respect to the corneal vertex. When the vignetting of the alignment index due to the nose is detected, the tip of the eye examination unit is considerably close to the subject's nose. good too. This prevents the eye examination unit from coming into contact with the subject's nose.
あるいは、アライメント指標の鼻によるケラレが検出された場合は、第2駆動部を駆動して被検者の顔の向きと検眼手段の検眼軸の向きとが制御部によって調整されてもよい。又は、制御部によって、調整のための操作が誘導されてもよい。 Alternatively, when vignetting of the alignment index due to the nose is detected, the control unit may drive the second driving unit to adjust the orientation of the subject's face and the orientation of the optometric axis of the optometric device. Alternatively, an operation for adjustment may be guided by the control unit.
<実施例>
本開示に係る眼科装置を図面に基づいて説明する。なお、以下の説明では、眼科装置として眼屈折力測定装置を例に説明するが、角膜曲率測定装置、角膜形状測定装置、眼圧測定装置、眼軸長測定装置、眼底カメラ、OCT(optical coherence tomography)、SLO(Scanning Laser Ophthalmoscope)等の他の眼科装置にも適用可能である。
<Example>
An ophthalmologic apparatus according to the present disclosure will be described based on the drawings. In the following description, an eye refractive power measuring device will be described as an example of an ophthalmologic device. tomography) and SLO (Scanning Laser Ophthalmoscope).
本実施例の眼科装置は、例えば、被検眼を検査する。例えば、本実施例の眼科装置は、片眼毎に検査を行ってもよいし、両眼同時に(両眼視で)検査を行う装置であってもよい。 The ophthalmologic apparatus of this embodiment examines an eye to be examined, for example. For example, the ophthalmologic apparatus of this embodiment may perform an examination for each eye, or may perform an examination for both eyes at the same time (with binocular vision).
<外観>
図1に基づいて、眼科装置の外観を説明する。図1に示すように、本実施例の眼科装置1は、検眼部2、顔撮影部90、および、第1駆動部4、を主に備える。検眼部2は、被検眼を検査する。検眼部2は、例えば、被検眼の眼屈折力、角膜曲率、眼圧等を測定する光学系を備えてもよい。また、検眼部2は、被検眼の前眼部、眼底等を撮影するための光学系等を備えてもよい。本実施例では、眼底を撮影する検眼部2を例に説明する。顔撮影部90は、例えば、被検眼の顔を撮影する。顔撮影部90は、例えば、左右の被検眼のうち少なくとも一方を含む顔を撮影する。第1駆動部4は、例えば、検眼部2および顔撮影部90を基台5に対して上下左右前後方向(3次元方向)に移動させる。
<Appearance>
Based on FIG. 1, the appearance of the ophthalmologic apparatus will be described. As shown in FIG. 1, the ophthalmologic apparatus 1 of this embodiment mainly includes an
さらに、本実施例の眼科装置1は、例えば、筐体6、表示部7、操作部8、顔支持部9、第2駆動部15、等を備えてもよい。例えば、筐体6は、検眼部2、顔撮影部90、第1駆動部4等を収納する。
Furthermore, the ophthalmologic apparatus 1 of the present embodiment may include, for example, a
表示部7は、例えば、被検眼の観察画像および測定結果等を表示させる。表示部7は、例えば、装置1と一体的に設けられてもよいし、装置とは別に設けられてもよい。眼科装置1は、操作部8を備えてもよい。操作部8は、装置1の各種設定、測定開始時の操作に用いられる。操作部8には、検者による各種操作指示が入力される。例えば、操作部8は、タッチパネル、ジョイスティック、マウス、キーボード、トラックボール、ボタン等の各種ヒューマンインターフェイスであってもよい。
The
顔支持部9は、例えば、額当て10と顎台11を備えてもよい。顎台11は、顎台駆動部12の駆動によって上下方向に移動されてもよい。
The
本実施例における第2駆動部15は、スイングチルト機構を含む。本実施例のスイングチルト機構は、被検眼に対して検眼部2を左右に旋回させるスイング機構15aと、被検眼に対して検眼部2を俯仰させるチルト機構15bと、が含まれる。本実施例では、第2駆動部15が駆動することによって、顔の向きに対する検眼軸L1の向きが、変更される。第2駆動部15は、制御部70からの信号に基づいて図示なきアクチュエータを駆動させることで、検眼軸L1の向きを変更してもよい。
The
<制御系>
図2に示すように、本装置1は制御部70を備える。制御部70は、本装置1の各種制御を司る。制御部70は、例えば、一般的なCPU(Central Processing Unit)71、ROM72、RAM73等を備える。例えば、ROM72には、眼科装置を制御するための眼科装置制御プログラム、初期値等が記憶されている。例えば、RAMは、各種情報を一時的に記憶する。制御部70は、検眼部2、顔撮影部90、第1駆動部4、表示部7、操作部8、顎台駆動部12、記憶部(例えば、不揮発性メモリ)74等と接続されている。記憶部74は、例えば、電源の供給が遮断されても記憶内容を保持できる非一過性の記憶媒体である。例えば、ハードディスクドライブ、着脱可能なUSBフラッシュメモリ等を記憶部74として使用することができる。
<Control system>
As shown in FIG. 2, the device 1 has a
<検眼部>
検眼部2は、被検眼の測定、検査、および、撮影などを行う。本実施例において、検眼部2は、例えば、撮影光学系20を有する。撮影光学系20は、眼底を撮影するための主要な光学系である。また、例えば、図3に示すように、検眼部2は、指標投影光学系50と、前眼撮影光学系60と、を備えてもよい。
<Optical section>
The
撮影光学系20は、検眼軸L1を介して、被検眼の眼底を撮影する。撮影光学系20は、観察光学系を兼用していてもよい。本実施例における検眼軸L1は、撮影光学系20の撮影光軸である。本実施例において、撮影光学系20は、光源21、ビームスプリッタ23、対物レンズ25、および、撮像素子29を少なくとも含んでいる。撮影光学系20は、光源21を含む投光光学系20aと、撮像素子29を含む受光光学系20bと、に大別される。光源21は、眼底を撮影するための照明光を発する。照明光は、対物レンズ25を経て、眼底へ照射される。撮像素子29は、眼底共役位置に配置される。照明光の眼底反射光は、撮像素子29で結像される。その結果、被検眼Eの眼底画像が撮像される。
The photographing
図3に示すように、受光光学系20bの光軸L2は、ビームスプリッタ23によって検眼軸L1と同軸となる。対物レンズ25は、検眼軸L1上に配置される。
As shown in FIG. 3, the optical axis L2 of the light receiving optical system 20b is made coaxial with the eye examination axis L1 by the beam splitter . The
検眼軸L1上には、ビームスプリッタ63が配置されている。ビームスプリッタ63は、前眼部撮影光学系20と、撮影光学系20と、の光路を結合する。
A
図3に示すように、被検眼の前方には、指標投影光学系50が配置されてもよい。指標投影光学系50は、主に、被検眼に対する光学系の位置合わせ(アライメント)に用いられる指標を前眼部に投影する。ここで、指標投影光学系50は、眼Eの前眼部を照明する前眼部照明としても用いられてもよい。
As shown in FIG. 3, a target projection
指標投影光学系50は、被検眼にアライメント指標を投影する。本実施例の指標投影光学系50は、図3に示すように、検眼軸L1を中心として同心円上に指標光源が複数個配置されている。指標投影光学系50は、第1指標投影光学系51と、第2指標投影光学系52と、を備える。第1指標投影光学系51は、被検者眼Eの角膜に拡散光を投影し、有限遠の指標を投影する。第1指標投影光学系51は、本実施例の眼科装置1では、被検眼Eの前眼部を照明する前眼部照明としても用いられる。第2指標投影光学系52は、被検眼の角膜に平行光を投影し、無限遠の指標を投影する。一例として、本実施例において、第1指標投影光学系51は、被検者眼Eの角膜に無限遠の指標を左右方向から投影する。本実施形例の第2指標投影光学系52は、被検者眼Eの角膜に有限遠の指標を斜め下方向から投影する。
A target projection
制御部70は、前眼部画像第1指標光学系51と第2指標投影光学系52によって被検眼に投影された指標の位置を検出することによって、被検眼の位置情報を取得する。
The
前眼撮影光学系60は、被検眼の前眼部画像を撮像するために設けられてもよい。例えば、前眼撮影光学系60は、撮像素子62を少なくとも備える。図3では、撮像素子62が、ビームスプリッタ63の反射方向の光軸L3上に設けられている。撮像素子62は、被検眼の前眼部と光学的に共役な位置に配置される。撮像素子62は、指標投影光学系50によって照明される前眼部を撮像する。撮像素子62からの出力は、制御部70に入力される。その結果、撮像素子62によって撮像される被検眼の前眼部画像P1が、表示部7に表示される(図2参照)。また、撮像素子62では、指標投影光学系50によって被検眼の角膜に形成されるアライメント指標(本実施例では、有限遠指標および無限遠指標)が撮像される。その結果、制御部70は、撮像素子62の撮像結果に基づいてアライメント指標を検出できる。また、制御部70は、アライメント状態の適否を、アライメント指標が検出される位置に基づいて判定できる。例えば、制御部70は、有限遠指標と無限遠指標との位置関係に基づいて、作動距離を検出してもよい。なお、前眼撮影光学系60の光軸L3は、ビームスプリッタ63によって測定光軸L1と同軸とされる。
The anterior eye imaging
また、検眼部2には、被検眼を固視させるための視標呈示光学系を有していてもよい。視標呈示光学系は、例えば、検眼軸L1を介して、固視標を投影する。
Further, the
<顔撮影部>
顔撮影部90は、例えば、左右の被検眼のうち少なくとも一方を含む顔を撮影するための光学系を備えてもよい。例えば、図3に示すように、本実施例の顔撮影部90は、例えば、撮像素子91と、撮像レンズ92を主に備える。
<Face shooting part>
The
顔撮影部90は、例えば、検眼部2が初期位置にある場合に、被検眼の両眼および鼻を撮影できる位置に設けられる。本実施例において、検眼部2の初期位置は、右眼を検査し易いように、被検者の顔の中心に対して右側にずれた位置に設定される。したがって、顔撮影部90は、検眼部2が右側にずれた初期位置にある状態で、被検眼の両眼を撮影できる位置に設けられる。例えば、顔撮影部90は、検眼部2が初期位置にある状態で機械中心に配置される。初期位置は、例えば、瞳孔間距離の半分、つまり片眼瞳孔間距離に基づいて設定される場合、顔撮影部90は、装置本体の機械中心に対して片眼瞳孔間距離だけ左右にずれた位置に配置されてもよい。なお、片眼瞳孔間距離の平均値はおよそ32mmである。
The
また、顔撮影部90は、種々の装置の光学系に配慮して配置されてもよい。装置によっては、中央の検眼窓の左右に光源・レンズ・受光素子等の光学素子が設けられる場合がある。また、検眼窓の上下において光学素子が設けられる場合がある。また、眼圧測定用の空気噴出ノズルが設けられる場合がある。これらの場合を考慮して顔撮影部90は、検眼窓の上下方向と左右方向を避け、斜め方向に取り付けてもよい。本実施例では、斜め左に取り付けられる。このように、顔撮影部90の配置を種々の装置の光学系に配慮してもよい。もちろん、機種によっては検眼窓の回りのどの方向に取り付けてもよい。
Also, the
本実施例の顔撮影部90は、第1駆動部4によって検眼部2とともに移動される。もちろん、顔撮影部90は、例えば、基台5に対して固定され、移動しない構成でもよい。
The
なお、本実施例において、顔撮影部90は、一つのタイミングで被検眼の両眼および鼻を一方向から撮影するが、必ずしもこれに限られるものではない。例えば、顔撮影部90は、検眼部2が初期位置にある場合に、複数の異なる方向から同時に、被検眼の両眼および鼻を撮影可能であってもよい。この場合、顔撮影部90は、例えば、ステレオカメラであってもよい。
In this embodiment, the
<顔照明光学系>
顔照明光学系80は、被検眼の顔を照明する。顔照明光学系80は、被検者の両眼を含む被検者の顔を照明するために設けられてもよい。顔照明光学系80は、例えば、照明光源81を備える。照明光源81は、赤外光を発する。なお、顔照明光学系80は、顔撮影部90の光軸の周辺を均一に被検眼の顔を照明することが好ましい。本実施例では、検眼窓の左右の位置に照明光源81が設けられている。なお、顔照明光学系80は、顔撮影部90を基準として対称的な位置に設けられてもよい。例えば、顔撮影部90を中心として左右対称な位置に設けられてもよいし、上下対称な位置に設けられてもよい。なお、顔照明光学系80は、アライメント用の指標光源よりも指向性の低い光源が用いられる。
<Face illumination optical system>
A face illumination
<制御方法>
以下、図4のフローチャートに基づいて、本装置1の制御動作について説明する。本装置1は、例えば、被検眼を検査するために、検眼部2と被検眼との位置合わせ(アライメント)を自動で行う。なお、以下の説明において、被検者の顔は、事前に、顔支持部9によって支持されている。
<Control method>
The control operation of the device 1 will be described below based on the flowchart of FIG. For example, the apparatus 1 automatically aligns the eye to be inspected with the
(ステップS1:顔撮影)
制御部70は、顔支持部9に支持された被検者の顔を顔撮影部90によって撮影する。本実施例では、予め定められた2点間で検眼部2を移動させる。その2点で顔撮影部90によって顔を撮影することによって、異なる2つの方向から顔を撮影する。以下、顔が撮影するための検眼部2の位置として予め定められた、2点の位置を、それぞれ、それぞれ、第1顔撮影位置および第2顔撮影位置と称する。本実施例では、第1顔撮影位置から第2顔撮影位置へ移動されると共に、各位置で、顔の画像が撮影される。その後、第2顔撮影位置を初期位置として、検眼部2が被検眼へ接近される。
(Step S1: face photographing)
The
(ステップS2:第1情報、第2情報の取得)
次に、制御部70は、2方向から撮影された顔の画像から、第1情報および第2情報を、少なくとも取得する。前述の通り、第1情報は、被検眼の3次元位置情報である。また、第2情報は、鼻の3次元位置情報である。例えば、本出願人による特開2015-221075号公報において、2方向から撮影された顔の画像から左右の被検眼の3次元座標を取得する手法が開示されている。例えば、この手法を用いて、第1情報が、被検眼の3次元座標として取得されてもよい。
(Step S2: Acquisition of first information and second information)
Next, the
本実施例では、鼻の3次元位置情報についても、特開2015-221075号公報において被検眼を検出する手法と同様の手法を用いて取得され得る。このとき、画像処理等を利用して各方向の顔の画像における鼻の位置を検出し、各方向の画像で特定された鼻の位置情報から、鼻の3次元座標を、第2情報として導出してもよい。鼻の位置を検出する画像処理の一例として、例えば、鼻検出用のフィルタを用いるものや、特徴量抽出を行うもの等が知られている。本実施例では、撮影した方向が異なる2つの顔の画像をマッチングしたときに一致する鼻の各点についての3次元座標をそれぞれ得ることで、鼻の3次元形状情報が、併せて取得される。 In this embodiment, the three-dimensional position information of the nose can also be obtained using the same method as the method for detecting the subject's eye in Japanese Patent Application Laid-Open No. 2015-221075. At this time, the position of the nose in the face image in each direction is detected using image processing or the like, and the three-dimensional coordinates of the nose are derived as second information from the position information of the nose specified in the image in each direction. You may Known examples of image processing for detecting the position of the nose include, for example, using a nose detection filter and extracting a feature amount. In this embodiment, the three-dimensional shape information of the nose is also acquired by obtaining the three-dimensional coordinates of each point of the nose that matches when two face images photographed in different directions are matched. .
(ステップS3:経路選択)
制御部70は、第1情報および第2情報に基づいて、検眼部2を被検眼Eへ接近させるための経路を選択する。本実施例において、経路の初期位置Poは、第2撮影位置であり、目標位置は、被検眼Eに対して、一定距離だけZ方向に離れた位置である。本実施例において、目標位置は、所要作動距離に対して被検眼Eから離れ、且つ、アライメント指標像の検出が可能となる範囲に設定される。このように、本実施例において、第2撮影位置の3次元位置情報は既知であり、目標位置の3次元位置情報は、第1情報が示す被検眼の3次元位置に基づいて定められる。
(Step S3: Route selection)
The
制御部70は、初期位置から目標位置までの間に、鼻を迂回する経路を選択する。一例として、制御部70は、図5に示すように、所定の位置を原点とする3次元仮想空間上で、左右の被検眼のオブジェクトOb1,Ob2、および、鼻のオブジェクトOb3と、検眼部2の少なくとも先端部を含むオブジェクトOb4と、をステップ2で取得された各種情報に基づいて生成する。そのうえで、まず、初期位置Poと目標位置Peとを結ぶ直線経路Q1(本実施形態における第1経路)で、検眼部2を移動させるシミュレーションを行う。シミュレーションの途中で、検眼部2と鼻との両オブジェクトOb3,Ob4が接触しなければ、当該経路が、制御部70によって、選択される。一方、シミュレーションの途中で、検眼部2と鼻との両オブジェクトOb3,Ob4が接触する場合は、新たな経路によるシミュレーションを行う。例えば、前回の経路によるシミュレーションにおいて、両オブジェクトOb3,Ob4が接触した位置(通過点Pa)に対して、被検者の耳側に所定距離だけ離れた位置に、新たな経路Q2における通過点Pbを設定する。そして、初期位置Paと通過点Pb、通過点Pbと目標位置Peとを、それぞれ直線または曲線で結ぶ新たな経路Q2で、検眼部2を移動させるシミュレーションを行う。接触が解消した場合は、その経路を採用し、接触が解消しなかった場合は、繰り返し上記の処理を行ってもよい。
The
(ステップ4 経路に沿った検眼部の移動)
制御部70は、第1駆動部4を制御することによって、ステップ3によって選択された経路に沿って検眼部2が移動される(第1アライメント)。これにより、検眼部2と被検眼Eとが離れた位置から、検眼部2が鼻を避けつつ、自動で接近される。
(Step 4 Movement of optometry unit along path)
The
(ステップ5 アライメント指標の投影および検出の開始)
本実施例においては、制御部70は、経路に沿った検眼部2の移動と並行して、アライメント指標の投影と、前眼部画像に基づく指標像Ma~Mdの検出と、を開始する。指標像Ma,Mbは、第1指標投影光学系51による無限遠の指標である。指標像Mc,Mdは、第2指標投影光学系52による無限遠の指標である。
(
In this embodiment, the
(ステップ6 ケラレの判定)
検眼部2が被検眼Eに対して所定の範囲まで移動された段階で、指標像Ma~Mdが前眼部画像に基づいて検出可能となる。この段階で、制御部70は、指標像Ma~Mdのうちいずれかがケラレているか否かを随時判定する。本実施例では、制御部70は、指標像Ma~Mdのうち、鼻側に形成される指標像が検出されず、耳側に形成される指標像が検出される場合に、図6に示すように、鼻側の指標光束が鼻Nによってケラレていると制御部70によって判定される。このとき、図7に示すように、一部の指標像(ここでは、指標像Ma)が、鼻Nによってケラレるため、描写されなくなる。ケラレが生じている場合、検眼部2と鼻との間隔が狭い状態であると考えられる。
(
At the stage when the
(ステップ7 検眼部の移動停止、又は、接近報知)
そこで、本実施例において、ケラレが生じていると判定された場合(ステップ6;Yes)、制御部70は、検眼部2の移動制御を停止させる。これにより、検眼部2が被検者の顔に接触することを抑制する。移動制御を停止させた後、手動で検眼部2の位置を調整するモード(マニュアルアライメントモード)へ、切換られてもよい。マニュアルアライメントモードへ切り替わった後、例えば、検者は、第2駆動部15を手動で操作して、被検者の顔の向きに対する検眼軸L1の向きを調整すると共に、XYZの各方向に関して手動でアライメント状態を調整してもよい。
(
Therefore, in the present embodiment, when it is determined that vignetting has occurred (
また、制御部70は、ケラレが生じていると判定された場合に、表示部7等を介して検者等へ報知が行われてもよい。例えば、検眼部2が被検者の顔(より詳細には鼻)と接触する可能性があることが報知されてもよい。また、マニュアルアライメントモードへ切替わる場合、例えば、その旨が報知されてもよい。
Further, when it is determined that vignetting has occurred, the
(ステップ8 指標像に基づくアライメント)
指標像が良好に検出される場合(ステップ6;No)、制御部70は、指標像Ma~Mdの位置に基づくアライメントを行う(検眼部2と被検眼Eとの位置を微調整する)。
(
If the index images are detected satisfactorily (
このとき、制御部70は、リング状に投影された指標像Ma~Md(図2参照)によって形成されるリング形状の中心のXY座標を、仮想の角膜頂点位置Mo(図2参照)として検出する。制御部70は、検出した角膜頂点位置Moを、アライメント目標位置として設定する。次に、制御部70は、検眼軸L1とアライメント目標位置(つまり角膜頂点位置Mo)とが一致するように、第1駆動部4を駆動制御する。また、制御部70は、無限遠の指標像Ma,Mbの像間隔と有限遠の指標像Mc,Mdの像間隔との比率を比較することによって、Z方向のアライメント偏位量を求めることができる(詳しくは、特開平6-46999号参照)。制御部70は、求めたZ方向のアライメント偏位量に基づいて、第1駆動部4を駆動制御する。以降の説明で、上述したアライメント制御を、オートトラッキングと呼ぶ場合がある。
At this time, the
(ステップ9 アライメント完了の判定)
被検者眼Eと検眼部2のアライメント関係が、所定の許容範囲内(本実施例における目標)に収まると、制御部70は、アライメント動作を一旦停止させる。所定の許容範囲内でない場合、制御部70は、例えば、ステップ6からの各ステップを繰り返してもよい。
(
When the alignment relationship between the subject's eye E and the
(ステップ10 眼底の撮影)
制御部70は、XYZ方向のアライメントずれ量が、所定の許容範囲となった段階で、検眼部2によって被検眼の検査を開始する。本実施例では、検眼部2によって、眼底画像が撮影される。もちろん、眼底撮影に限らず、検眼部の種類に応じた種々の測定・撮影等が実行されてもよい。
(
When the amount of misalignment in the XYZ directions reaches a predetermined allowable range, the
(その他)
このようにして片眼を撮影した後、検眼部2を移動して、他方の眼を撮影してもよい。このとき、他方の眼についての3次元位置情報と、鼻の3次元位置情報に基づいて、検眼部2の移動が制御されてもよい。制御部70は、撮影済みの眼から検眼部2を後退させてから、他方の眼へ検眼部2を接近させる。その際、ステップ3およびステップ4と同様の手法で、検眼部3が制御されてもよい。
(others)
After photographing one eye in this manner, the
1 眼科装置
2 検眼部
4 駆動部
5 基台
9 顔支持部
60 前眼撮影光学系
70 制御部
90 顔撮影部
REFERENCE SIGNS LIST 1
Claims (3)
左右の被検眼のうち少なくとも一方と鼻とを含む顔の画像を撮影する顔撮影手段と、
前記被検眼に対して前記検眼手段を3次元的に相対移動させる第1駆動手段と、を備え、
前記顔の画像から、前記被検眼の位置情報である第1情報と、前記鼻の位置情報である第2情報と、を取得し、取得された前記第1情報および前記第2情報に基づいて前記第1駆動手段の駆動を制御することによって、前記被検眼へ前記検眼手段を接近させる制御手段と、
を備える眼科装置。 an eye examination means for examining an eye to be examined;
face photographing means for photographing a face image including at least one of the left and right eyes to be examined and a nose;
a first drive means for three-dimensionally moving the eye examination means relative to the eye to be examined;
obtaining first information, which is positional information of the subject's eye, and second information, which is positional information of the nose, from the face image, and based on the obtained first information and the second information; a control means for causing the eye examination means to approach the eye to be examined by controlling the driving of the first drive means;
An ophthalmic device comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019018332A JP7271976B2 (en) | 2019-02-04 | 2019-02-04 | ophthalmic equipment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019018332A JP7271976B2 (en) | 2019-02-04 | 2019-02-04 | ophthalmic equipment |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020124350A JP2020124350A (en) | 2020-08-20 |
JP7271976B2 true JP7271976B2 (en) | 2023-05-12 |
Family
ID=72084466
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019018332A Active JP7271976B2 (en) | 2019-02-04 | 2019-02-04 | ophthalmic equipment |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7271976B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7567113B2 (en) | 2020-12-29 | 2024-10-16 | 株式会社トプコン | Ophthalmic Equipment |
WO2024202211A1 (en) * | 2023-03-28 | 2024-10-03 | 株式会社トプコン | Ophthalmic apparatus and operating method of ophthalmic apparatus |
WO2024202213A1 (en) * | 2023-03-28 | 2024-10-03 | 株式会社トプコン | Ophthalmologic device and method for operating ophthalmologic device |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007061313A (en) | 2005-08-30 | 2007-03-15 | Nidek Co Ltd | Cornea shape measuring apparatus |
JP2009201981A (en) | 2008-02-01 | 2009-09-10 | Nidek Co Ltd | Ophthalmic apparatus |
JP2010246740A (en) | 2009-04-16 | 2010-11-04 | Topcon Corp | Eye examination apparatus |
JP2012170590A (en) | 2011-02-21 | 2012-09-10 | Canon Inc | Optometer and control method of the same |
JP2017196304A (en) | 2016-04-28 | 2017-11-02 | 株式会社ニデック | Ophthalmic apparatus and ophthalmic apparatus control program |
JP2018042687A (en) | 2016-09-13 | 2018-03-22 | 株式会社トプコン | Composite inspection apparatus |
-
2019
- 2019-02-04 JP JP2019018332A patent/JP7271976B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007061313A (en) | 2005-08-30 | 2007-03-15 | Nidek Co Ltd | Cornea shape measuring apparatus |
JP2009201981A (en) | 2008-02-01 | 2009-09-10 | Nidek Co Ltd | Ophthalmic apparatus |
JP2010246740A (en) | 2009-04-16 | 2010-11-04 | Topcon Corp | Eye examination apparatus |
JP2012170590A (en) | 2011-02-21 | 2012-09-10 | Canon Inc | Optometer and control method of the same |
JP2017196304A (en) | 2016-04-28 | 2017-11-02 | 株式会社ニデック | Ophthalmic apparatus and ophthalmic apparatus control program |
JP2018042687A (en) | 2016-09-13 | 2018-03-22 | 株式会社トプコン | Composite inspection apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP2020124350A (en) | 2020-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5955193B2 (en) | Ophthalmic apparatus, control method for ophthalmic apparatus, and program | |
JP6238551B2 (en) | Ophthalmic apparatus, control method for ophthalmic apparatus, and program | |
JP6071304B2 (en) | Ophthalmic apparatus and alignment method | |
JP6716752B2 (en) | Ophthalmic equipment | |
JP6006519B2 (en) | Ophthalmic equipment | |
JP6641730B2 (en) | Ophthalmic apparatus and ophthalmic apparatus program | |
JP7073678B2 (en) | Ophthalmic equipment | |
JP7271976B2 (en) | ophthalmic equipment | |
WO2017188456A1 (en) | Ophthalmic device and program for controlling ophthalmic device | |
JP6892540B2 (en) | Ophthalmic equipment | |
EP3150111B1 (en) | Ophthalmic apparatus and control program for the ophthalmic apparatus | |
JP7439688B2 (en) | Ophthalmology equipment and ophthalmology equipment control program | |
JP6843527B2 (en) | Ophthalmic equipment and ophthalmic equipment control program | |
JP2018038517A (en) | Ophthalmologic apparatus and control method of ophthalmologic apparatus | |
JP6769092B2 (en) | Ophthalmic equipment | |
JP6769091B2 (en) | Ophthalmic equipment and ophthalmic equipment control program | |
JP6733292B2 (en) | Ophthalmic device and ophthalmic device control program | |
JP7187769B2 (en) | Ophthalmic device and ophthalmic device control program | |
JP6823339B2 (en) | Ophthalmic equipment | |
JP7216562B2 (en) | ophthalmic equipment | |
JP6098094B2 (en) | Ophthalmic equipment | |
JP6927389B2 (en) | Ophthalmic equipment | |
JP6930841B2 (en) | Ophthalmic equipment | |
JP6930842B2 (en) | Ophthalmic equipment | |
JP2022080459A (en) | Ophthalmologic apparatus, and ophthalmologic apparatus control program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211227 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211227 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220930 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221004 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221205 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230328 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230410 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7271976 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |