JP2013097014A - Position data calculation method - Google Patents

Position data calculation method Download PDF

Info

Publication number
JP2013097014A
JP2013097014A JP2011236754A JP2011236754A JP2013097014A JP 2013097014 A JP2013097014 A JP 2013097014A JP 2011236754 A JP2011236754 A JP 2011236754A JP 2011236754 A JP2011236754 A JP 2011236754A JP 2013097014 A JP2013097014 A JP 2013097014A
Authority
JP
Japan
Prior art keywords
position data
lens
subject
calculation method
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011236754A
Other languages
Japanese (ja)
Inventor
Eiji Suzuki
栄二 鈴木
Hitoshi Miura
仁志 三浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokai Optical Co Ltd
Original Assignee
Tokai Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokai Optical Co Ltd filed Critical Tokai Optical Co Ltd
Priority to JP2011236754A priority Critical patent/JP2013097014A/en
Publication of JP2013097014A publication Critical patent/JP2013097014A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)
  • Eyeglasses (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a position data calculation method of lens design information in glasses capable of calculating lens design information needed when attaching lenses to an eye glass frame.SOLUTION: An imaging apparatus 1 provided with an imaging optical system images a face part including the rims 21 of the eye glass frame while a subject wears the eye glass frame and visually inspects the front. The imaging optical system of the imaging apparatus 1 can drive a plane perpendicular to the line of sight of the subject, is configured to be able to be focused in a direction of approaching and leaving the face part of the subject, and can calculate three-dimensional position data of the rims 21 with respect to the eyes of the subject.

Description

本発明は眼鏡フレームにレンズを装着させる際に眼鏡フレームのレンズ保持部の形状とレンズとの関係において発生する情報に関して必要とされる位置データを算出するための位置データ算出方法に関するものである。   The present invention relates to a position data calculation method for calculating position data required for information generated in relation to the shape of a lens holding portion of a spectacle frame and the lens when the lens is mounted on the spectacle frame.

眼鏡フレームにレンズを装着させる際に眼鏡フレームのレンズ保持部の形状とレンズとの位置関係において発生する情報(以下、フレーム・レンズ情報)として、例えば、頂点間距離(角膜頂点からレンズ裏面と正面向き視線の交点までの距離)が挙げられる。眼とレンズとの間隔が違えばレンズを同じレンズ度数に設定しても見え方は異なる。例えば、ユーザー(被験者)のレンズ度数を決定するためにトライアルレンズを使用して最適なレンズ度数を得たとしても、トライアルレンズ用の眼鏡フレームとは異なる眼鏡フレームにその最適とされた度数のレンズを適用した場合には頂点間距離が変わってしまい必ずしも最適になるわけではない。そのため、頂点間距離はフレーム・レンズ情報の1つとして重要である。
また、眼鏡フレームにレンズを装着させた際にはレンズがトライアルレンズの眼鏡フレームとは異なりそり角や前傾角が発生する場合がある。そり角や前傾角があればレンズが眼に対して正対しない状態で装着されるわけであるから、例えば乱視のないユーザーであっても乱視状態となってしまうため、本来はそれに応じて乱視を矯正するようなレンズ特性を反映させる必要がある。そり角や前傾角は眼鏡フレームに装着された状態のレンズのアイポイント位置におけるレンズ表面の接線角度が必要となるが、実際にはそのような位置で正確にそり角や前傾角測定することができないため、便宜的にレンズ保持部の角度を持ってそり角や前傾角とすることが多い。
これら頂点間距離やそり角や前傾角はフレーム・レンズ情報の代表的なものとして重要であるが、いずれも、ユーザーの眼の位置に対するレンズ保持部の形状とレンズの3次元的な位置を求める必要がある。
As information (hereinafter referred to as frame / lens information) generated in the positional relationship between the shape of the lens holding portion of the spectacle frame and the lens when the lens is mounted on the spectacle frame, for example, the distance between vertices (from the apex of the cornea to the back and front of the lens) Distance to the intersection of the line of sight). If the distance between the eye and the lens is different, the appearance will be different even if the lens is set to the same lens power. For example, even if a trial lens is used to determine the lens power of the user (subject) and the optimal lens power is obtained, the lens of the optimal power is used for a spectacle frame different from the spectacle frame for the trial lens. When is applied, the distance between vertices changes and is not necessarily optimal. Therefore, the distance between vertices is important as one piece of frame / lens information.
In addition, when a lens is mounted on a spectacle frame, the lens may be warped or tilted forward unlike a trial lens spectacle frame. If there is a slant angle or anteversion angle, the lens will be worn without facing the eye, so even a user without astigmatism will be in an astigmatism state. It is necessary to reflect the lens characteristics that correct the lens. The slant angle and forward tilt angle require the tangent angle of the lens surface at the eye point position of the lens mounted on the spectacle frame, but in reality it is possible to accurately measure the tilt angle and forward tilt angle at such a position. For this reason, for the sake of convenience, the angle of the lens holding part is often used as the sled angle or forward tilt angle.
The distance between the vertices, the warp angle, and the forward tilt angle are important as typical frame / lens information. In any case, the shape of the lens holding portion with respect to the position of the user's eye and the three-dimensional position of the lens are obtained. There is a need.

例えば、従来から眼鏡フレームに対する眼の位置(アイポイント位置)を決定する方法としては、例えば特許文献1に示す技術が挙げられる。これは、眼鏡フレームのリムの所定の位置に指標をマーキングし、実際にその眼鏡フレームを被験者に装用させて、眼鏡フレームを含む顔面部を撮影し、前もって得られている指標の位置に基づいて最適なアイポイント位置を算出するというものである。   For example, as a conventional method for determining the position of the eye (eye point position) with respect to the spectacle frame, for example, a technique disclosed in Patent Document 1 can be cited. This is done by marking an index at a predetermined position on the rim of the spectacle frame, actually wearing the spectacle frame on the subject, photographing the face part including the spectacle frame, and based on the position of the index obtained in advance. The optimum eye point position is calculated.

特許第4536329号公報Japanese Patent No. 4536329

特許文献1は、フレームに装着されたダミーレンズに参照点を記録し、フレーム装用者の正面からの顔写真を撮影し、参照点との位置関係からアイポイントを特定する方法について記載されている。この手法において、斜め角度から撮影された2枚の写真上の参照点と瞳孔中心位置から三角測量的に頂間距離を演算することも可能である。しかし、実機を用いて測定試験を実施したところ、演算に使用する測定値が求めたいパラメータと比較して十分に大きくないため、測定精度が低いことを確認した。また、写真撮影時のカメラと被写体のポジショニングが困難である等の問題もあった。
本発明は、このような従来の技術に存在する問題点に着目してなされたものである。その目的は、眼鏡フレームにレンズを装着させる際に必要とされるレンズ設計情報を算出することができる眼鏡におけるレンズ設計情報の位置データ算出方法を提供することにある。
Patent Document 1 describes a method of recording a reference point on a dummy lens mounted on a frame, taking a face photograph from the front of the frame wearer, and specifying an eye point from a positional relationship with the reference point. . In this method, it is also possible to calculate the apex distance triangulated from the reference point on the two photographs taken at an oblique angle and the pupil center position. However, when a measurement test was performed using an actual machine, it was confirmed that the measurement accuracy was low because the measurement value used for the calculation was not sufficiently large compared to the parameter to be obtained. In addition, there is a problem that it is difficult to position the camera and the subject when taking a picture.
The present invention has been made paying attention to such problems existing in the prior art. An object of the present invention is to provide a method for calculating position data of lens design information in spectacles, which can calculate lens design information required for mounting a lens on a spectacle frame.

上記課題を解決するために請求項1の発明では、被験者に眼鏡フレームを装用させ前方を目視させた状態で、前記眼鏡フレームのレンズ保持部を含む顔面部を撮像光学系を備えた撮像手段によって撮像し、その撮像情報に基づいて被験者の眼に対する前記レンズ保持部の3次元的な位置データを算出するようにしたことをその要旨とする。
また請求項2の発明では請求項1の発明の構成に加え、前記撮像光学系は被験者の視線に対して垂直な平面を駆動可能であるとともに、被験者の顔面部に対して接離する方向に合焦可能に構成され、前記3次元的な位置データは前記撮像光学系の測定箇所に対する移動量と合焦位置によって定義されることをその要旨とする。
また請求項3の発明では請求項1の発明の構成に加え、前記撮像手段によって撮像した撮像情報を画像解析し、被験者の眼に対する前記レンズ保持部の3次元的な位置データを算出することをその要旨とする。
また請求項4の発明では請求項1又は2の発明の構成に加え、算出の基準となる基準測定ポイントを測定して3次元的な位置データを算出し、前記基準測定ポイントの位置データに基づいて前記レンズ保持部の3次元的な位置データを算出するようにしたことをその要旨とする。
また請求項5の発明では請求項4の発明の構成に加え、前記基準測定ポイントは撮像情報として得られる被験者の顔面上の任意の位置であることをその要旨とする。
また請求項6の発明では請求項5の発明の構成に加え、前記基準測定ポイントは角膜頂点位置であることをその要旨とする。
また請求項7の発明では請求項6の発明の構成に加え、前記角膜頂点位置は瞳孔位置に基づいて換算することをその要旨とする。
また請求項8の発明では請求項6又は7の発明の構成に加え、前記瞳孔位置は測定された角膜屈折力に基づいて換算することをその要旨とする。
また請求項9の発明では請求項6の発明の構成に加え前記角膜頂点位置は角膜曲率測定装置により直接測定されることをその要旨とする。
また請求項10の発明では請求項1〜9のいずれかの発明の構成に加え、前記レンズ保持部の3次元的な位置データに基づいて前記眼鏡フレームに装着されるレンズの前傾角及びそり角の少なくともいずれか一方を算出することをその要旨とする。
In order to solve the above-mentioned problem, in the invention of claim 1, the face part including the lens holding part of the spectacle frame is imaged by an imaging means equipped with an imaging optical system in a state in which the subject wears the spectacle frame and looks forward. The gist is that an image is taken and the three-dimensional position data of the lens holding unit with respect to the eye of the subject is calculated based on the imaging information.
Further, in the invention of claim 2, in addition to the configuration of the invention of claim 1, the imaging optical system can drive a plane perpendicular to the line of sight of the subject and in a direction in which it is in contact with or away from the face of the subject. The gist of the present invention is that the three-dimensional position data is defined by a movement amount and a focus position with respect to the measurement location of the imaging optical system.
Further, in the invention of claim 3, in addition to the configuration of the invention of claim 1, the imaging information captured by the imaging means is subjected to image analysis, and the three-dimensional position data of the lens holding unit with respect to the eye of the subject is calculated. The gist.
According to the invention of claim 4, in addition to the configuration of the invention of claim 1 or 2, a reference measurement point serving as a calculation reference is measured to calculate three-dimensional position data, and based on the position data of the reference measurement point. The gist of the invention is to calculate the three-dimensional position data of the lens holding portion.
In addition to the configuration of the invention of claim 4, the gist of the invention of claim 5 is that the reference measurement point is an arbitrary position on the face of the subject obtained as imaging information.
Further, the gist of the invention of claim 6 is that, in addition to the configuration of the invention of claim 5, the reference measurement point is a corneal apex position.
The gist of the invention of claim 7 is that, in addition to the configuration of the invention of claim 6, the corneal apex position is converted based on the pupil position.
The gist of the invention of claim 8 is that, in addition to the configuration of the invention of claim 6 or 7, the pupil position is converted based on the measured corneal refractive power.
Further, the gist of the invention of claim 9 is that, in addition to the configuration of the invention of claim 6, the corneal apex position is directly measured by a corneal curvature measuring device.
Further, in the invention of claim 10, in addition to the structure of any one of claims 1 to 9, the forward tilt angle and the warp angle of the lens mounted on the spectacle frame based on the three-dimensional position data of the lens holding portion. The gist is to calculate at least one of the following.

上記のような構成では、被験者に眼鏡フレームを装用させて前方を目視させた状態で眼鏡フレームのレンズ保持部を含む顔面部を撮像光学系を備えた撮像手段によって撮像し、その撮像情報に基づいて被験者の眼に対する前記レンズ保持部の3次元的な位置データを算出する。
算出方法としては、例えば、撮像光学系が被験者の画面を横切る方向(以下、第1の方向)に駆動可能であるとともに、被験者の顔面部に対して接離する方向(以下、第2の方向)に合焦可能に構成されていることで、ある基準位置に対する第1の方向への撮像光学系の移動量と合焦の際のフォーカシングレンズの移動量に基づいて算出することが可能である。レンズ保持部とはレンズ全周を包囲するリムのみならず、レンズの一部を包囲するリムやリムがなくレンズを両端だけで留めるようないわゆる「リムレス」と呼ばれる保持手段も含む概念である。
また、レンズ保持部のエッジや画面の肌のコントラスト等の画像情報を画像解析を行って算出することも可能である。
In the configuration as described above, the face part including the lens holding part of the spectacle frame is imaged by the imaging means equipped with the imaging optical system in a state where the subject wears the spectacle frame and the front is viewed, and based on the imaging information Then, three-dimensional position data of the lens holding part with respect to the eye of the subject is calculated.
As a calculation method, for example, the imaging optical system can be driven in a direction across the subject's screen (hereinafter referred to as a first direction), and a direction in which the imaging optical system is in contact with or separated from the subject's face (hereinafter referred to as a second direction). ) Can be calculated based on the movement amount of the imaging optical system in the first direction with respect to a certain reference position and the movement amount of the focusing lens at the time of focusing. . The lens holding portion is a concept that includes not only a rim that surrounds the entire circumference of the lens but also a holding means called “rimless” in which there is no rim or rim surrounding a part of the lens and the lens is fastened only at both ends.
It is also possible to calculate image information such as the edge of the lens holding unit and the contrast of the skin of the screen by performing image analysis.

基準測定ポイントを測定して3次元的な位置データを算出し、その基準測定ポイントの位置データに基づいてレンズ保持部の3次元的な位置データを算出することが好ましい。基準測定ポイントとしては撮像情報として得られる被験者の顔面上の任意の位置とすることが好ましい。ここで位置データとして必要なのは被験者の顔面に対するレンズ保持部の配置状態であるため、被験者の顔面のどこかを基準として所定のレンズ設計情報の3次元的な位置データを得るようにすればよいからである。基準測定ポイントとして好ましいのは、撮像においてレンズ保持部の内側であり、より好ましいのは角膜頂点位置である。但し、角膜頂点位置を基準測定ポイントとする場合には撮像光学系を合焦させにくため、第2の方向については虹彩が明瞭に見える瞳孔位置をもって換算することが好ましい。
更に、レンズ保持部の3次元的な位置データに基づいて眼鏡フレームに装着されるレンズの前傾角及びそり角を算出することが可能となる。眼鏡フレームに前傾角又はそり角がなければこれらの角度の影響を考慮しなくともよいが、前傾角又はそり角がある場合にはそれを考慮する必要がある。レンズ保持部の3次元的な位置データを取得することで正確に前傾角又はそり角を算出することができることとなる。
It is preferable to measure the reference measurement point to calculate three-dimensional position data, and to calculate the three-dimensional position data of the lens holding unit based on the position data of the reference measurement point. The reference measurement point is preferably an arbitrary position on the subject's face obtained as imaging information. Here, since what is necessary as the position data is the arrangement state of the lens holding portion with respect to the face of the subject, it is only necessary to obtain three-dimensional position data of predetermined lens design information on the basis of somewhere on the face of the subject. It is. A preferable reference measurement point is the inside of the lens holding portion in imaging, and a more preferable position is the corneal apex position. However, in order to make it difficult to focus the imaging optical system when the corneal apex position is set as the reference measurement point, it is preferable to convert the second direction with a pupil position where the iris can be clearly seen.
Further, it is possible to calculate the forward tilt angle and the warp angle of the lens mounted on the spectacle frame based on the three-dimensional position data of the lens holding unit. If the spectacle frame does not have a forward tilt angle or a warp angle, the effects of these angles need not be considered, but if there is a forward tilt angle or a warp angle, it must be considered. By acquiring the three-dimensional position data of the lens holding unit, the forward tilt angle or the warp angle can be accurately calculated.

上記各請求項の発明では、眼鏡フレームのレンズ保持部にレンズを装着させる際に必要とされるレンズ設計情報を算出することができる。   In the inventions of the above claims, it is possible to calculate lens design information required when the lens is mounted on the lens holding portion of the spectacle frame.

本発明の実施の形態1において、撮像装置を使用して撮像する一態様を説明する説明図。Explanatory drawing explaining the one aspect | mode which images using an imaging device in Embodiment 1 of this invention. 実施の形態1において使用される撮像装置の電気的構成を説明するブロック図。2 is a block diagram illustrating an electrical configuration of an imaging device used in Embodiment 1. FIG. 実施の形態1において撮像装置のモニターに表示される撮像の一例の説明図。4 is an explanatory diagram illustrating an example of imaging displayed on a monitor of the imaging apparatus in Embodiment 1. FIG. 実施の形態1においてリム上に設定する座標位置を説明する説明図。Explanatory drawing explaining the coordinate position set on a rim in Embodiment 1. FIG. 眼、フレーム及びレンズとの位置関係においてそり角の概念を説明する説明図。Explanatory drawing explaining the concept of a curvature angle in the positional relationship with eyes, a frame, and a lens. 眼、フレーム及びレンズとの位置関係において前傾角の概念を説明する説明図。Explanatory drawing explaining the concept of a forward tilt angle in the positional relationship with eyes, a frame, and a lens. レンズ表面球面の曲率中心座標の位置を説明するための説明図。Explanatory drawing for demonstrating the position of the curvature center coordinate of a lens surface spherical surface. 本発明の実施の形態2において、撮像の階調の違いによって領域を区画することを説明するための眼とまぶた周辺の所定の画素領域を切り取った模式図。The schematic diagram which cut out the predetermined | prescribed pixel area | region of the eye and eyelid periphery for demonstrating dividing an area | region by the difference of the gradation of imaging in Embodiment 2 of this invention. 図8の階調の違いを表す横軸を階調の強度、縦軸を画素の個数としたヒストグラム。FIG. 9 is a histogram in which the horizontal axis representing the difference in gradation in FIG. 8 is the intensity of gradation and the vertical axis is the number of pixels. 実施の形態2においてリム上に設定するピント合わせの目標点の設定方法を説明する説明図。Explanatory drawing explaining the setting method of the focus target point set on a rim in Embodiment 2. FIG. (a)は所定の画素領域についてピントが合っていない場合の、(b)はピントが合った状態のヒストグラム。(A) is a histogram when a predetermined pixel area is out of focus, and (b) is a histogram in a focused state.

以下、本発明の具体的な実施の形態を図面に基づいて説明する。
(実施の形態1)
本実施の形態1においては、撮像手段の一例として図1に示すような撮像装置1を使用する。撮像装置1の筐体2内部には図示しない撮像機構及び3軸モータ機構が配設されている。筐体2はコラム3を介してベッド4上に設置されている。ベッド4はベース5上に設置されている。筐体2の前面(被験者側)には対物レンズ筒6が形成されており、背面にはモニター7が形成されている。筐体2は内部に光源を備えた図示しない撮影用光学系を備えている。顔面撮影用光学系は光源によって照らされた対物(ここではフレーム(リム)を含んだ左右いずれかの眼の周囲)を撮影し、撮像素子9によって撮像データを取得する。
筐体2はベッド4に対してコラム3と共に左右方向(X軸方向)及び前後方向(Z軸方向)に移動可能とされており、コラム3に対して上下方向(Y軸方向)に移動可能とされている。3軸モータ機構には筐体2及びコラム3をX軸、Y軸及びZ軸の3つの軸方向に対して進退させるために3つのモータが配設されている。X軸方向とY軸方向は被験者の画面を横切る第1の方向とされ、Z軸方向は被験者の顔面部に対して接離する第2の方向とされる。第2の方向への移動によって撮像機構を合焦させることとなる。ベッド4上には筐体2を3軸方向に自在に移動させるための操作手段となるジョイスティック8が配設されている。ジョイスティック8には上下にスライド操作の可能なスライドスイッチ8aが併設されている。ジョイスティック8自体を左右方向に傾動させることでX軸方向に、前後方向に傾動させることでZ軸方向に筐体2を連動させて移動させることができる。また、スライドスイッチ8aを上下方向に移動操作することに連動させてY軸方向に筐体2を連動させて移動させることができる。
ベース5上の筐体2の前位置には撮像の際に被験者の顔を支持するためのスタンド装置10が配設されている。スタンド装置10は被験者のあごを載せるためのスライダ11が上下方向に移動可能に配設されている。スタンド装置10の上部位置には被験者の前頭部を当接させるクッション12が配設されている。
Hereinafter, specific embodiments of the present invention will be described with reference to the drawings.
(Embodiment 1)
In the first embodiment, an imaging apparatus 1 as shown in FIG. 1 is used as an example of imaging means. An imaging mechanism and a three-axis motor mechanism (not shown) are disposed inside the housing 2 of the imaging apparatus 1. The casing 2 is installed on the bed 4 via the column 3. The bed 4 is installed on the base 5. An objective lens cylinder 6 is formed on the front surface (subject side) of the housing 2, and a monitor 7 is formed on the rear surface. The housing 2 includes a photographing optical system (not shown) having a light source therein. The facial imaging optical system captures an object illuminated by a light source (here, around the left or right eye including a frame (rim)) and acquires imaging data by the imaging element 9.
The housing 2 can move in the left-right direction (X-axis direction) and the front-rear direction (Z-axis direction) together with the column 3 with respect to the bed 4, and can move in the vertical direction (Y-axis direction) with respect to the column 3. It is said that. The three-axis motor mechanism is provided with three motors for moving the housing 2 and the column 3 forward and backward in the three axial directions of the X axis, the Y axis, and the Z axis. The X-axis direction and the Y-axis direction are the first directions that cross the subject's screen, and the Z-axis direction is the second direction that is in contact with and away from the face portion of the subject. The imaging mechanism is focused by the movement in the second direction. On the bed 4, a joystick 8 serving as an operating means for freely moving the housing 2 in the three-axis directions is disposed. The joystick 8 is provided with a slide switch 8a that can be slid up and down. By tilting the joystick 8 itself in the left-right direction, the housing 2 can be moved in conjunction with the Z-axis direction by tilting in the X-axis direction and in the front-rear direction. Further, the housing 2 can be moved in conjunction with the Y-axis direction in conjunction with the up / down movement of the slide switch 8a.
A stand device 10 for supporting the face of the subject at the time of imaging is disposed at the front position of the housing 2 on the base 5. The stand device 10 is provided with a slider 11 for placing the subject's chin so as to be movable in the vertical direction. A cushion 12 for abutting the frontal head of the subject is disposed at an upper position of the stand device 10.

次に、このような撮像装置1の電気的構成を説明する。尚、本発明とは直接関係のない構成については省略する。
図2に示すように、撮像装置1のコントローラMCには上記モニター7、上記ジョイスティック8、上記スライドスイッチ8a、撮像素子9、第1〜第3のステップモータ15〜17、第1〜第3のロータリーエンコーダ18〜20がそれぞれ接続されている。
コントローラMCは周知のCPUやROM及びRAM等のメモリ、タイマ等から構成されている。コントローラMCのROM内にはモニター7に撮像素子9の画像を表示させる表示プログラム、第1〜第3のロータリーエンコーダ18〜20からのパルス信号に基づいてモニター7上に示される画像縮尺に応じた移動量を算出し表示させる移動量算出プログラム、OS(Operation System)等の各種プログラムが記憶されている。
第1〜第3のステップモータ15〜17は上記3軸モータ機構の一部を構成し、第1のステップモータ15は筐体2をベッド4に対してコラム3と共に左右方向(X軸方向)に移動させる。第2のステップモータ16は同じく上下方向(Y軸方向)に移動させる。第3のステップモータ17は同じく前後方向(Z軸方向)に移動させる。
第1〜第3のロータリーエンコーダ18〜20はそれぞれ第1〜第3のステップモータ15〜17の回転量を測定し、回転量に応じて所定のパルス出力をする。
コントローラMCはジョイスティック8及びスライドスイッチ8aの操作に基づいて第1〜第3のステップモータ15〜17の駆動制御を実行し、その際に得られる第1〜第3のロータリーエンコーダ18〜20からの回転量に応じたパルス出力に基づいて筐体2の3次元的な移動量を算出し、モニター7に画像とともに数値表示させる。図3はモニター7に表示させる表示画面の一例である。被験者に正面を遠望視させた状態で撮像された右目とリム21を含む顔面が表示されている。瞳孔中心はアイポイントとなる。モニター中心にはターゲットとなるマーカー23が表示される。マーカー23は図上においてアイポイント位置を示している。画面左上方にはX,Y,Zの各軸方向の基準位置からの移動量(mm)が示される。基準位置は図示しない設定スイッチによって任意の位置を(X,Y,Z)=(0,0,0)として設定することが可能である。
Next, the electrical configuration of such an imaging apparatus 1 will be described. In addition, about the structure which is not directly related to this invention, it abbreviate | omits.
As shown in FIG. 2, the controller MC of the image pickup apparatus 1 includes the monitor 7, the joystick 8, the slide switch 8a, the image pickup device 9, the first to third step motors 15 to 17, and the first to third steps. Rotary encoders 18 to 20 are connected to each other.
The controller MC includes a known CPU, a memory such as a ROM and a RAM, a timer, and the like. In the ROM of the controller MC, a display program for displaying the image of the image sensor 9 on the monitor 7 and the image scale shown on the monitor 7 based on the pulse signals from the first to third rotary encoders 18 to 20 are displayed. Various programs such as a movement amount calculation program for calculating and displaying the movement amount and an OS (Operation System) are stored.
The first to third step motors 15 to 17 constitute a part of the three-axis motor mechanism, and the first step motor 15 moves the housing 2 with respect to the bed 4 in the left-right direction (X-axis direction). Move to. Similarly, the second step motor 16 is moved in the vertical direction (Y-axis direction). Similarly, the third step motor 17 is moved in the front-rear direction (Z-axis direction).
The first to third rotary encoders 18 to 20 respectively measure the rotation amounts of the first to third step motors 15 to 17 and output predetermined pulses according to the rotation amounts.
The controller MC executes drive control of the first to third step motors 15 to 17 on the basis of the operation of the joystick 8 and the slide switch 8a, and the first to third rotary encoders 18 to 20 obtained at that time are controlled. A three-dimensional movement amount of the housing 2 is calculated based on a pulse output corresponding to the rotation amount, and a numerical value is displayed on the monitor 7 together with the image. FIG. 3 is an example of a display screen displayed on the monitor 7. A face including the right eye and the rim 21 captured in a state in which the subject is telescopically viewed from the front is displayed. The center of the pupil is the eye point. A marker 23 as a target is displayed at the center of the monitor. The marker 23 indicates the eye point position on the drawing. The amount of movement (mm) from the reference position in the X, Y, and Z axis directions is shown in the upper left of the screen. The reference position can be set as (X, Y, Z) = (0, 0, 0) by a setting switch (not shown).

このような撮像装置1の使用においては、眼鏡フレームをかけた状態の被験者の左右いずれかの眼がちょうど対物レンズ筒6の前方に対面するようにスライダ11の上下位置を調整し、左右方向については被験者自身が顔を移動させて調整する。被験者は撮像時に顔が動かないようにしっかりと前頭部クッション12に押し付けるようにする。作業者はジョイスティック8及びスライドスイッチ8aを操作して筐体2をX軸、Y軸及びZ軸の各方向に移動させてモニター7に表示される撮像に対してマーカー23の中心の位置データを取得する。X,Y軸方向についての位置データはある点(基準となる点、どこでもよい。)からの左右・上下方向(第1の方向)の移動量として取得でき、Z軸方向についてはピントのあったある点を基準として現位置について前後方向(第2の方向)に移動させてピントを合わせることで取得できる。   In such use of the imaging apparatus 1, the vertical position of the slider 11 is adjusted so that either the left or right eye of the subject wearing the spectacle frame faces the front of the objective lens cylinder 6, and the horizontal direction is determined. Adjust by moving the face of the subject himself. The subject presses firmly against the forehead cushion 12 so that the face does not move during imaging. The operator operates the joystick 8 and the slide switch 8a to move the housing 2 in the X-axis, Y-axis, and Z-axis directions to obtain the position data of the center of the marker 23 for the image displayed on the monitor 7. get. Position data in the X and Y axis directions can be acquired as the amount of movement in the left and right and up and down directions (first direction) from a certain point (a reference point, anywhere), and the Z axis direction was in focus. It can be acquired by moving the current position in the front-rear direction (second direction) with a certain point as a reference and focusing.

次にこのような撮像装置1を使用した具体的な測定方法を説明する。以下における計算は撮像装置1によって得られた数値を人が計算するようにしても、撮像装置1に併設したコンピュータによって計算するようにしてもどちらでもよい。
1)基準測定ポイントの測定
本実施の形態では基準測定ポイントとして角膜頂点座標を使用する。角膜頂点座標はそもそも頂点間距離を取得するために必要な位置データであるため、これを基準とすることは誤差も少なく有利である。また、本実施の形態では角膜頂点座標におけるX,Y座標はアイポイント位置でもある。そのため、計算する場合にはこれを基準測定ポイント位置と設定し、角膜頂点座標(X,Y,Z)=(0,0,0)として計算する。
角膜頂点座標は実際には角膜が無色透明であるため、その場所を特定するのは容易ではない。そのため瞳孔を形成している虹彩を利用して、角膜頂点座標を取得する。
図3に示すように、モニター7に表示されるX,Y座標を0に設定した状態で、マーカーに被験者瞳孔中心位置を一致させる。この状態で角膜頂点座標のX,Y座標が得られることとなる。一方、瞳孔中心座標のZ座標は虹彩面を基準とする。人の平均的な前眼部の光学的なパラメータは表1の通りである。水晶体前面位置≒虹彩面位置と考え、虹彩面のZ軸座標位置に対して角膜頂点までの距離を加算することで角膜頂点のZ軸座標位置を取得する。ここでは、角膜頂点位置から水晶体前面位置までは3.6mmであるためこの値を採用することで、この距離分を虹彩面のZ座標に加算したものを角膜頂点座標のZ座標と考えるわけである。
しかし、ここでモニター7に表示される画像は角膜の屈折による正立虚像を表示しているため、この屈折を考慮した補正、つまりここでは3.6mmが角膜の屈折によってみかけ上どのくらいの距離でピントが合うのかを計算する必要がある。上記のように水晶体前面位置≒虹彩位置とし、見かけの虹彩位置をs´とすると実際の虹彩と見かけの虹彩位置、角膜屈折力の関係は下記数1の式で表される。
この式に表1の各数値を代入することで角膜頂点から虹彩面までの見かけの虹彩位置(Z軸距離)を求めることができる。ここでは、計算の結果4.29mmとなる。以下の計算上この4.29mmを考慮した角膜頂点Z座標を0に設定する。
ここで、表1に示す角膜屈折力(43.05D)は、ヒトの平均的な角膜屈折力を引用しているに過ぎないので、実際に測定された各被験者の角膜屈折力を数1の式に代入することも可能である。
Next, a specific measurement method using such an imaging apparatus 1 will be described. The calculation below may be performed either by a person calculating a numerical value obtained by the imaging apparatus 1 or by a computer provided in the imaging apparatus 1.
1) Measurement of reference measurement point In this embodiment, corneal vertex coordinates are used as a reference measurement point. Since the corneal vertex coordinates are position data necessary for acquiring the distance between the vertices in the first place, it is advantageous to use this as a reference with few errors. In the present embodiment, the X and Y coordinates in the corneal vertex coordinates are also eye point positions. Therefore, in the case of calculation, this is set as the reference measurement point position, and the calculation is performed with the corneal vertex coordinates (X, Y, Z) = (0, 0, 0).
Since the cornea is actually colorless and transparent, the position of the corneal vertex coordinates is not easy. Therefore, the corneal vertex coordinates are acquired using the iris forming the pupil.
As shown in FIG. 3, with the X and Y coordinates displayed on the monitor 7 set to 0, the subject pupil center position is made to coincide with the marker. In this state, the X and Y coordinates of the corneal apex coordinates are obtained. On the other hand, the Z coordinate of the pupil center coordinate is based on the iris plane. Table 1 shows the optical parameters of the average anterior segment of a person. The lens front surface position is considered to be the iris surface position, and the Z-axis coordinate position of the corneal vertex is obtained by adding the distance to the corneal vertex to the Z-axis coordinate position of the iris surface. Here, since the distance from the apex position of the cornea to the position of the front surface of the lens is 3.6 mm, by adopting this value, the value obtained by adding this distance to the Z coordinate of the iris plane is considered as the Z coordinate of the cornea apex coordinate. is there.
However, since the image displayed on the monitor 7 here displays an erecting virtual image due to the refraction of the cornea, the correction in consideration of this refraction, that is, here, how far the apparent distance is 3.6 mm due to the refraction of the cornea. It is necessary to calculate whether the subject is in focus. As described above, assuming that the lens front surface position is nearly equal to the iris position, and the apparent iris position is s', the relationship between the actual iris, the apparent iris position, and the corneal refractive power is expressed by the following equation (1).
By substituting the numerical values in Table 1 into this equation, the apparent iris position (Z-axis distance) from the corneal apex to the iris surface can be obtained. Here, the calculation result is 4.29 mm. In the following calculation, the corneal apex Z coordinate taking this 4.29 mm into consideration is set to zero.
Here, since the corneal refractive power (43.05D) shown in Table 1 merely refers to the average corneal refractive power of a human, the corneal refractive power of each subject actually measured is expressed as It is also possible to assign to an expression.

Figure 2013097014
Figure 2013097014

Figure 2013097014
Figure 2013097014

2)フレームの3次元位置の算出
ここでは図4に示すようにリム21の最上部座標a、最下部座標b、最も鼻側の点の座標c、最も耳側の座標dの4箇所について3次元位置を求める。もちろんこれら以外の位置について求めるようにしてもよい。少なくともこれらの4点はレンズ加工上必要とされるボクシングセンタの計算と、後述する前傾角又はそり角を計算するために必要である。角膜頂点座標(アイポイント位置)に対するa〜dのX,Y,Z座標は表2のように取得することができる。ボクシングセンタのX,Y座標は(X,Y)=((cX+dX)/2、(aY+bY)/2)から求めることができる。表1からもとめたボクシングセンタのX,Y座標は(X,Y)=(−2.45,−0.64)となり、ボクシングセンタを基準とすると角膜頂点座標(アイポイント位置)は図4では鼻側に2.45mm、上側に0.64mmずれた位置となる。
2) Calculation of the three-dimensional position of the frame Here, as shown in FIG. 4, the four points of the uppermost coordinate a, the lowest coordinate b, the coordinate c of the most nose side point, and the coordinate d of the most ear side of the rim 21 Find the dimension position. Of course, other positions may be obtained. At least these four points are necessary for calculating the boxing center required for lens processing and for calculating the forward tilt angle or the warp angle described later. The X, Y, and Z coordinates of a to d with respect to the corneal vertex coordinates (eye point position) can be acquired as shown in Table 2. The X and Y coordinates of the boxing center can be obtained from (X, Y) = ((cX + dX) / 2, (aY + bY) / 2). The X and Y coordinates of the boxing center obtained from Table 1 are (X, Y) = (− 2.45, −0.64), and the corneal vertex coordinates (eye point position) in FIG. The position is shifted by 2.45 mm on the nose side and 0.64 mm on the upper side.

3)そり角・前傾角の算出
図5に示すように、そり角はレンズ表面と正面向き視線との交点における、レンズ表面接線の、X-Z平面における傾きである。また、図6に示すように、前傾角はレンズ表面と正面向き視線との交点における、レンズ表面接線のY-Z平面における傾きである。
これらそり角、前傾角を求めるには、まずレンズ表面球面の曲率中心座標をもとめる必要がある。使用するフレームにそり角や前傾角がある場合には、その正確な角度を算出することで、レンズに角度に基づいて発生する収差をキャンセルするような特性を設けるようフィードバックすることが可能となる。
そり角・前傾角はフレーム(リム21)にレンズを装着することで生じる傾きであるため、ここでは、レンズパラメータについて表2に示すようなデータのレンズに適用して計算するものとする。表2のデータは一例であって、被験者によって異なる情報である。
3) Calculation of warp angle and forward tilt angle As shown in FIG. 5, the warp angle is the tilt in the XZ plane of the lens surface tangent at the intersection of the lens surface and the frontal line of sight. Also, as shown in FIG. 6, the forward tilt angle is the tilt in the YZ plane of the lens surface tangent at the intersection of the lens surface and the front-facing line of sight.
In order to obtain the warp angle and the forward tilt angle, it is first necessary to find the coordinates of the center of curvature of the lens surface spherical surface. When the frame to be used has a warp angle or a forward tilt angle, it is possible to provide feedback so that the lens can be provided with a characteristic that cancels aberrations generated based on the angle by calculating the exact angle. .
Since the warp angle and the forward tilt angle are inclinations generated by attaching the lens to the frame (rim 21), the lens parameters are calculated by applying the lens parameters to the lens as shown in Table 2. The data in Table 2 is an example, and is different information depending on the subject.

Figure 2013097014
Figure 2013097014

フレーム(リム21)にレンズを装着する際にはリム21に対してレンズの厚み位置をどのように配置するかを決定する必要がある。ここではレンズ表面が最も鼻側の点の座標c、最も耳側の座標dを通るように設定する。表カーブは球面であるため、左右方向に対して上下方向の短い本実施の形態1のようなリム21では図6のように最上部座標a、最下部座標bに対して表面は前方に若干飛び出して配置されることがある。尚、設定位置を変更することは自由である。
さて、レンズ表面球面の曲率中心座標は、
A)上記座標c,dの中点をとおり、2つのベクトルab,cdに対して垂直な直線上にある。この直線の方向ベクトルは、ベクトルabとベクトルcdの外積により求められる。
B)レンズ表面球面の曲率中心座標は、座標c,dの中点からLだけ離れたところにある。このLは、L=sqrt(R−M)で示される。ここに、図7に示すように、Rはレンズ表面の曲率半径であり、Mは座標c,dを結ぶ線分を二等分した長さである。
この条件を適用すると、レンズ表面球面の曲率中心座標は(X,Y,Z)=(−4.572,−4.639,−125.307)となる。
When the lens is attached to the frame (rim 21), it is necessary to determine how to arrange the lens thickness position with respect to the rim 21. Here, the lens surface is set so as to pass through the coordinate c of the point on the most nose side and the coordinate d on the most ear side. Since the surface curve is a spherical surface, the surface of the rim 21 in the first embodiment, which is short in the vertical direction with respect to the horizontal direction, is slightly forward with respect to the uppermost coordinate a and the lowest coordinate b as shown in FIG. Sometimes popping out. In addition, it is free to change the setting position.
Now, the center of curvature coordinates of the lens surface sphere are
A) It is on a straight line passing through the midpoint of the coordinates c and d and perpendicular to the two vectors ab and cd. The direction vector of this straight line is obtained by the outer product of the vector ab and the vector cd.
B) The center coordinate of curvature of the lens surface spherical surface is at a distance L from the midpoint of the coordinates c and d. This L is represented by L = sqrt (R 2 −M 2 ). Here, as shown in FIG. 7, R is a radius of curvature of the lens surface, and M is a length obtained by dividing a line connecting the coordinates c and d into two equal parts.
When this condition is applied, the center coordinates of curvature of the lens surface spherical surface are (X, Y, Z) = (− 4.572, −4.639, −125.307).

次いで、レンズ表面球面の曲率中心座標に基づいて前傾角及びそり角を算出する。
3次元空間座標において球面上のZ座標をX座標とY座標の関数として表すと、
Z=fZ(X,Y)
という形で、変数XとYの関数として表現することができる。具体的には球面の中心座標を(X、Y、Z)とし、球面の半径をRとすると、
(X−X+(Y−Y+(Z−Z=R
より、
Z=sqrt(R−(X−X−(Y−Y)+Z
となる。すなわち、
fZ(X,Y)=sqrt(R−(X−X−(Y−Y)+Z
という関数により球面上のZ座標を表わすことができる。
ここで、、球面の式をZについて解く際、sqrtの前につく複合+−のうち、眼鏡レンズのとして使用する側は+を選択する。
Next, the forward tilt angle and the warp angle are calculated based on the coordinates of the center of curvature of the lens surface spherical surface.
When the Z coordinate on the spherical surface is expressed as a function of the X coordinate and the Y coordinate in the three-dimensional space coordinates,
Z = fZ (X, Y)
Can be expressed as a function of variables X and Y. Specifically, if the spherical center coordinates are (X 0 , Y 0 , Z 0 ) and the spherical radius is R,
(X−X 0 ) 2 + (Y−Y 0 ) 2 + (Z−Z 0 ) 2 = R 2
Than,
Z = sqrt (R 2 - ( X-X 0) 2 - (Y-Y 0) 2) + Z 0
It becomes. That is,
fZ (X, Y) = sqrt (R 2 - (X-X 0) 2 - (Y-Y 0) 2) + Z 0
The Z coordinate on the spherical surface can be expressed by the function
Here, when solving the spherical equation with respect to Z, out of the composite + − that precedes sqrt, the side used as the spectacle lens selects +.

次に、球面上でX座標が0でY座標が0である点を点Aとする。ここでX=Y=0となる点は球面上には2つあるが、ここでは眼鏡レンズとして使用される側の点とする。それはsqrtの前の複合から+を選択することにより、上式のZの値として、自然に得られる。
そり角は、点AおけるZ座標の値の変位を、Y=0に固定してX軸方向にそって評価した値(X方向の面の傾き)から求めることができる。その値は、点Aにおける関数Zの偏導関数∂fZ/∂X にX=0、Y=0を代入して傾きを求め、X軸に対する角度として表すものとする。
∂fZ/∂X=(1/2)・(R−(X−X−(Y−Y−1/2・(−2X+2X
X=0、Y=0とすると、
・(R−X −Y −1/2
そり角は、−tan−1(X/sqrt(R−X −Y )) となる。
は負の値であり、そり角は定義方法より−をつけて正の値になる。
Next, a point on the spherical surface where the X coordinate is 0 and the Y coordinate is 0 is defined as a point A. Here, there are two points on the spherical surface where X = Y = 0, but here it is a point used as a spectacle lens. It is naturally obtained as the value of Z in the above equation by selecting + from the complex before sqrt.
The warp angle can be obtained from a value (inclination of the surface in the X direction) in which the displacement of the Z coordinate value at the point A is fixed along Y = 0 and evaluated along the X axis direction. The value is obtained by substituting X = 0 and Y = 0 into the partial derivative ∂fZ / ∂X of the function Z at the point A to obtain the inclination and expressed as an angle with respect to the X axis.
∂fZ / ∂X = (1/2) · (R 2 - (X-X 0) 2 - (Y-Y 0) 2) -1/2 · (-2X + 2X 0)
If X = 0 and Y = 0,
X 0 · (R 2 −X 0 2 −Y 0 2 ) −1/2
The warp angle is −tan −1 (X 0 / sqrt (R 2 −X 0 2 −Y 0 2 )).
X 0 is a negative value, the bend angle than defining - a positive value with the.

一方、前傾角は、点AにおけるZ座標の値の変位を、X=0に固定してY軸方向にそって評価した値(Y方向の面の傾き)から求めることができる。これは、点Aにおける関数Zの偏導関数∂fZ/∂Y にX=0、Y=0を代入して傾きを求め、Y軸に対する角度として表すものとする。
∂fZ/∂Y=(1/2)・(R−(X−X−(Y−Y−1/2・(−2Y+2Y
X=0、Y=0とすると、
・(R−X −Y −1/2
前傾角は、tan−1(Y/sqrt(R−X −Y ))
は正の値であり、そのまま前傾角となる。
この条件を適用すると、このレンズではそり角は1.83度、前傾角は9.75度となった。
On the other hand, the forward tilt angle can be obtained from the value (the tilt of the surface in the Y direction) obtained by evaluating the displacement of the value of the Z coordinate at the point A with X = 0 and evaluating along the Y axis direction. This is obtained by substituting X = 0 and Y = 0 into the partial derivative ∂fZ / ∂Y of the function Z at the point A to obtain the slope and expressing it as an angle with respect to the Y axis.
∂fZ / ∂Y = (1/2) · (R 2 - (X-X 0) 2 - (Y-Y 0) 2) -1/2 · (-2Y + 2Y 0)
If X = 0 and Y = 0,
Y 0 · (R 2 -X 0 2 -Y 0 2 ) -1/2
The forward tilt angle is tan −1 (Y 0 / sqrt (R 2 −X 0 2 −Y 0 2 )).
Y 0 is a positive value, and as it is anteversion.
When this condition was applied, the warp angle was 1.83 degrees and the forward tilt angle was 9.75 degrees.

4)頂点間距離の算出
頂点間距離とは、角膜頂点からレンズ裏面と正面向き視線の交点までの距離である。頂点間距離を求めるには、上記そり角・前傾角の算出と同様レンズ裏面の曲率中心座標を求める必要がある。
頂点間距離はフレーム(リム21)にレンズを装着することで定義される距離であるため、ここでは、レンズパラメータについて上記と同様に表2に示すようなデータのレンズに適用して計算するものとする。表2のデータは一例であって、被験者によって異なる情報である。
レンズ裏面の曲率中心座標を求めるには、レンズ表面の曲率中心座標を求めた際のLの値を下記のように変更することで求められる。
L=sqrt(R´−M)+CTで示される。
ここに、R´はレンズ裏面の曲率半径であり、Mは座標c,dを結ぶ線分を二等分した長さである。CTはレンズの幾何中心における厚みである。
このようにして求められたレンズ裏面球面は、レンズ表面と同様に、
Z=fZ(X,Y)
という形で、変数XとYの関数として表現することができる。つまり(X,Y)=(0,0)を代入したときのZの値から頂点間距離を求めることができる。
上記レンズ条件と、測定されたa〜d座標より求めた頂点間距離は15.9mmであった。
4) Calculation of distance between vertices The distance between vertices is the distance from the corneal vertex to the intersection of the lens back surface and the frontal line of sight. In order to obtain the distance between the vertices, it is necessary to obtain the curvature center coordinates on the back surface of the lens in the same manner as the calculation of the warp angle and the forward tilt angle.
Since the distance between the vertices is a distance defined by attaching the lens to the frame (rim 21), here, the lens parameters are calculated by applying to the lens of the data as shown in Table 2 in the same manner as described above. And The data in Table 2 is an example, and is different information depending on the subject.
In order to obtain the curvature center coordinate of the lens back surface, the value of L when the curvature center coordinate of the lens surface is obtained is changed as follows.
L = sqrt (R ′ 2 −M 2 ) + CT
Here, R ′ is the radius of curvature of the rear surface of the lens, and M is the length obtained by dividing the line segment connecting the coordinates c and d into two equal parts. CT is the thickness at the geometric center of the lens.
The lens back spherical surface thus obtained is similar to the lens surface,
Z = fZ (X, Y)
Can be expressed as a function of variables X and Y. That is, the distance between vertices can be obtained from the value of Z when (X, Y) = (0, 0) is substituted.
The distance between the vertices determined from the above lens conditions and the measured ad coordinates was 15.9 mm.

(実施の形態2)
実施の形態2では実施の形態1と同様に被験者の顔が動かないような状態で、眼鏡フレームをかけた状態の被験者の左右いずれかの眼とリムを含むように撮像手段としてのデジタルカメラで撮像するものとする。そして、得られた撮像データを解析用コンピュータのコントローラMC内の画像解析プログラムによって解析するものとする。撮像においては画素群のなるべく中心位置に虹彩が配置されるようにし、なおかつZ軸方向については異なる接近位置でピントを合わせた撮像データをなるべく細かく変化させて取得する。
1)取得した撮像の領域の区画
まず、基本的に取得した画像は白黒画像の256階調を採用するものとする。もちろん、他の階調パターンとしたりカラー画像を解析することも可能である。256階調は強度0が黒を、強度255が白を表すものとする。
例えば、図8に示すような虹彩を囲む200×200=40000画素について、各点の強度分布を図9に示すようにヒストグラムで表現するものとする。このヒストグラムは横軸が0〜255の強度値で、縦軸が「その強度値をもつ画素の個数」を表す。簡単のため、この20mm×20mm領域にはフレームが含まれないものとし、睫毛なども無視する。すると4000個の画素は、a)比較的画素値が小さい虹彩、b)肌色のまぶた、c)白眼、に分かれて分布する。適当な閾値を2つ設定し、3つの強度範囲に属する点の集まりを3つの領域に分けることができる。
閾値の決定方法は、たとえば3つの群の群内分散と群間分散の比を最小にする条件から決定することができる。虹彩の群内分散は、虹彩〜まぶた間の閾値を仮に70.5とし、0〜70の強度一つあたりの平均画素数110個とし、Σ(110−各強度の個数)を71で割った値として得られる。群間分散は3つの群の平均強度である3つの値の分散である。閾値を適当に変化させて、群の群内分散と群間分散の比を最小にする条件を決定する。
(Embodiment 2)
In the second embodiment, as in the first embodiment, the subject's face does not move, and the digital camera as the imaging means includes the right and left eyes and the rim of the subject wearing the spectacle frame. Assume that an image is to be taken. The obtained imaging data is analyzed by an image analysis program in the controller MC of the analysis computer. In imaging, the iris is arranged at the center position of the pixel group as much as possible, and the imaging data focused at different approach positions in the Z-axis direction is acquired by changing as finely as possible.
1) Section of acquired imaging area First, it is assumed that the acquired image basically employs 256 gradations of a black and white image. Of course, other gradation patterns or color images can be analyzed. In the 256 gradations, the intensity 0 represents black and the intensity 255 represents white.
For example, for 200 × 200 = 40000 pixels surrounding the iris as shown in FIG. 8, the intensity distribution of each point is represented by a histogram as shown in FIG. In this histogram, the horizontal axis represents intensity values from 0 to 255, and the vertical axis represents “the number of pixels having the intensity value”. For simplicity, it is assumed that the 20 mm × 20 mm region does not include a frame, and eyelashes are ignored. Then, 4000 pixels are distributed in a) an iris having a relatively small pixel value, b) a skin-colored eyelid, and c) a white eye. Two appropriate threshold values can be set, and a set of points belonging to three intensity ranges can be divided into three regions.
For example, the threshold value can be determined from a condition that minimizes the ratio of the intra-group variance and the inter-group variance of the three groups. For the intra-group dispersion of the iris, the threshold between the iris and the eyelid is assumed to be 70.5, the average number of pixels per intensity of 0 to 70 is 110, and Σ (110−number of each intensity) 2 is divided by 71. Obtained as a value. Intergroup variance is a variance of three values, which is the average intensity of the three groups. By appropriately changing the threshold value, a condition for minimizing the ratio of the intra-group variance and the inter-group variance of the group is determined.

このようにして分けた3領域は、かならずしもそれぞれが「ひとかたまり」になっておらず、分かれて分布することもある。たとえば眼のすぐ近くにホクロがあれば、その領域と虹彩は混同されて同一領域として分類されることがあるし、まぶたは上下に分かれる。そのため、3領域のうちどれが「上下方向をカットした円形」に最も近い形状かについて形状特徴評価を実行する。
これは例えば、あらかじめ用意した形状パターンと比較して、もっとも一致度が高いものを選択すれば良い。つまり一種のフィルタリングを行う。あらかじめ用意した形状パターンとは、たとえば中心座標が200×200画素の中心で、半径5mm(50画素ぶん)、上下の瞼で隠される幅2mm(20画素ぶん)というパターンを用意して、このパターンと一致する画素の割合によって求める。虹彩の位置が200×200画素の中心からズレていても、パターンの中心座標を適当に移動させて一致度が最も高い条件によって判定することができる。
次に、虹彩の形状を1)中心位置X、2)中心位置Y、3)半径R、4)上瞼で隠れる幅、5)下瞼で隠れる幅の5変数で表現することを考える。この5変数を適当に変化させて、領域一致度が最大になる条件によって虹彩の中心位置を決定することができる。リムの位置についてもこの領域分けの概念と形状特徴評価によって決定することができる。
The three regions divided in this way are not necessarily “a lump” and may be divided and distributed. For example, if there is a mole in the immediate vicinity of the eye, the area and the iris may be confused and classified as the same area, and the eyelid is divided into upper and lower parts. Therefore, shape feature evaluation is performed on which of the three regions is closest to the “circular shape with the vertical direction cut”.
For example, a pattern having the highest degree of matching may be selected as compared with a shape pattern prepared in advance. In other words, a kind of filtering is performed. The shape pattern prepared in advance is, for example, a pattern having a center coordinate of 200 × 200 pixels, a radius of 5 mm (50 pixels), and a width of 2 mm (20 pixels) hidden by the upper and lower eyelids. Is obtained by the ratio of pixels that match. Even if the position of the iris is deviated from the center of 200 × 200 pixels, it can be determined by the condition with the highest degree of matching by appropriately moving the center coordinates of the pattern.
Next, let us consider expressing the shape of the iris by five variables: 1) center position X, 2) center position Y, 3) radius R, 4) width hidden by upper eyelid, and 5) width hidden by lower eyelid. By appropriately changing these five variables, the center position of the iris can be determined according to the condition that the region matching degree is maximized. The position of the rim can also be determined by this concept of region division and shape feature evaluation.

2)ピント合わせ
本実施の形態2ではピント合わせをする目標点としてリム上の4点と虹彩を使用する。これらは頂点間距離の算出とそり角・前傾角の算出上必要とされる位置である。図10に示すように、リム上の4点を決定するためまず、フレームに外接する長方形を設定する。この長方形の横の辺は水平であり、縦の辺は垂直とする。この長方形の中心がボクシングセンタである。ボクシングセンタから各辺に降ろした垂線とフレームの交点をリム上の4点の目標とする。
目標として定めたフレーム上の4点および虹彩中心に関して、カメラの焦点がどの位置になったときにピントが合ったかを算出する必要がある。そのため、実施の形態2ではカメラの焦点位置を細かく変化させて撮像した複数の画像それぞれにおいて、目標点付近の画素の強度分布を評価することとする。例えば、図11(a)及び(b)のように目標点を囲む30×30=900画素において、各点の強度分布をヒストグラムで表現する。このヒストグラムは横軸が0〜255の強度値で、縦軸が画素の個数を表す。
ピントが合っている状態においては、図11(b)のようにアミガケした領域の面積が広くなる(実際は面積よりも分散によって評価するのがより妥当である)。すなわち0〜255の各強度について、個数の平均値(900÷256)から離れている度合い(画素の個数の差)の2乗を合計した値を「焦点一致度を評価するための数値」とする。この数値は、カメラの焦点位置の変化によって値が変化するが、ピントが合ったときに最大ピーク値となる。上記目標点についての最大ピーク値を求めることで奥行き(Z軸)方向の位置を決定することができる。
このようにしてリム上の4点と虹彩の3次元的な位置が取得できるため、実施の形態1と同様にその値を使用して頂点間距離やそり角・前傾角を算出することができる。
2) Focusing In the second embodiment, four points on the rim and the iris are used as target points for focusing. These are positions required for calculating the distance between vertices and for calculating the sled angle and the forward tilt angle. As shown in FIG. 10, in order to determine four points on the rim, first, a rectangle circumscribing the frame is set. The horizontal side of this rectangle is horizontal and the vertical side is vertical. The center of this rectangle is the boxing center. Four points on the rim are the intersection points of the perpendicular line and the frame dropped from the boxing center to each side.
With respect to the four points on the frame determined as the target and the iris center, it is necessary to calculate at which position the focus of the camera is focused. For this reason, in the second embodiment, the intensity distribution of pixels near the target point is evaluated in each of a plurality of images picked up by finely changing the focal position of the camera. For example, as shown in FIGS. 11A and 11B, in 30 × 30 = 900 pixels surrounding the target point, the intensity distribution of each point is represented by a histogram. In this histogram, the horizontal axis represents intensity values from 0 to 255, and the vertical axis represents the number of pixels.
In the in-focus state, the area of the blurred area becomes larger as shown in FIG. 11B (in practice, it is more appropriate to evaluate by dispersion rather than area). That is, for each intensity of 0 to 255, a value obtained by summing the squares of the degree of difference (difference in the number of pixels) from the average number (900 ÷ 256) is referred to as a “numerical value for evaluating the degree of focus coincidence”. To do. This value changes depending on the change in the focal position of the camera, but becomes the maximum peak value when the subject is in focus. The position in the depth (Z-axis) direction can be determined by obtaining the maximum peak value for the target point.
As described above, since the three-dimensional positions of the four points on the rim and the iris can be acquired, the distance between vertices, the warp angle, and the forward tilt angle can be calculated using the values as in the first embodiment. .

尚、この発明は、次のように変更して具体化することも可能である。
・上記実施の形態では単焦点レンズについて適用したが、単焦点レンズ以外のレンズ、例えば累進屈折力レンズやバイフォーカルレンズに適用することも可能である。
・上記では実際にレンズ度数の入っているレンズを使用したが、計算上はレンズの表裏の曲率とレンズ厚さがわかればよいため、レンズ度数の入っていないダミーレンズを使用することも可能である。
・実施の形態2の計算ではZ軸について正確な位置を取得するためにピント位置の異なる多数の撮像を取得するようにしていたが、画像処理の能力が向上すればこのような多数の撮像は必ずしも必要ではない。例えば、異なる2方向から顔面を撮像して画像上の視差差を利用して奥行き(Z軸方向)情報を取得するような方法でもよい。
・上記実施の形態では角膜頂点位置を瞳孔位置に基づいて間接的に取得するようにしていたが、角膜曲率測定装置によって直接的に求めるようにしてもよい。角膜曲率測定装置は角膜表面に投影したテストパターンの反射像をもとに、角膜屈折力を測定する装置である。テストパターンを無限遠物体として表示することにより、反射像から直接角膜曲率を求めることが可能となる。この手法によって装置と眼との距離によらず直接角膜屈折力を求めることができ、同時に角膜頂点距離を求めることが可能となる。
・その他本発明の趣旨を逸脱しない態様で実施することは自由である。
It should be noted that the present invention can be modified and embodied as follows.
In the above embodiment, the present invention is applied to a single focus lens. However, the present invention can be applied to a lens other than the single focus lens, for example, a progressive power lens or a bifocal lens.
・ In the above, a lens that actually has a lens power is used, but it is only necessary to know the curvature and lens thickness of the front and back of the lens for calculation, so it is possible to use a dummy lens that does not contain the lens power. .
In the calculation of the second embodiment, a large number of images with different focus positions are acquired in order to acquire an accurate position with respect to the Z axis. However, if the ability of image processing is improved, such a large number of images are acquired. It is not always necessary. For example, a method may be used in which the face is imaged from two different directions and depth (Z-axis direction) information is acquired using a parallax difference on the image.
In the above embodiment, the corneal apex position is indirectly acquired based on the pupil position, but may be directly obtained by a corneal curvature measuring apparatus. The corneal curvature measuring device is a device that measures the corneal refractive power based on the reflected image of the test pattern projected on the corneal surface. By displaying the test pattern as an object at infinity, the corneal curvature can be obtained directly from the reflected image. With this method, the corneal refractive power can be directly obtained regardless of the distance between the apparatus and the eye, and at the same time, the corneal vertex distance can be obtained.
-It is free to implement in other modes that do not depart from the spirit of the present invention.

1…撮影手段としての撮像装置、21…レンズ保持部としてのリム。   DESCRIPTION OF SYMBOLS 1 ... Imaging device as imaging | photography means, 21 ... Rim as a lens holding part.

Claims (10)

被験者に眼鏡フレームを装用させ前方を目視させた状態で、前記眼鏡フレームのレンズ保持部を含む顔面部を撮像光学系を備えた撮像手段によって撮像し、その撮像情報に基づいて被験者の眼に対する前記レンズ保持部の3次元的な位置データを算出するようにしたことを特徴とする位置データ算出方法。 In a state where the subject wears the spectacle frame and the front is viewed, the face portion including the lens holding portion of the spectacle frame is imaged by an imaging means including an imaging optical system, and the eye with respect to the eye of the subject is based on the imaging information. A position data calculation method characterized in that three-dimensional position data of a lens holding part is calculated. 前記撮像光学系は被験者の視線に対して垂直な平面を駆動可能であるとともに、被験者の顔面部に対して接離する方向に合焦可能に構成され、前記3次元的な位置データは前記撮像光学系の測定箇所に対する移動量と合焦位置によって定義されることを特徴とする請求項1に記載の位置データ算出方法。 The imaging optical system is configured to be able to drive a plane perpendicular to the subject's line of sight and to be able to focus in a direction in which the subject is in contact with or separated from the subject's face, and the three-dimensional position data is the imaging The position data calculation method according to claim 1, wherein the position data calculation method is defined by a movement amount and a focus position with respect to a measurement location of the optical system. 前記撮撮像手段によって撮像した撮像情報を画像解析し、被験者の眼に対する前記レンズ保持部の3次元的な位置データを算出することを特徴とする請求項1に記載の位置データ算出方法。 The position data calculation method according to claim 1, wherein the imaging information captured by the imaging unit is subjected to image analysis to calculate three-dimensional position data of the lens holding unit with respect to the eye of the subject. 算出の基準となる基準測定ポイントを測定して3次元的な位置データを算出し、前記基準測定ポイントの位置データに基づいて前記レンズ保持部の3次元的な位置データを算出するようにしたことを特徴とする請求項1又は2に記載の位置データ算出方法。 A reference measurement point serving as a calculation reference is measured to calculate three-dimensional position data, and the three-dimensional position data of the lens holding unit is calculated based on the position data of the reference measurement point. The position data calculation method according to claim 1, wherein: 前記基準測定ポイントは撮像情報として得られる被験者の顔面上の任意の位置であることを特徴とする請求項4に記載の位置データ算出方法。 The position data calculation method according to claim 4, wherein the reference measurement point is an arbitrary position on the face of the subject obtained as imaging information. 前記基準測定ポイントは角膜頂点位置であることを特徴とする請求項5に記載の位置データ算出方法。 The position data calculation method according to claim 5, wherein the reference measurement point is a corneal apex position. 前記角膜頂点位置は瞳孔位置に基づいて換算することを特徴とする請求項6に記載の位置データ算出方法。 The position data calculation method according to claim 6, wherein the corneal apex position is converted based on a pupil position. 前記瞳孔位置は測定された角膜屈折力に基づいて換算することを特徴とする請求項6又は7に記載の位置データ算出方法。 The position data calculation method according to claim 6 or 7, wherein the pupil position is converted based on the measured corneal refractive power. 前記角膜頂点位置は角膜曲率測定装置により直接測定されることを特徴とする請求項6に記載の位置データ算出方法。 The position data calculation method according to claim 6, wherein the corneal apex position is directly measured by a corneal curvature measuring apparatus. 前記レンズ保持部の3次元的な位置データに基づいて前記眼鏡フレームに装着されるレンズの前傾角及びそり角の少なくともいずれか一方を算出することを特徴とする請求項1〜9のいずれかに記載の位置データ算出方法。 The at least one of a forward tilt angle and a warp angle of a lens mounted on the spectacle frame is calculated based on three-dimensional position data of the lens holding unit. The position data calculation method described.
JP2011236754A 2011-10-28 2011-10-28 Position data calculation method Pending JP2013097014A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011236754A JP2013097014A (en) 2011-10-28 2011-10-28 Position data calculation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011236754A JP2013097014A (en) 2011-10-28 2011-10-28 Position data calculation method

Publications (1)

Publication Number Publication Date
JP2013097014A true JP2013097014A (en) 2013-05-20

Family

ID=48619048

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011236754A Pending JP2013097014A (en) 2011-10-28 2011-10-28 Position data calculation method

Country Status (1)

Country Link
JP (1) JP2013097014A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015148691A (en) * 2014-02-05 2015-08-20 株式会社ニデック Spectacle-wearing image analyzer, spectacle-wearing image analysis method, and spectacle-wearing image analysis program
JP2020079948A (en) * 2014-10-23 2020-05-28 ローデンストック.ゲゼルシャフト.ミット.ベシュレンクテル.ハフツング Apparatus and method for determining optical parameter

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0422915A (en) * 1990-05-18 1992-01-27 Canon Inc Ophthalmological device
JPH07318873A (en) * 1994-05-20 1995-12-08 Seiko Epson Corp Prescription method and prescription system for multifocal contact lens
WO2001028479A1 (en) * 1999-10-21 2001-04-26 Nidek Co., Ltd. Amount-of-cornea-to-be-excised determining device and cornea surgery device
JP2002238852A (en) * 2001-02-22 2002-08-27 Canon Inc Optometrical device
JP2003329541A (en) * 2002-03-04 2003-11-19 Mitsuki Tsuzuki System:Kk Positioning method of eye point and eye point measuring system
JP2006055464A (en) * 2004-08-23 2006-03-02 Topcon Corp Ophthalmologic device
JP2011209530A (en) * 2010-03-30 2011-10-20 Seiko Epson Corp Wearing condition parameter measurement device for spectacle lens and wearing condition parameter measurement method for spectacle lens

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0422915A (en) * 1990-05-18 1992-01-27 Canon Inc Ophthalmological device
JPH07318873A (en) * 1994-05-20 1995-12-08 Seiko Epson Corp Prescription method and prescription system for multifocal contact lens
WO2001028479A1 (en) * 1999-10-21 2001-04-26 Nidek Co., Ltd. Amount-of-cornea-to-be-excised determining device and cornea surgery device
JP2002238852A (en) * 2001-02-22 2002-08-27 Canon Inc Optometrical device
JP2003329541A (en) * 2002-03-04 2003-11-19 Mitsuki Tsuzuki System:Kk Positioning method of eye point and eye point measuring system
JP2006055464A (en) * 2004-08-23 2006-03-02 Topcon Corp Ophthalmologic device
JP2011209530A (en) * 2010-03-30 2011-10-20 Seiko Epson Corp Wearing condition parameter measurement device for spectacle lens and wearing condition parameter measurement method for spectacle lens

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015148691A (en) * 2014-02-05 2015-08-20 株式会社ニデック Spectacle-wearing image analyzer, spectacle-wearing image analysis method, and spectacle-wearing image analysis program
JP2020079948A (en) * 2014-10-23 2020-05-28 ローデンストック.ゲゼルシャフト.ミット.ベシュレンクテル.ハフツング Apparatus and method for determining optical parameter

Similar Documents

Publication Publication Date Title
US9323075B2 (en) System for the measurement of the interpupillary distance using a device equipped with a screen and a camera
JP6212115B2 (en) Apparatus and method for measuring objective eye refraction and at least one geometrical form parameter of a person
CA2769345C (en) Custom contact lenses with fiducial markings
JP6953563B2 (en) Equipment and methods for determining optical parameters
CN108885359A (en) Method and apparatus for determining glasses assembly parameter
US20180336720A1 (en) Systems and Methods For Generating and Using Three-Dimensional Images
US10175507B2 (en) Loupe mounting position determination method in binocular loupe device, and system
JP6332392B2 (en) Spectacle lens design method, spectacle lens manufacturing method, spectacle lens selection device, and spectacle lens selection method
JP2012239566A (en) Measuring apparatus for glasses, and three-dimensional measuring apparatus
GB2559978A (en) Systems and methods for obtaining eyewear information
CN111033362B (en) Method for correcting a centering parameter and/or an axial position, and corresponding computer program and method
JP5311601B1 (en) How to make a binocular loupe
KR20150102941A (en) Method for helping determine the vision parameters of a subject
JP2014042806A (en) Gaze line measuring method, gaze line measuring device, eyeball turning point measuring method and eye point measuring device
KR20200006621A (en) Methods, apparatus, and computer programs for determining near vision points
GB2559977A (en) Systems and methods for obtaining information about the face and eyes of a subject
JP5279153B1 (en) Pupil position measuring method and bilateral lens manufacturing method
JP2013097014A (en) Position data calculation method
JP5652973B1 (en) How to make a binocular loupe
US20220146861A1 (en) Method for determining the optical center point of the lenses of spectacles to be manufactured for a spectacle wearer
CN111587397B (en) Image generation device, spectacle lens selection system, image generation method, and program
JP4795017B2 (en) Eyeglass lens evaluation device
WO2021038857A1 (en) Lens optical characteristic measuring device, glasses wearing simulation device, glasses wearing simulation system, lens optical characteristic measuring method, glasses wearing simulation method, program, and recording medium
JP2015143960A (en) Spectacle wearing image analysis device, spectacle wearing image analysis method, and spectacle wearing image analysis program
JP2015049378A (en) Measurement assist device and measurement assist method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140901

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150430

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150508

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150706

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160106