JP7172029B2 - Alignment device - Google Patents

Alignment device Download PDF

Info

Publication number
JP7172029B2
JP7172029B2 JP2017233835A JP2017233835A JP7172029B2 JP 7172029 B2 JP7172029 B2 JP 7172029B2 JP 2017233835 A JP2017233835 A JP 2017233835A JP 2017233835 A JP2017233835 A JP 2017233835A JP 7172029 B2 JP7172029 B2 JP 7172029B2
Authority
JP
Japan
Prior art keywords
lens
image data
edge
spectacle lens
edge information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017233835A
Other languages
Japanese (ja)
Other versions
JP2019100928A5 (en
JP2019100928A (en
Inventor
隆真 作田
教児 武市
通浩 滝井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidek Co Ltd
Original Assignee
Nidek Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nidek Co Ltd filed Critical Nidek Co Ltd
Priority to JP2017233835A priority Critical patent/JP7172029B2/en
Publication of JP2019100928A publication Critical patent/JP2019100928A/en
Publication of JP2019100928A5 publication Critical patent/JP2019100928A5/ja
Application granted granted Critical
Publication of JP7172029B2 publication Critical patent/JP7172029B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本開示は、眼鏡レンズの周縁を加工するための軸出し装置に関する。TECHNICAL FIELD The present disclosure relates to an axis alignment device for processing the periphery of a spectacle lens.

眼鏡レンズの前面及び後面に測定子を当接させ、眼鏡レンズを回転することにより、眼鏡レンズのコバ情報(例えば、コバの前面位置、コバの後面位置、コバ厚、等)を取得するレンズ形状測定装置が知られている。あるいは、このようなレンズ形状測定機構を備えた、眼鏡レンズの周縁を加工するために用いる装置が知られている(例えば、特許文献1参照)。 A lens shape that obtains edge information (e.g., edge front position, edge rear surface position, edge thickness, etc.) of a spectacle lens by bringing a probe into contact with the front and rear surfaces of the spectacle lens and rotating the spectacle lens. Measuring devices are known. Alternatively, there is known a device used for processing the periphery of a spectacle lens, which has such a lens shape measuring mechanism (see, for example, Patent Document 1).

特開2014-0046478号公報JP 2014-0046478 A

ところで、上記の装置においては、測定子が眼鏡レンズのコバ情報を確実に読み取ることができるように、眼鏡レンズを所定の速度以下で回転させている。このため、コバ情報の取得には時間がかかっていた。また、上記の装置においては、コバ厚やカーブ値の異なる様々な眼鏡レンズに対応できるように、装置の構成が複雑になっていた。 By the way, in the above apparatus, the spectacle lens is rotated at a speed equal to or less than a predetermined speed so that the probe can reliably read the edge information of the spectacle lens. Therefore, it takes time to acquire edge information. In addition, in the above-mentioned device, the configuration of the device is complicated so as to be able to cope with various spectacle lenses having different edge thicknesses and curve values.

本開示は、上記従来技術に鑑み、眼鏡レンズのコバ情報を効率よく取得することができる軸出し装置を提供することを技術課題とする。In view of the above-described conventional technology, the technical problem of the present disclosure is to provide an axis alignment device capable of efficiently acquiring edge information of a spectacle lens.

上記課題を解決するため、本開示は以下の構成を備えることを特徴とする。
(1) 本開示の第1態様に係る軸出し装置は、眼鏡レンズの周縁を加工するためのレンズ形状測定装置であって、前記眼鏡レンズを載置するためのレンズ支持手段と、前記眼鏡レンズの周縁を加工する際に前記眼鏡レンズを挟み込んで保持するレンズ保持手段によって前記眼鏡レンズを保持させるためのカップを、前記レンズ支持手段に載置された前記眼鏡レンズの表面に取り付けるカップ取付手段と、を有し、前記眼鏡レンズの屈折率を取得する屈折率取得手段と、前記眼鏡レンズが前記レンズ保持手段に保持されるよりも前の工程において、前記眼鏡レンズの前面における前面像データと、前記眼鏡レンズの後面における後面像データと、を含む断面画像データを取得する画像データ取得手段と、前記屈折率及び前記断面画像データに基づいて、前記眼鏡レンズのコバに関する情報であるコバ情報を取得するコバ情報取得手段と、を備えることを特徴とする。
In order to solve the above problems, the present disclosure is characterized by having the following configurations.
(1) An axis alignment device according to a first aspect of the present disclosure is a lens shape measuring device for processing a peripheral edge of a spectacle lens, comprising: lens support means for placing the spectacle lens; a cup attachment means for attaching a cup to the surface of the spectacle lens mounted on the lens support means for holding the spectacle lens by means of lens holding means that sandwiches and holds the spectacle lens when processing the peripheral edge of the and a refractive index acquiring means for acquiring the refractive index of the spectacle lens; front image data on the front surface of the spectacle lens in a step before the spectacle lens is held by the lens holding means; rear surface image data of the rear surface of the spectacle lens; and image data acquisition means for acquiring cross-sectional image data including the cross-sectional image data; and edge information acquisition means for obtaining the edge information.

カップ取付装置の外観図である。It is an external view of a cup mounting device. レンズ支持機構の概略構成図である。4 is a schematic configuration diagram of a lens support mechanism; FIG. カップ取付機構の概略構成図である。4 is a schematic configuration diagram of a cup attachment mechanism; FIG. レンズ情報測定機構の概略構成図である。1 is a schematic configuration diagram of a lens information measuring mechanism; FIG. 視標板の一例である。It is an example of an optotype plate. 断面画像データ取得機構の概略構成図である。1 is a schematic configuration diagram of a cross-sectional image data acquisition mechanism; FIG. 制御系の概略構成図である。1 is a schematic configuration diagram of a control system; FIG. 制御動作を説明するためのフローチャートである。4 is a flow chart for explaining a control operation; 断面画像データの一例である。It is an example of cross-sectional image data. シミュレーション画面の一例である。It is an example of a simulation screen. レンズ周縁加工装置の概略構成図である。It is a schematic block diagram of a lens edge processing apparatus. レンズのコバ厚が異なる場合のY方向移動機構について説明する図である。FIG. 10 is a diagram illustrating a Y-direction moving mechanism when lenses have different edge thicknesses; レンズチャック軸がレンズを保持した状態を示す図である。FIG. 4 is a diagram showing a state in which a lens chuck shaft holds a lens; 前面像データを所定の位置に表示させるための制御について説明する図である。FIG. 10 is a diagram illustrating control for displaying front image data at a predetermined position;

<概要>
本開示の実施形態に係る軸出し装置の概要について説明する。なお、本開示において符号に付されるL及びRは、それぞれ左用及び右用を示すものである。また、本開示における同一、平行、垂直、等は、それぞれ略同一、略平行、略垂直、等の状態を含む。また、以下の<>にて分類された項目は、独立または関連して利用されうる。
<Overview>
An outline of an axis alignment device according to an embodiment of the present disclosure will be described. In addition, L and R attached to a code|symbol in this indication show the left use and the right use, respectively. Also, identical, parallel, perpendicular, etc. in the present disclosure include states of substantially identical, substantially parallel, substantially perpendicular, etc., respectively. In addition, the items classified by <> below can be used independently or in conjunction with each other.

なお、本開示の技術においては、軸出し装置を例に挙げて説明するが、本開示の技術の少なくとも一部は、軸出し装置に適用される場合に限定されない。例えば、本開示の技術の少なくとも一部は、眼鏡レンズがレンズ保持手段によって保持される前の工程においてレンズを加工するために用いられるレンズ加工用装置において適用可能である。 In addition, in the technology of the present disclosure, an axis alignment device will be described as an example, but at least a part of the technology of the present disclosure is not limited to the case where it is applied to the axis alignment device. For example, at least part of the technology of the present disclosure can be applied to a lens processing apparatus used to process a spectacle lens in a process before the spectacle lens is held by the lens holding means.

例えば、軸出し装置としては、眼鏡レンズを載置するためのレンズ支持手段(例えば、レンズ支持機構10)と、眼鏡レンズの周縁を加工するために眼鏡レンズを挟み込んで保持するレンズ保持手段(例えば、レンズ保持ユニット100)の、眼鏡レンズに対する取付け位置である軸出し位置を設定する軸出し位置設定手段であって、レンズ支持手段に載置された眼鏡レンズの軸出し位置を設定する軸出し位置設定手段と、を備える軸出し装置であってもよい。また、例えば、軸出し装置としては、レンズ保持手段に眼鏡レンズを保持するためのカップを、軸出し位置設定手段によって設定された軸出し位置に基づいて眼鏡レンズに取り付けるカップ取付手段であって、レンズ支持手段に載置された眼鏡レンズの表面にカップを取り付けるためのカップ取付手段(例えば、カップ取付機構30)を備えるカップ取付装置(例えば、カップ取付装置1)であってもよい。 For example, the axis alignment device includes lens support means (for example, a lens support mechanism 10) for placing the spectacle lens, and lens holding means (for example, a , the lens holding unit 100) for setting the axial position of the spectacle lens mounted on the spectacle lens, the axial position setting means for setting the axial position of the spectacle lens mounted on the lens supporting means. and setting means. Further, for example, as the centering device, a cup attaching means for attaching a cup for holding the spectacle lens to the lens holding means to the spectacle lens based on the centering position set by the centering position setting means, It may be a cup attachment device (for example, cup attachment device 1) that includes cup attachment means (eg, cup attachment mechanism 30) for attaching a cup to the surface of a spectacle lens placed on lens support means.

例えば、軸出し装置は、軸出し位置設定手段(例えば、レンズ情報測定機構40)を備える。軸出し位置設定手段は、眼鏡レンズの周縁を加工するために眼鏡レンズを挟み込んで保持するレンズ保持手段の、眼鏡レンズに対する取付け位置である軸出し位置を設定する。例えば、軸出し位置は、眼鏡レンズの光学中心位置、幾何学中心位置、等の少なくともいずれかであってもよい。 For example, the centering device includes centering position setting means (for example, the lens information measuring mechanism 40). The axis-aligned position setting means sets an axis-aligned position, which is an attachment position with respect to the spectacle lens, of the lens holding means that sandwiches and holds the spectacle lens in order to process the peripheral edge of the spectacle lens. For example, the axial position may be at least one of an optical center position, a geometric center position, and the like of the spectacle lens.

例えば、軸出し装置は、屈折率取得手段(例えば、制御部70)を備える。屈折率取得手段は、眼鏡レンズの屈折率を取得する。例えば、屈折率取得手段は、軸出し装置とは異なる別の装置が測定した眼鏡レンズの屈折率を取得してもよい。この場合には、操作者が操作手段(例えば、入力ボタン3)を操作することによって、眼鏡レンズの屈折率を入力する構成であってもよい。また、例えば、屈折率取得手段は、眼鏡レンズの屈折率を測定するための屈折率測定手段を備えていてもよい。この場合には、屈折率測定手段が眼鏡レンズの屈折率を測定することによって、眼鏡レンズの屈折率が取得される。 For example, the axis alignment device includes refractive index acquisition means (eg, control unit 70). The refractive index acquisition means acquires the refractive index of the spectacle lens. For example, the refractive index acquisition means may acquire the refractive index of the spectacle lens measured by another device different from the axial alignment device. In this case, the configuration may be such that the operator inputs the refractive index of the spectacle lens by operating the operating means (for example, the input button 3). Further, for example, the refractive index acquisition means may include refractive index measurement means for measuring the refractive index of the spectacle lens. In this case, the refractive index of the spectacle lens is obtained by measuring the refractive index of the spectacle lens with the refractive index measuring means.

例えば、軸出し装置は、玉型形状取得手段(例えば、フレーム形状測定機構20)を備えていてもよい。玉型形状取得手段は、眼鏡レンズにおける玉型形状を取得する。例えば、眼鏡レンズの玉型形状としては、眼鏡フレームの内周形状、デモレンズの外周形状、等の少なくともいずれかであってもよい。 For example, the axis alignment device may include a target lens shape obtaining means (for example, the frame shape measuring mechanism 20). The target lens shape acquisition means acquires the target lens shape of the spectacle lens. For example, the target lens shape of the spectacle lens may be at least one of the inner peripheral shape of the spectacle frame, the outer peripheral shape of the demo lens, and the like.

<画像データ取得手段>
例えば、軸出し装置は、画像データ取得手段(例えば、画像データ取得機構60)を備える。画像データ取得手段は、眼鏡レンズの前面における前面像データと、眼鏡レンズの後面における後面像データと、を含む断面画像データを取得する。例えば、本実施形態において、画像データ取得手段は、眼鏡レンズの玉型形状に基づいた断面画像データを取得してもよい。この場合、断面画像データは、眼鏡レンズの玉型形状の全周(各動径角において玉型が形成されるすべての部分)のうち、少なくとも一部の領域において取得されてもよい。この場合、断面画像データは、眼鏡レンズの玉型形状の全周において取得されるようにしてもよい。また、この場合、断面画像データは、眼鏡レンズの玉型形状の全周において、複数の領域(例えば、所定の動径角毎の点、等)で取得されるようにしてもよい。また、この場合、断面画像データは、眼鏡レンズの玉型形状の全周において、一部分の領域で取得されるようにしてもよい。なお、例えば、断面画像データは、画像(画像データ)であってもよい。また、例えば、断面画像データは、信号(信号データ)であってもよい。
<Image data acquisition means>
For example, the axis alignment device includes image data acquisition means (for example, image data acquisition mechanism 60). The image data acquisition means acquires cross-sectional image data including front image data on the front surface of the spectacle lens and rear surface image data on the back surface of the spectacle lens. For example, in the present embodiment, the image data acquisition means may acquire cross-sectional image data based on the target shape of the spectacle lens. In this case, the cross-sectional image data may be acquired in at least a partial area of the entire circumference of the target lens shape of the spectacle lens (all parts where the target lens shape is formed at each radial angle). In this case, cross-sectional image data may be obtained for the entire circumference of the target lens shape of the spectacle lens. Also, in this case, the cross-sectional image data may be obtained in a plurality of areas (for example, points at each predetermined radius vector angle) on the entire circumference of the target lens shape of the spectacle lens. Also, in this case, the cross-sectional image data may be acquired in a partial area on the entire circumference of the target lens shape of the spectacle lens. Note that, for example, the cross-sectional image data may be an image (image data). Also, for example, the cross-sectional image data may be a signal (signal data).

<投光光学系>
例えば、画像データ取得手段は、投光光学系(例えば、投光光学系64)を備える。投光光学系は、眼鏡レンズの前面または後面に向けて測定光束を投光する。例えば、投光光学系は、測定光束を眼鏡レンズのレンズ面に対して垂直に照射してもよい。この場合には、測定光束を眼鏡レンズのレンズ面で乱反射させてもよい。また、例えば、投光光学系は、測定光束を眼鏡レンズのレンズ面に対して所定の傾斜角度で照射してもよい。
<Light projection optical system>
For example, the image data acquisition means includes a projection optical system (for example, projection optical system 64). The projection optical system projects the measurement light flux toward the front or rear surface of the spectacle lens. For example, the projection optical system may irradiate the measurement light flux perpendicularly to the lens surface of the spectacle lens. In this case, the measurement light flux may be diffusely reflected by the lens surface of the spectacle lens. Further, for example, the projection optical system may irradiate the measurement light flux with respect to the lens surface of the spectacle lens at a predetermined tilt angle.

例えば、投光光学系は、光源(例えば、光源65)を備えていてもよい。光源は、眼鏡レンズに向けて点状の測定光束を照射する構成であってもよい。この場合、光源としては点光源を用いてもよい。点光源は、1つを配置して1点の測定光束を照射する構成であってもよい。点光源は、複数を並べて配置することによって幅を有する測定光束を照射する構成であってもよい。また、光源は、眼鏡レンズに向けてスリット状の測定光束を照射する構成であってもよい。例えば、この場合には、光源から眼鏡レンズのレンズ面(すなわち、眼鏡レンズの前面または後面)までの間の光路に、スリット板とレンズとを設けてもよい。これによっても、眼鏡レンズに向けて幅を有する測定光束を照射することができる。 For example, the projection optics may include a light source (eg, light source 65). The light source may be configured to irradiate the spectacle lens with a point-like measurement light flux. In this case, a point light source may be used as the light source. One point light source may be arranged to irradiate one measurement light flux. A plurality of point light sources may be arranged side by side to irradiate a measurement light flux having a width. Further, the light source may be configured to irradiate a slit-shaped measurement light flux toward the spectacle lens. For example, in this case, a slit plate and a lens may be provided in the optical path from the light source to the lens surface of the spectacle lens (that is, the front or rear surface of the spectacle lens). This also makes it possible to irradiate the spectacle lens with a measuring beam having a width.

例えば、投光光学系は、光学部材を有してもよい。例えば、光学部材としては、レンズ、ミラー、絞り、等の少なくともいずれかを用いてもよい。この場合には、例えば、光源から出射した測定光束が、各光学部材を介して眼鏡レンズのレンズ面に向けて照射されるようにしてもよい。もちろん、光学部材としては、上記の光学部材に限定されず、異なる光学部材が用いられてもよい。 For example, the projection optical system may have an optical member. For example, at least one of a lens, mirror, diaphragm, and the like may be used as the optical member. In this case, for example, the measurement light flux emitted from the light source may be irradiated toward the lens surface of the spectacle lens via each optical member. Of course, the optical member is not limited to the optical member described above, and a different optical member may be used.

<受光光学系>
例えば、画像データ取得手段は、受光光学系(例えば、受光光学系66)を備える。受光光学系は、受光素子(例えば、撮像素子69)を備えていてもよい。受光光学系は、測定光束が眼鏡レンズの前面で反射された第1反射光束と、測定光束が眼鏡レンズの後面で反射された第2反射光束と、を受光素子によって受光する。例えば、受光光学系は、眼鏡レンズのレンズ面にて反射される反射光束(例えば、正反射光、散乱光、等)を受光素子によって受光するようにしてもよい。
<Light receiving optical system>
For example, the image data acquisition means includes a light receiving optical system (for example, light receiving optical system 66). The light-receiving optical system may include a light-receiving element (for example, the imaging element 69). The light-receiving optical system receives a first reflected light beam, which is the measurement light beam reflected by the front surface of the spectacle lens, and a second reflected light beam, which is the measurement light beam reflected by the rear surface of the spectacle lens, by the light receiving element. For example, the light-receiving optical system may receive a reflected light beam (for example, specularly reflected light, scattered light, etc.) reflected by the lens surface of the spectacle lens with a light-receiving element.

例えば、本実施形態においては、画像データ取得手段が、第1反射光束により形成された前面像データと、第2反射光束により形成された後面像データと、を含む断面画像データ(例えば、断面画像データ75)を取得する。例えば、これによって、画像データ取得手段は、測定光束により非接触で断面画像データを取得することができる。従って、操作者は、眼鏡レンズのコバ情報を効率的に取得することができる。また、これによって、画像データ取得手段は、断面画像データを容易な構成で取得することができる。 For example, in the present embodiment, the image data acquisition means provides cross-sectional image data (for example, cross-sectional image data 75). For example, this allows the image data acquisition means to acquire cross-sectional image data in a non-contact manner using the measurement light flux. Therefore, the operator can efficiently acquire the edge information of the spectacle lens. In addition, this allows the image data acquisition means to acquire cross-sectional image data with a simple configuration.

例えば、受光光学系は、光学部材を有してもよい。例えば、光学部材としては、レンズ、ミラー、絞り、等の少なくともいずれかを用いてもよい。この場合には、眼鏡レンズのレンズ面により反射された反射光束が、各光学部材を介して受光素子に受光されるようにしてもよい。もちろん、光学部材としては、上記の光学部材に限定されず、異なる光学部材が用いられてもよい。 For example, the light receiving optical system may have an optical member. For example, at least one of a lens, mirror, diaphragm, and the like may be used as the optical member. In this case, the light flux reflected by the lens surface of the spectacle lens may be received by the light receiving element via each optical member. Of course, the optical member is not limited to the optical member described above, and a different optical member may be used.

<コバ情報取得手段>
例えば、軸出し装置は、コバ情報取得手段(例えば、制御部70)を備える。コバ情報取得手段は、眼鏡レンズのコバに関する情報であるコバ情報を取得する。例えば、コバ情報は、眼鏡レンズの前面位置、眼鏡レンズの後面位値、眼鏡レンズのコバ厚、等の少なくともいずれかであってもよい。また、例えば、コバ情報は、眼鏡レンズの前面カーブ値、眼鏡レンズの後面カーブ値、の少なくともいずれかであってもよい。これによって、従来はレンズ周縁加工装置を用いて取得していたコバ情報を、軸出し装置を用いて取得することができるようになる。従って、レンズ周縁加工装置の使用時間が短くなり、眼鏡の作製にかかる時間を相対的に短縮することができる。
<Means for obtaining edge information>
For example, the axis alignment device includes edge information acquisition means (for example, the control unit 70). The edge information obtaining means obtains edge information that is information about the edge of the spectacle lens. For example, the edge information may be at least one of the front position of the spectacle lens, the posterior position of the spectacle lens, the thickness of the spectacle lens edge, and the like. Also, for example, the edge information may be at least one of the front curve value of the spectacle lens and the back curve value of the spectacle lens. As a result, the edge information, which has conventionally been obtained using a lens edge processing device, can now be obtained using an axis alignment device. Therefore, the usage time of the lens rim processing device is shortened, and the time required for manufacturing eyeglasses can be relatively shortened.

例えば、コバ情報取得手段は、コバ測定手段を有していてもよい。コバ測定手段は、眼鏡レンズのコバ情報を取得するために用いられる。例えば、本実施形態では、画像データ取得手段が備える測定光学系(例えば、測定光学系61)が、コバ測定手段を兼ねる。また、例えば、本実施形態では、コバ測定手段が、レンズ支持手段に載置された眼鏡レンズのコバ情報を取得する。なお、コバ測定手段は、眼鏡レンズのコバ情報を非接触式で取得する構成であってもよい。もちろん、コバ測定手段は、眼鏡レンズのコバ情報を接触式で取得する構成であってもよい。この場合には、眼鏡レンズに測定子等を接触させることで、コバ情報を取得してもよい。例えば、コバ情報取得手段は、コバ測定手段を制御することによって眼鏡レンズを測定し、コバ情報を取得する。これによって、軸出し装置を用いて眼鏡レンズのコバ情報を測定することが可能となり、レンズ周縁加工装置の使用時間を短くすることができる。 For example, the edge information acquiring means may have edge measuring means. The edge measuring means is used to obtain edge information of the spectacle lens. For example, in the present embodiment, the measurement optical system (for example, the measurement optical system 61) included in the image data acquisition means also serves as the edge measurement means. Further, for example, in the present embodiment, the edge measuring means acquires edge information of the spectacle lens placed on the lens supporting means. The edge measuring means may be configured to obtain edge information of the spectacle lens in a non-contact manner. Of course, the edge measuring means may be configured to obtain the edge information of the spectacle lens in a contact manner. In this case, the edge information may be obtained by bringing the stylus or the like into contact with the spectacle lens. For example, the edge information acquiring means measures the spectacle lens by controlling the edge measuring means and acquires the edge information. As a result, it is possible to measure the edge information of the spectacle lens using the centering device, and it is possible to shorten the operating time of the lens edge processing device.

例えば、コバ情報取得手段は、眼鏡レンズの玉型形状に基づいて、コバ測定手段を制御して、コバ情報を取得するようにしてもよい。これによって、眼鏡レンズの玉型形状に基づいた位置(例えば、玉型形状と一致する位置、各動径角におけるヤゲンの位置、各動径角における面取りの位置、等の少なくともいずれか)のコバ情報が取得される。すなわち、眼鏡レンズの玉型形状の周縁と周辺の少なくともいずれかのコバ情報が取得される。なお、例えば、眼鏡レンズの玉型形状に基づいた位置として、眼鏡レンズの玉型形状の全周における複数の領域(例えば、所定の動径角毎の点、等)のコバ情報を取得した場合には、周辺の動径角におけるコバ情報を用いて補間することで、その位置のコバ情報を取得するようにしてもよい。 For example, the edge information acquiring means may acquire edge information by controlling the edge measuring means based on the target lens shape of the spectacle lens. As a result, the edge of the position based on the target lens shape of the spectacle lens (for example, at least one of the position matching the target target shape, the position of the bevel at each radial angle, the position of the chamfer at each radial angle, etc.) Information is obtained. That is, edge information of at least one of the periphery and the periphery of the target lens shape of the spectacle lens is acquired. Note that, for example, when edge information of a plurality of regions (for example, points at each predetermined radial angle, etc.) in the entire circumference of the target lens shape of the spectacle lens is acquired as a position based on the target target shape of the spectacle lens. Alternatively, the edge information at that position may be acquired by interpolation using the edge information at the surrounding radius vector angles.

例えば、コバ情報取得手段は、眼鏡レンズの屈折率及び断面画像データに基づいて、眼鏡レンズのコバに関する情報であるコバ情報を取得してもよい。これによって、眼鏡レンズがもつ屈折率により変化した断面画像データを用いて、眼鏡レンズのコバ情報を効率よく取得することができる。なお、コバ情報取得手段は、眼鏡レンズの屈折率及び断面画像データに基づいて、眼鏡レンズのコバ情報を補正するようにしてもよい。この場合、コバ情報取得手段は、屈折率に基づいて断面画像データを補正し、補正した断面画像データに基づいて、コバ情報を取得する構成であってもよい。また、この場合、コバ情報取得手段は、断面画像データに基づいて取得したコバ情報を屈折率に基づいて補正することで、コバ情報を取得する構成であってもよい。 For example, the edge information acquiring means may acquire edge information, which is information relating to the edge of the spectacle lens, based on the refractive index and cross-sectional image data of the spectacle lens. This makes it possible to efficiently acquire the edge information of the spectacle lens by using the cross-sectional image data changed by the refractive index of the spectacle lens. Note that the edge information obtaining means may correct the edge information of the spectacle lens based on the refractive index and cross-sectional image data of the spectacle lens. In this case, the edge information acquiring means may be configured to correct cross-sectional image data based on the refractive index and acquire edge information based on the corrected cross-sectional image data. In this case, the edge information acquiring means may acquire edge information by correcting the edge information acquired based on the cross-sectional image data based on the refractive index.

<仕上げ加工位置設定手段>
例えば、軸出し装置は、仕上げ加工位置設定手段(例えば、制御部70)を備える。仕上げ加工位置設定手段は、眼鏡レンズのコバ情報に基づいて、コバの仕上げ加工位置を設定する。例えば、コバの仕上げ加工位置とは、眼鏡レンズのコバに形成するヤゲンの位置、溝の位置、面取りの位置、等の少なくともいずれかであってもよい。これによって、従来はレンズ周縁加工装置を用いて設定していた仕上げ加工位置を、軸出し装置を用いて設定することができる。従って、レンズ周縁加工装置の使用時間が短くなるとともに、レンズ周縁加工装置の待ち時間が緩和され、眼鏡の作製にかかる時間をさらに短縮することができる。
<Finishing Position Setting Means>
For example, the alignment device includes finishing position setting means (for example, control unit 70). The finishing position setting means sets the finishing position of the edge based on the edge information of the spectacle lens. For example, the finishing position of the edge may be at least one of the position of the bevel formed on the edge of the spectacle lens, the position of the groove, the position of the chamfer, and the like. As a result, the finishing position, which has conventionally been set using a lens edge processing device, can be set using the centering device. Therefore, the usage time of the lens edge processing device is shortened, the waiting time of the lens edge processing device is reduced, and the time required for manufacturing the spectacles can be further shortened.

例えば、仕上げ加工位置設定手段は、コバ情報に基づいた仕上げ加工位置を表示手段(例えば、ディスプレイ2)に表示する。例えば、仕上げ加工位置設定手段は、コバ情報に基づいて、コバの仕上げ加工位置を自動で設定する構成であってもよい。また、例えば、仕上げ加工位置設定手段は、操作者によって、コバの仕上げ加工位置を手動で設定する構成であってもよい。この場合、仕上げ加工位置設定手段は、表示手段上で仕上げ加工位置を調整するための操作手段からの操作信号に基づいて、仕上げ加工位置を設定する。これによって、操作者は、眼鏡レンズに形成される仕上げ加工位置を把握しやすくなる。また、操作者は、眼鏡レンズに形成される仕上げ加工位置を調整しやすくなる。 For example, the finishing position setting means displays the finishing position based on the edge information on the display means (for example, the display 2). For example, the finishing position setting means may be configured to automatically set the edge finishing position based on the edge information. Further, for example, the finish machining position setting means may be configured such that the operator manually sets the finish machining position of the edge. In this case, the finishing position setting means sets the finishing position based on the operation signal from the operating means for adjusting the finishing position on the display means. This makes it easier for the operator to grasp the finishing position formed on the spectacle lens. In addition, the operator can easily adjust the finishing position formed on the spectacle lens.

なお、仕上げ加工位置設定手段は、左眼鏡レンズのコバ情報に基づいた仕上げ加工位置と、右眼鏡レンズのコバ情報に基づいた仕上げ加工位置と、を表示手段に比較可能に表示してもよい。また、仕上げ加工位置設定手段は、操作手段からの操作信号に基づいて、左眼鏡レンズと右眼鏡レンズとの少なくとも一方の仕上げ加工位置を設定するようにしてもよい。例えば、この場合には、表示手段に操作手段が設けられた構成であってもよい。また、例えば、この場合には、表示手段と操作手段とが別々に設けられた構成であってもよい。これによって、操作者は、左眼鏡レンズ及び右眼鏡レンズにおける仕上げ加工位置のバランスを把握しやすくなる。また、操作者は、仕上げ加工位置のバランスを考慮して、左眼鏡レンズ及び右眼鏡レンズに対して設定された仕上げ加工位置をそれぞれ調整することができる。従って、操作者は、見栄えのよい眼鏡を作製しやすくなる。 The finishing position setting means may display the finishing position based on the edge information of the left spectacle lens and the finishing position based on the edge information of the right spectacle lens on the display means for comparison. Further, the finishing position setting means may set the finishing position of at least one of the left spectacle lens and the right spectacle lens based on the operation signal from the operation means. For example, in this case, the configuration may be such that the display means is provided with the operation means. Further, for example, in this case, the configuration may be such that the display means and the operation means are provided separately. This makes it easier for the operator to grasp the balance of the finishing positions on the left spectacle lens and the right spectacle lens. Further, the operator can adjust the finishing positions set for the left spectacle lens and the right spectacle lens in consideration of the balance of the finishing positions. Therefore, it becomes easier for the operator to produce good-looking eyeglasses.

なお、本実施形態においては、眼鏡レンズを載置するためのレンズ支持手段と、眼鏡レンズの周縁を加工するために眼鏡レンズを挟み込んで保持するレンズ保持手段(例えば、レンズ保持ユニット100)の、眼鏡レンズに対する取付け位置である軸出し位置を設定する軸出し位置設定手段であって、レンズ支持手段に載置された眼鏡レンズの軸出し位置を設定する軸出し位置設定手段と、を備える軸出し装置を、レンズ形状測定装置として用いるようにしてもよい。また、本実施形態においては、レンズ保持手段に眼鏡レンズを保持するためのカップを、軸出し位置設定手段によって設定された軸出し位置に基づいて、眼鏡レンズに取り付けるカップ取付手段であって、レンズ支持手段に載置された眼鏡レンズの表面にカップを取り付けるためのカップ取付手段を備えるカップ取付装置を、レンズ形状測定装置として用いるようにしてもよい。また、本実施形態においては、レンズ保持手段により保持された眼鏡レンズの周縁を加工するための加工具(例えば、加工ユニット300)を備えるレンズ周縁加工装置(例えば、レンズ周縁加工装置90)を、レンズ形状測定装置として用いるようにしてもよい。例えば、これらの軸出し装置、カップ取付装置、及びレンズ周縁加工装置、の少なくともいずれかにおいて、眼鏡レンズのコバ情報を非接触式で取得することによって、操作者は眼鏡レンズのコバ情報を効率的に取得することができるようになる。 In addition, in this embodiment, the lens support means for placing the spectacle lens, and the lens holding means (for example, the lens holding unit 100) for sandwiching and holding the spectacle lens for processing the peripheral edge of the spectacle lens, a centering position setting means for setting a centering position which is an attachment position to the spectacle lens, the centering position setting means for setting the centering position of the spectacle lens mounted on the lens supporting means. The device may be used as a lens shape measuring device. Further, in the present embodiment, the cup attachment means attaches a cup for holding the spectacle lens to the lens holding means to the spectacle lens based on the axis-aligned position set by the axis-alignment position setting means. A cup attachment device having cup attachment means for attaching a cup to the surface of the spectacle lens placed on the support means may be used as the lens shape measuring device. Further, in the present embodiment, a lens peripheral edge processing device (eg, lens peripheral edge processing device 90) provided with a processing tool (eg, processing unit 300) for processing the peripheral edge of the spectacle lens held by the lens holding means, It may be used as a lens shape measuring device. For example, in at least one of the axis alignment device, the cup mounting device, and the lens rim processing device, by acquiring the edge information of the spectacle lens in a non-contact manner, the operator can efficiently obtain the edge information of the spectacle lens. You will be able to obtain

なお、本実施形態においては、上記のような軸出し装置(またはカップ取付装置)を用いて、眼鏡レンズを加工するための眼鏡レンズ加工システムを構築してもよい。例えば、この場合には、眼鏡レンズの周縁を加工するために眼鏡レンズを挟み込んで保持するレンズ保持手段(例えば、レンズ保持ユニット100)の、眼鏡レンズに対する取付け位置である軸出し位置を設定する軸出し位置設定手段を備える軸出し装置と、加工具と、眼鏡レンズを保持するレンズ保持手段と、眼鏡レンズの周縁を加工するための加工制御データを取得する加工制御データ取得手段(例えば、制御部95)と、を有し、加工制御データ取得手段によって取得された加工制御データに基づいて、加工具を制御してレンズ保持手段に保持された眼鏡レンズを加工するレンズ周縁加工装置と、を用いた眼鏡レンズ加工システムが構築されてもよい。 In this embodiment, an eyeglass lens processing system for processing eyeglass lenses may be constructed using the above-described centering device (or cup mounting device). For example, in this case, in order to process the peripheral edge of the spectacle lens, a lens holding means (for example, the lens holding unit 100) that sandwiches and holds the spectacle lens is attached to the spectacle lens. An axis alignment device having extension position setting means, a processing tool, a lens holding means for holding a spectacle lens, and a processing control data acquiring means (for example, a control unit) for acquiring processing control data for processing the peripheral edge of the spectacle lens. 95), and a lens edge processing device for processing the eyeglass lens held by the lens holding means by controlling the processing tool based on the processing control data acquired by the processing control data acquisition means. A conventional eyeglass lens processing system may be constructed.

また、例えば、この場合には、眼鏡レンズの表面にカップを取り付けるカップ取付手段を有するカップ取付装置と、加工具と、カップが取り付けられた眼鏡レンズを保持するレンズ保持手段と、眼鏡レンズの周縁を加工するための加工制御データを取得する加工制御データ取得手段と、を有し、加工制御データ取得手段によって取得された加工制御データに基づいて、加工具を制御して保持手段に保持された眼鏡レンズを加工するレンズ周縁加工装置と、を用いた眼鏡レンズ加工システムが構築されてもよい。なお、このような眼鏡レンズ加工システムでは、カップ取付装置において、眼鏡レンズの第1コバ情報が取得されてもよい。また、このような眼鏡レンズ加工システムでは、眼鏡レンズの第1コバ情報に基づいて、コバの仕上げ加工位置が設定されてもよい。また、このような眼鏡レンズ加工システムでは、レンズ周縁加工装置において、眼鏡レンズの少なくとも1つの動径角における第2コバ情報が取得されてもよい。例えば、第2コバ情報としては、眼鏡レンズの1点のコバ情報が取得されてもよい。また、例えば、第2コバ情報としては、眼鏡レンズの複数の点のコバ情報が取得されてもよい。なお、第2コバ情報として複数の点のコバ情報を取得する場合には、眼鏡レンズがレンズ保持手段によって保持されたことで生じる眼鏡レンズの変形や傾き等の少なくともいずれかを予測するようにしてもよい。これによって、加工制御データ取得手段は、第1コバ情報と、第2コバ情報と、仕上げ加工位置と、に基づいて、加工制御データを取得するようにしてもよい。 Further, for example, in this case, a cup mounting device having a cup mounting means for mounting the cup on the surface of the spectacle lens, a processing tool, a lens holding means for holding the spectacle lens to which the cup is mounted, and the peripheral edge of the spectacle lens and a processing control data acquiring means for acquiring processing control data for processing the processing tool, based on the processing control data acquired by the processing control data acquiring means, and held in the holding means by controlling the processing tool A spectacle lens processing system using a lens edge processing device for processing a spectacle lens may be constructed. Note that in such a spectacle lens processing system, the first edge information of the spectacle lens may be acquired in the cup attachment device. Further, in such a spectacle lens processing system, the edge finish processing position may be set based on the first edge information of the spectacle lens. Further, in such a spectacle lens processing system, the second edge information at least one radial angle of the spectacle lens may be obtained in the lens periphery processing device. For example, as the second edge information, edge information of one point of the spectacle lens may be acquired. Further, for example, as the second edge information, edge information of a plurality of points on the spectacle lens may be acquired. When obtaining edge information of a plurality of points as the second edge information, at least one of deformation and inclination of the spectacle lens caused by holding the spectacle lens by the lens holding means is predicted. good too. Thereby, the processing control data acquiring means may acquire the processing control data based on the first edge information, the second edge information, and the finishing position.

また、本実施形態では、上記のような軸出し装置(またはカップ取付装置)を用いて、眼鏡レンズの周縁を加工するための眼鏡レンズ加工方法を実施してもよい。例えば、この場合には、眼鏡レンズの第1コバ情報を取得する第1コバ情報取得ステップと、眼鏡レンズを挟み込んで保持するレンズ保持手段の、眼鏡レンズに対する取付け位置である軸出し位置を設定する軸出し位置設定ステップと、第1コバ情報取得ステップと軸出し位置設定ステップとが実施された後、設定された軸出し位置に基づいて、眼鏡レンズをレンズ周縁加工装置のレンズ保持手段に保持する保持ステップと、第1コバ情報取得ステップと軸出し位置設定ステップとが実施された後、第1コバ情報に基づいて加工制御データを取得する加工制御データ取得ステップと、加工制御データに基づいて、加工具を制御してレンズ保持手段に保持された眼鏡レンズを加工する加工ステップと、を行う方法が実施されてもよい。 In addition, in the present embodiment, a spectacle lens processing method for processing the peripheral edge of a spectacle lens may be implemented using the above-described centering device (or cup mounting device). For example, in this case, a first edge information acquiring step of acquiring the first edge information of the spectacle lens, and an axis alignment position, which is an attachment position with respect to the spectacle lens, of the lens holding means that holds the spectacle lens by sandwiching the spectacle lens are set. After performing the axis alignment position setting step, the first edge information acquisition step, and the axis alignment position setting step, the spectacle lens is held by the lens holding means of the lens edge processing device based on the set axis alignment position. After the holding step, the first edge information acquiring step, and the axis alignment position setting step are performed, a machining control data acquiring step for acquiring machining control data based on the first edge information; and based on the machining control data, and a processing step of controlling a processing tool to process the spectacle lens held by the lens holding means.

また、例えば、この場合には、眼鏡レンズの第1コバ情報を取得する第1コバ情報取得ステップと、眼鏡レンズにカップを取り付けるカップ取付ステップと、第1コバ情報取得ステップとカップ取付ステップとが実施された後、カップが取り付けられた眼鏡レンズをレンズ周縁加工装置のレンズ保持手段に保持する保持ステップと、第1コバ情報取得ステップとカップ取付ステップとが実施された後、第1コバ情報に基づいて加工制御データを取得する加工制御データ取得ステップと、加工制御データに基づいて、加工具を制御してレンズ保持手段に保持された眼鏡レンズを加工する加工ステップと、を行う方法が実施されてもよい。 Further, for example, in this case, a first edge information obtaining step of obtaining first edge information of the spectacle lens, a cup attaching step of attaching a cup to the spectacle lens, a first edge information obtaining step, and a cup attaching step are performed. After the execution, the holding step of holding the spectacle lens to which the cup is attached in the lens holding means of the lens rim processing device, the first edge information acquiring step, and the cup attaching step are carried out. a processing control data acquisition step of acquiring processing control data based on the processing control data; and a processing step of controlling a processing tool to process the eyeglass lens held by the lens holding means based on the processing control data. may

なお、このような眼鏡レンズ加工方法においては、眼鏡レンズの第1コバ情報に基づいて、コバの仕上げ加工位置を設定する仕上げ加工位置設定ステップが行われてもよい。この場合、保持ステップは、加工位置設定ステップとカップ取付ステップとが実施された後、カップが取り付けられた眼鏡レンズをレンズ周縁加工装置のレンズ保持手段に保持し、加工制御データ取得ステップは、加工位置設定ステップとカップ取付ステップとが実施された後、仕上げ加工位置に基づいて加工制御データを取得してもよい。 In such a spectacle lens processing method, a finishing position setting step of setting a finish processing position of the edge may be performed based on the first edge information of the spectacle lens. In this case, the holding step holds the spectacle lens to which the cup is attached by the lens holding means of the lens peripheral edge processing device after the processing position setting step and the cup attaching step are performed, and the processing control data acquisition step includes processing Machining control data may be obtained based on the finishing machining position after the positioning step and the cup mounting step are performed.

また、このような眼鏡レンズ加工方法においては、保持ステップが実施された後、眼鏡レンズの少なくとも1つの動径角における第2コバ情報を取得する第2コバ情報取得ステップが行われてもよい。この場合、加工制御データ取得ステップは、第1コバ情報と、第2コバ情報と、仕上げ加工位置と、に基づいて、加工制御データを取得してもよい。 Further, in such a spectacle lens processing method, after the holding step is performed, a second edge information obtaining step of obtaining second edge information at at least one radius vector angle of the spectacle lens may be performed. In this case, the processing control data obtaining step may obtain the processing control data based on the first edge information, the second edge information, and the finishing position.

なお、本開示の技術は、軸出し装置の他、眼鏡レンズを加工するためのレンズ加工用装置において適用されてもよい。この場合、眼鏡レンズを加工するためのレンズ周縁加工装置とは異なるレンズ加工用装置であって、眼鏡レンズがレンズ周縁加工装置に設けられたレンズ保持手段に保持される前の加工工程を実施するためのレンズ加工用装置において、眼鏡レンズのコバに関する情報であるコバ情報を取得するコバ情報取得手段を備えていてもよい。例えば、このようなレンズ加工用装置は、レンズメータであってもよい。また、このようなレンズ加工用装置は、眼鏡枠形状測定装置であってもよい。 Note that the technology of the present disclosure may be applied to a lens processing device for processing spectacle lenses in addition to the centering device. In this case, a lens processing apparatus different from the lens peripheral edge processing apparatus for processing the spectacle lens performs a processing step before the spectacle lens is held by the lens holding means provided in the lens peripheral edge processing apparatus. The lens processing apparatus for eyeglass lenses may include edge information acquiring means for acquiring edge information, which is information relating to the edge of the spectacle lens. For example, such a lens processing device may be a lens meter. Further, such a lens processing device may be a spectacle frame shape measuring device.

<実施例>
本開示の実施例について図面を用いて説明する。本実施例では、軸出し装置として、レンズチャック軸が装着されるカップCuをレンズLEに取付けるカップ取付装置を例示する。しかし、本実施例で例示する技術の少なくとも一部は、カップ取付装置以外の装置にも適用できる。例えば、軸出し装置としては、設定された軸出し位置において、カップCuを介さずにレンズチャック軸にてレンズLEを保持する装置等にも、本実施例で例示する技術の少なくとも一部を適用できる。
<Example>
An embodiment of the present disclosure will be described with reference to the drawings. In this embodiment, as an axis alignment device, a cup attachment device for attaching a cup Cu to which a lens chuck shaft is attached to the lens LE is exemplified. However, at least some of the techniques illustrated in this embodiment can be applied to devices other than cup attachment devices. For example, at least a part of the technique illustrated in this embodiment is applied to a device that holds the lens LE by the lens chuck shaft without the cup Cu at the set axis-aligned position. can.

なお、本実施例において、上記の軸出し装置を例に挙げて説明するが、本実施例で例示した技術の少なくとも一部は、軸出し装置に適用される場合に限定されない。例えば、本実施例で例示した技術の少なくとも一部は、レンズがレンズ保持手段によって保持される前の工程において、レンズを加工するために用いられるレンズ加工用装置において適用可能である。この場合、眼鏡レンズを加工するためのレンズ周縁加工装置とは異なるレンズ加工用装置であって、眼鏡レンズがレンズ周縁加工装置に設けられたレンズ保持手段に保持される前の加工工程を実施するためのレンズ加工用装置において、眼鏡レンズのコバに関する情報であるコバ情報を取得するコバ情報取得手段を備えていてもよい。例えば、このようなレンズ加工用装置としては、レンズメータであってもよい。また、このようなレンズ加工用装置としては、眼鏡枠形状測定装置であってもよい。もちろん、レンズ加工用装置において、仕上げ加工位置が設定される仕上げ加工位置設定手段が設けられるようにしてもよい。 In this embodiment, the above-described axis alignment device will be described as an example, but at least a part of the technology illustrated in this embodiment is not limited to the case where it is applied to the axis alignment device. For example, at least part of the technique illustrated in this embodiment can be applied to a lens processing apparatus used for processing a lens in a process before the lens is held by the lens holding means. In this case, a lens processing apparatus different from the lens peripheral edge processing apparatus for processing the spectacle lens performs a processing step before the spectacle lens is held by the lens holding means provided in the lens peripheral edge processing apparatus. The lens processing apparatus for eyeglass lenses may include edge information acquiring means for acquiring edge information, which is information relating to the edge of the spectacle lens. For example, such a lens processing device may be a lens meter. Further, such a lens processing device may be a spectacle frame shape measuring device. Of course, the lens processing apparatus may be provided with finishing position setting means for setting the finishing position.

図1はカップ取付装置1の外観図である。カップ取付装置1は、ディスプレイ(モニタ)2、入力ボタン3、レンズ支持機構10、フレーム形状測定機構20、カップ取付機構30、レンズ情報測定機構40、画像データ取得機構60、等を備える。例えば、ディスプレイ2は、LCD(Liquid Crystal Display)、有機EL(Electro Luminescence)ディスプレイ、プラズマディスプレイ、等の少なくともいずれかであってもよい。例えば、ディスプレイ2はタッチパネルである。すなわち、ディスプレイ2は、カップ取付装置1に各種の処理を実行させる信号やパラメータ等を入力するための操作部(入力ボタン3)と、各種の情報(例えば、入力したパラメータ、レンズLEの光学特性、レンズLEのコバ情報、等)を表示するための表示部と、を兼ねる。なお、ディスプレイ2と操作部とは、別に設けられた構成であってもよい。この場合には、マウス、ジョイスティック、キーボード、携帯端末、等の少なくともいずれかを操作部として用いてもよい。 FIG. 1 is an external view of the cup mounting device 1. FIG. The cup attachment device 1 includes a display (monitor) 2, an input button 3, a lens support mechanism 10, a frame shape measurement mechanism 20, a cup attachment mechanism 30, a lens information measurement mechanism 40, an image data acquisition mechanism 60, and the like. For example, the display 2 may be at least one of an LCD (Liquid Crystal Display), an organic EL (Electro Luminescence) display, a plasma display, and the like. For example, the display 2 is a touch panel. That is, the display 2 includes an operation unit (input button 3) for inputting signals, parameters, and the like for causing the cup mounting device 1 to execute various processes, and various information (for example, input parameters, optical characteristics of the lens LE, etc.). , edge information of the lens LE, etc.). Note that the display 2 and the operation unit may be provided separately. In this case, at least one of a mouse, a joystick, a keyboard, a mobile terminal, and the like may be used as the operation unit.

<レンズ支持機構>
図2はレンズ支持機構10の概略構成図である。レンズ支持機構10は、レンズLEの表面(前面)を上方向にしてレンズLEを載置するために用いる。例えば、レンズ支持機構10は、円筒ベース11、リング部材12、保護カバー13、支持ピン14、回転軸15、アーム16、等を備える。円筒ベース11の上部には、リング部材12に取付けられた保護カバー13が設置されている。円筒ベース11の内部には、後述する視標板46等が配置されている。円筒ベース11の外周部には、回転軸15が配置されている。回転軸15の上端には、それぞれアーム16が取付けられている。アーム16の先端には、それぞれ支持ピン14が配置されている。なお、本実施例においては、支持ピン14が、光軸L1に対して等距離かつ等角度で配置される。支持ピン14は、レンズLEの裏面(後面)に当接することによってレンズを保持する。
<Lens support mechanism>
FIG. 2 is a schematic configuration diagram of the lens support mechanism 10. As shown in FIG. The lens support mechanism 10 is used to mount the lens LE with the surface (front surface) of the lens LE facing upward. For example, the lens support mechanism 10 includes a cylindrical base 11, a ring member 12, a protective cover 13, a support pin 14, a rotating shaft 15, an arm 16, and the like. A protective cover 13 attached to a ring member 12 is installed on the upper portion of the cylindrical base 11 . Inside the cylindrical base 11, an optotype plate 46 and the like, which will be described later, are arranged. A rotating shaft 15 is arranged on the outer peripheral portion of the cylindrical base 11 . An arm 16 is attached to the upper end of each rotating shaft 15 . A support pin 14 is arranged at the tip of each arm 16 . In addition, in this embodiment, the support pins 14 are arranged equidistantly and equiangularly with respect to the optical axis L1. The support pin 14 holds the lens by coming into contact with the back surface (rear surface) of the lens LE.

例えば、回転軸15は、モータ等の回転を伝達する図示なき回転伝達機構を介して、中心軸K1を中心とした軸回りに回転する。例えば、回転軸15の回転に連動して、アーム16及び支持ピン14は、実線で示す退避位置から点線で示す支持位置に移動する。これによって、光軸L1から支持ピン14までの距離と、各支持ピン14の間隔と、を調節し、支持ピン14が支持可能な領域の大きさを変更することができる。 For example, the rotary shaft 15 rotates around the central axis K1 via a rotation transmission mechanism (not shown) that transmits rotation of a motor or the like. For example, in conjunction with the rotation of the rotary shaft 15, the arm 16 and the support pin 14 move from the retracted position indicated by the solid line to the supported position indicated by the dotted line. This makes it possible to adjust the distance from the optical axis L1 to the support pins 14 and the spacing between the support pins 14, and change the size of the area that the support pins 14 can support.

また、例えば、円筒ベース11は、モータ17及び図示なきギア機構等により構成される回転伝達機構を介して、光軸L1を中心とした軸回りに回転する。例えば、モータ17の回転が、図示なきギア機構により円筒ベース11に伝達される。例えば、円筒ベース11の回転に連動して、回転軸15と、回転軸15に取付けられたアーム16と、アーム16に配置された支持ピン14と、が一体的にリング部材12の周囲を移動する。これによって、支持ピン14に載置したレンズLEを回転させることができる。 Further, for example, the cylindrical base 11 rotates around the optical axis L1 through a rotation transmission mechanism including a motor 17 and a gear mechanism (not shown). For example, rotation of the motor 17 is transmitted to the cylindrical base 11 by a gear mechanism (not shown). For example, in conjunction with the rotation of the cylindrical base 11, the rotating shaft 15, the arm 16 attached to the rotating shaft 15, and the support pin 14 arranged on the arm 16 move integrally around the ring member 12. do. Thereby, the lens LE mounted on the support pin 14 can be rotated.

<フレーム形状測定機構>
例えば、フレーム形状測定機構20は、眼鏡フレーム(以下、フレーム)の形状をトレースする際に用いる。これによって、フレームの内周形状(言い換えると、後述するレンズLEの玉型形状)等を取得することができる。なお、フレーム形状測定機構20の構成については、例えば特開2015-31847号公報を参照されたい。
<Frame shape measurement mechanism>
For example, the frame shape measuring mechanism 20 is used when tracing the shape of a spectacle frame (hereinafter referred to as frame). As a result, the inner peripheral shape of the frame (in other words, the target lens shape of the lens LE, which will be described later) and the like can be acquired. For the configuration of the frame shape measuring mechanism 20, see Japanese Unexamined Patent Application Publication No. 2015-31847, for example.

<カップ取付機構>
図3はカップ取付機構30の概略構成図である。カップ取付機構30は、レンズLEの表面(前面)にカップCuを取付けるために用いる。すなわち、カップ取付機構30は、レンズLEの表面にカップCuを固定(軸打ち)するために用いる。なお、本実施例では、カップの固定位置をレンズLEの表面としたがこれに限定されない。カップの固定位置は、レンズの裏面(後面)であってもよい。
<Cup attachment mechanism>
FIG. 3 is a schematic configuration diagram of the cup mounting mechanism 30. As shown in FIG. The cup attachment mechanism 30 is used to attach the cup Cu to the surface (front surface) of the lens LE. That is, the cup mounting mechanism 30 is used to fix (axially strike) the cup Cu on the surface of the lens LE. In this embodiment, the cup is fixed on the surface of the lens LE, but the position is not limited to this. The fixed position of the cup may be the back surface (rear surface) of the lens.

例えば、本実施例において、カップ取付機構30は、レンズLEの周縁を加工するためにレンズLEを挟み込んで保持するレンズ保持ユニット100(図11参照)の、レンズLEに対する取付け位置である軸出し位置を設定する。例えば、カップ取付機構30は、後述する装着部31に装着されたカップCuと、レンズ支持機構10によって支持されたレンズLEと、の位置とを相対的に変化させることで、レンズLEの表面における適切な位置にカップCuを取付ける。その結果、レンズLEにおける適切な位置(カップCuを取り付けた位置)を、レンズ周縁加工装置90のレンズチャック軸102L及び102R(図11参照)にて挟持することができる。なお、軸出し位置は、レンズLEの光学中心位置O(図6参照)に設定されてもよいし、幾何学中心位置に設定されてもよい。もちろん、上記と異なる位置が軸出し位置として設定されるようにしてもよい。例えば、本実施例では、軸出し位置としては、レンズLEの光学中心位置Oに設定される。 For example, in the present embodiment, the cup attachment mechanism 30 is positioned at an off-axis position, which is an attachment position with respect to the lens LE, of the lens holding unit 100 (see FIG. 11) that sandwiches and holds the lens LE in order to process the peripheral edge of the lens LE. set. For example, the cup attachment mechanism 30 relatively changes the positions of a cup Cu attached to an attachment portion 31 (to be described later) and the lens LE supported by the lens support mechanism 10. Attach the cup Cu to the appropriate position. As a result, an appropriate position (the position where the cup Cu is attached) on the lens LE can be clamped by the lens chuck shafts 102L and 102R (see FIG. 11) of the lens edge processing device 90. FIG. The axis alignment position may be set at the optical center position O (see FIG. 6) of the lens LE, or may be set at the geometric center position. Of course, a position different from the above may be set as the axis alignment position. For example, in this embodiment, the axial alignment position is set to the optical center position O of the lens LE.

例えば、カップ取付機構30は、装着部31、アーム32、アーム保持ベース33、X方向移動機構35、Y方向移動機構36、Z方向移動機構37、等を備える。例えば、装着部31はアーム32に固定されている。例えば、装着部31は、カップCuに形成された凹凸部と嵌合する。例えば、アーム32は、装着部31の水平方向における回転角度を可変に保持するための図示なき回転伝達機構を備える。例えば、アーム32は、アーム保持ベース33に取付けられている。例えば、アーム保持ベース33は、モータ34を備える。例えば、モータ34の回転は、アーム32が備える図示なき回転伝達機構を介して、装着部31へと伝達される。すなわち、装着部31は、モータ34が回転することで、カップCuの中心軸K1の軸回りに回転する。これによって、カップCuの水平方向における回転角度を変更することが可能である。 For example, the cup attachment mechanism 30 includes a mounting portion 31, an arm 32, an arm holding base 33, an X-direction movement mechanism 35, a Y-direction movement mechanism 36, a Z-direction movement mechanism 37, and the like. For example, the mounting portion 31 is fixed to the arm 32 . For example, the mounting portion 31 is fitted with an uneven portion formed on the cup Cu. For example, the arm 32 has a rotation transmission mechanism (not shown) for variably holding the rotation angle of the mounting portion 31 in the horizontal direction. For example, arm 32 is attached to arm holding base 33 . For example, arm holding base 33 includes motor 34 . For example, the rotation of the motor 34 is transmitted to the mounting portion 31 via a rotation transmission mechanism (not shown) included in the arm 32 . That is, the mounting portion 31 rotates around the central axis K1 of the cup Cu as the motor 34 rotates. This makes it possible to change the rotation angle of the cup Cu in the horizontal direction.

例えば、X方向移動機構35は、カップ取付装置1の左右方向(X方向)に移動する。例えば、X方向移動機構35の上部には、Y方向移動機構36が設置される。例えば、Y方向移動機構36は、カップ取付装置1の上下方向(Y方向)に移動する。例えば、Y方向移動機構36の上部には、Z方向移動機構37が設置される。例えば、Z方向移動機構37は、カップ取付装置1の前後方向(Z方向)に移動する。例えば、Z方向移動機構37は、アーム32、アーム保持ベース33、及びモータ34を保持する。例えば、本実施例においては、X方向移動機構35が移動されることによって、Y方向移動機構36、Z方向移動機構37、アーム32等が、カップ取付装置1に対して左右方向に移動する。また、例えば、Z方向移動機構37が移動されることによって、アーム32等がカップ取付装置1に対して前後方向に移動する。これによって、アーム32に保持された装着部31が、レンズ支持機構10の上部まで移動する。さらに、例えば、Y方向移動機構36を移動させることによって、Z方向移動機構37及びアーム32等が、カップ取付装置1に対して上下方向に移動する。これによって、装着部31に装着されたカップCuは、支持ピン14上に載置されたレンズLEの前面に軸打ちされる。 For example, the X-direction moving mechanism 35 moves in the left-right direction (X direction) of the cup attaching device 1 . For example, a Y-direction moving mechanism 36 is installed above the X-direction moving mechanism 35 . For example, the Y-direction moving mechanism 36 moves in the vertical direction (Y-direction) of the cup mounting device 1 . For example, a Z-direction moving mechanism 37 is installed above the Y-direction moving mechanism 36 . For example, the Z-direction moving mechanism 37 moves in the front-rear direction (Z-direction) of the cup mounting device 1 . For example, the Z-direction movement mechanism 37 holds the arm 32 , the arm holding base 33 and the motor 34 . For example, in this embodiment, by moving the X-direction moving mechanism 35, the Y-direction moving mechanism 36, the Z-direction moving mechanism 37, the arm 32, etc. move in the left-right direction with respect to the cup attaching device 1. FIG. Further, for example, by moving the Z-direction moving mechanism 37 , the arm 32 and the like move in the front-rear direction with respect to the cup attaching device 1 . As a result, the mounting portion 31 held by the arm 32 moves to the upper portion of the lens support mechanism 10 . Further, for example, by moving the Y-direction moving mechanism 36, the Z-direction moving mechanism 37, the arm 32, and the like move vertically with respect to the cup attaching device 1. As shown in FIG. As a result, the cup Cu attached to the attachment portion 31 is axially struck against the front surface of the lens LE placed on the support pin 14 .

<レンズ情報測定機構>
図4はカップ取付装置1が備えるレンズ情報測定機構40の概略構成図である。例えば、本実施例におけるレンズ情報測定機構40は、レンズの光学特性を取得するための測定光学系と、レンズの光学特性とは異なるレンズの情報(例えば、レンズの外形、レンズに付された印点、レンズに形成された隠しマーク、等)を取得するための測定光学系と、を兼ねている。なお、レンズの光学特性を取得するための測定光学系と、レンズの光学特性とは異なるレンズの情報を取得するための測定光学系と、はそれぞれが別に設けられた構成でもよい。
<Lens information measurement mechanism>
FIG. 4 is a schematic configuration diagram of the lens information measuring mechanism 40 provided in the cup mounting device 1. As shown in FIG. For example, the lens information measuring mechanism 40 in this embodiment includes a measurement optical system for acquiring the optical characteristics of the lens, and information on the lens different from the optical characteristics of the lens (for example, the external shape of the lens, a mark attached to the lens). points, hidden marks formed on the lens, etc.). Note that the measurement optical system for acquiring the optical characteristics of the lens and the measurement optical system for acquiring lens information different from the optical characteristics of the lens may be provided separately.

例えば、レンズ情報測定機構40は、照明光学系41、受光光学系45、撮像光学系48、等を備える。例えば、照明光学系41は、光源42、ハーフミラー43、凹面ミラー44、等を備える。例えば、光源42は測定光束をレンズに照射する。例えば、光源42はLED(Light Emitting Diode)であってもよい。例えば、光源42から出射された測定光束は、光軸L2上に配置されたハーフミラー43に反射されて、光軸L2に一致する。例えば、凹面ミラー44は、測定光束を光軸L1から光軸L2の方向へと反射するとともに、測定光束を光軸L1上に配置されたレンズLEよりも大きな径の平行光束(略平行光束)に整形する。なお、凹面ミラーに代えてレンズを用いることも可能であるが、装置を大型化させないために、凹面ミラーを用いると有利である。 For example, the lens information measuring mechanism 40 includes an illumination optical system 41, a light receiving optical system 45, an imaging optical system 48, and the like. For example, the illumination optical system 41 includes a light source 42, a half mirror 43, a concave mirror 44, and the like. For example, the light source 42 irradiates the lens with a measurement beam. For example, the light source 42 may be an LED (Light Emitting Diode). For example, the measurement light flux emitted from the light source 42 is reflected by the half mirror 43 arranged on the optical axis L2 and coincides with the optical axis L2. For example, the concave mirror 44 reflects the measurement light flux from the optical axis L1 toward the optical axis L2, and directs the measurement light flux to a parallel light flux (substantially parallel light flux) having a diameter larger than that of the lens LE arranged on the optical axis L1. to shape. Although it is possible to use a lens instead of a concave mirror, it is advantageous to use a concave mirror in order not to increase the size of the device.

例えば、受光光学系45は、視標板46、撮像素子47、等を備える。例えば、視標板46は、レンズLEの光学中心等を検出するために用いる。なお、視標板46についての詳細は後述する。例えば、撮像素子47は、光源42から照射されて、レンズLE及び視標板46を通過した測定光束を撮像する。例えば、撮像素子47は、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)、等であってもよい。なお、本実施例における受光光学系45は、視標板46と撮像素子47との間にレンズが配置された構成であってもよい。 For example, the light receiving optical system 45 includes an optotype plate 46, an imaging device 47, and the like. For example, the optotype plate 46 is used to detect the optical center of the lens LE. Details of the optotype plate 46 will be described later. For example, the imaging element 47 captures an image of the measurement light beam irradiated from the light source 42 and passed through the lens LE and the optotype plate 46 . For example, the imaging element 47 may be a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), or the like. The light-receiving optical system 45 in this embodiment may have a configuration in which a lens is arranged between the optotype plate 46 and the imaging device 47 .

例えば、撮像光学系48は、凹面ミラー44、絞り49、撮像レンズ50、撮像素子51、等を備える。例えば、撮像光学系48の撮像倍率は、撮像素子51によってレンズLEの全体が撮像される倍率となっている。例えば、撮像光学系48における凹面ミラー44は、照明光学系41における凹面ミラー44と共用される。例えば、絞り49は凹面ミラー44の焦点位置(略焦点位置)に配置される。例えば、絞り49は、光源42と共役(略共役)な位置関係である。例えば、撮像素子51は、光源42から照射され、後述する再帰性反射部材52により反射された反射光束を撮像する。例えば、撮像素子51は、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)、等であってもよい。例えば、撮像素子51のピント位置は、撮像レンズ50及び凹面ミラー44によって、レンズLEの表面付近に合わされている。これにより、レンズの表面に付された印点、レンズに形成された隠しマーク、等をほぼ焦点の合った状態で撮像することができる。 For example, the imaging optical system 48 includes a concave mirror 44, an aperture 49, an imaging lens 50, an imaging element 51, and the like. For example, the imaging magnification of the imaging optical system 48 is a magnification at which the entire lens LE is imaged by the imaging element 51 . For example, the concave mirror 44 in the imaging optical system 48 is shared with the concave mirror 44 in the illumination optical system 41 . For example, the diaphragm 49 is arranged at the focal position (approximate focal position) of the concave mirror 44 . For example, the diaphragm 49 has a conjugate (substantially conjugate) positional relationship with the light source 42 . For example, the imaging device 51 captures an image of a reflected light flux emitted from the light source 42 and reflected by a retroreflective member 52 described later. For example, the imaging element 51 may be a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), or the like. For example, the focal position of the imaging device 51 is set near the surface of the lens LE by the imaging lens 50 and the concave mirror 44 . As a result, it is possible to image the marking points on the surface of the lens, the hidden marks formed on the lens, etc., in an almost in-focus state.

<視標板>
図5は視標板46の一例である。例えば、視標板46には、多数の開口(光束の通過口)55が所定のパターンにて形成されている。例えば、本実施例では、開口55以外の領域(すなわち、図5において斜線で示す領域)に、後述する再帰性反射部材52を貼り付けることによって、開口55が形成されている。また、例えば、本実施例では、円形状の開口55が等間隔に配置されている。なお、視標板46には、レンズLEの光学中心や光学特性を検出可能なパターンが形成されていればよく、開口55の形状や間隔は本実施例に限定されない。
<Optical target plate>
FIG. 5 is an example of the optotype plate 46 . For example, the optotype plate 46 is formed with a large number of openings (light passage openings) 55 in a predetermined pattern. For example, in this embodiment, the openings 55 are formed by attaching a retroreflective member 52 (to be described later) to areas other than the openings 55 (that is, the hatched areas in FIG. 5). Further, for example, in this embodiment, the circular openings 55 are arranged at regular intervals. Note that the optotype plate 46 only needs to have a pattern capable of detecting the optical center and optical characteristics of the lens LE, and the shape and spacing of the openings 55 are not limited to this embodiment.

例えば、開口55は、視標板46の中心に形成された中心孔56と、中心孔56の周辺に形成された周辺孔57と、からなる。例えば、中心孔56は光軸L1に一致する。例えば、本実施例における中心孔56は、周辺孔57とは異なる大きさであることによって、周辺孔57との区別が可能である。なお、中心孔56の大きさ、個数、形状、位置、等は本実施例とは異なっていてもよく、周辺孔57との区別が可能であればよい。これによって、撮像素子47が撮像する開口55の像(以下、開口像)が、レンズLEの光学特性で偏位した際に、各周辺孔57の対応関係を特定することができる。より詳細には、レンズLEが支持ピン14上に載置されていない状態で撮像される周辺孔57の像が、レンズLEを支持ピン14上に載置した状態で撮像される周辺孔57の像のいずれに該当するかを特定することができる。 For example, the opening 55 consists of a central hole 56 formed in the center of the optotype plate 46 and peripheral holes 57 formed around the central hole 56 . For example, the center hole 56 coincides with the optical axis L1. For example, the central hole 56 in this embodiment can be distinguished from the peripheral hole 57 by having a size different from that of the peripheral hole 57 . Note that the size, number, shape, position, etc. of the central hole 56 may be different from those of the present embodiment as long as they can be distinguished from the peripheral holes 57 . Accordingly, when the image of the aperture 55 captured by the imaging device 47 (hereinafter referred to as aperture image) is deviated due to the optical characteristics of the lens LE, the correspondence relationship between the peripheral holes 57 can be identified. More specifically, the image of the peripheral hole 57 captured with the lens LE not placed on the support pins 14 is the image of the peripheral hole 57 captured with the lens LE placed on the support pins 14. It is possible to specify which of the images corresponds.

例えば、再帰性反射部材52は、測定光束を入射方向と同一方向(略同一方向)に反射するために用いる。例えば、再帰性反射部材52は、視標板46の上面と、開口53を中央にもつ円盤部材54の上面と、にそれぞれ貼り付けられている。例えば、円盤部材54は、図示なき回転機構によって、光軸L1を中心とした軸回りに回転されてもよい。なお、例えば、再帰性反射部材52とその回転機構についての詳細は、特開2008-299140号公報を参照されたい。 For example, the retroreflective member 52 is used to reflect the measurement light beam in the same direction (substantially the same direction) as the incident direction. For example, the retroreflective member 52 is attached to the upper surface of the optotype plate 46 and the upper surface of the disk member 54 having the opening 53 in the center. For example, the disk member 54 may be rotated around the optical axis L1 by a rotation mechanism (not shown). For details of the retroreflective member 52 and its rotating mechanism, for example, see Japanese Patent Application Laid-Open No. 2008-299140.

<画像データ取得機構>
図6は画像データ取得機構60の概略構成図である。画像データ取得機構60は、レンズLEの前面における前面像データP1sと、レンズLEの後面における後面像データQ2sと、を含む断面画像データ75を取得する(図9参照)。例えば、本実施例においては、画像データ取得機構60が、測定光束をレンズLEの前面または後面に向けて投光する投光光学系64を備えてもよい。また、例えば、本実施例においては、画像データ取得機構60が、レンズLEの前面で反射された第1反射光束R1と、レンズLEの後面で反射された第2反射光束R2と、を受光する受光光学系66を備えてもよい。すなわち、本実施例における画像データ取得機構60は、第1反射光束R1により形成された前面像データP1sと、第2反射光束により形成された後面像データQ2sと、を含む断面画像データ75を取得することができる。
<Image data acquisition mechanism>
FIG. 6 is a schematic configuration diagram of the image data acquisition mechanism 60. As shown in FIG. The image data acquisition mechanism 60 acquires cross-sectional image data 75 including front image data P1s on the front surface of the lens LE and rear surface image data Q2s on the rear surface of the lens LE (see FIG. 9). For example, in this embodiment, the image data acquisition mechanism 60 may include a projection optical system 64 that projects the measurement light flux toward the front or rear surface of the lens LE. Further, for example, in this embodiment, the image data acquisition mechanism 60 receives the first reflected light beam R1 reflected by the front surface of the lens LE and the second reflected light beam R2 reflected by the rear surface of the lens LE. A light receiving optical system 66 may be provided. That is, the image data acquisition mechanism 60 in this embodiment acquires the cross-sectional image data 75 including the front image data P1s formed by the first reflected light flux R1 and the rear image data Q2s formed by the second reflected light flux. can do.

画像データ取得機構60は、測定光学系61、Y方向移動機構62、Z方向移動機構63、等を備える。例えば、本実施例における測定光学系61は、シャインプルークの原理に基づいた投光光学系64及び受光光学系66によって、レンズLEの断面画像データ75を取得する構成となっている。もちろん、測定光学系61は、シャインプルークの原理に基づいた光学系ではなく、異なる構成の光学系を用いてもよい。 The image data acquisition mechanism 60 includes a measurement optical system 61, a Y-direction movement mechanism 62, a Z-direction movement mechanism 63, and the like. For example, the measurement optical system 61 in this embodiment is configured to obtain cross-sectional image data 75 of the lens LE by a light projecting optical system 64 and a light receiving optical system 66 based on the Scheimpflug principle. Of course, the measurement optical system 61 may use an optical system having a different configuration instead of an optical system based on the Scheimpflug principle.

投光光学系64は、測定光束をレンズLEの前面または後面に向けて投光する。例えば、投光光学系64は、測定光束をレンズLEに対して垂直に投光してもよい。この場合には、投光光学系64の光軸L3が、レンズLEに対して垂直となる。また、例えば、投光光学系64は、測定光束をレンズLEに対して所定の傾斜角度で投光してもよい。例えば、本実施例においては、投光光学系64が、測定光束をレンズLEの前面に向けて垂直に投光する構成を例に挙げる。なお、この場合には、レンズLEの前面で測定光束が乱反射するようにしてもよい。 The projection optical system 64 projects the measurement light flux toward the front or rear surface of the lens LE. For example, the projection optical system 64 may project the measurement beam perpendicular to the lens LE. In this case, the optical axis L3 of the projection optical system 64 is perpendicular to the lens LE. Further, for example, the projection optical system 64 may project the measurement light beam at a predetermined tilt angle with respect to the lens LE. For example, in this embodiment, the projection optical system 64 vertically projects the measurement light beam toward the front surface of the lens LE. In this case, the measurement light flux may be diffusely reflected on the front surface of the lens LE.

投光光学系64は、光源65を備える。光源65は、測定光束をレンズLEに向けて照射する。例えば、光源65は、LED、レーザー、等であってもよい。なお、本実施例における投光光学系64は、光源65とレンズLEとの間にレンズを配置した構成であってもよい。また、本実施例における投光光学系64は、光源65とレンズLEとの間にピンホールを配置した構成であってもよい。 The projection optical system 64 has a light source 65 . The light source 65 irradiates the lens LE with a measurement light beam. For example, light source 65 may be an LED, laser, or the like. The projection optical system 64 in this embodiment may have a configuration in which a lens is arranged between the light source 65 and the lens LE. Further, the projection optical system 64 in this embodiment may have a configuration in which a pinhole is arranged between the light source 65 and the lens LE.

受光光学系66は、レンズLEの前面で反射された第1反射光束R1と、レンズLEの後面で反射された第2反射光束R2と、を受光する。例えば、受光光学系66の光軸L4は、投光光学系64の光軸L3に対して所定の傾斜角度で配置される。受光光学系66は、レンズ67、絞り68、撮像素子69、等を備える。レンズ67は、レンズLEの前面及び後面にて反射される反射光束(例えば、レンズLEの正反射光、レンズLEの散乱光、等)を絞り68の位置に集光させる。絞り68は、レンズ67の焦点距離に配置される。また、絞り68は、受光光学系66とレンズLEとの距離が変化しても、撮像素子69が撮像する第1反射光束R1及び第2反射光束R2の像の大きさが変化しない(すなわち、撮像倍率が一定となる)ように配置される。撮像素子69は、二次元撮像素子(例えば、CCD、CMOS等の少なくともいずれか)であってもよいし、一次元撮像素子(例えば、ラインセンサ等)であってもよい。撮像素子69は、レンズLEと共役な位置に配置される。撮像素子69は、その受光面が光軸L4に対して垂直となるように配置されてもよい。なお、レンズ67と撮像素子69とは、シャインプルークの原理に基づいて光軸L4上に配置されている。例えば、投光光学系64によりレンズLEに照射される測定光束と、レンズLE及びレンズ67を含むレンズ系と、撮像素子69の受光面(すなわち、撮像位置)と、がシャインプルークの関係にて配置される。 The light receiving optical system 66 receives the first reflected light flux R1 reflected by the front surface of the lens LE and the second reflected light flux R2 reflected by the rear surface of the lens LE. For example, the optical axis L4 of the light receiving optical system 66 is arranged at a predetermined angle of inclination with respect to the optical axis L3 of the light projecting optical system 64 . The light receiving optical system 66 includes a lens 67, a diaphragm 68, an imaging device 69, and the like. The lens 67 converges reflected light beams reflected by the front and rear surfaces of the lens LE (eg, specularly reflected light of the lens LE, scattered light of the lens LE, etc.) at the position of the diaphragm 68 . A diaphragm 68 is placed at the focal length of lens 67 . Further, even if the distance between the light receiving optical system 66 and the lens LE changes, the diaphragm 68 does not change the size of the images of the first reflected light flux R1 and the second reflected light flux R2 captured by the imaging device 69 (that is, are arranged so that the imaging magnification is constant). The imaging device 69 may be a two-dimensional imaging device (eg, at least one of CCD, CMOS, etc.), or may be a one-dimensional imaging device (eg, line sensor, etc.). The imaging element 69 is arranged at a position conjugate with the lens LE. The imaging device 69 may be arranged such that its light receiving surface is perpendicular to the optical axis L4. Note that the lens 67 and the imaging device 69 are arranged on the optical axis L4 based on the Scheimpflug principle. For example, the measurement light beam irradiated to the lens LE by the projection optical system 64, the lens system including the lens LE and the lens 67, and the light receiving surface (that is, the imaging position) of the image sensor 69 have a Scheimpflug relationship. placed.

例えば、レンズLEに照射された測定光束は、レンズLEの前面にて反射される反射光束と、レンズLEの後面へと向かう測定光束と、に分岐する。レンズLEの前面では測定光束が様々な方向に反射されるが、光軸L4と平行に反射された反射光束(すなわち、第1反射光束R1)が、レンズ67及び絞り68を介して撮像素子69に到達する。レンズLEの後面へと向かった測定光束は、レンズLEの後面にて様々な方向に反射されるが、光軸L4と平行に反射された反射光束(すなわち、第2反射光束R2)が、レンズ67及び絞り68を介して撮像素子69に到達する。例えば、このようにして、撮像素子69は、レンズLEの前面と後面にて同じ角度で反射された第1反射光束と第2反射光束とを撮像することができる。 For example, the measurement light flux irradiated onto the lens LE is split into a reflected light flux reflected by the front surface of the lens LE and a measurement light flux directed to the rear surface of the lens LE. The measurement light flux is reflected in various directions on the front surface of the lens LE. to reach The measurement light beam directed toward the rear surface of the lens LE is reflected in various directions by the rear surface of the lens LE. It reaches the imaging element 69 via the diaphragm 67 and the diaphragm 68 . For example, in this manner, the imaging device 69 can capture images of the first reflected light flux and the second reflected light flux reflected at the same angle by the front and rear surfaces of the lens LE.

なお、本実施例においては、絞り68を用いて光軸L4と平行に反射された測定光束を撮像素子69へと導いているがこれに限定されない。例えば、絞り68は、光軸L4と平行に反射されていない測定光束を撮像素子69へと導いてもよい。 In this embodiment, the diaphragm 68 is used to guide the measurement light beam reflected in parallel with the optical axis L4 to the imaging element 69, but the present invention is not limited to this. For example, the diaphragm 68 may guide the measurement light flux that has not been reflected parallel to the optical axis L4 to the imaging device 69 .

Y方向移動機構62は、測定光学系61の上下方向(Y方向)における位置を調整することによって、撮像素子69の撮像位置を調整する。例えば、Y方向移動機構62は、投光光学系64及び受光光学系66をY方向へ一体的に移動させる。例えば、Y方向移動機構62は、モータ及びスライド機構により構成されてもよい。Z方向移動機構63は、測定光学系61の前後方向(Z方向)における位置を調整することによって、光源65からレンズLEに向けて照射される測定光束の位置を調整する。例えば、Z方向移動機構63は、投光光学系64及び受光光学系66を前後方向(Z方向)へ一体的に移動させる。例えば、Z方向移動機構63は、モータ及びスライド機構により構成されてもよい。なお、実施例においては、投光光学系64と受光光学系66とが一体的に移動する構成を例に挙げたがこれに限定されない。例えば、投光光学系64と受光光学系66とを別々に移動させる構成であってもよい。 The Y-direction moving mechanism 62 adjusts the imaging position of the imaging element 69 by adjusting the position of the measurement optical system 61 in the vertical direction (Y direction). For example, the Y-direction moving mechanism 62 integrally moves the light projecting optical system 64 and the light receiving optical system 66 in the Y direction. For example, the Y-direction movement mechanism 62 may be composed of a motor and a slide mechanism. The Z-direction movement mechanism 63 adjusts the position of the measurement light beam emitted from the light source 65 toward the lens LE by adjusting the position of the measurement optical system 61 in the front-rear direction (Z direction). For example, the Z-direction moving mechanism 63 integrally moves the light projecting optical system 64 and the light receiving optical system 66 in the front-rear direction (Z direction). For example, the Z-direction movement mechanism 63 may be composed of a motor and a slide mechanism. In addition, in the embodiment, the configuration in which the light projecting optical system 64 and the light receiving optical system 66 move integrally was taken as an example, but the present invention is not limited to this. For example, the configuration may be such that the light projecting optical system 64 and the light receiving optical system 66 are moved separately.

例えば、画像データ取得機構60は、Y方向移動機構62を備えることによって、様々なコバの厚みt(以下、コバ厚t)のレンズLEに対応した断面画像データ75(図9参照)を取得できるようになる。図12はレンズLEのコバ厚tが異なる場合のY方向移動機構62について説明する図である。図12(a)はレンズLEのコバが薄い場合の反射光束を示す図である。図12(b)はレンズLEのコバが厚い場合の反射光束を示す図である。図12(c)は、図12(b)に示す状態から撮像素子69の撮像位置を調整した場合の反射光束を示す図である。 For example, the image data acquisition mechanism 60 can acquire cross-sectional image data 75 (see FIG. 9) corresponding to lenses LE with various edge thicknesses t (hereinafter referred to as edge thickness t) by including the Y-direction movement mechanism 62. become. FIG. 12 is a diagram for explaining the Y-direction moving mechanism 62 when the edge thickness t of the lens LE is different. FIG. 12(a) is a diagram showing a reflected light beam when the edge of the lens LE is thin. FIG. 12(b) is a diagram showing a reflected light beam when the edge of the lens LE is thick. FIG. 12(c) is a diagram showing reflected light beams when the imaging position of the imaging element 69 is adjusted from the state shown in FIG. 12(b).

例えば、レンズLEの前面で反射された第1反射光束R1と、レンズLEの後面で反射された第2反射光束R2と、の間隔Wは、レンズLEのコバ厚tにより変化する。例えば、コバが薄いレンズLEよりも、コバが厚いレンズLEのほうが、第1反射光束R1と第2反射光束R2との間隔Wが広くなる。例えば、図12(a)と図12(b)のように、測定光学系61が固定配置であると、レンズLEのコバ厚tによっては、第1反射光束R1と第2反射光束R2との双方が撮像素子69の受光面に到達しない場合がある。例えば、図12(b)では、第2反射光束R2が撮像素子69の受光面から外れている。そこで、第1反射光束R1と第2反射光束R2との双方が撮像素子69の受光面に到達するように、Y方向移動機構62を駆動して撮像素子69の撮像位置を調整する。例えば、本実施例においては、Y方向移動機構62が測定光学系61をレンズLEに近づく方向へと移動させる。これによって、第1反射光束R1と第2反射光束R2とは、図12(c)のように撮像素子69の受光面へと到達するようになる。また、これによって、画像データ取得機構60は、第1反射光束R1により形成された前面像データP1sと、第2反射光束により形成された後面像データQ2sと、を含む断面画像データ75(図9参照)を取得することができる。 For example, the distance W between the first reflected light beam R1 reflected by the front surface of the lens LE and the second reflected light beam R2 reflected by the rear surface of the lens LE changes depending on the edge thickness t of the lens LE. For example, the distance W between the first reflected light flux R1 and the second reflected light flux R2 is wider in the lens LE with the thick edge than in the lens LE with the thin edge. For example, as shown in FIGS. 12(a) and 12(b), when the measurement optical system 61 is fixedly arranged, the first reflected light flux R1 and the second reflected light flux R2 may differ depending on the edge thickness t of the lens LE. Both may not reach the light receiving surface of the imaging device 69 . For example, in FIG. 12B, the second reflected light flux R2 is out of the light receiving surface of the imaging device 69. In FIG. Therefore, the imaging position of the imaging device 69 is adjusted by driving the Y-direction moving mechanism 62 so that both the first reflected light flux R1 and the second reflected light flux R2 reach the light receiving surface of the imaging device 69 . For example, in this embodiment, the Y-direction moving mechanism 62 moves the measurement optical system 61 in a direction approaching the lens LE. As a result, the first reflected light flux R1 and the second reflected light flux R2 reach the light receiving surface of the imaging element 69 as shown in FIG. 12(c). Further, as a result, the image data acquisition mechanism 60 obtains cross-sectional image data 75 (see FIG. 9) including the front image data P1s formed by the first reflected light flux R1 and the rear image data Q2s formed by the second reflected light flux. reference) can be obtained.

なお、測定光学系61が固定配置である場合、レンズLEのコバが薄くても、レンズLEのカーブ値が大きいと、第1反射光束R1と第2反射光束R2との双方が撮像素子69の受光面に到達しないことがある。このような場合にも、Y方向移動機構62を駆動して撮像素子69の撮像位置を調整することで、前面像データP1sと後面像データQ2sとを含む断面画像データ75を取得することができるようになる。 When the measurement optical system 61 is fixedly arranged, even if the edge of the lens LE is thin, if the curve value of the lens LE is large, both the first reflected light flux R1 and the second reflected light flux R2 will pass through the image sensor 69. It may not reach the light receiving surface. Even in such a case, cross-sectional image data 75 including front image data P1s and rear image data Q2s can be acquired by driving the Y-direction moving mechanism 62 and adjusting the imaging position of the image sensor 69. become.

また、例えば、画像データ取得機構60(図6参照)は、Z方向移動機構63を備えることによって、レンズLEの玉型形状TGに基づいた位置に向けて、投光光学系64からの測定光束を照射することができる。なお、レンズLEの玉型形状に基づいた位置は、玉型形状と一致する位置であってもよいし、玉型形状を基に演算した位置(例えば、各動径角におけるヤゲンの位置、各動径角における面取りの位置、等)であってもよい。例えば、本実施例においては、円筒ベース11(図2参照)の回転により支持ピン14上に載置されたレンズLEが水平方向に回転し、かつ、Z方向移動機構63が測定光学系61をレンズLEの動径長方向に移動させることによって、レンズLEの玉型形状TGに基づいた位置に測定光束が照射される。これによって、画像データ取得機構60は、レンズLEの玉型形状に基づいた断面画像データ75を取得することができる。 Further, for example, the image data acquisition mechanism 60 (see FIG. 6) is provided with a Z-direction movement mechanism 63 to direct the measurement light flux from the projection optical system 64 toward the position based on the target lens shape TG of the lens LE. can be irradiated. The position based on the target lens shape of the lens LE may be a position that matches the target target shape, or a position calculated based on the target target shape (for example, the position of the bevel at each radial angle, each position of the chamfer in the radial angle, etc.). For example, in this embodiment, the rotation of the cylindrical base 11 (see FIG. 2) rotates the lens LE mounted on the support pins 14 in the horizontal direction, and the Z-direction movement mechanism 63 moves the measurement optical system 61. By moving the lens LE in the radial length direction, the measurement light flux is irradiated to the position based on the target lens shape TG of the lens LE. Thereby, the image data acquisition mechanism 60 can acquire the cross-sectional image data 75 based on the target lens shape of the lens LE.

<制御系>
図7はカップ取付装置1が備える制御系の概略構成図である。制御部70は、CPU(プロセッサ)、RAM、ROM、等を備える。例えば、制御部70のCPUは、カップ取付装置1の制御を司る。制御部70のRAMは、各種の情報を一時的に記憶する。制御部70のROMには、CPUが実行する各種のプログラム等が記憶されている。
<Control system>
FIG. 7 is a schematic configuration diagram of a control system provided in the cup attaching device 1. As shown in FIG. The control unit 70 includes a CPU (processor), RAM, ROM, and the like. For example, the CPU of the control section 70 controls the cup mounting device 1 . The RAM of the control unit 70 temporarily stores various information. Various programs executed by the CPU are stored in the ROM of the control unit 70 .

例えば、制御部70には、ディスプレイ2、入力ボタン3、モータ34、光源42、光源65、撮像素子47、撮像素子51、撮像素子69、不揮発性メモリ71(以下、メモリ71)、等が電気的に接続されている。また、例えば、制御部70には、カップ取付機構30が有するX方向移動機構35、Y方向移動機構36、Z方向移動機構37がそれぞれ備える図示なきモータ等が接続されている。また、例えば、制御部70には、画像データ取得機構60が有するY方向移動機構62とZ方向移動機構63とがそれぞれ備える図示なきモータ等が接続されている。 For example, the control unit 70 includes the display 2, the input button 3, the motor 34, the light source 42, the light source 65, the image sensor 47, the image sensor 51, the image sensor 69, the nonvolatile memory 71 (hereinafter referred to as the memory 71), and the like. properly connected. Further, for example, the controller 70 is connected to motors (not shown) included in the X-direction moving mechanism 35, the Y-direction moving mechanism 36, and the Z-direction moving mechanism 37 of the cup attaching mechanism 30, respectively. Further, for example, the controller 70 is connected to motors (not shown) included in the Y-direction moving mechanism 62 and the Z-direction moving mechanism 63 of the image data acquisition mechanism 60 .

例えば、メモリ71には、電源の供給が遮断されても記憶内容を保持できる非一過性の記憶媒体が用いられてもよい。例えば、メモリ71としては、ハードディスクドライブ、フラッシュROM、USBメモリ、等を使用することができる。例えば、メモリ71には、レンズ情報測定機構40により測定したレンズLEの光学特性、測定光学系61により取得したレンズLEの断面画像データ、フレーム形状測定機構20を用いてトレースしたフレームの内周形状、等が記憶されてもよい。 For example, the memory 71 may be a non-transitory storage medium that can retain stored content even when the power supply is interrupted. For example, the memory 71 can be a hard disk drive, flash ROM, USB memory, or the like. For example, the memory 71 stores the optical characteristics of the lens LE measured by the lens information measuring mechanism 40, cross-sectional image data of the lens LE acquired by the measuring optical system 61, and the inner peripheral shape of the frame traced by the frame shape measuring mechanism 20. , etc. may be stored.

<制御動作>
上記の構成を備えるカップ取付装置1の制御について説明する。操作者は、眼鏡を作製する際に、カップ取付装置1及びレンズ周縁加工装置を用いて、レンズLEを加工する。ここで、従来では、レンズLEの表面にカップCuを取付けるためにカップ取付装置1が用いられていた。また、従来では、レンズLEのコバ情報を取得するため、レンズLEのコバに形成する仕上げ加工位置(例えば、ヤゲンの位置、溝の位置、面取りの位置、等)を設定するため、及びレンズLEの周縁を加工するため、にレンズ周縁加工装置が用いられていた。このような一連の動作の中では、カップ取付装置1を使用する時間に比べて、レンズ周縁加工装置を使用する時間が圧倒的に長くなっていることがわかった。操作者は、作業を効率よく行いたい一方で、レンズLEへのカップCuの取付けが終了しても、レンズ周縁加工装置が使用中であるために、次の工程に進むことができない場合があった。
<Control action>
Control of the cup mounting device 1 having the above configuration will be described. The operator processes the lens LE using the cup attaching device 1 and the lens edge processing device when manufacturing the spectacles. Here, conventionally, the cup attaching device 1 is used to attach the cup Cu to the surface of the lens LE. Further, conventionally, in order to obtain edge information of the lens LE, in order to set the finishing position (for example, the position of the bevel, the position of the groove, the position of the chamfer, etc.) to be formed on the edge of the lens LE, and the lens LE In order to process the periphery of the lens, a lens peripheral processing device has been used. In such a series of operations, it was found that the time for using the lens rim processing device was overwhelmingly longer than the time for using the cup mounting device 1 . Although the operator wants to perform the work efficiently, there are cases in which the operator cannot proceed to the next step even after the attachment of the cup Cu to the lens LE is completed, because the lens edge processing device is in use. rice field.

そこで、本実施例においては、操作者がレンズ周縁加工装置の空きを待つ状態が緩和されるように、カップ取付装置1を用いてレンズLEへのカップCuの取付け、コバ情報の取得、及び仕上げ加工位置の設定を行い、レンズ周縁加工装置を用いてレンズLEの周縁の加工を行うようにした。以下、図8に示すフローチャートに基づいて、ステップS1~S8を順に説明する。例えば、本実施例では、カップ取付装置1を用いてステップS1~ステップS7までのステップが行われ、レンズ周縁加工装置を用いてステップS8~ステップS12が行われる。 Therefore, in the present embodiment, the cup attachment device 1 is used to attach the cup Cu to the lens LE, obtain the edge information, and perform finishing so that the operator waits for the vacancy of the lens edge processing device to be alleviated. The processing position is set, and the peripheral edge of the lens LE is processed using the lens peripheral edge processing device. Steps S1 to S8 will be described in order below based on the flowchart shown in FIG. For example, in this embodiment, steps S1 to S7 are performed using the cup mounting device 1, and steps S8 to S12 are performed using the lens edge processing device.

<カップ取付装置>
例えば、操作者はカップ取付装置1を起動して、以下で説明するステップを順に行う。
<Cup mounting device>
For example, the operator activates the cup mounting device 1 and sequentially performs the steps described below.

<玉型形状の取得(S1)>
まず、制御部70はレンズLEの玉型形状を取得する。レンズLEの玉型形状は、デモレンズの外周形状、フレームの内周形状、等であってもよい。例えば、デモレンズの外周形状を取得する場合には、レンズ情報測定機構40を用いてデモレンズの全体像を撮像することで、その外周形状を検出するようにしてもよい。また、例えば、フレームの内周形状を取得する場合には、フレーム形状測定機構20を用いてフレームをトレースすることで、その内周形状を検出するようにしてもよい。もちろん、別の装置を用いて取得したレンズLEの玉型形状を、カップ取付装置1に読み込ませてもよい。例えば、制御部70は、このように取得したレンズLEの玉型形状をメモリ71に記憶する。なお、レンズLEの玉型形状は、左レンズと右レンズの双方において、それぞれの玉型形状を取得してもよい。左レンズ及び右レンズのいずれか一方の玉型形状を取得し、これを左右反転することで、もう片方の玉型形状を取得してもよい。
<Acquisition of target lens shape (S1)>
First, the control unit 70 acquires the target lens shape of the lens LE. The target lens shape of the lens LE may be the outer peripheral shape of the demo lens, the inner peripheral shape of the frame, or the like. For example, when obtaining the outer peripheral shape of the demo lens, the lens information measuring mechanism 40 may be used to capture an entire image of the demo lens, thereby detecting the outer peripheral shape. Further, for example, when acquiring the inner peripheral shape of the frame, the inner peripheral shape may be detected by tracing the frame using the frame shape measuring mechanism 20 . Of course, the target lens shape of the lens LE obtained using another device may be read into the cup attaching device 1 . For example, the control unit 70 stores the target lens shape of the lens LE thus acquired in the memory 71 . Note that the target lens shape of the lens LE may be obtained for both the left lens and the right lens. The target lens shape of either one of the left lens and the right lens may be acquired, and by horizontally reversing this, the target lens shape of the other lens may be acquired.

<屈折率の取得(S2)>
続いて、制御部70はレンズLEの屈折率を取得する。レンズLEの屈折率は、操作者が入力ボタン3を操作することにより取得されてもよい。例えば、レンズLEの材質(例えば、プラスチック、ガラス、等)により屈折率は決まっている(つまり、加工するレンズLEによって屈折率が決まっている)ので、操作者は既知の屈折率を入力してもよい。また、操作者は、別の装置を用いて予め取得しておいたレンズLEの屈折率を入力してもよい。なお、カップ取付装置1がレンズLEの屈折率を測定可能な構成を備え、これを用いて屈折率を求めるようにしてもよい。例えば、制御部70は、このように取得したレンズLEの屈折率をメモリ71に記憶する。
<Acquisition of Refractive Index (S2)>
Subsequently, the control unit 70 acquires the refractive index of the lens LE. The refractive index of the lens LE may be obtained by operating the input button 3 by the operator. For example, since the refractive index is determined by the material (for example, plastic, glass, etc.) of the lens LE (that is, the refractive index is determined by the lens LE to be processed), the operator inputs a known refractive index. good too. Alternatively, the operator may input the refractive index of the lens LE obtained in advance using another device. The cup mounting device 1 may be provided with a configuration capable of measuring the refractive index of the lens LE, and the refractive index may be obtained using this. For example, the control unit 70 stores the refractive index of the lens LE acquired in this way in the memory 71 .

<加工条件とレイアウトの設定(S3)>
例えば、制御部70は、レンズLEの玉型形状及び屈折率を取得すると、ディスプレイ2に玉型形状を表示させる。操作者は、入力ボタン3を操作して、左レンズ及び右レンズのそれぞれについて、レンズLEの加工条件を設定してもよい。例えば、レンズLEの加工条件は、レンズLEの種類(例えば、単焦点レンズ、二重焦点レンズ、累進レンズ、等)、レンズLEの材質、フレームの材質、各種加工(例えば、鏡面加工、面取り加工、溝掘り加工、等)の有無、レンズLEに対するカップCuの取付け位置(例えば、レンズLEの光学中心位置、玉型の幾何学中心位置、等)、等の少なくともいずれかであってもよい。また、操作者は、入力ボタン3を操作して、レンズLEのレイアウトを設定してもよい。例えば、レンズLEのレイアウトは、フレーム中心間距離、眼鏡装用者の瞳孔間距離、眼鏡装用者の乱視軸角度、等の少なくともいずれかであってもよい。
<Setting processing conditions and layout (S3)>
For example, when the control unit 70 acquires the target lens shape and the refractive index of the lens LE, the control unit 70 causes the display 2 to display the target lens shape. The operator may operate the input button 3 to set processing conditions for the lens LE for each of the left lens and the right lens. For example, the processing conditions for the lens LE include the type of the lens LE (eg, single focus lens, bifocal lens, progressive lens, etc.), the material of the lens LE, the material of the frame, and various processing (eg, mirror finishing, chamfering, etc.). , grooving, etc.), the mounting position of the cup Cu with respect to the lens LE (for example, the optical center position of the lens LE, the geometrical center position of the lens shape, etc.), and the like. Also, the operator may operate the input button 3 to set the layout of the lens LE. For example, the layout of the lenses LE may be at least one of the frame center distance, the spectacle wearer's interpupillary distance, the spectacle wearer's astigmatic axis angle, and/or the like.

<軸打ち(S4)>
操作者は、レンズLEの加工条件及びレイアウトを設定し終えると、レンズLE(例えば、本実施例においては左レンズ)を支持ピン14上に載置し、カップCuを装着部31に取付ける。また、操作者は、図示なきモード選択ボタンを操作して、設定モードから軸打ちモードに切り換える。軸打ちモードが選択されると、制御部70は、レンズ情報測定機構40が備える光源42を点灯させる。また、ディスプレイ2には、支持ピン14上に載置したレンズLEの光学中心位置(すなわち、後述する光学中心マーク)を、光軸L1に位置合わせするための目標となるガイドマークが表示される。
<Shaft striking (S4)>
After setting the processing conditions and layout of the lens LE, the operator places the lens LE (for example, the left lens in this embodiment) on the support pins 14 and attaches the cup Cu to the mounting portion 31 . Also, the operator operates a mode selection button (not shown) to switch from the setting mode to the shaft striking mode. When the axis striking mode is selected, the control section 70 turns on the light source 42 provided in the lens information measuring mechanism 40 . The display 2 also displays a guide mark that serves as a target for aligning the optical center position of the lens LE placed on the support pin 14 (that is, an optical center mark to be described later) with the optical axis L1. .

例えば、制御部70は、撮像素子51が撮像した開口像の位置座標を求め、これに基づいてレンズLEの光学中心位置及び光学特性(例えば、球面度数、柱面度数、乱視軸角度、等)を検出する。なお、開口像を用いたレンズLEの光学中心位置及び光学特性の検出については、周知の技術を応用しているため、詳しくは特開2008-241694号公報を参照されたい。例えば、制御部70が検出したレンズLEの光学中心位置Oには、光学中心マークが表示される。 For example, the control unit 70 obtains the position coordinates of the aperture image captured by the imaging device 51, and based on this, the optical center position and optical characteristics of the lens LE (for example, spherical power, cylindrical power, cylinder axis angle, etc.) to detect For the detection of the optical center position and optical characteristics of the lens LE using the aperture image, a well-known technique is applied. For example, an optical center mark is displayed at the optical center position O of the lens LE detected by the control unit 70 .

また、例えば、制御部70は、撮像素子51が撮像したレンズLEの像を画像処理することにより、レンズLEの外形を検出する。例えば、ディスプレイ2には、レンズLEの外形にレンズLEの玉型形状が重ねて表示される。このとき、レンズLEの玉型形状は、レンズLEの光学中心位置O、レンズLEのレイアウトデータ、撮像光学系48の撮像倍率、光軸L1に対する光軸L2の位置関係、等により、その表示位置と表示サイズが決定されてもよい。 Further, for example, the control unit 70 detects the outer shape of the lens LE by performing image processing on the image of the lens LE captured by the imaging device 51 . For example, on the display 2, the lens shape of the lens LE is superimposed on the outer shape of the lens LE. At this time, the target shape of the lens LE is determined by the optical center position O of the lens LE, the layout data of the lens LE, the imaging magnification of the imaging optical system 48, the positional relationship of the optical axis L2 with respect to the optical axis L1, and the like. and display size may be determined.

例えば、操作者は、ディスプレイ2をみながら光学中心マークをガイドマークに一致させるようにレンズLEを移動させ、ディスプレイ2に表示された図示なき軸打ちボタンを操作する。制御部70は、操作信号に応じて、レンズLEの光学中心位置OにカップCuの中心軸K2が位置するように、カップ取付機構30のX方向移動機構35及びY方向移動機構36を駆動して、アーム32を移動させる。このとき、レンズLEが柱面度数をもつ場合には、検出した乱視軸角度に基づいて装着部31を中心軸K2の軸回りに回転させてもよい。制御部70は、カップCuの位置調整及び角度調整が完了すると、Z方向移動機構37を駆動してアーム32を下降させる。これによって、装着部31に装着されたカップCuは、設定された軸出し位置(すなわち、レンズLEの光学中心位置O)に基づいて、支持ピン14上に載置されたレンズLEの前面に軸打ちされる。 For example, the operator moves the lens LE so as to align the optical center mark with the guide mark while looking at the display 2, and operates an axis hitting button (not shown) displayed on the display 2. FIG. The control unit 70 drives the X-direction moving mechanism 35 and the Y-direction moving mechanism 36 of the cup mounting mechanism 30 so that the central axis K2 of the cup Cu is positioned at the optical center position O of the lens LE according to the operation signal. to move the arm 32. At this time, if the lens LE has a cylindrical power, the mounting portion 31 may be rotated around the central axis K2 based on the detected astigmatism axis angle. When the position adjustment and angle adjustment of the cup Cu are completed, the control unit 70 drives the Z-direction moving mechanism 37 to lower the arm 32 . As a result, the cup Cu attached to the attachment portion 31 is axially aligned with the front surface of the lens LE placed on the support pins 14 based on the set axis alignment position (that is, the optical center position O of the lens LE). be beaten.

<断面画像データの取得(S5)>
例えば、操作者は、カップCuの軸打ちを終えると、図示なきモード選択ボタンを操作して、軸打ちモードからコバ情報測定モードに切り換える。例えば、これによって、本実施例では、レンズ支持機構10に載置されたレンズLEのコバ情報が測定される。コバ情報測定モードが選択されると、制御部70は、画像データ取得機構60が備える光源65を点灯させる。
<Acquisition of cross-sectional image data (S5)>
For example, when the operator finishes hitting the cup Cu, the operator operates a mode selection button (not shown) to switch from the hitting mode to the edge information measuring mode. For example, in this embodiment, the edge information of the lens LE mounted on the lens support mechanism 10 is measured. When the edge information measurement mode is selected, the controller 70 turns on the light source 65 of the image data acquisition mechanism 60 .

例えば、制御部70は、Z方向移動機構63の駆動を制御して、レンズLEにおける玉型形状TG上の初期位置に光軸L3を一致させる。なお、例えば、初期位置は、レンズLEの光学中心位置Oを通りZ方向に伸びる仮想線V1上の位置であってもよいし、レンズLEの光学中心位置Oを通りX方向に伸びる仮想線V2上の位置であってもよい。もちろん、初期位置は任意の位置に設定できてもよい。例えば、本実施例においては、レンズLEの玉型形状TG上であり、かつ仮想線V1上の位置である点P1に、光軸L3が一致される。これによって、光源65から照射された測定光束は、レンズLEの前面における点P1で反射する第1反射光束R1と、レンズLEの後面における点Q1に到達して反射される第2反射光束R2と、に分岐する。 For example, the control unit 70 controls driving of the Z-direction moving mechanism 63 to align the optical axis L3 with the initial position on the target lens shape TG of the lens LE. For example, the initial position may be a position on a virtual line V1 passing through the optical center position O of the lens LE and extending in the Z direction, or a virtual line V2 passing through the optical center position O of the lens LE and extending in the X direction. It may be in the upper position. Of course, the initial position may be set to any position. For example, in this embodiment, the optical axis L3 is aligned with the point P1, which is on the target lens shape TG of the lens LE and on the imaginary line V1. As a result, the measurement light beam emitted from the light source 65 is divided into a first reflected light beam R1 reflected at the point P1 on the front surface of the lens LE and a second reflected light beam R2 reaching the point Q1 on the rear surface of the lens LE and reflected. , branch to.

また、例えば、制御部70は、Y方向移動機構62の駆動を制御して、撮像素子69が第1反射光束R1と第2反射光束R2との双方を受光できるように、画像データ取得機構60とレンズLEとのY方向における距離を調整する。例えば、制御部70は、撮像素子69が撮像した断面画像データ75(図9参照)に対して画像処理(例えば、エッジ検出等)を行い、輝度の立ち上がりを検出する。また、例えば、制御部70は、輝度の立ち上がりが2回現れたときに、第1反射光束R1の像(すなわち、後述するレンズLEの前面像データP1s)と、第2反射光束R2の像(すなわち、後述するレンズLEの後面像データQ2s)と、の双方を検出したと判定し、Y方向移動機構62の駆動を終了する。これによって、制御部70は、レンズLEの玉型形状TGにおける点P1の位置の断面画像データ75を取得することができる。 Further, for example, the control unit 70 controls the driving of the Y-direction moving mechanism 62 so that the imaging element 69 can receive both the first reflected light flux R1 and the second reflected light flux R2. and the lens LE in the Y direction. For example, the control unit 70 performs image processing (for example, edge detection, etc.) on the cross-sectional image data 75 (see FIG. 9) captured by the imaging device 69 to detect the rising edge of luminance. Further, for example, when the luminance rises twice, the control unit 70 controls the image of the first reflected light beam R1 (that is, the front image data P1s of the lens LE, which will be described later) and the image of the second reflected light beam R2 ( That is, it is determined that both the rear surface image data Q2s) of the lens LE, which will be described later, have been detected, and the driving of the Y-direction moving mechanism 62 is terminated. Thereby, the control unit 70 can acquire the cross-sectional image data 75 of the position of the point P1 in the target lens shape TG of the lens LE.

図9は断面画像データ75の一例である。例えば、断面画像データ75には、第1反射光束R1により形成されたレンズLEの前面像データと、第2反射光束R2により形成されたレンズLEの後面像データと、が含まれる。例えば、本実施例においては、レンズLEの前面における点P1の像が、レンズLEの前面像データP1sとなる。また、例えば、本実施例においては、レンズLEの後面における点Q1の像ではなく、第2反射光束R2の延長線上(すなわち、図7に示す点線上)にある点Q2の像が、レンズLEの後面像データQ2sとなる。これは、レンズLEが所定の屈折率をもち、第2反射光束R2がレンズLEの前面にて折れ曲がって撮像素子69に到達するためである。撮像素子69には、レンズLEの後面における点Q1の位置が、点Q2の位置にあるようにみえている。 FIG. 9 is an example of cross-sectional image data 75. As shown in FIG. For example, the cross-sectional image data 75 includes front image data of the lens LE formed by the first reflected light beam R1 and rear image data of the lens LE formed by the second reflected light beam R2. For example, in this embodiment, the image of the point P1 on the front surface of the lens LE becomes the front image data P1s of the lens LE. Further, for example, in this embodiment, the image of the point Q2 on the extension line of the second reflected light flux R2 (that is, on the dotted line shown in FIG. 7) is not the image of the point Q1 on the rear surface of the lens LE, but the image of the point Q2 on the lens LE. , the rear surface image data Q2s. This is because the lens LE has a predetermined refractive index, and the second reflected light flux R2 is bent at the front surface of the lens LE and reaches the imaging device 69. FIG. The position of the point Q1 on the rear surface of the lens LE appears to the image sensor 69 to be the position of the point Q2.

例えば、制御部70は、レンズLE上の初期位置(すなわち、点P1)における断面画像データ75を取得すると、モータ17を駆動して円筒ベース11を回転させ、支持ピン14上に載置したレンズLEを水平方向に1周回転させる。また、例えば、制御部70は、Y方向移動機構62を制御し、第1反射光束R1が撮像素子69の受光面に対して常に同じ位置に到達するように調整する。また、例えば、制御部70は、レンズLEの玉型形状TGに基づいてZ方向移動機構63を制御し、レンズLEの玉型形状に対応する点(例えば、図6に示す点P2、P3、P4、…、Pn)に光軸L3を一致させる。なお、例えば、玉型形状に対応する点は、光学中心位置Oを中心として所定の角度(例えば、0.5度、1度、等)の間隔を空けた点であってもよいし、任意の点の数(例えば、1000個の点、等)であってもよい。 For example, when the control unit 70 acquires the cross-sectional image data 75 at the initial position (that is, the point P1) on the lens LE, the control unit 70 drives the motor 17 to rotate the cylindrical base 11 to rotate the lens placed on the support pins 14. Rotate the LE horizontally once. Further, for example, the control unit 70 controls the Y-direction moving mechanism 62 and adjusts the first reflected light beam R1 to always reach the same position on the light receiving surface of the imaging device 69 . Further, for example, the control unit 70 controls the Z-direction moving mechanism 63 based on the target lens shape TG of the lens LE to move points corresponding to the target lens shape TG of the lens LE (for example, points P2, P3, and P3 shown in FIG. 6). P4, . . . , Pn) are aligned with the optical axis L3. Note that, for example, the points corresponding to the target lens shape may be points spaced at a predetermined angle (for example, 0.5 degrees, 1 degree, etc.) around the optical center position O, or may be arbitrary points. number of points (eg, 1000 points, etc.).

例えば、制御部70は、レンズLEの玉型形状における動径角上の各点についての断面画像データ75を連続的に取得するために、レンズLEを回転させながらZ方向移動機構63を制御する。また、例えば、制御部70は、レンズLEの前面像データP1sが、断面画像データ75において所定の位置に表示されるように、レンズLEを回転させながらY方向移動機構62を制御する。図14は前面像データP1sを所定の位置に表示させるための制御について説明する図である。例えば、制御部70は、断面画像データ75について、レンズLEの前面像データP1sと、所定の位置Mと、の深さ方向(言い換えると、断面画像データ75の上下方向)におけるずれ量Δdを検出する。また、例えば、制御部70は、検出したずれ量Δdに基づいて、Y方向移動機構62の駆動量を算出し、測定光学系61を移動させる。これによって、撮像素子69の受光面に到達する第1反射光束R1の撮像位置が変更され、断面画像データ75の所定の位置Mに前面像データP1sが一致する。 For example, the control unit 70 controls the Z-direction moving mechanism 63 while rotating the lens LE in order to continuously acquire cross-sectional image data 75 for each point on the radial angle of the target lens shape of the lens LE. . Also, for example, the control unit 70 controls the Y-direction moving mechanism 62 while rotating the lens LE so that the front image data P1s of the lens LE is displayed at a predetermined position in the cross-sectional image data 75 . FIG. 14 is a diagram for explaining control for displaying the front image data P1s at a predetermined position. For example, for the cross-sectional image data 75, the control unit 70 detects the shift amount Δd in the depth direction (in other words, the vertical direction of the cross-sectional image data 75) between the front image data P1s of the lens LE and the predetermined position M. do. Further, for example, the control unit 70 calculates the drive amount of the Y-direction moving mechanism 62 based on the detected shift amount Δd, and moves the measurement optical system 61 . As a result, the imaging position of the first reflected light flux R1 reaching the light receiving surface of the imaging element 69 is changed, and the front image data P1s matches the predetermined position M of the cross-sectional image data 75. FIG.

例えば、制御部70は、レンズLEの玉型形状におけるすべての動径角についてずれ量Δdを検出し、これに基づいてY方向移動機構62を駆動する。すなわち、制御部70は、レンズLE上で断面画像データ75を取得する位置が変更される毎に、Y方向移動機構62を駆動して、断面画像データ75の所定の位置Mに前面像データP1sが表示されるようにする。また、例えば、制御部70は、ずれ量Δdに基づいてY方向移動機構62を駆動した駆動量から、レンズLEの玉型形状における各動径角の前面位置(例えば、位置座標等)を特定する。例えば、この場合には、Y方向移動機構62を構成するモータのパルス数等を取得することで、各動径角の前面位置を特定してもよい。例えば、制御部70は、レンズLEを水平方向に1周回転させ、レンズLEの玉型形状におけるすべての動径角上の点の断面画像データと、レンズLEの前面位置と、を取得して、これらをメモリ71に記憶する。 For example, the control unit 70 detects the deviation amount Δd for all radius vector angles in the target lens shape of the lens LE, and drives the Y-direction moving mechanism 62 based on this. That is, the control unit 70 drives the Y-direction moving mechanism 62 every time the position where the cross-sectional image data 75 is acquired on the lens LE is changed, and moves the front image data P1s to the predetermined position M of the cross-sectional image data 75. be displayed. Further, for example, the control unit 70 identifies the front position (for example, position coordinates, etc.) of each radial angle in the target lens shape of the lens LE from the amount of driving the Y-direction moving mechanism 62 based on the shift amount Δd. do. For example, in this case, the front surface position of each radius vector angle may be specified by acquiring the number of pulses of the motor that constitutes the Y-direction moving mechanism 62 . For example, the control unit 70 rotates the lens LE once in the horizontal direction, and acquires cross-sectional image data of all points on radial angles in the target lens shape of the lens LE and the position of the front surface of the lens LE. , are stored in the memory 71 .

なお、本実施例では支持ピン14上に載置したレンズLEを1周回転させているが、何周回転させてもよい。例えば、支持ピン14上に載置したレンズLEを2周回転させ、レンズLEの玉型形状を基にして演算したヤゲンの位置と面取りの位置とにおける断面画像データをそれぞれ取得してもよい。例えば、この場合には、Z方向移動機構63を制御して、光軸L3がレンズLE上のヤゲンの位置に一致するようにレンズLEを1周させた後、光軸L3がレンズLE上の面取りの位置(例えば、ヤゲンの位置から所定の距離だけ内側の位置)に一致するように、さらにレンズを1周させてもよい。 Although the lens LE mounted on the support pin 14 is rotated once in this embodiment, it may be rotated any number of times. For example, the lens LE placed on the support pin 14 may be rotated twice, and cross-sectional image data at the bevel position and the chamfer position calculated based on the lens shape of the lens LE may be obtained. For example, in this case, the Z-direction moving mechanism 63 is controlled to rotate the lens LE once so that the optical axis L3 coincides with the position of the bevel on the lens LE. The lens may be further rotated to coincide with the position of the chamfer (for example, the position a predetermined distance inside from the position of the bevel).

<第1コバ情報の取得(S6)>
例えば、カップ取付装置1は、レンズLEのコバ情報を取得するためのコバ測定機構を有してもよい。例えば、制御部70は、コバ測定機構を制御することによってレンズLEを測定し、コバ情報を取得するようにしてもよい。この場合、制御部70は、レンズLEの玉型形状に基づいてコバ測定機構を制御し、コバ情報を取得するようにしてもよい。なお、本実施例では、このようなコバ測定機構を前述の画像データ取得機構60が兼ね、制御部70がコバ情報を取得する場合を例に挙げて説明する。
<Acquisition of first edge information (S6)>
For example, the cup attachment device 1 may have an edge measurement mechanism for acquiring edge information of the lens LE. For example, the control unit 70 may measure the lens LE by controlling the edge measuring mechanism to acquire edge information. In this case, the control unit 70 may control the edge measuring mechanism based on the target lens shape of the lens LE to acquire edge information. In this embodiment, the image data acquisition mechanism 60 also serves as the edge measurement mechanism, and the control unit 70 acquires edge information.

例えば、制御部70は、取得した各断面画像データ75について、レンズLEのコバに関する情報であるコバ情報(第1コバ情報)を取得する。例えば、本実施例においては、レンズLEの玉型形状に基づいた断面画像データ75を取得しているため、レンズLEの玉型形状に基づいたコバ情報を取得することが可能である。例えば、コバ情報としては、レンズLEにおけるコバの前面位置、コバの後面位置、コバ厚、等が取得されてもよい。もちろん、コバ情報としては、レンズLEの前面カーブ値や後面カーブ値を取得するようにしてもよい。なお、本実施例では、レンズLEのコバ情報として、コバ厚を取得する場合を例に挙げる。 For example, the control unit 70 acquires edge information (first edge information), which is information about the edge of the lens LE, for each acquired cross-sectional image data 75 . For example, in this embodiment, since the cross-sectional image data 75 is acquired based on the target lens shape of the lens LE, it is possible to acquire the edge information based on the target lens shape of the lens LE. For example, as the edge information, the front position of the edge of the lens LE, the rear surface position of the edge, the thickness of the edge, and the like may be acquired. Of course, as the edge information, the front surface curve value and the rear surface curve value of the lens LE may be obtained. In this embodiment, as the edge information of the lens LE, the case of acquiring the edge thickness will be taken as an example.

例えば、制御部70は、断面画像データ75上において、前面像データP1sと後面像データQ2sの位置座標(例えば、ピクセル座標等)を取得する。また、例えば、制御部70は、前面像データP1sと後面像データQ2sのピクセル座標を用いて、レンズLEの前面像データP1sと、レンズLEの後面像データQ2sと、の間隔hを計算する。例えば、この場合、制御部70は、各ピクセル座標の差分を求めることで、間隔hのピクセル数を計算してもよい。また、例えば、この場合、制御部70は、撮像素子69の1ピクセル当たりの実距離を予め設定しておくことで、間隔hのピクセル数を実距離に変換することができる。 For example, the control unit 70 acquires position coordinates (for example, pixel coordinates) of the front image data P1s and the rear image data Q2s on the cross-sectional image data 75 . Also, for example, the control unit 70 uses the pixel coordinates of the front image data P1s and the rear image data Q2s to calculate the interval h between the front image data P1s of the lens LE and the rear image data Q2s of the lens LE. For example, in this case, the control unit 70 may calculate the number of pixels in the interval h by obtaining the difference of each pixel coordinate. Also, in this case, for example, the control unit 70 presets the actual distance per pixel of the imaging element 69, so that the number of pixels of the interval h can be converted into the actual distance.

しかし、例えば、断面画像データ75は、前述のように第2反射光束がレンズLEの前面で折れ曲がっているので、レンズLEの前面像データP1sと後面像データQ2sとの間隔hは、必ずしもレンズLEのコバ厚tに一致しない。このため、例えば、制御部70は、レンズLEの屈折率及び断面画像データ75に基づいたレンズLEのコバ厚tを取得するようにしてもよい。例えば、本実施例においては、制御部70が、断面画像データ75に基づいて取得したレンズLEの前面像データP1sと後面像データQ2sとの間隔hの実距離を、レンズLEの屈折率に基づいて補正することで、レンズLEのコバ厚tを求める。すなわち、本実施例においては、断面画像データに基づいて取得したコバ厚を屈折率に基づいて補正することで、レンズLEのコバ厚を取得する。 However, for example, in the cross-sectional image data 75, since the second reflected light flux is bent at the front surface of the lens LE as described above, the interval h between the front surface image data P1s of the lens LE and the rear surface image data Q2s is not necessarily the lens LE edge thickness t. Therefore, for example, the control unit 70 may acquire the edge thickness t of the lens LE based on the refractive index of the lens LE and the cross-sectional image data 75 . For example, in this embodiment, the control unit 70 calculates the actual distance h between the front image data P1s and the rear image data Q2s of the lens LE acquired based on the cross-sectional image data 75, based on the refractive index of the lens LE. , the edge thickness t of the lens LE is obtained. That is, in this embodiment, the edge thickness of the lens LE is obtained by correcting the edge thickness obtained based on the cross-sectional image data based on the refractive index.

例えば、制御部70は、以下の数式を用いることによって、レンズLEの前面像データP1sと後面像データQ2sとの間隔hの実距離を補正し、レンズLEのコバ厚tを計算することができる。 For example, the control unit 70 can calculate the edge thickness t of the lens LE by correcting the actual distance h between the front surface image data P1s and the rear surface image data Q2s of the lens LE by using the following formula. .

Figure 0007172029000001
Figure 0007172029000001

ここで、nはレンズLEの屈折率、βは受光光学系66の撮像倍率、θはレンズLEの前面に対する光軸L4の傾斜角度、である。なお、撮影倍率βと傾斜角度θとは設計上既知の値である。例えば、制御部70は、ステップS2で予め取得した屈折率nをメモリ71から呼び出し、上記の数式を計算することによって、レンズLEのコバ厚tを求めることができる。例えば、制御部70は、各断面画像データ75においてこのようにレンズLEのコバ厚tを取得すると、これをレンズLEの玉型形状における動径角上の各点の位置に対応させてメモリ71に記憶する。 Here, n is the refractive index of the lens LE, β is the imaging magnification of the light receiving optical system 66, and θ is the tilt angle of the optical axis L4 with respect to the front surface of the lens LE. Note that the photographing magnification β and the tilt angle θ are known values in terms of design. For example, the control unit 70 can obtain the edge thickness t of the lens LE by calling the refractive index n obtained in advance in step S2 from the memory 71 and calculating the above formula. For example, when obtaining the edge thickness t of the lens LE in each cross-sectional image data 75, the control unit 70 associates this with the position of each point on the radial angle of the target lens shape of the lens LE, and stores it in the memory 71. memorize to

なお、レンズLEの前面及び後面は湾曲しているので、光源65から照射された測定光束は必ずしもレンズLEの前面とは垂直にならない。このため、レンズLEの前面に対して測定光束が傾斜して照射されることになり、レンズLEの前面から後面に向かって進む測定光束は、レンズLEの前面にて折れ曲がる。そこで、レンズLEの前面カーブ値を考慮して、取得したレンズLEのコバ厚tをさらに補正するようにしてもよい。 Since the front and rear surfaces of the lens LE are curved, the measurement light flux emitted from the light source 65 is not necessarily perpendicular to the front surface of the lens LE. For this reason, the measurement light beam is irradiated obliquely to the front surface of the lens LE, and the measurement light beam traveling from the front surface to the rear surface of the lens LE is bent at the front surface of the lens LE. Therefore, the acquired edge thickness t of the lens LE may be further corrected in consideration of the front curve value of the lens LE.

例えば、この場合には、メモリ71に予めレンズLEの屈折率nと前面カーブ値の関係を表すテーブル(換算表)を記憶させておき、制御部70が対応する係数をレンズLEのコバ厚tに乗算してもよい。なお、レンズLEの前面カーブ値は、予め別の装置を用いて取得しておき、これをカップ取付装置1に読み込ませてもよいし、操作者が入力するようにしてもよい。もちろん、レンズLEの前面カーブ値は、カップ取付装置1を用いて取得した断面画像データ75を画像処理することで求めてもよい。 For example, in this case, a table (conversion table) representing the relationship between the refractive index n of the lens LE and the front curve value is stored in advance in the memory 71, and the control unit 70 converts the corresponding coefficient to the edge thickness t of the lens LE. can be multiplied by The front surface curve value of the lens LE may be obtained in advance using another device and read into the cup attaching device 1, or may be input by the operator. Of course, the front curve value of the lens LE may be obtained by image processing the cross-sectional image data 75 acquired using the cup mounting device 1 .

なお、コバ厚tの計算に用いる数式は本実施例に限定されず、レンズLEの屈折率n、前面カーブ値、及び光学中心位置Oから各動径角の点(例えば、図6では点P1)までの距離D、の少なくともいずれかをパラメータとして含んだ数式であってもよい。 Note that the formula used to calculate the edge thickness t is not limited to this embodiment, and the refractive index n of the lens LE, the front curve value, and points at each radial angle from the optical center position O (for example, point P1 in FIG. 6 ) as a parameter.

例えば、操作者は、左レンズについて、軸打ち(ステップS4)、断面画像データの取得(ステップS5)、及びコバ情報の取得(ステップS6)を終えると、右レンズについても同様にこれらのステップを順に行い、レンズLEの玉型形状の位置に対応したコバ厚tを取得する。 For example, when the operator completes axial striking (step S4), acquisition of cross-sectional image data (step S5), and acquisition of edge information (step S6) for the left lens, the operator similarly performs these steps for the right lens. The edge thickness t corresponding to the position of the target lens shape of the lens LE is obtained.

<仕上げ加工位置の設定(S7)>
例えば、制御部70はコバ厚tを取得すると、ディスプレイ2に表示される操作画面をシミュレーション画面に切り換え、仕上げ加工位置を設定する。例えば、制御部70は、取得したコバ情報(本実施例では、コバ厚t)に基づいて、コバの仕上げ加工位置を設定する。例えば、コバの仕上げ加工位置とは、コバに形成するヤゲンの位置、溝の位置、面取りの位置、等である。例えば、このような仕上げ加工位置は、取得したコバ厚tに基づいて自動的に設定(つまり、初期設定)されてもよいし、操作者が調整するようにしてもよい。なお、本実施例では、コバの仕上げ加工位置として、ヤゲンの位置を設定する場合を例に挙げる。
<Setting of finishing position (S7)>
For example, when the control unit 70 acquires the edge thickness t, it switches the operation screen displayed on the display 2 to a simulation screen, and sets the finishing position. For example, the control unit 70 sets the finishing position of the edge based on the acquired edge information (edge thickness t in this embodiment). For example, the finishing position of the edge includes the position of the bevel formed on the edge, the position of the groove, the position of chamfering, and the like. For example, such a finishing position may be automatically set (that is, initialized) based on the acquired edge thickness t, or may be adjusted by the operator. In this embodiment, the case where the position of the bevel is set as the finishing position of the edge will be taken as an example.

また、例えば、制御部70は、コバ厚に基づいた仕上げ加工位置をディスプレイ2に表示し、ディスプレイ上で仕上げ加工位置を調整するための入力ボタン3からの操作信号に基づいて、仕上げ加工位置を設定してもよい。この場合、制御部70は、左レンズのヤゲンの位置と右レンズのヤゲンの位置とを比較可能に表示してもよい。また、この場合、制御部70は、入力ボタン3からの操作信号に基づいて、左レンズと右レンズとの少なくとも一方の仕上げ加工位置を設定するようにしてもよい。これによって、左レンズと右レンズのコバ厚tの違いを考慮し、それぞれのコバ厚tに対してヤゲンの位置(ヤゲンの頂点位置)をバランスよく配置することができる。 Further, for example, the control unit 70 displays the finishing position based on the edge thickness on the display 2, and based on the operation signal from the input button 3 for adjusting the finishing position on the display, the finishing position is displayed. May be set. In this case, the control unit 70 may display the position of the bevel of the left lens and the position of the bevel of the right lens in a comparable manner. Also, in this case, the control section 70 may set the finishing position of at least one of the left lens and the right lens based on the operation signal from the input button 3 . By doing so, it is possible to consider the difference in edge thickness t between the left lens and the right lens, and arrange the position of the bevel (vertex position of the bevel) with respect to each edge thickness t in a well-balanced manner.

図10はシミュレーション画面80の一例である。図10(a)はシミュレーション画面80の全体を示す図である。図10(b)はシミュレーション画面80の一部を拡大して示す図である。例えば、シミュレーション画面80には、レンズLEの玉型形状(左レンズの玉型形状TGR及び右レンズの玉型形状TGL)が表示される。また、シミュレーション画面80には、レンズLEにおけるヤゲン加工後のコバの形状(左レンズのコバの形状81L及び右レンズのコバの形状81R)が表示される。例えば、レンズLEの玉型形状上には、操作者の操作により玉型形状上を移動するカーソル(カーソル82L及びカーソル82R)が表示される。操作者は、カーソルを用いることによって、レンズLEのコバの観察方向を指定し、レンズLEのコバの形状を表示させることができる。また、例えば、シミュレーション画面80には、レンズLEのヤゲンカーブ(すなわち、レンズLEのコバにヤゲンを配置した軌跡)のカーブ値、ヤゲンカーブの前後方向の位置、ヤゲンカーブの傾斜、等を変更するための入力欄83(入力欄83L及び入力欄83R)が設けられている。なお、本実施例において、シミュレーション画面80には、ヤゲン位置84L及び84Rの表示位置に対応させて、フレームのリムの断面形状を示すようにしてもよい。 FIG. 10 is an example of the simulation screen 80. As shown in FIG. FIG. 10(a) is a diagram showing the entire simulation screen 80. FIG. FIG. 10(b) is a diagram showing an enlarged part of the simulation screen 80. As shown in FIG. For example, the simulation screen 80 displays the target lens shape of the lens LE (left lens target lens shape TGR and right lens target lens shape TGL). The simulation screen 80 also displays the edge shape of the lens LE after beveling (the left lens edge shape 81L and the right lens edge shape 81R). For example, cursors (cursor 82L and cursor 82R) are displayed on the target lens shape of the lens LE to move on the target lens shape by the operation of the operator. By using the cursor, the operator can specify the observation direction of the edge of the lens LE and display the shape of the edge of the lens LE. Further, for example, on the simulation screen 80, an input for changing the curve value of the bevel curve of the lens LE (that is, the trajectory of the bevel arranged on the edge of the lens LE), the position of the bevel curve in the front-rear direction, the inclination of the bevel curve, etc. Fields 83 (input field 83L and input field 83R) are provided. In this embodiment, the cross-sectional shape of the rim of the frame may be displayed on the simulation screen 80 in correspondence with the display positions of the bevel positions 84L and 84R.

例えば、制御部70は、レンズLEに形成するヤゲンの仮位置を自動的に設定する。例えば、ヤゲンカーブは、レンズLEの前面カーブに沿ったカーブであってもよい。例えば、ヤゲンの頂点位置は、レンズLEのコバ厚tに基づいて、コバ厚tが最も薄い部分の半分の位置を通るように設定されてもよい。例えば、制御部70は、左レンズと右レンズとのそれぞれに対して、このようにヤゲンの仮位置を設定する。なお、このとき、制御部70は、左右レンズに形成するヤゲンの仮位置を、左レンズと右レンズのコバ厚tの違いを考慮して自動調整してもよい。例えば、この場合には、左レンズにおけるヤゲンの頂点位置からレンズLEの前面までの距離BLと、右レンズにおけるヤゲンの頂点位置からレンズLEの前面までの距離BRと、について、その距離が同じになるように自動調整されてもよい。また、例えば、この場合には、距離BLと距離BRとの差が所定の閾値以下となるように自動調整されてもよい。例えば、所定の閾値は、予め実験やシミュレーションにより設定されていてもよい。 For example, the control unit 70 automatically sets the temporary position of the bevel formed on the lens LE. For example, the bevel curve may be a curve along the front curve of the lens LE. For example, the vertex position of the bevel may be set based on the edge thickness t of the lens LE so as to pass through the half position of the portion where the edge thickness t is the thinnest. For example, the control unit 70 sets the temporary position of the bevel in this manner for each of the left lens and the right lens. At this time, the control unit 70 may automatically adjust the temporary positions of the bevels formed on the left and right lenses in consideration of the difference in edge thickness t between the left and right lenses. For example, in this case, the distance BL from the vertex position of the bevel to the front surface of the lens LE on the left lens and the distance BR from the vertex position of the bevel to the front surface of the lens LE on the right lens are the same. It may be automatically adjusted so that Also, for example, in this case, automatic adjustment may be made so that the difference between the distance BL and the distance BR is equal to or less than a predetermined threshold. For example, the predetermined threshold may be set in advance through experiments or simulations.

例えば、操作者は、このように初期設定されたヤゲンの仮位置で問題がない場合には、図示なき決定ボタンを操作する。制御部70は、操作指示に応じて左レンズ及び右レンズのコバにヤゲンを形成するためのヤゲン形成データを作成し、これをメモリ71に記憶する。また、例えば、制御部70は、作成したヤゲン形成データを、レンズLEの前面位置とともに、レンズ周縁加工装置に転送する。 For example, the operator operates a determination button (not shown) when there is no problem with the initially set temporary position of the bevel. The control unit 70 creates bevel formation data for forming bevels on the edges of the left lens and the right lens according to the operation instruction, and stores this in the memory 71 . Further, for example, the control unit 70 transfers the created bevel formation data to the lens edge processing device together with the front surface position of the lens LE.

なお、例えば、操作者は、初期設定されたヤゲンの仮位置を手動で調整してもよい。例えば、操作者は、ディスプレイ2をタッチ操作してカーソル82Lを移動させ、左レンズの任意の動径角を指定する。これによって、操作者は、フレームとレンズLEのコバとの位置関係の見栄えを重視する観測点を定めることができる。また、これによって、操作者は、レンズLEの前面とヤゲンの頂点位置との位置関係を、左レンズと右レンズとで比較することができる。なお、カーソル82Rは、カーソル82Lに連動して左右対称な位置へと自動的に移動されてもよい。 Note that, for example, the operator may manually adjust the initially set provisional position of the bevel. For example, the operator touches the display 2 to move the cursor 82L and specify an arbitrary radius vector angle of the left lens. This allows the operator to determine an observation point that emphasizes the appearance of the positional relationship between the frame and the edge of the lens LE. This also allows the operator to compare the positional relationship between the front surface of the lens LE and the vertex position of the bevel between the left lens and the right lens. Note that the cursor 82R may be automatically moved to a symmetrical position in conjunction with the cursor 82L.

例えば、操作者は、左レンズのコバの形状81L及び右レンズのコバの形状81Rを比較し、左レンズにおけるヤゲンの頂点位置からレンズLEの前面までの距離BLと、右レンズにおけるヤゲンの頂点位置からレンズLEの前面までの距離BRと、をそれぞれ変更する。例えば、ヤゲンの頂点位置は、操作者が入力欄83に任意の値を入力することによって移動させることができる。例えば、制御部70は、入力された値に対応して、ヤゲンの位置84R及び84Lの表示位置を変化させる。また、例えば、操作者は、入力欄83に任意の値を入力することによって、ヤゲンカーブのカーブ値や傾斜を変更してもよい。例えば、この場合、制御部70は、入力された値に対応してヤゲンの位置を再度計算し、ヤゲンの位置84L及び84Rの表示位置を変化させる。例えば、このように、制御部70は、操作者がディスプレイ2から入力した操作信号に基づいて、レンズLEのコバに形成するヤゲンの仮位置を設定することができる。例えば、操作者は、ヤゲンの仮位置を調整し終えると、図示なき決定ボタンを操作する。制御部70は、操作指示に応じて左レンズ及び右レンズのコバにヤゲンを形成するためのヤゲン形成データを作成し、これをメモリ71に記憶する。また、例えば、制御部70は、作成したヤゲン形成データを、レンズLEの前面位置とともに、レンズ周縁加工装置に転送する。 For example, the operator compares the edge shape 81L of the left lens and the edge shape 81R of the right lens, the distance BL from the apex position of the bevel on the left lens to the front surface of the lens LE, and the apex position of the bevel on the right lens. to the front surface of the lens LE, respectively. For example, the vertex position of the bevel can be moved by inputting any value in the input field 83 by the operator. For example, the control unit 70 changes the display positions of the bevel positions 84R and 84L in accordance with the input values. Further, for example, the operator may change the curve value and inclination of the bevel curve by inputting any value in the input field 83 . For example, in this case, the control unit 70 recalculates the positions of the bevel in accordance with the input values, and changes the display positions of the bevel positions 84L and 84R. For example, in this manner, the control unit 70 can set the temporary position of the bevel to be formed on the edge of the lens LE based on the operation signal input from the display 2 by the operator. For example, when the operator finishes adjusting the temporary position of the bevel, the operator operates a determination button (not shown). The control unit 70 creates bevel formation data for forming bevels on the edges of the left lens and the right lens according to the operation instruction, and stores this in the memory 71 . Further, for example, the control unit 70 transfers the created bevel formation data to the lens edge processing device together with the front surface position of the lens LE.

<レンズ周縁加工装置>
例えば、操作者は、カップ取付装置1を用いて上記の操作によりレンズLEのコバに形成するヤゲンの位置を設定すると、レンズ周縁加工装置を用いてレンズLEのコバを加工する。図11はレンズ周縁加工装置90の概略構成図である。例えば、操作者がレンズ周縁加工装置90を起動すると、レンズ周縁加工装置が備える制御部95は、前述のヤゲン形成データ及びレンズLEの前面位置を受信して、これを図示なきメモリに記憶してもよい。
<Lens edge processing device>
For example, the operator uses the cup attaching device 1 to set the position of the bevel to be formed on the edge of the lens LE by the above operation, and then uses the lens edge processing device to process the edge of the lens LE. FIG. 11 is a schematic configuration diagram of the lens edge processing device 90. As shown in FIG. For example, when the operator activates the lens edge processing device 90, the control unit 95 provided in the lens edge processing device receives the aforementioned bevel formation data and the front position of the lens LE, and stores them in a memory (not shown). good too.

例えば、本実施例におけるレンズ周縁加工装置90は、レンズLEをレンズチャック軸102により保持するレンズ保持ユニット100、レンズLEのコバ情報を取得するためのコバ情報取得ユニット200、レンズLEの周縁を加工するための加工ユニット300、等を備えている。レンズ保持ユニット100は、レンズLEを回転させるためのレンズ回転ユニット100a、レンズチャック軸102をX軸方向に移動させるためのチャック軸移動ユニット100b、レンズチャック軸102をY方向(レンズチャック軸と加工ユニット300における回転軸との軸間距離)に移動させるための軸間距離変動ユニット100c、を備える。なお、レンズ周縁加工装置90の詳細な構成については、例えば、特開2015-131374号公報を参照されたい。 For example, the lens peripheral edge processing device 90 in this embodiment includes a lens holding unit 100 that holds the lens LE with a lens chuck shaft 102, an edge information acquisition unit 200 for acquiring edge information of the lens LE, and a peripheral edge of the lens LE. A processing unit 300 and the like are provided for processing. The lens holding unit 100 includes a lens rotating unit 100a for rotating the lens LE, a chuck shaft moving unit 100b for moving the lens chuck shaft 102 in the X-axis direction, and a Y-direction (lens chuck shaft and processing unit) for moving the lens chuck shaft 102. and an inter-axis distance variation unit 100c for moving the unit 300 to the inter-axis distance from the rotating shaft of the unit 300). For the detailed configuration of the lens edge processing device 90, see, for example, Japanese Patent Application Laid-Open No. 2015-131374.

<レンズの保持(S8)>
例えば、操作者は、レンズ保持ユニット100が備えるレンズチャック軸102L及び102Rにより左レンズを保持させる。例えば、レンズチャック軸102L及び102Rの回転中心軸K3と、カップCuの中心位置(言い換えると、レンズLEの光学中心位置O)と、が一致するように設計されている。また、例えば、カップCuは、回転中心軸K3に対して一定の方向となるように保持される。例えば、本実施例においては、レンズLEの仮想線V1がレンズ周縁加工装置90のY方向に一致し、レンズLEの仮想線V2がレンズ周縁加工装置90のZ方向に一致されるように、カップCuが保持される。このため、カップ取付装置1におけるX方向は、レンズ周縁加工装置90のZ方向に対応する。また、カップ取付装置1におけるY方向は、レンズ周縁加工装置90のX方向に対応する。また、カップ取付装置1におけるZ方向は、レンズ周縁加工装置90のY方向に対応する。
<Lens Holding (S8)>
For example, the operator holds the left lens by the lens chuck shafts 102L and 102R provided in the lens holding unit 100. FIG. For example, the rotation center axis K3 of the lens chuck shafts 102L and 102R is designed to coincide with the center position of the cup Cu (in other words, the optical center position O of the lens LE). Also, for example, the cup Cu is held in a constant direction with respect to the rotation center axis K3. For example, in this embodiment, the cup is arranged so that the virtual line V1 of the lens LE is aligned with the Y direction of the lens rim processing device 90, and the virtual line V2 of the lens LE is aligned with the Z direction of the lens rim processing device 90. Cu is retained. Therefore, the X direction of the cup mounting device 1 corresponds to the Z direction of the lens rim processing device 90 . Also, the Y direction of the cup mounting device 1 corresponds to the X direction of the lens rim processing device 90 . Also, the Z direction of the cup mounting device 1 corresponds to the Y direction of the lens rim processing device 90 .

<第2コバ情報の取得(S9)>
また、例えば、操作者は、図示なき加工開始ボタンを操作して、レンズLEの周縁の加工を開始する。まず、レンズ周縁加工装置90の制御部95は、コバ情報取得ユニット200を制御して、レンズLEの前面における玉型形状に基づいた動径角の少なくとも1点のコバ情報(第2コバ情報)を取得する。例えば、本実施例においては、仮想線V1上における点P1のコバ情報が取得される。
<Acquisition of Second Edge Information (S9)>
Also, for example, the operator operates a processing start button (not shown) to start processing the peripheral edge of the lens LE. First, the control unit 95 of the lens peripheral edge processing device 90 controls the edge information acquisition unit 200 to obtain edge information (second edge information) of at least one radial angle based on the target lens shape on the front surface of the lens LE. to get For example, in this embodiment, the edge information of the point P1 on the virtual line V1 is acquired.

例えば、制御部95は、コバ情報取得ユニット200が備える測定子201が、レンズLE上の点P1の位置に接触するように、レンズ回転ユニット100a、チャック軸移動ユニット100b、及び軸間距離変動ユニット100cを駆動し、レンズチャック軸102L及び102Rに保持されたレンズLEを移動させる。例えば、制御部95は、回転中心軸K3を基準として点P1のY方向とZ方向の位置を把握し、レンズ回転ユニット100aと軸間距離変動ユニット100cとを駆動する。また、例えば、制御部95は、チャック軸移動ユニット100bを駆動し、測定子201に設けられた図示なきセンサがレンズLEの接触を検知するまで、レンズLEをX方向に移動させる。例えば、このとき、制御部95は、レンズチャック軸102L及び102Rが初期位置からX方向に移動した移動量を検出する。これによって、レンズLEがレンズチャック軸方向(すなわち、X方向)のどこに位置しているかが把握される。すなわち、レンズLE上における点P1の位置(すなわち、位置座標)が把握される。なお、制御部95は、測定子201をレンズLE上で滑らせて、レンズLEの動径角上の1面におけるコバ情報を取得してもよい。 For example, the controller 95 controls the lens rotation unit 100a, the chuck axis movement unit 100b, and the interaxis distance variation unit so that the stylus 201 included in the edge information acquisition unit 200 contacts the position of the point P1 on the lens LE. 100c is driven to move the lens LE held by the lens chuck shafts 102L and 102R. For example, the control section 95 grasps the positions of the point P1 in the Y direction and the Z direction with reference to the rotation center axis K3, and drives the lens rotation unit 100a and the inter-axis distance variation unit 100c. Also, for example, the controller 95 drives the chuck axis moving unit 100b to move the lens LE in the X direction until a sensor (not shown) provided on the stylus 201 detects contact of the lens LE. For example, at this time, the controller 95 detects the amount of movement of the lens chuck shafts 102L and 102R in the X direction from the initial positions. This makes it possible to grasp where the lens LE is positioned in the axial direction of the lens chuck (that is, the X direction). That is, the position (that is, position coordinates) of the point P1 on the lens LE is grasped. Note that the control unit 95 may acquire edge information on one surface on the radial angle of the lens LE by sliding the tracing stylus 201 on the lens LE.

<位置座標の対応付け(S10)>
ここで、例えば、制御部95は、レンズ周縁加工装置90において取得したレンズLEの点P1におけるX方向の位置座標に対して、カップ取付装置1において取得したレンズLEにおける各点の前面位置(すなわち、各点の位置座標)を対応付ける。例えば、これによって、レンズLE上の点P2以降について、レンズ周縁加工装置90のX方向の位置座標が取得される。なお、レンズLE上の点P1については、レンズ周縁加工装置90のX方向の位置座標がステップS9で取得されている。以下、点P2以降の位置座標の対応付けについて説明する。
<Association of Position Coordinates (S10)>
Here, for example, the control unit 95 changes the position coordinates in the X direction of the point P1 of the lens LE acquired by the lens rim processing device 90 to the front position of each point on the lens LE acquired by the cup mounting device 1 (that is, , position coordinates of each point). For example, in this way, the positional coordinates of the lens rim processing device 90 in the X direction are obtained for points after the point P2 on the lens LE. For the point P1 on the lens LE, the X-direction position coordinates of the lens rim processing device 90 have been obtained in step S9. The correspondence of the position coordinates after the point P2 will be described below.

例えば、制御部95は、レンズLEの玉型形状における各動径角の前面位置(位置座標)を図示なきメモリから呼び出し、レンズLE上の点P1の位置座標に基づいて、レンズLEの動径角毎に位置座標を対応付けていく。より詳細には、例えば、レンズ周縁加工装置90におけるレンズLE上の点P2の位置座標は、レンズ周縁加工装置90を用いて取得した点P1の位置座標と、カップ取付装置1において取得された点P2の位置座標と、を加算することにより求められる。また、例えば、レンズ周縁加工装置90におけるレンズLE上の点P3の位置座標は、レンズLE周縁加工装置90を用いて上記のように取得した点P1の位置座標と、カップ取付装置1において取得された点P3の位置座標と、を加算することにより求められる。例えば、制御部95は、このようにして、レンズ周縁加工装置90が備えるコバ情報取得ユニット200を用いて取得したレンズLE上の1点の位置座標と、カップ取付装置1が備える画像データ取得機構60を用いて取得したレンズLEの各動径角上の点の位置座標と、を対応付ける。これにより、レンズチャック軸102に保持されたレンズLEに対して、カップ取付装置1にて作成されたヤゲン形成データを対応させることができる。 For example, the control unit 95 retrieves the front surface position (position coordinates) of each radius vector angle in the target lens shape of the lens LE from a memory (not shown), and based on the position coordinates of the point P1 on the lens LE, calculates the radius of the lens LE. Position coordinates are associated with each corner. More specifically, for example, the position coordinates of the point P2 on the lens LE in the lens rim processing device 90 are the position coordinates of the point P1 acquired using the lens rim processing device 90 and the point acquired in the cup mounting device 1. and the position coordinates of P2. Further, for example, the position coordinates of the point P3 on the lens LE in the lens rim processing device 90 are the position coordinates of the point P1 obtained as described above using the lens LE rim processing device 90 and the position coordinates obtained in the cup mounting device 1. and the position coordinates of the point P3 obtained by adding. For example, the control unit 95 thus controls the position coordinates of one point on the lens LE acquired using the edge information acquisition unit 200 provided in the lens rim processing device 90, and the image data acquisition mechanism provided in the cup attachment device 1. Position coordinates of points on each radial angle of the lens LE acquired using 60 are associated with each other. As a result, the lens LE held by the lens chuck shaft 102 can correspond to the bevel formation data created by the cup attaching device 1 .

<加工制御データの取得(S11)>
例えば、制御部95は、取得したレンズLE上の1点のコバ情報(すなわち、第2コバ情報)と、ヤゲン形成データ(すなわち、第1コバ情報と仕上げ加工位置とから作成したヤゲン形成データ)と、に基づいて、レンズLEの周縁を加工するための加工制御データを取得する。例えば、加工制御データとしては、レンズ回転ユニット100a、チャック軸移動ユニット100b、及び軸間距離変動ユニット100cの少なくともいずれかを駆動させるための駆動量が算出される。なお、レンズチャック軸102に保持されたレンズLEは、測定子201にその点P1が接触した状態である。このため、本実施例では、レンズLEが測定子201に接触した位置からの駆動量が、加工制御データとして算出される。もちろん、制御部95は、レンズチャック軸102を初期位置に戻し、初期位置からの駆動量を加工制御データとして算出してもよい。
<Acquisition of machining control data (S11)>
For example, the control unit 95 controls the acquired edge information of one point on the lens LE (that is, the second edge information) and bevel formation data (that is, bevel formation data created from the first edge information and the finishing position). and obtain processing control data for processing the peripheral edge of the lens LE. For example, as the processing control data, a drive amount for driving at least one of the lens rotation unit 100a, the chuck axis movement unit 100b, and the interaxis distance variation unit 100c is calculated. Note that the lens LE held by the lens chuck shaft 102 is in a state where the probe 201 is in contact with the point P1. Therefore, in this embodiment, the driving amount from the position where the lens LE contacts the stylus 201 is calculated as the processing control data. Of course, the controller 95 may return the lens chuck shaft 102 to the initial position and calculate the drive amount from the initial position as the processing control data.

<コバの加工(S12)>
例えば、制御部95は、加工制御データに基づいてレンズチャック軸102をX方向、Y方向、及びZ方向の少なくともいずれかに移動させ、加工ユニット300の砥石310上にレンズLEを位置させる。また、例えば、制御部95は、加工制御データに基づいてレンズチャック軸102をX方向、Y方向、及びZ方向の少なくともいずれかに移動させ、砥石310に対するレンズLEの相対的な位置関係を調整する。例えば、これによって、レンズLEの周縁が加工(例えば、粗加工、ヤゲン加工、等)される。例えば、操作者は、左レンズについてこのようにレンズLEの周縁を加工すると、右レンズをレンズチャック軸102により保持させ、上記と同様にしてレンズLEの周縁を加工する。
<Processing Edge (S12)>
For example, the controller 95 moves the lens chuck shaft 102 in at least one of the X, Y, and Z directions based on the processing control data to position the lens LE on the grindstone 310 of the processing unit 300 . Also, for example, the control unit 95 moves the lens chuck shaft 102 in at least one of the X direction, the Y direction, and the Z direction based on the processing control data, and adjusts the relative positional relationship of the lens LE with respect to the grindstone 310. do. For example, this causes the periphery of the lens LE to be processed (eg, roughed, beveled, etc.). For example, after processing the peripheral edge of the left lens in this manner, the operator causes the right lens to be held by the lens chuck shaft 102 and processes the peripheral edge of the lens LE in the same manner as described above.

以上説明したように、例えば、本実施例における軸出し装置は、眼鏡レンズの周縁を加工するために眼鏡レンズを挟み込んで保持するレンズ保持手段の、眼鏡レンズに対する取付け位置である軸出し位置を設定する軸出し位置設定手段と、眼鏡レンズのコバに関する情報であるコバ情報を取得するコバ情報取得手段と、を備える。これにより、従来はレンズ周縁加工装置を用いて取得していたコバ情報を、軸出し装置を用いて取得することができるようになる。従って、レンズ周縁加工装置の使用時間が短くなり、眼鏡の作製にかかる時間を相対的に短縮することができる。 As described above, for example, the centering device of the present embodiment sets the centering position, which is the mounting position of the lens holding means that holds the spectacle lens by sandwiching it, with respect to the spectacle lens. and edge information acquiring means for acquiring edge information, which is information relating to the edge of the spectacle lens. As a result, the edge information, which has conventionally been obtained using a lens edge processing device, can now be obtained using an axis alignment device. Therefore, the usage time of the lens rim processing device is shortened, and the time required for manufacturing eyeglasses can be relatively shortened.

また、例えば、本実施例における軸出し装置は、眼鏡レンズのコバ情報を取得するためのコバ測定手段を有し、コバ測定手段を制御することによって眼鏡レンズを測定し、コバ情報を取得する。これによって、軸出し装置を用いて眼鏡レンズのコバ情報を測定することが可能となり、レンズ周縁加工装置の使用時間を短くすることができる。 Further, for example, the axis alignment device in the present embodiment has an edge measuring means for acquiring edge information of the spectacle lens, measures the spectacle lens by controlling the edge measuring means, and acquires the edge information. As a result, it is possible to measure the edge information of the spectacle lens using the centering device, and it is possible to shorten the operating time of the lens edge processing device.

また、例えば、本実施例における軸出し装置は、眼鏡レンズにおける玉型形状を取得する玉型形状取得手段を備える。これによって、軸出し装置が備えるコバ情報取得手段は、眼鏡レンズの玉型形状に基づいてコバ測定手段を制御することができ、玉型形状に基づいた位置のコバ情報を取得することができる。 Further, for example, the centering device in the present embodiment includes a target shape obtaining means for obtaining the target shape of the spectacle lens. As a result, the edge information acquiring means provided in the axis alignment device can control the edge measuring means based on the target lens shape of the spectacle lens, and can acquire positional edge information based on the target lens shape.

また、例えば、本実施例における軸出し装置は、眼鏡レンズのコバ情報に基づいて、コバの仕上げ加工位置を設定する仕上げ加工位置設定手段を備える。これによって、従来はレンズ周縁加工装置を用いて設定していた仕上げ加工位置を、軸出し装置を用いて設定することができる。従って、レンズ周縁加工装置の使用時間が短くなるとともに、レンズ周縁加工装置の待ち時間が緩和され、眼鏡の作製にかかる時間をさらに短縮することができる。 Further, for example, the centering device in the present embodiment includes finishing position setting means for setting the finishing position of the edge based on the edge information of the spectacle lens. As a result, the finishing position, which has conventionally been set using a lens edge processing device, can be set using the centering device. Therefore, the usage time of the lens edge processing device is shortened, the waiting time of the lens edge processing device is reduced, and the time required for manufacturing the spectacles can be further shortened.

また、例えば、本実施例における軸出し装置は、コバ情報に基づいた仕上げ加工位置を表示手段に表示し、表示手段上で仕上げ加工位置を調整するための操作手段からの操作信号に基づいて、仕上げ加工位置を設定する。これによって、操作者は、眼鏡レンズに形成される仕上げ加工位置を把握しやすくなる。また、操作者は、眼鏡レンズに形成される仕上げ加工位置を調整しやすくなる。 Further, for example, the alignment device in the present embodiment displays the finish machining position based on the edge information on the display means, and based on the operation signal from the operation means for adjusting the finish machining position on the display means, Set the finishing position. This makes it easier for the operator to grasp the finishing position formed on the spectacle lens. In addition, the operator can easily adjust the finishing position formed on the spectacle lens.

また、例えば、本実施例における軸出し装置は、左眼鏡レンズの仕上げ加工位置と右眼鏡レンズの仕上げ加工位置とを表示手段に比較可能に表示し、操作手段からの操作信号に基づいて、左眼鏡レンズと右眼鏡レンズとの少なくとも一方の仕上げ加工位置を設定する。これによって、操作者は、左眼鏡レンズ及び右眼鏡レンズにおける仕上げ加工位置のバランスを把握しやすくなる。また、操作者は、仕上げ加工位置のバランスを考慮して、左眼鏡レンズ及び右眼鏡レンズに対して設定された仕上げ加工位置をそれぞれ調整することができる。従って、操作者は、見栄えのよい眼鏡を作製しやすくなる。 Further, for example, the centering device in the present embodiment displays the finishing position of the left spectacle lens and the finishing position of the right spectacle lens on the display means in a comparable manner, and based on the operation signal from the operation means, A finishing position for at least one of the spectacle lens and the right spectacle lens is set. This makes it easier for the operator to grasp the balance of the finishing positions on the left spectacle lens and the right spectacle lens. Further, the operator can adjust the finishing positions set for the left spectacle lens and the right spectacle lens in consideration of the balance of the finishing positions. Therefore, it becomes easier for the operator to produce good-looking eyeglasses.

また、例えば、本実施例における軸出し装置は、眼鏡レンズの屈折率を取得する屈折率取得手段と、眼鏡レンズの前面における前面像データと、眼鏡レンズの後面における後面像データと、を含む断面画像データを取得する画像データ取得手段と、屈折率及び断面画像データに基づいて、眼鏡レンズのコバに関する情報であるコバ情報を取得するコバ情報取得手段と、を備えてもよい。これによって、眼鏡レンズがもつ屈折率により変化した断面画像データを用いて、眼鏡レンズのコバ情報を効率よく取得することができる。 Further, for example, the axis alignment device in the present embodiment includes refractive index acquisition means for acquiring the refractive index of the spectacle lens, anterior image data of the anterior surface of the spectacle lens, and posterior image data of the posterior surface of the spectacle lens. An image data acquiring means for acquiring image data, and an edge information acquiring means for acquiring edge information, which is information relating to the edge of the spectacle lens, based on the refractive index and cross-sectional image data. This makes it possible to efficiently acquire the edge information of the spectacle lens by using the cross-sectional image data changed by the refractive index of the spectacle lens.

また、例えば、本実施例における軸出し装置は、眼鏡レンズの前面または後面に向けて測定光束を投光する投光光学系と、測定光束が眼鏡レンズの前面で反射された第1反射光束と、測定光束が眼鏡レンズの後面で反射された第2反射光束と、を受光素子によって受光する受光光学系と、を備える。これによって、画像データ取得手段は、第1反射光束により形成された前面像データと、第2反射光束により形成された後面像データと、を含む断面画像データを容易な構成で取得することができる。また、画像データ取得手段は、測定光束により非接触で断面画像データを取得することができる。従って、眼鏡レンズのコバ情報を効率的に取得することができる。 Further, for example, the axis alignment device in this embodiment includes a light projecting optical system that projects a measurement light beam toward the front surface or the rear surface of the spectacle lens, and a first reflected light beam that is the measurement light beam reflected by the front surface of the spectacle lens. , a second reflected beam of light reflected by the rear surface of the spectacle lens, and a light-receiving optical system for receiving a light-receiving element. Thereby, the image data acquiring means can acquire the cross-sectional image data including the front image data formed by the first reflected light flux and the rear image data formed by the second reflected light flux with a simple configuration. . Further, the image data acquiring means can acquire cross-sectional image data in a non-contact manner using the measurement light flux. Therefore, it is possible to efficiently acquire the edge information of the spectacle lens.

なお、本実施例においては、眼鏡レンズを載置するためのレンズ支持手段と、眼鏡レンズの周縁を加工するために眼鏡レンズを挟み込んで保持するレンズ保持手段の、眼鏡レンズに対する取付け位置である軸出し位置を設定する軸出し位置設定手段であって、レンズ支持手段に載置された眼鏡レンズの軸出し位置を設定する軸出し位置設定手段と、を備える軸出し装置が、レンズ形状測定装置としての役割を兼ねる。例えば、操作者は、軸出し装置を用いて眼鏡レンズのコバ情報を非接触で測定することができるため、眼鏡レンズのコバ情報を効率的に取得することができるようになる。 In this embodiment, the axis, which is the mounting position of the lens supporting means for placing the spectacle lens and the lens holding means for sandwiching and holding the spectacle lens for processing the peripheral edge of the spectacle lens, is attached to the spectacle lens. An axis alignment device comprising: axis alignment position setting means for setting the alignment position, the axis alignment position setting means for setting the axis alignment position of the spectacle lens mounted on the lens support means, as a lens shape measuring device It also serves as the role of For example, since the operator can measure the edge information of the spectacle lens in a non-contact manner using the axis alignment device, the edge information of the spectacle lens can be obtained efficiently.

また、本実施例においては、レンズ保持手段により保持された眼鏡レンズの周縁を加工するための加工具を備えるレンズ周縁加工装置が、レンズ形状測定装置としての役割を兼ねる。例えば、操作者は、レンズ周縁加工装置を用いて眼鏡レンズのコバ情報を非接触で測定することができるため、眼鏡レンズのコバ情報を効率的に取得することができるようになる。 In addition, in this embodiment, the lens peripheral edge processing device having a processing tool for processing the peripheral edge of the spectacle lens held by the lens holding means also serves as a lens shape measuring device. For example, since the operator can measure the edge information of the spectacle lens in a non-contact manner using the lens rim processing device, the edge information of the spectacle lens can be obtained efficiently.

<変容例>
なお、本実施例においては、レンズLEを保持する構成として、支持ピン14にレンズLEを載置する構成を例に挙げて説明したがこれに限定されない。例えば、レンズLEを保持する構成としては、レンズLEを挟持する構成でもよい。この場合には、レンズLEの側面(周縁)を挟持する構成、レンズLEの前面と後面を挟持する構成、等が挙げられる。
<transformation example>
In this embodiment, as a configuration for holding the lens LE, a configuration in which the lens LE is placed on the support pins 14 has been described as an example, but the configuration is not limited to this. For example, the structure for holding the lens LE may be a structure for sandwiching the lens LE. In this case, a configuration in which the side surface (periphery) of the lens LE is sandwiched, a configuration in which the front surface and the rear surface of the lens LE are sandwiched, and the like can be mentioned.

また、本実施例においては、円筒ベース11を回転させることによって(言い換えると、支持ピン14を回転させることによって)支持ピン14に載置したレンズLEを回転させる構成を例に挙げて説明したがこれに限定されない。例えば、レンズLEの表面にカップCuを軸打ちした際に、カップCuと装着部31とを離さず、装着部31を中心軸K2の軸回りに回転させる構成としてもよい。 Further, in the present embodiment, the configuration in which the lens LE mounted on the support pins 14 is rotated by rotating the cylindrical base 11 (in other words, by rotating the support pins 14) has been described as an example. It is not limited to this. For example, when the cup Cu is axially struck on the surface of the lens LE, the mounting portion 31 may be rotated around the central axis K2 without separating the cup Cu and the mounting portion 31 .

なお、本実施例においては、画像データ取得機構60が、撮像素子69により撮像されたレンズLEの断面画像を取得する構成を例に挙げて説明したがこれに限定されない。例えば、画像データ取得機構60は、断面画像を取得する前の信号データを取得する構成であってもよい。 In this embodiment, the image data acquisition mechanism 60 acquires a cross-sectional image of the lens LE captured by the imaging element 69, but the configuration is not limited to this. For example, the image data acquisition mechanism 60 may be configured to acquire signal data before acquiring a cross-sectional image.

なお、本実施例においては、画像データ取得機構60が、断面画像データ75に基づいて取得したコバ情報をレンズLEの屈折率に基づいて補正することで、コバ情報を取得する構成を例に挙げて説明したがこれに限定されない。例えば、画像データ取得機構60は、レンズLEの屈折率に基づいて断面画像データ75を補正し、補正した断面画像データに基づいて、レンズLEのコバ情報を取得する構成としてもよい。もちろん、この場合にも、画像データ取得機構60は、レンズLEの前面カーブ値を考慮して、取得したレンズLEのコバ厚tをさらに補正するようにしてもよい。 In this embodiment, the image data acquisition mechanism 60 acquires edge information by correcting the edge information acquired based on the cross-sectional image data 75 based on the refractive index of the lens LE. has been described, but it is not limited to this. For example, the image data acquisition mechanism 60 may be configured to correct the cross-sectional image data 75 based on the refractive index of the lens LE and acquire the edge information of the lens LE based on the corrected cross-sectional image data. Of course, also in this case, the image data acquisition mechanism 60 may further correct the acquired edge thickness t of the lens LE in consideration of the front curve value of the lens LE.

なお、本実施例においては、画像データ取得機構60が、レンズLEの水平方向における回転とZ方向移動機構63とによって、測定光束の照射位置をレンズLEの玉型形状TGに基づいた位置に調整する構成を例に挙げて説明したがこれに限定されない。例えば、画像データ取得機構60は、測定光学系61の左右方向(X方向)における位置を調整するためのX方向移動機構をさらに備え、X方向移動機構とZ方向移動機構63とによって、測定光束の照射位置を調整してもよい。この場合には、レンズLEを水平方向に回転させなくても、測定光束の照射位置をレンズLEの玉型形状TGに基づいた位置に調整することができる。 In this embodiment, the image data acquisition mechanism 60 adjusts the irradiation position of the measurement light flux to a position based on the target lens shape TG of the lens LE by rotating the lens LE in the horizontal direction and the Z-direction moving mechanism 63. Although the configuration has been described as an example, it is not limited to this. For example, the image data acquisition mechanism 60 further includes an X-direction movement mechanism for adjusting the position of the measurement optical system 61 in the left-right direction (X-direction). may be adjusted. In this case, the irradiation position of the measurement light flux can be adjusted to a position based on the target lens shape TG of the lens LE without rotating the lens LE in the horizontal direction.

なお、本実施例においては、Y方向移動機構62を駆動して測定光学系61を移動させることで、レンズLEにおけるコバの前面位置を求める構成を例に挙げて説明したがこれに限定されない。例えば、Y方向移動機構62を駆動せずに測定光学系61を固定配置して、レンズLEにおけるコバの前面位置を求める構成であってもよい。例えば、この場合、制御部70は、各断面画像データ75に表示された前面像データP1sの位置から、レンズLEのコバの前面位置を特定するようにしてもよい。もちろん、Y方向移動機構62により測定光学系61が移動した移動量と、各断面画像データ75に表示された前面像データP1sの位置と、の双方に基づいて、レンズLEにおけるコバの前面位置を求める構成であってもよい。 In this embodiment, the Y-direction moving mechanism 62 is driven to move the measurement optical system 61 to determine the front surface position of the edge of the lens LE. However, the present invention is not limited to this. For example, the measurement optical system 61 may be fixed without driving the Y-direction moving mechanism 62 to determine the front surface position of the edge of the lens LE. For example, in this case, the control unit 70 may specify the front position of the edge of the lens LE from the position of the front image data P1s displayed in each cross-sectional image data 75 . Of course, the front position of the edge of the lens LE is determined based on both the amount of movement of the measuring optical system 61 by the Y-direction moving mechanism 62 and the position of the front image data P1s displayed in each cross-sectional image data 75. Any desired configuration may be used.

なお、本実施例においては、画像データ取得機構60が備える撮像素子69を、その受光面が光軸L4に対して垂直となるように配置する構成を例に挙げて説明したがこれに限定されない。例えば、撮像素子69は傾斜可能に配置されてもよい。これによって、レンズLEの屈折率及び前面カーブ値によって、撮像素子69の焦点位置がレンズLEの前面と後面でずれてしまっても、撮像素子69の受光面の角度を変化させて、焦点位置を適切に合わせることができる。 In this embodiment, the image pickup device 69 included in the image data acquisition mechanism 60 is arranged so that its light receiving surface is perpendicular to the optical axis L4. However, the present invention is not limited to this. . For example, the imaging device 69 may be arranged tiltably. As a result, even if the focal position of the image sensor 69 deviates between the front surface and the rear surface of the lens LE due to the refractive index and front curve value of the lens LE, the focal position can be adjusted by changing the angle of the light receiving surface of the image sensor 69. can be properly matched.

なお、本実施例においては、画像データ取得機構60が備える光源65から、点状の測定光束が照射される構成を例に挙げて説明したがこれに限定されない。例えば、光源65からスリット状の測定光束を照射する構成としてもよい。この場合には、光源65とレンズLEとの間にスリット板とレンズとを設け、光源65から照射された測定光束を細いスリット状に制限して、レンズLEに集光させもよい。これによって、レンズLEには所定の幅をもったスリット状の測定光束が照射されるので、撮像素子69はレンズLEの所定の幅の前面及び後面の像を撮像することができる。また、このように撮像された断面画像データ75を画像処理することで、レンズLEの前面カーブ値及び後面カーブ値を求めることもできる。 In the present embodiment, the configuration in which the light source 65 provided in the image data acquisition mechanism 60 irradiates the point-like measuring light flux is described as an example, but the present invention is not limited to this. For example, the light source 65 may emit a slit-shaped measurement light beam. In this case, a slit plate and a lens may be provided between the light source 65 and the lens LE to restrict the measurement light flux emitted from the light source 65 to a narrow slit shape and focus the light on the lens LE. As a result, the lens LE is irradiated with a slit-shaped measurement light beam having a predetermined width, so that the imaging element 69 can image the front and rear surfaces of the lens LE having a predetermined width. Further, by image-processing the cross-sectional image data 75 imaged in this way, the front surface curve value and the rear surface curve value of the lens LE can also be obtained.

また、本実施例においては、画像データ取得機構60が備える光源65から、点状の測定光束をレンズLEの1点に向けて照射する構成を例に挙げて説明したがこれに限定されない。例えば、光源65を移動可能に配置し、点状の測定光束をライン状に走査する構成としてもよい。これによっても、撮像素子69はレンズLEの所定の幅の前面及び後面の像を撮像することができる。従って、制御部70は、断面画像データ75を画像処理し、レンズLEの前面カーブ値及び後面カーブ値を求めることができる。 In this embodiment, the light source 65 provided in the image data acquisition mechanism 60 irradiates a point-like measurement light flux toward one point on the lens LE as an example, but the present invention is not limited to this. For example, the light source 65 may be movably arranged, and a point-like measurement light flux may be scanned in a line. This also allows the imaging device 69 to capture images of the front and rear surfaces of the lens LE with a predetermined width. Therefore, the control unit 70 can image-process the cross-sectional image data 75 and obtain the front surface curve value and the rear surface curve value of the lens LE.

なお、本実施例においては、画像データ取得機構60がレンズLEの動径角毎に断面画像データ75を取得し、制御部70が断面画像データ75に基づいてコバ情報を取得する構成を例に挙げて説明したがこれに限定されない。例えば、レンズLEにおいて断面画像データ75を取得していない位置(例えば、玉型形状に対応する点と点の間の位置、等)については、周辺の動径角における断面画像データ75に基づいたコバ情報を用いて補間することで、その位置のコバ情報を取得するようにしてもよい。 In this embodiment, the image data acquisition mechanism 60 acquires cross-sectional image data 75 for each radial angle of the lens LE, and the control unit 70 acquires edge information based on the cross-sectional image data 75 as an example. Although they have been mentioned and explained, they are not limited to these. For example, for positions for which the cross-sectional image data 75 has not been acquired in the lens LE (for example, positions between points corresponding to the target lens shape, etc.), The edge information at that position may be obtained by performing interpolation using the edge information.

なお、本実施例においては、画像データ取得機構60が備える光源65が、レンズLEの玉型形状に基づいた位置に測定光束を照射する構成を例に挙げて説明したがこれに限定されない。例えば、レンズLE上におけるいずれかの位置で測定される構成であってもよい。一例として、例えば、光源65は、レンズLEのレンズ面に穴を開ける加工を施す場合等には、穴位置に測定光束を照射するようにしてもよい。これによって、レンズLEの穴位置におけるコバ情報(例えば、コバ厚等)や、前後面のカーブ値を取得することができる。 In this embodiment, the light source 65 provided in the image data acquisition mechanism 60 irradiates the measuring light flux to the position based on the target lens shape of the lens LE as an example, but the present invention is not limited to this. For example, it may be configured to be measured at any position on the lens LE. As an example, the light source 65 may irradiate the hole position with the measurement light flux when, for example, the lens surface of the lens LE is drilled. As a result, edge information (for example, edge thickness, etc.) at the hole position of the lens LE and curve values of the front and rear surfaces can be obtained.

なお、例えば、画像データ取得機構60が備える撮像素子69は、レンズLEのカーブ値によっては、反射光束(例えば、第1反射光束R1または第2反射光束R2少なくともいずれか)の輝度レベルが良好でなく、レンズLEの断面画像データ75を精度よく取得できない場合がある。このため、例えば、制御部70は、光源65から照射される測定光束の投光光量を制御することによって、輝度レベルを制御してもよい。この場合、制御部70は、断面画像データ75から輝度レベル(輝度値)を検出し、検出した輝度レベルが所定の閾値を満たすか否かを判定してもよい。なお、所定の閾値は、実験やシミュレーション等によって、予め輝度レベルが良好であると判定されるような閾値が設定されていてもよい。 For example, the imaging element 69 included in the image data acquisition mechanism 60 may have a good luminance level of the reflected light flux (for example, at least one of the first reflected light flux R1 and the second reflected light flux R2) depending on the curve value of the lens LE. Therefore, the cross-sectional image data 75 of the lens LE may not be obtained with high accuracy. Therefore, for example, the control unit 70 may control the brightness level by controlling the amount of light projected from the light source 65 of the measurement light flux. In this case, the control unit 70 may detect a luminance level (luminance value) from the cross-sectional image data 75 and determine whether the detected luminance level satisfies a predetermined threshold. It should be noted that the predetermined threshold value may be set in advance by experiments, simulations, or the like, such that the brightness level is determined to be good.

例えば、制御部70は、その判定結果に基づいて、光源65の投光光量を制御(変更)する。例えば、制御部70は、断面画像データ75の輝度レベルが所定の閾値を満たさない(例えば、所定の閾値より小さい)と判定した場合に、断面画像データ75の輝度レベルが所定の閾値を満たすように、光源65の投光光量を増加させる。また、例えば、制御部70は、断面画像データ75の輝度レベルが所定の閾値を満たす(例えば、所定の閾値以上である)と判定した場合に、輝度レベルの制御を行わず、光源65の投光光量を維持する。もちろん、制御部70は、断面画像データ75の輝度レベルが所定の閾値を満たすと判定した場合であっても、より適正な輝度レベルとなるように、輝度レベルの制御を行うようにしてもよい。これによって、様々なカーブ値のレンズLEに対応させて、レンズLEの断面画像データ75を精度よく取得できる。 For example, the control unit 70 controls (changes) the amount of light projected from the light source 65 based on the determination result. For example, when the control unit 70 determines that the brightness level of the cross-sectional image data 75 does not satisfy a predetermined threshold (for example, smaller than a predetermined threshold), the control unit 70 controls the brightness level of the cross-sectional image data 75 to satisfy the predetermined threshold. Then, the amount of light projected from the light source 65 is increased. Further, for example, when the control unit 70 determines that the brightness level of the cross-sectional image data 75 satisfies a predetermined threshold value (e.g., is equal to or greater than a predetermined threshold value), the control unit 70 does not control the brightness level, and the light source 65 is projected. Maintain light intensity. Of course, even when the control unit 70 determines that the luminance level of the cross-sectional image data 75 satisfies the predetermined threshold value, the luminance level may be controlled so as to obtain a more appropriate luminance level. . As a result, the cross-sectional image data 75 of the lens LE can be obtained with high accuracy corresponding to the lens LE having various curve values.

なお、本実施例においては、断面画像データ75から取得されるレンズLEの前面像データP1sと後面像データQ2sとの間隔hを、レンズLEの屈折率に基づいて補正することによって、レンズLEのコバ厚tを求める構成を例に挙げて説明したがこれに限定されない。例えば、断面画像データ75をレンズLEの屈折率に基づいて補正し、補正した後の前面像データと後面像データの間隔hを算出することによって、レンズLEのコバ厚tを求めてもよい。なお、断面画像データ75は、レンズLEの屈折率と、レンズLEの前面カーブ値と、光学中心位置Oから各動径角の点までの距離Dと、の少なくともいずれかに基づいて補正されてもよい。 In this embodiment, the distance h between the front image data P1s and the rear image data Q2s of the lens LE obtained from the cross-sectional image data 75 is corrected based on the refractive index of the lens LE. Although the configuration for obtaining the edge thickness t has been described as an example, the present invention is not limited to this. For example, the edge thickness t of the lens LE may be obtained by correcting the cross-sectional image data 75 based on the refractive index of the lens LE and calculating the interval h between the corrected front image data and the rear image data. Note that the cross-sectional image data 75 is corrected based on at least one of the refractive index of the lens LE, the front curve value of the lens LE, and the distance D from the optical center position O to each radial angle point. good too.

なお、本実施例においては、カップ取付装置1を用いて軸打ちを行った後に、断面画像データ75及びコバ情報(例えば、レンズLEのコバ厚t)を取得する構成を例に挙げて説明したがこれに限定されない。本実施例では、カップ取付装置1を用いて、軸打ち、断面画像データ75の取得、及びコバ情報の取得、が行われる構成であればよい。例えば、この場合には、断面画像データ75及びコバ情報を取得した後に、レンズLEへの軸打ちを行ってもよい。 In the present embodiment, the configuration for acquiring the cross-sectional image data 75 and the edge information (for example, the edge thickness t of the lens LE) after the axial striking is performed using the cup mounting device 1 has been described as an example. is not limited to this. In the present embodiment, it is sufficient that the cup mounting device 1 is used to perform axial striking, acquisition of cross-sectional image data 75, and acquisition of edge information. For example, in this case, after obtaining the cross-sectional image data 75 and the edge information, the lens LE may be punched.

なお、本実施例では、カップ取付装置1が測定光学系61を用いてレンズLEのコバ情報を取得する構成を例に挙げて説明したがこれに限定されない。例えば、カップ取付装置1は測定子を備え、レンズLEに測定子を当接させることによって、レンズLEのコバ情報を取得する構成であってもよい。 In this embodiment, the configuration in which the cup mounting device 1 acquires the edge information of the lens LE using the measurement optical system 61 has been described as an example, but the present invention is not limited to this. For example, the cup mounting device 1 may be configured to have a tracing stylus, and acquire the edge information of the lens LE by bringing the tracing stylus into contact with the lens LE.

また、本実施例においては、カップ取付装置1を用いてレンズLEの仕上げ加工位置を設定する構成を例に挙げて説明したがこれに限定されない。例えば、レンズLEの仕上げ加工位置は、レンズ周縁加工装置90を用いて設定されてもよい。この場合には、例えば、レンズ周縁加工装置90が備える図示なきディスプレイに、コバ厚に基づいた仕上げ加工位置が表示されてもよい。また、例えば、仕上げ加工位置を調整するための操作信号に基づいて、仕上げ加工位置が設定されるようにしてもよい。また、例えば、左レンズの仕上げ加工位置と右レンズの仕上げ加工位置とが比較可能に表示されてもよい。 Further, in the present embodiment, the configuration for setting the finishing position of the lens LE using the cup mounting device 1 has been described as an example, but the present invention is not limited to this. For example, the finishing position of the lens LE may be set using the lens edge processing device 90 . In this case, for example, the finishing position based on the edge thickness may be displayed on a display (not shown) of the lens edge processing device 90 . Further, for example, the finish machining position may be set based on an operation signal for adjusting the finish machining position. Further, for example, the finishing position of the left lens and the finishing position of the right lens may be displayed so as to be comparable.

なお、本実施例では、レンズ周縁加工装置90を用いて、レンズLEの前面における玉型形状に基づいた動径角の1点のコバ情報(第2コバ情報)を取得する構成を例に挙げて説明したがこれに限定されない。例えば、レンズ周縁加工装置90を用いて、玉型形状に基づいた動径角の複数の点のコバ情報を取得する構成であってもよい。この場合には、例えば、仮想線V1上の2点(すなわち、図13における点P1と点P5)と、仮想線V2上の2点と、の合計4点、等のコバ情報が取得されてもよい。これによって、制御部95は、レンズLEをレンズチャック軸102L及び102Rにより保持したことで生じるレンズLEの変形や傾きを予測することができる。なお、以下ではレンズLEが傾いた場合を一例に挙げて説明する。 In this embodiment, the configuration for acquiring edge information (second edge information) of one point of the radius vector angle based on the target lens shape on the front surface of the lens LE using the lens peripheral edge processing device 90 is taken as an example. has been described, but it is not limited to this. For example, the configuration may be such that the edge information of a plurality of points of the radius vector angle based on the target lens shape is acquired using the lens periphery processing device 90 . In this case, edge information such as four points in total, two points on the virtual line V1 (that is, points P1 and P5 in FIG. 13) and two points on the virtual line V2 are acquired. good too. Thereby, the control unit 95 can predict the deformation and inclination of the lens LE caused by holding the lens LE by the lens chuck shafts 102L and 102R. Note that the case where the lens LE is tilted will be described below as an example.

図13はレンズチャック軸102がレンズLEを保持した状態を示す図である。例えば、図13は仮想線V1による断面を表しており、レンズLEが傾いている。なお、図13では、点P1から回転中心軸K3と垂直な方向に伸びる辺g1と、点P5から回転中心軸K3と水平な方向に伸びる辺g2と、の交点を点P6として説明する。例えば、制御部95は、レンズ周縁加工装置90が備える測定子201にレンズLEの仮想線V1上の2点(すなわち、点P1と点P5)を接触させ、それぞれの点におけるX方向の位置座標を算出する。続いて、制御部95は、辺g1と辺g2の距離をそれぞれ算出する。例えば、制御部95は、点P1と点P5のX方向における座標位置の差分から、辺g2の距離を求める。また、例えば、制御部95は、レンズLEの玉型形状から、辺g1の距離を求める。例えば、本実施例では、回転中心軸K3から点P1までのY方向における距離と、回転中心軸K3から点P5までのY方向における距離と、が玉型形状によりそれぞれ既知であるため、これらに基づいて辺g1の距離を算出することができる。 FIG. 13 shows a state in which the lens chuck shaft 102 holds the lens LE. For example, FIG. 13 represents a cross-section taken by imaginary line V1, in which lens LE is tilted. In FIG. 13, the point P6 is the intersection of the side g1 extending from the point P1 in the direction perpendicular to the rotation center axis K3 and the side g2 extending from the point P5 in the direction parallel to the rotation center axis K3. For example, the control unit 95 causes two points (that is, point P1 and point P5) on the imaginary line V1 of the lens LE to come into contact with the stylus 201 provided in the lens rim processing device 90, and the positional coordinates of each point in the X direction Calculate Subsequently, the control unit 95 calculates the distances of the sides g1 and g2. For example, the control unit 95 obtains the distance of the side g2 from the difference between the coordinate positions of the points P1 and P5 in the X direction. Also, for example, the control unit 95 obtains the distance of the side g1 from the target lens shape of the lens LE. For example, in this embodiment, the distance in the Y direction from the rotation center axis K3 to the point P1 and the distance in the Y direction from the rotation center axis K3 to the point P5 are known from the target lens shape. Based on this, the distance of the side g1 can be calculated.

例えば、制御部95は、辺g1及び辺g2を用いた三角関数により、辺g1と、点P1と点P5とを結ぶ線分と、がなす角度αを計算する。これによって、レンズLEがレンズチャック軸102L及び102Rに対して垂直方向に傾斜した角度を求めることができる。また、例えば、制御部95は、レンズ周縁加工装置90におけるレンズLEの仮想線V2上の2点についても位置座標を算出し、上記と同様にして、レンズLEがレンズチャック軸102L及び102Rに対して水平方向に傾斜した角度を求めることができる。例えば、制御部95は、これらの傾斜角度を考慮して、レンズチャック軸102に保持されたレンズLEに対して、カップ取付装置1にて作成されたヤゲン形成データを対応させるようにしてもよい。 For example, the control unit 95 calculates the angle α between the side g1 and the line segment connecting the points P1 and P5 using a trigonometric function using the sides g1 and g2. This makes it possible to obtain the angle at which the lens LE is tilted in the vertical direction with respect to the lens chuck shafts 102L and 102R. Further, for example, the control unit 95 also calculates the positional coordinates of two points on the imaginary line V2 of the lens LE in the lens edge processing device 90. can be used to find the angle of inclination in the horizontal direction. For example, the control unit 95 may correspond the bevel formation data created by the cup attaching device 1 to the lens LE held by the lens chuck shaft 102 in consideration of these tilt angles. .

なお、本実施例においては、カップ取付装置1がコバ測定機構を有し、コバ測定機構を制御することによって、レンズLEを測定してコバ情報を取得する構成を例に挙げて説明したがこれに限定されない。例えば、カップ取付装置1はコバ測定機構を有さず、別の装置からコバ情報を取得する構成であってもよい。 In this embodiment, the cup mounting device 1 has an edge measuring mechanism, and the edge information is obtained by controlling the edge measuring mechanism to measure the lens LE. is not limited to For example, the cup attaching device 1 may be configured to acquire edge information from another device without having an edge measuring mechanism.

なお、本実施例では、ステップS7の仕上げ加工位置の設定において、制御部70によるヤゲンの仮位置の初期設定及び自動調整と、操作者によるヤゲンの仮位置の手動調整と、をそれぞれ行う構成を例に挙げて説明したがこれに限定されない。例えば、これらの設定及び調整は、少なくともいずれかが行われる構成であればよい。もちろん、これらの設定及び調整は、組み合わせて行われる構成であってもよい。 In this embodiment, in the setting of the finishing position in step S7, initial setting and automatic adjustment of the provisional position of the bevel by the control unit 70 and manual adjustment of the provisional position of the bevel by the operator are performed. Although described as an example, it is not limited to this. For example, at least one of these settings and adjustments may be performed. Of course, these settings and adjustments may be configured to be performed in combination.

1 カップ取付装置
2 ディスプレイ
10 レンズ支持機構
20 フレーム形状測定機構
30 カップ取付機構
40 レンズ情報測定機構
60 画像データ取得機構
70 制御部
71 メモリ
75 断面画像データ
80 シミュレーション画面
90 レンズ周縁加工装置
100 レンズ保持ユニット
102 レンズチャック軸
200 コバ情報取得ユニット
300 加工ユニット
1 cup attachment device 2 display 10 lens support mechanism 20 frame shape measurement mechanism 30 cup attachment mechanism 40 lens information measurement mechanism 60 image data acquisition mechanism 70 control unit 71 memory 75 cross-sectional image data 80 simulation screen 90 lens edge processing device 100 lens holding unit 102 lens chuck shaft 200 edge information acquisition unit 300 processing unit

Claims (4)

眼鏡レンズの周縁を加工するための軸出し装置であって、
前記眼鏡レンズを載置するためのレンズ支持手段と、
前記眼鏡レンズの周縁を加工する際に前記眼鏡レンズを挟み込んで保持するレンズ保持手段によって前記眼鏡レンズを保持させるためのカップを、前記レンズ支持手段に載置された前記眼鏡レンズの表面に取り付けるカップ取付手段と、
を有し、
前記眼鏡レンズの屈折率を取得する屈折率取得手段と、
前記眼鏡レンズが前記レンズ保持手段に保持されるよりも前の工程において、前記眼鏡レンズの前面における前面像データと、前記眼鏡レンズの後面における後面像データと、を含む断面画像データを取得する画像データ取得手段と、
前記屈折率及び前記断面画像データに基づいて、前記眼鏡レンズのコバに関する情報であるコバ情報を取得するコバ情報取得手段と、
を備えることを特徴とする軸出し装置
An axis alignment device for processing the peripheral edge of a spectacle lens,
a lens support means for placing the spectacle lens;
A cup attached to the surface of the spectacle lens mounted on the lens support means for holding the spectacle lens by means of lens holding means for sandwiching and holding the spectacle lens when the peripheral edge of the spectacle lens is processed. attachment means;
has
a refractive index obtaining means for obtaining the refractive index of the spectacle lens;
An image for acquiring cross-sectional image data including front image data on the front surface of the spectacle lens and rear surface image data on the rear surface of the spectacle lens in a step before the spectacle lens is held by the lens holding means data acquisition means;
edge information acquiring means for acquiring edge information, which is information relating to the edge of the spectacle lens, based on the refractive index and the cross-sectional image data;
An axis alignment device comprising:
請求項1の軸出し装置において、
前記眼鏡レンズの前記前面または前記後面に向けて測定光束を投光する投光光学系と、
前記測定光束が前記眼鏡レンズの前記前面で反射された第1反射光束と、前記測定光束が前記眼鏡レンズの前記後面で反射された第2反射光束と、を受光素子によって受光する受光光学系と、を備え、
前記画像データ取得手段は、前記第1反射光束により形成された前記前面像データと、前記第2反射光束により形成された前記後面像データと、を含む前記断面画像データを取得することを特徴とする軸出し装置
In the axial alignment device of claim 1,
a light projecting optical system that projects a measurement light beam toward the front surface or the rear surface of the spectacle lens;
a light-receiving optical system for receiving a first reflected light beam obtained by reflecting the measurement light beam from the front surface of the spectacle lens and a second reflected light beam obtained by reflecting the measurement light beam from the rear surface of the spectacle lens by a light receiving element; , and
The image data acquiring means acquires the cross-sectional image data including the front image data formed by the first reflected light flux and the rear image data formed by the second reflected light flux. Axis alignment device .
請求項1または2の軸出し装置において、
前記コバ情報取得手段は、前記屈折率に基づいて、前記断面画像データを補正し、補正した前記断面画像データに基づいて、前記コバ情報を取得することを特徴とする軸出し装
The axis alignment device according to claim 1 or 2,
The edge information acquiring means corrects the cross-sectional image data based on the refractive index, and acquires the edge information based on the corrected cross-sectional image data .
請求項1または2の軸出し装置において、
前記コバ情報取得手段は、前記断面画像データに基づいて取得したコバ情報を前記屈折率に基づいて補正することで、前記コバ情報を取得することを特徴とする軸出し装置
The axis alignment device according to claim 1 or 2,
The edge information acquiring means acquires the edge information by correcting the edge information acquired based on the cross-sectional image data based on the refractive index.
JP2017233835A 2017-12-05 2017-12-05 Alignment device Active JP7172029B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017233835A JP7172029B2 (en) 2017-12-05 2017-12-05 Alignment device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017233835A JP7172029B2 (en) 2017-12-05 2017-12-05 Alignment device

Publications (3)

Publication Number Publication Date
JP2019100928A JP2019100928A (en) 2019-06-24
JP2019100928A5 JP2019100928A5 (en) 2020-12-17
JP7172029B2 true JP7172029B2 (en) 2022-11-16

Family

ID=66973449

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017233835A Active JP7172029B2 (en) 2017-12-05 2017-12-05 Alignment device

Country Status (1)

Country Link
JP (1) JP7172029B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210040265A (en) 2019-10-03 2021-04-13 가부시키가이샤 니데크 Eyeglass frame manufacturing system and recording medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001356007A (en) 2000-04-10 2001-12-26 Seiko Epson Corp Method and apparatus for recognizing image as well as positioning device
JP2012173391A (en) 2011-02-18 2012-09-10 Canon Inc Image generation device and image generation method
JP2014233788A (en) 2013-05-31 2014-12-15 株式会社ニデック Spectacle lens processing device and spectacle lens vertical direction detection program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2770540B2 (en) * 1990-03-09 1998-07-02 株式会社ニコン Lens shape measuring device and grinding device having the same
JP2768857B2 (en) * 1991-10-29 1998-06-25 シャープ株式会社 Liquid crystal display substrate cutting method
US6975410B1 (en) * 2002-04-15 2005-12-13 Sturgill Dennis T Measuring device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001356007A (en) 2000-04-10 2001-12-26 Seiko Epson Corp Method and apparatus for recognizing image as well as positioning device
JP2012173391A (en) 2011-02-18 2012-09-10 Canon Inc Image generation device and image generation method
JP2014233788A (en) 2013-05-31 2014-12-15 株式会社ニデック Spectacle lens processing device and spectacle lens vertical direction detection program

Also Published As

Publication number Publication date
JP2019100928A (en) 2019-06-24

Similar Documents

Publication Publication Date Title
JP5547105B2 (en) Dimension measuring apparatus, dimension measuring method and program for dimension measuring apparatus
EP1997585B1 (en) Cup attaching apparatus
CN110998225B (en) Spectacle frame shape measuring device and lens processing device
JP5679560B2 (en) Dimension measuring apparatus, dimension measuring method and program for dimension measuring apparatus
JP6663808B2 (en) Image measuring device
JP2007275998A (en) Cup mounting device
JP6663807B2 (en) Image measuring device
JP7021468B2 (en) Lens measuring device
JP7087366B2 (en) Axis setting device, spectacle lens processing system, and spectacle lens processing method
JP3215193B2 (en) Method and apparatus for measuring blade shape of rotary tool
JP7172029B2 (en) Alignment device
JP4920285B2 (en) Cup mounting device
JP7243043B2 (en) Target shape measuring device
EP3290892B1 (en) Lens measurement device
CN112577443B (en) Spectacle frame shape measuring device and lens processing device
JP6746894B2 (en) Centering device and centering position setting program
JP6338042B2 (en) Glasses parameter calculation device, glasses parameter calculation program
JP5397889B2 (en) Cup mounting device
JP7052567B2 (en) Eyeglass lens processing control data acquisition device
JP7225644B2 (en) lens measuring device
JP7156288B2 (en) Spectacle frame shape measuring device and spectacle frame shape measuring program
JP2016099375A (en) Manufacturing method of binocular loupe
JPWO2019163723A1 (en) Ball shape acquisition device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201102

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201102

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210928

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20211129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221017

R150 Certificate of patent or registration of utility model

Ref document number: 7172029

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150