JP2019100928A - Lens shape measurement device - Google Patents

Lens shape measurement device Download PDF

Info

Publication number
JP2019100928A
JP2019100928A JP2017233835A JP2017233835A JP2019100928A JP 2019100928 A JP2019100928 A JP 2019100928A JP 2017233835 A JP2017233835 A JP 2017233835A JP 2017233835 A JP2017233835 A JP 2017233835A JP 2019100928 A JP2019100928 A JP 2019100928A
Authority
JP
Japan
Prior art keywords
lens
image data
edge
edge information
spectacle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017233835A
Other languages
Japanese (ja)
Other versions
JP2019100928A5 (en
JP7172029B2 (en
Inventor
隆真 作田
Takamasa Sakuta
隆真 作田
教児 武市
Kyoji Takeichi
教児 武市
通浩 滝井
Michihiro Takii
通浩 滝井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidek Co Ltd
Original Assignee
Nidek Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nidek Co Ltd filed Critical Nidek Co Ltd
Priority to JP2017233835A priority Critical patent/JP7172029B2/en
Publication of JP2019100928A publication Critical patent/JP2019100928A/en
Publication of JP2019100928A5 publication Critical patent/JP2019100928A5/ja
Application granted granted Critical
Publication of JP7172029B2 publication Critical patent/JP7172029B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • A Measuring Device Byusing Mechanical Method (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Eyeglasses (AREA)
  • Grinding And Polishing Of Tertiary Curved Surfaces And Surfaces With Complex Shapes (AREA)

Abstract

To provide a lens shape measurement device capable of efficiently acquiring edge information of a spectacle lens.SOLUTION: A lens shape measurement device for processing the circumference of a spectacle lens includes: refractive index acquiring means for acquiring the refractive index of the spectacle lens; image data acquiring means for acquiring cross section image data including front surface image data on the front side of the spectacle lens and rear surface image data on the rear side of the spectacle lens; and edge information acquiring means for acquiring edge information as information related to the edge of the spectacle lens on the basis of refractive index and cross section image data.SELECTED DRAWING: Figure 1

Description

本開示は、眼鏡レンズの周縁を加工するためのレンズ形状測定装置に関する。   The present disclosure relates to a lens shape measurement apparatus for processing the periphery of an eyeglass lens.

眼鏡レンズの前面及び後面に測定子を当接させ、眼鏡レンズを回転することにより、眼鏡レンズのコバ情報(例えば、コバの前面位置、コバの後面位置、コバ厚、等)を取得するレンズ形状測定装置が知られている。あるいは、このようなレンズ形状測定機構を備えた、眼鏡レンズの周縁を加工するために用いる装置が知られている(例えば、特許文献1参照)。   A lens shape that acquires edge information (for example, front edge position of edge, rear edge position of edge, edge thickness, etc.) by contacting the measuring element with the front and back surfaces of the eyeglass lens and rotating the eyeglass lens Measuring devices are known. Alternatively, there is known an apparatus provided with such a lens shape measurement mechanism, which is used to process the periphery of a spectacle lens (see, for example, Patent Document 1).

特開2014−0046478号公報JP, 2014-0046478, A

ところで、上記の装置においては、測定子が眼鏡レンズのコバ情報を確実に読み取ることができるように、眼鏡レンズを所定の速度以下で回転させている。このため、コバ情報の取得には時間がかかっていた。また、上記の装置においては、コバ厚やカーブ値の異なる様々な眼鏡レンズに対応できるように、装置の構成が複雑になっていた。   By the way, in the above-described apparatus, the spectacle lens is rotated at a predetermined speed or less so that the stylus can reliably read the edge information of the spectacle lens. For this reason, it took time to acquire edge information. Further, in the above-described apparatus, the configuration of the apparatus is complicated so as to be compatible with various spectacle lenses having different edge thickness and curve value.

本開示は、上記従来技術に鑑み、眼鏡レンズのコバ情報を効率よく取得することができるレンズ形状測定装置を提供することを技術課題とする。   This indication makes it a technical subject to provide a lens shape measuring device which can acquire edge information on an eyeglass lens efficiently in view of the above-mentioned conventional technology.

上記課題を解決するため、本開示は以下の構成を備えることを特徴とする。
(1) 本開示の第1態様に係るレンズ形状測定装置は、眼鏡レンズの周縁を加工するためのレンズ形状測定装置であって、前記眼鏡レンズの屈折率を取得する屈折率取得手段と、前記眼鏡レンズの前面における前面像データと、前記眼鏡レンズの後面における後面像データと、を含む断面画像データを取得する画像データ取得手段と、前記屈折率及び前記断面画像データに基づいて、前記眼鏡レンズのコバに関する情報であるコバ情報を取得するコバ情報取得手段と、を備えることを特徴とする。
In order to solve the above-mentioned subject, this indication is characterized by having the following composition.
(1) A lens shape measuring device according to a first aspect of the present disclosure is a lens shape measuring device for processing the peripheral edge of an eyeglass lens, which is a refractive index acquisition unit for acquiring the refractive index of the eyeglass lens; Image data acquisition means for acquiring cross-sectional image data including front image data on the front surface of the spectacle lens and back surface image data on the rear surface of the spectacle lens; and the spectacle lens based on the refractive index and the cross-sectional image data And Koba information acquisition means for acquiring Koba information which is information related to Koba.

カップ取付装置の外観図である。It is an outline view of a cup attachment device. レンズ支持機構の概略構成図である。It is a schematic block diagram of a lens support mechanism. カップ取付機構の概略構成図である。It is a schematic block diagram of a cup attachment mechanism. レンズ情報測定機構の概略構成図である。It is a schematic block diagram of a lens information measurement mechanism. 視標板の一例である。It is an example of a target board. 断面画像データ取得機構の概略構成図である。It is a schematic block diagram of a cross-sectional image data acquisition mechanism. 制御系の概略構成図である。It is a schematic block diagram of a control system. 制御動作を説明するためのフローチャートである。It is a flowchart for demonstrating control operation. 断面画像データの一例である。It is an example of cross-sectional image data. シミュレーション画面の一例である。It is an example of a simulation screen. レンズ周縁加工装置の概略構成図である。It is a schematic block diagram of a lens periphery processing apparatus. レンズのコバ厚が異なる場合のY方向移動機構について説明する図である。It is a figure explaining the Y direction movement mechanism in case the edge thickness of a lens differs. レンズチャック軸がレンズを保持した状態を示す図である。It is a figure which shows the state in which the lens chuck axis | shaft hold | maintained the lens. 前面像データを所定の位置に表示させるための制御について説明する図である。It is a figure explaining control for displaying front image data in a predetermined position.

<概要>
本開示の実施形態に係る軸出し装置の概要について説明する。なお、本開示において符号に付されるL及びRは、それぞれ左用及び右用を示すものである。また、本開示における同一、平行、垂直、等は、それぞれ略同一、略平行、略垂直、等の状態を含む。また、以下の<>にて分類された項目は、独立または関連して利用されうる。
<Overview>
An outline of a centering apparatus according to an embodiment of the present disclosure will be described. In the present disclosure, L and R attached to reference numerals indicate left and right, respectively. Further, the same, parallel, vertical, and the like in the present disclosure include states such as substantially the same, substantially parallel, and substantially vertical, respectively. Also, the items classified by <> below may be used independently or in association.

なお、本開示の技術においては、軸出し装置を例に挙げて説明するが、本開示の技術の少なくとも一部は、軸出し装置に適用される場合に限定されない。例えば、本開示の技術の少なくとも一部は、眼鏡レンズがレンズ保持手段によって保持される前の工程においてレンズを加工するために用いられるレンズ加工用装置において適用可能である。   Although the technology of the present disclosure will be described by taking the centering device as an example, at least a part of the technology of the present disclosure is not limited to the case where it is applied to the centering device. For example, at least a part of the technology of the present disclosure is applicable in a lens processing device used to process a lens in a process before the spectacle lens is held by the lens holding means.

例えば、軸出し装置としては、眼鏡レンズを載置するためのレンズ支持手段(例えば、レンズ支持機構10)と、眼鏡レンズの周縁を加工するために眼鏡レンズを挟み込んで保持するレンズ保持手段(例えば、レンズ保持ユニット100)の、眼鏡レンズに対する取付け位置である軸出し位置を設定する軸出し位置設定手段であって、レンズ支持手段に載置された眼鏡レンズの軸出し位置を設定する軸出し位置設定手段と、を備える軸出し装置であってもよい。また、例えば、軸出し装置としては、レンズ保持手段に眼鏡レンズを保持するためのカップを、軸出し位置設定手段によって設定された軸出し位置に基づいて眼鏡レンズに取り付けるカップ取付手段であって、レンズ支持手段に載置された眼鏡レンズの表面にカップを取り付けるためのカップ取付手段(例えば、カップ取付機構30)を備えるカップ取付装置(例えば、カップ取付装置1)であってもよい。   For example, as the centering device, a lens support means (for example, the lens support mechanism 10) for mounting the eyeglass lens, and a lens holding means (for example, for holding the eyeglass lens for processing the periphery of the eyeglass lens) An alignment position setting means for setting an alignment position which is an attachment position of the lens holding unit 100 with respect to the eyeglass lens, wherein the alignment position for setting the axis alignment position of the eyeglass lens mounted on the lens support means And a setting means. Further, for example, as the centering device, cup mounting means for mounting a cup for holding the eyeglass lens in the lens holding means and attaching the cup to the eyeglass lens based on the centering position set by the centering position setting means, It may be a cup attachment device (for example, the cup attachment device 1) provided with cup attachment means (for example, the cup attachment mechanism 30) for attaching a cup to the surface of the spectacle lens placed on the lens support means.

例えば、軸出し装置は、軸出し位置設定手段(例えば、レンズ情報測定機構40)を備える。軸出し位置設定手段は、眼鏡レンズの周縁を加工するために眼鏡レンズを挟み込んで保持するレンズ保持手段の、眼鏡レンズに対する取付け位置である軸出し位置を設定する。例えば、軸出し位置は、眼鏡レンズの光学中心位置、幾何学中心位置、等の少なくともいずれかであってもよい。   For example, the centering apparatus includes centering position setting means (for example, a lens information measuring mechanism 40). The centering position setting means sets a centering position, which is a mounting position of the lens holding means holding the eyeglass lens to process the periphery of the eyeglass lens, with respect to the eyeglass lens. For example, the centering position may be at least one of the optical center position of the spectacle lens, the geometric center position, and the like.

例えば、軸出し装置は、屈折率取得手段(例えば、制御部70)を備える。屈折率取得手段は、眼鏡レンズの屈折率を取得する。例えば、屈折率取得手段は、軸出し装置とは異なる別の装置が測定した眼鏡レンズの屈折率を取得してもよい。この場合には、操作者が操作手段(例えば、入力ボタン3)を操作することによって、眼鏡レンズの屈折率を入力する構成であってもよい。また、例えば、屈折率取得手段は、眼鏡レンズの屈折率を測定するための屈折率測定手段を備えていてもよい。この場合には、屈折率測定手段が眼鏡レンズの屈折率を測定することによって、眼鏡レンズの屈折率が取得される。   For example, the centering apparatus includes refractive index acquisition means (for example, the control unit 70). The refractive index acquisition means acquires the refractive index of the spectacle lens. For example, the refractive index acquisition means may acquire the refractive index of the spectacle lens measured by another device different from the centering device. In this case, the refractive index of the spectacle lens may be input by the operator operating the operation means (for example, the input button 3). Also, for example, the refractive index acquisition unit may include a refractive index measurement unit for measuring the refractive index of the spectacle lens. In this case, the refractive index of the spectacle lens is obtained by the refractive index measuring means measuring the refractive index of the spectacle lens.

例えば、軸出し装置は、玉型形状取得手段(例えば、フレーム形状測定機構20)を備えていてもよい。玉型形状取得手段は、眼鏡レンズにおける玉型形状を取得する。例えば、眼鏡レンズの玉型形状としては、眼鏡フレームの内周形状、デモレンズの外周形状、等の少なくともいずれかであってもよい。   For example, the centering device may include a lens shape acquisition means (for example, a frame shape measurement mechanism 20). The lens shape obtaining means obtains a lens shape in the spectacle lens. For example, the lens shape of the eyeglass lens may be at least one of an inner peripheral shape of an eyeglass frame, an outer peripheral shape of a demo lens, and the like.

<画像データ取得手段>
例えば、軸出し装置は、画像データ取得手段(例えば、画像データ取得機構60)を備える。画像データ取得手段は、眼鏡レンズの前面における前面像データと、眼鏡レンズの後面における後面像データと、を含む断面画像データを取得する。例えば、本実施形態において、画像データ取得手段は、眼鏡レンズの玉型形状に基づいた断面画像データを取得してもよい。この場合、断面画像データは、眼鏡レンズの玉型形状の全周(各動径角において玉型が形成されるすべての部分)のうち、少なくとも一部の領域において取得されてもよい。この場合、断面画像データは、眼鏡レンズの玉型形状の全周において取得されるようにしてもよい。また、この場合、断面画像データは、眼鏡レンズの玉型形状の全周において、複数の領域(例えば、所定の動径角毎の点、等)で取得されるようにしてもよい。また、この場合、断面画像データは、眼鏡レンズの玉型形状の全周において、一部分の領域で取得されるようにしてもよい。なお、例えば、断面画像データは、画像(画像データ)であってもよい。また、例えば、断面画像データは、信号(信号データ)であってもよい。
<Image data acquisition means>
For example, the alignment apparatus includes an image data acquisition unit (for example, an image data acquisition mechanism 60). The image data acquisition means acquires cross-sectional image data including front image data on the front surface of the spectacle lens and back image data on the rear surface of the spectacle lens. For example, in the present embodiment, the image data acquisition unit may acquire cross-sectional image data based on the lens shape of the spectacle lens. In this case, the cross-sectional image data may be acquired in at least a partial region of the entire circumference of the lens shape of the eyeglass lens (all portions where the lens shape is formed at each radial angle). In this case, the cross-sectional image data may be acquired on the entire periphery of the lens shape of the spectacle lens. Further, in this case, the cross-sectional image data may be acquired in a plurality of regions (for example, points at each predetermined radius vector angle, etc.) over the entire periphery of the lens shape of the spectacle lens. Further, in this case, the cross-sectional image data may be acquired in a partial region over the entire circumference of the lens shape of the spectacle lens. Note that, for example, the cross-sectional image data may be an image (image data). Also, for example, the cross-sectional image data may be a signal (signal data).

<投光光学系>
例えば、画像データ取得手段は、投光光学系(例えば、投光光学系64)を備える。投光光学系は、眼鏡レンズの前面または後面に向けて測定光束を投光する。例えば、投光光学系は、測定光束を眼鏡レンズのレンズ面に対して垂直に照射してもよい。この場合には、測定光束を眼鏡レンズのレンズ面で乱反射させてもよい。また、例えば、投光光学系は、測定光束を眼鏡レンズのレンズ面に対して所定の傾斜角度で照射してもよい。
<Projection optical system>
For example, the image data acquisition unit includes a projection optical system (for example, a projection optical system 64). The projection optical system projects the measurement light flux toward the front or back of the spectacle lens. For example, the projection optical system may irradiate the measurement light flux perpendicularly to the lens surface of the spectacle lens. In this case, the measurement light beam may be irregularly reflected by the lens surface of the spectacle lens. Further, for example, the light projecting optical system may irradiate the measurement light beam at a predetermined inclination angle with respect to the lens surface of the spectacle lens.

例えば、投光光学系は、光源(例えば、光源65)を備えていてもよい。光源は、眼鏡レンズに向けて点状の測定光束を照射する構成であってもよい。この場合、光源としては点光源を用いてもよい。点光源は、1つを配置して1点の測定光束を照射する構成であってもよい。点光源は、複数を並べて配置することによって幅を有する測定光束を照射する構成であってもよい。また、光源は、眼鏡レンズに向けてスリット状の測定光束を照射する構成であってもよい。例えば、この場合には、光源から眼鏡レンズのレンズ面(すなわち、眼鏡レンズの前面または後面)までの間の光路に、スリット板とレンズとを設けてもよい。これによっても、眼鏡レンズに向けて幅を有する測定光束を照射することができる。   For example, the projection optical system may include a light source (for example, the light source 65). The light source may be configured to emit a point-like measurement light flux toward the spectacle lens. In this case, a point light source may be used as the light source. The point light source may be configured to arrange one to emit one measurement light flux. The point light source may be configured to emit a measurement light beam having a width by arranging a plurality of the light sources side by side. In addition, the light source may be configured to irradiate a slit-like measurement light flux toward the spectacle lens. For example, in this case, a slit plate and a lens may be provided in the light path between the light source and the lens surface of the spectacle lens (that is, the front surface or the rear surface of the spectacle lens). Also in this case, it is possible to irradiate a measuring light beam having a width toward the spectacle lens.

例えば、投光光学系は、光学部材を有してもよい。例えば、光学部材としては、レンズ、ミラー、絞り、等の少なくともいずれかを用いてもよい。この場合には、例えば、光源から出射した測定光束が、各光学部材を介して眼鏡レンズのレンズ面に向けて照射されるようにしてもよい。もちろん、光学部材としては、上記の光学部材に限定されず、異なる光学部材が用いられてもよい。   For example, the projection optical system may have an optical member. For example, as the optical member, at least one of a lens, a mirror, a diaphragm, and the like may be used. In this case, for example, the measurement light flux emitted from the light source may be irradiated toward the lens surface of the spectacle lens through each optical member. Of course, as an optical member, it is not limited to said optical member, A different optical member may be used.

<受光光学系>
例えば、画像データ取得手段は、受光光学系(例えば、受光光学系66)を備える。受光光学系は、受光素子(例えば、撮像素子69)を備えていてもよい。受光光学系は、測定光束が眼鏡レンズの前面で反射された第1反射光束と、測定光束が眼鏡レンズの後面で反射された第2反射光束と、を受光素子によって受光する。例えば、受光光学系は、眼鏡レンズのレンズ面にて反射される反射光束(例えば、正反射光、散乱光、等)を受光素子によって受光するようにしてもよい。
<Light receiving optical system>
For example, the image data acquisition unit includes a light receiving optical system (for example, a light receiving optical system 66). The light receiving optical system may include a light receiving element (for example, an imaging element 69). The light receiving optical system receives, by the light receiving element, a first reflected light beam in which the measurement light beam is reflected on the front surface of the spectacle lens and a second reflected light beam in which the measurement light beam is reflected on the rear surface of the spectacle lens. For example, the light receiving optical system may receive a reflected light beam (for example, regular reflected light, scattered light, etc.) reflected by the lens surface of the spectacle lens by the light receiving element.

例えば、本実施形態においては、画像データ取得手段が、第1反射光束により形成された前面像データと、第2反射光束により形成された後面像データと、を含む断面画像データ(例えば、断面画像データ75)を取得する。例えば、これによって、画像データ取得手段は、測定光束により非接触で断面画像データを取得することができる。従って、操作者は、眼鏡レンズのコバ情報を効率的に取得することができる。また、これによって、画像データ取得手段は、断面画像データを容易な構成で取得することができる。   For example, in the present embodiment, the cross-sectional image data (for example, the cross-sectional image data including the front image data formed by the first reflected light beam and the back image data formed by the second reflected light beam) Obtain data 75). For example, this allows the image data acquisition means to acquire cross-sectional image data in a non-contact manner by the measurement light flux. Therefore, the operator can efficiently acquire edge information of the spectacle lens. Moreover, the image data acquisition means can acquire cross-sectional image data by easy structure by this.

例えば、受光光学系は、光学部材を有してもよい。例えば、光学部材としては、レンズ、ミラー、絞り、等の少なくともいずれかを用いてもよい。この場合には、眼鏡レンズのレンズ面により反射された反射光束が、各光学部材を介して受光素子に受光されるようにしてもよい。もちろん、光学部材としては、上記の光学部材に限定されず、異なる光学部材が用いられてもよい。   For example, the light receiving optical system may have an optical member. For example, as the optical member, at least one of a lens, a mirror, a diaphragm, and the like may be used. In this case, the reflected light beam reflected by the lens surface of the spectacle lens may be received by the light receiving element via each optical member. Of course, as an optical member, it is not limited to said optical member, A different optical member may be used.

<コバ情報取得手段>
例えば、軸出し装置は、コバ情報取得手段(例えば、制御部70)を備える。コバ情報取得手段は、眼鏡レンズのコバに関する情報であるコバ情報を取得する。例えば、コバ情報は、眼鏡レンズの前面位置、眼鏡レンズの後面位値、眼鏡レンズのコバ厚、等の少なくともいずれかであってもよい。また、例えば、コバ情報は、眼鏡レンズの前面カーブ値、眼鏡レンズの後面カーブ値、の少なくともいずれかであってもよい。これによって、従来はレンズ周縁加工装置を用いて取得していたコバ情報を、軸出し装置を用いて取得することができるようになる。従って、レンズ周縁加工装置の使用時間が短くなり、眼鏡の作製にかかる時間を相対的に短縮することができる。
<Edge information acquisition means>
For example, the centering apparatus includes edge information acquisition means (for example, the control unit 70). The edge information acquisition means acquires edge information which is information related to the edge of the spectacle lens. For example, the edge information may be at least one of a front position of the spectacle lens, a back position value of the spectacle lens, an edge thickness of the spectacle lens, and the like. Also, for example, the edge information may be at least one of a front curve value of the spectacle lens and a back curve value of the spectacle lens. This makes it possible to obtain edge information, which was conventionally obtained using the lens edge processing device, using the centering device. Therefore, the use time of the lens rim processing apparatus can be shortened, and the time required for producing the glasses can be relatively shortened.

例えば、コバ情報取得手段は、コバ測定手段を有していてもよい。コバ測定手段は、眼鏡レンズのコバ情報を取得するために用いられる。例えば、本実施形態では、画像データ取得手段が備える測定光学系(例えば、測定光学系61)が、コバ測定手段を兼ねる。また、例えば、本実施形態では、コバ測定手段が、レンズ支持手段に載置された眼鏡レンズのコバ情報を取得する。なお、コバ測定手段は、眼鏡レンズのコバ情報を非接触式で取得する構成であってもよい。もちろん、コバ測定手段は、眼鏡レンズのコバ情報を接触式で取得する構成であってもよい。この場合には、眼鏡レンズに測定子等を接触させることで、コバ情報を取得してもよい。例えば、コバ情報取得手段は、コバ測定手段を制御することによって眼鏡レンズを測定し、コバ情報を取得する。これによって、軸出し装置を用いて眼鏡レンズのコバ情報を測定することが可能となり、レンズ周縁加工装置の使用時間を短くすることができる。   For example, the edge information acquisition means may have edge measurement means. The edge measuring means is used to obtain edge information of the spectacle lens. For example, in the present embodiment, the measurement optical system (for example, the measurement optical system 61) included in the image data acquisition unit doubles as an edge measurement unit. Also, for example, in the present embodiment, the edge measuring unit obtains edge information of the spectacle lens placed on the lens support unit. The edge measurement means may be configured to obtain edge information of the spectacle lens in a non-contact manner. Of course, the edge measuring means may be configured to acquire edge information of the spectacle lens in a contact manner. In this case, edge information may be acquired by bringing a measuring element or the like into contact with the spectacle lens. For example, the edge information acquisition unit measures the spectacle lens by controlling the edge measurement unit, and acquires edge information. By this, it becomes possible to measure the edge information of a spectacles lens using a centering device, and can shorten the use time of a lens periphery processing apparatus.

例えば、コバ情報取得手段は、眼鏡レンズの玉型形状に基づいて、コバ測定手段を制御して、コバ情報を取得するようにしてもよい。これによって、眼鏡レンズの玉型形状に基づいた位置(例えば、玉型形状と一致する位置、各動径角におけるヤゲンの位置、各動径角における面取りの位置、等の少なくともいずれか)のコバ情報が取得される。すなわち、眼鏡レンズの玉型形状の周縁と周辺の少なくともいずれかのコバ情報が取得される。なお、例えば、眼鏡レンズの玉型形状に基づいた位置として、眼鏡レンズの玉型形状の全周における複数の領域(例えば、所定の動径角毎の点、等)のコバ情報を取得した場合には、周辺の動径角におけるコバ情報を用いて補間することで、その位置のコバ情報を取得するようにしてもよい。   For example, the edge information acquisition means may control the edge measurement means based on the lens shape of the spectacle lens to acquire edge information. Thereby, the edge of a position based on the lens shape of the spectacle lens (for example, at least one of a position corresponding to the lens shape, a position of a bevel at each radial angle, a position of a chamfer at each radial angle, etc.) Information is acquired. That is, edge information of at least one of the rim and the periphery of the lens shape of the spectacle lens is acquired. Note that, for example, when edge information of a plurality of regions (for example, points at each predetermined radius vector angle, etc.) in the entire periphery of the eyeglass shape of the eyeglass lens is acquired as a position based on the eyeglass shape of the eyeglass lens In order to obtain edge information at that position, interpolation may be performed using edge information at the peripheral radius angle.

例えば、コバ情報取得手段は、眼鏡レンズの屈折率及び断面画像データに基づいて、眼鏡レンズのコバに関する情報であるコバ情報を取得してもよい。これによって、眼鏡レンズがもつ屈折率により変化した断面画像データを用いて、眼鏡レンズのコバ情報を効率よく取得することができる。なお、コバ情報取得手段は、眼鏡レンズの屈折率及び断面画像データに基づいて、眼鏡レンズのコバ情報を補正するようにしてもよい。この場合、コバ情報取得手段は、屈折率に基づいて断面画像データを補正し、補正した断面画像データに基づいて、コバ情報を取得する構成であってもよい。また、この場合、コバ情報取得手段は、断面画像データに基づいて取得したコバ情報を屈折率に基づいて補正することで、コバ情報を取得する構成であってもよい。   For example, the edge information acquisition means may acquire edge information which is information related to the edge of the eyeglass lens, based on the refractive index of the eyeglass lens and the cross-sectional image data. In this way, it is possible to efficiently acquire edge information of the spectacle lens by using cross-sectional image data changed according to the refractive index of the spectacle lens. Note that the edge information acquisition unit may correct edge information of the spectacle lens based on the refractive index of the spectacle lens and the cross-sectional image data. In this case, the edge information acquisition unit may be configured to correct the cross-sectional image data based on the refractive index and to acquire the edge information based on the corrected cross-sectional image data. In this case, the edge information acquisition unit may be configured to acquire the edge information by correcting the edge information acquired based on the cross-sectional image data based on the refractive index.

<仕上げ加工位置設定手段>
例えば、軸出し装置は、仕上げ加工位置設定手段(例えば、制御部70)を備える。仕上げ加工位置設定手段は、眼鏡レンズのコバ情報に基づいて、コバの仕上げ加工位置を設定する。例えば、コバの仕上げ加工位置とは、眼鏡レンズのコバに形成するヤゲンの位置、溝の位置、面取りの位置、等の少なくともいずれかであってもよい。これによって、従来はレンズ周縁加工装置を用いて設定していた仕上げ加工位置を、軸出し装置を用いて設定することができる。従って、レンズ周縁加工装置の使用時間が短くなるとともに、レンズ周縁加工装置の待ち時間が緩和され、眼鏡の作製にかかる時間をさらに短縮することができる。
<Finishing position setting means>
For example, the centering apparatus includes finishing position setting means (for example, the control unit 70). The finish processing position setting means sets the finish processing position of the edge based on the edge information of the spectacle lens. For example, the finish processing position of the edge may be at least one of the position of the bevel formed on the edge of the spectacle lens, the position of the groove, the position of the chamfer, and the like. By this, it is possible to set the finishing position, which has conventionally been set using the lens edge processing apparatus, using the centering apparatus. Therefore, while the use time of a lens periphery processing apparatus becomes short, the waiting time of a lens periphery processing apparatus is eased, and the time concerning preparation of spectacles can be shortened further.

例えば、仕上げ加工位置設定手段は、コバ情報に基づいた仕上げ加工位置を表示手段(例えば、ディスプレイ2)に表示する。例えば、仕上げ加工位置設定手段は、コバ情報に基づいて、コバの仕上げ加工位置を自動で設定する構成であってもよい。また、例えば、仕上げ加工位置設定手段は、操作者によって、コバの仕上げ加工位置を手動で設定する構成であってもよい。この場合、仕上げ加工位置設定手段は、表示手段上で仕上げ加工位置を調整するための操作手段からの操作信号に基づいて、仕上げ加工位置を設定する。これによって、操作者は、眼鏡レンズに形成される仕上げ加工位置を把握しやすくなる。また、操作者は、眼鏡レンズに形成される仕上げ加工位置を調整しやすくなる。   For example, the finishing position setting means displays the finishing position based on the edge information on the display means (for example, the display 2). For example, the finishing position setting means may be configured to automatically set the finishing position of the edge based on the edge information. Also, for example, the finishing position setting means may be configured to manually set the finish processing position of the edge by the operator. In this case, the finishing position setting means sets the finishing position on the basis of an operation signal from the operating means for adjusting the finishing position on the display means. This makes it easy for the operator to grasp the finishing position formed on the spectacle lens. In addition, the operator can easily adjust the finishing position formed on the spectacle lens.

なお、仕上げ加工位置設定手段は、左眼鏡レンズのコバ情報に基づいた仕上げ加工位置と、右眼鏡レンズのコバ情報に基づいた仕上げ加工位置と、を表示手段に比較可能に表示してもよい。また、仕上げ加工位置設定手段は、操作手段からの操作信号に基づいて、左眼鏡レンズと右眼鏡レンズとの少なくとも一方の仕上げ加工位置を設定するようにしてもよい。例えば、この場合には、表示手段に操作手段が設けられた構成であってもよい。また、例えば、この場合には、表示手段と操作手段とが別々に設けられた構成であってもよい。これによって、操作者は、左眼鏡レンズ及び右眼鏡レンズにおける仕上げ加工位置のバランスを把握しやすくなる。また、操作者は、仕上げ加工位置のバランスを考慮して、左眼鏡レンズ及び右眼鏡レンズに対して設定された仕上げ加工位置をそれぞれ調整することができる。従って、操作者は、見栄えのよい眼鏡を作製しやすくなる。   The finish processing position setting means may display the finish processing position based on the edge information of the left eyeglass lens and the finish position based on the edge information of the right eyeglass lens comparably on the display means. The finishing position setting means may set the finishing position of at least one of the left eyeglass lens and the right eyeglass lens based on the operation signal from the operation means. For example, in this case, the display unit may be provided with the operation unit. Also, for example, in this case, the display unit and the operation unit may be provided separately. As a result, the operator can easily grasp the balance of the finishing position in the left eyeglass lens and the right eyeglass lens. Further, the operator can adjust the finishing position set for the left eyeglass lens and the right eyeglass lens, respectively, in consideration of the balance of the finishing position. Therefore, the operator can easily produce eyeglasses that look good.

なお、本実施形態においては、眼鏡レンズを載置するためのレンズ支持手段と、眼鏡レンズの周縁を加工するために眼鏡レンズを挟み込んで保持するレンズ保持手段(例えば、レンズ保持ユニット100)の、眼鏡レンズに対する取付け位置である軸出し位置を設定する軸出し位置設定手段であって、レンズ支持手段に載置された眼鏡レンズの軸出し位置を設定する軸出し位置設定手段と、を備える軸出し装置を、レンズ形状測定装置として用いるようにしてもよい。また、本実施形態においては、レンズ保持手段に眼鏡レンズを保持するためのカップを、軸出し位置設定手段によって設定された軸出し位置に基づいて、眼鏡レンズに取り付けるカップ取付手段であって、レンズ支持手段に載置された眼鏡レンズの表面にカップを取り付けるためのカップ取付手段を備えるカップ取付装置を、レンズ形状測定装置として用いるようにしてもよい。また、本実施形態においては、レンズ保持手段により保持された眼鏡レンズの周縁を加工するための加工具(例えば、加工ユニット300)を備えるレンズ周縁加工装置(例えば、レンズ周縁加工装置90)を、レンズ形状測定装置として用いるようにしてもよい。例えば、これらの軸出し装置、カップ取付装置、及びレンズ周縁加工装置、の少なくともいずれかにおいて、眼鏡レンズのコバ情報を非接触式で取得することによって、操作者は眼鏡レンズのコバ情報を効率的に取得することができるようになる。   In the present embodiment, the lens support means for mounting the eyeglass lens, and the lens holding means (for example, the lens holding unit 100) for holding the eyeglass lens in order to process the periphery of the eyeglass lens And a centering position setting unit configured to set a centering position which is a mounting position with respect to the spectacle lens, the centering position setting unit configured to set a centering position of the spectacle lens mounted on the lens support unit. The device may be used as a lens shape measuring device. Further, in the present embodiment, it is a cup attachment means for attaching the cup for holding the eyeglass lens to the lens holding means to the eyeglass lens based on the centering position set by the centering position setting means, A cup mounting device provided with cup mounting means for mounting the cup on the surface of the spectacle lens placed on the support means may be used as the lens shape measuring device. Further, in the present embodiment, a lens edge processing apparatus (for example, the lens edge processing apparatus 90) including a processing tool (for example, the processing unit 300) for processing the edge of the spectacle lens held by the lens holding unit is It may be used as a lens shape measuring device. For example, in at least one of the centering device, the cup attachment device, and the lens edge processing device, the operator can efficiently obtain the edge information of the eyeglass lens by acquiring the edge information of the eyeglass lens in a noncontact manner. You will be able to get to.

なお、本実施形態においては、上記のような軸出し装置(またはカップ取付装置)を用いて、眼鏡レンズを加工するための眼鏡レンズ加工システムを構築してもよい。例えば、この場合には、眼鏡レンズの周縁を加工するために眼鏡レンズを挟み込んで保持するレンズ保持手段(例えば、レンズ保持ユニット100)の、眼鏡レンズに対する取付け位置である軸出し位置を設定する軸出し位置設定手段を備える軸出し装置と、加工具と、眼鏡レンズを保持するレンズ保持手段と、眼鏡レンズの周縁を加工するための加工制御データを取得する加工制御データ取得手段(例えば、制御部95)と、を有し、加工制御データ取得手段によって取得された加工制御データに基づいて、加工具を制御してレンズ保持手段に保持された眼鏡レンズを加工するレンズ周縁加工装置と、を用いた眼鏡レンズ加工システムが構築されてもよい。   In the present embodiment, an eyeglass lens processing system for processing an eyeglass lens may be constructed using the above-described centering device (or cup attachment device). For example, in this case, a shaft for setting an axial position, which is a mounting position of the lens holding means (for example, the lens holding unit 100) for holding and holding the eyeglass lens to process the periphery of the eyeglass lens. A centering device provided with a delivery position setting means, a processing tool, a lens holding means for holding the spectacle lens, and a processing control data acquisition means (for example, a control unit for acquiring processing control data for processing the periphery of the spectacle lens And a lens edge processing apparatus for processing the spectacle lens held by the lens holding means by controlling the processing tool based on the processing control data acquired by the processing control data acquisition means. An eyeglass lens processing system may be constructed.

また、例えば、この場合には、眼鏡レンズの表面にカップを取り付けるカップ取付手段を有するカップ取付装置と、加工具と、カップが取り付けられた眼鏡レンズを保持するレンズ保持手段と、眼鏡レンズの周縁を加工するための加工制御データを取得する加工制御データ取得手段と、を有し、加工制御データ取得手段によって取得された加工制御データに基づいて、加工具を制御して保持手段に保持された眼鏡レンズを加工するレンズ周縁加工装置と、を用いた眼鏡レンズ加工システムが構築されてもよい。なお、このような眼鏡レンズ加工システムでは、カップ取付装置において、眼鏡レンズの第1コバ情報が取得されてもよい。また、このような眼鏡レンズ加工システムでは、眼鏡レンズの第1コバ情報に基づいて、コバの仕上げ加工位置が設定されてもよい。また、このような眼鏡レンズ加工システムでは、レンズ周縁加工装置において、眼鏡レンズの少なくとも1つの動径角における第2コバ情報が取得されてもよい。例えば、第2コバ情報としては、眼鏡レンズの1点のコバ情報が取得されてもよい。また、例えば、第2コバ情報としては、眼鏡レンズの複数の点のコバ情報が取得されてもよい。なお、第2コバ情報として複数の点のコバ情報を取得する場合には、眼鏡レンズがレンズ保持手段によって保持されたことで生じる眼鏡レンズの変形や傾き等の少なくともいずれかを予測するようにしてもよい。これによって、加工制御データ取得手段は、第1コバ情報と、第2コバ情報と、仕上げ加工位置と、に基づいて、加工制御データを取得するようにしてもよい。   Also, for example, in this case, a cup mounting device having a cup mounting means for mounting the cup on the surface of the eyeglass lens, a processing tool, a lens holding means for holding the eyeglass lens attached with the cup, and a rim of the eyeglass lens Processing control data acquisition means for acquiring processing control data for processing the workpiece, and the processing tool is controlled based on the processing control data acquired by the processing control data acquisition means and held by the holding means An eyeglass lens processing system may be constructed using a lens edge processing apparatus for processing an eyeglass lens. In such a spectacle lens processing system, the first edge information of the spectacle lens may be acquired in the cup attachment device. Also, in such a spectacle lens processing system, the finish processing position of the edge may be set based on the first edge information of the spectacle lens. Moreover, in such a spectacle lens processing system, the second edge information at at least one radial angle of the spectacle lens may be acquired in the lens peripheral processing device. For example, edge information of one point of the spectacle lens may be acquired as the second edge information. Also, for example, edge information of a plurality of points of the spectacle lens may be acquired as the second edge information. When edge information of a plurality of points is acquired as the second edge information, at least one of deformation and inclination of the spectacle lens caused by the spectacle lens being held by the lens holding means is predicted. It is also good. By this, the processing control data acquisition means may acquire the processing control data based on the first edge information, the second edge information, and the finishing position.

また、本実施形態では、上記のような軸出し装置(またはカップ取付装置)を用いて、眼鏡レンズの周縁を加工するための眼鏡レンズ加工方法を実施してもよい。例えば、この場合には、眼鏡レンズの第1コバ情報を取得する第1コバ情報取得ステップと、眼鏡レンズを挟み込んで保持するレンズ保持手段の、眼鏡レンズに対する取付け位置である軸出し位置を設定する軸出し位置設定ステップと、第1コバ情報取得ステップと軸出し位置設定ステップとが実施された後、設定された軸出し位置に基づいて、眼鏡レンズをレンズ周縁加工装置のレンズ保持手段に保持する保持ステップと、第1コバ情報取得ステップと軸出し位置設定ステップとが実施された後、第1コバ情報に基づいて加工制御データを取得する加工制御データ取得ステップと、加工制御データに基づいて、加工具を制御してレンズ保持手段に保持された眼鏡レンズを加工する加工ステップと、を行う方法が実施されてもよい。   Further, in the present embodiment, the eyeglass lens processing method for processing the peripheral edge of the eyeglass lens may be implemented using the above-described centering device (or cup attachment device). For example, in this case, the first edge information acquisition step of acquiring the first edge information of the spectacle lens, and the centering position which is the attachment position to the spectacle lens of the lens holding means holding the spectacle lens between After the centering position setting step, the first edge information acquisition step and the centering position setting step are performed, the spectacle lens is held in the lens holding means of the lens rim processing device based on the set centering position. After the holding step, the first edge information acquisition step and the centering position setting step are performed, a processing control data acquisition step for acquiring processing control data based on the first edge information, and based on the processing control data, And a processing step of controlling the processing tool to process the spectacle lens held by the lens holding means.

また、例えば、この場合には、眼鏡レンズの第1コバ情報を取得する第1コバ情報取得ステップと、眼鏡レンズにカップを取り付けるカップ取付ステップと、第1コバ情報取得ステップとカップ取付ステップとが実施された後、カップが取り付けられた眼鏡レンズをレンズ周縁加工装置のレンズ保持手段に保持する保持ステップと、第1コバ情報取得ステップとカップ取付ステップとが実施された後、第1コバ情報に基づいて加工制御データを取得する加工制御データ取得ステップと、加工制御データに基づいて、加工具を制御してレンズ保持手段に保持された眼鏡レンズを加工する加工ステップと、を行う方法が実施されてもよい。   Also, for example, in this case, the first edge information acquisition step of acquiring the first edge information of the eyeglass lens, the cup attaching step of attaching the cup to the eyeglass lens, the first edge information acquisition step and the cup attachment step After being carried out, a holding step of holding the spectacle lens to which the cup is attached to the lens holding means of the lens peripheral processing device, and a first edge information acquisition step and a cup mounting step are carried out. A method is implemented that performs a processing control data acquisition step of acquiring processing control data based on the processing step and a processing step of processing the processing tool to control the processing tool to process the spectacle lens held by the lens holding unit based on the processing control data. May be

なお、このような眼鏡レンズ加工方法においては、眼鏡レンズの第1コバ情報に基づいて、コバの仕上げ加工位置を設定する仕上げ加工位置設定ステップが行われてもよい。この場合、保持ステップは、加工位置設定ステップとカップ取付ステップとが実施された後、カップが取り付けられた眼鏡レンズをレンズ周縁加工装置のレンズ保持手段に保持し、加工制御データ取得ステップは、加工位置設定ステップとカップ取付ステップとが実施された後、仕上げ加工位置に基づいて加工制御データを取得してもよい。   In such an eyeglass lens processing method, a finishing position setting step may be performed to set a finishing position of the edge based on the first edge information of the eyeglass lens. In this case, the holding step holds the eyeglass lens attached with the cup in the lens holding means of the lens edge processing apparatus after the processing position setting step and the cup mounting step are performed, and the processing control data acquisition step performs the processing After the position setting step and the cup attachment step are performed, processing control data may be acquired based on the finishing position.

また、このような眼鏡レンズ加工方法においては、保持ステップが実施された後、眼鏡レンズの少なくとも1つの動径角における第2コバ情報を取得する第2コバ情報取得ステップが行われてもよい。この場合、加工制御データ取得ステップは、第1コバ情報と、第2コバ情報と、仕上げ加工位置と、に基づいて、加工制御データを取得してもよい。   In such a spectacle lens processing method, after the holding step is performed, a second edge information acquisition step of acquiring second edge information at at least one radial angle of the spectacle lens may be performed. In this case, the processing control data acquisition step may acquire the processing control data based on the first edge information, the second edge information, and the finishing position.

なお、本開示の技術は、軸出し装置の他、眼鏡レンズを加工するためのレンズ加工用装置において適用されてもよい。この場合、眼鏡レンズを加工するためのレンズ周縁加工装置とは異なるレンズ加工用装置であって、眼鏡レンズがレンズ周縁加工装置に設けられたレンズ保持手段に保持される前の加工工程を実施するためのレンズ加工用装置において、眼鏡レンズのコバに関する情報であるコバ情報を取得するコバ情報取得手段を備えていてもよい。例えば、このようなレンズ加工用装置は、レンズメータであってもよい。また、このようなレンズ加工用装置は、眼鏡枠形状測定装置であってもよい。   The technique of the present disclosure may be applied to a lens processing device for processing an eyeglass lens, in addition to the centering device. In this case, it is an apparatus for lens processing which is different from the lens edge processing apparatus for processing an eyeglass lens, and the processing process is performed before the eyeglass lens is held by the lens holding means provided in the lens edge processing apparatus. The lens processing apparatus may further include edge information acquisition means for acquiring edge information which is information regarding an edge of the spectacle lens. For example, such a lens processing device may be a lens meter. Moreover, such an apparatus for lens processing may be a spectacles frame shape measuring apparatus.

<実施例>
本開示の実施例について図面を用いて説明する。本実施例では、軸出し装置として、レンズチャック軸が装着されるカップCuをレンズLEに取付けるカップ取付装置を例示する。しかし、本実施例で例示する技術の少なくとも一部は、カップ取付装置以外の装置にも適用できる。例えば、軸出し装置としては、設定された軸出し位置において、カップCuを介さずにレンズチャック軸にてレンズLEを保持する装置等にも、本実施例で例示する技術の少なくとも一部を適用できる。
<Example>
Embodiments of the present disclosure will be described using the drawings. In this embodiment, a cup mounting device for mounting the cup Cu on which the lens chuck shaft is mounted to the lens LE will be exemplified as the centering device. However, at least a part of the technique exemplified in the present embodiment can be applied to devices other than the cup attachment device. For example, as the centering device, at least a part of the technique exemplified in this embodiment is applied to a device that holds the lens LE on the lens chuck shaft without the cup Cu at the set centering position. it can.

なお、本実施例において、上記の軸出し装置を例に挙げて説明するが、本実施例で例示した技術の少なくとも一部は、軸出し装置に適用される場合に限定されない。例えば、本実施例で例示した技術の少なくとも一部は、レンズがレンズ保持手段によって保持される前の工程において、レンズを加工するために用いられるレンズ加工用装置において適用可能である。この場合、眼鏡レンズを加工するためのレンズ周縁加工装置とは異なるレンズ加工用装置であって、眼鏡レンズがレンズ周縁加工装置に設けられたレンズ保持手段に保持される前の加工工程を実施するためのレンズ加工用装置において、眼鏡レンズのコバに関する情報であるコバ情報を取得するコバ情報取得手段を備えていてもよい。例えば、このようなレンズ加工用装置としては、レンズメータであってもよい。また、このようなレンズ加工用装置としては、眼鏡枠形状測定装置であってもよい。もちろん、レンズ加工用装置において、仕上げ加工位置が設定される仕上げ加工位置設定手段が設けられるようにしてもよい。   In the present embodiment, although the above-described centering device is described as an example, at least a part of the techniques exemplified in the present embodiment is not limited to the case where it is applied to the centering device. For example, at least a part of the technique exemplified in the present embodiment is applicable to a lens processing device used to process a lens in a process before the lens is held by the lens holding means. In this case, it is an apparatus for lens processing which is different from the lens edge processing apparatus for processing an eyeglass lens, and the processing process is performed before the eyeglass lens is held by the lens holding means provided in the lens edge processing apparatus. The lens processing apparatus may further include edge information acquisition means for acquiring edge information which is information regarding an edge of the spectacle lens. For example, such a lens processing device may be a lens meter. Moreover, as such an apparatus for lens processing, you may be a spectacles frame shape measuring apparatus. Of course, the lens processing device may be provided with a finishing position setting means for setting the finishing position.

図1はカップ取付装置1の外観図である。カップ取付装置1は、ディスプレイ(モニタ)2、入力ボタン3、レンズ支持機構10、フレーム形状測定機構20、カップ取付機構30、レンズ情報測定機構40、画像データ取得機構60、等を備える。例えば、ディスプレイ2は、LCD(Liquid Crystal Display)、有機EL(Electro Luminescence)ディスプレイ、プラズマディスプレイ、等の少なくともいずれかであってもよい。例えば、ディスプレイ2はタッチパネルである。すなわち、ディスプレイ2は、カップ取付装置1に各種の処理を実行させる信号やパラメータ等を入力するための操作部(入力ボタン3)と、各種の情報(例えば、入力したパラメータ、レンズLEの光学特性、レンズLEのコバ情報、等)を表示するための表示部と、を兼ねる。なお、ディスプレイ2と操作部とは、別に設けられた構成であってもよい。この場合には、マウス、ジョイスティック、キーボード、携帯端末、等の少なくともいずれかを操作部として用いてもよい。   FIG. 1 is an external view of the cup mounting device 1. The cup attachment device 1 includes a display (monitor) 2, an input button 3, a lens support mechanism 10, a frame shape measurement mechanism 20, a cup attachment mechanism 30, a lens information measurement mechanism 40, an image data acquisition mechanism 60, and the like. For example, the display 2 may be at least one of an LCD (Liquid Crystal Display), an organic EL (Electro Luminescence) display, a plasma display, and the like. For example, the display 2 is a touch panel. That is, the display 2 has an operation unit (input button 3) for inputting signals and parameters for causing the cup attachment device 1 to execute various processes, various information (for example, input parameters, optical characteristics of the lens LE) , And a display unit for displaying edge information of the lens LE, and the like. The display 2 and the operation unit may be separately provided. In this case, at least one of a mouse, a joystick, a keyboard, a portable terminal, and the like may be used as the operation unit.

<レンズ支持機構>
図2はレンズ支持機構10の概略構成図である。レンズ支持機構10は、レンズLEの表面(前面)を上方向にしてレンズLEを載置するために用いる。例えば、レンズ支持機構10は、円筒ベース11、リング部材12、保護カバー13、支持ピン14、回転軸15、アーム16、等を備える。円筒ベース11の上部には、リング部材12に取付けられた保護カバー13が設置されている。円筒ベース11の内部には、後述する視標板46等が配置されている。円筒ベース11の外周部には、回転軸15が配置されている。回転軸15の上端には、それぞれアーム16が取付けられている。アーム16の先端には、それぞれ支持ピン14が配置されている。なお、本実施例においては、支持ピン14が、光軸L1に対して等距離かつ等角度で配置される。支持ピン14は、レンズLEの裏面(後面)に当接することによってレンズを保持する。
<Lens support mechanism>
FIG. 2 is a schematic configuration view of the lens support mechanism 10. The lens support mechanism 10 is used to place the lens LE with the surface (front surface) of the lens LE facing upward. For example, the lens support mechanism 10 includes a cylindrical base 11, a ring member 12, a protective cover 13, a support pin 14, a rotating shaft 15, an arm 16, and the like. A protective cover 13 attached to the ring member 12 is installed on the top of the cylindrical base 11. Inside the cylindrical base 11, a target plate 46 and the like, which will be described later, are disposed. A rotating shaft 15 is disposed on the outer peripheral portion of the cylindrical base 11. Arms 16 are attached to the upper ends of the rotating shafts 15 respectively. A support pin 14 is disposed at the tip of the arm 16. In the present embodiment, the support pins 14 are disposed equidistantly and equiangularly with respect to the optical axis L1. The support pin 14 holds the lens by abutting on the back surface (rear surface) of the lens LE.

例えば、回転軸15は、モータ等の回転を伝達する図示なき回転伝達機構を介して、中心軸K1を中心とした軸回りに回転する。例えば、回転軸15の回転に連動して、アーム16及び支持ピン14は、実線で示す退避位置から点線で示す支持位置に移動する。これによって、光軸L1から支持ピン14までの距離と、各支持ピン14の間隔と、を調節し、支持ピン14が支持可能な領域の大きさを変更することができる。   For example, the rotation shaft 15 rotates about an axis centered on the central axis K1 via a rotation transmission mechanism (not shown) that transmits the rotation of a motor or the like. For example, in conjunction with the rotation of the rotation shaft 15, the arm 16 and the support pin 14 move from the retracted position shown by the solid line to the support position shown by the dotted line. Thus, the distance between the optical axis L1 and the support pins 14 and the distance between the support pins 14 can be adjusted, and the size of the area that can be supported by the support pins 14 can be changed.

また、例えば、円筒ベース11は、モータ17及び図示なきギア機構等により構成される回転伝達機構を介して、光軸L1を中心とした軸回りに回転する。例えば、モータ17の回転が、図示なきギア機構により円筒ベース11に伝達される。例えば、円筒ベース11の回転に連動して、回転軸15と、回転軸15に取付けられたアーム16と、アーム16に配置された支持ピン14と、が一体的にリング部材12の周囲を移動する。これによって、支持ピン14に載置したレンズLEを回転させることができる。   Further, for example, the cylindrical base 11 rotates about an axis centered on the optical axis L1 via a rotation transmission mechanism configured by the motor 17 and a gear mechanism (not shown). For example, the rotation of the motor 17 is transmitted to the cylindrical base 11 by a gear mechanism (not shown). For example, in conjunction with the rotation of the cylindrical base 11, the rotation shaft 15, the arm 16 attached to the rotation shaft 15, and the support pin 14 disposed on the arm 16 move integrally around the ring member 12 Do. Thus, the lens LE placed on the support pin 14 can be rotated.

<フレーム形状測定機構>
例えば、フレーム形状測定機構20は、眼鏡フレーム(以下、フレーム)の形状をトレースする際に用いる。これによって、フレームの内周形状(言い換えると、後述するレンズLEの玉型形状)等を取得することができる。なお、フレーム形状測定機構20の構成については、例えば特開2015−31847号公報を参照されたい。
<Frame shape measurement mechanism>
For example, the frame shape measuring mechanism 20 is used when tracing the shape of the eyeglass frame (hereinafter referred to as a frame). Thus, the inner circumferential shape of the frame (in other words, the lens shape of the lens LE described later) or the like can be obtained. For the configuration of the frame shape measuring mechanism 20, see, for example, JP-A-2015-31847.

<カップ取付機構>
図3はカップ取付機構30の概略構成図である。カップ取付機構30は、レンズLEの表面(前面)にカップCuを取付けるために用いる。すなわち、カップ取付機構30は、レンズLEの表面にカップCuを固定(軸打ち)するために用いる。なお、本実施例では、カップの固定位置をレンズLEの表面としたがこれに限定されない。カップの固定位置は、レンズの裏面(後面)であってもよい。
<Cup mounting mechanism>
FIG. 3 is a schematic configuration view of the cup attachment mechanism 30. As shown in FIG. The cup attachment mechanism 30 is used to attach the cup Cu to the surface (front surface) of the lens LE. That is, the cup attachment mechanism 30 is used to fix (spin) the cup Cu on the surface of the lens LE. In the present embodiment, the fixed position of the cup is the surface of the lens LE, but the present invention is not limited to this. The fixed position of the cup may be the back surface (rear surface) of the lens.

例えば、本実施例において、カップ取付機構30は、レンズLEの周縁を加工するためにレンズLEを挟み込んで保持するレンズ保持ユニット100(図11参照)の、レンズLEに対する取付け位置である軸出し位置を設定する。例えば、カップ取付機構30は、後述する装着部31に装着されたカップCuと、レンズ支持機構10によって支持されたレンズLEと、の位置とを相対的に変化させることで、レンズLEの表面における適切な位置にカップCuを取付ける。その結果、レンズLEにおける適切な位置(カップCuを取り付けた位置)を、レンズ周縁加工装置90のレンズチャック軸102L及び102R(図11参照)にて挟持することができる。なお、軸出し位置は、レンズLEの光学中心位置O(図6参照)に設定されてもよいし、幾何学中心位置に設定されてもよい。もちろん、上記と異なる位置が軸出し位置として設定されるようにしてもよい。例えば、本実施例では、軸出し位置としては、レンズLEの光学中心位置Oに設定される。   For example, in the present embodiment, the cup attachment mechanism 30 is an axial position, which is an attachment position of the lens holding unit 100 (see FIG. 11) that holds the lens LE in order to process the periphery of the lens LE. Set For example, the cup attachment mechanism 30 relatively changes the positions of the cup Cu attached to the attachment portion 31 described later and the lens LE supported by the lens support mechanism 10, whereby the surface of the lens LE is changed. Install the cup Cu in the proper position. As a result, the lens chuck shafts 102L and 102R (see FIG. 11) of the lens edge processing apparatus 90 can hold the appropriate position (the position where the cup Cu is attached) in the lens LE. The centering position may be set to the optical center position O (see FIG. 6) of the lens LE, or may be set to the geometric center position. Of course, a position different from the above may be set as the centering position. For example, in the present embodiment, the centering position is set to the optical center position O of the lens LE.

例えば、カップ取付機構30は、装着部31、アーム32、アーム保持ベース33、X方向移動機構35、Y方向移動機構36、Z方向移動機構37、等を備える。例えば、装着部31はアーム32に固定されている。例えば、装着部31は、カップCuに形成された凹凸部と嵌合する。例えば、アーム32は、装着部31の水平方向における回転角度を可変に保持するための図示なき回転伝達機構を備える。例えば、アーム32は、アーム保持ベース33に取付けられている。例えば、アーム保持ベース33は、モータ34を備える。例えば、モータ34の回転は、アーム32が備える図示なき回転伝達機構を介して、装着部31へと伝達される。すなわち、装着部31は、モータ34が回転することで、カップCuの中心軸K1の軸回りに回転する。これによって、カップCuの水平方向における回転角度を変更することが可能である。   For example, the cup mounting mechanism 30 includes a mounting portion 31, an arm 32, an arm holding base 33, an X direction moving mechanism 35, a Y direction moving mechanism 36, a Z direction moving mechanism 37, and the like. For example, the mounting unit 31 is fixed to the arm 32. For example, the mounting portion 31 is fitted with the uneven portion formed in the cup Cu. For example, the arm 32 includes a rotation transmission mechanism (not shown) for holding the rotation angle of the mounting portion 31 in the horizontal direction variably. For example, the arm 32 is attached to the arm holding base 33. For example, the arm holding base 33 includes a motor 34. For example, the rotation of the motor 34 is transmitted to the mounting unit 31 via a rotation transmission mechanism (not shown) of the arm 32. That is, when the motor 34 rotates, the mounting portion 31 rotates about the central axis K1 of the cup Cu. This makes it possible to change the rotation angle of the cup Cu in the horizontal direction.

例えば、X方向移動機構35は、カップ取付装置1の左右方向(X方向)に移動する。例えば、X方向移動機構35の上部には、Y方向移動機構36が設置される。例えば、Y方向移動機構36は、カップ取付装置1の上下方向(Y方向)に移動する。例えば、Y方向移動機構36の上部には、Z方向移動機構37が設置される。例えば、Z方向移動機構37は、カップ取付装置1の前後方向(Z方向)に移動する。例えば、Z方向移動機構37は、アーム32、アーム保持ベース33、及びモータ34を保持する。例えば、本実施例においては、X方向移動機構35が移動されることによって、Y方向移動機構36、Z方向移動機構37、アーム32等が、カップ取付装置1に対して左右方向に移動する。また、例えば、Z方向移動機構37が移動されることによって、アーム32等がカップ取付装置1に対して前後方向に移動する。これによって、アーム32に保持された装着部31が、レンズ支持機構10の上部まで移動する。さらに、例えば、Y方向移動機構36を移動させることによって、Z方向移動機構37及びアーム32等が、カップ取付装置1に対して上下方向に移動する。これによって、装着部31に装着されたカップCuは、支持ピン14上に載置されたレンズLEの前面に軸打ちされる。   For example, the X-direction moving mechanism 35 moves in the left-right direction (X direction) of the cup mounting device 1. For example, the Y-direction moving mechanism 36 is installed on the top of the X-direction moving mechanism 35. For example, the Y-direction moving mechanism 36 moves in the vertical direction (Y direction) of the cup mounting device 1. For example, the Z direction moving mechanism 37 is installed on the top of the Y direction moving mechanism 36. For example, the Z-direction moving mechanism 37 moves in the front-rear direction (Z direction) of the cup mounting device 1. For example, the Z-direction moving mechanism 37 holds the arm 32, the arm holding base 33, and the motor 34. For example, in the present embodiment, by moving the X-direction moving mechanism 35, the Y-direction moving mechanism 36, the Z-direction moving mechanism 37, the arm 32, etc. move in the left-right direction with respect to the cup mounting device 1. Also, for example, by moving the Z-direction moving mechanism 37, the arm 32 and the like move in the front-rear direction with respect to the cup mounting device 1. Thus, the mounting portion 31 held by the arm 32 moves to the upper portion of the lens support mechanism 10. Furthermore, for example, by moving the Y-direction moving mechanism 36, the Z-direction moving mechanism 37, the arm 32 and the like move in the vertical direction with respect to the cup mounting device 1. As a result, the cup Cu mounted on the mounting portion 31 is pivoted on the front surface of the lens LE mounted on the support pin 14.

<レンズ情報測定機構>
図4はカップ取付装置1が備えるレンズ情報測定機構40の概略構成図である。例えば、本実施例におけるレンズ情報測定機構40は、レンズの光学特性を取得するための測定光学系と、レンズの光学特性とは異なるレンズの情報(例えば、レンズの外形、レンズに付された印点、レンズに形成された隠しマーク、等)を取得するための測定光学系と、を兼ねている。なお、レンズの光学特性を取得するための測定光学系と、レンズの光学特性とは異なるレンズの情報を取得するための測定光学系と、はそれぞれが別に設けられた構成でもよい。
<Lens Information Measurement Mechanism>
FIG. 4 is a schematic configuration view of a lens information measurement mechanism 40 provided in the cup attachment device 1. For example, the lens information measurement mechanism 40 in the present embodiment includes a measurement optical system for acquiring the optical characteristics of the lens, and information of the lens different from the optical characteristics of the lens (for example, the outer shape of the lens, the mark attached to the lens And a measurement optical system for acquiring a hidden mark formed on the lens, and the like. The measurement optical system for acquiring the optical characteristic of the lens and the measurement optical system for acquiring information of the lens different from the optical characteristic of the lens may be separately provided.

例えば、レンズ情報測定機構40は、照明光学系41、受光光学系45、撮像光学系48、等を備える。例えば、照明光学系41は、光源42、ハーフミラー43、凹面ミラー44、等を備える。例えば、光源42は測定光束をレンズに照射する。例えば、光源42はLED(Light Emitting Diode)であってもよい。例えば、光源42から出射された測定光束は、光軸L2上に配置されたハーフミラー43に反射されて、光軸L2に一致する。例えば、凹面ミラー44は、測定光束を光軸L1から光軸L2の方向へと反射するとともに、測定光束を光軸L1上に配置されたレンズLEよりも大きな径の平行光束(略平行光束)に整形する。なお、凹面ミラーに代えてレンズを用いることも可能であるが、装置を大型化させないために、凹面ミラーを用いると有利である。   For example, the lens information measurement mechanism 40 includes an illumination optical system 41, a light reception optical system 45, an imaging optical system 48, and the like. For example, the illumination optical system 41 includes a light source 42, a half mirror 43, a concave mirror 44, and the like. For example, the light source 42 irradiates a measurement light beam to the lens. For example, the light source 42 may be a light emitting diode (LED). For example, the measurement light beam emitted from the light source 42 is reflected by the half mirror 43 disposed on the optical axis L2, and coincides with the optical axis L2. For example, the concave mirror 44 reflects the measurement light flux from the optical axis L1 to the direction of the optical axis L2, and also measures a parallel light flux having a diameter larger than that of the lens LE disposed on the optical axis L1 (approximately parallel light flux) Format. Although it is possible to use a lens instead of the concave mirror, it is advantageous to use a concave mirror in order not to increase the size of the device.

例えば、受光光学系45は、視標板46、撮像素子47、等を備える。例えば、視標板46は、レンズLEの光学中心等を検出するために用いる。なお、視標板46についての詳細は後述する。例えば、撮像素子47は、光源42から照射されて、レンズLE及び視標板46を通過した測定光束を撮像する。例えば、撮像素子47は、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)、等であってもよい。なお、本実施例における受光光学系45は、視標板46と撮像素子47との間にレンズが配置された構成であってもよい。   For example, the light receiving optical system 45 includes a target plate 46, an imaging device 47, and the like. For example, the target plate 46 is used to detect the optical center or the like of the lens LE. The details of the target plate 46 will be described later. For example, the imaging device 47 captures an image of the measurement light beam that has been emitted from the light source 42 and has passed through the lens LE and the target plate 46. For example, the imaging device 47 may be a charge coupled device (CCD), a complementary metal oxide semiconductor (CMOS), or the like. The light receiving optical system 45 in the present embodiment may have a configuration in which a lens is disposed between the index plate 46 and the imaging device 47.

例えば、撮像光学系48は、凹面ミラー44、絞り49、撮像レンズ50、撮像素子51、等を備える。例えば、撮像光学系48の撮像倍率は、撮像素子51によってレンズLEの全体が撮像される倍率となっている。例えば、撮像光学系48における凹面ミラー44は、照明光学系41における凹面ミラー44と共用される。例えば、絞り49は凹面ミラー44の焦点位置(略焦点位置)に配置される。例えば、絞り49は、光源42と共役(略共役)な位置関係である。例えば、撮像素子51は、光源42から照射され、後述する再帰性反射部材52により反射された反射光束を撮像する。例えば、撮像素子51は、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)、等であってもよい。例えば、撮像素子51のピント位置は、撮像レンズ50及び凹面ミラー44によって、レンズLEの表面付近に合わされている。これにより、レンズの表面に付された印点、レンズに形成された隠しマーク、等をほぼ焦点の合った状態で撮像することができる。   For example, the imaging optical system 48 includes a concave mirror 44, an aperture 49, an imaging lens 50, an imaging element 51, and the like. For example, the imaging magnification of the imaging optical system 48 is a magnification at which the whole of the lens LE is imaged by the imaging element 51. For example, the concave mirror 44 in the imaging optical system 48 is shared with the concave mirror 44 in the illumination optical system 41. For example, the stop 49 is disposed at the focal position (approximately the focal position) of the concave mirror 44. For example, the diaphragm 49 has a positional relationship that is conjugate (substantially conjugate) with the light source 42. For example, the imaging device 51 captures an image of the reflected light beam emitted from the light source 42 and reflected by the retroreflective member 52 described later. For example, the imaging device 51 may be a charge coupled device (CCD), a complementary metal oxide semiconductor (CMOS), or the like. For example, the focus position of the imaging element 51 is adjusted by the imaging lens 50 and the concave mirror 44 near the surface of the lens LE. As a result, it is possible to capture an image of a mark on the surface of the lens, a hidden mark formed on the lens, and the like in a substantially in-focus state.

<視標板>
図5は視標板46の一例である。例えば、視標板46には、多数の開口(光束の通過口)55が所定のパターンにて形成されている。例えば、本実施例では、開口55以外の領域(すなわち、図5において斜線で示す領域)に、後述する再帰性反射部材52を貼り付けることによって、開口55が形成されている。また、例えば、本実施例では、円形状の開口55が等間隔に配置されている。なお、視標板46には、レンズLEの光学中心や光学特性を検出可能なパターンが形成されていればよく、開口55の形状や間隔は本実施例に限定されない。
<Target board>
FIG. 5 shows an example of the target plate 46. For example, a large number of openings (passages for light flux) 55 are formed in the target plate 46 in a predetermined pattern. For example, in the present embodiment, the opening 55 is formed by attaching a retroreflective member 52 described later to a region other than the opening 55 (that is, a region indicated by oblique lines in FIG. 5). Further, for example, in the present embodiment, the circular openings 55 are arranged at equal intervals. The target plate 46 may be formed with a pattern capable of detecting the optical center and optical characteristics of the lens LE, and the shape and the interval of the openings 55 are not limited to those of the present embodiment.

例えば、開口55は、視標板46の中心に形成された中心孔56と、中心孔56の周辺に形成された周辺孔57と、からなる。例えば、中心孔56は光軸L1に一致する。例えば、本実施例における中心孔56は、周辺孔57とは異なる大きさであることによって、周辺孔57との区別が可能である。なお、中心孔56の大きさ、個数、形状、位置、等は本実施例とは異なっていてもよく、周辺孔57との区別が可能であればよい。これによって、撮像素子47が撮像する開口55の像(以下、開口像)が、レンズLEの光学特性で偏位した際に、各周辺孔57の対応関係を特定することができる。より詳細には、レンズLEが支持ピン14上に載置されていない状態で撮像される周辺孔57の像が、レンズLEを支持ピン14上に載置した状態で撮像される周辺孔57の像のいずれに該当するかを特定することができる。   For example, the opening 55 includes a central hole 56 formed at the center of the target plate 46 and a peripheral hole 57 formed at the periphery of the central hole 56. For example, the central hole 56 coincides with the optical axis L1. For example, the central hole 56 in the present embodiment can be distinguished from the peripheral hole 57 by having a size different from that of the peripheral hole 57. The size, number, shape, position, etc. of the central holes 56 may be different from those of the present embodiment, as long as they can be distinguished from the peripheral holes 57. Thus, when the image of the opening 55 (hereinafter referred to as an aperture image) captured by the imaging device 47 is displaced by the optical characteristics of the lens LE, the correspondence of the peripheral holes 57 can be specified. More specifically, an image of the peripheral hole 57 captured in a state in which the lens LE is not mounted on the support pin 14 is imaged in a state in which the lens LE is mounted on the support pin 14 It is possible to identify which of the images corresponds.

例えば、再帰性反射部材52は、測定光束を入射方向と同一方向(略同一方向)に反射するために用いる。例えば、再帰性反射部材52は、視標板46の上面と、開口53を中央にもつ円盤部材54の上面と、にそれぞれ貼り付けられている。例えば、円盤部材54は、図示なき回転機構によって、光軸L1を中心とした軸回りに回転されてもよい。なお、例えば、再帰性反射部材52とその回転機構についての詳細は、特開2008−299140号公報を参照されたい。   For example, the retroreflective member 52 is used to reflect the measurement light beam in the same direction (substantially the same direction) as the incident direction. For example, the retroreflective member 52 is attached to the upper surface of the target plate 46 and the upper surface of the disk member 54 having the opening 53 at the center. For example, the disk member 54 may be rotated about an axis centered on the optical axis L1 by a rotation mechanism (not shown). For details of the retroreflective member 52 and the rotation mechanism thereof, see, for example, Japanese Patent Laid-Open No. 2008-299140.

<画像データ取得機構>
図6は画像データ取得機構60の概略構成図である。画像データ取得機構60は、レンズLEの前面における前面像データP1sと、レンズLEの後面における後面像データQ2sと、を含む断面画像データ75を取得する(図9参照)。例えば、本実施例においては、画像データ取得機構60が、測定光束をレンズLEの前面または後面に向けて投光する投光光学系64を備えてもよい。また、例えば、本実施例においては、画像データ取得機構60が、レンズLEの前面で反射された第1反射光束R1と、レンズLEの後面で反射された第2反射光束R2と、を受光する受光光学系66を備えてもよい。すなわち、本実施例における画像データ取得機構60は、第1反射光束R1により形成された前面像データP1sと、第2反射光束により形成された後面像データQ2sと、を含む断面画像データ75を取得することができる。
<Image data acquisition mechanism>
FIG. 6 is a schematic block diagram of the image data acquisition mechanism 60. As shown in FIG. The image data acquisition mechanism 60 acquires cross-sectional image data 75 including front image data P1s on the front surface of the lens LE and back surface image data Q2s on the back surface of the lens LE (see FIG. 9). For example, in the present embodiment, the image data acquisition mechanism 60 may be provided with a projection optical system 64 for projecting the measurement light beam toward the front surface or the rear surface of the lens LE. Also, for example, in the present embodiment, the image data acquisition mechanism 60 receives the first reflected light flux R1 reflected by the front surface of the lens LE and the second reflected light flux R2 reflected by the back surface of the lens LE. A light receiving optical system 66 may be provided. That is, the image data acquisition mechanism 60 in the present embodiment acquires cross-sectional image data 75 including front image data P1s formed by the first reflected light beam R1 and back surface image data Q2s formed by the second reflected light beam. can do.

画像データ取得機構60は、測定光学系61、Y方向移動機構62、Z方向移動機構63、等を備える。例えば、本実施例における測定光学系61は、シャインプルークの原理に基づいた投光光学系64及び受光光学系66によって、レンズLEの断面画像データ75を取得する構成となっている。もちろん、測定光学系61は、シャインプルークの原理に基づいた光学系ではなく、異なる構成の光学系を用いてもよい。   The image data acquisition mechanism 60 includes a measurement optical system 61, a Y-direction moving mechanism 62, a Z-direction moving mechanism 63, and the like. For example, the measurement optical system 61 in the present embodiment is configured to acquire the cross-sectional image data 75 of the lens LE by the light projection optical system 64 and the light reception optical system 66 based on the principle of the Shine Pluke. Of course, the measurement optical system 61 may use an optical system having a different configuration instead of an optical system based on the principle of Shine Pluke.

投光光学系64は、測定光束をレンズLEの前面または後面に向けて投光する。例えば、投光光学系64は、測定光束をレンズLEに対して垂直に投光してもよい。この場合には、投光光学系64の光軸L3が、レンズLEに対して垂直となる。また、例えば、投光光学系64は、測定光束をレンズLEに対して所定の傾斜角度で投光してもよい。例えば、本実施例においては、投光光学系64が、測定光束をレンズLEの前面に向けて垂直に投光する構成を例に挙げる。なお、この場合には、レンズLEの前面で測定光束が乱反射するようにしてもよい。   The projection optical system 64 projects the measurement light flux toward the front or back of the lens LE. For example, the projection optical system 64 may project the measurement light flux perpendicularly to the lens LE. In this case, the optical axis L3 of the projection optical system 64 is perpendicular to the lens LE. In addition, for example, the projection optical system 64 may project the measurement light beam at a predetermined inclination angle with respect to the lens LE. For example, in the present embodiment, a configuration in which the light projecting optical system 64 vertically projects the measurement light flux toward the front of the lens LE will be described as an example. In this case, the measurement light flux may be irregularly reflected on the front surface of the lens LE.

投光光学系64は、光源65を備える。光源65は、測定光束をレンズLEに向けて照射する。例えば、光源65は、LED、レーザー、等であってもよい。なお、本実施例における投光光学系64は、光源65とレンズLEとの間にレンズを配置した構成であってもよい。また、本実施例における投光光学系64は、光源65とレンズLEとの間にピンホールを配置した構成であってもよい。   The projection optical system 64 includes a light source 65. The light source 65 directs the measurement light beam to the lens LE. For example, the light source 65 may be an LED, a laser, or the like. The light projecting optical system 64 in the present embodiment may have a configuration in which a lens is disposed between the light source 65 and the lens LE. In addition, the light projecting optical system 64 in the present embodiment may have a configuration in which a pinhole is disposed between the light source 65 and the lens LE.

受光光学系66は、レンズLEの前面で反射された第1反射光束R1と、レンズLEの後面で反射された第2反射光束R2と、を受光する。例えば、受光光学系66の光軸L4は、投光光学系64の光軸L3に対して所定の傾斜角度で配置される。受光光学系66は、レンズ67、絞り68、撮像素子69、等を備える。レンズ67は、レンズLEの前面及び後面にて反射される反射光束(例えば、レンズLEの正反射光、レンズLEの散乱光、等)を絞り68の位置に集光させる。絞り68は、レンズ67の焦点距離に配置される。また、絞り68は、受光光学系66とレンズLEとの距離が変化しても、撮像素子69が撮像する第1反射光束R1及び第2反射光束R2の像の大きさが変化しない(すなわち、撮像倍率が一定となる)ように配置される。撮像素子69は、二次元撮像素子(例えば、CCD、CMOS等の少なくともいずれか)であってもよいし、一次元撮像素子(例えば、ラインセンサ等)であってもよい。撮像素子69は、レンズLEと共役な位置に配置される。撮像素子69は、その受光面が光軸L4に対して垂直となるように配置されてもよい。なお、レンズ67と撮像素子69とは、シャインプルークの原理に基づいて光軸L4上に配置されている。例えば、投光光学系64によりレンズLEに照射される測定光束と、レンズLE及びレンズ67を含むレンズ系と、撮像素子69の受光面(すなわち、撮像位置)と、がシャインプルークの関係にて配置される。   The light receiving optical system 66 receives the first reflected light flux R1 reflected by the front surface of the lens LE and the second reflected light flux R2 reflected by the rear surface of the lens LE. For example, the optical axis L4 of the light receiving optical system 66 is disposed at a predetermined inclination angle with respect to the optical axis L3 of the light projecting optical system 64. The light receiving optical system 66 includes a lens 67, an aperture 68, an imaging element 69, and the like. The lens 67 condenses the reflected light flux (for example, the specular reflected light of the lens LE, the scattered light of the lens LE, etc.) reflected by the front surface and the back surface of the lens LE at the position of the stop 68. The stop 68 is located at the focal length of the lens 67. Further, in the stop 68, even if the distance between the light receiving optical system 66 and the lens LE changes, the size of the image of the first reflected light flux R1 and the second reflected light flux R2 captured by the imaging device 69 does not change (that is, The imaging magnification is fixed). The imaging device 69 may be a two-dimensional imaging device (for example, at least one of a CCD, a CMOS, and the like) or a one-dimensional imaging device (for example, a line sensor and the like). The imaging element 69 is disposed at a position conjugate to the lens LE. The imaging element 69 may be arranged such that its light receiving surface is perpendicular to the optical axis L4. The lens 67 and the image pickup device 69 are disposed on the optical axis L4 based on the principle of Shine Pluke. For example, the measurement light beam irradiated onto the lens LE by the light projection optical system 64, the lens system including the lens LE and the lens 67, and the light receiving surface of the image sensor 69 (that is, the imaging position) Be placed.

例えば、レンズLEに照射された測定光束は、レンズLEの前面にて反射される反射光束と、レンズLEの後面へと向かう測定光束と、に分岐する。レンズLEの前面では測定光束が様々な方向に反射されるが、光軸L4と平行に反射された反射光束(すなわち、第1反射光束R1)が、レンズ67及び絞り68を介して撮像素子69に到達する。レンズLEの後面へと向かった測定光束は、レンズLEの後面にて様々な方向に反射されるが、光軸L4と平行に反射された反射光束(すなわち、第2反射光束R2)が、レンズ67及び絞り68を介して撮像素子69に到達する。例えば、このようにして、撮像素子69は、レンズLEの前面と後面にて同じ角度で反射された第1反射光束と第2反射光束とを撮像することができる。   For example, the measurement light beam irradiated to the lens LE is branched into a reflected light beam reflected on the front surface of the lens LE and a measurement light beam directed to the rear surface of the lens LE. The measurement luminous flux is reflected in various directions on the front surface of the lens LE, but the reflected luminous flux (that is, the first reflected luminous flux R1) reflected parallel to the optical axis L4 passes through the lens 67 and the diaphragm 68 to the imaging device 69. To reach. The measurement light flux directed to the back surface of the lens LE is reflected in various directions on the back surface of the lens LE, but the reflected light flux reflected in parallel to the optical axis L4 (that is, the second reflected light flux R2) The image sensor 69 is reached via the point 67 and the aperture 68. For example, in this manner, the imaging element 69 can capture an image of the first reflected beam and the second reflected beam reflected at the same angle on the front surface and the rear surface of the lens LE.

なお、本実施例においては、絞り68を用いて光軸L4と平行に反射された測定光束を撮像素子69へと導いているがこれに限定されない。例えば、絞り68は、光軸L4と平行に反射されていない測定光束を撮像素子69へと導いてもよい。   In the present embodiment, the measurement light flux reflected in parallel with the optical axis L4 is guided to the imaging element 69 using the stop 68, but the invention is not limited to this. For example, the stop 68 may guide the measurement light flux not reflected in parallel to the optical axis L4 to the imaging element 69.

Y方向移動機構62は、測定光学系61の上下方向(Y方向)における位置を調整することによって、撮像素子69の撮像位置を調整する。例えば、Y方向移動機構62は、投光光学系64及び受光光学系66をY方向へ一体的に移動させる。例えば、Y方向移動機構62は、モータ及びスライド機構により構成されてもよい。Z方向移動機構63は、測定光学系61の前後方向(Z方向)における位置を調整することによって、光源65からレンズLEに向けて照射される測定光束の位置を調整する。例えば、Z方向移動機構63は、投光光学系64及び受光光学系66を前後方向(Z方向)へ一体的に移動させる。例えば、Z方向移動機構63は、モータ及びスライド機構により構成されてもよい。なお、実施例においては、投光光学系64と受光光学系66とが一体的に移動する構成を例に挙げたがこれに限定されない。例えば、投光光学系64と受光光学系66とを別々に移動させる構成であってもよい。   The Y-direction moving mechanism 62 adjusts the imaging position of the imaging element 69 by adjusting the position of the measurement optical system 61 in the vertical direction (Y direction). For example, the Y-direction moving mechanism 62 integrally moves the light projecting optical system 64 and the light receiving optical system 66 in the Y direction. For example, the Y-direction moving mechanism 62 may be configured by a motor and a slide mechanism. The Z direction moving mechanism 63 adjusts the position of the measurement light beam irradiated from the light source 65 toward the lens LE by adjusting the position of the measurement optical system 61 in the front-rear direction (Z direction). For example, the Z-direction moving mechanism 63 integrally moves the light projecting optical system 64 and the light receiving optical system 66 in the front-rear direction (Z direction). For example, the Z-direction moving mechanism 63 may be configured by a motor and a slide mechanism. In the embodiment, the configuration in which the light projecting optical system 64 and the light receiving optical system 66 move integrally is described as an example, but the present invention is not limited to this. For example, the light projecting optical system 64 and the light receiving optical system 66 may be moved separately.

例えば、画像データ取得機構60は、Y方向移動機構62を備えることによって、様々なコバの厚みt(以下、コバ厚t)のレンズLEに対応した断面画像データ75(図9参照)を取得できるようになる。図12はレンズLEのコバ厚tが異なる場合のY方向移動機構62について説明する図である。図12(a)はレンズLEのコバが薄い場合の反射光束を示す図である。図12(b)はレンズLEのコバが厚い場合の反射光束を示す図である。図12(c)は、図12(b)に示す状態から撮像素子69の撮像位置を調整した場合の反射光束を示す図である。   For example, by providing the Y-direction moving mechanism 62, the image data acquisition mechanism 60 can acquire cross-sectional image data 75 (see FIG. 9) corresponding to the lenses LE with various edge thicknesses t (hereinafter, edge thickness t). It will be. FIG. 12 is a view for explaining the Y-direction moving mechanism 62 when the edge thickness t of the lens LE is different. FIG. 12A is a view showing a reflected light beam when the edge of the lens LE is thin. FIG. 12B is a view showing a reflected light beam when the edge of the lens LE is thick. FIG.12 (c) is a figure which shows a reflected light beam at the time of adjusting the imaging position of the image pick-up element 69 from the state shown in FIG.12 (b).

例えば、レンズLEの前面で反射された第1反射光束R1と、レンズLEの後面で反射された第2反射光束R2と、の間隔Wは、レンズLEのコバ厚tにより変化する。例えば、コバが薄いレンズLEよりも、コバが厚いレンズLEのほうが、第1反射光束R1と第2反射光束R2との間隔Wが広くなる。例えば、図12(a)と図12(b)のように、測定光学系61が固定配置であると、レンズLEのコバ厚tによっては、第1反射光束R1と第2反射光束R2との双方が撮像素子69の受光面に到達しない場合がある。例えば、図12(b)では、第2反射光束R2が撮像素子69の受光面から外れている。そこで、第1反射光束R1と第2反射光束R2との双方が撮像素子69の受光面に到達するように、Y方向移動機構62を駆動して撮像素子69の撮像位置を調整する。例えば、本実施例においては、Y方向移動機構62が測定光学系61をレンズLEに近づく方向へと移動させる。これによって、第1反射光束R1と第2反射光束R2とは、図12(c)のように撮像素子69の受光面へと到達するようになる。また、これによって、画像データ取得機構60は、第1反射光束R1により形成された前面像データP1sと、第2反射光束により形成された後面像データQ2sと、を含む断面画像データ75(図9参照)を取得することができる。   For example, the distance W between the first reflected light flux R1 reflected by the front surface of the lens LE and the second reflected light flux R2 reflected by the back surface of the lens LE varies with the edge thickness t of the lens LE. For example, the distance W between the first reflected light flux R1 and the second reflected light flux R2 is wider in the lens LE where the edge is thicker than in the lens LE where the edge is thin. For example, as shown in FIGS. 12A and 12B, if the measurement optical system 61 is in a fixed arrangement, the first reflected beam R1 and the second reflected beam R2 may be selected depending on the edge thickness t of the lens LE. There are cases in which both do not reach the light receiving surface of the image sensor 69. For example, in FIG. 12B, the second reflected light flux R2 is out of the light receiving surface of the imaging element 69. Therefore, the Y-direction moving mechanism 62 is driven to adjust the imaging position of the imaging element 69 so that both the first reflected luminous flux R1 and the second reflected luminous flux R2 reach the light receiving surface of the imaging element 69. For example, in the present embodiment, the Y-direction moving mechanism 62 moves the measurement optical system 61 in the direction approaching the lens LE. As a result, the first reflected light flux R1 and the second reflected light flux R2 reach the light receiving surface of the image sensor 69 as shown in FIG. 12C. Further, as a result, the image data acquisition mechanism 60 includes the cross-sectional image data 75 including the front image data P1s formed by the first reflected light flux R1 and the back surface image data Q2s formed by the second reflected light flux (FIG. Reference) can be obtained.

なお、測定光学系61が固定配置である場合、レンズLEのコバが薄くても、レンズLEのカーブ値が大きいと、第1反射光束R1と第2反射光束R2との双方が撮像素子69の受光面に到達しないことがある。このような場合にも、Y方向移動機構62を駆動して撮像素子69の撮像位置を調整することで、前面像データP1sと後面像データQ2sとを含む断面画像データ75を取得することができるようになる。   In the case where the measurement optical system 61 is in a fixed arrangement, even if the edge of the lens LE is thin, if the curve value of the lens LE is large, both the first reflected light flux R1 and the second reflected light flux R2 It may not reach the light receiving surface. Even in such a case, cross-sectional image data 75 including front image data P1s and rear surface image data Q2s can be acquired by adjusting Y-direction moving mechanism 62 to adjust the imaging position of imaging element 69. It will be.

また、例えば、画像データ取得機構60(図6参照)は、Z方向移動機構63を備えることによって、レンズLEの玉型形状TGに基づいた位置に向けて、投光光学系64からの測定光束を照射することができる。なお、レンズLEの玉型形状に基づいた位置は、玉型形状と一致する位置であってもよいし、玉型形状を基に演算した位置(例えば、各動径角におけるヤゲンの位置、各動径角における面取りの位置、等)であってもよい。例えば、本実施例においては、円筒ベース11(図2参照)の回転により支持ピン14上に載置されたレンズLEが水平方向に回転し、かつ、Z方向移動機構63が測定光学系61をレンズLEの動径長方向に移動させることによって、レンズLEの玉型形状TGに基づいた位置に測定光束が照射される。これによって、画像データ取得機構60は、レンズLEの玉型形状に基づいた断面画像データ75を取得することができる。   Also, for example, the image data acquisition mechanism 60 (see FIG. 6) includes the Z-direction moving mechanism 63 to direct the measurement light flux from the projection optical system 64 toward the position based on the lens shape TG of the lens LE. Can be irradiated. The position based on the lens shape of the lens LE may be a position coincident with the lens shape, or a position calculated based on the lens shape (for example, the position of the bevel at each radius vector angle, The position of the chamfer at the radial angle, etc.) may be used. For example, in the present embodiment, the lens LE mounted on the support pin 14 is rotated in the horizontal direction by the rotation of the cylindrical base 11 (see FIG. 2), and the Z direction moving mechanism 63 By moving the lens LE in the radial length direction, the measurement light beam is irradiated to a position based on the lens shape TG of the lens LE. Thus, the image data acquisition mechanism 60 can acquire the cross-sectional image data 75 based on the lens shape of the lens LE.

<制御系>
図7はカップ取付装置1が備える制御系の概略構成図である。制御部70は、CPU(プロセッサ)、RAM、ROM、等を備える。例えば、制御部70のCPUは、カップ取付装置1の制御を司る。制御部70のRAMは、各種の情報を一時的に記憶する。制御部70のROMには、CPUが実行する各種のプログラム等が記憶されている。
<Control system>
FIG. 7 is a schematic configuration diagram of a control system provided in the cup mounting device 1. The control unit 70 includes a CPU (processor), a RAM, a ROM, and the like. For example, the CPU of the control unit 70 controls the cup mounting device 1. The RAM of the control unit 70 temporarily stores various types of information. The ROM of the control unit 70 stores various programs to be executed by the CPU.

例えば、制御部70には、ディスプレイ2、入力ボタン3、モータ34、光源42、光源65、撮像素子47、撮像素子51、撮像素子69、不揮発性メモリ71(以下、メモリ71)、等が電気的に接続されている。また、例えば、制御部70には、カップ取付機構30が有するX方向移動機構35、Y方向移動機構36、Z方向移動機構37がそれぞれ備える図示なきモータ等が接続されている。また、例えば、制御部70には、画像データ取得機構60が有するY方向移動機構62とZ方向移動機構63とがそれぞれ備える図示なきモータ等が接続されている。   For example, in the control unit 70, the display 2, the input button 3, the motor 34, the light source 42, the light source 65, the imaging device 47, the imaging device 51, the imaging device 69, the non-volatile memory 71 (hereinafter, memory 71), etc. Connected. Further, for example, the control unit 70 is connected to a motor (not shown) provided in each of the X-direction moving mechanism 35, the Y-direction moving mechanism 36, and the Z-direction moving mechanism 37 included in the cup attachment mechanism 30. Further, for example, the control unit 70 is connected to a motor (not shown) and the like provided with each of the Y-direction moving mechanism 62 and the Z-direction moving mechanism 63 which the image data acquisition mechanism 60 has.

例えば、メモリ71には、電源の供給が遮断されても記憶内容を保持できる非一過性の記憶媒体が用いられてもよい。例えば、メモリ71としては、ハードディスクドライブ、フラッシュROM、USBメモリ、等を使用することができる。例えば、メモリ71には、レンズ情報測定機構40により測定したレンズLEの光学特性、測定光学系61により取得したレンズLEの断面画像データ、フレーム形状測定機構20を用いてトレースしたフレームの内周形状、等が記憶されてもよい。   For example, as the memory 71, a non-transitory storage medium capable of retaining stored contents even when the supply of power is shut off may be used. For example, as the memory 71, a hard disk drive, a flash ROM, a USB memory, or the like can be used. For example, in the memory 71, the optical characteristics of the lens LE measured by the lens information measurement mechanism 40, the cross-sectional image data of the lens LE acquired by the measurement optical system 61, and the inner circumferential shape of the frame traced using the frame shape measurement mechanism 20. , Etc. may be stored.

<制御動作>
上記の構成を備えるカップ取付装置1の制御について説明する。操作者は、眼鏡を作製する際に、カップ取付装置1及びレンズ周縁加工装置を用いて、レンズLEを加工する。ここで、従来では、レンズLEの表面にカップCuを取付けるためにカップ取付装置1が用いられていた。また、従来では、レンズLEのコバ情報を取得するため、レンズLEのコバに形成する仕上げ加工位置(例えば、ヤゲンの位置、溝の位置、面取りの位置、等)を設定するため、及びレンズLEの周縁を加工するため、にレンズ周縁加工装置が用いられていた。このような一連の動作の中では、カップ取付装置1を使用する時間に比べて、レンズ周縁加工装置を使用する時間が圧倒的に長くなっていることがわかった。操作者は、作業を効率よく行いたい一方で、レンズLEへのカップCuの取付けが終了しても、レンズ周縁加工装置が使用中であるために、次の工程に進むことができない場合があった。
<Control action>
The control of the cup mounting device 1 having the above configuration will be described. The operator processes the lens LE by using the cup attaching device 1 and the lens peripheral edge processing device when manufacturing the glasses. Here, conventionally, the cup attaching device 1 has been used to attach the cup Cu to the surface of the lens LE. Also, conventionally, in order to acquire edge information of the lens LE, to set a finishing position (for example, position of a bevel, position of a groove, position of chamfering, etc.) formed on an edge of the lens LE, and A lens edge processing apparatus has been used to process the edge of the lens. In such a series of operations, it was found that the time for using the lens rim processing device was significantly longer than the time for using the cup mounting device 1. The operator may want to carry out the work efficiently but may not be able to proceed to the next step because the lens edge processing apparatus is in use even if the attachment of the cup Cu to the lens LE is completed. The

そこで、本実施例においては、操作者がレンズ周縁加工装置の空きを待つ状態が緩和されるように、カップ取付装置1を用いてレンズLEへのカップCuの取付け、コバ情報の取得、及び仕上げ加工位置の設定を行い、レンズ周縁加工装置を用いてレンズLEの周縁の加工を行うようにした。以下、図8に示すフローチャートに基づいて、ステップS1〜S8を順に説明する。例えば、本実施例では、カップ取付装置1を用いてステップS1〜ステップS7までのステップが行われ、レンズ周縁加工装置を用いてステップS8〜ステップS12が行われる。   Therefore, in the present embodiment, the cup attaching device 1 is used to attach the cup Cu to the lens LE, obtain edge information, and finish so that the operator waits for the lens edge processing apparatus to be idled. The processing position is set, and processing of the peripheral edge of the lens LE is performed using the lens peripheral processing device. Hereinafter, steps S1 to S8 will be described in order based on the flowchart shown in FIG. For example, in the present embodiment, steps from step S1 to step S7 are performed using the cup attachment device 1, and steps S8 to S12 are performed using the lens peripheral edge processing device.

<カップ取付装置>
例えば、操作者はカップ取付装置1を起動して、以下で説明するステップを順に行う。
<Cup mounting device>
For example, the operator activates the cup attachment device 1 and sequentially performs the steps described below.

<玉型形状の取得(S1)>
まず、制御部70はレンズLEの玉型形状を取得する。レンズLEの玉型形状は、デモレンズの外周形状、フレームの内周形状、等であってもよい。例えば、デモレンズの外周形状を取得する場合には、レンズ情報測定機構40を用いてデモレンズの全体像を撮像することで、その外周形状を検出するようにしてもよい。また、例えば、フレームの内周形状を取得する場合には、フレーム形状測定機構20を用いてフレームをトレースすることで、その内周形状を検出するようにしてもよい。もちろん、別の装置を用いて取得したレンズLEの玉型形状を、カップ取付装置1に読み込ませてもよい。例えば、制御部70は、このように取得したレンズLEの玉型形状をメモリ71に記憶する。なお、レンズLEの玉型形状は、左レンズと右レンズの双方において、それぞれの玉型形状を取得してもよい。左レンズ及び右レンズのいずれか一方の玉型形状を取得し、これを左右反転することで、もう片方の玉型形状を取得してもよい。
<Acquisition of ball shape (S1)>
First, the control unit 70 acquires the lens shape of the lens LE. The lens shape of the lens LE may be the outer peripheral shape of the demo lens, the inner peripheral shape of the frame, or the like. For example, when acquiring the outer peripheral shape of the demo lens, the outer peripheral shape may be detected by capturing the entire image of the demo lens using the lens information measurement mechanism 40. Further, for example, when acquiring the inner peripheral shape of the frame, the inner peripheral shape may be detected by tracing the frame using the frame shape measuring mechanism 20. Of course, the cup shape of the lens LE acquired using another device may be read into the cup attachment device 1. For example, the control unit 70 stores the lens shape of the lens LE acquired in this manner in the memory 71. The lens shape of the lens LE may be obtained for each of the left lens and the right lens. The lens shape of one of the left lens and the right lens may be acquired, and the other lens shape may be acquired by inverting the left and right.

<屈折率の取得(S2)>
続いて、制御部70はレンズLEの屈折率を取得する。レンズLEの屈折率は、操作者が入力ボタン3を操作することにより取得されてもよい。例えば、レンズLEの材質(例えば、プラスチック、ガラス、等)により屈折率は決まっている(つまり、加工するレンズLEによって屈折率が決まっている)ので、操作者は既知の屈折率を入力してもよい。また、操作者は、別の装置を用いて予め取得しておいたレンズLEの屈折率を入力してもよい。なお、カップ取付装置1がレンズLEの屈折率を測定可能な構成を備え、これを用いて屈折率を求めるようにしてもよい。例えば、制御部70は、このように取得したレンズLEの屈折率をメモリ71に記憶する。
<Acquisition of refractive index (S2)>
Subsequently, the control unit 70 acquires the refractive index of the lens LE. The refractive index of the lens LE may be obtained by the operator operating the input button 3. For example, since the refractive index is determined by the material of the lens LE (for example, plastic, glass, etc.) (that is, the refractive index is determined by the lens LE to be processed), the operator inputs a known refractive index It is also good. The operator may also input the refractive index of the lens LE acquired in advance using another device. The cup attachment device 1 may have a configuration capable of measuring the refractive index of the lens LE, and the refractive index may be obtained using this. For example, the control unit 70 stores the refractive index of the lens LE acquired in this manner in the memory 71.

<加工条件とレイアウトの設定(S3)>
例えば、制御部70は、レンズLEの玉型形状及び屈折率を取得すると、ディスプレイ2に玉型形状を表示させる。操作者は、入力ボタン3を操作して、左レンズ及び右レンズのそれぞれについて、レンズLEの加工条件を設定してもよい。例えば、レンズLEの加工条件は、レンズLEの種類(例えば、単焦点レンズ、二重焦点レンズ、累進レンズ、等)、レンズLEの材質、フレームの材質、各種加工(例えば、鏡面加工、面取り加工、溝掘り加工、等)の有無、レンズLEに対するカップCuの取付け位置(例えば、レンズLEの光学中心位置、玉型の幾何学中心位置、等)、等の少なくともいずれかであってもよい。また、操作者は、入力ボタン3を操作して、レンズLEのレイアウトを設定してもよい。例えば、レンズLEのレイアウトは、フレーム中心間距離、眼鏡装用者の瞳孔間距離、眼鏡装用者の乱視軸角度、等の少なくともいずれかであってもよい。
<Setting of processing conditions and layout (S3)>
For example, when acquiring the lens shape and refractive index of the lens LE, the control unit 70 causes the display 2 to display the lens shape. The operator may operate the input button 3 to set processing conditions of the lens LE for each of the left lens and the right lens. For example, the processing conditions of the lens LE are the type of the lens LE (for example, monofocal lens, bifocal lens, progressive lens, etc.), the material of the lens LE, the material of the frame, various processing (for example, mirror surface processing, chamfering processing And / or grooving, etc., and the attachment position of the cup Cu to the lens LE (for example, the optical center position of the lens LE, the geometric center position of the lens, etc.), and the like. The operator may also operate the input button 3 to set the layout of the lens LE. For example, the layout of the lens LE may be at least one of a distance between frame centers, a distance between pupils of the spectacle wearer, and an astigmatic axis angle of the spectacle wearer.

<軸打ち(S4)>
操作者は、レンズLEの加工条件及びレイアウトを設定し終えると、レンズLE(例えば、本実施例においては左レンズ)を支持ピン14上に載置し、カップCuを装着部31に取付ける。また、操作者は、図示なきモード選択ボタンを操作して、設定モードから軸打ちモードに切り換える。軸打ちモードが選択されると、制御部70は、レンズ情報測定機構40が備える光源42を点灯させる。また、ディスプレイ2には、支持ピン14上に載置したレンズLEの光学中心位置(すなわち、後述する光学中心マーク)を、光軸L1に位置合わせするための目標となるガイドマークが表示される。
<Axial strike (S4)>
After setting the processing conditions and the layout of the lens LE, the operator mounts the lens LE (for example, the left lens in the present embodiment) on the support pin 14 and attaches the cup Cu to the mounting portion 31. Also, the operator operates the mode selection button (not shown) to switch from the setting mode to the axial driving mode. When the axial driving mode is selected, the control unit 70 turns on the light source 42 provided in the lens information measurement mechanism 40. Further, the display 2 displays guide marks serving as targets for aligning the optical center position (that is, an optical center mark described later) of the lens LE mounted on the support pins 14 with the optical axis L1. .

例えば、制御部70は、撮像素子51が撮像した開口像の位置座標を求め、これに基づいてレンズLEの光学中心位置及び光学特性(例えば、球面度数、柱面度数、乱視軸角度、等)を検出する。なお、開口像を用いたレンズLEの光学中心位置及び光学特性の検出については、周知の技術を応用しているため、詳しくは特開2008−241694号公報を参照されたい。例えば、制御部70が検出したレンズLEの光学中心位置Oには、光学中心マークが表示される。   For example, the control unit 70 obtains position coordinates of the aperture image captured by the imaging element 51, and based on this, the optical center position and optical characteristics of the lens LE (for example, spherical power, cylindrical power, astigmatic axis angle, etc.) To detect The detection of the optical center position and the optical characteristics of the lens LE using the aperture image is based on the application of a known technique, so refer to Japanese Patent Application Laid-Open No. 2008-241694 for details. For example, an optical center mark is displayed at the optical center position O of the lens LE detected by the control unit 70.

また、例えば、制御部70は、撮像素子51が撮像したレンズLEの像を画像処理することにより、レンズLEの外形を検出する。例えば、ディスプレイ2には、レンズLEの外形にレンズLEの玉型形状が重ねて表示される。このとき、レンズLEの玉型形状は、レンズLEの光学中心位置O、レンズLEのレイアウトデータ、撮像光学系48の撮像倍率、光軸L1に対する光軸L2の位置関係、等により、その表示位置と表示サイズが決定されてもよい。   Further, for example, the control unit 70 performs image processing on the image of the lens LE captured by the imaging device 51 to detect the outer shape of the lens LE. For example, on the display 2, the lens shape of the lens LE is superimposed and displayed on the outer shape of the lens LE. At this time, the lens shape of the lens LE is determined by the optical center position O of the lens LE, the layout data of the lens LE, the imaging magnification of the imaging optical system 48, the positional relationship of the optical axis L2 with respect to the optical axis L1, etc. And the display size may be determined.

例えば、操作者は、ディスプレイ2をみながら光学中心マークをガイドマークに一致させるようにレンズLEを移動させ、ディスプレイ2に表示された図示なき軸打ちボタンを操作する。制御部70は、操作信号に応じて、レンズLEの光学中心位置OにカップCuの中心軸K2が位置するように、カップ取付機構30のX方向移動機構35及びY方向移動機構36を駆動して、アーム32を移動させる。このとき、レンズLEが柱面度数をもつ場合には、検出した乱視軸角度に基づいて装着部31を中心軸K2の軸回りに回転させてもよい。制御部70は、カップCuの位置調整及び角度調整が完了すると、Z方向移動機構37を駆動してアーム32を下降させる。これによって、装着部31に装着されたカップCuは、設定された軸出し位置(すなわち、レンズLEの光学中心位置O)に基づいて、支持ピン14上に載置されたレンズLEの前面に軸打ちされる。   For example, the operator moves the lens LE so as to align the optical center mark with the guide mark while looking at the display 2, and operates an unshown unillustrated button displayed on the display 2. The control unit 70 drives the X-direction moving mechanism 35 and the Y-direction moving mechanism 36 of the cup mounting mechanism 30 so that the central axis K2 of the cup Cu is positioned at the optical center position O of the lens LE according to the operation signal. And move the arm 32. At this time, when the lens LE has a cylindrical dioptric power, the mounting portion 31 may be rotated about the central axis K2 based on the detected astigmatic axis angle. When the position adjustment and the angle adjustment of the cup Cu are completed, the control unit 70 drives the Z-direction moving mechanism 37 to lower the arm 32. Thus, the cup Cu mounted on the mounting portion 31 is pivoted to the front surface of the lens LE mounted on the support pin 14 based on the set centering position (that is, the optical center position O of the lens LE). Be beaten.

<断面画像データの取得(S5)>
例えば、操作者は、カップCuの軸打ちを終えると、図示なきモード選択ボタンを操作して、軸打ちモードからコバ情報測定モードに切り換える。例えば、これによって、本実施例では、レンズ支持機構10に載置されたレンズLEのコバ情報が測定される。コバ情報測定モードが選択されると、制御部70は、画像データ取得機構60が備える光源65を点灯させる。
<Acquisition of cross-sectional image data (S5)>
For example, the operator operates the mode selection button (not shown) to switch from the axial driving mode to the edge information measuring mode after finishing axial driving of the cup Cu. For example, in this embodiment, the edge information of the lens LE placed on the lens support mechanism 10 is measured. When the edge information measurement mode is selected, the control unit 70 turns on the light source 65 provided in the image data acquisition mechanism 60.

例えば、制御部70は、Z方向移動機構63の駆動を制御して、レンズLEにおける玉型形状TG上の初期位置に光軸L3を一致させる。なお、例えば、初期位置は、レンズLEの光学中心位置Oを通りZ方向に伸びる仮想線V1上の位置であってもよいし、レンズLEの光学中心位置Oを通りX方向に伸びる仮想線V2上の位置であってもよい。もちろん、初期位置は任意の位置に設定できてもよい。例えば、本実施例においては、レンズLEの玉型形状TG上であり、かつ仮想線V1上の位置である点P1に、光軸L3が一致される。これによって、光源65から照射された測定光束は、レンズLEの前面における点P1で反射する第1反射光束R1と、レンズLEの後面における点Q1に到達して反射される第2反射光束R2と、に分岐する。   For example, the control unit 70 controls the drive of the Z-direction moving mechanism 63 to make the optical axis L3 coincide with the initial position on the lens shape TG on the lens LE. For example, the initial position may be a position on an imaginary line V1 extending in the Z direction through the optical center position O of the lens LE, or an imaginary line V2 extending in the X direction through the optical center position O of the lens LE It may be at the upper position. Of course, the initial position may be set to any position. For example, in the present embodiment, the optical axis L3 coincides with a point P1 which is a position on the imaginary line V1 on the lens shape TG of the lens LE. Thereby, the measurement light beam emitted from the light source 65 is a first reflected light beam R1 reflected at the point P1 on the front surface of the lens LE, and a second reflected light beam R2 reached to the point Q1 on the back surface of the lens LE and reflected Branch to

また、例えば、制御部70は、Y方向移動機構62の駆動を制御して、撮像素子69が第1反射光束R1と第2反射光束R2との双方を受光できるように、画像データ取得機構60とレンズLEとのY方向における距離を調整する。例えば、制御部70は、撮像素子69が撮像した断面画像データ75(図9参照)に対して画像処理(例えば、エッジ検出等)を行い、輝度の立ち上がりを検出する。また、例えば、制御部70は、輝度の立ち上がりが2回現れたときに、第1反射光束R1の像(すなわち、後述するレンズLEの前面像データP1s)と、第2反射光束R2の像(すなわち、後述するレンズLEの後面像データQ2s)と、の双方を検出したと判定し、Y方向移動機構62の駆動を終了する。これによって、制御部70は、レンズLEの玉型形状TGにおける点P1の位置の断面画像データ75を取得することができる。   Also, for example, the control unit 70 controls the driving of the Y-direction moving mechanism 62 so that the image sensor 69 can receive both the first reflected light beam R1 and the second reflected light beam R2, the image data acquisition mechanism 60. The distance between the lens and the lens LE in the Y direction is adjusted. For example, the control unit 70 performs image processing (for example, edge detection and the like) on the cross-sectional image data 75 (see FIG. 9) captured by the imaging element 69, and detects the rise of the luminance. Also, for example, when the rising of the luminance appears twice, the control unit 70 generates an image of the first reflected light beam R1 (that is, front image data P1s of the lens LE described later) and an image of the second reflected light beam R2 That is, it is determined that both of the rear surface image data Q2s of the lens LE described later have been detected, and the driving of the Y direction moving mechanism 62 is ended. Thus, the control unit 70 can acquire the cross-sectional image data 75 of the position of the point P1 in the lens shape TG of the lens LE.

図9は断面画像データ75の一例である。例えば、断面画像データ75には、第1反射光束R1により形成されたレンズLEの前面像データと、第2反射光束R2により形成されたレンズLEの後面像データと、が含まれる。例えば、本実施例においては、レンズLEの前面における点P1の像が、レンズLEの前面像データP1sとなる。また、例えば、本実施例においては、レンズLEの後面における点Q1の像ではなく、第2反射光束R2の延長線上(すなわち、図7に示す点線上)にある点Q2の像が、レンズLEの後面像データQ2sとなる。これは、レンズLEが所定の屈折率をもち、第2反射光束R2がレンズLEの前面にて折れ曲がって撮像素子69に到達するためである。撮像素子69には、レンズLEの後面における点Q1の位置が、点Q2の位置にあるようにみえている。   FIG. 9 is an example of the cross-sectional image data 75. For example, the cross-sectional image data 75 includes front image data of the lens LE formed by the first reflected light flux R1 and back surface image data of the lens LE formed by the second reflected light flux R2. For example, in the present embodiment, the image of the point P1 on the front surface of the lens LE is the front image data P1s of the lens LE. Also, for example, in the present embodiment, the image of the point Q2 which is not the image of the point Q1 on the back surface of the lens LE but the extended line of the second reflected light beam R2 (that is, on the dotted line shown in FIG. 7) Back surface image data Q2s. This is because the lens LE has a predetermined refractive index, and the second reflected light beam R2 is bent at the front surface of the lens LE and reaches the imaging element 69. In the imaging element 69, the position of the point Q1 on the rear surface of the lens LE appears to be at the position of the point Q2.

例えば、制御部70は、レンズLE上の初期位置(すなわち、点P1)における断面画像データ75を取得すると、モータ17を駆動して円筒ベース11を回転させ、支持ピン14上に載置したレンズLEを水平方向に1周回転させる。また、例えば、制御部70は、Y方向移動機構62を制御し、第1反射光束R1が撮像素子69の受光面に対して常に同じ位置に到達するように調整する。また、例えば、制御部70は、レンズLEの玉型形状TGに基づいてZ方向移動機構63を制御し、レンズLEの玉型形状に対応する点(例えば、図6に示す点P2、P3、P4、…、Pn)に光軸L3を一致させる。なお、例えば、玉型形状に対応する点は、光学中心位置Oを中心として所定の角度(例えば、0.5度、1度、等)の間隔を空けた点であってもよいし、任意の点の数(例えば、1000個の点、等)であってもよい。   For example, when the control unit 70 acquires the cross-sectional image data 75 at the initial position (that is, the point P1) on the lens LE, the control unit 70 drives the motor 17 to rotate the cylindrical base 11 to place the lens mounted on the support pin 14 Rotate LE one turn horizontally. Further, for example, the control unit 70 controls the Y-direction moving mechanism 62 to adjust the first reflected light flux R1 to always reach the same position with respect to the light receiving surface of the imaging element 69. Further, for example, the control unit 70 controls the Z-direction moving mechanism 63 based on the lens shape TG of the lens LE to correspond to the lens shape of the lens LE (for example, points P2, P3 shown in FIG. The light axis L3 is made to coincide with P4, ..., Pn). For example, the point corresponding to the lens shape may be a point at an interval of a predetermined angle (for example, 0.5 degree, 1 degree, etc.) centering on the optical center position O, or arbitrary The number of points of (for example, 1000 points, etc.) may be used.

例えば、制御部70は、レンズLEの玉型形状における動径角上の各点についての断面画像データ75を連続的に取得するために、レンズLEを回転させながらZ方向移動機構63を制御する。また、例えば、制御部70は、レンズLEの前面像データP1sが、断面画像データ75において所定の位置に表示されるように、レンズLEを回転させながらY方向移動機構62を制御する。図14は前面像データP1sを所定の位置に表示させるための制御について説明する図である。例えば、制御部70は、断面画像データ75について、レンズLEの前面像データP1sと、所定の位置Mと、の深さ方向(言い換えると、断面画像データ75の上下方向)におけるずれ量Δdを検出する。また、例えば、制御部70は、検出したずれ量Δdに基づいて、Y方向移動機構62の駆動量を算出し、測定光学系61を移動させる。これによって、撮像素子69の受光面に到達する第1反射光束R1の撮像位置が変更され、断面画像データ75の所定の位置Mに前面像データP1sが一致する。   For example, the control unit 70 controls the Z-direction moving mechanism 63 while rotating the lens LE in order to continuously acquire the cross-sectional image data 75 at each point on the radial angle in the lens shape of the lens LE. . Also, for example, the control unit 70 controls the Y-direction moving mechanism 62 while rotating the lens LE so that the front image data P1s of the lens LE is displayed at a predetermined position in the cross-sectional image data 75. FIG. 14 is a diagram for explaining control for displaying the front image data P1s at a predetermined position. For example, the control unit 70 detects the displacement amount Δd in the depth direction of the front surface image data P1 s of the lens LE and the predetermined position M (in other words, the vertical direction of the cross sectional image data 75) in the cross sectional image data 75 Do. Also, for example, the control unit 70 calculates the drive amount of the Y-direction moving mechanism 62 based on the detected deviation amount Δd, and moves the measurement optical system 61. As a result, the imaging position of the first reflected light flux R1 reaching the light receiving surface of the imaging element 69 is changed, and the front image data P1s coincides with the predetermined position M of the cross-sectional image data 75.

例えば、制御部70は、レンズLEの玉型形状におけるすべての動径角についてずれ量Δdを検出し、これに基づいてY方向移動機構62を駆動する。すなわち、制御部70は、レンズLE上で断面画像データ75を取得する位置が変更される毎に、Y方向移動機構62を駆動して、断面画像データ75の所定の位置Mに前面像データP1sが表示されるようにする。また、例えば、制御部70は、ずれ量Δdに基づいてY方向移動機構62を駆動した駆動量から、レンズLEの玉型形状における各動径角の前面位置(例えば、位置座標等)を特定する。例えば、この場合には、Y方向移動機構62を構成するモータのパルス数等を取得することで、各動径角の前面位置を特定してもよい。例えば、制御部70は、レンズLEを水平方向に1周回転させ、レンズLEの玉型形状におけるすべての動径角上の点の断面画像データと、レンズLEの前面位置と、を取得して、これらをメモリ71に記憶する。   For example, the control unit 70 detects the deviation amount Δd for all radius vector angles in the lens shape of the lens LE, and drives the Y direction moving mechanism 62 based on this. That is, every time the position at which the cross-sectional image data 75 is acquired on the lens LE is changed, the control unit 70 drives the Y-direction moving mechanism 62 to set the front image data P1s at the predetermined position M of the cross-sectional image data 75. To be displayed. In addition, for example, the control unit 70 specifies the front position (for example, position coordinates etc.) of each radius vector angle in the lens shape of the lens LE from the drive amount that drives the Y direction moving mechanism 62 based on the shift amount Δd. Do. For example, in this case, the front position of each radius vector angle may be specified by acquiring the number of pulses of the motor constituting the Y direction moving mechanism 62 or the like. For example, the control unit 70 rotates the lens LE one turn in the horizontal direction, and acquires cross-sectional image data of all radial angle points in the lens shape of the lens LE and the front position of the lens LE. , These are stored in the memory 71.

なお、本実施例では支持ピン14上に載置したレンズLEを1周回転させているが、何周回転させてもよい。例えば、支持ピン14上に載置したレンズLEを2周回転させ、レンズLEの玉型形状を基にして演算したヤゲンの位置と面取りの位置とにおける断面画像データをそれぞれ取得してもよい。例えば、この場合には、Z方向移動機構63を制御して、光軸L3がレンズLE上のヤゲンの位置に一致するようにレンズLEを1周させた後、光軸L3がレンズLE上の面取りの位置(例えば、ヤゲンの位置から所定の距離だけ内側の位置)に一致するように、さらにレンズを1周させてもよい。   In the present embodiment, the lens LE placed on the support pin 14 is rotated once, but it may be rotated any number of turns. For example, the lens LE placed on the support pin 14 may be rotated twice, and cross-sectional image data at the position of the bevel and the position of the chamfer calculated based on the lens shape of the lens LE may be acquired. For example, in this case, after the lens LE is made to make one rotation so that the optical axis L3 coincides with the position of the bevel on the lens LE by controlling the Z direction moving mechanism 63, the optical axis L3 is on the lens LE. The lens may be further rotated one round so as to coincide with the position of the chamfer (for example, a position at a predetermined distance from the position of the bevel).

<第1コバ情報の取得(S6)>
例えば、カップ取付装置1は、レンズLEのコバ情報を取得するためのコバ測定機構を有してもよい。例えば、制御部70は、コバ測定機構を制御することによってレンズLEを測定し、コバ情報を取得するようにしてもよい。この場合、制御部70は、レンズLEの玉型形状に基づいてコバ測定機構を制御し、コバ情報を取得するようにしてもよい。なお、本実施例では、このようなコバ測定機構を前述の画像データ取得機構60が兼ね、制御部70がコバ情報を取得する場合を例に挙げて説明する。
<Acquisition of first edge information (S6)>
For example, the cup attachment device 1 may have an edge measurement mechanism for obtaining edge information of the lens LE. For example, the control unit 70 may measure the lens LE by controlling the edge measurement mechanism to acquire edge information. In this case, the control unit 70 may control the edge measurement mechanism based on the lens shape of the lens LE to acquire edge information. In the present embodiment, such an edge measurement mechanism is used as the image data acquisition mechanism 60 described above, and the control unit 70 acquires edge information as an example.

例えば、制御部70は、取得した各断面画像データ75について、レンズLEのコバに関する情報であるコバ情報(第1コバ情報)を取得する。例えば、本実施例においては、レンズLEの玉型形状に基づいた断面画像データ75を取得しているため、レンズLEの玉型形状に基づいたコバ情報を取得することが可能である。例えば、コバ情報としては、レンズLEにおけるコバの前面位置、コバの後面位置、コバ厚、等が取得されてもよい。もちろん、コバ情報としては、レンズLEの前面カーブ値や後面カーブ値を取得するようにしてもよい。なお、本実施例では、レンズLEのコバ情報として、コバ厚を取得する場合を例に挙げる。   For example, the control unit 70 acquires edge information (first edge information), which is information on the edge of the lens LE, for each of the acquired cross-sectional image data 75. For example, in the present embodiment, since the cross-sectional image data 75 based on the lens shape of the lens LE is acquired, it is possible to acquire edge information based on the lens shape of the lens LE. For example, as the edge information, the front surface position of the edge in the lens LE, the rear surface position of the edge, the edge thickness, and the like may be acquired. Of course, as the edge information, the front curve value and the rear curve value of the lens LE may be acquired. In the present embodiment, as an example of edge information of the lens LE, an edge thickness is obtained.

例えば、制御部70は、断面画像データ75上において、前面像データP1sと後面像データQ2sの位置座標(例えば、ピクセル座標等)を取得する。また、例えば、制御部70は、前面像データP1sと後面像データQ2sのピクセル座標を用いて、レンズLEの前面像データP1sと、レンズLEの後面像データQ2sと、の間隔hを計算する。例えば、この場合、制御部70は、各ピクセル座標の差分を求めることで、間隔hのピクセル数を計算してもよい。また、例えば、この場合、制御部70は、撮像素子69の1ピクセル当たりの実距離を予め設定しておくことで、間隔hのピクセル数を実距離に変換することができる。   For example, on the cross-sectional image data 75, the control unit 70 acquires position coordinates (for example, pixel coordinates and the like) of the front image data P1s and the back surface image data Q2s. Further, for example, the control unit 70 calculates an interval h between the front image data P1 s of the lens LE and the rear image data Q2 s of the lens LE, using the pixel coordinates of the front image data P1 s and the rear image data Q2 s. For example, in this case, the control unit 70 may calculate the number of pixels in the interval h by obtaining the difference between each pixel coordinate. Also, for example, in this case, the control unit 70 can convert the number of pixels in the interval h into an actual distance by setting in advance the actual distance per pixel of the imaging device 69.

しかし、例えば、断面画像データ75は、前述のように第2反射光束がレンズLEの前面で折れ曲がっているので、レンズLEの前面像データP1sと後面像データQ2sとの間隔hは、必ずしもレンズLEのコバ厚tに一致しない。このため、例えば、制御部70は、レンズLEの屈折率及び断面画像データ75に基づいたレンズLEのコバ厚tを取得するようにしてもよい。例えば、本実施例においては、制御部70が、断面画像データ75に基づいて取得したレンズLEの前面像データP1sと後面像データQ2sとの間隔hの実距離を、レンズLEの屈折率に基づいて補正することで、レンズLEのコバ厚tを求める。すなわち、本実施例においては、断面画像データに基づいて取得したコバ厚を屈折率に基づいて補正することで、レンズLEのコバ厚を取得する。   However, for example, in the cross-sectional image data 75, since the second reflected light flux is bent at the front surface of the lens LE as described above, the distance h between the front image data P1s and the rear surface image data Q2s of the lens LE is not necessarily the lens LE. It does not match the edge thickness t. Therefore, for example, the control unit 70 may acquire the edge thickness t of the lens LE based on the refractive index of the lens LE and the cross-sectional image data 75. For example, in the present embodiment, the control unit 70 determines the actual distance h between the front image data P1s of the lens LE and the rear image data Q2s acquired based on the cross-sectional image data 75 based on the refractive index of the lens LE. The edge thickness t of the lens LE is determined by performing correction. That is, in the present embodiment, the edge thickness of the lens LE is obtained by correcting the edge thickness obtained based on the cross-sectional image data based on the refractive index.

例えば、制御部70は、以下の数式を用いることによって、レンズLEの前面像データP1sと後面像データQ2sとの間隔hの実距離を補正し、レンズLEのコバ厚tを計算することができる。   For example, the control unit 70 can calculate the edge thickness t of the lens LE by correcting the actual distance h between the front image data P1 s and the rear image data Q2 s of the lens LE by using the following formula .

Figure 2019100928
Figure 2019100928

ここで、nはレンズLEの屈折率、βは受光光学系66の撮像倍率、θはレンズLEの前面に対する光軸L4の傾斜角度、である。なお、撮影倍率βと傾斜角度θとは設計上既知の値である。例えば、制御部70は、ステップS2で予め取得した屈折率nをメモリ71から呼び出し、上記の数式を計算することによって、レンズLEのコバ厚tを求めることができる。例えば、制御部70は、各断面画像データ75においてこのようにレンズLEのコバ厚tを取得すると、これをレンズLEの玉型形状における動径角上の各点の位置に対応させてメモリ71に記憶する。   Here, n is the refractive index of the lens LE, β is the imaging magnification of the light receiving optical system 66, and θ is the inclination angle of the optical axis L4 with respect to the front surface of the lens LE. The photographing magnification β and the inclination angle θ are known values in design. For example, the control unit 70 can obtain the edge thickness t of the lens LE by calling the refractive index n acquired in advance in step S2 from the memory 71 and calculating the above equation. For example, when the edge thickness t of the lens LE is thus obtained in each cross-sectional image data 75, the control unit 70 makes the memory 71 correspond to the position of each point on the radial angle in the lens shape of the lens LE. Remember to

なお、レンズLEの前面及び後面は湾曲しているので、光源65から照射された測定光束は必ずしもレンズLEの前面とは垂直にならない。このため、レンズLEの前面に対して測定光束が傾斜して照射されることになり、レンズLEの前面から後面に向かって進む測定光束は、レンズLEの前面にて折れ曲がる。そこで、レンズLEの前面カーブ値を考慮して、取得したレンズLEのコバ厚tをさらに補正するようにしてもよい。   Since the front and back surfaces of the lens LE are curved, the measurement light beam emitted from the light source 65 is not necessarily perpendicular to the front surface of the lens LE. Therefore, the measurement light beam is irradiated obliquely to the front surface of the lens LE, and the measurement light beam traveling from the front surface to the back surface of the lens LE is bent at the front surface of the lens LE. Therefore, the edge thickness t of the obtained lens LE may be further corrected in consideration of the front curve value of the lens LE.

例えば、この場合には、メモリ71に予めレンズLEの屈折率nと前面カーブ値の関係を表すテーブル(換算表)を記憶させておき、制御部70が対応する係数をレンズLEのコバ厚tに乗算してもよい。なお、レンズLEの前面カーブ値は、予め別の装置を用いて取得しておき、これをカップ取付装置1に読み込ませてもよいし、操作者が入力するようにしてもよい。もちろん、レンズLEの前面カーブ値は、カップ取付装置1を用いて取得した断面画像データ75を画像処理することで求めてもよい。   For example, in this case, a table (conversion table) representing the relationship between the refractive index n of the lens LE and the front curve value is stored in the memory 71 in advance, and the control unit 70 calculates the corresponding coefficient to the edge thickness t of the lens LE. It may be multiplied by. Note that the front curve value of the lens LE may be obtained in advance using another device, and this may be read by the cup mounting device 1 or may be input by the operator. Of course, the front curve value of the lens LE may be determined by performing image processing on the cross-sectional image data 75 acquired using the cup mounting device 1.

なお、コバ厚tの計算に用いる数式は本実施例に限定されず、レンズLEの屈折率n、前面カーブ値、及び光学中心位置Oから各動径角の点(例えば、図6では点P1)までの距離D、の少なくともいずれかをパラメータとして含んだ数式であってもよい。   The equation used for calculation of the edge thickness t is not limited to this embodiment, and points of each radius vector angle from the refractive index n of the lens LE, the front curve value, and the optical center position O (for example, point P1 in FIG. 6) It may be an equation including as a parameter at least one of the distances D)).

例えば、操作者は、左レンズについて、軸打ち(ステップS4)、断面画像データの取得(ステップS5)、及びコバ情報の取得(ステップS6)を終えると、右レンズについても同様にこれらのステップを順に行い、レンズLEの玉型形状の位置に対応したコバ厚tを取得する。   For example, when the operator completes axial hitting (step S4), acquisition of cross-sectional image data (step S5), and acquisition of edge information (step S6) for the left lens, these steps are similarly performed for the right lens. The order is sequentially performed to acquire an edge thickness t corresponding to the position of the lens shape of the lens LE.

<仕上げ加工位置の設定(S7)>
例えば、制御部70はコバ厚tを取得すると、ディスプレイ2に表示される操作画面をシミュレーション画面に切り換え、仕上げ加工位置を設定する。例えば、制御部70は、取得したコバ情報(本実施例では、コバ厚t)に基づいて、コバの仕上げ加工位置を設定する。例えば、コバの仕上げ加工位置とは、コバに形成するヤゲンの位置、溝の位置、面取りの位置、等である。例えば、このような仕上げ加工位置は、取得したコバ厚tに基づいて自動的に設定(つまり、初期設定)されてもよいし、操作者が調整するようにしてもよい。なお、本実施例では、コバの仕上げ加工位置として、ヤゲンの位置を設定する場合を例に挙げる。
<Setting of finishing position (S7)>
For example, when the edge thickness t is obtained, the control unit 70 switches the operation screen displayed on the display 2 to a simulation screen, and sets a finishing position. For example, the control unit 70 sets the finish processing position of the edge based on the acquired edge information (edge thickness t in the present embodiment). For example, the finish processing position of the edge is the position of the bevel formed on the edge, the position of the groove, the position of the chamfer, and the like. For example, such a finishing position may be automatically set (that is, initial setting) based on the acquired edge thickness t or may be adjusted by the operator. In the present embodiment, the case where the position of the bevel is set as the finish processing position of the edge is taken as an example.

また、例えば、制御部70は、コバ厚に基づいた仕上げ加工位置をディスプレイ2に表示し、ディスプレイ上で仕上げ加工位置を調整するための入力ボタン3からの操作信号に基づいて、仕上げ加工位置を設定してもよい。この場合、制御部70は、左レンズのヤゲンの位置と右レンズのヤゲンの位置とを比較可能に表示してもよい。また、この場合、制御部70は、入力ボタン3からの操作信号に基づいて、左レンズと右レンズとの少なくとも一方の仕上げ加工位置を設定するようにしてもよい。これによって、左レンズと右レンズのコバ厚tの違いを考慮し、それぞれのコバ厚tに対してヤゲンの位置(ヤゲンの頂点位置)をバランスよく配置することができる。   Further, for example, the control unit 70 displays the finishing position on the display 2 based on the edge thickness, and the finishing position is determined based on the operation signal from the input button 3 for adjusting the finishing position on the display. It may be set. In this case, the control unit 70 may display the position of the bevel of the left lens and the position of the bevel of the right lens in a comparable manner. In this case, the control unit 70 may set the finishing position of at least one of the left lens and the right lens based on the operation signal from the input button 3. By this, the position of the bevel (the apex position of the bevel) can be arranged in a well-balanced manner with respect to the respective rim thickness t in consideration of the difference in the rim thickness t of the left lens and the right lens.

図10はシミュレーション画面80の一例である。図10(a)はシミュレーション画面80の全体を示す図である。図10(b)はシミュレーション画面80の一部を拡大して示す図である。例えば、シミュレーション画面80には、レンズLEの玉型形状(左レンズの玉型形状TGR及び右レンズの玉型形状TGL)が表示される。また、シミュレーション画面80には、レンズLEにおけるヤゲン加工後のコバの形状(左レンズのコバの形状81L及び右レンズのコバの形状81R)が表示される。例えば、レンズLEの玉型形状上には、操作者の操作により玉型形状上を移動するカーソル(カーソル82L及びカーソル82R)が表示される。操作者は、カーソルを用いることによって、レンズLEのコバの観察方向を指定し、レンズLEのコバの形状を表示させることができる。また、例えば、シミュレーション画面80には、レンズLEのヤゲンカーブ(すなわち、レンズLEのコバにヤゲンを配置した軌跡)のカーブ値、ヤゲンカーブの前後方向の位置、ヤゲンカーブの傾斜、等を変更するための入力欄83(入力欄83L及び入力欄83R)が設けられている。なお、本実施例において、シミュレーション画面80には、ヤゲン位置84L及び84Rの表示位置に対応させて、フレームのリムの断面形状を示すようにしてもよい。   FIG. 10 shows an example of the simulation screen 80. FIG. 10A shows the entire simulation screen 80. As shown in FIG. FIG. 10B is an enlarged view of a part of the simulation screen 80. For example, on the simulation screen 80, the lens shape of the lens LE (the lens shape TGR of the left lens and the lens shape TGL of the right lens) is displayed. Further, on the simulation screen 80, the shape of the edge after beveling of the lens LE (the shape 81L of the edge of the left lens and the shape 81R of the edge of the right lens) is displayed. For example, on the lens shape of the lens LE, a cursor (cursor 82L and cursor 82R) moving on the lens shape by the operation of the operator is displayed. The operator can designate the observation direction of the edge of the lens LE by using the cursor, and can display the shape of the edge of the lens LE. Also, for example, on the simulation screen 80, an input for changing the curve value of the bevel curve of the lens LE (that is, the locus of arranging the bevel on the edge of the lens LE), the position in the longitudinal direction of the bevel curve, the inclination of the bevel curve, etc. A column 83 (input column 83L and input column 83R) is provided. In the present embodiment, the cross-sectional shape of the rim of the frame may be shown on the simulation screen 80 corresponding to the display positions of the bevel positions 84L and 84R.

例えば、制御部70は、レンズLEに形成するヤゲンの仮位置を自動的に設定する。例えば、ヤゲンカーブは、レンズLEの前面カーブに沿ったカーブであってもよい。例えば、ヤゲンの頂点位置は、レンズLEのコバ厚tに基づいて、コバ厚tが最も薄い部分の半分の位置を通るように設定されてもよい。例えば、制御部70は、左レンズと右レンズとのそれぞれに対して、このようにヤゲンの仮位置を設定する。なお、このとき、制御部70は、左右レンズに形成するヤゲンの仮位置を、左レンズと右レンズのコバ厚tの違いを考慮して自動調整してもよい。例えば、この場合には、左レンズにおけるヤゲンの頂点位置からレンズLEの前面までの距離BLと、右レンズにおけるヤゲンの頂点位置からレンズLEの前面までの距離BRと、について、その距離が同じになるように自動調整されてもよい。また、例えば、この場合には、距離BLと距離BRとの差が所定の閾値以下となるように自動調整されてもよい。例えば、所定の閾値は、予め実験やシミュレーションにより設定されていてもよい。   For example, the control unit 70 automatically sets the temporary position of the bevel formed on the lens LE. For example, the bevel curve may be a curve along the front curve of the lens LE. For example, the apex position of the bevel may be set to pass through the half of the thinnest portion based on the edge thickness t of the lens LE. For example, the control unit 70 sets the provisional position of the bevel in this manner for each of the left lens and the right lens. At this time, the control unit 70 may automatically adjust the temporary position of the bevel formed on the left and right lenses in consideration of the difference in edge thickness t of the left lens and the right lens. For example, in this case, the distance is the same for the distance BL from the apex position of the bevel in the left lens to the front surface of the lens LE and the distance BR from the apex position of the bevel in the right lens to the front surface of the lens LE It may be adjusted automatically to be Also, for example, in this case, the difference between the distance BL and the distance BR may be automatically adjusted so as to be equal to or less than a predetermined threshold. For example, the predetermined threshold may be set in advance by experiment or simulation.

例えば、操作者は、このように初期設定されたヤゲンの仮位置で問題がない場合には、図示なき決定ボタンを操作する。制御部70は、操作指示に応じて左レンズ及び右レンズのコバにヤゲンを形成するためのヤゲン形成データを作成し、これをメモリ71に記憶する。また、例えば、制御部70は、作成したヤゲン形成データを、レンズLEの前面位置とともに、レンズ周縁加工装置に転送する。   For example, the operator operates the determination button (not shown) when there is no problem at the temporary position of the bevel initialized in this manner. The control unit 70 creates bevel formation data for forming a bevel on the edge of the left lens and the right lens in accordance with the operation instruction, and stores the data in the memory 71. Also, for example, the control unit 70 transfers the created bevel formation data to the lens edge processing apparatus together with the front position of the lens LE.

なお、例えば、操作者は、初期設定されたヤゲンの仮位置を手動で調整してもよい。例えば、操作者は、ディスプレイ2をタッチ操作してカーソル82Lを移動させ、左レンズの任意の動径角を指定する。これによって、操作者は、フレームとレンズLEのコバとの位置関係の見栄えを重視する観測点を定めることができる。また、これによって、操作者は、レンズLEの前面とヤゲンの頂点位置との位置関係を、左レンズと右レンズとで比較することができる。なお、カーソル82Rは、カーソル82Lに連動して左右対称な位置へと自動的に移動されてもよい。   In addition, for example, the operator may manually adjust the provisional position of the initially set bevel. For example, the operator touches the display 2 to move the cursor 82L, and designates an arbitrary radial angle of the left lens. As a result, the operator can define an observation point that emphasizes the appearance of the positional relationship between the frame and the edge of the lens LE. Also, this allows the operator to compare the positional relationship between the front surface of the lens LE and the vertex position of the bevel between the left lens and the right lens. The cursor 82R may be automatically moved to a symmetrical position in synchronization with the cursor 82L.

例えば、操作者は、左レンズのコバの形状81L及び右レンズのコバの形状81Rを比較し、左レンズにおけるヤゲンの頂点位置からレンズLEの前面までの距離BLと、右レンズにおけるヤゲンの頂点位置からレンズLEの前面までの距離BRと、をそれぞれ変更する。例えば、ヤゲンの頂点位置は、操作者が入力欄83に任意の値を入力することによって移動させることができる。例えば、制御部70は、入力された値に対応して、ヤゲンの位置84R及び84Lの表示位置を変化させる。また、例えば、操作者は、入力欄83に任意の値を入力することによって、ヤゲンカーブのカーブ値や傾斜を変更してもよい。例えば、この場合、制御部70は、入力された値に対応してヤゲンの位置を再度計算し、ヤゲンの位置84L及び84Rの表示位置を変化させる。例えば、このように、制御部70は、操作者がディスプレイ2から入力した操作信号に基づいて、レンズLEのコバに形成するヤゲンの仮位置を設定することができる。例えば、操作者は、ヤゲンの仮位置を調整し終えると、図示なき決定ボタンを操作する。制御部70は、操作指示に応じて左レンズ及び右レンズのコバにヤゲンを形成するためのヤゲン形成データを作成し、これをメモリ71に記憶する。また、例えば、制御部70は、作成したヤゲン形成データを、レンズLEの前面位置とともに、レンズ周縁加工装置に転送する。   For example, the operator compares the shape 81L of the edge of the left lens and the shape 81R of the edge of the right lens, and the distance BL from the apex position of the bevel in the left lens to the front surface of the lens LE and the apex position of the bevel in the right lens And the distance BR from the front surface of the lens LE, respectively. For example, the vertex position of the bevel can be moved by the operator inputting an arbitrary value in the input field 83. For example, the control unit 70 changes the display positions of the bevel positions 84R and 84L in accordance with the input value. Also, for example, the operator may change the curve value or inclination of the bevel curve by inputting an arbitrary value in the input field 83. For example, in this case, the control unit 70 recalculates the position of the bevel corresponding to the input value, and changes the display positions of the positions 84L and 84R of the bevel. For example, as described above, the control unit 70 can set the temporary position of the bevel formed on the edge of the lens LE based on the operation signal input from the display 2 by the operator. For example, when the operator finishes adjusting the temporary position of the bevel, the operator operates a determination button (not shown). The control unit 70 creates bevel formation data for forming a bevel on the edge of the left lens and the right lens in accordance with the operation instruction, and stores the data in the memory 71. Also, for example, the control unit 70 transfers the created bevel formation data to the lens edge processing apparatus together with the front position of the lens LE.

<レンズ周縁加工装置>
例えば、操作者は、カップ取付装置1を用いて上記の操作によりレンズLEのコバに形成するヤゲンの位置を設定すると、レンズ周縁加工装置を用いてレンズLEのコバを加工する。図11はレンズ周縁加工装置90の概略構成図である。例えば、操作者がレンズ周縁加工装置90を起動すると、レンズ周縁加工装置が備える制御部95は、前述のヤゲン形成データ及びレンズLEの前面位置を受信して、これを図示なきメモリに記憶してもよい。
<Lens edge processing device>
For example, when the operator sets the position of the bevel formed on the edge of the lens LE by the above operation using the cup attachment device 1, the operator processes the edge of the lens LE using the lens edge processing device. FIG. 11 is a schematic block diagram of the lens edge processing apparatus 90. As shown in FIG. For example, when the operator activates the lens edge processing apparatus 90, the control unit 95 included in the lens edge processing apparatus receives the aforementioned bevel formation data and the front position of the lens LE, and stores this in a memory (not shown) It is also good.

例えば、本実施例におけるレンズ周縁加工装置90は、レンズLEをレンズチャック軸102により保持するレンズ保持ユニット100、レンズLEのコバ情報を取得するためのコバ情報取得ユニット200、レンズLEの周縁を加工するための加工ユニット300、等を備えている。レンズ保持ユニット100は、レンズLEを回転させるためのレンズ回転ユニット100a、レンズチャック軸102をX軸方向に移動させるためのチャック軸移動ユニット100b、レンズチャック軸102をY方向(レンズチャック軸と加工ユニット300における回転軸との軸間距離)に移動させるための軸間距離変動ユニット100c、を備える。なお、レンズ周縁加工装置90の詳細な構成については、例えば、特開2015−131374号公報を参照されたい。   For example, the lens edge processing apparatus 90 in the present embodiment processes the lens holding unit 100 that holds the lens LE by the lens chuck shaft 102, the edge information acquisition unit 200 for obtaining edge information of the lens LE, and the edge of the lens LE. Processing unit 300, and the like. The lens holding unit 100 includes a lens rotation unit 100a for rotating the lens LE, a chuck shaft moving unit 100b for moving the lens chuck shaft 102 in the X-axis direction, and a Y direction for the lens chuck shaft 102 An inter-axis distance variation unit 100c for moving to an inter-axial distance with the rotation axis in the unit 300). For a detailed configuration of the lens rim processing apparatus 90, see, for example, JP-A-2015-131374.

<レンズの保持(S8)>
例えば、操作者は、レンズ保持ユニット100が備えるレンズチャック軸102L及び102Rにより左レンズを保持させる。例えば、レンズチャック軸102L及び102Rの回転中心軸K3と、カップCuの中心位置(言い換えると、レンズLEの光学中心位置O)と、が一致するように設計されている。また、例えば、カップCuは、回転中心軸K3に対して一定の方向となるように保持される。例えば、本実施例においては、レンズLEの仮想線V1がレンズ周縁加工装置90のY方向に一致し、レンズLEの仮想線V2がレンズ周縁加工装置90のZ方向に一致されるように、カップCuが保持される。このため、カップ取付装置1におけるX方向は、レンズ周縁加工装置90のZ方向に対応する。また、カップ取付装置1におけるY方向は、レンズ周縁加工装置90のX方向に対応する。また、カップ取付装置1におけるZ方向は、レンズ周縁加工装置90のY方向に対応する。
<Holding of lens (S8)>
For example, the operator holds the left lens by the lens chuck shafts 102L and 102R provided in the lens holding unit 100. For example, the rotation center axes K3 of the lens chuck shafts 102L and 102R and the center position of the cup Cu (in other words, the optical center position O of the lens LE) are designed to coincide with each other. Further, for example, the cup Cu is held so as to be in a fixed direction with respect to the rotation center axis K3. For example, in the present embodiment, the cup is made so that the virtual line V1 of the lens LE coincides with the Y direction of the lens edge processing apparatus 90 and the virtual line V2 of the lens LE coincides with the Z direction of the lens edge processing apparatus 90. Cu is retained. For this reason, the X direction in the cup attachment device 1 corresponds to the Z direction of the lens peripheral edge processing device 90. Further, the Y direction in the cup attachment device 1 corresponds to the X direction of the lens peripheral edge processing device 90. Further, the Z direction in the cup mounting device 1 corresponds to the Y direction of the lens peripheral edge processing device 90.

<第2コバ情報の取得(S9)>
また、例えば、操作者は、図示なき加工開始ボタンを操作して、レンズLEの周縁の加工を開始する。まず、レンズ周縁加工装置90の制御部95は、コバ情報取得ユニット200を制御して、レンズLEの前面における玉型形状に基づいた動径角の少なくとも1点のコバ情報(第2コバ情報)を取得する。例えば、本実施例においては、仮想線V1上における点P1のコバ情報が取得される。
<Obtaining second edge information (S9)>
Also, for example, the operator operates the processing start button (not shown) to start processing of the periphery of the lens LE. First, the control unit 95 of the lens edge processing apparatus 90 controls the edge information acquisition unit 200 to provide edge information (second edge information) of at least one point of the vector angle on the front surface of the lens LE. To get For example, in the present embodiment, edge information of the point P1 on the virtual line V1 is acquired.

例えば、制御部95は、コバ情報取得ユニット200が備える測定子201が、レンズLE上の点P1の位置に接触するように、レンズ回転ユニット100a、チャック軸移動ユニット100b、及び軸間距離変動ユニット100cを駆動し、レンズチャック軸102L及び102Rに保持されたレンズLEを移動させる。例えば、制御部95は、回転中心軸K3を基準として点P1のY方向とZ方向の位置を把握し、レンズ回転ユニット100aと軸間距離変動ユニット100cとを駆動する。また、例えば、制御部95は、チャック軸移動ユニット100bを駆動し、測定子201に設けられた図示なきセンサがレンズLEの接触を検知するまで、レンズLEをX方向に移動させる。例えば、このとき、制御部95は、レンズチャック軸102L及び102Rが初期位置からX方向に移動した移動量を検出する。これによって、レンズLEがレンズチャック軸方向(すなわち、X方向)のどこに位置しているかが把握される。すなわち、レンズLE上における点P1の位置(すなわち、位置座標)が把握される。なお、制御部95は、測定子201をレンズLE上で滑らせて、レンズLEの動径角上の1面におけるコバ情報を取得してもよい。   For example, the control unit 95 causes the lens rotation unit 100a, the chuck shaft movement unit 100b, and the inter-axis distance fluctuation unit to contact the position of the point P1 on the lens LE with the probe 201 included in the edge information acquisition unit 200. The lens 100c is driven to move the lens LE held by the lens chuck shafts 102L and 102R. For example, the control unit 95 grasps the positions of the point P1 in the Y and Z directions with reference to the rotation center axis K3, and drives the lens rotation unit 100a and the inter-axis distance variation unit 100c. Further, for example, the control unit 95 drives the chuck shaft moving unit 100b, and moves the lens LE in the X direction until a sensor (not shown) provided on the probe 201 detects contact of the lens LE. For example, at this time, the control unit 95 detects the amount of movement of the lens chuck shafts 102L and 102R in the X direction from the initial position. This makes it possible to grasp where the lens LE is located in the lens chuck axial direction (that is, the X direction). That is, the position (that is, position coordinates) of the point P1 on the lens LE is grasped. The control unit 95 may slide the measuring element 201 on the lens LE to acquire edge information on one surface of the lens LE on the radial angle.

<位置座標の対応付け(S10)>
ここで、例えば、制御部95は、レンズ周縁加工装置90において取得したレンズLEの点P1におけるX方向の位置座標に対して、カップ取付装置1において取得したレンズLEにおける各点の前面位置(すなわち、各点の位置座標)を対応付ける。例えば、これによって、レンズLE上の点P2以降について、レンズ周縁加工装置90のX方向の位置座標が取得される。なお、レンズLE上の点P1については、レンズ周縁加工装置90のX方向の位置座標がステップS9で取得されている。以下、点P2以降の位置座標の対応付けについて説明する。
<Matching of position coordinates (S10)>
Here, for example, with respect to the position coordinate in the X direction at the point P1 of the lens LE acquired by the lens peripheral processing device 90, the control unit 95 detects the front position of each point in the lens LE acquired by the cup mounting device , Position coordinates of each point). For example, with this, the position coordinate of the lens periphery processing device 90 in the X direction is acquired for the point P2 or later on the lens LE. In addition, about the point P1 on the lens LE, the position coordinate of the X direction of the lens periphery processing apparatus 90 is acquired by step S9. Hereinafter, correspondence of position coordinates after the point P2 will be described.

例えば、制御部95は、レンズLEの玉型形状における各動径角の前面位置(位置座標)を図示なきメモリから呼び出し、レンズLE上の点P1の位置座標に基づいて、レンズLEの動径角毎に位置座標を対応付けていく。より詳細には、例えば、レンズ周縁加工装置90におけるレンズLE上の点P2の位置座標は、レンズ周縁加工装置90を用いて取得した点P1の位置座標と、カップ取付装置1において取得された点P2の位置座標と、を加算することにより求められる。また、例えば、レンズ周縁加工装置90におけるレンズLE上の点P3の位置座標は、レンズLE周縁加工装置90を用いて上記のように取得した点P1の位置座標と、カップ取付装置1において取得された点P3の位置座標と、を加算することにより求められる。例えば、制御部95は、このようにして、レンズ周縁加工装置90が備えるコバ情報取得ユニット200を用いて取得したレンズLE上の1点の位置座標と、カップ取付装置1が備える画像データ取得機構60を用いて取得したレンズLEの各動径角上の点の位置座標と、を対応付ける。これにより、レンズチャック軸102に保持されたレンズLEに対して、カップ取付装置1にて作成されたヤゲン形成データを対応させることができる。   For example, the control unit 95 calls the front position (position coordinates) of each radius vector angle in the lens shape of the lens LE from the memory (not shown), and the radius of the lens LE based on the position coordinates of the point P1 on the lens LE. Position coordinates are associated with each corner. More specifically, for example, the position coordinates of the point P2 on the lens LE in the lens edge processing device 90 are the position coordinates of the point P1 obtained using the lens edge processing device 90 and the points obtained in the cup mounting device 1 It can be obtained by adding the position coordinates of P2. Also, for example, the position coordinates of the point P3 on the lens LE in the lens peripheral processing device 90 are acquired in the cup mounting device 1 and the position coordinates of the point P1 acquired as described above using the lens LE peripheral processing device 90. It can be obtained by adding the position coordinates of the point P3. For example, the control unit 95 detects the position coordinates of one point on the lens LE acquired using the edge information acquisition unit 200 included in the lens peripheral processing device 90 in this manner, and the image data acquisition mechanism included in the cup mounting device 1 The position coordinates of the point on each radial angle of the lens LE acquired using 60 are associated with each other. Thus, the bevel formation data created by the cup mounting device 1 can be made to correspond to the lens LE held by the lens chuck shaft 102.

<加工制御データの取得(S11)>
例えば、制御部95は、取得したレンズLE上の1点のコバ情報(すなわち、第2コバ情報)と、ヤゲン形成データ(すなわち、第1コバ情報と仕上げ加工位置とから作成したヤゲン形成データ)と、に基づいて、レンズLEの周縁を加工するための加工制御データを取得する。例えば、加工制御データとしては、レンズ回転ユニット100a、チャック軸移動ユニット100b、及び軸間距離変動ユニット100cの少なくともいずれかを駆動させるための駆動量が算出される。なお、レンズチャック軸102に保持されたレンズLEは、測定子201にその点P1が接触した状態である。このため、本実施例では、レンズLEが測定子201に接触した位置からの駆動量が、加工制御データとして算出される。もちろん、制御部95は、レンズチャック軸102を初期位置に戻し、初期位置からの駆動量を加工制御データとして算出してもよい。
<Acquisition of processing control data (S11)>
For example, the control unit 95 generates edge data (i.e., second edge information) of one point on the acquired lens LE and bevel formation data (i.e., bevel formation data created from the first edge information and the finishing position) And processing control data for processing the peripheral edge of the lens LE. For example, as processing control data, a drive amount for driving at least one of the lens rotation unit 100a, the chuck shaft moving unit 100b, and the inter-axis distance variation unit 100c is calculated. The lens LE held by the lens chuck shaft 102 is in a state in which the point P1 is in contact with the measuring element 201. For this reason, in the present embodiment, the driving amount from the position where the lens LE contacts the tracing stylus 201 is calculated as processing control data. Of course, the control unit 95 may return the lens chuck shaft 102 to the initial position, and calculate the driving amount from the initial position as processing control data.

<コバの加工(S12)>
例えば、制御部95は、加工制御データに基づいてレンズチャック軸102をX方向、Y方向、及びZ方向の少なくともいずれかに移動させ、加工ユニット300の砥石310上にレンズLEを位置させる。また、例えば、制御部95は、加工制御データに基づいてレンズチャック軸102をX方向、Y方向、及びZ方向の少なくともいずれかに移動させ、砥石310に対するレンズLEの相対的な位置関係を調整する。例えば、これによって、レンズLEの周縁が加工(例えば、粗加工、ヤゲン加工、等)される。例えば、操作者は、左レンズについてこのようにレンズLEの周縁を加工すると、右レンズをレンズチャック軸102により保持させ、上記と同様にしてレンズLEの周縁を加工する。
<Processing of edge (S12)>
For example, the control unit 95 moves the lens chuck shaft 102 in at least one of the X direction, the Y direction, and the Z direction based on the processing control data, and positions the lens LE on the grindstone 310 of the processing unit 300. Further, for example, the control unit 95 moves the lens chuck shaft 102 in at least one of the X direction, the Y direction, and the Z direction based on the processing control data, and adjusts the relative positional relationship of the lens LE with respect to the grindstone 310 Do. For example, thereby, the peripheral edge of the lens LE is processed (eg, roughened, beveled, etc.). For example, when the operator processes the periphery of the lens LE in this way for the left lens, the operator holds the right lens by the lens chuck shaft 102 and processes the periphery of the lens LE in the same manner as described above.

以上説明したように、例えば、本実施例における軸出し装置は、眼鏡レンズの周縁を加工するために眼鏡レンズを挟み込んで保持するレンズ保持手段の、眼鏡レンズに対する取付け位置である軸出し位置を設定する軸出し位置設定手段と、眼鏡レンズのコバに関する情報であるコバ情報を取得するコバ情報取得手段と、を備える。これにより、従来はレンズ周縁加工装置を用いて取得していたコバ情報を、軸出し装置を用いて取得することができるようになる。従って、レンズ周縁加工装置の使用時間が短くなり、眼鏡の作製にかかる時間を相対的に短縮することができる。   As described above, for example, the centering device in this embodiment sets the centering position, which is the mounting position of the lens holding means for holding the eyeglass lens in order to process the periphery of the eyeglass lens, to the eyeglass lens. And an edge information acquisition means for acquiring edge information which is information on an edge of the spectacle lens. This makes it possible to obtain edge information, which has conventionally been obtained using a lens edge processing device, using a centering device. Therefore, the use time of the lens rim processing apparatus can be shortened, and the time required for producing the glasses can be relatively shortened.

また、例えば、本実施例における軸出し装置は、眼鏡レンズのコバ情報を取得するためのコバ測定手段を有し、コバ測定手段を制御することによって眼鏡レンズを測定し、コバ情報を取得する。これによって、軸出し装置を用いて眼鏡レンズのコバ情報を測定することが可能となり、レンズ周縁加工装置の使用時間を短くすることができる。   Also, for example, the centering apparatus in the present embodiment includes edge measurement means for acquiring edge information of the spectacle lens, and measures the spectacle lens by controlling the edge measurement means to acquire the edge information. By this, it becomes possible to measure the edge information of a spectacles lens using a centering device, and can shorten the use time of a lens periphery processing apparatus.

また、例えば、本実施例における軸出し装置は、眼鏡レンズにおける玉型形状を取得する玉型形状取得手段を備える。これによって、軸出し装置が備えるコバ情報取得手段は、眼鏡レンズの玉型形状に基づいてコバ測定手段を制御することができ、玉型形状に基づいた位置のコバ情報を取得することができる。   In addition, for example, the centering apparatus in the present embodiment includes a lens-shaped shape acquiring unit that acquires a lens-shaped shape in the spectacle lens. By this, the edge information acquisition means included in the centering device can control the edge measurement means based on the lens shape of the spectacle lens, and can acquire edge information of the position based on the lens shape.

また、例えば、本実施例における軸出し装置は、眼鏡レンズのコバ情報に基づいて、コバの仕上げ加工位置を設定する仕上げ加工位置設定手段を備える。これによって、従来はレンズ周縁加工装置を用いて設定していた仕上げ加工位置を、軸出し装置を用いて設定することができる。従って、レンズ周縁加工装置の使用時間が短くなるとともに、レンズ周縁加工装置の待ち時間が緩和され、眼鏡の作製にかかる時間をさらに短縮することができる。   Also, for example, the centering apparatus in the present embodiment includes a finishing position setting unit that sets a finishing position of the edge based on the edge information of the spectacle lens. By this, it is possible to set the finishing position, which has conventionally been set using the lens edge processing apparatus, using the centering apparatus. Therefore, while the use time of a lens periphery processing apparatus becomes short, the waiting time of a lens periphery processing apparatus is eased, and the time concerning preparation of spectacles can be shortened further.

また、例えば、本実施例における軸出し装置は、コバ情報に基づいた仕上げ加工位置を表示手段に表示し、表示手段上で仕上げ加工位置を調整するための操作手段からの操作信号に基づいて、仕上げ加工位置を設定する。これによって、操作者は、眼鏡レンズに形成される仕上げ加工位置を把握しやすくなる。また、操作者は、眼鏡レンズに形成される仕上げ加工位置を調整しやすくなる。   Further, for example, the centering apparatus in the present embodiment displays the finishing position on the display means based on the edge information, and based on the operation signal from the operating means for adjusting the finishing position on the display means, Set the finishing position. This makes it easy for the operator to grasp the finishing position formed on the spectacle lens. In addition, the operator can easily adjust the finishing position formed on the spectacle lens.

また、例えば、本実施例における軸出し装置は、左眼鏡レンズの仕上げ加工位置と右眼鏡レンズの仕上げ加工位置とを表示手段に比較可能に表示し、操作手段からの操作信号に基づいて、左眼鏡レンズと右眼鏡レンズとの少なくとも一方の仕上げ加工位置を設定する。これによって、操作者は、左眼鏡レンズ及び右眼鏡レンズにおける仕上げ加工位置のバランスを把握しやすくなる。また、操作者は、仕上げ加工位置のバランスを考慮して、左眼鏡レンズ及び右眼鏡レンズに対して設定された仕上げ加工位置をそれぞれ調整することができる。従って、操作者は、見栄えのよい眼鏡を作製しやすくなる。   Also, for example, the centering apparatus in the present embodiment displays the finish processing position of the left eyeglass lens and the finish processing position of the right eyeglass lens comparably on the display means, and based on the operation signal from the operation means The finishing position of at least one of the spectacle lens and the right spectacle lens is set. As a result, the operator can easily grasp the balance of the finishing position in the left eyeglass lens and the right eyeglass lens. Further, the operator can adjust the finishing position set for the left eyeglass lens and the right eyeglass lens, respectively, in consideration of the balance of the finishing position. Therefore, the operator can easily produce eyeglasses that look good.

また、例えば、本実施例における軸出し装置は、眼鏡レンズの屈折率を取得する屈折率取得手段と、眼鏡レンズの前面における前面像データと、眼鏡レンズの後面における後面像データと、を含む断面画像データを取得する画像データ取得手段と、屈折率及び断面画像データに基づいて、眼鏡レンズのコバに関する情報であるコバ情報を取得するコバ情報取得手段と、を備えてもよい。これによって、眼鏡レンズがもつ屈折率により変化した断面画像データを用いて、眼鏡レンズのコバ情報を効率よく取得することができる。   Also, for example, the centering apparatus in the present embodiment includes a refractive index acquisition unit that acquires the refractive index of the spectacle lens, front image data on the front surface of the spectacle lens, and back surface image data on the rear surface of the spectacle lens. The image processing apparatus may include image data acquisition means for acquiring image data, and edge information acquisition means for acquiring edge information which is information regarding an edge of the spectacle lens based on the refractive index and the cross-sectional image data. In this way, it is possible to efficiently acquire edge information of the spectacle lens by using cross-sectional image data changed according to the refractive index of the spectacle lens.

また、例えば、本実施例における軸出し装置は、眼鏡レンズの前面または後面に向けて測定光束を投光する投光光学系と、測定光束が眼鏡レンズの前面で反射された第1反射光束と、測定光束が眼鏡レンズの後面で反射された第2反射光束と、を受光素子によって受光する受光光学系と、を備える。これによって、画像データ取得手段は、第1反射光束により形成された前面像データと、第2反射光束により形成された後面像データと、を含む断面画像データを容易な構成で取得することができる。また、画像データ取得手段は、測定光束により非接触で断面画像データを取得することができる。従って、眼鏡レンズのコバ情報を効率的に取得することができる。   In addition, for example, the centering apparatus in the present embodiment includes a projection optical system that projects the measurement light flux toward the front or back surface of the spectacle lens, and a first reflected light flux in which the measurement light flux is reflected by the front of the spectacle lens. And a light receiving optical system for receiving the second reflected light beam, which is a measurement light beam reflected by the rear surface of the spectacle lens, by the light receiving element. By this, the image data acquisition means can acquire the cross-sectional image data including the front image data formed by the first reflected light beam and the back surface image data formed by the second reflected light beam with a simple configuration. . Further, the image data acquisition means can acquire cross-sectional image data in a noncontact manner by the measurement light flux. Therefore, edge information of the spectacle lens can be efficiently obtained.

なお、本実施例においては、眼鏡レンズを載置するためのレンズ支持手段と、眼鏡レンズの周縁を加工するために眼鏡レンズを挟み込んで保持するレンズ保持手段の、眼鏡レンズに対する取付け位置である軸出し位置を設定する軸出し位置設定手段であって、レンズ支持手段に載置された眼鏡レンズの軸出し位置を設定する軸出し位置設定手段と、を備える軸出し装置が、レンズ形状測定装置としての役割を兼ねる。例えば、操作者は、軸出し装置を用いて眼鏡レンズのコバ情報を非接触で測定することができるため、眼鏡レンズのコバ情報を効率的に取得することができるようになる。   In this embodiment, a shaft which is an attachment position of the lens supporting means for mounting the spectacle lens and the lens holding means for holding the spectacle lens in order to process the periphery of the spectacle lens to the spectacle lens An alignment apparatus including: an alignment position setting unit that sets an output position; and an alignment position setting unit that sets an alignment position of an eyeglass lens placed on the lens support unit. Double as the role of For example, since the operator can measure the edge information of the spectacle lens without contact using the centering device, the edge information of the spectacle lens can be efficiently acquired.

また、本実施例においては、レンズ保持手段により保持された眼鏡レンズの周縁を加工するための加工具を備えるレンズ周縁加工装置が、レンズ形状測定装置としての役割を兼ねる。例えば、操作者は、レンズ周縁加工装置を用いて眼鏡レンズのコバ情報を非接触で測定することができるため、眼鏡レンズのコバ情報を効率的に取得することができるようになる。   In addition, in the present embodiment, the lens peripheral processing device including the processing tool for processing the peripheral edge of the spectacle lens held by the lens holding unit also serves as a lens shape measuring device. For example, since the operator can measure the edge information of the eyeglass lens without contact using the lens edge processing apparatus, the edge information of the eyeglass lens can be efficiently acquired.

<変容例>
なお、本実施例においては、レンズLEを保持する構成として、支持ピン14にレンズLEを載置する構成を例に挙げて説明したがこれに限定されない。例えば、レンズLEを保持する構成としては、レンズLEを挟持する構成でもよい。この場合には、レンズLEの側面(周縁)を挟持する構成、レンズLEの前面と後面を挟持する構成、等が挙げられる。
<Modification example>
In the present embodiment, as the configuration for holding the lens LE, the configuration in which the lens LE is mounted on the support pin 14 has been described as an example, but the present invention is not limited to this. For example, as a configuration for holding the lens LE, the lens LE may be held. In this case, a configuration in which the side surface (peripheral edge) of the lens LE is held, a configuration in which the front surface and the rear surface of the lens LE are held, and the like can be mentioned.

また、本実施例においては、円筒ベース11を回転させることによって(言い換えると、支持ピン14を回転させることによって)支持ピン14に載置したレンズLEを回転させる構成を例に挙げて説明したがこれに限定されない。例えば、レンズLEの表面にカップCuを軸打ちした際に、カップCuと装着部31とを離さず、装着部31を中心軸K2の軸回りに回転させる構成としてもよい。   Further, in the present embodiment, the configuration in which the lens LE mounted on the support pin 14 is rotated by rotating the cylindrical base 11 (in other words, by rotating the support pin 14) has been described as an example. It is not limited to this. For example, when the cup Cu is axially punched on the surface of the lens LE, the mounting portion 31 may be rotated about the central axis K2 without separating the cup Cu and the mounting portion 31 from each other.

なお、本実施例においては、画像データ取得機構60が、撮像素子69により撮像されたレンズLEの断面画像を取得する構成を例に挙げて説明したがこれに限定されない。例えば、画像データ取得機構60は、断面画像を取得する前の信号データを取得する構成であってもよい。   In the present embodiment, the image data acquisition mechanism 60 has been described by way of an example in which the cross-sectional image of the lens LE captured by the imaging element 69 is described, but the present invention is not limited thereto. For example, the image data acquisition mechanism 60 may be configured to acquire signal data before acquiring a cross-sectional image.

なお、本実施例においては、画像データ取得機構60が、断面画像データ75に基づいて取得したコバ情報をレンズLEの屈折率に基づいて補正することで、コバ情報を取得する構成を例に挙げて説明したがこれに限定されない。例えば、画像データ取得機構60は、レンズLEの屈折率に基づいて断面画像データ75を補正し、補正した断面画像データに基づいて、レンズLEのコバ情報を取得する構成としてもよい。もちろん、この場合にも、画像データ取得機構60は、レンズLEの前面カーブ値を考慮して、取得したレンズLEのコバ厚tをさらに補正するようにしてもよい。   In the present embodiment, the image data acquisition mechanism 60 corrects the edge information acquired based on the cross-sectional image data 75 based on the refractive index of the lens LE to acquire edge information as an example. However, the present invention is not limited thereto. For example, the image data acquisition mechanism 60 may be configured to correct the cross-sectional image data 75 based on the refractive index of the lens LE and to acquire edge information of the lens LE based on the corrected cross-sectional image data. Of course, also in this case, the image data acquisition mechanism 60 may further correct the edge thickness t of the acquired lens LE in consideration of the front curve value of the lens LE.

なお、本実施例においては、画像データ取得機構60が、レンズLEの水平方向における回転とZ方向移動機構63とによって、測定光束の照射位置をレンズLEの玉型形状TGに基づいた位置に調整する構成を例に挙げて説明したがこれに限定されない。例えば、画像データ取得機構60は、測定光学系61の左右方向(X方向)における位置を調整するためのX方向移動機構をさらに備え、X方向移動機構とZ方向移動機構63とによって、測定光束の照射位置を調整してもよい。この場合には、レンズLEを水平方向に回転させなくても、測定光束の照射位置をレンズLEの玉型形状TGに基づいた位置に調整することができる。   In the present embodiment, the image data acquisition mechanism 60 adjusts the irradiation position of the measurement light beam to a position based on the lens shape TG of the lens LE by the rotation of the lens LE in the horizontal direction and the Z direction movement mechanism 63. However, the present invention is not limited to this. For example, the image data acquisition mechanism 60 further includes an X direction moving mechanism for adjusting the position of the measurement optical system 61 in the left and right direction (X direction), and the measurement light flux is measured by the X direction moving mechanism and the Z direction moving mechanism 63. The irradiation position of may be adjusted. In this case, the irradiation position of the measurement light beam can be adjusted to a position based on the lens shape TG of the lens LE without rotating the lens LE in the horizontal direction.

なお、本実施例においては、Y方向移動機構62を駆動して測定光学系61を移動させることで、レンズLEにおけるコバの前面位置を求める構成を例に挙げて説明したがこれに限定されない。例えば、Y方向移動機構62を駆動せずに測定光学系61を固定配置して、レンズLEにおけるコバの前面位置を求める構成であってもよい。例えば、この場合、制御部70は、各断面画像データ75に表示された前面像データP1sの位置から、レンズLEのコバの前面位置を特定するようにしてもよい。もちろん、Y方向移動機構62により測定光学系61が移動した移動量と、各断面画像データ75に表示された前面像データP1sの位置と、の双方に基づいて、レンズLEにおけるコバの前面位置を求める構成であってもよい。   In the present embodiment, the Y-direction moving mechanism 62 is driven to move the measurement optical system 61 to obtain the front surface position of the edge of the lens LE. However, the present invention is not limited to this. For example, the measurement optical system 61 may be fixedly disposed without driving the Y-direction moving mechanism 62, and the front surface position of the edge of the lens LE may be obtained. For example, in this case, the control unit 70 may specify the front surface position of the edge of the lens LE from the position of the front image data P1s displayed in each cross-sectional image data 75. Of course, the front surface position of the edge of the lens LE is determined based on both the movement amount of the measurement optical system 61 moved by the Y direction movement mechanism 62 and the position of the front image data P1s displayed in each cross section image data 75. It may be a required configuration.

なお、本実施例においては、画像データ取得機構60が備える撮像素子69を、その受光面が光軸L4に対して垂直となるように配置する構成を例に挙げて説明したがこれに限定されない。例えば、撮像素子69は傾斜可能に配置されてもよい。これによって、レンズLEの屈折率及び前面カーブ値によって、撮像素子69の焦点位置がレンズLEの前面と後面でずれてしまっても、撮像素子69の受光面の角度を変化させて、焦点位置を適切に合わせることができる。   In the present embodiment, the image sensor 69 included in the image data acquisition mechanism 60 has been described as an example in which the light receiving surface is arranged perpendicular to the optical axis L4. However, the present invention is not limited thereto. . For example, the imaging device 69 may be arranged to be tiltable. As a result, even if the focal position of the imaging device 69 is shifted between the front and rear surfaces of the lens LE depending on the refractive index of the lens LE and the front curve value, the angle of the light receiving surface of the imaging device 69 is changed to change the focal position. It can be properly adjusted.

なお、本実施例においては、画像データ取得機構60が備える光源65から、点状の測定光束が照射される構成を例に挙げて説明したがこれに限定されない。例えば、光源65からスリット状の測定光束を照射する構成としてもよい。この場合には、光源65とレンズLEとの間にスリット板とレンズとを設け、光源65から照射された測定光束を細いスリット状に制限して、レンズLEに集光させもよい。これによって、レンズLEには所定の幅をもったスリット状の測定光束が照射されるので、撮像素子69はレンズLEの所定の幅の前面及び後面の像を撮像することができる。また、このように撮像された断面画像データ75を画像処理することで、レンズLEの前面カーブ値及び後面カーブ値を求めることもできる。   In the present embodiment, the configuration in which the point-like measurement light flux is emitted from the light source 65 provided in the image data acquisition mechanism 60 has been described as an example, but the present invention is not limited to this. For example, the light source 65 may be configured to emit a slit-shaped measurement light beam. In this case, a slit plate and a lens may be provided between the light source 65 and the lens LE, and the measurement light beam irradiated from the light source 65 may be limited to a narrow slit and condensed on the lens LE. As a result, since the slit-shaped measurement light beam having a predetermined width is irradiated to the lens LE, the image pickup element 69 can pick up an image of the front surface and the rear surface of the predetermined width of the lens LE. Further, the front curve value and the rear curve value of the lens LE can also be obtained by performing image processing on the cross-sectional image data 75 captured in this manner.

また、本実施例においては、画像データ取得機構60が備える光源65から、点状の測定光束をレンズLEの1点に向けて照射する構成を例に挙げて説明したがこれに限定されない。例えば、光源65を移動可能に配置し、点状の測定光束をライン状に走査する構成としてもよい。これによっても、撮像素子69はレンズLEの所定の幅の前面及び後面の像を撮像することができる。従って、制御部70は、断面画像データ75を画像処理し、レンズLEの前面カーブ値及び後面カーブ値を求めることができる。   Further, in the present embodiment, the configuration in which the point-like measurement light flux is emitted toward one point of the lens LE from the light source 65 provided in the image data acquisition mechanism 60 has been described as an example, but the present invention is not limited thereto. For example, the light source 65 may be disposed movably, and a point-like measurement light beam may be scanned in a line. Also in this case, the imaging element 69 can capture an image of the front surface and the rear surface of the predetermined width of the lens LE. Therefore, the control unit 70 can process the cross-sectional image data 75 to obtain the front curve value and the back curve value of the lens LE.

なお、本実施例においては、画像データ取得機構60がレンズLEの動径角毎に断面画像データ75を取得し、制御部70が断面画像データ75に基づいてコバ情報を取得する構成を例に挙げて説明したがこれに限定されない。例えば、レンズLEにおいて断面画像データ75を取得していない位置(例えば、玉型形状に対応する点と点の間の位置、等)については、周辺の動径角における断面画像データ75に基づいたコバ情報を用いて補間することで、その位置のコバ情報を取得するようにしてもよい。   In the present embodiment, the image data acquisition mechanism 60 acquires the cross-sectional image data 75 for each radius angle of the lens LE, and the control unit 70 acquires edge information based on the cross-sectional image data 75 as an example. Although mentioned and explained, it is not limited to this. For example, the position at which the cross-sectional image data 75 is not obtained in the lens LE (for example, the position between the points corresponding to the lens shape, etc.) is based on the cross-sectional image data 75 at surrounding radius vector angles. Edge information on the position may be acquired by performing interpolation using edge information.

なお、本実施例においては、画像データ取得機構60が備える光源65が、レンズLEの玉型形状に基づいた位置に測定光束を照射する構成を例に挙げて説明したがこれに限定されない。例えば、レンズLE上におけるいずれかの位置で測定される構成であってもよい。一例として、例えば、光源65は、レンズLEのレンズ面に穴を開ける加工を施す場合等には、穴位置に測定光束を照射するようにしてもよい。これによって、レンズLEの穴位置におけるコバ情報(例えば、コバ厚等)や、前後面のカーブ値を取得することができる。   In the present embodiment, the light source 65 included in the image data acquisition mechanism 60 irradiates the measurement light beam to the position based on the lens shape of the lens LE as an example, but the present invention is not limited thereto. For example, the configuration may be such that it is measured at any position on the lens LE. As an example, the light source 65 may irradiate the measurement light beam to the hole position, for example, when the lens surface of the lens LE is to be drilled. By this, it is possible to acquire edge information (for example, edge thickness and the like) at the hole position of the lens LE and curve values of the front and rear surfaces.

なお、例えば、画像データ取得機構60が備える撮像素子69は、レンズLEのカーブ値によっては、反射光束(例えば、第1反射光束R1または第2反射光束R2少なくともいずれか)の輝度レベルが良好でなく、レンズLEの断面画像データ75を精度よく取得できない場合がある。このため、例えば、制御部70は、光源65から照射される測定光束の投光光量を制御することによって、輝度レベルを制御してもよい。この場合、制御部70は、断面画像データ75から輝度レベル(輝度値)を検出し、検出した輝度レベルが所定の閾値を満たすか否かを判定してもよい。なお、所定の閾値は、実験やシミュレーション等によって、予め輝度レベルが良好であると判定されるような閾値が設定されていてもよい。   Note that, for example, the image sensor 69 included in the image data acquisition mechanism 60 has a good luminance level of the reflected light flux (for example, at least one of the first reflected light flux R1 and the second reflected light flux R2) depending on the curve value of the lens LE. In some cases, the cross-sectional image data 75 of the lens LE can not be obtained with high accuracy. For this reason, for example, the control unit 70 may control the luminance level by controlling the projection light amount of the measurement light beam emitted from the light source 65. In this case, the control unit 70 may detect a luminance level (luminance value) from the cross-sectional image data 75, and determine whether the detected luminance level satisfies a predetermined threshold. As the predetermined threshold, a threshold may be set in advance such that the brightness level is determined to be good by an experiment, a simulation, or the like.

例えば、制御部70は、その判定結果に基づいて、光源65の投光光量を制御(変更)する。例えば、制御部70は、断面画像データ75の輝度レベルが所定の閾値を満たさない(例えば、所定の閾値より小さい)と判定した場合に、断面画像データ75の輝度レベルが所定の閾値を満たすように、光源65の投光光量を増加させる。また、例えば、制御部70は、断面画像データ75の輝度レベルが所定の閾値を満たす(例えば、所定の閾値以上である)と判定した場合に、輝度レベルの制御を行わず、光源65の投光光量を維持する。もちろん、制御部70は、断面画像データ75の輝度レベルが所定の閾値を満たすと判定した場合であっても、より適正な輝度レベルとなるように、輝度レベルの制御を行うようにしてもよい。これによって、様々なカーブ値のレンズLEに対応させて、レンズLEの断面画像データ75を精度よく取得できる。   For example, the control unit 70 controls (changes) the projection light amount of the light source 65 based on the determination result. For example, when the control unit 70 determines that the brightness level of the cross-sectional image data 75 does not satisfy the predetermined threshold (for example, smaller than the predetermined threshold), the brightness level of the cross-sectional image data 75 satisfies the predetermined threshold The amount of light emitted from the light source 65 is increased. Further, for example, when the control unit 70 determines that the luminance level of the cross-sectional image data 75 satisfies the predetermined threshold (for example, the threshold is equal to or higher than the predetermined threshold), the control unit 70 does not control the luminance level and throws the light source 65. Maintain light intensity. Of course, even when it is determined that the luminance level of the cross-sectional image data 75 satisfies the predetermined threshold value, the control unit 70 may control the luminance level so as to obtain a more appropriate luminance level. . As a result, the cross-sectional image data 75 of the lens LE can be acquired with high accuracy in correspondence with the lens LE of various curve values.

なお、本実施例においては、断面画像データ75から取得されるレンズLEの前面像データP1sと後面像データQ2sとの間隔hを、レンズLEの屈折率に基づいて補正することによって、レンズLEのコバ厚tを求める構成を例に挙げて説明したがこれに限定されない。例えば、断面画像データ75をレンズLEの屈折率に基づいて補正し、補正した後の前面像データと後面像データの間隔hを算出することによって、レンズLEのコバ厚tを求めてもよい。なお、断面画像データ75は、レンズLEの屈折率と、レンズLEの前面カーブ値と、光学中心位置Oから各動径角の点までの距離Dと、の少なくともいずれかに基づいて補正されてもよい。   In the present embodiment, the distance h between the front image data P1s of the lens LE and the rear surface image data Q2s acquired from the cross-sectional image data 75 is corrected based on the refractive index of the lens LE. Although the configuration for obtaining the edge thickness t has been described as an example, the present invention is not limited to this. For example, the edge thickness t of the lens LE may be determined by correcting the cross-sectional image data 75 based on the refractive index of the lens LE and calculating the distance h between the front image data and the rear image data after correction. The cross-sectional image data 75 is corrected based on at least one of the refractive index of the lens LE, the front curve value of the lens LE, and the distance D from the optical center position O to the point of each radius vector angle. It is also good.

なお、本実施例においては、カップ取付装置1を用いて軸打ちを行った後に、断面画像データ75及びコバ情報(例えば、レンズLEのコバ厚t)を取得する構成を例に挙げて説明したがこれに限定されない。本実施例では、カップ取付装置1を用いて、軸打ち、断面画像データ75の取得、及びコバ情報の取得、が行われる構成であればよい。例えば、この場合には、断面画像データ75及びコバ情報を取得した後に、レンズLEへの軸打ちを行ってもよい。   In the present embodiment, the configuration in which the cross-sectional image data 75 and the edge information (e.g., the edge thickness t of the lens LE) are acquired after the axial attachment using the cup attachment device 1 has been described as an example. Is not limited to this. In the present embodiment, any configuration may be used as long as the shaft attachment, acquisition of cross-sectional image data 75, and acquisition of edge information are performed using the cup attachment device 1. For example, in this case, after the cross-sectional image data 75 and the edge information are obtained, the axis strike to the lens LE may be performed.

なお、本実施例では、カップ取付装置1が測定光学系61を用いてレンズLEのコバ情報を取得する構成を例に挙げて説明したがこれに限定されない。例えば、カップ取付装置1は測定子を備え、レンズLEに測定子を当接させることによって、レンズLEのコバ情報を取得する構成であってもよい。   In the present embodiment, the configuration in which the cup mounting device 1 acquires edge information of the lens LE using the measurement optical system 61 has been described as an example, but the present invention is not limited to this. For example, the cup attachment device 1 may be configured to include a measuring element and obtain edge information of the lens LE by bringing the measuring element into contact with the lens LE.

また、本実施例においては、カップ取付装置1を用いてレンズLEの仕上げ加工位置を設定する構成を例に挙げて説明したがこれに限定されない。例えば、レンズLEの仕上げ加工位置は、レンズ周縁加工装置90を用いて設定されてもよい。この場合には、例えば、レンズ周縁加工装置90が備える図示なきディスプレイに、コバ厚に基づいた仕上げ加工位置が表示されてもよい。また、例えば、仕上げ加工位置を調整するための操作信号に基づいて、仕上げ加工位置が設定されるようにしてもよい。また、例えば、左レンズの仕上げ加工位置と右レンズの仕上げ加工位置とが比較可能に表示されてもよい。   Further, in the present embodiment, the configuration for setting the finishing position of the lens LE using the cup attachment device 1 has been described as an example, but the present invention is not limited to this. For example, the finishing position of the lens LE may be set using the lens edge processing apparatus 90. In this case, for example, a finishing position based on the edge thickness may be displayed on a display (not shown) included in the lens edge processing apparatus 90. Further, for example, the finishing position may be set based on an operation signal for adjusting the finishing position. Also, for example, the finishing position of the left lens and the finishing position of the right lens may be displayed comparably.

なお、本実施例では、レンズ周縁加工装置90を用いて、レンズLEの前面における玉型形状に基づいた動径角の1点のコバ情報(第2コバ情報)を取得する構成を例に挙げて説明したがこれに限定されない。例えば、レンズ周縁加工装置90を用いて、玉型形状に基づいた動径角の複数の点のコバ情報を取得する構成であってもよい。この場合には、例えば、仮想線V1上の2点(すなわち、図13における点P1と点P5)と、仮想線V2上の2点と、の合計4点、等のコバ情報が取得されてもよい。これによって、制御部95は、レンズLEをレンズチャック軸102L及び102Rにより保持したことで生じるレンズLEの変形や傾きを予測することができる。なお、以下ではレンズLEが傾いた場合を一例に挙げて説明する。   In the present embodiment, a configuration in which edge information (second edge information) of one point of the vectorial angle based on the lens shape on the front surface of the lens LE is acquired using the lens edge processing device 90 as an example. However, the present invention is not limited thereto. For example, the lens edge processing device 90 may be used to acquire edge information of a plurality of points of the radius vector angle based on the lens shape. In this case, for example, edge information such as a total of four points on two points on the virtual line V1 (that is, points P1 and P5 in FIG. 13) and two points on the virtual line V2 is acquired. It is also good. As a result, the control unit 95 can predict the deformation and inclination of the lens LE caused by holding the lens LE by the lens chuck shafts 102L and 102R. In the following, the case where the lens LE is inclined will be described as an example.

図13はレンズチャック軸102がレンズLEを保持した状態を示す図である。例えば、図13は仮想線V1による断面を表しており、レンズLEが傾いている。なお、図13では、点P1から回転中心軸K3と垂直な方向に伸びる辺g1と、点P5から回転中心軸K3と水平な方向に伸びる辺g2と、の交点を点P6として説明する。例えば、制御部95は、レンズ周縁加工装置90が備える測定子201にレンズLEの仮想線V1上の2点(すなわち、点P1と点P5)を接触させ、それぞれの点におけるX方向の位置座標を算出する。続いて、制御部95は、辺g1と辺g2の距離をそれぞれ算出する。例えば、制御部95は、点P1と点P5のX方向における座標位置の差分から、辺g2の距離を求める。また、例えば、制御部95は、レンズLEの玉型形状から、辺g1の距離を求める。例えば、本実施例では、回転中心軸K3から点P1までのY方向における距離と、回転中心軸K3から点P5までのY方向における距離と、が玉型形状によりそれぞれ既知であるため、これらに基づいて辺g1の距離を算出することができる。   FIG. 13 is a view showing the lens chuck shaft 102 holding the lens LE. For example, FIG. 13 shows a cross section by a virtual line V1, and the lens LE is inclined. In FIG. 13, an intersection point of a side g1 extending from the point P1 in a direction perpendicular to the rotation center axis K3 and a side g2 extending from the point P5 in a direction parallel to the rotation center axis K3 will be described as a point P6. For example, the control unit 95 causes the measuring element 201 included in the lens peripheral edge processing apparatus 90 to contact two points (that is, the point P1 and the point P5) on the imaginary line V1 of the lens LE, and position coordinates in the X direction at each point Calculate Subsequently, the control unit 95 calculates the distance between the side g1 and the side g2. For example, the control unit 95 obtains the distance of the side g2 from the difference between the coordinate positions of the point P1 and the point P5 in the X direction. Further, for example, the control unit 95 obtains the distance of the side g1 from the lens shape of the lens LE. For example, in the present embodiment, the distance in the Y direction from the rotation center axis K3 to the point P1 and the distance in the Y direction from the rotation center axis K3 to the point P5 are known from the lens shape, respectively. Based on the distance of the side g1 can be calculated.

例えば、制御部95は、辺g1及び辺g2を用いた三角関数により、辺g1と、点P1と点P5とを結ぶ線分と、がなす角度αを計算する。これによって、レンズLEがレンズチャック軸102L及び102Rに対して垂直方向に傾斜した角度を求めることができる。また、例えば、制御部95は、レンズ周縁加工装置90におけるレンズLEの仮想線V2上の2点についても位置座標を算出し、上記と同様にして、レンズLEがレンズチャック軸102L及び102Rに対して水平方向に傾斜した角度を求めることができる。例えば、制御部95は、これらの傾斜角度を考慮して、レンズチャック軸102に保持されたレンズLEに対して、カップ取付装置1にて作成されたヤゲン形成データを対応させるようにしてもよい。   For example, the control unit 95 calculates an angle α formed by the side g1 and a line segment connecting the point P1 and the point P5 by a trigonometric function using the side g1 and the side g2. Thus, the angle at which the lens LE is inclined in the vertical direction with respect to the lens chuck shafts 102L and 102R can be obtained. Further, for example, the control unit 95 also calculates position coordinates for two points on the imaginary line V2 of the lens LE in the lens peripheral edge processing apparatus 90, and in the same manner as described above, the lens LE corresponds to the lens chuck shafts 102L and 102R. It is possible to determine the angle inclined in the horizontal direction. For example, the control unit 95 may make the bevel formation data created by the cup mounting device 1 correspond to the lens LE held by the lens chuck shaft 102 in consideration of these inclination angles. .

なお、本実施例においては、カップ取付装置1がコバ測定機構を有し、コバ測定機構を制御することによって、レンズLEを測定してコバ情報を取得する構成を例に挙げて説明したがこれに限定されない。例えば、カップ取付装置1はコバ測定機構を有さず、別の装置からコバ情報を取得する構成であってもよい。   In the present embodiment, the cup mounting device 1 has the edge measuring mechanism, and the structure for measuring the lens LE and acquiring edge information by controlling the edge measuring mechanism has been described as an example. It is not limited to. For example, the cup attachment device 1 may not have the edge measurement mechanism, and may be configured to acquire edge information from another device.

なお、本実施例では、ステップS7の仕上げ加工位置の設定において、制御部70によるヤゲンの仮位置の初期設定及び自動調整と、操作者によるヤゲンの仮位置の手動調整と、をそれぞれ行う構成を例に挙げて説明したがこれに限定されない。例えば、これらの設定及び調整は、少なくともいずれかが行われる構成であればよい。もちろん、これらの設定及び調整は、組み合わせて行われる構成であってもよい。   In the present embodiment, in the setting of the finishing position in step S7, the control unit 70 performs the initial setting and automatic adjustment of the temporary position of the bevel and the manual adjustment of the temporary position of the bevel by the operator. Although described by way of example, it is not limited thereto. For example, these settings and adjustments may be configured to perform at least one of them. Of course, these settings and adjustments may be combined.

1 カップ取付装置
2 ディスプレイ
10 レンズ支持機構
20 フレーム形状測定機構
30 カップ取付機構
40 レンズ情報測定機構
60 画像データ取得機構
70 制御部
71 メモリ
75 断面画像データ
80 シミュレーション画面
90 レンズ周縁加工装置
100 レンズ保持ユニット
102 レンズチャック軸
200 コバ情報取得ユニット
300 加工ユニット
Reference Signs List 1 cup mounting device 2 display 10 lens support mechanism 20 frame shape measurement mechanism 30 cup attachment mechanism 40 lens information measurement mechanism 60 image data acquisition mechanism 70 control unit 71 memory 75 cross-sectional image data 80 simulation screen 90 lens edge processing device 100 lens holding unit 102 Lens chuck shaft 200 edge information acquisition unit 300 processing unit

Claims (8)

眼鏡レンズの周縁を加工するためのレンズ形状測定装置であって、
前記眼鏡レンズの屈折率を取得する屈折率取得手段と、
前記眼鏡レンズの前面における前面像データと、前記眼鏡レンズの後面における後面像データと、を含む断面画像データを取得する画像データ取得手段と、
前記屈折率及び前記断面画像データに基づいて、前記眼鏡レンズのコバに関する情報であるコバ情報を取得するコバ情報取得手段と、
を備えることを特徴とするレンズ形状測定装置。
A lens shape measuring device for processing the periphery of a spectacle lens, comprising:
Refractive index acquisition means for acquiring the refractive index of the spectacle lens;
Image data acquisition means for acquiring cross-sectional image data including front image data on the front surface of the spectacle lens and rear image data on the rear surface of the spectacle lens;
Edge information acquisition means for acquiring edge information which is information on an edge of the spectacle lens based on the refractive index and the cross-sectional image data;
A lens shape measuring apparatus comprising:
請求項1のレンズ形状測定装置において、
前記眼鏡レンズの前記前面または前記後面に向けて測定光束を投光する投光光学系と、
前記測定光束が前記眼鏡レンズの前記前面で反射された第1反射光束と、前記測定光束が前記眼鏡レンズの前記後面で反射された第2反射光束と、を受光素子によって受光する受光光学系と、を備え、
前記画像データ取得手段は、前記第1反射光束により形成された前記前面像データと、前記第2反射光束により形成された前記後面像データと、を含む前記断面画像データを取得することを特徴とするレンズ形状測定装置。
In the lens shape measuring apparatus according to claim 1,
A projection optical system for projecting a measurement light beam toward the front surface or the rear surface of the spectacle lens;
A light receiving optical system for receiving, by a light receiving element, a first reflected light beam in which the measurement light beam is reflected on the front surface of the eyeglass lens, and a second reflected light beam in which the measurement light beam is reflected on the back surface of the eyeglass lens , And
The image data acquisition means acquires the cross-sectional image data including the front image data formed by the first reflected light beam and the back surface image data formed by the second reflected light beam. Lens shape measuring device.
請求項1または2のレンズ形状測定装置において、
前記コバ情報取得手段は、前記屈折率に基づいて、前記断面画像データを補正し、補正した前記断面画像データに基づいて、前記コバ情報を取得することを特徴とするレンズ形状測定装置。
The lens shape measuring apparatus according to claim 1 or 2
The lens shape measuring device, wherein the edge information acquisition means corrects the cross-sectional image data based on the refractive index, and acquires the edge information based on the corrected cross-sectional image data.
請求項1または2のレンズ形状測定装置において、
前記コバ情報取得手段は、前記断面画像データに基づいて取得したコバ情報を前記屈折率に基づいて補正することで、前記コバ情報を取得することを特徴とするレンズ形状測定装置。
The lens shape measuring apparatus according to claim 1 or 2
The lens shape measuring device, wherein the edge information acquisition means acquires the edge information by correcting the edge information acquired based on the cross-sectional image data based on the refractive index.
請求項1〜4のいずれかのレンズ形状測定装置において、
前記画像データ取得手段は、前記眼鏡レンズの玉型形状に基づいた前記断面画像データを取得することを特徴とするレンズ形状測定装置。
In the lens shape measuring apparatus according to any one of claims 1 to 4,
A lens shape measuring device characterized in that the image data acquisition means acquires the cross-sectional image data based on the lens shape of the spectacle lens.
請求項1〜5のいずれかのレンズ形状測定装置において、
前記眼鏡レンズを載置するためのレンズ支持手段と、
眼鏡レンズの周縁を加工するために眼鏡レンズを挟み込んで保持するレンズ保持手段の、眼鏡レンズに対する取付け位置である軸出し位置を設定する軸出し位置設定手段であって、前記レンズ支持手段に載置された前記眼鏡レンズの軸出し位置を設定する軸出し位置設定手段と、
を備える軸出し装置であることを特徴とするレンズ形状測定装置。
In the lens shape measuring apparatus according to any one of claims 1 to 5,
Lens supporting means for mounting the spectacle lens;
A centering position setting means for setting a centering position, which is a mounting position for a spectacle lens, of a lens holding means for holding and holding the spectacle lens to process the peripheral edge of the spectacle lens, which is mounted on the lens support means Centering position setting means for setting the centering position of the spectacle lens which has been set;
A lens shape measuring apparatus comprising: a centering apparatus including:
請求項6のレンズ形状測定装置において、
前記軸出し装置は、
前記レンズ保持手段に前記眼鏡レンズを保持するためのカップを、前記軸出し位置設定手段によって設定された前記軸出し位置に基づいて、前記眼鏡レンズに取り付けるカップ取付手段であって、前記レンズ支持手段に載置された前記眼鏡レンズの表面にカップを取り付けるためのカップ取付手段を備えるカップ取付装置であることを特徴とするレンズ形状測定装置。
In the lens shape measuring apparatus according to claim 6,
The centering device is
Cup mounting means for mounting a cup for holding the spectacle lens in the lens holding means on the spectacle lens based on the centering position set by the centering position setting means, the lens supporting means What is claimed is: 1. A lens shape measuring apparatus comprising: a cup mounting device for mounting a cup on a surface of the spectacle lens placed on the surface of the lens.
請求項1〜5のいずれかのレンズ形状測定装置は、
前記レンズ保持手段により保持された前記眼鏡レンズの周縁を加工するための加工具を備えるレンズ周縁加工装置であることを特徴とするレンズ形状測定装置。
The lens shape measuring apparatus according to any one of claims 1 to 5,
What is claimed is: 1. A lens shape measuring apparatus comprising: a lens peripheral processing device including a processing tool for processing the peripheral edge of the spectacle lens held by the lens holding means.
JP2017233835A 2017-12-05 2017-12-05 Alignment device Active JP7172029B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017233835A JP7172029B2 (en) 2017-12-05 2017-12-05 Alignment device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017233835A JP7172029B2 (en) 2017-12-05 2017-12-05 Alignment device

Publications (3)

Publication Number Publication Date
JP2019100928A true JP2019100928A (en) 2019-06-24
JP2019100928A5 JP2019100928A5 (en) 2020-12-17
JP7172029B2 JP7172029B2 (en) 2022-11-16

Family

ID=66973449

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017233835A Active JP7172029B2 (en) 2017-12-05 2017-12-05 Alignment device

Country Status (1)

Country Link
JP (1) JP7172029B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3800007A1 (en) 2019-10-03 2021-04-07 Nidek Co., Ltd. Eyeglass lens peripheral edge processing system and eyeglass lens peripheral edge processing program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03259710A (en) * 1990-03-09 1991-11-19 Nikon Corp Lens shape measuring instrument and grinding device provided with same
JPH05119292A (en) * 1991-10-29 1993-05-18 Sharp Corp Parting method for liquid crystal display substrate
JP2001356007A (en) * 2000-04-10 2001-12-26 Seiko Epson Corp Method and apparatus for recognizing image as well as positioning device
US6975410B1 (en) * 2002-04-15 2005-12-13 Sturgill Dennis T Measuring device
JP2012173391A (en) * 2011-02-18 2012-09-10 Canon Inc Image generation device and image generation method
JP2014233788A (en) * 2013-05-31 2014-12-15 株式会社ニデック Spectacle lens processing device and spectacle lens vertical direction detection program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03259710A (en) * 1990-03-09 1991-11-19 Nikon Corp Lens shape measuring instrument and grinding device provided with same
JPH05119292A (en) * 1991-10-29 1993-05-18 Sharp Corp Parting method for liquid crystal display substrate
JP2001356007A (en) * 2000-04-10 2001-12-26 Seiko Epson Corp Method and apparatus for recognizing image as well as positioning device
US6975410B1 (en) * 2002-04-15 2005-12-13 Sturgill Dennis T Measuring device
JP2012173391A (en) * 2011-02-18 2012-09-10 Canon Inc Image generation device and image generation method
JP2014233788A (en) * 2013-05-31 2014-12-15 株式会社ニデック Spectacle lens processing device and spectacle lens vertical direction detection program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3800007A1 (en) 2019-10-03 2021-04-07 Nidek Co., Ltd. Eyeglass lens peripheral edge processing system and eyeglass lens peripheral edge processing program

Also Published As

Publication number Publication date
JP7172029B2 (en) 2022-11-16

Similar Documents

Publication Publication Date Title
KR101442575B1 (en) Cup attaching apparatus
JP2008299140A (en) Cup attaching apparatus
JP4746028B2 (en) Eyeglass lens centering-blocking device, automatic detection method and related manual centering method
JP5679560B2 (en) Dimension measuring apparatus, dimension measuring method and program for dimension measuring apparatus
KR101381121B1 (en) Cup attaching apparatus
JP3786941B2 (en) Device for automatically determining the characteristics of a spectacle lens with a device for automatically positioning a centering drive pin
JP3929595B2 (en) Eyeglass lens processing system
JP3077054U (en) Equipment for automatic installation of finishing blocks on lenses
JP6338039B2 (en) Device with cup mounting unit
JP2000079545A (en) Cup mounting device
JP7087366B2 (en) Axis setting device, spectacle lens processing system, and spectacle lens processing method
JP2002139713A (en) Method and device for mounting lens holders of spectacle lens
JP2007526510A (en) Method for centering a spectacle lens in a centering-blocking device and associated centering-blocking device
JP7172029B2 (en) Alignment device
US7686674B2 (en) Cup attaching apparatus
JPH11216650A (en) Centering device
JP7243043B2 (en) Target shape measuring device
JP4104297B2 (en) Cup mounting device
JP6338042B2 (en) Glasses parameter calculation device, glasses parameter calculation program
JP5397889B2 (en) Cup mounting device
EP3290892A1 (en) Lens measurement device
JP7225644B2 (en) lens measuring device
JP2019209380A (en) Spectacle lens processing control data acquisition device
CN112577443A (en) Spectacle frame shape measuring device and lens processing device
KR20150144659A (en) Apparatus having means for attaching cup

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201102

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201102

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210928

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20211129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221017

R150 Certificate of patent or registration of utility model

Ref document number: 7172029

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150