JP2019045660A - Spectacle mapping information acquisition device, spectacle mapping information acquisition method, and spectacle mapping information acquisition program - Google Patents

Spectacle mapping information acquisition device, spectacle mapping information acquisition method, and spectacle mapping information acquisition program Download PDF

Info

Publication number
JP2019045660A
JP2019045660A JP2017168125A JP2017168125A JP2019045660A JP 2019045660 A JP2019045660 A JP 2019045660A JP 2017168125 A JP2017168125 A JP 2017168125A JP 2017168125 A JP2017168125 A JP 2017168125A JP 2019045660 A JP2019045660 A JP 2019045660A
Authority
JP
Japan
Prior art keywords
image
mapping
glasses
frame
lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017168125A
Other languages
Japanese (ja)
Other versions
JP2019045660A5 (en
Inventor
裕司郎 栃久保
Yushiro Tochikubo
裕司郎 栃久保
正 梶野
Tadashi Kajino
正 梶野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidek Co Ltd
Original Assignee
Nidek Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nidek Co Ltd filed Critical Nidek Co Ltd
Priority to JP2017168125A priority Critical patent/JP2019045660A/en
Publication of JP2019045660A publication Critical patent/JP2019045660A/en
Publication of JP2019045660A5 publication Critical patent/JP2019045660A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Eyeglasses (AREA)

Abstract

To provide a spectacle mapping information acquisition device enabling a spectacle frame and a lens to be excellently selected.SOLUTION: The spectacle mapping information acquisition device comprises: mapping image acquisition means acquiring a mapping image showing a lens characteristic of each portion of lenses; frame image acquisition means acquiring a frame image of a spectacle frame; processing means associating the mapping image with the frame image to acquire a spectacle image in which the mapping image is associated with the frame image; and control means comparably outputting a plurality of spectacle images which are acquired by the processing means and in which at least any of the lens characteristics, the frames, and positional relationships between the mapping images and the frame images are different from each other.SELECTED DRAWING: Figure 1

Description

本開示は、眼鏡のマッピング情報を取得する眼鏡マッピング情報取得装置、眼鏡マッピング情報取得方法、及び眼鏡マッピング情報取得プログラムに関する。   The present disclosure relates to an eyeglasses mapping information acquisition device for acquiring eyeglass mapping information, an eyeglasses mapping information acquisition method, and an eyeglasses mapping information acquisition program.

眼鏡のマッピング情報を取得可能な装置の一例として、レンズメータが知られている。レンズメータは、測定光束をレンズに投光し、レンズを透過した測定光束を受光素子で受光することによって、レンズのレンズ特性を測定する(特許文献1参照)。また、レンズメータは、測定したレンズのレンズ特性を示すマッピング画像を表示することができる(特許文献2参照)。   A lens meter is known as an example of an apparatus capable of acquiring mapping information of glasses. The lens meter projects the measurement light flux onto the lens, and receives the measurement light flux transmitted through the lens by the light receiving element to measure the lens characteristics of the lens (see Patent Document 1). Further, the lens meter can display a mapping image indicating the measured lens characteristics of the lens (see Patent Document 2).

特開2008−241694号公報JP, 2008-241694, A 特開2005−308642号公報Unexamined-Japanese-Patent No. 2005-308642

ところで、従来のマッピング情報を取得可能な装置では、レンズ(例えば、単焦点レンズ、二重焦点レンズ、累進多焦点レンズ等)のレンズ特性が、眼鏡フレームに対してどのように位置しているかを把握しづらかった。このため、眼鏡フレームとレンズとの良好な組み合わせを選択することが困難であった。また、装用者が新しく眼鏡を作製する際に、複数の眼鏡フレームと、複数のレンズの中から、眼鏡フレームとレンズとの組み合わせを検討して選択することが困難であった。   By the way, in a device capable of acquiring conventional mapping information, it is understood how the lens characteristics of a lens (for example, a single focus lens, a double focus lens, a progressive multifocal lens, etc.) are positioned with respect to the eyeglass frame It was hard to grasp. For this reason, it was difficult to select a good combination of the eyeglass frame and the lens. In addition, when a wearer newly prepares glasses, it has been difficult to examine and select a combination of a spectacle frame and a lens from among a plurality of spectacle frames and a plurality of lenses.

本開示は、上記従来技術に鑑み、眼鏡フレームとレンズとを良好に選択することを可能にする眼鏡マッピング情報取得装置を提供することを技術課題とする。   This indication makes it a technical subject to provide an eyeglass mapping information acquisition device which enables it to select an eyeglass frame and a lens favorably in view of the above-mentioned conventional technology.

上記課題を解決するため、本開示は以下の構成を備えることを特徴とする。   In order to solve the above-mentioned subject, this indication is characterized by having the following composition.

(1) 本開示の第1態様に係る眼鏡マッピング情報取得装置は、レンズの各部位のレンズ特性を示すマッピング画像を取得するマッピング画像取得手段と、眼鏡のフレームのフレーム画像を取得するフレーム画像取得手段と、前記マッピング画像と前記フレーム画像とを関連付けし、前記マッピング画像と前記フレーム画像とを関連付けた眼鏡画像を取得する処理手段と、前記処理手段によって取得される複数の眼鏡画像であって、レンズ特性と、フレームと、マッピング画像とフレーム画像との位置関係と、の少なくともいずれかが異なる前記複数の眼鏡画像を比較可能に出力する制御手段と、を備えることを特徴とする。
(2) 本開示の第2態様に係る眼鏡マッピング情報取得方法は、レンズの各部位のレンズ特性を示すマッピング画像を取得するマッピング画像取得ステップと、眼鏡のフレームのフレーム画像を取得するフレーム画像取得ステップと、前記マッピング画像と前記フレーム画像とを関連付けし、前記マッピング画像と前記フレーム画像とを関連付けた眼鏡画像を取得する処理ステップと、前記処理ステップによって取得される複数の眼鏡画像であって、レンズ特性と、フレームと、マッピング画像とフレーム画像との位置関係と、の少なくともいずれかが異なる前記複数の眼鏡画像を比較可能に出力する制御ステップと、を備えることを特徴とする。
(3) 本開示の第3態様に係る眼鏡マッピング情報取得プログラムは、眼鏡マッピング情報取得装置において実行される眼鏡マッピング情報取得プログラムであって、レンズの各部位のレンズ特性を示すマッピング画像を取得するマッピング画像取得ステップと、眼鏡のフレームのフレーム画像を取得するフレーム画像取得ステップと、前記マッピング画像と前記フレーム画像とを関連付けし、前記マッピング画像と前記フレーム画像とを関連付けた眼鏡画像を取得する処理ステップと、前記処理ステップによって取得される複数の眼鏡画像であって、レンズ特性と、フレームと、マッピング画像とフレーム画像との位置関係と、の少なくともいずれかが異なる前記複数の眼鏡画像を比較可能に出力する制御ステップと、を前記眼鏡マッピング情報取得装置に実行させることを特徴とする。
(1) The eyeglasses mapping information acquiring apparatus according to the first aspect of the present disclosure includes: a mapping image acquiring unit acquiring a mapping image indicating lens characteristics of each part of a lens; and a frame image acquiring acquiring a frame image of a frame of glasses Means, processing means for associating the mapping image with the frame image, and acquiring a spectacle image in which the mapping image is associated with the frame image, and a plurality of eyeglass images acquired by the processing means, A control means is provided for comparably outputting the plurality of eyeglass images different in at least one of the lens characteristic, the frame, and the positional relationship between the mapping image and the frame image.
(2) In the eyeglasses mapping information acquiring method according to the second aspect of the present disclosure, a mapping image acquiring step of acquiring a mapping image indicating lens characteristics of each part of a lens, and a frame image acquiring acquiring frame images of eyeglass frames A processing step of associating the mapping image with the frame image and acquiring an eyeglass image in which the mapping image is associated with the frame image; and a plurality of eyeglass images acquired by the processing step, A control step of comparing and outputting the plurality of glasses images different in at least one of the lens characteristics, the frame, and the positional relationship between the mapping image and the frame image is characterized.
(3) The eyeglasses mapping information acquiring program according to the third aspect of the present disclosure is an eyeglasses mapping information acquiring program executed in the eyeglasses mapping information acquiring device, and acquires a mapping image indicating lens characteristics of each part of the lens. Processing of acquiring a mapping image acquiring step, acquiring a frame image acquiring step of acquiring a frame image of a frame of glasses, associating the mapping image with the frame image, and associating the mapping image with the frame image A plurality of glasses images obtained by the step and the processing step, wherein the plurality of glasses images different in at least one of the lens characteristics, the frame, and the positional relationship between the mapping image and the frame image can be compared Control step to output to the glasses The information processing apparatus is characterized in that it is executed.

眼鏡マッピング情報取得装置の外観図である。It is an outline view of a glasses mapping information acquisition device. 収納部内の概略構成図である。It is a schematic block diagram in a storage part. 眼鏡マッピング情報取得装置における光学系を示す図である。It is a figure which shows the optical system in a spectacles mapping information acquisition apparatus. 指標板を説明する図である。It is a figure explaining an index board. スクリーンに投影される測定指標像を示す図である。It is a figure which shows the measurement parameter | index image projected on a screen. 駆動部の斜視図である。It is a perspective view of a drive part. 駆動部の右側面図である。It is a right view of a drive part. 駆動部の左側面図である。It is a left side view of a drive part. 駆動部の正面図である。It is a front view of a drive part. 駆動部の背面図である。It is a rear view of a drive part. 眼鏡マッピング情報取得装置の制御系を示す図である。It is a figure which shows the control system of a spectacles mapping information acquisition apparatus. 制御動作を示すフローチャートである。It is a flowchart which shows control operation. 第2モード設定時の受光画像の一例である。It is an example of the light reception image at the time of 2nd mode setting. 眼鏡のフレーム画像を示す図である。It is a figure which shows the frame image of spectacles. 第1モード設定時の受光画像を示す図である。It is a figure which shows the light reception image at the time of 1st mode setting. マッピング画像の一例である。It is an example of a mapping image. マッピング画像とフレーム画像とを重畳した眼鏡画像の一例である。It is an example of the spectacles image which superimposed the mapping image and the frame image. ディスプレイに表示される比較画像の一例である。It is an example of the comparison image displayed on a display. 比較画像の変容例を示す図である。It is a figure which shows the example of a change of a comparison image. 眼鏡画像の変容例を示す図である。It is a figure which shows the example of a change of a spectacles image.

<概要>
本開示の実施形態を図面に基づいて説明する。本開示においては、眼鏡マッピング情報取得装置の水平方向(左右方向)をX方向、鉛直方向(上下方向)をY方向、奥行方向(前後方向)をZ方向として説明する。また、本開示においては、左用を示すものに符号Lを、右用を示すものに符号Rを付して説明する。なお、本開示における平行とは、完全に平行な状態、及び略平行な状態を含む。以下、<>にて分類した項目は、独立または関連して利用され得る。
<Overview>
Embodiments of the present disclosure will be described based on the drawings. In the present disclosure, the horizontal direction (left and right direction) of the eyeglasses mapping information acquisition device is described as an X direction, the vertical direction (vertical direction) as a Y direction, and the depth direction (front and rear direction) as a Z direction. Further, in the present disclosure, the description will be made by attaching the code L to those indicating the left use and the reference R to the one indicating the right use. In the present disclosure, “parallel” includes a completely parallel state and a substantially parallel state. The items classified by <> below may be used independently or in association.

なお、本開示の適用は、本実施例に記載した装置に限定されない。例えば、下記実施例の機能を行う案末制御ソフトウェア(プログラム)を、ネットワークまたは各種の記憶媒体等を介してシステムあるいは装置に供給し、システムあるいは装置の制御装置(例えば、CPU等)がプログラムを読み出して実行することも可能である。   The application of the present disclosure is not limited to the device described in the present embodiment. For example, solution control software (program) performing the functions of the following embodiments is supplied to a system or apparatus via a network or various storage media, and the control apparatus (for example, CPU etc.) of the system or apparatus It is also possible to read out and execute.

例えば、眼鏡マッピング情報取得装置(例えば、眼鏡マッピング情報取得装置1)は、レンズ測定手段(例えば、測定光学系10)を備える。また、例えば、眼鏡マッピング情報取得装置は、マッピング画像取得手段(例えば、制御部60)を備える。また、例えば、眼鏡マッピング情報取得装置は、フレーム画像取得手段(例えば、制御部60)を備える。また、例えば、眼鏡マッピング情報取得装置は、処理手段(例えば、制御部60)を備える。また、例えば、眼鏡マッピング情報取得装置は、制御手段(例えば、制御部60)を備える。   For example, the eyeglasses mapping information acquisition apparatus (for example, the eyeglasses mapping information acquisition apparatus 1) includes a lens measurement unit (for example, measurement optical system 10). Also, for example, the eyeglasses mapping information acquiring apparatus includes mapping image acquiring means (for example, the control unit 60). Also, for example, the eyeglasses mapping information acquiring apparatus includes a frame image acquiring unit (for example, the control unit 60). Also, for example, the eyeglasses mapping information acquisition device includes a processing unit (for example, the control unit 60). Also, for example, the eyeglasses mapping information acquisition apparatus includes a control unit (for example, the control unit 60).

<レンズ測定手段>
例えば、レンズ測定手段は、レンズ(例えば、レンズLE)の各部位のレンズ特性を測定する。例えば、レンズ特性は、レンズの球面度数S、円柱度数C、乱視軸角度A、プリズム量Δ等であってもよい。また、例えば、レンズ特性は二次元分布として示されてもよい。この場合、二次元分布はレンズの全体の領域を示すものであってもよい。また、この場合、二次元分布は、レンズの一部の領域を示すものであってもよい。なお、レンズの一部の領域としては、レンズの遠用部や近用部等が挙げられる。
<Lens measurement means>
For example, the lens measurement means measures the lens characteristic of each part of the lens (for example, the lens LE). For example, the lens characteristic may be the spherical power S of the lens, cylindrical power C, astigmatic axis angle A, prism amount Δ or the like. Also, for example, the lens characteristics may be represented as a two-dimensional distribution. In this case, the two-dimensional distribution may indicate the entire area of the lens. In this case, the two-dimensional distribution may indicate a partial area of the lens. In addition, as a partial region of the lens, a distance portion, a near portion, and the like of the lens can be mentioned.

例えば、レンズ測定手段は、少なくとも受光素子(例えば、受光素子16)と光源(例えば、光源11)とを備えていればよい。例えば、この場合、レンズ測定手段は、レンズ(例えば、コンデンサレンズ12と撮像レンズ15の少なくともいずれか)を備えていてもよい。また、例えば、レンズ測定手段は、指標板(例えば、指標板13)を備えていてもよい。また、例えば、レンズ測定手段は、スクリーン(例えば、スクリーン14)を備えていてもよい。   For example, the lens measurement unit may include at least a light receiving element (for example, the light receiving element 16) and a light source (for example, the light source 11). For example, in this case, the lens measurement unit may include a lens (for example, at least one of the condenser lens 12 and the imaging lens 15). Also, for example, the lens measurement means may include an index plate (for example, the index plate 13). Also, for example, the lens measuring means may comprise a screen (e.g. screen 14).

<マッピング画像取得手段>
例えば、マッピング画像取得手段は、レンズの各部位のレンズ特性を示すマッピング画像(例えば、マッピング画像95)を取得する。例えば、マッピング画像は、レンズの各部位のレンズ特性が等しい領域を示す画像であってもよい。この場合、マッピング画像取得手段は、レンズ特性が等しい測定位置を結んだ等度数線(例えば、等度数線96)を形成することで、マッピング画像を取得してもよい。また、この場合、マッピング画像取得手段は、等度数線を表現するグラフィックを作成し、レンズ特性が等しい領域を色分け等してグラフィカルに表現したマッピング画像を取得してもよい。
<Mapping image acquisition means>
For example, the mapping image acquisition unit acquires a mapping image (for example, the mapping image 95) indicating the lens characteristics of each part of the lens. For example, the mapping image may be an image showing regions where the lens characteristics of each part of the lens are equal. In this case, the mapping image acquisition unit may acquire the mapping image by forming an equal power line (for example, equal power line 96) connecting measurement positions having the same lens characteristics. Also, in this case, the mapping image acquisition unit may create a graphic representing an equal frequency line and acquire a mapping image graphically represented by color-dividing an area having the same lens characteristic.

例えば、マッピング画像取得手段は、眼鏡マッピング情報取得装置が取得したマッピング画像を取得する構成であってもよい。例えば、この場合、マッピング画像取得手段は、レンズ測定手段によって測定されたレンズ特性に基づいて、マッピング画像を取得してもよい。例えば、マッピング画像取得手段は、別の装置により取得されたマッピング画像を取得する構成であってもよい。この場合には、マッピング画像取得手段は、別の装置からマッピング画像を受信することで、マッピング画像を取得してもよい。また、この場合には、マッピング画像取得手段は、別の装置から外部メモリに保存されたマッピング画像を読み込むことで、マッピング画像を取得してもよい。もちろん、マッピング画像取得手段は、別の装置により測定されたレンズ特性を取得し、このレンズ特性を用いてマッピング画像を作成することで、マッピング画像を取得してもよい。   For example, the mapping image acquisition unit may be configured to acquire the mapping image acquired by the eyeglasses mapping information acquisition apparatus. For example, in this case, the mapping image acquisition unit may acquire a mapping image based on the lens characteristic measured by the lens measurement unit. For example, the mapping image acquisition unit may be configured to acquire a mapping image acquired by another device. In this case, the mapping image acquisition unit may acquire the mapping image by receiving the mapping image from another device. In this case, the mapping image acquisition unit may acquire the mapping image by reading the mapping image stored in the external memory from another device. Of course, the mapping image acquisition means may acquire a mapping image by acquiring a lens characteristic measured by another device and creating a mapping image using this lens characteristic.

なお、例えば、マッピング画像取得手段は、予めデータベースに蓄積された複数のマッピング画像から、該当するマッピング画像を取り込むことで、マッピング画像を取得する構成であってもよい。この場合、データベースには、予めレンズ特性を測定することで取得したマッピング画像が蓄積されていてもよい。また、この場合、データベースには、レンズを製造する際に用いるレンズ設計データに基づくマッピング画像が蓄積されていてもよい。   Note that, for example, the mapping image acquisition unit may be configured to acquire a mapping image by capturing a corresponding mapping image from a plurality of mapping images stored in advance in a database. In this case, mapping images acquired by measuring lens characteristics in advance may be stored in the database. Also, in this case, the database may store mapping images based on lens design data used when manufacturing the lens.

例えば、データベースに蓄積される複数のマッピング画像は、レンズ特性を示したマッピング画像であってもよい。また、例えば、データベースに蓄積される複数のマッピング画像は、レンズ特性とともに、装用者のアイポイント位置が示されたマッピング画像であってもよい。また、例えば、データベースに蓄積される複数のマッピング画像は、レンズ特性とともに、レンズの幾何学中心位置が示されたマッピング画像であってもよい。   For example, the plurality of mapping images stored in the database may be mapping images indicating lens characteristics. Also, for example, the plurality of mapping images stored in the database may be mapping images in which the eye point position of the wearer is indicated together with the lens characteristics. Also, for example, the plurality of mapping images stored in the database may be a mapping image in which the geometrical center position of the lens is indicated together with the lens characteristics.

<フレーム画像取得手段>
例えば、フレーム画像取得手段は、眼鏡のフレームのフレーム画像(例えば、フレーム画像90)を取得する。例えば、フレーム画像は、少なくとも眼鏡のフレーム像(例えば、フレーム像Fp)を含む画像であればよい。この場合、眼鏡のフレーム像は、眼鏡の左のフレーム像と、眼鏡の右のフレーム像と、のいずれかを含むものであってもよい。もちろん、眼鏡のフレーム像は、眼鏡の左のフレーム像と、眼鏡の右のフレーム像と、をどちらも含むものであってもよい。
<Frame image acquisition means>
For example, the frame image acquisition means acquires a frame image (for example, a frame image 90) of a frame of glasses. For example, the frame image may be an image including at least a frame image (for example, a frame image Fp) of glasses. In this case, the frame image of the glasses may include one of the left frame image of the glasses and the right frame image of the glasses. Of course, the frame image of the glasses may include both the left frame image of the glasses and the right frame image of the glasses.

例えば、フレーム画像取得手段は、受光素子が撮影した画像を画像処理することによって、眼鏡のフレーム像を検出し、フレーム画像を取得してもよい。例えば、画像処理としては、眼鏡のフレーム像を検出可能であればよい。すなわち、例えば、フレーム画像取得手段は、眼鏡のフレーム像を含む画像に対してエッジ検出を行う構成であってもよい。また、例えば、フレーム画像取得手段は、眼鏡のフレーム像を含む画像と、眼鏡のフレーム像を含まない画像と、の差分処理を行う構成であってもよい。   For example, the frame image acquisition unit may detect a frame image of the glasses by image processing the image captured by the light receiving element to acquire a frame image. For example, as image processing, it may be possible to detect a frame image of glasses. That is, for example, the frame image acquisition unit may be configured to perform edge detection on an image including a frame image of glasses. Also, for example, the frame image acquisition means may be configured to perform difference processing between an image including a frame image of glasses and an image not including a frame image of glasses.

例えば、フレーム画像取得手段は、眼鏡マッピング情報取得装置が取得したフレーム画像を取得する構成であってもよい。例えば、この場合、フレーム画像取得手段は、受光素子が撮影した受光画像(例えば、受光画像65)から、フレーム画像を取得してもよい。例えば、フレーム画像取得手段は、別の装置により取得されたフレーム画像を取得する構成であってもよい。この場合、フレーム画像取得手段は、別の装置からフレーム画像を受信することで、フレーム画像を取得してもよい。また、この場合、フレーム画像取得手段は、別の装置から外部メモリに保存されたフレーム画像を読み込むことで、フレーム画像を取得してもよい。もちろん、フレーム画像取得手段は、別の装置により検出されたフレーム検出結果を取得し、このフレーム検出結果を基にしてフレーム画像を作成することで、フレーム画像を取得してもよい。   For example, the frame image acquisition unit may be configured to acquire a frame image acquired by the eyeglasses mapping information acquisition apparatus. For example, in this case, the frame image acquisition unit may acquire a frame image from the light receiving image (for example, the light receiving image 65) captured by the light receiving element. For example, the frame image acquisition unit may be configured to acquire a frame image acquired by another device. In this case, the frame image acquisition unit may acquire a frame image by receiving a frame image from another device. In this case, the frame image acquisition unit may acquire a frame image by reading a frame image stored in an external memory from another device. Of course, the frame image acquisition means may acquire a frame image by acquiring a frame detection result detected by another device and creating a frame image based on the frame detection result.

なお、例えば、フレーム画像取得手段は、予めデータベースに蓄積された複数のフレーム画像から、該当するフレーム画像を取り込むことで、フレーム画像を取得する構成であってもよい。この場合、データベースには、予め眼鏡のフレーム形状を測定することで取得したフレーム画像が蓄積されていてもよい。また、この場合、データベースには、眼鏡のフレーム形状を測定した結果に基づいて、グラフィックにより作成されたフレーム画像が蓄積されていてもよい。また、この場合、データベースには、フレームを製造する際に用いるフレーム設計データに基づくフレーム画像が蓄積されていてもよい。   Note that, for example, the frame image acquisition unit may be configured to acquire a frame image by capturing a corresponding frame image from a plurality of frame images stored in advance in a database. In this case, frame images acquired by measuring frame shapes of the glasses in advance may be accumulated in the database. Further, in this case, the database may store a frame image created by graphic based on the result of measuring the frame shape of the glasses. Also, in this case, a frame image based on frame design data used when manufacturing a frame may be accumulated in the database.

例えば、データベースに蓄積される複数のフレーム画像は、眼鏡のフレーム形状を示したフレーム画像であってもよい。また、例えば、データベースに蓄積される複数のフレーム画像は、フレーム形状とともに、装用者のアイポイント位置が示されたフレーム画像であってもよい。また、例えば、データベースに蓄積される複数のフレーム画像は、フレーム形状とともに、フレームのボクシング中心が示されたフレーム画像であってもよい。   For example, the plurality of frame images stored in the database may be frame images showing frame shapes of glasses. Also, for example, the plurality of frame images stored in the database may be frame images in which the eye point position of the wearer is indicated together with the frame shape. Also, for example, the plurality of frame images stored in the database may be a frame image in which the boxing center of the frame is shown together with the frame shape.

例えば、フレーム画像としては、眼鏡のフレーム形状を示す情報であってもよい。例えば、眼鏡のフレーム形状とは、眼鏡のリムの外縁の形状であってもよい。また、例えば、眼鏡のフレーム形状とは、眼鏡のリムの内縁の形状であってもよい。また、例えば、眼鏡のフレーム形状とは、眼鏡のリムの溝底の形状であってもよい。例えば、フレーム画像としては、眼鏡に枠入れされるレンズの形状を示す情報であってもよい。例えば、レンズの形状とは、レンズの玉型であってもよい。また、例えば、レンズの形状とは、デモレンズのエッジラインであってもよい。すなわち、フレーム画像としては、眼鏡におけるフレームの形状、あるいはレンズの形状に関連した情報であればよい。   For example, the frame image may be information indicating the frame shape of the glasses. For example, the frame shape of the glasses may be the shape of the outer edge of the rim of the glasses. Also, for example, the frame shape of the glasses may be the shape of the inner edge of the rim of the glasses. Also, for example, the frame shape of the glasses may be the shape of the groove bottom of the rim of the glasses. For example, the frame image may be information indicating the shape of the lens framed in the glasses. For example, the lens shape may be a lens shape. Also, for example, the shape of the lens may be an edge line of the demo lens. That is, the frame image may be information related to the shape of the frame in the glasses or the shape of the lens.

<処理手段>
例えば、処理手段は、マッピング画像とフレーム画像とを関連付ける。また、例えば、処理手段は、マッピング画像とフレーム画像とを関連付けた眼鏡画像(例えば、眼鏡画像100)を取得する。例えば、これによって、フレームに対してレンズ特性がどのように位置しているかを把握することができる。
<Processing means>
For example, the processing means associates the mapping image with the frame image. Also, for example, the processing unit acquires an eyeglass image (for example, an eyeglass image 100) in which the mapping image and the frame image are associated with each other. For example, this makes it possible to grasp how the lens characteristic is positioned with respect to the frame.

例えば、処理手段は、マッピング画像とフレーム画像との位置関係を把握できるように、これらの画像を関連付ける構成であってもよい。例えば、この場合には、マッピング画像とフレーム画像とを関連付ける方法として、フレーム画像における眼鏡のフレーム像の位置をマッピング画像に示す構成が挙げられる。また、例えば、この場合には、マッピング画像とフレーム画像とを関連付ける方法として、マッピング画像とフレーム画像とを重畳させる構成が挙げられる。   For example, the processing means may be configured to associate these images so that the positional relationship between the mapping image and the frame image can be grasped. For example, in this case, as a method of associating the mapping image with the frame image, there is a configuration in which the position of the frame image of the glasses in the frame image is shown in the mapping image. Also, for example, in this case, as a method of associating the mapping image with the frame image, there is a configuration in which the mapping image and the frame image are superimposed.

例えば、処理手段は、マッピング画像とフレーム画像とを重畳させて関連付けることにより、マッピング画像とフレーム画像とを重畳した眼鏡画像を取得することができる。これによって、眼鏡フレームとレンズとの位置関係が良好であるかを判断することができる。また、これによって、フレームに対するレンズ特性の位置を容易に判断することができる。特に、累進レンズでは、その遠用部や近用部がフレーム内におさまっているかを容易に判断することができる。   For example, the processing means can acquire a glasses image in which the mapping image and the frame image are superimposed by superimposing and associating the mapping image and the frame image. This makes it possible to determine whether the positional relationship between the eyeglass frame and the lens is good. Also, this makes it possible to easily determine the position of the lens characteristic with respect to the frame. In particular, in a progressive lens, it can be easily determined whether its distance and near parts are within the frame.

なお、例えば、処理手段は、複数の眼鏡画像を取得してもよい。例えば、この場合、処理手段は、少なくとも2つ以上の眼鏡画像を取得する構成であってもよい。   Note that, for example, the processing unit may acquire a plurality of glasses images. For example, in this case, the processing means may be configured to acquire at least two or more glasses images.

<制御手段>
例えば、制御手段は、レンズ特性と、フレームと、マッピング画像とフレーム画像との位置関係と、の少なくともいずれかが異なる複数の眼鏡画像を比較可能に出力する。これにより、眼鏡フレームとレンズとの良好な組み合わせを選択することができる。また、眼鏡の違いによる見え具合等の変化を容易に比較することができる。また、例えば、制御手段は、複数の眼鏡画像を並列して出力する。これにより、複数の眼鏡画像から、眼鏡フレームとレンズとが良好な組み合わせを容易に検討することができる。また、複数の眼鏡画像から、レンズ特性や見え具合等がどのように変化したかを把握しやすくなる。また、装用者に対して、レンズ特性や見え具合等の違いを説明しやすくなる。
<Control means>
For example, the control means comparesably outputs a plurality of eyeglass images in which at least one of the lens characteristic, the frame, and the positional relationship between the mapping image and the frame image is different. Thereby, a good combination of the eyeglass frame and the lens can be selected. In addition, it is possible to easily compare changes in the degree of visibility due to differences in the glasses. Also, for example, the control means outputs a plurality of glasses images in parallel. As a result, it is possible to easily consider a good combination of the eyeglass frame and the lens from a plurality of eyeglass images. In addition, it becomes easy to grasp how the lens characteristics, the degree of visibility, and the like have changed from the plurality of glasses images. In addition, it is easy to explain to the wearer the differences in the lens characteristics and the degree of visibility.

例えば、制御手段は、複数の眼鏡画像を表示手段に表示することで、比較可能に出力する。例えば、この場合、表示手段は、眼鏡マッピング情報取得装置が備える表示手段であってもよい。また、例えば、表示手段は、眼鏡マッピング情報取得装置とは異なる装置の表示手段であってもよい。また、例えば、表示手段は、携帯端末(例えば、タブレット端末等)の表示手段であってもよい。例えば、これによって、眼鏡画像同士を容易に比較することができる。このため、操作者は、眼鏡フレームとレンズとの良好な組み合わせを選択することができる。また、レンズ特性や見え具合等の違いを理解しやすくなる。   For example, the control means outputs the plurality of eyeglass images on the display means so as to output them comparably. For example, in this case, the display means may be a display means provided in the eyeglasses mapping information acquisition device. Also, for example, the display means may be a display means of an apparatus different from the eyeglasses mapping information acquisition apparatus. Also, for example, the display means may be a display means of a portable terminal (for example, a tablet terminal or the like). For example, this allows eyeglasses images to be easily compared. Therefore, the operator can select a good combination of the eyeglass frame and the lens. In addition, it is easy to understand the differences in lens characteristics and appearance.

例えば、制御手段は、複数の眼鏡画像を表示手段に並列して表示させることで、比較可能としてもよい。また、例えば、制御手段は、1つの眼鏡画像を表示手段に表示し、表示手段を切換えることによって、複数の眼鏡画像を比較可能としてもよい。すなわち、例えば、制御手段は、眼鏡画像の並列表示と、表示手段の切換えと、の少なくともいずれかを行うことで、複数の眼鏡画像を比較可能としてもよい。   For example, the control means may be made comparable by displaying a plurality of glasses images in parallel on the display means. Further, for example, the control means may display one eyeglass image on the display means and switch the display means to make it possible to compare a plurality of eyeglass images. That is, for example, the control unit may be able to compare a plurality of glasses images by performing at least one of parallel display of glasses images and switching of display units.

なお、例えば、制御手段は、複数の眼鏡画像を外部メモリへ保存することで、比較可能に出力する構成であってもよい。また、例えば、制御手段は、複数の眼鏡画像を別の装置へ転送することで、比較可能に出力する構成であってもよい。また、例えば、制御手段は、複数の眼鏡画像を印刷することで、比較可能に出力する構成であってもよい。例えば、この場合には、1枚の用紙に複数の眼鏡画像を並べて印刷するようにしてもよい。   Note that, for example, the control unit may be configured to output comparisons by storing a plurality of glasses images in an external memory. In addition, for example, the control unit may be configured to output the plurality of glasses images so as to be comparable by transferring them to another device. Also, for example, the control unit may be configured to output the images so as to be comparable by printing a plurality of glasses images. For example, in this case, a plurality of glasses images may be arranged and printed on one sheet of paper.

例えば、本実施例における眼鏡マッピング情報取得装置は、装用者のアイポイントデータを取得するアイポイント取得手段(例えば、制御部60)を備えていてもよい。例えば、この場合、処理手段は、アイポイントデータに基づく標識マーク(例えば、標識マーク120)を複数の眼鏡画像における少なくとも1つの眼鏡画像に重畳させる。もちろん、処理手段は、標識マークを複数の眼鏡画像におけるすべての眼鏡画像に重畳させるようにしてもよい。   For example, the eyeglasses mapping information acquisition apparatus in the present embodiment may include eye point acquisition means (for example, the control unit 60) for acquiring eye point data of the wearer. For example, in this case, the processing means superimposes a marker mark (for example, the marker mark 120) based on eye point data on at least one spectacle image in a plurality of spectacle images. Of course, the processing means may superimpose the marker mark on all the glasses images in the plurality of glasses images.

例えば、眼鏡マッピング情報取得装置がアイポイント取得手段を備える場合、制御手段は、複数の眼鏡画像を比較可能に出力するとともに、複数の眼鏡画像における少なくとも1つの眼鏡画像に重畳された標識マークを、複数の眼鏡画像とともに出力する。これによって、装用者のアイポイント位置等が眼鏡のフレームに対してどこに位置するかを把握し、装用者にとって良好な眼鏡フレームとレンズの組み合わせであるかを容易に判断することができる。   For example, when the eyeglasses mapping information acquiring apparatus includes eye point acquiring means, the control means outputs a plurality of eyeglass images comparably to each other, and at least one marker mark superimposed on the plurality of eyeglass images is Output along with multiple glasses images. By this, it can be grasped where the eye point position etc. of the wearer is located with respect to the frame of the glasses, and it can be easily judged whether the combination of the spectacle frame and the lens is good for the wearer.

また、例えば、本実施例における眼鏡マッピング情報取得装置は、レンズの隠しマークの位置を取得するための構成を備えていてもよい。例えば、この場合、処理手段は、隠しマークを複数の眼鏡画像における少なくとも1つの眼鏡画像に重畳させてもよい。もちろん、処理手段は、標識マークを複数の眼鏡画像におけるすべての眼鏡画像に重畳させるようにしてもよい。   Also, for example, the eyeglasses mapping information acquisition apparatus in the present embodiment may have a configuration for acquiring the position of the hidden mark of the lens. For example, in this case, the processing means may superimpose the hidden mark on at least one eyeglass image in the plurality of eyeglass images. Of course, the processing means may superimpose the marker mark on all the glasses images in the plurality of glasses images.

なお、例えば、隠しマークの位置は、隠しマークを検出するための光学系を別途備えた眼鏡マッピング情報取得装置により取得してもよい。また、例えば、隠しマークの位置は、隠しマークを検出するための光学系と測定光学系とを兼用した眼鏡マッピング情報取得装置により取得してもよい。もちろん、例えば、隠しマークの位置は、別の装置により取得してもよい。   Note that, for example, the position of the hidden mark may be acquired by an eyeglass mapping information acquisition apparatus separately provided with an optical system for detecting the hidden mark. Also, for example, the position of the hidden mark may be acquired by the eyeglasses mapping information acquisition apparatus which combines the optical system for detecting the hidden mark and the measurement optical system. Of course, for example, the position of the hidden mark may be obtained by another device.

<実施例>
以下、本実施例における眼鏡マッピング情報取得装置について説明する。図1は眼鏡マッピング情報取得装置1の外観図である。例えば、眼鏡マッピング情報取得装置1は、筐体2、ディスプレイ(モニタ)3、操作ボタン4等を備える。例えば、筐体2は、その内部に収納部5を備える。なお、収納部5についての詳細は後述する。
<Example>
Hereinafter, the eyeglasses mapping information acquisition apparatus in a present Example is demonstrated. FIG. 1 is an external view of the eyeglasses mapping information acquisition apparatus 1. For example, the eyeglasses mapping information acquisition apparatus 1 includes a housing 2, a display (monitor) 3, an operation button 4, and the like. For example, the housing 2 includes the storage unit 5 therein. The details of the storage unit 5 will be described later.

例えば、ディスプレイ3は、LCD(Liquid Crystal Display)、有機EL(Electro Luminescence)ディスプレイ、プラズマディスプレイ等のいずれかで構成される。例えば、ディスプレイ3は、眼鏡マッピング情報取得装置1に搭載する構成でもよいし、眼鏡マッピング情報取得装置1に接続する構成でもよい。もちろん、本実施例における眼鏡マッピング情報取得装置1は、複数のディスプレイを併用する構成としてもよい。   For example, the display 3 is configured by any one of an LCD (Liquid Crystal Display), an organic EL (Electro Luminescence) display, a plasma display, and the like. For example, the display 3 may be mounted on the eyeglasses mapping information acquisition apparatus 1 or may be connected to the eyeglasses mapping information acquisition apparatus 1. Of course, the eyeglasses mapping information acquisition apparatus 1 in the present embodiment may be configured to use a plurality of displays in combination.

例えば、ディスプレイ3は、眼鏡Fに枠入れされたレンズLEのレンズ情報を表示する。例えば、レンズ情報とは、レンズLEのレンズ特性(例えば、球面度数S、円柱度数C、乱視軸角度A、プリズム量Δ等)や、レンズ特性を示すマッピング画像95(図16参照)等である。なお、マッピング画像95の詳細については後述するが、マッピング画像95は、レンズ特性を等度数線96で表した画像であってもよいし、レンズ特性が等しい領域(すなわち、等度数線と等度数線の間の領域)を色分け等してグラフィカルに表現した画像であってもよい。   For example, the display 3 displays lens information of the lens LE framed in the glasses F. For example, the lens information is the lens characteristics of the lens LE (for example, spherical power S, cylindrical power C, astigmatic axis angle A, prism amount Δ, etc.), the mapping image 95 (see FIG. 16) etc. . Although the details of the mapping image 95 will be described later, the mapping image 95 may be an image in which the lens characteristics are represented by the equal power frequency line 96, or an area where the lens characteristics are equal (that is, equal power frequency lines and equal powers It may be an image graphically represented by color coding or the like) in the region between the lines.

例えば、ディスプレイ3はタッチパネルである。すなわち、本実施例においては、ディスプレイ3が操作部(コントローラ)として機能する。例えば、ディスプレイ3から入力された操作指示に応じた信号は、後述する制御部60に出力される。なお、ディスプレイ3はタッチパネル式でなくてもよいし、ディスプレイ3と操作部とを別に設けるようにしてもよい。例えば、ディスプレイ3と操作部とを別に設ける場合には、マウス、ジョイスティック、キーボード、ボタン、携帯端末等の少なくともいずれかを操作部として用いることができる。   For example, the display 3 is a touch panel. That is, in the present embodiment, the display 3 functions as an operation unit (controller). For example, a signal corresponding to the operation instruction input from the display 3 is output to the control unit 60 described later. The display 3 may not be of the touch panel type, and the display 3 and the operation unit may be provided separately. For example, in the case where the display 3 and the operation unit are separately provided, at least one of a mouse, a joystick, a keyboard, a button, a portable terminal and the like can be used as the operation unit.

例えば、操作ボタン4はディスプレイ3の画面に表示される。例えば、操作ボタン4は、眼鏡マッピング情報取得装置1が各種の処理(例えば、レンズ特性の測定開始等)を実行するための信号を入力する際に用いる。すなわち、操作者は、ディスプレイ3の画面をタッチすることで、操作ボタン4を操作することができる。   For example, the operation button 4 is displayed on the screen of the display 3. For example, the operation button 4 is used when the glasses mapping information acquisition apparatus 1 inputs a signal for performing various processes (for example, start of measurement of a lens characteristic). That is, the operator can operate the operation button 4 by touching the screen of the display 3.

図2は収納部5内の概略構成図である。例えば、収納部5は、眼鏡支持ユニット20、駆動部30、測定部7、等を備える。例えば、眼鏡支持ユニット20は、眼鏡Fを支持する。例えば、駆動部30は、測定部7に対して眼鏡支持ユニット20を前後方向(Z方向)、左右方向(X方向、)及び上下方向(Y方向)に移動させる。例えば、測定部7は、後述する測定光学系10を備える。また、例えば、測定部7は、レンズLEの後面に当接する当接ピン6を有する。例えば、当接ピン6は、測定光学系10が備える指標板13の上面に固定される。   FIG. 2 is a schematic diagram of the inside of the storage unit 5. For example, the storage unit 5 includes a glasses support unit 20, a drive unit 30, a measurement unit 7, and the like. For example, the glasses support unit 20 supports the glasses F. For example, the drive unit 30 moves the eyeglass support unit 20 in the front-rear direction (Z direction), the left-right direction (X direction), and the vertical direction (Y direction) with respect to the measurement unit 7. For example, the measurement unit 7 includes a measurement optical system 10 described later. Also, for example, the measurement unit 7 includes an abutment pin 6 that abuts on the rear surface of the lens LE. For example, the contact pin 6 is fixed to the upper surface of the index plate 13 provided in the measurement optical system 10.

例えば、当接ピン6は3本で構成される。例えば、当接ピン6は、測定光学系10の光軸L1に対してそれぞれが等距離かつ等角度となるように配置される。すなわち、当接ピン6は、光軸L1が指標板13を通過する点(本実施例においては、基準指標71(図4参照)が位置する点)を基点として、基点から各当接ピン6までの距離が等しくなるように配置される。また、当接ピン6は、基点と各当接ピン6を結ぶ二直線のなす角度が等しくなるように(すなわち、120度となるように)配置される。なお、当接ピン6はレンズLEの後面に当接可能であればよく、何本で構成されてもよい。また、当接ピン6は、測定光学系10の光軸L1に対して、それぞれが異なる距離で配置されていてもよいし、それぞれが異なる角度で配置されていてもよい。   For example, the contact pin 6 is configured of three. For example, the contact pins 6 are arranged so as to be equidistant and equiangular to the optical axis L1 of the measurement optical system 10. That is, the contact pin 6 starts from the base point with each contact pin 6 starting from the point at which the optical axis L1 passes through the index plate 13 (the point where the reference index 71 (see FIG. 4) is located in this embodiment). It is arranged so that the distance to it becomes equal. The contact pins 6 are arranged such that the angles formed by the two straight lines connecting the base point and the contact pins 6 are equal (that is, 120 degrees). The contact pin 6 may be in any number as long as it can contact the rear surface of the lens LE. The contact pins 6 may be disposed at different distances from the optical axis L1 of the measurement optical system 10, or may be disposed at different angles.

<眼鏡支持ユニット>
例えば、眼鏡支持ユニット20は、眼鏡Fを少なくとも2箇所以上で支持する。例えば、眼鏡支持ユニット20は、前方支持部21と、後方支持部22と、基台23と、を備える。例えば、基台23には、前方支持部21と後方支持部22とが固定されている。
<Glasses support unit>
For example, the glasses support unit 20 supports the glasses F at at least two or more places. For example, the eyeglass support unit 20 includes a front support 21, a rear support 22, and a base 23. For example, the front support 21 and the rear support 22 are fixed to the base 23.

例えば、前方支持部21は、眼鏡Fの前方部位の位置を支持する。例えば、眼鏡Fの前方部位の位置とは、眼鏡FのブリッジFBやリムFR等、装用者が眼鏡Fを装用した状態の中心位置よりも前方の位置である。例えば、本実施例では、前方支持部21が、眼鏡FのブリッジFBを支持する場合を例に挙げる。例えば、前方支持部21は上方を開口したコの字形状であり、眼鏡Fの上方(つまり、リムFRの上端側)を下に向けた状態で、ブリッジFBを載置する。もちろん、眼鏡Fの下方(つまり、リムFRの下端側)を下に向けた状態で、前方支持部21にブリッジFBを載置してもよい。   For example, the front support 21 supports the position of the front part of the glasses F. For example, the position of the front part of the glasses F is a position in front of the central position of the state in which the wearer wears the glasses F, such as the bridge FB and the rim FR of the glasses F. For example, in the present embodiment, the front support 21 supports the bridge FB of the glasses F as an example. For example, the front support portion 21 has a U-shape opening upward, and the bridge FB is mounted with the upper side of the glasses F (that is, the upper end side of the rim FR) facing downward. Of course, the bridge FB may be mounted on the front support 21 with the lower part of the glasses F (that is, the lower end side of the rim FR) facing downward.

例えば、後方支持部22は、眼鏡Fの後方部位の位置を支持する。例えば、眼鏡Fの後方部位の位置とは、眼鏡FのテンプルFTやモダンFM等、装用者が眼鏡Fを装用した状態の中心位置よりも後方の位置である。例えば、本実施例では、後方支持部22が、眼鏡FのモダンFMを支持する場合を例に挙げる。例えば、後方支持部22は上方を開口したコの字形状であり、眼鏡Fの上方(つまり、リムFRの上端側)を下に向けた状態で、モダンFMを載置する。もちろん、眼鏡Fの下方(つまり、リムFRの下端側)を下に向けた状態で、後方支持部22にモダンFMを載置してもよい。   For example, the rear support 22 supports the position of the rear part of the glasses F. For example, the position of the rear part of the glasses F is a position behind the central position of the state in which the wearer wears the glasses F, such as the temple FT of the glasses F and the modern FM. For example, in the present embodiment, the case in which the rear support portion 22 supports the modern FM of the glasses F is taken as an example. For example, the rear support portion 22 has a U-shape opening upward, and the modern FM is placed with the upper side of the glasses F (that is, the upper end side of the rim FR) facing downward. Of course, the modern FM may be placed on the rear support 22 with the lower part of the glasses F (that is, the lower end side of the rim FR) facing downward.

<測定光学系>
図3は、眼鏡マッピング情報取得装置1における光学系を示す図である。例えば、測定光学系10は、レンズLEの各部位におけるレンズ特性を測定する。例えば、測定光学系10は、光源11、コリメータレンズ12、指標板13、スクリーン14、撮像レンズ15、受光素子16、ハーフミラー17、等を備える。例えば、光源11は、第1光源11aと第2光源11bで構成される。例えば、コリメータレンズ12は、光源11から出射した測定光束を光軸L1と平行(略平行も含む)にする。例えば、指標板13には、レンズLEの光学特性を測定するための測定指標70が形成されている。なお、測定指標70についての詳細は後述する。例えば、スクリーン14は、指標板13から所定の距離だけ離れた位置に設けられる。また、例えば、スクリーン14は、指標板13に形成された測定指標70の像(すなわち、後述する測定指標像80)を投影する。例えば、撮像レンズ15は、スクリーン14を通過した測定光束を集光させる。例えば、受光素子16は、CCD(Charge Coupled Device)、あるいはCMOS(Complementary Metal Oxide Semiconductor)で構成される。例えば、ハーフミラー17は、光源11から出射した測定光束を通過あるいは反射させる。
<Measurement optical system>
FIG. 3 is a diagram showing an optical system in the eyeglasses mapping information acquisition apparatus 1. For example, the measurement optical system 10 measures the lens characteristic at each portion of the lens LE. For example, the measurement optical system 10 includes a light source 11, a collimator lens 12, an index plate 13, a screen 14, an imaging lens 15, a light receiving element 16, a half mirror 17, and the like. For example, the light source 11 is configured of a first light source 11a and a second light source 11b. For example, the collimator lens 12 makes the measurement light flux emitted from the light source 11 parallel (including substantially parallel) to the optical axis L1. For example, on the index plate 13, a measurement index 70 for measuring the optical characteristics of the lens LE is formed. The details of the measurement index 70 will be described later. For example, the screen 14 is provided at a position spaced apart from the index plate 13 by a predetermined distance. Also, for example, the screen 14 projects an image of the measurement index 70 formed on the index plate 13 (that is, a measurement index image 80 described later). For example, the imaging lens 15 condenses the measurement light flux that has passed through the screen 14. For example, the light receiving element 16 is configured by a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS). For example, the half mirror 17 passes or reflects the measurement light beam emitted from the light source 11.

<光源>
例えば、光源11は、特定の波長帯域をもつ測定光束を出射する。すなわち、例えば、光源11は、波長帯域の広い測定光束を出射する光源(例えば、LED(Light Emitting Diode)等)で構成されてもよい。また、例えば、光源11は、波長帯域の狭い測定光束を出射する光源(例えば、レーザ等)で構成されてもよい。
<Light source>
For example, the light source 11 emits a measurement light flux having a specific wavelength band. That is, for example, the light source 11 may be configured by a light source (for example, an LED (Light Emitting Diode) or the like) that emits a measurement light beam having a wide wavelength band. Further, for example, the light source 11 may be configured by a light source (for example, a laser or the like) that emits a measurement light beam having a narrow wavelength band.

例えば、第1光源11aは、第2光源11bとは異なる波長の測定光束を出射可能であればよい。この場合、第1光源11aは、波長のピークと、波長帯域と、の少なくともいずれかが第2光源11bとは異なる測定光束を出射可能であればよい。なお、例えば、本実施例においては、第1光源11aとして赤外光線を出射可能な光源を用いるようにしてもよい。また、例えば、本実施例においては、第2光源11bとして可視光線を出射可能な光源を用いるようにしてもよい。   For example, the first light source 11a may be capable of emitting a measurement light flux having a wavelength different from that of the second light source 11b. In this case, it is sufficient that the first light source 11a can emit a measurement light flux in which at least one of the peak of the wavelength and the wavelength band is different from that of the second light source 11b. For example, in the present embodiment, a light source capable of emitting an infrared ray may be used as the first light source 11a. Also, for example, in the present embodiment, a light source capable of emitting visible light may be used as the second light source 11 b.

例えば、本実施例においては、レンズLEのレンズ特性を取得する際に、第1光源11aが用いられる。また、例えば、本実施例においては、後述する眼鏡Fのフレーム画像90(図14参照)を取得する際に、第2光源11bが用いられる。   For example, in the present embodiment, the first light source 11a is used when acquiring the lens characteristics of the lens LE. Also, for example, in the present embodiment, the second light source 11 b is used when acquiring a frame image 90 (see FIG. 14) of the glasses F described later.

<測定指標>
図4は指標板13を説明する図である。図4(a)は指標板13の側面図である。図4(b)は指標板13の平面図(光軸L1方向から見た図)である。例えば、指標板13は、円形部材18を備える。また、例えば、指標板13には、基準指標71と、周辺指標72と、からなる測定指標70が形成されている。
<Measurement index>
FIG. 4 is a diagram for explaining the index plate 13. FIG. 4A is a side view of the index plate 13. FIG. 4B is a plan view of the index plate 13 (a view from the direction of the optical axis L1). For example, the index plate 13 includes a circular member 18. Further, for example, on the index plate 13, a measurement index 70 formed of a reference index 71 and a peripheral index 72 is formed.

例えば、測定指標70は、第1光源11aから出射した測定光束と、第2光源11bから出射した測定光束と、をどちらも通過させる。なお、例えば、測定指標70は、第1光源11aから出射した測定光束、及び第2光源11bから出射した測定光束を完全に通過させる構成(すなわち、測定光束を100%通過させる構成)でなくてもよい。例えば、測定指標70は、これらの測定光束の一部を通過させる構成(例えば、測定光束を80%通過させる構成、測定光束を60%通過させる構成、等)であってもよい。   For example, the measurement index 70 passes both the measurement light flux emitted from the first light source 11a and the measurement light flux emitted from the second light source 11b. For example, the measurement index 70 is not configured to completely pass the measurement light flux emitted from the first light source 11a and the measurement light flux emitted from the second light source 11b (that is, the configuration to pass 100% of the measurement light flux) It is also good. For example, the measurement index 70 may be configured to transmit a part of the measurement light flux (for example, a structure to pass 80% of the measurement light flux, a structure to pass 60% of the measurement light flux, etc.).

例えば、測定指標70以外の部分(すなわち、図4における斜線部19)は、第1光源11aから出射した測定光束を遮光し、第2光源11bから出射した測定光束を通過させる。なお、例えば、斜線部19は、第1光源11aから出射した測定光束を完全に遮光する構成(すなわち、測定光束を0%通過させる構成)でなくてもよい。例えば、斜線部19は、第1光源11aから出射した測定光束の一部を遮光する構成(例えば、測定光束を10%通過させる構成、測定光束を30%通過させる構成、等)であってもよい。また、例えば、斜線部19は、第2光源11bから出射した測定光束を完全に通過させる構成でなくてもよい。例えば、斜線部19は、第2光源11bから出射した測定光束の一部を通過させる構成であってもよい。   For example, the portion other than the measurement index 70 (that is, the hatched portion 19 in FIG. 4) blocks the measurement light flux emitted from the first light source 11a and allows the measurement light flux emitted from the second light source 11b to pass. For example, the hatched portion 19 may not be configured to completely block the measurement light flux emitted from the first light source 11 a (that is, the configuration to pass the measurement light flux at 0%). For example, the hatched portion 19 may be configured to block part of the measurement light flux emitted from the first light source 11a (for example, even if it is configured to pass 10% of measurement flux or 30% to pass measurement flux) Good. Further, for example, the hatched portion 19 may not be configured to completely pass the measurement light beam emitted from the second light source 11 b. For example, the hatched portion 19 may be configured to pass a part of the measurement light beam emitted from the second light source 11 b.

なお、例えば、測定光束の一部が、測定指標70や斜線部19を通過あるいは遮光する場合、第1光源11aから出射した測定光束は、斜線部19よりも測定指標70を多く通過する構成であるとよい。また、例えば、このような場合、第2光源11bから出射した測定光束は、測定指標70よりも斜線部19を少なく通過する構成であるとよい。また、例えば、このような場合、第1光源11aから出射した測定光束は、第2光源11bから出射した測定光束よりも、斜線部19を少なく通過する構成であるとよい。   In addition, for example, when a part of the measurement light flux passes through or shields the measurement index 70 and the oblique line portion 19, the measurement light flux emitted from the first light source 11 a passes the measurement index 70 more than the oblique line 19. Good to have. Further, for example, in such a case, it is preferable that the measurement light flux emitted from the second light source 11 b passes the hatched portion 19 less than the measurement index 70. Further, for example, in such a case, it is preferable that the measurement light flux emitted from the first light source 11a passes the hatched portion 19 less than the measurement light flux emitted from the second light source 11b.

例えば、測定指標70は、コーティング(例えば、浸漬、蒸着、塗装等)、印刷(例えば、シルク印刷等)、フォトリソグラフィ等の手法により形成されてもよいし、孔(例えば、円孔、角孔、スリット孔等)から形成されてもよい。また、例えば、斜線部19(すなわち、測定指標70以外の部分)は、コーティングや印刷等の手法により形成されてもよい。   For example, the measurement index 70 may be formed by a method such as coating (for example, immersion, vapor deposition, painting, etc.), printing (for example, silk printing, etc.), photolithography, etc., or holes (eg, circular holes, square holes) , Slit holes, etc.). In addition, for example, the hatched portion 19 (that is, a portion other than the measurement index 70) may be formed by a method such as coating or printing.

例えば、基準指標71は、四角形状の点であり、指標板13の中央に配置される。もちろん、基準指標71は四角形状の点に限らず、円形状や三角形状の点であってもよい。また、基準指標71は、指標板13の中央に限らず、指標板のいずれの位置に配置されてもよい。なお、本実施例においては、指標板13に基準指標を1つ設ける構成としたが、複数を設ける構成としてもよい。すなわち、本実施例における基準指標71は、周辺指標72と区別できればよく、形状、位置、及び個数等は本実施例と異なっていてもよい。   For example, the reference index 71 is a square point and is disposed at the center of the index plate 13. Of course, the reference index 71 is not limited to a square point, but may be a circle or a triangle. Further, the reference index 71 is not limited to the center of the index plate 13, and may be disposed at any position of the index plate. In addition, although it was set as the structure which provides one reference index in the index plate 13 in a present Example, it is good also as a structure which provides multiple. That is, the reference | standard index | exponent 71 in a present Example should just be distinguishable from the periphery index 72, and a shape, a position, a number, etc. may differ from a present Example.

例えば、周辺指標72は円形状の点であり、基準指標71の周辺に等間隔で規則的に配置される。もちろん、周辺指標72は円形状の点に限らず、四角形状や三角形状の点であってもよい。また、周辺指標72は、縦線及び横線からなる井桁格子、縦格子、横格子、クロス格子等の形状であってもよい。なお、本実施例においては、周辺指標72を等間隔に配置しているが、周辺指標72は非等間隔に配置してもよい。   For example, the peripheral index 72 is a circular point and is regularly arranged at equal intervals around the reference index 71. Of course, the peripheral index 72 is not limited to a circular point, but may be a square or triangular point. In addition, the peripheral index 72 may be in the form of a parallel cross, a vertical grid, a horizontal grid, a cross grid, or the like consisting of vertical lines and horizontal lines. In the present embodiment, the peripheral indicators 72 are arranged at equal intervals, but the peripheral indicators 72 may be arranged at non-equal intervals.

例えば、指標板13に基準指標71が形成されていることによって、スクリーン14に投影される各周辺指標像82(図5参照)の位置を特定しやすくなる。より詳細には、眼鏡Fを載置していない「0D基準」状態において撮像される周辺指標像82が、レンズLEを載置した状態において撮像される周辺指標像82のいずれに該当するかを特定できるようになる。   For example, by forming the reference index 71 on the index plate 13, it becomes easy to specify the position of each peripheral index image 82 (see FIG. 5) projected on the screen 14. More specifically, the peripheral index image 82 captured in the “0D reference” state in which the glasses F are not mounted corresponds to which of the peripheral index images 82 captured in the state in which the lens LE is mounted. It can be identified.

図5はスクリーン14に投影される測定指標像80を示す図である。図5(a)は眼鏡Fを載置していない0D基準状態の測定指標像80であり、図5(b)は眼鏡Fを載置した状態の測定指標像80である。なお、本実施例においては、眼鏡Fを載置した状態の測定指標像80として、累進多焦点レンズ(以下、累進レンズと称す)が枠入れされた眼鏡Fを載置した状態の測定指標像80を例に挙げている。例えば、眼鏡Fを載置した状態では、測定指標像80(つまり、基準指標像81及び周辺指標像82)とともに、眼鏡Fのフレーム像Fp(例えば、本実施例においては、リムFRの上端像FRuとリムFRの下端像FRd)がスクリーン14に投影される。   FIG. 5 is a view showing a measurement index image 80 projected on the screen 14. FIG. 5A is a measurement index image 80 of the 0D reference state in which the glasses F are not placed, and FIG. 5B is a measurement index image 80 in a state in which the glasses F are placed. In the present embodiment, as the measurement index image 80 in a state in which the glasses F are mounted, a measurement index image in a state in which the glasses F in which a progressive multifocal lens (hereinafter referred to as a progressive lens) is framed is mounted. 80 is taken as an example. For example, in the state where the glasses F are placed, the frame image Fp of the glasses F (for example, in the present embodiment, the upper end image of the rim FR together with the measurement index image 80 (that is, the reference index image 81 and the peripheral index image 82) The lower end image FRd of the FRu and the rim FR is projected on the screen 14.

例えば、0D基準状態(図5(a)参照)では、第1光源11aから照射された測定光束が、ハーフミラー17を通過し、コリメータレンズ12により光軸L1と平行となって指標板13へ導かれ、指標板13に形成された測定指標70を通過する。このため、スクリーン14には、周辺指標像82の間隔と、指標板13に形成された周辺指標72の間隔と、を同じくする測定指標像80が投影される。   For example, in the 0D reference state (see FIG. 5A), the measurement light beam emitted from the first light source 11a passes through the half mirror 17 and becomes parallel to the optical axis L1 by the collimator lens 12 to the index plate 13 It is led and passes through the measurement index 70 formed on the index plate 13. For this reason, on the screen 14, a measurement index image 80 having the same distance between the peripheral index image 82 and the distance between the peripheral indices 72 formed on the index plate 13 is projected.

例えば、眼鏡Fを載置した状態では、第1光源11aから照射された測定光束が、ハーフミラー17を通過し、コリメータレンズに12より光軸L1と平行となって指標板13へ導かれるが、レンズLEにより屈折されて、拡散あるいは収束する。例えば、レンズLEがマイナスレンズであれば測定光束は拡散し、レンズLEがプラスレンズであれば測定光束は収束する。例えば、眼鏡Fを載置した状態では、このように屈折した光束が指標板13に形成された測定指標70を通過する。このため、スクリーン14には、周辺指標像82の間隔が、指標板13に形成された周辺指標72の間隔よりも広くなった測定指標像80、あるいは狭くなった測定指標像80が投影される。なお、レンズLEが乱視レンズである場合、スクリーンには円柱度数及び乱視軸角度に応じて楕円形状に歪んだ測定指標像80が投影される。また、レンズLEが累進レンズである場合(図5(b)参照)、スクリーン14には累進帯のレンズ特性に応じて変形した測定指標像80が投影される。   For example, in a state in which the glasses F are placed, the measurement light beam emitted from the first light source 11a passes through the half mirror 17 and is guided by the collimator lens 12 to the index plate 13 in parallel with the optical axis L1. , Refracted by the lens LE to diffuse or converge. For example, if the lens LE is a minus lens, the measurement light flux is diffused, and if the lens LE is a plus lens, the measurement light flux is converged. For example, in a state where the glasses F are placed, the light flux thus refracted passes through the measurement index 70 formed on the index plate 13. For this reason, on the screen 14, the measurement indicator image 80 in which the distance between the peripheral index images 82 is wider than the distance between the peripheral indicators 72 formed in the index plate 13 or the measurement index image 80 in which the distance is narrower is projected. . When the lens LE is an astigmatic lens, a measurement index image 80 distorted in an elliptical shape in accordance with the cylindrical diopter and the astigmatic axis angle is projected on the screen. When the lens LE is a progressive lens (see FIG. 5B), a measurement index image 80 deformed in accordance with the lens characteristics of the progressive band is projected on the screen 14.

例えば、スクリーン14に投影された測定指標像80は、撮像レンズ15を介して受光素子16に撮像される。なお、0D基準状態において撮像される測定指標像80は、予めメモリ61に記憶しておいてもよい。   For example, the measurement index image 80 projected on the screen 14 is imaged by the light receiving element 16 via the imaging lens 15. The measurement index image 80 captured in the 0D reference state may be stored in the memory 61 in advance.

例えば、後述する制御部60は、受光素子16が撮像した測定指標像80を解析し、レンズLEの複数箇所におけるレンズ特性を一度に測定する。例えば、レンズ特性は、隣接する4個(少なくとも3個)の周辺指標像82を1組として算出することができる。あるいは、レンズ特性は、3×3個、4×4個、5×5個等の周辺指標像82を1組として算出することもできる。なお、測定指標像80を用いたレンズ特性測定についての詳細は、特開2008−241694号公報参照を参照されたい。   For example, the control unit 60, which will be described later, analyzes the measurement index image 80 captured by the light receiving element 16, and measures the lens characteristics at a plurality of locations of the lens LE at one time. For example, the lens characteristics can be calculated as a set of four (at least three) neighboring index images 82 adjacent to each other. Alternatively, the lens characteristic can also be calculated as one set of 3 × 3, 4 × 4, 5 × 5, etc. peripheral index images 82. For details of lens characteristic measurement using the measurement index image 80, refer to Japanese Patent Application Laid-Open No. 2008-241694.

<駆動部>
例えば、駆動部30は、測定部7に対して、眼鏡支持ユニット20を前後方向(Z方向)、左右方向(X方向)、及び上下方向(Y方向)に移動させる。図6〜図10は、駆動部30を説明するための概略構成図である。図6は駆動部30の斜視図である。図7は駆動部30の右側面図(図2における矢印A方向からみた図)である。図8は駆動部30の左側面図(図2における矢印B方向からみた図)である。図9は駆動部30の正面図(図2における矢印C方向からみた図)である。図10は駆動部30の背面図(図2における矢印D方向からみた図)である。
<Drive part>
For example, the drive unit 30 moves the glasses support unit 20 in the front-rear direction (Z direction), the left-right direction (X direction), and the vertical direction (Y direction) with respect to the measurement unit 7. 6 to 10 are schematic configuration diagrams for describing the drive unit 30. FIG. FIG. 6 is a perspective view of the drive unit 30. FIG. FIG. 7 is a right side view of the drive unit 30 (a view from the direction of arrow A in FIG. 2). FIG. 8 is a left side view of the drive unit 30 (a view from the direction of arrow B in FIG. 2). FIG. 9 is a front view of the drive unit 30 (a view from the direction of the arrow C in FIG. 2). FIG. 10 is a rear view of the drive unit 30 (a view from the direction of arrow D in FIG. 2).

例えば、測定部7の下部にはナット部31が固定され、X方向に伸びる送りネジ32がナット部31に螺合する。例えば、送りネジ32の両端は、ベアリングを介して基台33に連結されている。また、例えば、測定部7の下部にはボールブッシュ34が固定され、X方向に伸びるシャフト35がボールブッシュを貫通する。例えば、シャフト35の両端は基台33に連結されている。例えば、基台33の下面にはモータ36が取り付けられている。例えば、モータ36の駆動軸は送りネジ32と螺合する。   For example, the nut portion 31 is fixed to the lower portion of the measurement portion 7, and the feed screw 32 extending in the X direction is screwed into the nut portion 31. For example, both ends of the feed screw 32 are connected to the base 33 via bearings. Also, for example, the ball bush 34 is fixed to the lower part of the measurement unit 7, and the shaft 35 extending in the X direction penetrates the ball bush. For example, both ends of the shaft 35 are connected to the base 33. For example, the motor 36 is attached to the lower surface of the base 33. For example, the drive shaft of the motor 36 is screwed with the feed screw 32.

例えば、モータ36を駆動させると、送りネジ32が回転する。例えば、測定部7は固定配置されているので、ナット部31によって送りネジ32が送られると、送りネジ32とともに基台33が左右方向(X方向)に移動する。例えば、このとき、シャフト35はボールブッシュ34内を摺動する。例えば、眼鏡支持ユニット20は、このように基台33を移動させることにより、測定部7に対して左右方向に移動させることができる。   For example, when the motor 36 is driven, the feed screw 32 rotates. For example, since the measuring unit 7 is fixedly arranged, when the feed screw 32 is fed by the nut portion 31, the base 33 moves in the left-right direction (X direction) together with the feed screw 32. For example, at this time, the shaft 35 slides in the ball bush 34. For example, by moving the base 33 in this manner, the glasses support unit 20 can be moved in the left-right direction with respect to the measurement unit 7.

例えば、基台33の上面には、軸受支持部材が固定されている。例えば、軸受支持部材は、基台33の上面前方に位置する軸受支持部材37と、基台33の上面後方に位置する軸受支持部材38と、で構成される。例えば、軸受支持部材37にはベアリング39が設けられ、Z方向に伸びる送りネジ46の一端がベアリング39に連結する。例えば、軸受支持部材38にもベアリングが設けられ、これに送りネジ46が貫通する。例えば、送りネジ46の他端はモータ40の駆動軸と連結する。例えば、モータ40は軸受支持部材38に固定されている。   For example, a bearing support member is fixed to the upper surface of the base 33. For example, the bearing support member is configured of a bearing support member 37 located on the upper front side of the base 33 and a bearing support member 38 located on the upper rear side of the base 33. For example, the bearing support member 37 is provided with a bearing 39, and one end of a feed screw 46 extending in the Z direction is connected to the bearing 39. For example, the bearing support member 38 is also provided with a bearing, through which the feed screw 46 passes. For example, the other end of the feed screw 46 is connected to the drive shaft of the motor 40. For example, the motor 40 is fixed to the bearing support member 38.

また、例えば、基台33の上面には、ボールブッシュ支持部材41が固定されている。例えば、ボールブッシュ支持部材41にはボールブッシュが設けられ、Z方向に伸びるシャフト42がボールブッシュに貫通している。   Further, for example, a ball bush support member 41 is fixed to the upper surface of the base 33. For example, the ball bush supporting member 41 is provided with a ball bush, and a shaft 42 extending in the Z direction penetrates the ball bush.

例えば、基台43の下面には、ナット支持部材44と、シャフト支持部材45と、が固定されている。例えば、ナット支持部材44にはナット部が設けられており、このナット部は送りネジ46と螺合する。例えば、シャフト支持部材45にはボールブッシュが設けられており、このボールブッシュにはシャフト42が貫通する。   For example, on the lower surface of the base 43, a nut support member 44 and a shaft support member 45 are fixed. For example, the nut support member 44 is provided with a nut portion, which is screwed with the feed screw 46. For example, the shaft support member 45 is provided with a ball bush, and the shaft 42 passes through the ball bush.

例えば、モータ40を駆動させると、送りネジ46が回転する。これによって、ナット支持部材44のナット部が送りネジ46に送られ、ナット支持部材44、及びナット支持部材44が固定された基台43が前後方向(Z方向)に移動する。例えば、このとき、基台43の移動にともなって、基台43に固定されたシャフト支持部材45は、シャフト42上を摺動する。例えば、送りネジ46がモータ40により回転しても、ベアリング39によって基台33にはモータ40の駆動が伝達されず、基台33は前後方向(Z方向)に移動しない。例えば、眼鏡支持ユニット20は、このように基台43を移動させることにより、測定部7に対して前後方向に移動させることができる。   For example, when the motor 40 is driven, the feed screw 46 is rotated. As a result, the nut portion of the nut support member 44 is fed to the feed screw 46, and the nut support member 44 and the base 43 to which the nut support member 44 is fixed move in the front-rear direction (Z direction). For example, at this time, with the movement of the base 43, the shaft support member 45 fixed to the base 43 slides on the shaft 42. For example, even if the feed screw 46 is rotated by the motor 40, the drive of the motor 40 is not transmitted to the base 33 by the bearing 39, and the base 33 does not move in the front-rear direction (Z direction). For example, the eyeglass support unit 20 can be moved in the front-rear direction with respect to the measurement unit 7 by moving the base 43 in this manner.

例えば、基台47はナット部を有し、Y方向に伸びる送りネジ48がこのナット部に螺合する。また、例えば、基台47はボールブッシュを有し、Y方向に伸びるシャフト49とシャフト50とのそれぞれが、このボールブッシュを貫通する。例えば、送りネジ48の一端は、基台43に設けられたベアリングを介して、基台43に連結される。例えば、送りネジ48の他端は、取付板51に設けられたベアリングを介して、取付板51に連結される。例えば、シャフト49の一端は、基台43に設けられたボールブッシュを介して、基台43に連結される。例えば、シャフト49の他端は、取付板52に設けられたボールブッシュを介して、取付板52に連結される。同様に、例えば、シャフト50の一端は、基台43に設けられたボールブッシュを介して、基台43に連結される。例えば、シャフト50の他端は、取付板53に設けられたボールブッシュを介して、取付板53に連結される。例えば、取付板51には、モータ54が固定されている。例えば、モータ54の駆動軸は、送りネジ48と螺合する。   For example, the base 47 has a nut portion, and a feed screw 48 extending in the Y direction is screwed into the nut portion. Also, for example, the base 47 has a ball bush, and each of the shaft 49 and the shaft 50 extending in the Y direction penetrates the ball bush. For example, one end of the feed screw 48 is connected to the base 43 via a bearing provided on the base 43. For example, the other end of the feed screw 48 is connected to the mounting plate 51 via a bearing provided on the mounting plate 51. For example, one end of the shaft 49 is connected to the base 43 via a ball bush provided on the base 43. For example, the other end of the shaft 49 is connected to the mounting plate 52 via a ball bush provided on the mounting plate 52. Similarly, for example, one end of the shaft 50 is connected to the base 43 via a ball bush provided on the base 43. For example, the other end of the shaft 50 is connected to the mounting plate 53 via a ball bush provided on the mounting plate 53. For example, the motor 54 is fixed to the mounting plate 51. For example, the drive shaft of the motor 54 is screwed with the feed screw 48.

例えば、モータ54を駆動させると、送りネジ48が回転する。これによって、基台47のナット部が送りネジ48に送られるので、基台47は上下方向(Y方向)に移動する。例えば、このとき、基台47の移動にともなって、基台47のボールブッシュはそれぞれシャフト49及びシャフト50上を摺動する。例えば、送りネジ48がモータ54により回転しても、基台43にはベアリングによってモータ54の駆動が伝達されず、基台43及び基台33は上下方向(Y方向)に移動しない。例えば、眼鏡支持ユニット20は、このように基台47を移動させることによって、測定部7に対して上下方向に移動させることができる。   For example, when the motor 54 is driven, the feed screw 48 rotates. As a result, the nut portion of the base 47 is fed to the feed screw 48, so the base 47 moves in the vertical direction (Y direction). For example, at this time, along with the movement of the base 47, the ball bushes of the base 47 slide on the shaft 49 and the shaft 50, respectively. For example, even if the feed screw 48 is rotated by the motor 54, the drive of the motor 54 is not transmitted to the base 43 by the bearing, and the base 43 and the base 33 do not move in the vertical direction (Y direction). For example, the eyeglass support unit 20 can be moved in the vertical direction with respect to the measuring unit 7 by moving the base 47 in this manner.

<制御部>
図11は、眼鏡マッピング情報取得装置1における制御系を示す図である。例えば、制御部60には、ディスプレイ3、操作ボタン4、光源11(第1光源11aと第2光源11b)、受光素子16、駆動部30が備えるモータ(例えば、モータ36、モータ40、モータ54等)、メモリ61等が接続されている。
<Control unit>
FIG. 11 is a diagram showing a control system in the eyeglasses mapping information acquisition apparatus 1. For example, the control unit 60 includes the display 3, the operation button 4, the light source 11 (the first light source 11 a and the second light source 11 b), the light receiving element 16, and the motor (for example, the motor 36, the motor 40, the motor 54) included in the drive unit 30. Etc., and the memory 61 etc. are connected.

例えば、制御部60は、CPU(プロセッサ)、RAM、ROM等を備える。例えば、CPUは、眼鏡マッピング情報取得装置1における各部材の駆動を制御する。また、例えば、CPUは、各種の演算処理(例えば、レンズ特性の算出等)を行う。例えば、RAMは、各種の情報を一時的に記憶する。例えば、ROMには、CPUが実行するプログラム等が記憶されている。なお、制御部60は、複数の制御部(つまり、複数のプロセッサ)によって構成されてもよい。   For example, the control unit 60 includes a CPU (processor), a RAM, a ROM, and the like. For example, the CPU controls driving of each member in the eyeglasses mapping information acquisition apparatus 1. Also, for example, the CPU performs various arithmetic processing (for example, calculation of lens characteristics, etc.). For example, the RAM temporarily stores various types of information. For example, programs executed by the CPU are stored in the ROM. The control unit 60 may be configured by a plurality of control units (that is, a plurality of processors).

例えば、メモリ61は、電源の供給が遮断されても記憶内容を保持できる非一過性の記憶媒体である。例えば、メモリ61としては、ハードディスクドライブ、フラッシュROM、及び眼鏡マッピング情報取得装置1に着脱可能に装着されるUSBメモリ等を使用することができる。例えば、メモリ61には、0D基準状態の測定指標像、測定したレンズ特性等が記憶される。   For example, the memory 61 is a non-transitory storage medium capable of holding stored contents even when the supply of power is shut off. For example, as the memory 61, a hard disk drive, a flash ROM, and a USB memory detachably mounted on the eyeglasses mapping information acquisition apparatus 1 can be used. For example, the memory 61 stores the measurement index image of the 0D reference state, the measured lens characteristics, and the like.

<制御動作>
上記の構成を備える眼鏡マッピング情報取得装置1について、その制御動作を説明する。例えば、本実施例における眼鏡マッピング情報取得装置1は、第1光源11aが照射される第1モードと、第2光源11bが照射される第2モードと、を備える。例えば、第1モードは、レンズLEのレンズ特性を取得する際に選択される。例えば、第1モード選択時には、第1光源11aの照射により、指標板13に測定指標70が現れる。従って、スクリーン14には、測定指標像80と、眼鏡Fのフレーム像Fpと、が投影される。例えば、第2モードは、眼鏡Fと測定光学系10を位置合わせする際や、眼鏡Fのフレーム画像90(図14参照)を取得する際に選択される。例えば、第2モード選択時には、第2光源11bの照射により、指標板13に測定指標70が現れない。従って、スクリーン14には、眼鏡Fのフレーム像Fpのみが投影される。例えば、このような測定モードの切換えは、制御部60によって自動的に行われる。もちろん、操作者が手動で測定モードを切換える構成としてもよい。
<Control action>
The control operation of the eyeglasses mapping information acquiring apparatus 1 having the above configuration will be described. For example, the eyeglasses mapping information acquisition apparatus 1 in the present embodiment includes a first mode in which the first light source 11a is irradiated, and a second mode in which the second light source 11b is irradiated. For example, the first mode is selected when acquiring the lens characteristic of the lens LE. For example, when the first mode is selected, the measurement indicator 70 appears on the indicator plate 13 due to the irradiation of the first light source 11a. Therefore, the measurement index image 80 and the frame image Fp of the glasses F are projected on the screen 14. For example, the second mode is selected when aligning the glasses F and the measurement optical system 10 or when acquiring the frame image 90 of the glasses F (see FIG. 14). For example, when the second mode is selected, the measurement indicator 70 does not appear on the indicator plate 13 due to the irradiation of the second light source 11b. Therefore, only the frame image Fp of the glasses F is projected on the screen 14. For example, such switching of the measurement mode is automatically performed by the control unit 60. Of course, the operator may manually switch the measurement mode.

以下、図12に示すフローチャートを用いて順に説明する。例えば、本実施例においては、装用者の眼鏡に累進レンズが枠入れされている場合を例に挙げる。もちろん、眼鏡マッピング情報取得装置1は、眼鏡に枠入れされたその他のレンズ(例えば、単焦点レンズや二重焦点レンズ等)を測定することも可能である。また、例えば、本実施例では、眼鏡Fの左リムFRLに対する制御動作のみを記載し、眼鏡Fの右リムFRRに対する制御動作は省略する。なお、眼鏡Fの右リムFRRに対する制御動作は、眼鏡Fの左リムFRLに対する制御動作と同様に考えることができる。   Hereinafter, description will be made in order using the flowchart shown in FIG. For example, in the present embodiment, the case where a progressive lens is framed in the glasses of the wearer is taken as an example. Of course, the eyeglasses mapping information acquisition apparatus 1 can also measure other lenses (for example, a single focus lens, a double focus lens, etc.) framed in the glasses. Also, for example, in the present embodiment, only the control operation for the left rim FRL of the glasses F is described, and the control operation for the right rim FRR of the glasses F is omitted. The control operation of the right rim FRR of the glasses F can be considered in the same manner as the control operation of the left rim FRL of the glasses F.

まず、操作者は、装用者から眼鏡を受け取って、装用者が現在装用している眼鏡Fの眼鏡画像(図18に示す第1眼鏡画像100a参照)を取得する。例えば、操作者は、受け取った眼鏡Fを眼鏡支持ユニット20に載置し、ディスプレイ3に表示された操作ボタン4の中から、累進レンズの測定を開始するための図示なき開始ボタンを選択する。例えば、これによって、制御部60は第2モードを設定し、第2光源11bを点灯させて、レンズLEに向けて測定光束を照射する。   First, the operator receives the glasses from the wearer and acquires the glasses image (see the first glasses image 100a shown in FIG. 18) of the glasses F currently worn by the wearer. For example, the operator places the received spectacles F on the spectacles supporting unit 20, and selects an unshown start button for starting the measurement of the progressive lens from the operation buttons 4 displayed on the display 3. For example, by this, the control unit 60 sets the second mode, turns on the second light source 11b, and irradiates the measurement light beam toward the lens LE.

<眼鏡と測定光学系の位置合わせ(S1)>
例えば、制御部60は、測定部7と眼鏡支持ユニット20とが所定の位置関係となるように、これらを初期位置に移動させる。例えば、本実施例における初期位置とは、測定光学系10の光軸L1が、レンズLEの中央付近を通過するような位置である。
<Alignment of glasses and measurement optical system (S1)>
For example, the control unit 60 moves the measurement unit 7 and the glasses support unit 20 to an initial position so as to have a predetermined positional relationship. For example, the initial position in the present embodiment is a position where the optical axis L1 of the measurement optical system 10 passes near the center of the lens LE.

まず、例えば、制御部60は、眼鏡支持ユニット20を左右方向に移動させる。例えば、眼鏡支持ユニット20は、装用者の瞳孔間距離(すなわち、装用者の左瞳孔間距離と右瞳孔間距離の和)に基づいて、その左右方向における移動量が設定される。例えば、装用者の瞳孔間距離は、眼鏡装用画像解析装置(例えば、特開2015−179254号公報参照)やPDメータ等を用いて、予め取得しておくようにしてもよい。例えば、制御部60は、前方支持部21の左右中央と、測定部7の左右中央と、が一致する位置を基点として、左瞳孔間距離だけ眼鏡支持ユニット20を右方向に移動させる。これにより、測定光学系10の光軸L1が、眼鏡Fの左リムFRLに枠入れされたレンズLEの左右中央付近に位置合わせされる。なお、例えば、制御部60は、装用者の平均的な瞳孔間距離に基づいて、眼鏡支持ユニット20を左右方向に移動させるようにしてもよい。   First, for example, the control unit 60 moves the glasses support unit 20 in the left-right direction. For example, the amount of movement of the glasses support unit 20 in the lateral direction is set based on the pupil distance of the wearer (that is, the sum of the left pupil distance and the right pupil distance of the wearer). For example, the interpupillary distance of the wearer may be obtained in advance using a spectacles-wearing image analyzer (for example, see JP-A-2015-179254), a PD meter, or the like. For example, the control unit 60 moves the glasses support unit 20 to the right by the distance between left pupils, with the position where the left and right centers of the front support 21 and the left and right centers of the measurement unit 7 coincide as a base point. Thereby, the optical axis L1 of the measurement optical system 10 is aligned near the left and right center of the lens LE framed in the left rim FRL of the glasses F. Note that, for example, the control unit 60 may move the glasses support unit 20 in the left and right direction based on the average interpupillary distance of the wearer.

次いで、例えば、制御部60は、眼鏡支持ユニット20を上下方向に移動させる。例えば、制御部60は、スクリーン14に投影された眼鏡Fのフレーム像FpにおけるリムFRの上端像FRuと下端像FRdの双方を受光素子16が検出できるように、眼鏡支持ユニット20を上下方向に移動させる。例えば、制御部60は、受光素子16が撮影した受光画像65(図13参照)を画像処理することによって、リムFRの上端像FRuと下端像FRdを検出する。例えば、この場合、制御部60は、エッジ検出を行って、受光画像65における輝度の立ち上がりや立ち下がりを検出する構成であってもよい。   Next, for example, the control unit 60 moves the glasses support unit 20 in the vertical direction. For example, the control unit 60 vertically moves the glasses supporting unit 20 so that the light receiving element 16 can detect both the upper end image FRu and the lower end image FRd of the rim FR in the frame image Fp of the glasses F projected on the screen 14 Move it. For example, the control unit 60 detects the upper end image FRu and the lower end image FRd of the rim FR by performing image processing on the light receiving image 65 (see FIG. 13) captured by the light receiving element 16. For example, in this case, the control unit 60 may be configured to perform edge detection to detect rising and falling of the luminance in the light reception image 65.

例えば、図13は第2モード設定時の受光画像65の一例を示す図である。図13(a)は、リムFRの上端像FRuのみを含む受光画像65である。図13(b)は、リムFRの下端像FRdのみを含む受光画像65である。図13(c)は、リムFRの上端像FRuと下端像FRdの双方を含む受光画像65である。例えば、眼鏡Fのフレーム像Fpは、受光画像65上において影となって現れる。このため、本実施例においては、フレーム像Fpが位置する部分の輝度が、フレーム像Fpの周辺部分の輝度に対して小さく(暗く)なる。すなわち、眼鏡Fのフレーム像Fpが位置する部分では、受光画像65の輝度が立ち下がる。   For example, FIG. 13 is a view showing an example of the light reception image 65 at the time of setting the second mode. FIG. 13A is a light reception image 65 including only the top image FRu of the rim FR. FIG. 13B is a light reception image 65 including only the lower end image FRd of the rim FR. FIG. 13C is a light reception image 65 including both the upper end image FRu and the lower end image FRd of the rim FR. For example, the frame image Fp of the glasses F appears as a shadow on the light receiving image 65. Therefore, in the present embodiment, the luminance of the portion where the frame image Fp is located becomes smaller (darker) than the luminance of the peripheral portion of the frame image Fp. That is, at the portion where the frame image Fp of the glasses F is located, the luminance of the light reception image 65 falls.

例えば、制御部60は、受光画像65の左右中央に位置する中央線66において、上下方向の輝度の立ち下がりを検出する。また、例えば、制御部60は、中央線66から左方向に所定の距離だけ離れた位置にある走査線67と、中央線66から右方向に所定の距離だけ離れた位置にある走査線68と、の少なくともいずれかを走査し、上下方向の輝度の立ち下がりを検出する。例えば、所定の距離は、操作者が任意の距離を設定する構成であってもよい。また、例えば、所定の距離は、実験やシミュレーション等により、種々の眼鏡に対応できる距離が予め設定された構成としてもよい。なお、以下の説明では、制御部60が、中央線66と走査線67とにおける輝度の立ち下がりを検出した場合の処理を例に挙げる。   For example, the control unit 60 detects the fall of the luminance in the vertical direction at the center line 66 located at the left and right center of the light reception image 65. Further, for example, the control unit 60 includes a scanning line 67 located at a predetermined distance leftward from the center line 66 and a scanning line 68 located at a predetermined distance rightward from the center line 66. , And at least one of them is scanned to detect the fall of the luminance in the vertical direction. For example, the predetermined distance may be set by the operator to set an arbitrary distance. Further, for example, the predetermined distance may be set to a distance that can correspond to various glasses by experiment, simulation, or the like. In the following description, the processing in the case where the controller 60 detects the fall of the luminance in the center line 66 and the scanning line 67 will be described as an example.

例えば、制御部60は、受光画像65において、中央線66の輝度の立ち下がり位置が、走査線67の輝度の立ち下がり位置よりも下であったときに、検出した眼鏡Fのフレーム像FpがリムFRの上端像FRuであると判定し、眼鏡支持ユニット20を下方向に移動させる。また、例えば、制御部60は、受光画像65において、中央線66の輝度の立ち下がり位置が、走査線67の輝度の立ち下がり位置よりも上であったときに、検出した眼鏡Fのフレーム像FpがリムFRの下端像FRdであると判定し、眼鏡支持ユニット20を上方向に移動させる。また、例えば、制御部60は、受光画像65において、中央線66の輝度の立ち下がり位置が2箇所現れたときに、リムFRの上端像FRuと下端像FRdの双方を検出したと判定し、眼鏡支持ユニット20の上下方向の移動を終了する。これにより、測定光学系10の光軸L1が、レンズLEの上下中央付近に位置合わせされる。なお、受光画像65は動画像であってもよく、この場合には、動画像処理によりリアルタイムで眼鏡Fのフレーム像Fpの移動を捉えてもよい。   For example, in the light reception image 65, the control unit 60 detects that the frame image Fp of the glasses F detected when the falling position of the brightness of the center line 66 is lower than the falling position of the brightness of the scanning line 67. It is determined that the top image FRu of the rim FR is determined, and the glasses support unit 20 is moved downward. Also, for example, in the light reception image 65, the control unit 60 detects the frame image of the glasses F detected when the falling position of the brightness of the center line 66 is higher than the falling position of the brightness of the scanning line 67. It is determined that Fp is the lower end image FRd of the rim FR, and the eyeglass support unit 20 is moved upward. Further, for example, when two falling positions of the luminance of the center line 66 appear in the light reception image 65, the control unit 60 determines that both the upper end image FRu and the lower end image FRd of the rim FR are detected, The movement of the glasses support unit 20 in the vertical direction is ended. Thus, the optical axis L1 of the measurement optical system 10 is aligned near the upper and lower centers of the lens LE. The received light image 65 may be a moving image. In this case, the movement of the frame image Fp of the glasses F may be captured in real time by moving image processing.

次いで、例えば、制御部60は、眼鏡支持ユニット20を前後方向に移動させる。例えば、制御部60は、当接ピン6がレンズLEの後面に当接するように、眼鏡支持ユニット20を前後方向に移動させる。例えば、当接ピン6には、レンズLEとの当接を検知することが可能な図示なきセンサが設けられている。例えば、図示なきセンサとしては、圧力センサや接触センサ等を用いることができる。例えば、圧力センサの場合には、外部からの圧力に応じて、センサ内を流れる電気抵抗値が変化する。例えば、メモリ61には、外部からの圧力がない状態(すなわち、当接ピン6とレンズLEが当接していない状態)における電気抵抗値が予め記憶されていてもよい。例えば、制御部60は、変化した電気抵抗値と、予め記憶された電気抵抗値と、を比較することにより、当接ピン6がレンズLEに当接したことを判断し、眼鏡支持ユニット20の前後方向における移動を終了する。   Next, for example, the control unit 60 moves the glasses support unit 20 in the front-rear direction. For example, the control unit 60 moves the eyeglass support unit 20 in the front-rear direction such that the contact pin 6 contacts the rear surface of the lens LE. For example, the contact pin 6 is provided with a sensor (not shown) capable of detecting contact with the lens LE. For example, as a sensor not shown, a pressure sensor, a contact sensor, etc. can be used. For example, in the case of a pressure sensor, the electrical resistance value flowing in the sensor changes according to the pressure from the outside. For example, in the memory 61, the electric resistance value in the state where there is no external pressure (that is, the state where the contact pin 6 and the lens LE are not in contact) may be stored in advance. For example, the control unit 60 determines that the contact pin 6 is in contact with the lens LE by comparing the changed electric resistance value with the electric resistance value stored in advance. End the movement in the back and forth direction.

例えば、上述のようにして眼鏡支持ユニット20を初期位置へ移動させると、スクリーン14には、リムFRの上端像FRuとリムFRの下端像FRdが投影される。例えば、制御部60は、スクリーン14に投影された眼鏡Fのフレーム像Fpを受光素子16で受光し、これによって得られた受光画像(すなわち、図13(c)の状態における受光画像65)を用いて、眼鏡Fのフレーム画像90(図14参照)を取得する。   For example, when the eyeglass support unit 20 is moved to the initial position as described above, the screen 14 projects the upper end image FRu of the rim FR and the lower end image FRd of the rim FR. For example, the control unit 60 receives the frame image Fp of the glasses F projected on the screen 14 by the light receiving element 16, and the light reception image obtained by this (that is, the light reception image 65 in the state of FIG. The frame image 90 (see FIG. 14) of the glasses F is acquired using this.

<フレーム画像の取得(S2)>
図14は眼鏡Fのフレーム画像90を示す図である。例えば、制御部60は、受光画像65から眼鏡Fのフレーム像Fpを抽出した画像を、眼鏡Fのフレーム画像90として取得する(S2)。例えば、本実施例では、制御部60が受光画像65を画像処理することで、眼鏡Fのフレーム像Fpを抽出する。より詳細には、例えば、制御部60は、受光画像65の各画素位置に対して輝度値を取得し、輝度値に基づいて眼鏡Fのフレーム像Fpを抽出する。例えば、この場合、制御部60は、予め実験やシミュレーション等から設定された閾値未満の輝度値となった画素位置が、眼鏡Fのフレーム像Fpであると判定してもよい。もちろん、制御部60は、検出した輝度値を閾値に基づいて二値化することで、フレーム像Fpの抽出精度を向上させてもよい。例えば、これによって、制御部60は眼鏡Fのフレーム画像90を取得することができる。例えば、眼鏡Fのフレーム画像90は、メモリ61に記憶される。
<Acquisition of frame image (S2)>
FIG. 14 is a view showing a frame image 90 of the glasses F. As shown in FIG. For example, the control unit 60 acquires an image obtained by extracting the frame image Fp of the glasses F from the light reception image 65 as the frame image 90 of the glasses F (S2). For example, in the present embodiment, the control unit 60 performs image processing on the received light image 65 to extract the frame image Fp of the glasses F. More specifically, for example, the control unit 60 acquires a luminance value for each pixel position of the received light image 65, and extracts a frame image Fp of the glasses F based on the luminance value. For example, in this case, the control unit 60 may determine that the pixel position at which the luminance value is smaller than the threshold value set in advance by experiments or simulations is the frame image Fp of the glasses F. Of course, the control unit 60 may improve the extraction accuracy of the frame image Fp by binarizing the detected luminance value based on the threshold value. For example, this allows the control unit 60 to acquire the frame image 90 of the glasses F. For example, the frame image 90 of the glasses F is stored in the memory 61.

例えば、図15は第1モード設定時の受光画像69を示す図である。例えば、制御部60は、眼鏡Fのフレーム画像90を取得すると、測定モードを第2モードから第1モードへと切換える。これによって、第1光源11aが点灯し、レンズLEに向けて測定光束が照射される。例えば、スクリーン14には、リムFRの上端像FRuとリムFRの下端像FRd、及びレンズLEと指標板13を通過した測定指標像80が投影される(図5(b)参照)。例えば、制御部60は、受光素子16が撮影した受光画像69を取得する。   For example, FIG. 15 is a view showing a light reception image 69 at the time of setting the first mode. For example, when acquiring the frame image 90 of the glasses F, the control unit 60 switches the measurement mode from the second mode to the first mode. As a result, the first light source 11a is turned on, and the measurement light beam is emitted toward the lens LE. For example, the upper end image FRu of the rim FR and the lower end image FRd of the rim FR, and the measurement index image 80 which has passed through the lens LE and the index plate 13 are projected on the screen 14 (see FIG. 5B). For example, the control unit 60 acquires the light receiving image 69 captured by the light receiving element 16.

<レンズ特性の取得(S3)>
例えば、制御部60は、受光画像69における周辺指標像82の間隔や変形量等から、レンズLEのレンズ特性を測定する(S3)。例えば、指標板13と、眼鏡Fのフレームと、が前後方向に重なる部分では、眼鏡Fのフレームにより測定光束が遮られてしまうため、スクリーン14に投影される周辺指標像82の一部が欠ける場合がある。すなわち、眼鏡Fのフレーム像Fpの周囲に位置する周辺指標像82は、フレーム像Fpと周辺指標像とが重なって、円形状ではない点(例えば、半円状に欠けた点等)となる場合がある。例えば、眼鏡Fのフレーム像Fpよりも内側の領域においては、レンズLEのレンズ特性が得られるが、眼鏡Fのフレーム像Fpよりも外側の領域においては、概略0Dのレンズ特性が得られる。
<Acquisition of lens characteristics (S3)>
For example, the control unit 60 measures the lens characteristic of the lens LE from the interval, the deformation amount, and the like of the peripheral index image 82 in the light reception image 69 (S3). For example, in a portion where the index plate 13 and the frame of the glasses F overlap in the front-rear direction, the measurement light beam is blocked by the frame of the glasses F, so a part of the peripheral index image 82 projected on the screen 14 is missing There is a case. That is, in the peripheral index image 82 located around the frame image Fp of the glasses F, the frame image Fp and the peripheral index image overlap and become a non-circular point (for example, a point missing in a semicircular shape, etc.) There is a case. For example, in the region inside the frame image Fp of the glasses F, the lens characteristics of the lens LE are obtained, but in the region outside the frame image Fp of the glasses F, a lens characteristic of about 0 D is obtained.

このため、例えば、制御部60は、眼鏡Fのフレーム像Fpよりも内側の領域において、レンズLEのレンズ特性を演算するようにしてもよい。なお、制御部60は、眼鏡Fのフレーム像Fpにより欠けた周辺指標像と、眼鏡Fのフレーム像Fpと重なって見えない周辺指標像と、の位置関係を周囲の周辺指標像80から予測し、これらを用いてレンズ特性を演算するようにしてもよい。例えば、制御部60は、レンズLEのレンズ特性を測定すると、メモリ61にその結果を記憶させる。   Therefore, for example, the control unit 60 may calculate the lens characteristic of the lens LE in a region inside the frame image Fp of the glasses F. The control unit 60 predicts the positional relationship between the peripheral index image missing due to the frame image Fp of the glasses F and the peripheral index image not visible overlapping with the frame image Fp of the glasses F from the peripheral index image 80 around The lens characteristics may be calculated using these. For example, when the lens characteristic of the lens LE is measured, the control unit 60 stores the result in the memory 61.

<マッピング画像の取得(S4)>
例えば、制御部60は、測定光学系10により測定されたレンズ特性に基づいて、レンズ特性を示すマッピング画像95を取得する(S4)。図16はマッピング画像95の一例を示す図である。図16(a)は球面度数Sに基づいた等度数線96を作成したマッピング画像95であり、図16(b)は円柱度数Cに基づいた等度数線96を作成したマッピング画像95である。なお、本実施例においては説明を省略するが、制御部60は、乱視軸角度Aやプリズム量Δ等に基づいた等度数線を作成したマッピング画像を取得するようにしてもよい。
<Acquisition of mapping image (S4)>
For example, the control unit 60 acquires a mapping image 95 indicating lens characteristics based on the lens characteristics measured by the measurement optical system 10 (S4). FIG. 16 shows an example of the mapping image 95. As shown in FIG. FIG. 16A is a mapping image 95 in which an equal power line 96 is created based on the spherical power S, and FIG. 16B is a mapping image 95 in which an equal power line 96 based on the cylindrical power C is generated. Although the description is omitted in the present embodiment, the control unit 60 may acquire a mapping image in which isopower lines are created based on the astigmatic axis angle A, the prism amount Δ, and the like.

例えば、等度数線96とは、球面度数S、あるいは円柱度数Cの測定結果が等しい測定位置を結んだ曲線である。例えば、制御部60は、受光画像69上において、複数箇所の球面度数Sに基づいた等度数線96を作成する。同様に、例えば、制御部60は、受光画像69上において、複数箇所の円柱度数Cに基づいた等度数線96を作成する。例えば、等度数線96は、所定の度数間隔(例えば、0.25D間隔、0.5D間隔等)で作成される。すなわち、等度数線96は、受光画像69上に複数作成される。このため、操作者は、累進レンズにおける度数の変化を視覚的に把握することができる。   For example, the equal power line 96 is a curve connecting measurement positions at which the measurement results of the spherical power S or the cylindrical power C are equal. For example, the control unit 60 creates equal power lines 96 based on the spherical power S at a plurality of locations on the received light image 69. Similarly, for example, the control unit 60 creates an equal frequency line 96 based on cylindrical frequencies C at a plurality of locations on the received light image 69. For example, equal frequency lines 96 are created at predetermined frequency intervals (for example, 0.25 D intervals, 0.5 D intervals, etc.). That is, a plurality of equal frequency lines 96 are created on the received light image 69. Therefore, the operator can visually grasp the change of the power in the progressive lens.

例えば、本実施例では、受光画像69上に等度数線96を作成した画像が、レンズLEのレンズ特性を示すマッピング画像95として取得される。例えば、制御部60は、このようなマッピング画像95をメモリ61に記憶させる。なお、例えば、制御部60は、受光画像69上においてレンズ特性が等しい領域を色分け等したグラフィックを作成し、これをマッピング画像としてメモリ61に記憶する構成としてもよい。   For example, in the present embodiment, an image in which the equal power line 96 is created on the light reception image 69 is acquired as the mapping image 95 indicating the lens characteristic of the lens LE. For example, the control unit 60 stores such a mapping image 95 in the memory 61. Note that, for example, the control unit 60 may be configured to create a graphic in which the areas having the same lens characteristics are color-coded on the light reception image 69 and store the graphic in the memory 61 as a mapping image.

<眼鏡画像の取得(S5)>
例えば、制御部60は、マッピング画像95と眼鏡Fのフレーム画像90とを関連付ける。また、例えば、制御部60は、マッピング画像95とフレーム画像90とを関連付けた眼鏡画像100を取得する(S5)。なお、例えば、本実施例においては、制御部60がマッピング画像95とフレーム画像90とを重畳することにより関連付け、マッピング画像95とフレーム画像90とを重畳した眼鏡画像100を取得する場合を例に挙げる。
<Obtaining of glasses image (S5)>
For example, the control unit 60 associates the mapping image 95 with the frame image 90 of the glasses F. Also, for example, the control unit 60 acquires the glasses image 100 in which the mapping image 95 and the frame image 90 are associated (S5). For example, in the present embodiment, a case where the control unit 60 associates the mapping image 95 and the frame image 90 by superimposing each other and acquires the glasses image 100 in which the mapping image 95 and the frame image 90 are superimposed is taken as an example. I will list.

図17はマッピング画像95とフレーム画像90とを重畳した眼鏡画像100の一例である。例えば、マッピング画像95とフレーム画像90とは、受光素子16が撮影した受光画像65及び受光画像69に基づいて取得されている。このため、これらの画像における画素数は同一(すなわち、pixel to pixel)であり、マッピング画像95の各画素位置は、フレーム画像90の各画素位置に対応している。例えば、制御部60は、マッピング画像95の各画素位置と、フレーム画像90の各画素位置と、が一致するように、これらの画像を重畳させる。なお、本実施例においては、上述したように、眼鏡Fのフレーム像Fpよりも内側の領域におけるレンズ特性が取得され、これに対する等度数線96が作成されている。従って、マッピング画像95と、フレーム画像90と、を重畳することで、フレーム像Fpの内側の領域に等度数線96を重畳した眼鏡画像100を取得することができる。例えば、取得した眼鏡画像100はメモリ61に記憶される。   FIG. 17 shows an example of an eyeglass image 100 in which the mapping image 95 and the frame image 90 are superimposed. For example, the mapping image 95 and the frame image 90 are acquired based on the light reception image 65 and the light reception image 69 captured by the light receiving element 16. Therefore, the number of pixels in these images is the same (ie, pixel to pixel), and each pixel position of the mapping image 95 corresponds to each pixel position of the frame image 90. For example, the control unit 60 superimposes these images so that each pixel position of the mapping image 95 and each pixel position of the frame image 90 coincide with each other. In the present embodiment, as described above, the lens characteristic in the region inside the frame image Fp of the glasses F is acquired, and the equal power line 96 is created. Therefore, by superimposing the mapping image 95 and the frame image 90, it is possible to obtain the glasses image 100 in which the equal frequency line 96 is superimposed on the region inside the frame image Fp. For example, the acquired eyeglass image 100 is stored in the memory 61.

例えば、操作者は、眼鏡マッピング情報取得装置1を用いて、上記のように装用者が現在装用している眼鏡に対する眼鏡画像を取得することができる。この後、操作者は、眼鏡レンズ加工装置等を用いて、装用者が選択した眼鏡Fのフレームに、装用者に適した累進レンズを枠入れし、新しい眼鏡Fを作製する。また、例えば、操作者は、上記の操作と同様にして、装用者が新しく作製した眼鏡に対する眼鏡画像(図18に示す第2眼鏡画像100b参照)を取得する。例えば、操作者は、複数の眼鏡画像100を取得すると、ディスプレイ3に表示された操作ボタン4の中から、図示なき比較表示ボタンを選択する。例えば、これによって、制御部60は複数の眼鏡画像を出力する。   For example, the operator can use the eyeglasses mapping information acquisition apparatus 1 to acquire an eyeglass image for the eyeglasses currently worn by the wearer as described above. Thereafter, the operator frames the progressive lens suitable for the wearer into the frame of the spectacles F selected by the wearer using the spectacle lens processing device or the like to produce new spectacles F. Also, for example, the operator obtains a glasses image (see the second glasses image 100b shown in FIG. 18) for the glasses newly prepared by the wearer in the same manner as the above-described operation. For example, when the operator obtains a plurality of glasses images 100, the operator selects a comparison display button (not shown) from the operation buttons 4 displayed on the display 3. For example, by this, the control unit 60 outputs a plurality of glasses images.

<眼鏡画像の出力(S6)>
例えば、制御部60は、取得した複数の眼鏡画像100を比較可能に出力する(S6)。例えば、複数の眼鏡画像とは、少なくとも2枚以上の眼鏡画像であればよい。また、例えば、複数の眼鏡画像とは、レンズ特性と、フレームと、マッピング画像95とフレーム画像90との位置関係と、の少なくともいずれかが異なる眼鏡画像であってもよい。例えば、本実施例における制御部60は、装用者が現在装用している眼鏡に対する第1眼鏡画像100aと、装用者が新しく作製した眼鏡に対する第2眼鏡画像100bと、の2枚の眼鏡画像を比較可能に出力する。
<Output of glasses image (S6)>
For example, the control unit 60 outputs the plurality of acquired eyeglass images 100 in a comparable manner (S6). For example, the plurality of eyeglass images may be at least two eyeglass images. Also, for example, the plurality of glasses images may be glasses images in which at least one of the lens characteristics, the frame, and the positional relationship between the mapping image 95 and the frame image 90 is different. For example, the control unit 60 in the present embodiment includes two eyeglass images of a first eyeglass image 100a for the eyeglasses currently worn by the wearer and a second eyeglass image 100b for the eyeglasses newly produced by the wearer. Output comparably.

例えば、複数の眼鏡画像は、ディスプレイやタブレット端末等への表示、プリンタ等を用いた印刷、外部メモリ(例えば、USBメモリ等)への保存、等により比較可能に出力される。なお、本実施例においては、制御部60が複数の眼鏡画像100をディスプレイ3に比較可能に表示する場合を例に挙げる。   For example, a plurality of glasses images are comparably output by display on a display, a tablet terminal or the like, printing using a printer or the like, storage in an external memory (for example, a USB memory or the like), or the like. In the present embodiment, a case where the control unit 60 displays the plurality of glasses images 100 on the display 3 in a comparable manner will be described as an example.

図18はディスプレイ3に表示される比較画像110の一例を示す図である。図18(a)は複数の眼鏡画像における比較画像110であり、図18(b)は複数の眼鏡画像に標識マーク120を重畳した比較画像110である。例えば、本実施例における比較画像110は、第1眼鏡画像100aと第2眼鏡画像100bとを含み、これらの眼鏡画像が並列表示される。   FIG. 18 is a view showing an example of the comparison image 110 displayed on the display 3. FIG. 18A is a comparison image 110 of a plurality of glasses images, and FIG. 18B is a comparison image 110 in which the marker marks 120 are superimposed on a plurality of glasses images. For example, the comparative image 110 in the present embodiment includes the first eyeglass image 100a and the second eyeglass image 100b, and these eyeglass images are displayed in parallel.

なお、例えば、比較画像110には、複数の眼鏡画像100における少なくとも1つの眼鏡画像に、装用者のアイポイントデータに基づく標識マーク120が重畳されていてもよい(図18(b)参照)。例えば、標識マーク120は、装用者のアイポイント位置を示すアイポイントマーク121や、アイポイント位置を基準として算出される遠用アイポイントマーク122と近用アイポイントマーク123等である。例えば、装用者のアイポイント位置は、別の装置(例えば、眼鏡装用画像解析装置等)を用いて予め測定しておいてもよい。また、例えば、装用者のアイポイント位置は、ペン等を用いてレンズLE上における装用者の瞳孔位置に印を付け、その位置を定規等により測定するようにしてもよい。   Note that, for example, in the comparison image 110, the marker mark 120 based on the eye point data of the wearer may be superimposed on at least one eyeglass image in the plurality of eyeglass images 100 (see FIG. 18B). For example, the marker mark 120 is an eyepoint mark 121 indicating the eyepoint position of the wearer, a distance eyepoint mark 122 calculated based on the eyepoint position, a near vision eyepoint mark 123 and the like. For example, the eye point position of the wearer may be measured in advance using another device (for example, an eyeglass wearing image analysis device or the like). Also, for example, the eye point position of the wearer may be marked with the pupil position of the wearer on the lens LE using a pen or the like, and the position may be measured by a ruler or the like.

例えば、制御部60は、操作者が操作ボタン4から入力した測定値等からアイポイント位置を取得し、遠用アイポイント位置と近用アイポイント位置をそれぞれ計算する。また、例えば、制御部60は、アイポイントマーク121、遠用アイポイントマーク122、近用アイポイントマーク123等の標識マーク120を眼鏡画像100とともに出力する。   For example, the control unit 60 acquires an eyepoint position from a measurement value or the like input from the operation button 4 by the operator, and calculates a far vision eyepoint position and a near vision eyepoint position. Also, for example, the control unit 60 outputs marker marks 120 such as the eyepoint mark 121, the far vision eyepoint mark 122, and the near vision eyepoint mark 123 together with the eyeglass image 100.

例えば、眼鏡画像100は、眼鏡支持ユニット20を装用者の瞳孔間距離に基づいて移動させた際の受光画像から作成されているので、装用者のアイポイント位置は、眼鏡画像100の左右中央上に位置している。例えば、制御部60は、眼鏡画像100の左右中央に対してエッジ検出等の画像処理を行い、リムFRの下端を検出する。また、例えば、制御部60は、リムFRの下端から瞳孔位置までの距離(すなわち、PD高さ)に基づいて、アイポイント位置を決定する。例えば、眼鏡画像100において実際のPD高さが対応する画素数は、予め実験やシミュレーション等により設定されていてもよい。これによって、眼鏡画像上におけるアイポイント位置がわかり、標識マーク120を眼鏡画像100に重畳して出力させることができる。   For example, since the eyeglass image 100 is created from the light reception image when the eyeglass support unit 20 is moved based on the distance between the pupils of the wearer, the eye point position of the wearer is on the left and right center of the eyeglass image 100. It is located in For example, the control unit 60 performs image processing such as edge detection on the left and right centers of the glasses image 100 to detect the lower end of the rim FR. Also, for example, the control unit 60 determines the eye point position based on the distance from the lower end of the rim FR to the pupil position (that is, PD height). For example, the number of pixels corresponding to the actual PD height in the eyeglass image 100 may be set in advance by experiment, simulation, or the like. Thus, the eye point position on the eyeglass image can be known, and the marker mark 120 can be superimposed on the eyeglass image 100 and output.

例えば、このように比較画像110がディスプレイ3に表示されることで、操作者は装用者が現在装用している眼鏡と、装用者が新しく作製した眼鏡と、におけるレンズ特性の違いを視覚的に把握することができるようになる。また、操作者は、装用者が現在装用している眼鏡と、装用者が新しく作製した眼鏡と、における遠用部や近用部の位置の変化や、歪みの違いによる見え具合の変化等を、わかりやすく装用者に伝えることができるようになる。   For example, by displaying the comparative image 110 on the display 3 in this manner, the operator visually recognizes the difference in lens characteristics between the glasses currently worn by the wearer and the glasses newly produced by the wearer. You will be able to grasp. In addition, the operator changes the position of the distance part and the near part in the glasses currently worn by the wearer and the glasses newly produced by the wearer, and changes in the appearance due to differences in distortion, etc. You will be able to communicate to the wearer in an easy-to-understand manner.

上記の説明においては、装用者が現在装用している眼鏡と、作製し終えた眼鏡と、における眼鏡画像を取得し、これを比較する場合を例に挙げた。例えば、眼鏡マッピング情報取得装置1は、装用者が新しく作製する予定の眼鏡Fにおけるレンズ特性とフレームとの位置関係を示す眼鏡画像を取得し、これを現在装用している眼鏡の眼鏡画像と比較してもよい。以下では、このような場合における眼鏡マッピング情報取得装置1の制御動作を説明する。   In the above description, the case of acquiring eyeglass images of the eyeglasses currently worn by the wearer and the eyeglasses completed is described as an example. For example, the eyeglasses mapping information acquisition apparatus 1 acquires an eyeglass image showing the positional relationship between the lens characteristics and the frame in the eyeglasses F to be newly produced by the wearer, and compares it with the eyeglass image of the eyeglasses currently worn You may The control operation of the eyeglasses mapping information acquisition apparatus 1 in such a case will be described below.

例えば、操作者は、前述のようにして、装用者が現在装用している眼鏡Fの眼鏡画像100aを取得する。また、例えば、操作者は、装用者が新たな眼鏡を作製するために選択した眼鏡Fを装用者に装用させ、眼鏡装用画像解析装置等を用いて、眼鏡装用パラメータを測定する。例えば、これによって、眼鏡Fに対する装用者の瞳孔位置が検出され、装用者のアイポイント位置を取得することができる。例えば、操作者が操作ボタン4から測定値を入力すると、制御部60はその測定値をメモリ61に記憶させる。   For example, the operator acquires the glasses image 100a of the glasses F currently worn by the wearer as described above. Also, for example, the operator causes the wearer to wear the spectacles F selected by the wearer to produce new spectacles, and measures the spectacle wearing parameter using the spectacle wearing image analysis device or the like. For example, with this, the pupil position of the wearer with respect to the glasses F can be detected, and the eye point position of the wearer can be obtained. For example, when the operator inputs a measured value from the operation button 4, the control unit 60 stores the measured value in the memory 61.

次いで、操作者は、装用者が新たな眼鏡を作製するために選択した眼鏡Fのフレーム画像と、装用者に提供する累進レンズのマッピング画像と、を取得する。例えば、操作者は、複数の眼鏡のフレーム画像が予め蓄積されたデータベースから、装用者が選択した眼鏡Fのフレームに該当するフレーム画像90a(図19における点線部)を選択する。例えば、フレーム画像のデータベースは、複数の眼鏡において、それぞれのフレーム形状を測定することで予めフレーム画像を取得し、これらの画像を用いて作成しておいてもよい。例えば、制御部60は、フレーム画像90a(図19参照)が選択されると、メモリ61に記憶された測定値を用いて、フレーム画像90a上における装用者のアイポイント位置i1を計算する。なお、例えば、フレーム画像のデータベースは、フレームを製造する際に用いるフレーム設計データに基づいて作成されてもよく、本実施例に限定されない。   Next, the operator obtains a frame image of the glasses F which the wearer has selected to produce new glasses, and a mapping image of the progressive lens to be provided to the wearer. For example, the operator selects a frame image 90a (dotted line in FIG. 19) corresponding to the frame of the glasses F selected by the wearer from a database in which frame images of a plurality of glasses are stored in advance. For example, a database of frame images may be created in advance by acquiring frame images by measuring each frame shape in a plurality of glasses, and using these images. For example, when the frame image 90a (see FIG. 19) is selected, the control unit 60 uses the measurement values stored in the memory 61 to calculate the eyepoint position i1 of the wearer on the frame image 90a. For example, a database of frame images may be created based on frame design data used when manufacturing a frame, and is not limited to the present embodiment.

また、例えば、操作者は、レンズ(例えば、本実施例においては生地レンズ)のレンズ特性を示す複数のマッピング画像が予め蓄積されたデータベースから、装用者に提供する累進レンズのマッピング画像95a(図19参照)を選択する。例えば、マッピング画像のデータベースは、複数のレンズにおいて、それぞれのレンズ特性を測定することで予めマッピング画像を取得し、これらの画像を用いて作成しておいてもよい。   Also, for example, the operator may use the mapping image 95a of the progressive lens to be provided to the wearer from a database in which a plurality of mapping images showing lens characteristics of the lens (for example, the lens in this embodiment) are stored in advance. 19) is selected. For example, a database of mapping images may be created by acquiring mapping images in advance by measuring lens characteristics of a plurality of lenses, and using these images.

なお、例えば、このようなマッピング画像は、本実施例において説明した眼鏡マッピング情報取得装置1を用いて取得されてもよい。また、例えば、このようなマッピング画像は、隠しマークの検出が可能な光学系が別途設けられた眼鏡マッピング情報取得装置1を用いて取得されてもよいし、隠しマークの検出が可能な光学系と、測定光学系10と、が兼用された眼鏡マッピング情報取得装置1を用いて取得されてもよい。もちろん、このようなマッピング画像は、別の装置を用いて取得されてもよい。   In addition, for example, such a mapping image may be acquired using the spectacles mapping information acquisition apparatus 1 demonstrated in the present Example. Also, for example, such a mapping image may be acquired using the eyeglass mapping information acquisition apparatus 1 separately provided with an optical system capable of detecting a hidden mark, or an optical system capable of detecting a hidden mark. And the measurement optical system 10 may be acquired using the eyeglass mapping information acquisition apparatus 1. Of course, such a mapping image may be acquired using another device.

例えば、データベース上のマッピング画像には、レンズ特性とともにレンズのアイポイント位置i2が記憶されていてもよい。例えば、レンズのアイポイント位置i2は、レンズに施された隠しマークの位置から求めることができる。このため、例えば、マッピング画像は、隠しマークの検出が可能な光学系を眼鏡マッピング情報取得装置1に設け、これを用いて取得してもよい。また、例えば、マッピング画像は、隠しマークの検出が可能な光学系と、測定光学系10と、が兼用された眼鏡マッピング情報取得装置1を用いて取得してもよい。もちろん、マッピング画像は、隠しマークの検出が可能な光学系を備えた別の装置を用いて取得してもよい。例えば、制御部60は、マッピング画像95a上におけるレンズのアイポイント位置i2を計算する。   For example, the lens image and the eye point position i2 of the lens may be stored in the mapping image on the database. For example, the eyepoint position i2 of the lens can be determined from the position of the hidden mark applied to the lens. Therefore, for example, the mapping image may be acquired using an optical system capable of detecting a hidden mark in the eyeglasses mapping information acquisition device 1 and using this. Also, for example, the mapping image may be acquired using the eyeglass mapping information acquisition apparatus 1 in which the optical system capable of detecting the hidden mark and the measurement optical system 10 are used in combination. Of course, the mapping image may be acquired using another device equipped with an optical system capable of detecting a hidden mark. For example, the control unit 60 calculates the eyepoint position i2 of the lens on the mapping image 95a.

なお、例えば、マッピング画像のデータベースは、レンズを製造する際に用いるレンズ設計データに基づいて作成されていてもよい。この場合、レンズのアイポイント位置i2はレンズ設計データから求めることができるので、マッピング画像とともにレンズのアイポイント位置を記憶しておくことができる。   Note that, for example, a database of mapping images may be created based on lens design data used when manufacturing a lens. In this case, since the eyepoint position i2 of the lens can be obtained from lens design data, the eyepoint position of the lens can be stored together with the mapping image.

例えば、制御部60は、該当する眼鏡Fのフレーム画像90aと、装用者に提供する累進レンズのマッピング画像95aと、をそれぞれのデータベースから取り込む。また、例えば、制御部60は、眼鏡Fのフレーム画像90aにおけるアイポイント位置i1と、累進レンズのマッピング画像95aにおけるアイポイント位置i2と、が一致するように、フレーム画像90aとマッピング画像95aとを重畳させる。これによって、制御部60は、装用者が新しく作製する予定の眼鏡Fにおけるレンズ特性とフレームとの位置関係を示す眼鏡画像100cを取得する。   For example, the control unit 60 takes in a frame image 90a of the corresponding glasses F and a mapping image 95a of the progressive lens to be provided to the wearer from each database. Also, for example, the control unit 60 sets the frame image 90a and the mapping image 95a such that the eye point position i1 in the frame image 90a of the glasses F and the eye point position i2 in the mapping image 95a of the progressive lens coincide with each other. Make it overlap. Thus, the control unit 60 acquires the eyeglass image 100c indicating the positional relationship between the lens characteristics and the frame in the eyeglasses F to be newly manufactured by the wearer.

例えば、制御部60は、それぞれの眼鏡画像を取得すると、前述のようにして、装用者が現在装用している眼鏡の眼鏡画像100aと、装用者が新しく作製する予定の眼鏡Fにおける眼鏡画像100cと、を比較可能に出力する。図19は比較画像110の変容例を示す図である。例えば、ディスプレイ3には、眼鏡画像100aと眼鏡画像100cが並列表示される。なお、本実施例では図示を省略するが、これらの画像には標識マーク120が重畳して表示されてもよい。   For example, when the control unit 60 acquires the respective glasses images, as described above, the glasses image 100a of the glasses currently worn by the wearer and the glasses image 100c in the glasses F to be newly produced by the wearer And output comparably. FIG. 19 is a view showing a modified example of the comparison image 110. As shown in FIG. For example, on the display 3, the glasses image 100a and the glasses image 100c are displayed in parallel. In addition, although illustration is abbreviate | omitted in a present Example, the mark mark 120 may be superimposed and displayed on these images.

例えば、このように比較画像110がディスプレイ3に表示されることで、操作者は、累進レンズの遠用部や近用部がフレーム内におさまるかを判断することができる。遠用部や近用部がフレーム内におさまらないときは、選択した累進レンズを変更すること、あるいは選択した眼鏡フレームを変更することを装用者に提案してもよい。また、遠用部や近用部がフレーム内におさまらないときは、フレームに対するレンズ特性の配置を調整してもよい。例えば、この場合には、比較画像110に表示される移動ボタン111を操作することで、眼鏡Fのフレーム画像90aと、累進レンズのマッピング画像95aと、の少なくともいずれか一方を移動させてもよい。   For example, by displaying the comparison image 110 on the display 3 in this manner, the operator can determine whether the distance portion or the near portion of the progressive lens fits in the frame. If the distance and near parts do not fit within the frame, it may be suggested to the wearer to change the selected progressive lens or to change the selected eyeglass frame. Also, when the distance and near parts do not fit within the frame, the arrangement of the lens characteristics with respect to the frame may be adjusted. For example, in this case, at least one of the frame image 90a of the glasses F and the mapping image 95a of the progressive lens may be moved by operating the movement button 111 displayed in the comparison image 110. .

例えば、操作者は、装用者が新しく作製する予定の眼鏡Fにおいて、レンズ特性とフレームとの位置関係を決定し、操作ボタン4の中から図示なき決定ボタンを選択する。例えば、決定ボタンが選択されると、制御部60は眼鏡画像100cにおけるレンズ特性とフレームとの位置関係に関するデータを出力する。例えば、操作者は、このデータを眼鏡レンズ加工装置等で用いることで、装用者が選択した眼鏡Fのフレームに累進レンズを枠入れし、新しい眼鏡Fを作製する。なお、この後、操作者は、眼鏡マッピング情報取得装置1を用いて、作製した眼鏡に対する眼鏡画像100bを取得し、装用者が現在装用している眼鏡との見え具合等の違いや、予定通りの眼鏡が作製できたかどうかを確認してもよい。   For example, the operator determines the positional relationship between the lens characteristic and the frame in the glasses F to be newly manufactured by the wearer, and selects the determination button (not shown) from the operation buttons 4. For example, when the determination button is selected, the control unit 60 outputs data regarding the positional relationship between the lens characteristic and the frame in the eyeglass image 100c. For example, the operator uses this data in the eyeglass lens processing apparatus or the like to frame the progressive lens in the frame of the eyeglass F selected by the wearer, and produce new eyeglasses F. After this, the operator uses the glasses mapping information acquisition apparatus 1 to acquire the glasses image 100b for the manufactured glasses, and the difference in the degree of visibility with the glasses currently worn by the wearer, etc., as scheduled You may also check if the glasses have been produced.

なお、上記においては、装用者が現在装用している眼鏡と、新しく作製する予定の眼鏡と、における眼鏡画像を出力する構成を例に挙げて説明したがこれに限定されない。例えば、装用者が選択した眼鏡フレームが複数ある場合等には、レンズのマッピング画像と、複数のフレーム画像と、をそれぞれ組み合わせた眼鏡画像を取得して、これらを比較可能に出力する構成としてもよい。例えば、これによって、同じ累進レンズであっても、一方の眼鏡フレームでは近用部がおさまらず、もう一方の眼鏡フレームでは近用部がおさまる等といったレンズ特性の位置関係を把握することができる。従って、操作者は、装用者に適した方の眼鏡フレームを選択して、眼鏡を作製することができる。   In the above, the configuration for outputting the glasses image in the glasses currently worn by the wearer and the glasses to be newly produced is described as an example, but the present invention is not limited to this. For example, when there are a plurality of eyeglass frames selected by the wearer, etc., an eyeglass image obtained by combining the mapping image of the lens and the plurality of frame images may be obtained and output so as to be comparable. Good. For example, even with the same progressive lens, it is possible to grasp the positional relationship of the lens characteristics, such as the near vision part does not cover in one eyeglass frame and the near vision part in the other eyeglass frame. Therefore, the operator can select the glasses frame suitable for the wearer to produce the glasses.

以上説明したように、例えば、本実施例における眼鏡マッピング情報取得装置1は、レンズ特性を示すマッピング画像と、眼鏡のフレーム画像と、をそれぞれ取得し、マッピング画像とフレーム画像とを関連付けた眼鏡画像を取得する。これによって、操作者は、フレームに対してレンズ特性がどのように位置しているかを把握することができる。また、眼鏡マッピング情報取得装置1は、レンズ特性と、フレームと、マッピング画像とフレーム画像との位置関係と、の少なくともいずれかが異なる複数の眼鏡画像を比較可能に出力する。これによって、操作者は、眼鏡フレームとレンズとの良好な組み合わせを選択することができる。また、操作者は、眼鏡の違いによる見え具合等の変化を容易に比較することができる。   As described above, for example, the eyeglasses mapping information acquiring apparatus 1 according to the present embodiment acquires a mapping image indicating lens characteristics and a frame image of eyeglasses, respectively, and an eyeglass image in which the mapping image and the frame image are associated To get By this, the operator can grasp how the lens characteristic is positioned with respect to the frame. In addition, the eyeglasses mapping information acquisition device 1 comparesably outputs a plurality of eyeglasses images different in at least one of the lens characteristics, the frame, and the positional relationship between the mapping image and the frame image. This allows the operator to select a good combination of eyeglass frame and lens. In addition, the operator can easily compare changes such as the degree of visibility due to the difference in the glasses.

また、例えば、本実施例における眼鏡マッピング情報取得装置は、マッピング画像とフレーム画像とを重畳した眼鏡画像を取得する。これによって、操作者は、眼鏡フレームとレンズとの位置関係が良好であるかを判断することができる。また、操作者は、フレームに対するレンズ特性の位置を容易に判断することができる。特に、累進レンズを測定した場合には、その遠用部や近用部がフレーム内におさまっているかを容易に判断することができる。   Also, for example, the eyeglasses mapping information acquisition apparatus in the present embodiment acquires an eyeglass image in which the mapping image and the frame image are superimposed. This allows the operator to determine whether the positional relationship between the eyeglass frame and the lens is good. Also, the operator can easily determine the position of the lens characteristic with respect to the frame. In particular, when a progressive lens is measured, it can be easily determined whether its distance and near parts are within the frame.

また、例えば、本実施例における眼鏡マッピング情報取得装置は、複数の眼鏡画像を並列して出力する。これによって、操作者は、複数の眼鏡画像から、眼鏡フレームとレンズとが良好な組み合わせを容易に検討することができる。また、操作者は、複数の眼鏡画像から、レンズ特性や見え具合等がどのように変化したかを把握しやすくなる。また、操作者は、装用者にレンズ特性や見え具合等の違いを説明しやすくなる。   Also, for example, the eyeglasses mapping information acquisition device in the present embodiment outputs a plurality of eyeglasses images in parallel. By this, the operator can easily consider a good combination of the eyeglass frame and the lens from the plurality of eyeglass images. In addition, the operator can easily grasp how the lens characteristics, the degree of appearance, and the like have changed from the plurality of glasses images. In addition, the operator can easily explain to the wearer the differences in lens characteristics, appearance, and the like.

また、例えば、本実施例における眼鏡マッピング情報取得装置は、複数の眼鏡画像を比較可能に表示する。これにより、操作者は、眼鏡画像同士を比較し、眼鏡フレームとレンズとの良好な組み合わせを選択することができる。また、操作者は、眼鏡画像同士を比較し、レンズ特性や見え具合等の違いを容易に理解できるようになる。   Also, for example, the eyeglasses mapping information acquisition device in the present embodiment displays a plurality of eyeglass images comparably. Thereby, the operator can compare the glasses images and select a good combination of the glasses frame and the lens. In addition, the operator can compare the glasses images with one another to easily understand differences in lens characteristics, appearance, and the like.

また、例えば、本実施例における眼鏡マッピング情報取得装置は、装用者のアイポイントデータを取得し、アイポイントデータに基づく標識マークを複数の眼鏡画像における少なくとも1つの眼鏡画像に重畳させる。また、本実施例における眼鏡マッピング情報取得装置は、複数の眼鏡画像を比較可能に出力するとともに、少なくとも1つの眼鏡画像に重畳された標識マークを出力する。これによって、操作者は、装用者のアイポイント位置等が眼鏡のフレームに対してどこに位置するかを把握し、装用者にとって良好な眼鏡フレームとレンズの組み合わせであるかを容易に判断することができる。   Also, for example, the eyeglasses mapping information acquisition apparatus in the present embodiment acquires eyepoint data of the wearer, and superimposes a marker mark based on the eyepoint data on at least one eyeglass image in a plurality of eyeglass images. In addition, the eyeglasses mapping information acquisition device in the present embodiment outputs a plurality of eyeglasses images in a comparable manner and outputs a marker mark superimposed on at least one eyeglasses image. By this, the operator can grasp where the eye point position etc. of the wearer is located with respect to the frame of the glasses and easily judge whether it is a combination of the spectacle frame and the lens which is good for the wearer. it can.

<変容例>
なお、本実施例においては、マッピング画像と、フレーム画像と、をそれぞれデータベースから取り込むことにより、装用者が新しく作製する予定の眼鏡Fにおけるレンズ特性とフレームとの位置関係を示す眼鏡画像を取得する構成を例に挙げて説明したがこれに限定されない。例えば、このような眼鏡画像を取得する際には、マッピング画像とフレーム画像との少なくとも一方をデータベースから取り込み、他方を測定により取得するようにしてもよい。もちろん、マッピング画像と、フレーム画像と、の双方を測定により取得する構成であってもよい。
<Modification example>
In the present embodiment, the glasses image showing the positional relationship between the lens characteristics and the frame in the glasses F scheduled to be newly prepared by the wearer is acquired by fetching the mapping image and the frame image from the database. Although the configuration has been described by way of example, it is not limited thereto. For example, when acquiring such an eyeglass image, at least one of the mapping image and the frame image may be fetched from the database, and the other may be acquired by measurement. Of course, both the mapping image and the frame image may be obtained by measurement.

例えば、フレーム画像をデータベースから取り込み、マッピング画像を測定により取得する場合、操作者は装用者が選択した眼鏡Fのフレームに該当するフレーム画像をデータベースの中から選択する。例えば、制御部60は、フレーム画像90aをデータベースから取り込み、上記と同様にしてフレーム画像90a上における装用者のアイポイント位置i1を計算する。また、例えば、操作者は、眼鏡マッピング情報取得装置1を用いて、装用者に提供する累進レンズのレンズ特性を測定する。例えば、制御部60は、レンズのレンズ特性を測定した結果を用いて、レンズの幾何学中心位置O(図20参照)を求めるようにしてもよい。これによって、レンズのレンズ特性を示すマッピング画像95aとともに、マッピング画像95a上におけるレンズの幾何学中心位置Oが取得される。なお、眼鏡マッピング情報取得装置1は、前述のようにマッピング画像95a上のアイポイント位置i2を求める構成であってもよい。   For example, in the case of capturing a frame image from a database and acquiring a mapping image by measurement, the operator selects a frame image corresponding to the frame of the glasses F selected by the wearer from the database. For example, the control unit 60 takes in the frame image 90a from the database, and calculates the eyepoint position i1 of the wearer on the frame image 90a in the same manner as described above. Also, for example, the operator measures the lens characteristics of the progressive lens to be provided to the wearer using the eyeglasses mapping information acquisition apparatus 1. For example, the control unit 60 may obtain the geometric center position O (see FIG. 20) of the lens using the result of measuring the lens characteristics of the lens. Thus, the geometric center position O of the lens on the mapping image 95a is acquired together with the mapping image 95a indicating the lens characteristics of the lens. The eyeglasses mapping information acquisition apparatus 1 may be configured to obtain the eye point position i2 on the mapping image 95a as described above.

図20は眼鏡画像100dの一例である。例えば、制御部60は、眼鏡Fのフレーム画像90aにおけるアイポイント位置i1と、累進レンズのマッピング画像95aにおける幾何学中心位置Oと、が一致するように、フレーム画像90aとマッピング画像95aとを重畳させる。これによって、制御部60は、装用者が新しく作製する予定の眼鏡Fにおけるレンズ特性とフレームとの位置関係を示す眼鏡画像100dを取得するようにしてもよい。   FIG. 20 shows an example of the eyeglass image 100d. For example, the control unit 60 superimposes the frame image 90a and the mapping image 95a such that the eye point position i1 in the frame image 90a of the glasses F and the geometric center position O in the mapping image 95a of the progressive lens coincide with each other. Let By this, the control unit 60 may obtain the glasses image 100d indicating the positional relationship between the lens characteristics and the frame in the glasses F scheduled to be newly manufactured by the wearer.

例えば、制御部60は、装用者が現在装用している眼鏡に対する眼鏡画像100aと、装用者が新しく作製する予定の眼鏡に対する眼鏡画像100dと、のそれぞれの眼鏡画像を取得すると、眼鏡画像100aと眼鏡画像100dとを上記と同様にして比較可能に出力する。もちろん、操作者は、ディスプレイ3をみながら移動ボタン111(図19参照)を操作し、フレーム画像90aとマッピング画像95aとの少なくともいずれか一方を移動させてもよい。例えば、これによって、眼鏡画像100dにおけるフレーム画像90aとマッピング画像95aの重畳位置が変更されるので、制御部60は、レンズ特性とフレームとの位置関係を変更したデータを出力してもよい。   For example, when the control unit 60 acquires eyeglass images of the eyeglass image 100a for the eyeglasses currently worn by the wearer and the eyeglass image 100d for the eyeglasses scheduled to be newly produced by the wearer, the control portion 60 The glasses image 100d is output in a comparable manner as described above. Of course, the operator may operate the move button 111 (see FIG. 19) while looking at the display 3 to move at least one of the frame image 90a and the mapping image 95a. For example, since the superimposed position of the frame image 90a and the mapping image 95a in the glasses image 100d is changed by this, the control unit 60 may output data in which the positional relationship between the lens characteristic and the frame is changed.

なお、例えば、マッピング画像をデータベースから取り込み、フレーム画像を測定により取得する場合であっても、マッピング画像95a上の幾何学中心位置Oまたはアイポイント位置i2と、フレーム画像90a上のアイポイント位置i1と、を用いて、これらの画像を重畳させて比較可能に出力することができる。   For example, even if the mapping image is fetched from the database and the frame image is acquired by measurement, the geometric center position O or the eye point position i2 on the mapping image 95a and the eye point position i1 on the frame image 90a And can be used to superimpose and output these images in a comparable manner.

なお、本実施例においては、フレーム画像とマッピング画像とを重畳する際に、アイポイント位置(すなわち、アイポイント位置i1及びi2)や幾何学中心位置Oを基準とし、これらを一致させる構成を例に挙げて説明したがこれに限定されない。例えば、フレーム画像とマッピング画像とを重畳させる際の基準は、フレーム画像とマッピング画像との少なくともいずれか一方を移動させた場合に、これらの画像の位置関係がどのように変化したのかを判定できればどこであってもよい。例えば、フレーム画像とマッピング画像とを重畳させる際の基準は、眼鏡Fにおけるフレームのボクシング中心位置等であってもよい。例えば、この場合には、フレーム画像上のボクシング中心位置と、マッピング画像上のアイポイント位置i2と、が一致するように重畳させる構成が挙げられる。また、例えば、この場合には、フレーム画像上のボクシング中心位置と、マッピング画像上の幾何学中心位置Oと、が一致するように重畳させる構成が挙げられる。   In the present embodiment, when superimposing a frame image and a mapping image, a configuration in which the eye point position (that is, eye point positions i1 and i2) and the geometric center position O are used as a reference However, the present invention is not limited thereto. For example, if the frame image and the mapping image are superimposed, it is possible to determine how the positional relationship between the frame image and the mapping image has changed when at least one of the frame image and the mapping image is moved. It may be anywhere. For example, the reference at the time of superposing the frame image and the mapping image may be the boxing center position of the frame in the glasses F or the like. For example, in this case, there is a configuration in which the boxing center position on the frame image and the eye point position i2 on the mapping image are superimposed so as to coincide with each other. Also, for example, in this case, there is a configuration in which the boxing center position on the frame image and the geometric center position O on the mapping image are superimposed to coincide with each other.

なお、本実施例においては、眼鏡Fのフレーム画像90を取得する際に、測定光学系10が備える受光素子16が撮影した受光画像65を用いる構成を例に挙げて説明したがこれに限定されない。例えば、眼鏡Fのフレーム画像90は、測定光学系10とは異なる眼鏡撮像用の光学系(以下、眼鏡撮影光学系と称す)を設け、これを用いて取得するようにしてもよい。例えば、眼鏡撮影光学系は、少なくともレンズと受光素子により構成され、眼鏡Fの前面(すなわち、眼鏡Fに枠入れされたレンズLEの凸面側)から眼鏡Fを撮影する。例えば、これによって、制御部60は、眼鏡Fの左リムFRLと、眼鏡Fの右リムFRRと、を撮影した1枚の画像を取得するようにしてもよい。もちろん、制御部60は、眼鏡Fの左リムFRLと、眼鏡Fの右リムFRRと、をそれぞれ撮影して、2枚の画像を取得するようにしてもよい。例えば、制御部60は、このように取得した画像を画像処理することで、眼鏡Fのフレーム画像90を取得するようにしてもよい。   In the present embodiment, when acquiring the frame image 90 of the glasses F, the configuration using the light reception image 65 captured by the light receiving element 16 included in the measurement optical system 10 has been described as an example, but the present invention is not limited thereto . For example, the frame image 90 of the glasses F may be acquired using an optical system for imaging glasses different from the measurement optical system 10 (hereinafter referred to as a glasses imaging optical system). For example, the eyeglass photographing optical system includes at least a lens and a light receiving element, and photographs the eyeglass F from the front surface of the eyeglass F (that is, the convex side of the lens LE framed in the eyeglass F). For example, with this, the control unit 60 may acquire one image obtained by photographing the left rim FRL of the glasses F and the right rim FRR of the glasses F. Of course, the control unit 60 may capture the left rim FRL of the glasses F and the right rim FRR of the glasses F to obtain two images. For example, the control unit 60 may acquire the frame image 90 of the glasses F by performing image processing on the image acquired in this manner.

例えば、眼鏡撮影光学系により取得されたフレーム画像と、測定光学系10により取得されたマッピング画像95と、を重畳させる場合には、これらの画像において基準となる基準位置を設定してもよい。例えば、このような基準位置は、装用者の瞳孔間距離と、装用者のPD高さと、に基づいて設定されてもよい。例えば、制御部60は、眼鏡撮影光学系が取得したフレーム画像に対しては、ブリッジFBの中央から左瞳孔間距離または右瞳孔間距離だけ離れた位置であり、かつリムFRの下端からPD高さだけ離れた位置を基準位置として設定する。なお、例えば、眼鏡撮影光学系により取得されたフレーム画像において、実際の瞳孔間距離やPD高さが対応する画素数は、予め実験やシミュレーション等により設定されていてもよい。   For example, in the case of superimposing the frame image acquired by the glasses photographing optical system and the mapping image 95 acquired by the measurement optical system 10, a reference position serving as a reference in these images may be set. For example, such a reference position may be set based on the pupil distance of the wearer and the PD height of the wearer. For example, with respect to a frame image acquired by the eyeglass photographing optical system, the control unit 60 is at a position separated from the center of the bridge FB by the left interpupillary distance or the right interpupillary distance and PD high from the lower end of the rim FR. The position separated by a distance is set as the reference position. For example, in the frame image acquired by the eyeglass photographing optical system, the number of pixels corresponding to the actual inter-pupil distance and the PD height may be set in advance by experiment, simulation or the like.

また、例えば、制御部60は、測定光学系10が取得したマッピング画像に対しては、マッピング画像の左右中央であり、かつリムFRの下端からPD高さだけ離れた位置を、基準位置として設定する。例えば、マッピング画像は、眼鏡支持ユニット20を瞳孔間距離に基づいて移動させた際の受光画像69から作成されているので、装用者の瞳孔位置はマッピング画像の左右中央に位置する。なお、例えば、測定光学系により取得されたマッピング画像において、実際のPD高さが対応する画素数は、予め実験やシミュレーション等により設定されていてもよい。   In addition, for example, the control unit 60 sets, for the mapping image acquired by the measurement optical system 10, a position that is at the left and right center of the mapping image and is separated by PD height from the lower end of the rim FR as a reference position Do. For example, since the mapping image is created from the light reception image 69 when the eyeglass support unit 20 is moved based on the inter-pupil distance, the pupil position of the wearer is located at the center on the left and right of the mapping image. Note that, for example, in the mapping image acquired by the measurement optical system, the number of pixels to which the actual PD height corresponds may be set in advance by experiment, simulation or the like.

例えば、制御部60は、眼鏡撮影光学系により取得されたフレーム画像と、測定光学系10により取得されたマッピング画像と、におけるそれぞれの基準位置を一致させる。また、例えば、制御部60は、眼鏡撮影光学系により取得されたフレーム画像と、測定光学系10により取得されたマッピング画像と、における眼鏡Fのフレーム像Fpの大きさが同じとなるように、それぞれの画像を拡大あるいは縮小する。例えば、制御部60は、このようにして、眼鏡撮影光学系により取得されたフレーム画像と、測定光学系10により取得されたマッピング画像と、を重畳させるようにしてもよい。   For example, the control unit 60 causes the reference positions of the frame image acquired by the eyeglass photographing optical system and the mapping image acquired by the measurement optical system 10 to coincide with each other. Also, for example, the control unit 60 may be configured such that the frame image Fp of the glasses F in the frame image acquired by the eyeglass photographing optical system and the mapping image acquired by the measurement optical system 10 have the same size. Enlarge or reduce each image. For example, the control unit 60 may superimpose the frame image acquired by the glasses photographing optical system and the mapping image acquired by the measurement optical system 10 in this manner.

なお、本実施例においては、測定部7に対して眼鏡支持ユニット20を移動させることによって、眼鏡Fと、測定光学系10と、を位置合わせする構成を例に挙げて説明したがこれに限定されない。例えば、眼鏡支持ユニット20を移動させるのではなく、測定部7を移動させることによって、眼鏡Fと測定光学系10とを位置合わせする構成としてもよい。   In the present embodiment, the configuration in which the glasses F and the measurement optical system 10 are aligned by moving the glasses supporting unit 20 with respect to the measurement unit 7 has been described as an example, but the present invention is not limited thereto. I will not. For example, instead of moving the glasses support unit 20, the glasses F and the measurement optical system 10 may be aligned by moving the measurement unit 7.

なお、本実施例においては、リムFRの上端像FRuと下端像FRdの双方を受光画像65から検出できるように、眼鏡Fと測定光学系10とを位置合わせする構成を例に挙げて説明したがこれに限定されない。例えば、リムFRの縦幅(すなわち、リムFRの上端から下端までの幅)が長い眼鏡Fであった場合には、リムFRの上端側とリムFRの下端側等、複数回に分けて受光画像を取得するようにしてもよい。   In the present embodiment, the configuration in which the glasses F and the measurement optical system 10 are aligned is described as an example so that both the upper end image FRu and the lower end image FRd of the rim FR can be detected from the received light image 65. Is not limited to this. For example, when the vertical width of the rim FR (that is, the width from the upper end to the lower end of the rim FR) is long glasses F, light reception is divided into multiple times such as the upper end side of the rim FR and the lower end side of the rim FR An image may be acquired.

また、本実施例では、受光画像65に対して、中央線66と、走査線67または走査線68の少なくともいずれかと、における輝度の立ち下がり位置を検出する構成を例に挙げて説明したがこれに限定されない。例えば、制御部60は、受光画像65に対して、所定の間隔毎に複数の走査線を設定し、走査線上における輝度の立ち下がり位置を検出してもよい。この場合には、各走査線の輝度の立ち下がりからエッジが検出され、眼鏡Fのフレーム像Fpが検出される。例えば、制御部60は、このようにして得られたフレーム像Fpから、リムFRの上端像FRu及びリムFRの下端像FRdを判定するようにしてもよい。   Further, in the present embodiment, the configuration for detecting the falling position of the luminance in the center line 66 and at least one of the scanning line 67 and the scanning line 68 has been described as an example with respect to the light reception image 65. It is not limited to. For example, the control unit 60 may set a plurality of scanning lines at predetermined intervals for the light reception image 65, and may detect the fall position of the luminance on the scanning line. In this case, the edge is detected from the fall of the luminance of each scanning line, and the frame image Fp of the glasses F is detected. For example, the control unit 60 may determine the upper end image FRu of the rim FR and the lower end image FRd of the rim FR from the frame image Fp obtained in this manner.

なお、本実施例においては、眼鏡Fにおけるフレームの内側の領域においてレンズ特性を取得する構成を例に挙げて説明したがこれに限定されない。例えば、眼鏡マッピング情報取得装置1は、必ずしも本実施例のようにフレームの内側の領域全体を測定しなくてもよい。例えば、この場合、眼鏡マッピング情報取得装置1は、少なくともレンズLEの遠用部と、累進帯と、近用部と、を含む領域のレンズ特性を取得する構成であればよい。   In addition, in a present Example, although the structure which acquires a lens characteristic in the area | region inside the flame | frame in the spectacles F was mentioned as an example, and demonstrated, it is not limited to this. For example, the eyeglasses mapping information acquisition apparatus 1 may not necessarily measure the entire area inside the frame as in the present embodiment. For example, in this case, the eyeglasses mapping information acquiring apparatus 1 may be configured to acquire lens characteristics of a region including at least the distance portion, the progressive zone, and the near portion of the lens LE.

また、本実施例においては、眼鏡Fにおけるフレームの内側の領域においてレンズ特性を測定し、マッピング画像95を取得する構成を例に挙げて説明したがこれに限定されない。例えば、眼鏡Fのフレーム像Fpにより欠けた周辺指標像、あるいは見えない周辺指標像を周囲の周辺指標像の間隔等から予測した場合には、眼鏡Fのフレーム像Fpよりも内側の領域におけるレンズ特性の他、眼鏡Fのフレーム像Fpよりも外側の領域におけるレンズ特性も取得され、等度数線96が作成される。例えば、この場合には、フレーム像Fpよりも外側の領域についてもマッピング画像95が表示された眼鏡画像100を出力してもよい。また、例えば、この場合には、画像処理等を行いフレーム像Fpよりも外側の領域におけるマッピング画像95を出力しないようにしてもよい。   Further, in the present embodiment, the lens characteristic is measured in the region inside the frame in the glasses F, and the configuration for acquiring the mapping image 95 has been described as an example, but the present invention is not limited thereto. For example, when the peripheral index image missing due to the frame image Fp of the glasses F or the invisible peripheral index image is predicted from the interval of the peripheral index images around, etc., the lens in the region inside the frame image Fp of the glasses F Apart from the characteristics, the lens characteristics in the region outside the frame image Fp of the glasses F are also acquired, and the equal power line 96 is created. For example, in this case, the glasses image 100 in which the mapping image 95 is displayed may be output also for the area outside the frame image Fp. Also, for example, in this case, image processing or the like may be performed and the mapping image 95 in the area outside the frame image Fp may not be output.

なお、例えば、本実施例においては、眼鏡マッピング情報取得装置1が、眼鏡Fのマッピング画像95を取得する構成を例に挙げたがこれに限定されない。例えば、眼鏡マッピング情報取得装置1は、別の装置が取得したマッピング画像を受信する構成であってもよいし、外部メモリに保存されたマッピング画像を読み込む等して取得する構成であってもよい。また、例えば、眼鏡マッピング情報取得装置1は、予めデータベースに蓄積された複数のマッピング画像から、該当するマッピング画像を取り込むことで、マッピング画像を取得する構成であってもよい。   Note that, for example, in the present embodiment, the glasses mapping information acquisition apparatus 1 has exemplified the configuration for acquiring the mapping image 95 of the glasses F, but the present invention is not limited to this. For example, the eyeglasses mapping information acquisition apparatus 1 may be configured to receive a mapping image acquired by another apparatus, or may be acquired by reading a mapping image stored in an external memory or the like. . Further, for example, the eyeglasses mapping information acquisition apparatus 1 may be configured to acquire a mapping image by capturing a corresponding mapping image from a plurality of mapping images stored in advance in a database.

また、例えば、本実施例においては、眼鏡マッピング情報取得装置1が、眼鏡Fのフレーム画像90を取得する構成を例に挙げたがこれに限定されない。例えば、眼鏡マッピング情報取得装置1は、別の装置を利用して取得したフレーム画像や、フレームの検出結果等を受信する構成であってもよい。また、例えば、眼鏡マッピング情報取得装置1は、外部メモリに保存されたフレーム画像やフレームの検出結果等を読み込む等して眼鏡Fのフレーム画像を取得する構成であってもよい。また、例えば、眼鏡マッピング情報取得装置1は、予めデータベースに蓄積された複数のフレーム画像から該当するフレーム画像を取り込むことで、フレーム画像を取得する構成であってもよい。この場合には、眼鏡のフレーム形状を示す情報が、フレーム画像として取得されてもよい。また、この場合には、眼鏡に枠入れされるレンズの形状を示す情報が、フレーム画像として取得されてもよい。   Also, for example, in the present embodiment, the configuration in which the eyeglasses mapping information acquisition device 1 acquires the frame image 90 of the eyeglasses F is described as an example, but the present invention is not limited thereto. For example, the eyeglasses mapping information acquisition apparatus 1 may be configured to receive a frame image acquired using another apparatus, a detection result of a frame, and the like. Furthermore, for example, the eyeglasses mapping information acquisition apparatus 1 may be configured to acquire a frame image of the eyeglasses F by reading a frame image stored in an external memory, a detection result of a frame, or the like. Also, for example, the eyeglasses mapping information acquisition apparatus 1 may be configured to acquire frame images by capturing corresponding frame images from a plurality of frame images stored in advance in a database. In this case, information indicating the frame shape of the glasses may be acquired as a frame image. In this case, information indicating the shape of the lens framed in the glasses may be acquired as a frame image.

なお、例えば、本実施例においては、複数のマッピング画像が蓄積されたデータベースが、眼鏡マッピング情報取得装置1が備えるメモリ61に格納されていてもよいし、別の装置が備えるメモリ(例えば、パーソナルコンピュータのサーバ等)に格納されていてもよい。同様に、本実施例においては、複数のフレーム画像が蓄積されたデータベースが、眼鏡マッピング情報取得装置1が備えるメモリ61に格納されていてもよいし、別の装置が備えるメモリに格納されていてもよい。   For example, in the present embodiment, a database in which a plurality of mapping images are stored may be stored in the memory 61 included in the eyeglasses mapping information acquisition device 1 or a memory included in another device (for example, personal It may be stored in a computer server or the like. Similarly, in the present embodiment, a database in which a plurality of frame images are accumulated may be stored in the memory 61 provided in the eyeglasses mapping information acquisition device 1 or in the memory provided in another device. It is also good.

なお、例えば、本実施例における眼鏡マッピング情報取得装置1は、該当するマッピング画像をマッピング画像データベースから選択するための選択手段を備えていてもよい。また、例えば、本実施例における眼鏡マッピング情報取得装置1は、該当するフレーム画像をフレーム画像データベースから選択するための選択手段を備えていてもよい。   In addition, for example, the eyeglasses mapping information acquisition apparatus 1 in the present embodiment may include a selection unit for selecting a corresponding mapping image from the mapping image database. Also, for example, the eyeglasses mapping information acquisition apparatus 1 in the present embodiment may be provided with selection means for selecting a corresponding frame image from the frame image database.

例えば、このような選択手段は操作部であってもよい。この場合、操作部(例えば、本実施例においてはディスプレイ3)が操作されることにより、データベースから該当するマッピング画像あるいはフレーム画像が選択されてもよい。例えば、制御部60は、選択された選択信号に基づいて、マッピング画像データベースから該当するマッピング画像を呼び出し、これを取得するようにしてもよい。また、例えば、制御部60は、選択された選択信号に基づいて、フレーム画像データベースから該当するフレーム画像を呼び出し、これを取得するようにしてもよい。   For example, such selection means may be an operation unit. In this case, the corresponding mapping image or frame image may be selected from the database by operating the operation unit (for example, the display 3 in the present embodiment). For example, the control unit 60 may call a corresponding mapping image from the mapping image database based on the selected selection signal, and acquire this. Also, for example, the control unit 60 may call a corresponding frame image from the frame image database based on the selected selection signal, and acquire this.

また、例えば、このような選択手段は、一次元コード(例えば、バーコード等)や二次元コード(例えば、QRコード(登録商標)等)であってもよい。この場合、一次元コードや二次元コードを読み取ることで、データベースから該当するマッピング画像あるいはフレーム画像が選択されてもよい。例えば、制御部60は、選択された選択信号に基づいて、コード毎に対応付けられたマッピング画像をマッピング画像データベースから呼び出して受信することによって、該当するマッピング画像を取得してもよい。また、例えば、制御部60は、選択された選択信号に基づいて、コード毎に対応付けられたフレーム画像をフレーム画像データベースから呼び出し、その信号を受信することによって、該当するフレーム画像を取得してもよい。   Also, for example, such selection means may be a one-dimensional code (for example, a barcode or the like) or a two-dimensional code (for example, a QR code (registered trademark) or the like). In this case, the corresponding mapping image or frame image may be selected from the database by reading the one-dimensional code or the two-dimensional code. For example, the control unit 60 may obtain a corresponding mapping image by calling and receiving a mapping image associated with each code from the mapping image database based on the selected selection signal. Also, for example, based on the selected selection signal, the control unit 60 calls a frame image associated with each code from the frame image database, receives the signal, and acquires the corresponding frame image. It is also good.

なお、本実施例においては、マッピング画像とフレーム画像とを関連付けた眼鏡画像として、マッピング画像95とフレーム画像90とを重畳した眼鏡画像100を取得する構成を例に挙げて説明したがこれに限定されない。例えば、眼鏡画像100としては、マッピング画像95とフレーム画像90との位置関係を関連付けたものであればよい。例えば、この場合、眼鏡画像100としては、眼鏡Fのフレームやレンズ特性に関する位置を示すようにしてもよい。   In the present embodiment, as the glasses image in which the mapping image and the frame image are associated, the configuration for acquiring the glasses image 100 in which the mapping image 95 and the frame image 90 are superimposed has been described as an example. I will not. For example, as the eyeglass image 100, any image may be used as long as the positional relationship between the mapping image 95 and the frame image 90 is associated. For example, in this case, the glasses image 100 may indicate the position of the frame of the glasses F and the lens characteristics.

なお、本実施例においては、ディスプレイ3に複数の眼鏡画像100を表示する構成を例に挙げて説明したがこれに限定されない。例えば、眼鏡マッピング情報取得装置1は、ディスプレイ3に1つの眼鏡画像100を表示する構成であってもよい。この場合には、操作ボタン4等を用いてディスプレイ3の表示画面を切り換えることで、複数の眼鏡画像を比較可能としてもよい。もちろん、眼鏡画像100が所定の枚数を超える場合等には、眼鏡画像100の並列表示と、表示画面の切り換えと、をどちらも行うようにしてもよい。   In addition, in a present Example, although the structure which displays the several spectacles image 100 on the display 3 was mentioned as an example and demonstrated, it is not limited to this. For example, the eyeglasses mapping information acquisition device 1 may be configured to display one eyeglass image 100 on the display 3. In this case, by switching the display screen of the display 3 using the operation button 4 or the like, a plurality of glasses images may be made comparable. Of course, when the number of glasses images 100 exceeds a predetermined number, etc., both the parallel display of the glasses images 100 and the switching of the display screen may be performed.

なお、本実施例においては、眼鏡マッピング情報取得装置1が備えるディスプレイ3を用いて、眼鏡画像100を比較可能に表示する構成を例に挙げて説明したがこれに限定されない。例えば、眼鏡画像100は、眼鏡マッピング情報取得装置1とは異なる別の装置や携帯端末(例えば、タブレット端末等)等を用いることによって比較可能に表示されてもよい。   In addition, in a present Example, although the structure which displays the spectacles image 100 comparably was mentioned as an example and demonstrated using the display 3 with which the spectacles mapping information acquisition apparatus 1 is equipped, it is not limited to this. For example, the glasses image 100 may be displayed comparably by using another device different from the glasses mapping information acquisition device 1 or a portable terminal (for example, a tablet terminal).

また、本実施例においては、複数の眼鏡画像を並列に出力する方法として、ディスプレイ3への表示を例に挙げて説明したがこれに限定されない。例えば、複数の眼鏡画像を並列に出力する方法がプリンタ等を用いた印刷の場合には、1枚の用紙に並べて印刷するようにしてもよい。   Moreover, in the present embodiment, as a method of outputting a plurality of glasses images in parallel, the display on the display 3 has been described as an example, but the present invention is not limited to this. For example, when the method of outputting a plurality of glasses images in parallel is printing using a printer or the like, printing may be performed side by side on one sheet of paper.

なお、本実施例においては、比較画像110に眼鏡Fの左リムFRLの眼鏡画像100を複数表示する構成を例に挙げて説明したがこれに限定されない。例えば、比較画像110は、眼鏡Fの右リムFRRの眼鏡画像100を複数表示する構成であってもよい。もちろん、比較画像110は、眼鏡Fの左リムFRLの眼鏡画像100と、眼鏡Fの右リムFRRの眼鏡画像100と、をどちらも表示するようにしてもよい。   In addition, in a present Example, although the structure which displays two or more spectacles images 100 of left rim FRL of spectacles F on the comparison image 110 was mentioned as an example, and demonstrated, it is not limited to this. For example, the comparison image 110 may be configured to display a plurality of eyeglass images 100 of the right rim FRR of the eyeglasses F. Of course, the comparative image 110 may display both the glasses image 100 of the left rim FRL of the glasses F and the glasses image 100 of the right rim FRR of the glasses F.

1 眼鏡マッピング情報取得装置
3 ディスプレイ
6 当接ピン
10 測定光学系
14 スクリーン
16 受光素子
20 眼鏡支持ユニット
30 駆動部
60 制御部
61 メモリ
70 測定指標
80 測定指標像
90 フレーム画像
95 マッピング画像
100 眼鏡画像
110 比較画像
DESCRIPTION OF SYMBOLS 1 eyeglass mapping information acquisition apparatus 3 display 6 abutment pin 10 measurement optical system 14 screen 16 light receiving element 20 eyeglass support unit 30 drive unit 60 control unit 61 memory 70 measurement index 80 measurement index image 90 frame image 95 mapping image 100 eyeglass image 110 Comparison image

Claims (9)

眼鏡マッピング情報取得装置であって、
レンズの各部位のレンズ特性を示すマッピング画像を取得するマッピング画像取得手段と、
眼鏡のフレームのフレーム画像を取得するフレーム画像取得手段と、
前記マッピング画像と前記フレーム画像とを関連付けし、前記マッピング画像と前記フレーム画像とを関連付けた眼鏡画像を取得する処理手段と、
前記処理手段によって取得される複数の眼鏡画像であって、レンズ特性と、フレームと、マッピング画像とフレーム画像との位置関係と、の少なくともいずれかが異なる前記複数の眼鏡画像を比較可能に出力する制御手段と、
を備えることを特徴とする眼鏡マッピング情報取得装置。
An eyeglass mapping information acquisition device,
Mapping image acquisition means for acquiring a mapping image indicating lens characteristics of each part of the lens;
Frame image acquisition means for acquiring a frame image of a frame of glasses;
Processing means for associating the mapping image with the frame image and acquiring an eyeglass image in which the mapping image and the frame image are associated;
It is a plurality of glasses images acquired by the processing means, and the plurality of glasses images different in at least one of a lens characteristic, a frame, and a positional relationship between a mapping image and a frame image are output so as to be comparable. Control means,
An eyeglasses mapping information acquisition apparatus comprising:
請求項1の眼鏡マッピング情報取得装置において、
前記処理手段は、前記マッピング画像と前記フレーム画像とを重畳した眼鏡画像を取得することを特徴とする眼鏡マッピング情報取得装置。
In the glasses mapping information acquisition device according to claim 1,
The said processing means acquires the spectacles image which superimposed the said mapping image and the said frame image, The spectacles mapping information acquisition apparatus characterized by the above-mentioned.
請求項1又は2の眼鏡マッピング情報取得装置において、
前記制御手段は、前記複数の眼鏡画像を並列して出力することを特徴とする眼鏡マッピング情報取得装置。
In the glasses mapping information acquisition device according to claim 1 or 2,
An eyeglass mapping information acquiring apparatus, wherein the control means outputs the plurality of eyeglass images in parallel.
請求項1〜3のいずれかの眼鏡マッピング情報取得装置において、
前記制御手段は、前記複数の眼鏡画像を表示手段に比較可能に表示することを特徴とする眼鏡マッピング情報取得装置。
In the glasses mapping information acquisition device according to any one of claims 1 to 3,
The eyeglass mapping information acquiring apparatus, wherein the control means displays the plurality of eyeglass images comparably on display means.
請求項1〜4のいずれかの眼鏡マッピング情報取得装置において、
装用者のアイポイントデータを取得するアイポイントデータ取得手段と、
前記処理手段は、前記アイポイントデータに基づく標識マークを前記複数の眼鏡画像における少なくとも1つの眼鏡画像に重畳させ、
前記制御手段は、前記複数の眼鏡画像を比較可能に出力するとともに、前記複数の眼鏡画像における少なくとも1つの眼鏡画像に重畳された前記標識マークを前記複数の眼鏡画像とともに出力することを特徴とする眼鏡マッピング情報取得装置。
In the glasses mapping information acquisition apparatus according to any one of claims 1 to 4,
Eye point data acquisition means for acquiring the eye point data of the wearer;
The processing means superimposes a marker mark based on the eye point data on at least one eyeglass image in the plurality of eyeglass images;
The control means outputs the plurality of eyeglasses images comparably and outputs the marker mark superimposed on at least one eyeglass image in the plurality of eyeglasses images together with the plurality of eyeglasses images. Glasses mapping information acquisition device.
請求項1〜5のいずれかの眼鏡マッピング装置において、
前記マッピング画像取得手段は、前記マッピング画像が予め蓄積されたマッピング画像データベースから、該当するマッピング画像を取得し、
前記フレーム画像取得手段は、前記フレーム画像が予め蓄積されたフレーム画像データベースから、該当するフレーム画像を取得することを特徴とする眼鏡マッピング情報取得装置。
In the glasses mapping device according to any one of claims 1 to 5,
The mapping image acquisition unit acquires a corresponding mapping image from a mapping image database in which the mapping image is stored in advance.
The eyeglass mapping information acquiring apparatus, wherein the frame image acquiring means acquires a corresponding frame image from a frame image database in which the frame image is accumulated in advance.
請求項1〜6のいずれかの眼鏡マッピング装置は、
前記該当するマッピング画像を前記マッピング画像データベースから選択するための選択手段であって、
前記該当するフレーム画像を前記フレーム画像データベースから選択するための選択手段を備えることを特徴とする眼鏡マッピング情報取得装置。
The glasses mapping apparatus according to any one of claims 1 to 6,
Selecting means for selecting the corresponding mapping image from the mapping image database,
An eyeglasses mapping information acquisition apparatus comprising: selection means for selecting the corresponding frame image from the frame image database.
眼鏡マッピング情報取得方法であって、
レンズの各部位のレンズ特性を示すマッピング画像を取得するマッピング画像取得ステップと、
眼鏡のフレームのフレーム画像を取得するフレーム画像取得ステップと、
前記マッピング画像と前記フレーム画像とを関連付けし、前記マッピング画像と前記フレーム画像とを関連付けた眼鏡画像を取得する処理ステップと、
前記処理ステップによって取得される複数の眼鏡画像であって、レンズ特性と、フレームと、マッピング画像とフレーム画像との位置関係と、の少なくともいずれかが異なる前記複数の眼鏡画像を比較可能に出力する制御ステップと、
を備えることを特徴とする眼鏡マッピング情報取得方法。
It is a glasses mapping information acquisition method, and
A mapping image acquisition step of acquiring a mapping image indicating lens characteristics of each part of the lens;
A frame image acquisition step of acquiring a frame image of an eyeglass frame;
A processing step of associating the mapping image with the frame image and acquiring an eyeglass image in which the mapping image and the frame image are associated;
A plurality of glasses images acquired by the processing step, wherein the plurality of glasses images different in at least one of a lens characteristic, a frame, and a positional relationship between a mapping image and a frame image are output so as to be compared Control step,
The eyeglasses mapping information acquisition method characterized by including.
眼鏡マッピング情報取得装置において実行される眼鏡マッピング情報取得プログラムであって、
レンズの各部位のレンズ特性を示すマッピング画像を取得するマッピング画像取得ステップと、
眼鏡のフレームのフレーム画像を取得するフレーム画像取得ステップと、
前記マッピング画像と前記フレーム画像とを関連付けし、前記マッピング画像と前記フレーム画像とを関連付けた眼鏡画像を取得する処理ステップと、
前記処理ステップによって取得される複数の眼鏡画像であって、レンズ特性と、フレームと、マッピング画像とフレーム画像との位置関係と、の少なくともいずれかが異なる前記複数の眼鏡画像を比較可能に出力する制御ステップと、
を前記眼鏡マッピング情報取得装置に実行させることを特徴とする眼鏡マッピング情報取得プログラム。
An eyeglass mapping information acquisition program executed in an eyeglass mapping information acquisition apparatus, comprising:
A mapping image acquisition step of acquiring a mapping image indicating lens characteristics of each part of the lens;
A frame image acquisition step of acquiring a frame image of an eyeglass frame;
A processing step of associating the mapping image with the frame image and acquiring an eyeglass image in which the mapping image and the frame image are associated;
A plurality of glasses images acquired by the processing step, wherein the plurality of glasses images different in at least one of a lens characteristic, a frame, and a positional relationship between a mapping image and a frame image are output so as to be compared Control step,
The eyeglasses mapping information acquisition program characterized by the above-mentioned.
JP2017168125A 2017-09-01 2017-09-01 Spectacle mapping information acquisition device, spectacle mapping information acquisition method, and spectacle mapping information acquisition program Pending JP2019045660A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017168125A JP2019045660A (en) 2017-09-01 2017-09-01 Spectacle mapping information acquisition device, spectacle mapping information acquisition method, and spectacle mapping information acquisition program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017168125A JP2019045660A (en) 2017-09-01 2017-09-01 Spectacle mapping information acquisition device, spectacle mapping information acquisition method, and spectacle mapping information acquisition program

Publications (2)

Publication Number Publication Date
JP2019045660A true JP2019045660A (en) 2019-03-22
JP2019045660A5 JP2019045660A5 (en) 2020-09-24

Family

ID=65814270

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017168125A Pending JP2019045660A (en) 2017-09-01 2017-09-01 Spectacle mapping information acquisition device, spectacle mapping information acquisition method, and spectacle mapping information acquisition program

Country Status (1)

Country Link
JP (1) JP2019045660A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6715528B1 (en) * 2019-08-30 2020-07-01 株式会社レクザム Lens optical property measuring device, eyewear wearing condition simulation device, eyewear wearing condition simulation system, lens optical property measuring method, eyewear wearing condition simulation method, program, and recording medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997025647A1 (en) * 1996-01-10 1997-07-17 Kabushiki Kaisha Topcon Layout judgement apparatus and layout judgement system
JP2000047155A (en) * 1998-07-28 2000-02-18 Seiko Epson Corp Device and method for experiencing visual field of spectacles and record medium
JP2001331550A (en) * 2000-03-17 2001-11-30 Topcon Corp Spectacle frame selection system
JP2002122828A (en) * 2000-10-17 2002-04-26 Hoya Corp Evaluation method and evaluation device for ocular optical lens, and memory medium
JP2006105868A (en) * 2004-10-07 2006-04-20 Topcon Corp Lens meter

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997025647A1 (en) * 1996-01-10 1997-07-17 Kabushiki Kaisha Topcon Layout judgement apparatus and layout judgement system
JP2000047155A (en) * 1998-07-28 2000-02-18 Seiko Epson Corp Device and method for experiencing visual field of spectacles and record medium
JP2001331550A (en) * 2000-03-17 2001-11-30 Topcon Corp Spectacle frame selection system
JP2002122828A (en) * 2000-10-17 2002-04-26 Hoya Corp Evaluation method and evaluation device for ocular optical lens, and memory medium
JP2006105868A (en) * 2004-10-07 2006-04-20 Topcon Corp Lens meter

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6715528B1 (en) * 2019-08-30 2020-07-01 株式会社レクザム Lens optical property measuring device, eyewear wearing condition simulation device, eyewear wearing condition simulation system, lens optical property measuring method, eyewear wearing condition simulation method, program, and recording medium
WO2021038857A1 (en) * 2019-08-30 2021-03-04 株式会社レクザム Lens optical characteristic measuring device, glasses wearing simulation device, glasses wearing simulation system, lens optical characteristic measuring method, glasses wearing simulation method, program, and recording medium

Similar Documents

Publication Publication Date Title
CN210166824U (en) Wearable device
JP5949319B2 (en) Gaze detection apparatus and gaze detection method
US20180373327A1 (en) System and method for selective scanning on a binocular augmented reality device
JP6123694B2 (en) Information processing apparatus, information processing method, and program
JP6515542B2 (en) Glasses-wearing image analysis apparatus, glasses-wearing image analysis method, and glasses-wearing image analysis program
CN102749039A (en) Shape measurement device
JP5289962B2 (en) Vision correction support system
US10509462B2 (en) Method and system for identifying feature of object
JP2012239566A (en) Measuring apparatus for glasses, and three-dimensional measuring apparatus
JP2017533469A (en) Apparatus and method for determining optical parameters
CN110119258A (en) A kind of display screen and optical system position measurement and method of adjustment and system
US20200133022A1 (en) Method for designing eyeglass lens, method for manufacturing eyeglass lens, eyeglass lens, eyeglass lens ordering device, eyeglass lens order receiving device, and eyeglass lens ordering and order receiving system
JP2019045660A (en) Spectacle mapping information acquisition device, spectacle mapping information acquisition method, and spectacle mapping information acquisition program
WO2014061294A1 (en) Method for measuring pupil position and method for manufacturing bifocal lens
JP6885764B2 (en) Lens meter
JP7121172B2 (en) lens meter
JP2015066046A (en) Spectacles-wearing image analysis apparatus and spectacles-wearing image analysis program
JP2006105868A (en) Lens meter
JP2015064700A (en) Spectacle wearing parameter measuring apparatus, spectacle wearing parameter measurement program and position designation method
JP7329427B2 (en) lens meter
JP6885762B2 (en) Lens meter
JP2017181657A (en) Eyeglasses wearing image analyzer, eyeglasses wearing image analysis method, and eyeglasses wearing image analysis program
JP7373378B2 (en) lens measuring device
JP2011064579A (en) Three-dimensional measuring system and three-dimensional measuring method
JP6488704B2 (en) Filling system and filling method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200729

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200729

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210803

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20211001

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220222