JP3939903B2 - Eyeglass lens alignment method and layout block device - Google Patents

Eyeglass lens alignment method and layout block device Download PDF

Info

Publication number
JP3939903B2
JP3939903B2 JP2000188346A JP2000188346A JP3939903B2 JP 3939903 B2 JP3939903 B2 JP 3939903B2 JP 2000188346 A JP2000188346 A JP 2000188346A JP 2000188346 A JP2000188346 A JP 2000188346A JP 3939903 B2 JP3939903 B2 JP 3939903B2
Authority
JP
Japan
Prior art keywords
lens
image
processed
processing
eyeglass
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000188346A
Other languages
Japanese (ja)
Other versions
JP2002001639A (en
Inventor
寿郎 依田
紀久 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hoya Corp
Original Assignee
Hoya Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hoya Corp filed Critical Hoya Corp
Priority to JP2000188346A priority Critical patent/JP3939903B2/en
Priority to US09/888,284 priority patent/US6671039B2/en
Priority to DE60136888T priority patent/DE60136888D1/en
Priority to AT01115197T priority patent/ATE417255T1/en
Priority to DE60131580T priority patent/DE60131580T2/en
Priority to EP01115197A priority patent/EP1167942B1/en
Priority to DE60141925T priority patent/DE60141925D1/en
Priority to EP06117805A priority patent/EP1719996B1/en
Priority to AT06117812T priority patent/ATE465399T1/en
Priority to AU54020/01A priority patent/AU779768B2/en
Priority to EP06117812A priority patent/EP1717569B1/en
Publication of JP2002001639A publication Critical patent/JP2002001639A/en
Application granted granted Critical
Publication of JP3939903B2 publication Critical patent/JP3939903B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、眼鏡レンズの位置合わせ技術に係り、特に近用の小玉が形成された二重焦点レンズ等の眼鏡レンズの加工中心位置を求め、この加工中心位置に加工治具を取り付ける眼鏡レンズの位置合わせ方法及びレイアウト・ブロック装置に関するものである。
【0002】
【従来の技術】
未加工の眼鏡レンズを装用者の所望する眼鏡フレームに装着する場合、その眼鏡フレームの形状に合わせて眼鏡レンズの縁摺り加工を行う。その際、装用者の瞳孔中心と眼鏡レンズのアイポイントとが一致するように、眼鏡レンズのアイポイントを加工中心として加工する。眼鏡レンズのアイポイントをレンズ表面に直接表示することはできないため、眼鏡レンズ、特に二重焦点レンズの設計においては、近用の小玉の形状からレンズの幾何学中心やアイポイントの位置等を導き出せるようにしている。
【0003】
図7(a)に未加工の二重焦点レンズの平面図を示し、図7(b)に側面図を示す。100はプラスティック製の二重焦点レンズ、101は幾何学中心、102は幾何学中心101を通る水平基準線、103は台玉、104は小玉、105は遠用度数測定部の中心、106は近用度数測定部の中心、107はアイポイントである。
【0004】
プラスティック製レンズの場合、小玉104は側面から見た形状がくさび形となるよう台玉103の表面に形成されており、その上縁108が水平基準線102の下方に所定距離d1(例えば5mm)だけ離れるように形成されている。左眼用レンズの場合、小玉104は、近用度数測定部の中心106が幾何学中心101から左方に距離d2(例えば5mm)だけずれるように形成されている。したがって、小玉104が左右のいずれに偏って形成されているかを知ることにより、左眼用レンズであるか右眼用レンズであるかを識別することができる。
【0005】
アイポイント107の位置は、水平基準線102上で幾何学中心101から距離d3(例えば2.5mm)だけ小玉104側にずれた位置に決められている。したがって、小玉104の上縁108の中央を見つけ出すことにより、幾何学中心101やアイポイント107の位置を求めることができる。小玉104の輪郭形状からアイポイント107の位置を探す場合、二重焦点レンズ100をリマークチャートと呼ばれる二重焦点レンズ用のシートの上に載置する。リマークチャートは、小玉、幾何学中心、遠用度数測定部の中心、近用度数測定部の中心及びアイポイントの各位置が記載された実物大の二重焦点レンズをレンズの種類毎に表示したものである。
【0006】
二重焦点レンズ100をリマークチャート上に載置する際には、このレンズ100の小玉104の位置とリマークチャート上に記載された同種のレンズの小玉の位置とを一致させた上で、リマークチャートに記載されたアイポイントの位置をアイポイント107の位置として、二重焦点レンズ100の同位置にマーカーによって印を付ける。そして、この二重焦点レンズ100のアイポイント107の位置に加工治具(レンズホルダ)を装着し、装用者の瞳孔中心と二重焦点レンズ100のアイポイント107とが一致するようにアイポイント107を加工中心として二重焦点レンズ100を縁摺り加工し、レンズ100の外形形状を眼鏡フレームの枠形状と一致させる。
【0007】
また、小玉104の輪郭形状からアイポイント107の位置を探す別の方法として、特開平6−79600号公報で開示された眼鏡レンズの位置合わせ装置が知られている。この位置合わせ装置は、加工対象の二重焦点レンズ100をビデオカメラで撮影して、撮影した二重焦点レンズ100の小玉104の輪郭画像をテレビモニタの画面に表示させると共に、予め記憶している二重焦点レンズ100の加工情報から小玉104の輪郭画像データを算出して、算出した輪郭画像を基準画像としてテレビモニタの画面上の基準位置に表示させるようにしたものである。
【0008】
作業者は、テレビモニタの画面に映し出された小玉104の輪郭線の実画像と基準画像とが重なり合うように、二重焦点レンズ100を載置しているスライドテーブルを移動させて二重焦点レンズ100を本来あるべき位置に位置決めする。位置決め後、マーキング装置のパッド印刷機が加工基準線に相当する十字マークを二重焦点レンズ100の所定の位置に転写する。このように、特開平6−79600号公報で開示された位置合わせ装置は、リマークチャートの代わりに、テレビモニタの画面を見ながら二重焦点レンズ100の位置合わせを行うものである。
【0009】
【発明が解決しようとする課題】
しかしながら、上記のリマークチャートを用いる方法では、作業者が手作業で行うために、非能率的で作業者の負担が大きく、また二重焦点レンズ100とレンズホルダの位置合わせの誤差が大きいという問題点があった。
また、特開平6−79600号公報で開示された位置合わせ装置では、作業者が二重焦点レンズ100にマーキングする手間を省くことができるが、二重焦点レンズ100の位置決めは作業者がテレビモニタの画面を見ながら手作業で行う必要があるので、リマークチャートの場合と同様に作業者の負担が大きいという問題点があった。
【0010】
本発明は、上記課題を解決するためになされたもので、二重焦点レンズとレンズホルダの高精度の位置合わせを、従来よりも能率良く短時間に行うことができる眼鏡レンズの位置合わせ方法及びレイアウト・ブロック装置を提供することを目的とする。
【0011】
【課題を解決するための手段】
本発明の眼鏡レンズの位置合わせ方法は、加工対象の眼鏡レンズ(100)の画像を撮影して2値化する手順と、2値化画像に含まれる個々の図形の幾何学的な特徴パラメータを抽出して、この特徴パラメータが所定の条件に合う図形を前記加工対象の眼鏡レンズに予め形成された小玉(104)の上縁の画像(ST)として抽出する手順と、抽出した小玉の上縁の中央の位置を前記加工対象の眼鏡レンズの基準位置として2値画像上で求める手順と、前記小玉の上縁を含む最小の長方形を前記2値画像上で求め、この長方形の位置に基づいて、水平基準線に対する前記加工対象の眼鏡レンズの角度ずれを求める手順と、予め眼鏡レンズ毎に用意された、基準位置と加工中心位置との位置関係を表すレイアウトデータのうち、前記加工対象の眼鏡レンズに対応するレイアウトデータを前記角度ずれに応じて角度補正して、角度補正後のレイアウトデータと前記加工対象の眼鏡レンズの基準位置に基づいて前記加工対象の眼鏡レンズの加工中心位置を求める手順とを有するものである。眼鏡レンズの小玉の上縁と基準位置との間には全ての眼鏡レンズに共通の位置的規定があるので、眼鏡レンズの小玉の上縁を画像処理で検出すれば、眼鏡レンズの基準位置を求めることができる。基準位置と加工中心位置との関係は眼鏡レンズ毎に異なり、レンズ毎のレイアウトデータを用いて加工中心位置を計算する。また、小玉の上縁を含む最小の長方形を求めることにより、この長方形と眼鏡レンズの正規の位置を示す水平基準線(102)とのなす角を求めることができ、角度補正を行った上で眼鏡レンズの加工中心位置を求めることができる。
また、本発明の眼鏡レンズの位置合わせ方法の1構成例は、台玉(103)と小玉(104)の境界に段差が存在する眼鏡レンズに対して一方の面側から照明光を照射して、他方の面側から眼鏡レンズの画像を撮影することにより、小玉の輪郭のうち上縁のみの画像を得るようにしたものである。小玉の全体の輪郭に基づいて眼鏡レンズの基準位置や角度ずれを画像処理で検出しようとすると、処理が複雑となり、検出精度も不確かとなる。小玉の上縁のみの画像を得ることにより、眼鏡レンズの基準位置や角度ずれを画像処理で検出することが容易となる。
【0012】
また、本発明の眼鏡レンズの位置合わせ方法の1構成例は、2値画像を小玉の上縁が水平となるよう角度ずれに応じて回転させ、回転処理後の2値画像における小玉の上縁の位置に基づいて、眼鏡レンズが右眼用、左眼用のいずれのレンズであるかを判定するようにしたものである。眼鏡レンズに角度ずれが存在すると、左右判定に誤りが生じるが、2値化画像を回転させることにより、左右判定を正しく行うことができる。
また、本発明の眼鏡レンズの位置合わせ方法の1構成例は、小玉の上縁を含む最小の長方形を2値画像上で求め、この長方形の中心位置と小玉の上縁の重心位置とに基づいて眼鏡レンズの上下を判定するようにしたものである。眼鏡レンズの上下が逆の状態でレイアウト・ブロック装置に供給された場合、重心(D)は中心(C)より下側にある。これにより、眼鏡レンズの上下を判定することができる。
また、本発明の眼鏡レンズの位置合わせ方法の1構成例は、さらに、前記加工対象の眼鏡レンズに係る画像処理の経過時間が所定時間を超えている場合に、前記加工対象の眼鏡レンズをレイアウト・ブロック装置から排出する手順を有するものである。
【0013】
また、本発明は、加工対象の眼鏡レンズの画像を撮影する撮影手段(5)と、前記画像を処理する画像処理手段(6)と、前記眼鏡レンズの加工中心位置を求める演算手段(9)と、この加工中心位置に加工治具を取り付ける機構とを有する眼鏡レンズのレイアウト・ブロック装置であって、前記画像処理手段は、前記撮影手段によって撮影された画像を2値化して、2値化画像に含まれる個々の図形の幾何学的な特徴パラメータを抽出して、この特徴パラメータが所定の条件に合う図形を前記眼鏡レンズに予め形成された小玉の上縁の画像として抽出し、抽出した小玉の上縁の中央の位置を前記加工対象の眼鏡レンズの基準位置として前記2値画像上で求め、前記小玉の上縁を含む最小の長方形を前記2値画像上で求め、この長方形の位置に基づいて、水平基準線に対する前記加工対象の眼鏡レンズの角度ずれを求め、前記演算手段は、基準位置と加工中心位置との位置関係を表すレイアウトデータを眼鏡レンズ毎に予め記憶し、前記加工対象の眼鏡レンズに対応するレイアウトデータを前記角度ずれに応じて角度補正して、角度補正後のレイアウトデータと前記加工対象の眼鏡レンズの基準位置に基づいて前記加工対象の眼鏡レンズの加工中心位置を求めるものである。
また、本発明の眼鏡レンズのレイアウト・ブロック装置は、さらに、エラーの発生時に前記加工対象の眼鏡レンズを排出する制御手段を有し、前記画像処理手段は、前記加工対象の眼鏡レンズに係る画像処理の経過時間が所定時間を超えている場合に、画像処理不可エラーを前記制御手段に通知し、前記制御手段は、前記画像処理不可エラーの通知を受けたときに、前記加工対象の眼鏡レンズをレイアウト・ブロック装置から排出するものである
【0014】
【発明の実施の形態】
次に、本発明の実施の形態について図面を参照して詳細に説明する。図1は本発明の実施の形態となる二重焦点レンズ用レイアウト・ブロック装置の構成を示すブロック図である。本実施の形態の二重焦点レンズ用レイアウト・ブロック装置は、縁摺り加工装置(不図示)に隣接して設置されるもので、二重焦点レンズ100を撮像して、撮像した画像を基に二重焦点レンズ100の左右を判定すると同時に、二重焦点レンズ100に取り付ける加工治具(以下、レンズホルダと呼ぶ)の取り付け位置及び取り付け角度を算出するレイアウト処理と、レンズホルダを二重焦点レンズ100の加工中心に取り付けるブロック処理とを行い、レンズホルダが取り付けられた後の二重焦点レンズ100を縁摺り加工装置に搬送するものである。
【0015】
このレイアウト・ブロック装置は、レンズホルダを1つずつ供給するホルダ供給装置1と、後述する弾性シールを1つずつ供給するシール供給装置2と、加工対象の二重焦点レンズ100を1つずつ供給するレンズ供給装置3と、ホルダ供給装置1から供給されたレンズホルダを二重焦点レンズ100の加工中心に取り付けるホルダ保持装置4と、レンズ供給装置3から供給された二重焦点レンズ100を撮影する撮影手段となるレンズメータ5と、レンズメータ5によって撮影された画像を基に二重焦点レンズ100の左右を判定してレンズホルダの取り付け位置及び取り付け角度を算出する画像処理装置6と、レンズホルダが取り付けられた後の二重焦点レンズ100を縁摺り加工装置に搬送するレンズ搬送装置7と、レイアウト・ブロック装置全体を制御する制御装置8と、レイアウト・ブロック装置及び縁摺り加工装置を制御する演算手段となるホストコンピュータ9とを備えている。
【0016】
図2は、画像処理装置6による画像処理の結果に基づいて二重焦点レンズ100に弾性シールを介してレンズホルダを取り付けた状態を示す側面図である。ステンレス等の金属からなるレンズホルダ200は、鍔付の筒状体に成形されている。このレンズホルダ200において弾性シール201が貼り付けられる面(ホルダ200の下面)は、二重焦点レンズ100の凸側レンズ面に対応した凹球面状のレンズ保持面となっている。
【0017】
この場合、レンズ毎にその凸面カーブに応じたレンズ保持面を形成すると、レンズホルダ200自体の種類が増加するため、レンズ保持面の曲率半径を段階的に異ならせることにより、レンズホルダ200の種類を少なくし、1種類のレンズホルダ200で凸面カーブの異なる何種類かの二重焦点レンズ100を保持できるようにしている。
【0018】
弾性シール201は、厚さが0.5〜0.6mm程度の薄いゴムによって、外径がレンズホルダ200のレンズ保持面の外径より大きく(22mmφ程度)、内径がレンズホルダ200の穴径より小さい(8mm程度)リング状に成形され、両面に粘着剤が塗布されたものが用いられる。
【0019】
図3はレンズメータ5の構成を示すブロック図である。レンズメータ5は、二重焦点レンズ100を照らす光源31と、光源31からの照明光が照射される回転スクリーン32と、この回転スクリーン32を回転させるモータ33と、結像レンズ34と、二重焦点レンズ100を吸着固定するレンズ保持装置35と、回転スクリーン32によって反射された照明光を集光して二重焦点レンズ100に照射する集光レンズ36,37と、二重焦点レンズ100を通過した光を反射させるミラー38と、ミラー38からの反射光を取り込むCCDカメラ等の撮像装置39と、撮像装置39の焦点を補正するためのピント補正用レンズ40とを有している。
【0020】
二重焦点レンズ100の撮影に用いられる光源31としては、小玉104の撮影を良好に行い得るように発光スペクトル幅の狭い光、例えば赤色光のLEDが用いられる。この光源31は、結像レンズ34の周囲に等間隔をおいて例えば8個配設されている。
【0021】
回転スクリーン32には、反射率を高めるために表面にガラス、アルミニウム等の微細な粉を塗布した反射シートが貼着されている。また、表面の明るさを均一化するため、回転スクリーン32をモータ33によって高速回転(例えば、3400rpm)させる。回転スクリーン32によって反射された照明光は二重焦点レンズ100の凹面側に入射する。
二重焦点レンズ100を保持する筒状のレンズ保持装置35は、小玉104の撮影の妨げにならないように十分に小さい外径(例えば、8mmφ)を有している。
【0022】
図4、図5は、図1のレイアウト・ブロック装置の動作を示すフローチャート図である。以下、図4、図5を用いてレイアウト・ブロック装置の動作を詳細に説明する。最初に、レンズ供給装置3は、制御装置8の制御に従って、縁摺り加工の対象となる1つの二重焦点レンズ100(以下、加工対象レンズ100と呼ぶ)をその凸面を上にしてレンズメータ5のレンズ保持装置35上に載置する。レンズ保持装置35は、レンズ支持筒の内部を真空排気することにより、加工対象レンズ100をレンズ支持筒の上面開口部に吸着固定する(図4ステップS1)。
【0023】
ホルダ供給装置1は、制御装置8の制御に従って、レンズホルダ200を1つずつホルダ保持装置4に供給する。
弾性シール201は、ロール状の形態でシール供給装置2に装填されている。このロールは、表面が保護紙によって覆われたものである。シール供給装置2は、制御装置8の制御に従って、弾性シール201を1つずつ保護紙を剥離した状態でホルダ保持装置4に供給する。
【0024】
ホルダ保持装置4は、レンズホルダ200と弾性シール201を受け取ると、レンズホルダ200を保持して、このレンズホルダ200のレンズ保持面に弾性シール201を貼り付け、加工対象レンズ100へのレンズホルダ200の取り付けに備えて待機状態となる(ステップS2)。
【0025】
次に、制御装置8は、レンズメータ5の光源31を点灯させる(ステップS3)。続いて、画像処理装置6は、制御装置8の指示に従って、画像処理用のタイムアップタイマを0にリセットして起動させ、時間計測を開始する(ステップS4)。このタイムアップタイマは、1つの加工対象レンズ100に係る画像処理の経過時間を計測するためのものである。
【0026】
光源31からの照明光は、回転スクリーン32によって反射され、結像レンズ34、集光レンズ36,37を通って加工対象レンズ100の凹面側に照射される。加工対象レンズ100を通過した像は、ミラー38によって反射され、ピント補正用レンズ40を通って撮像装置39の受光面に投影される。撮像装置39は、受光面に投影された像を光電変換して画像信号を出力する。なお、ピント補正用レンズ40は、撮像装置39の焦点を加工対象レンズ100の凸面と一致させるためのレンズである。
【0027】
本実施の形態で用いる加工対象レンズ100は、例えばプラスティック製のワンピース型と呼ばれる二重焦点レンズである。ワンピース型と呼ばれる二重焦点レンズでは、図7(b)に示すように小玉104がレンズの凸面側にくさび形に突出するように形成されており、台玉103と小玉104の境界には段差が存在する。
【0028】
小玉104の全体の輪郭に基づいて上縁108の中央位置や小玉104の回転角度を画像処理で検出しようとすると、小玉104に鋭角の頂点が存在しないために処理が複雑となり、検出精度も不確かとなる。そこで、本実施の形態では、加工対象レンズ100に対して、一方の面側(本実施の形態では凹面側)から照明光を照射して、他方の面側(凸面側)に撮像装置39を配置し、撮像装置39の受光面に小玉104の上縁108のみの像が投影されるようにする。このようにして、小玉104の全輪郭のうち段差が最も大きい上縁108のみを鮮明に撮影することができ、上縁108の中央位置や小玉104の回転角度を画像処理で検出することが容易となる。
【0029】
画像処理装置6は、画像データを格納するメモリと、プログラムに従って画像データに対する各種演算処理を行う演算処理部とを備えている。画像処理装置6は、レンズメータ5の撮像装置39から出力された画像信号をA/D変換して、このA/D変換後の画像データを内部のメモリにいったん格納する(ステップS5)。
続いて、画像処理装置6は、メモリに格納された入力画像に対する画像処理を開始する。図6は画像処理装置6による画像処理の様子を説明するための説明図である。
【0030】
まず、画像処理装置6は、図6(a)のような入力画像と所定の第1のしきい値とを比較して、輝度値が第1のしきい値以上の画素を入力画像からそのまま抜き出すと共に、輝度値が第1のしきい値未満の画素については輝度値を0にする静的しきい値処理を行うことにより、入力画像から背景の領域を取り除いてレンズの領域を切り出し、このレンズ領域の画像をメモリに格納する(ステップS6)。
【0031】
続いて、画像処理装置6は、メモリに格納した静的しきい値処理後の画像を平滑化処理してぼかした画像と前記静的しきい値処理後の画像との差分を画素毎に算出して、算出した差分が所定の第2のしきい値以上の画素については値を「1」とし、差分が第2のしきい値未満の画素については値を「0」とする動的しきい値処理を行うことにより、静的しきい値処理後の画像を2値化する(ステップS7)。
【0032】
この動的しきい値処理は、差分処理によって輪郭の鮮鋭化を行い、差分出力が大きいところ、すなわち対象物の輪郭らしいところを「1」とし、それ以外のところを「0」とするので、加工対象レンズ100の撮影時に若干の照明むらやハレーションがあったとしても、小玉104の上縁(以下、セグメントトップと呼ぶ)108の形を抜き出すことが可能である。この動的しきい値処理により、図6(b)のような画像が得られる。画像処理装置6は、動的しきい値処理後の画像をメモリに格納する。
【0033】
2値化後の画像には、加工対象レンズ100の表面のほこりや汚れ等が含まれている場合が多い。したがって、動的しきい値処理によって得られた2値化画像のままではセグメントトップを検出することができないので、以下のようにノイズ成分の除去を行ってセグメントトップを検出する。
【0034】
画像処理装置6は、動的しきい値処理後の2値化画像において連結した画素「1」の集まりを1つの連結成分とみなし、同一の連結成分内の各画素には同一のラベル(番号又は名前)を与えるラベリング処理を行った後、各連結成分の幾何学的な特徴パラメータを抽出してメモリに格納する。ここでは、各連結成分の特徴パラメータとして、図6(c)に示す連結成分の面積(連結成分の画素数)Sと、長径L1と、短径L2とを抽出する。なお、図6のうち図6(c)以降では、画素「1」の領域を斜線で表している。
【0035】
そして、画像処理装置6は、面積Sが予め設定された第1の面積範囲内で、長径L1が予め設定された長径範囲内で、かつ短径L2が予め設定された短径範囲内にある連結成分をセグメントトップに類似する領域(以下、セグメントトップ領域STと呼ぶ)として抽出し、抽出したセグメントトップ領域STの位置をメモリに格納する(ステップS8)。こうして、例えば図6(d)に示すようなセグメントトップ領域STを抽出することができる。
【0036】
抽出したセグメントトップ領域STには突起状のノイズ成分が含まれている。そこで、画像処理装置6は、抽出したセグメントトップ領域STを所定の画素数分だけいったん収縮させた後、同画素数分膨張させて元に戻す。セグメントトップ領域STを収縮させると、突起状のノイズ成分が消えるので、収縮処理後のセグメントトップ領域STを膨張処理して元に戻すようにすれば、セグメントトップ領域STから突起状のノイズ成分を除去して形状補正することができる(ステップS9)。
【0037】
続いて、画像処理装置6は、図6(e)に示すようにセグメントトップ領域STを含む最小の長方形Rを求め(ステップS10)、セグメントトップ領域STの数を数えてメモリに格納する(ステップS11)。
次に、画像処理装置6は、ステップS11で数えたセグメントトップ領域数が1かどうかを判定し(ステップS12)、セグメントトップ領域数が1でない場合、前記タイムアップタイマによって計測中の経過時間が所定秒(例えば4秒)を超えたかどうかを判定する(ステップS13)。
【0038】
経過時間が所定秒を超えていない場合、画像処理装置6は、ステップS5〜S12の処理を再び実行する。こうして、セグメントトップ領域数が1でない場合(すなわち、セグメントトップ以外のものを検出した場合)で、かつ経過時間が所定秒を超えていない場合には、ステップS5〜S12の処理が繰り返し実行される。
【0039】
ステップS13において経過時間が所定秒を超えている場合、画像処理装置6は、画像処理によるセグメントトップの検出が不可であると判断して、画像処理が不可である旨を制御装置8に通知する画像処理不可エラー処理を行う。通知を受けた制御装置8は、画像処理不可エラーが発生した加工対象レンズ100をレイアウト・ブロック装置から排出する等の処理を行う。
【0040】
一方、ステップS12においてセグメントトップ領域数が1の場合、画像処理装置6は、図6(f)に示すように長方形Rの中心Cの座標と、セグメントトップ領域STと長方形Rの長辺との接点P(基準位置)の座標を算出すると共に、長方形Rの長辺方向の軸Aを求め、この軸Aとレイアウト・ブロック装置の水平基準線102とがなす角(水平基準線102に対する加工対象レンズ100の回転角度)θを算出して、中心C及び接点Pの座標と回転角度θとをメモリに格納する(ステップS14)。
【0041】
加工対象レンズ100には、レイアウト・ブロック装置上の本来あるべき位置に対して供給時に角度ずれが発生している。回転角度θの算出は、この角度ずれを求める処理である。
さらに、画像処理装置6は、セグメントトップ領域STの重心Dの座標を算出してメモリに格納する(ステップS15)。
【0042】
次に、画像処理装置6は、中心C、接点P及び重心Dの各座標と回転角度θとをそれぞれ5回分取得したかどうかを判定し(ステップS16)、5回分取得していない場合はステップS4に戻り、タイムアップタイマを0にリセットして前述の処理を再び行う。これにより、各座標と回転角度θとを5回分取得するまでステップS4〜S15の処理が繰り返される。
【0043】
中心C、接点P及び重心Dの各座標と回転角度θとをそれぞれ5回分取得した後、画像処理装置6は、メモリに格納した中心Cの5回分の座標値から最小値と最大値とを除外して、残りの3回分の座標値の平均を求め、この平均値を中心Cの最終的な座標値とする。同様に、画像処理装置6は、接点P及び重心Dの各座標と回転角度θの各々について平均値を求める(図5ステップS17)。こうして、各データの最小値と最大値とを除外した上で平均値を求めることにより、データの安定化を図る。
【0044】
平均化処理の後、画像処理装置6は、重心Dが中心Cより上側にあるかどうかを判定する(ステップS18)。加工対象レンズ100の上下が逆の状態でレイアウト・ブロック装置に供給された場合、重心Dは中心Cより下側にある。重心Dが中心Cより下側にある場合、画像処理装置6は、加工対象レンズ100の上下が逆でレイアウト・ブロック装置の許容範囲外である旨を制御装置8に通知する上下逆さエラー処理を行う。通知を受けた制御装置8は、上下逆さエラーが発生した加工対象レンズ100をレイアウト・ブロック装置から排出する等の処理を行う。
【0045】
重心Dが中心Cより上側にある場合、画像処理装置6は、前記回転角度θが予め設定された範囲内(例えば±60°)にあるかどうかを判定する(ステップS19)。回転角度θが予め設定された範囲内にない場合、画像処理装置6は、加工対象レンズ100の回転角度がレイアウト・ブロック装置の許容範囲外である旨を制御装置8に通知する角度オーバーエラー処理を行う。通知を受けた制御装置8は、角度オーバーエラーが発生した加工対象レンズ100をレイアウト・ブロック装置から排出する等の処理を行う。
【0046】
画像処理装置6は、回転角度θが予め設定された範囲内にある場合、前記動的しきい値処理後の2値化画像の中心を回転中心として2値化画像を回転角度θだけ回転させることにより、セグメントトップ領域STが水平基準線102と平行になるようにする(ステップS20)。2値化画像を回転させるのは次の左右判定処理において、加工対象レンズ100の左右判定を正しく行えるようにするためである。
【0047】
次に、画像処理装置6は、加工対象レンズ100が右眼用、左眼用のいずれのレンズであるかを判定する(ステップS21)。二重焦点レンズ100の場合、小玉104は幾何学中心101に対して耳側に偏って配置されている。したがって、前記2値画像の中心に対してセグメントトップ領域STが右側にあれば右眼用のレンズであり、セグメントトップ領域STが左側にあれば左眼用のレンズである。
【0048】
また、2値画像の中心を基準としてセグメントトップ領域STが左右いずれに偏っているかを判定する場合、2値画像の中心が加工対象レンズ100の幾何学中心101の位置と略一致している必要がある。この位置合わせは、レンズ供給装置3の芯出し機構によって行われる。すなわち、レンズ供給装置3は、加工対象レンズ100をレンズメータ5のレンズ保持装置35へ搬送する際に、加工対象レンズ100の芯出しを行い、加工対象レンズ100の幾何学中心101が±1mm程度の誤差でレンズ保持装置35のレンズ支持筒の中心に来るように載置する。
【0049】
次に、画像処理装置6は、加工対象レンズ100の左右判定の結果と算出した中心C、接点P及び重心Dの各座標と回転角度θとを制御装置8に送信し、制御装置8は、加工対象レンズ100の左右判定の結果と回転角度θとをホストコンピュータ9に送信する(ステップS22)。さらに、制御装置8は、レンズメータ5の光源31を消灯させる(ステップS23)。
【0050】
ホストコンピュータ9は、レイアウト・ブロック装置への供給時に加工対象レンズ100のトレイに貼り付けられていたバーコードをバーコードリーダで予め読み取っている。このバーコードには、加工対象レンズ100が右眼用、左眼用のいずれのレンズであるかを示す情報が書き込まれている。したがって、ホストコンピュータ9は、バーコードから予め読み取った結果と制御装置8から送られた左右判定の結果とを照合することで、バーコードが表す内容とトレイに載せられていた実際の加工対象レンズ100とが一致するかどうかをチェックすることができる。
【0051】
そして、ホストコンピュータ9は、予め記憶している加工対象レンズ100のレイアウトデータ(基準位置と幾何学中心101とアイポイント107の相互の位置関係を表すデータ)を回転角度θに応じて角度補正した上で、角度補正後のレイアウトデータに基づいてブロックデータ(基準位置に対するアイポイント107の相対的な位置を表すデータ)を演算して制御装置8に送信する(ステップS46)。
【0052】
加工対象レンズ100において、基準位置は小玉104の上縁108の中央である。したがって、画像処理装置6によって検出された接点Pは加工対象レンズ100の基準位置であるが、このときの接点Pは供給時の水平方向(図6左右方法)及び垂直方向(図6上下方向)の位置ずれのためにレイアウト・ブロック装置上の本来あるべき位置からずれている。つまり、加工対象レンズ100には水平方向及び垂直方向の位置ずれが発生している。一方、前記ブロックデータは、加工対象レンズ100の角度ずれについては前述のように補正されているが、水平方向及び垂直方向の位置ずれについては位置ずれがないことを前提として計算されている。
【0053】
このため、制御装置8は、レンズ供給装置3によって加工対象レンズ100をレンズメータ5から所定のレンズ保持位置へ搬送させる際に、加工対象レンズ100の水平方向及び垂直方向の位置ずれを前記接点Pの座標に基づいて補正させた上で、ホストコンピュータ9からのブロックデータに基づいて加工対象レンズ100のアイポイント107がホルダ保持装置4によって保持されているレンズホルダ200の真下に来るようにレンズ供給装置3を制御する(ステップS24)。
【0054】
続いて、制御装置8は、加工対象レンズ100の供給時の角度ずれを補正するために、ホルダ保持装置4を制御して、レンズホルダ200を回転角度θだけ回転させて角度補正を行う(ステップS25)。そして、制御装置8は、ホルダ保持装置4を制御して、レンズホルダ200を下降させ、レンズホルダ200に貼り付けられている弾性シール201を加工対象レンズ100に押しつけて密着させる。これにより、図2に示すように、レンズホルダ200は、弾性シール201を介して加工対象レンズ100の加工中心(アイポイント107)に取り付けられる(ステップS26)。
【0055】
制御装置8は、ホルダ保持装置4を制御して、レンズホルダ200を加工対象レンズ100と一緒に所定の取り出し位置へ搬送させ(ステップS27)、続いてレンズ搬送装置7を制御して、取り出し位置の加工対象レンズ100を縁摺り加工装置へ搬送させる(ステップS28)。
以上で、1つの加工対象レンズ100に対するレイアウト・ブロック装置の処理が終了する。
【0056】
縁摺り加工装置に送られた加工対象レンズ100には、レンズ枠形状データ及び装用者の処方データに基づいたヤゲン加工等の縁摺り加工が縁摺り加工装置によって施され、フレーム枠の形状と略一致する輪郭形状の眼鏡レンズが製作される。
【0057】
【発明の効果】
本発明によれば、加工対象の眼鏡レンズの画像を撮影して2値化し、2値化画像に含まれる個々の図形の幾何学的な特徴パラメータを抽出して、この特徴パラメータが所定の条件に合う図形を眼鏡レンズに予め形成された小玉の上縁の画像として抽出し、抽出した小玉の上縁の位置に基づいて、加工中心位置と所定の位置関係にある基準位置を2値画像上で求めるので、従来のように作業者がリマークチャートに記載された眼鏡レンズの図形あるいはテレビモニタの画面に表示された眼鏡レンズの基準画像と実際の眼鏡レンズとの位置合わせを手作業で行う場合と比べて、高精度の位置合わせを実現でき、また作業者の負担を著しく軽減することができる。その結果、眼鏡レンズとレンズホルダの高精度の位置合わせを能率良く短時間で行うことができる。
【0058】
また、台玉と小玉の境界に段差が存在する眼鏡レンズに対して一方の面側から照明光を照射して、他方の面側から眼鏡レンズの画像を撮影することにより、小玉の輪郭のうち上縁の画像のみを得ることができ、眼鏡レンズの基準位置や角度ずれを求めることが容易となる。
【0059】
また、小玉の上縁を含む最小の長方形を2値画像上で求め、この長方形の位置に基づいて眼鏡レンズの正規の位置に対する角度ずれを求めることにより、角度補正を行った上で眼鏡レンズの加工中心位置を求めることができ、角度ずれが著しい眼鏡レンズについては加工を中止することもできる。
【0060】
また、2値画像を小玉の上縁が水平となるよう角度ずれに応じて回転させ、回転処理後の2値画像における小玉の上縁の位置に基づいて、眼鏡レンズが右眼用、左眼用のいずれのレンズであるかを判定することにより、眼鏡レンズの左右判定を正しく行うことができ、所望のレンズと異なる眼鏡レンズが誤って送られてきていないかどうかをチェックすることができ、眼鏡レンズが誤って送られてきていると判断した場合には、眼鏡レンズの加工を中止することもできる。
【0061】
また、小玉の上縁を含む最小の長方形を撮影した2値画像上で求め、この長方形の中心位置と小玉の上縁の重心位置とに基づいて眼鏡レンズの上下を判定することにより、上下が逆の状態で供給された眼鏡レンズの加工を中止することが可能となる。
【0062】
また、基準位置と加工中心位置との位置関係を表すレイアウトデータを画像処理手段と別の演算手段に記憶させて、演算手段で眼鏡レンズの加工中心位置を計算させることにより、画像処理手段で大量のデータを保持する必要がなくなり、加工対象の眼鏡レンズに応じたレイアウトデータの登録も容易となる。
【図面の簡単な説明】
【図1】 本発明の実施の形態となる二重焦点レンズ用レイアウト・ブロック装置の構成を示すブロック図である。
【図2】 二重焦点レンズに弾性シールを介してレンズホルダを取り付けた状態を示す側面図である。
【図3】 図1のレイアウト・ブロック装置のレンズメータの構成を示すブロック図である。
【図4】 図1のレイアウト・ブロック装置の動作を示すフローチャート図である。
【図5】 図1のレイアウト・ブロック装置の動作を示すフローチャート図である。
【図6】 図1のレイアウト・ブロック装置の画像処理装置による画像処理の様子を示す説明図である。
【図7】 二重焦点レンズの小玉、幾何学中心等の位置関係を示す平面図及び側面図である。
【符号の説明】
1…ホルダ供給装置、2…シール供給装置、3…レンズ供給装置、4…ホルダ保持装置、5…レンズメータ、6…画像処理装置、7…レンズ搬送装置、8…制御装置、9…ホストコンピュータ、31…光源、39…撮像装置、100…二重焦点レンズ、101…幾何学中心、102…水平基準線、103…台玉、104…小玉、107…アイポイント。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a spectacle lens positioning technique, and in particular, a spectacle lens of a spectacle lens in which a processing center position of a spectacle lens such as a bifocal lens formed with a small lens for near use is obtained and a processing jig is attached to the processing center position. The present invention relates to an alignment method and a layout block device.
[0002]
[Prior art]
When the unprocessed spectacle lens is mounted on the spectacle frame desired by the wearer, the spectacle lens is trimmed in accordance with the shape of the spectacle frame. At that time, the eyeglass lens eye point is processed as the processing center so that the pupil center of the wearer coincides with the eyepoint of the eyeglass lens. Since the eye point of a spectacle lens cannot be displayed directly on the lens surface, the geometric center of the lens, the position of the eye point, etc. can be derived from the shape of a nearby lens in the design of spectacle lenses, especially bifocal lenses. I am doing so.
[0003]
FIG. 7A shows a plan view of an unprocessed bifocal lens, and FIG. 7B shows a side view. 100 is a plastic bifocal lens, 101 is a geometric center, 102 is a horizontal reference line passing through the geometric center 101, 103 is a ball, 104 is a small ball, 105 is the center of a distance power measurement unit, and 106 is near The center of the power measurement unit 107 is an eye point.
[0004]
In the case of a plastic lens, the small balls 104 are formed on the surface of the table ball 103 so that the shape seen from the side is a wedge shape, and the upper edge 108 is below the horizontal reference line 102 by a predetermined distance d1 (for example, 5 mm). It is formed so as to leave only. In the case of the left-eye lens, the small ball 104 is formed such that the center 106 of the near vision power measurement unit is shifted from the geometric center 101 to the left by a distance d2 (for example, 5 mm). Therefore, it can be identified whether the lens 104 is a left-eye lens or a right-eye lens by knowing whether the small balls 104 are biased to the left or right.
[0005]
The position of the eye point 107 is determined at a position shifted from the geometric center 101 to the small ball 104 side by a distance d3 (for example, 2.5 mm) on the horizontal reference line 102. Accordingly, by finding the center of the upper edge 108 of the small ball 104, the positions of the geometric center 101 and the eye point 107 can be obtained. When searching for the position of the eye point 107 from the contour shape of the small ball 104, the bifocal lens 100 is placed on a sheet for a bifocal lens called a remark chart. The remark chart displays a full-size bifocal lens for each lens type that describes the position of the small ball, geometric center, distance power measurement center, near power measurement center, and eye point. Is.
[0006]
When the bifocal lens 100 is placed on the remark chart, the position of the small ball 104 of the lens 100 is matched with the position of the small lens of the same type of lens described on the remark chart. The position of the eye point described in 1 is set as the position of the eye point 107, and the same position of the bifocal lens 100 is marked with a marker. Then, a processing jig (lens holder) is mounted at the position of the eye point 107 of the bifocal lens 100, and the eye point 107 so that the center of the wearer's pupil coincides with the eye point 107 of the bifocal lens 100. The bifocal lens 100 is trimmed with the processing center as the processing center, and the outer shape of the lens 100 is matched with the frame shape of the spectacle frame.
[0007]
As another method for searching for the position of the eye point 107 from the contour shape of the small ball 104, a spectacle lens positioning device disclosed in Japanese Patent Laid-Open No. 6-79600 is known. This alignment device captures the processing target bifocal lens 100 with a video camera, displays the contour image of the shot small lens 104 of the bifocal lens 100 on the screen of the television monitor, and stores it in advance. The contour image data of the small balls 104 is calculated from the processing information of the bifocal lens 100, and the calculated contour image is displayed as a reference image at a reference position on the screen of the television monitor.
[0008]
The operator moves the slide table on which the bifocal lens 100 is placed so that the actual image of the contour line of the small ball 104 projected on the screen of the television monitor and the reference image overlap each other, thereby the bifocal lens. Position 100 to where it should be. After the positioning, the pad printer of the marking device transfers the cross mark corresponding to the processing reference line to a predetermined position of the bifocal lens 100. As described above, the alignment device disclosed in Japanese Patent Laid-Open No. 6-79600 performs alignment of the bifocal lens 100 while looking at the screen of the television monitor instead of the remark chart.
[0009]
[Problems to be solved by the invention]
However, in the method using the above remark chart, since the operator performs the work manually, there is a problem that the operator is inefficient and the burden on the operator is large, and the alignment error between the bifocal lens 100 and the lens holder is large. There was a point.
In addition, in the alignment apparatus disclosed in Japanese Patent Laid-Open No. 6-79600, the labor of marking the bifocal lens 100 by the operator can be saved. However, there is a problem that the burden on the operator is heavy as in the case of the remark chart.
[0010]
The present invention has been made to solve the above-described problems, and a spectacle lens positioning method capable of performing highly accurate positioning between a bifocal lens and a lens holder more efficiently and in a shorter time than in the past. An object is to provide a layout block device.
[0011]
[Means for Solving the Problems]
  The method for aligning spectacle lenses according to the present invention includes a procedure for capturing and binarizing an image of a spectacle lens (100) to be processed, and geometric feature parameters of individual figures included in the binarized image. Extract the figure whose feature parameter meets the predetermined condition.To be processedThe procedure of extracting as an image (ST) of the upper edge of the small ball (104) formed in advance on the spectacle lens, and the upper edge of the extracted small ballUsing the center position as the reference position of the eyeglass lens to be processedProcedure to obtain on binary imageObtaining a minimum rectangle including the upper edge of the small ball on the binary image, and obtaining an angular deviation of the eyeglass lens to be processed with respect to a horizontal reference line based on the position of the rectangle; Among the layout data representing the positional relationship between the reference position and the processing center position, the layout data corresponding to the processing target spectacle lens is subjected to angle correction according to the angular deviation, and the layout after the angle correction A procedure for determining a processing center position of the eyeglass lens to be processed based on data and a reference position of the eyeglass lens to be processed;It is what has. Since there is a positional regulation common to all spectacle lenses between the upper edge of the eyeglass lens and the reference position, if the upper edge of the eyeglass lens is detected by image processing, the reference position of the eyeglass lens is determined. Can be sought. The relationship between the reference position and the processing center position differs for each spectacle lens, and the processing center position is calculated using layout data for each lens.Further, by obtaining the smallest rectangle including the upper edge of the small ball, the angle formed by this rectangle and the horizontal reference line (102) indicating the normal position of the spectacle lens can be obtained, and after angle correction is performed. The processing center position of the spectacle lens can be obtained.
  In addition, one configuration example of the method for aligning spectacle lenses according to the present invention irradiates the spectacle lens having a step at the boundary between the ball (103) and the small ball (104) with illumination light from one surface side. By taking an image of the spectacle lens from the other surface side, an image of only the upper edge of the outline of the small ball is obtained. If an attempt is made to detect the reference position or angular deviation of the spectacle lens by image processing based on the entire contour of the small ball, the processing becomes complicated and the detection accuracy becomes uncertain. By obtaining an image of only the upper edge of the small ball, it becomes easy to detect the reference position and angular deviation of the spectacle lens by image processing.
[0012]
  AlsoIn the configuration example of the eyeglass lens positioning method of the present invention, the binary image is rotated in accordance with the angle shift so that the upper edge of the small ball becomes horizontal, and the upper edge of the small ball in the binary image after the rotation processing is rotated. Based on the position, it is determined whether the spectacle lens is a right-eye lens or a left-eye lens. If there is an angle shift in the spectacle lens, an error occurs in the left / right determination, but the left / right determination can be correctly performed by rotating the binarized image.
  In addition, according to one configuration example of the eyeglass lens positioning method of the present invention, a minimum rectangle including the upper edge of a small ball is obtained on a binary image, and the center position of the rectangle and the gravity center position of the upper edge of the small ball are determined. Thus, the upper and lower sides of the spectacle lens are determined. When the eyeglass lens is supplied to the layout block device in the upside down state, the center of gravity (D) is below the center (C). Thereby, the upper and lower sides of the spectacle lens can be determined.
  In addition, according to one configuration example of the method for aligning spectacle lenses of the present invention, when the elapsed time of image processing related to the spectacle lens to be processed exceeds a predetermined time, the spectacle lens to be processed is laid out. -It has a procedure for discharging from the block device.
[0013]
  In addition, the present inventionThe photographing means (5) for photographing an image of the eyeglass lens to be processed, the image processing means (6) for processing the image, the arithmetic means (9) for obtaining the processing center position of the eyeglass lens, and the processing A spectacle lens layout block device having a mechanism for attaching a processing jig to a central position, wherein the image processing means binarizes an image photographed by the photographing means and is included in the binarized image. A geometric feature parameter of each figure is extracted, and a figure in which the feature parameter satisfies a predetermined condition is extracted as an image of the upper edge of a small ball previously formed on the spectacle lens, and the upper edge of the extracted small ball is extracted. Is determined on the binary image as a reference position of the eyeglass lens to be processed, a minimum rectangle including the upper edge of the small ball is determined on the binary image, and based on the position of the rectangle, An angle shift of the eyeglass lens to be processed with respect to a flat reference line is obtained, and the calculation means stores in advance layout data representing a positional relationship between a reference position and a processing center position for each eyeglass lens, and the eyeglass lens to be processed The layout data corresponding to the angle is corrected according to the angle deviation, and the processing center position of the processing target spectacle lens is obtained based on the layout data after the angle correction and the reference position of the processing target spectacle lens.Is.
  Further, the eyeglass lens layout block device of the present inventionFurther includes control means for discharging the eyeglass lens to be processed when an error occurs, and the image processing means has an elapsed time of image processing relating to the eyeglass lens to be processed exceeds a predetermined time. In addition, the control unit notifies the control unit of an error that prevents image processing, and the control unit ejects the eyeglass lens to be processed from the layout block device when receiving the notification of the image processing disabled error.Is a thing.
[0014]
DETAILED DESCRIPTION OF THE INVENTION
Next, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram showing the configuration of a bifocal lens layout block device according to an embodiment of the present invention. The bifocal lens layout block device according to the present embodiment is installed adjacent to an edge trimming device (not shown), and images the bifocal lens 100 and based on the captured image. Layout processing for calculating the mounting position and mounting angle of a processing jig (hereinafter referred to as a lens holder) attached to the bifocal lens 100 at the same time as determining the left and right of the bifocal lens 100, and the lens holder as a bifocal lens Block processing attached to the processing center of 100 is performed, and the bifocal lens 100 after the lens holder is attached is conveyed to the edging apparatus.
[0015]
This layout block device supplies a holder supply device 1 for supplying lens holders one by one, a seal supply device 2 for supplying elastic seals to be described later, and a bifocal lens 100 to be processed one by one. The lens supply device 3 to be used, the holder holding device 4 for attaching the lens holder supplied from the holder supply device 1 to the processing center of the bifocal lens 100, and the bifocal lens 100 supplied from the lens supply device 3 are photographed. A lens meter 5 serving as a photographing unit, an image processing device 6 for determining the right and left of the bifocal lens 100 based on an image photographed by the lens meter 5, and calculating the attachment position and attachment angle of the lens holder, and the lens holder A lens conveying device 7 for conveying the bifocal lens 100 after the lens is attached to the edging apparatus, and a layout block A control unit 8 for controlling the entire click device, and a host computer 9 as a calculating means for controlling a layout block apparatus and edger.
[0016]
FIG. 2 is a side view showing a state in which a lens holder is attached to the bifocal lens 100 via an elastic seal based on the result of image processing by the image processing device 6. The lens holder 200 made of a metal such as stainless steel is molded into a cylindrical body with a flange. The surface of the lens holder 200 to which the elastic seal 201 is attached (the lower surface of the holder 200) is a concave spherical lens holding surface corresponding to the convex lens surface of the bifocal lens 100.
[0017]
In this case, when the lens holding surface corresponding to the convex curve is formed for each lens, the type of the lens holder 200 increases. Therefore, by changing the radius of curvature of the lens holding surface in stages, the type of the lens holder 200 is increased. The number of bifocal lenses 100 having different convex curves can be held by one type of lens holder 200.
[0018]
The elastic seal 201 is made of a thin rubber having a thickness of about 0.5 to 0.6 mm, and has an outer diameter larger than the outer diameter of the lens holding surface of the lens holder 200 (about 22 mmφ) and an inner diameter larger than the hole diameter of the lens holder 200. A small (about 8 mm) shaped ring is used, with both sides coated with an adhesive.
[0019]
FIG. 3 is a block diagram showing the configuration of the lens meter 5. The lens meter 5 includes a light source 31 that illuminates the bifocal lens 100, a rotating screen 32 that is irradiated with illumination light from the light source 31, a motor 33 that rotates the rotating screen 32, an imaging lens 34, and a double lens. The lens holding device 35 that sucks and fixes the focal lens 100, the condensing lenses 36 and 37 that collect the illumination light reflected by the rotary screen 32 and irradiate the bifocal lens 100, and the bifocal lens 100. A mirror 38 that reflects the reflected light, an imaging device 39 such as a CCD camera that captures the reflected light from the mirror 38, and a focus correction lens 40 for correcting the focus of the imaging device 39.
[0020]
As the light source 31 used for photographing the bifocal lens 100, light having a narrow emission spectrum width, for example, red light LED, is used so that the small balls 104 can be photographed satisfactorily. For example, eight light sources 31 are arranged around the imaging lens 34 at equal intervals.
[0021]
The rotating screen 32 has a reflective sheet applied with a fine powder such as glass or aluminum on its surface in order to increase the reflectance. Further, in order to make the brightness of the surface uniform, the rotary screen 32 is rotated at a high speed (for example, 3400 rpm) by the motor 33. The illumination light reflected by the rotating screen 32 enters the concave surface side of the bifocal lens 100.
The cylindrical lens holding device 35 that holds the bifocal lens 100 has a sufficiently small outer diameter (for example, 8 mmφ) so as not to interfere with shooting of the small balls 104.
[0022]
4 and 5 are flowcharts showing the operation of the layout block device of FIG. Hereinafter, the operation of the layout block device will be described in detail with reference to FIGS. First, the lens supply device 3 controls the lens meter 5 so that one bifocal lens 100 (hereinafter, referred to as a processing target lens 100) to be edged is placed with its convex surface facing upward, under the control of the control device 8. Placed on the lens holding device 35. The lens holding device 35 sucks and fixes the processing target lens 100 to the upper surface opening of the lens support tube by evacuating the inside of the lens support tube (step S1 in FIG. 4).
[0023]
The holder supply device 1 supplies the lens holders 200 one by one to the holder holding device 4 under the control of the control device 8.
The elastic seal 201 is loaded in the seal supply device 2 in the form of a roll. This roll has a surface covered with protective paper. The seal supply device 2 supplies the elastic seal 201 to the holder holding device 4 in a state where the protective paper is peeled one by one under the control of the control device 8.
[0024]
Upon receiving the lens holder 200 and the elastic seal 201, the holder holding device 4 holds the lens holder 200, affixes the elastic seal 201 to the lens holding surface of the lens holder 200, and the lens holder 200 to the processing target lens 100. In preparation for mounting, the standby state is set (step S2).
[0025]
Next, the control device 8 turns on the light source 31 of the lens meter 5 (step S3). Subsequently, the image processing device 6 resets and starts the time-up timer for image processing to 0 in accordance with an instruction from the control device 8, and starts time measurement (step S4). This time-up timer is for measuring the elapsed time of image processing related to one processing target lens 100.
[0026]
Illumination light from the light source 31 is reflected by the rotary screen 32 and passes through the imaging lens 34 and the condenser lenses 36 and 37 and is irradiated to the concave surface side of the processing target lens 100. The image that has passed through the processing target lens 100 is reflected by the mirror 38, passes through the focus correction lens 40, and is projected onto the light receiving surface of the imaging device 39. The imaging device 39 photoelectrically converts the image projected on the light receiving surface and outputs an image signal. The focus correction lens 40 is a lens for making the focal point of the imaging device 39 coincide with the convex surface of the processing target lens 100.
[0027]
The processing target lens 100 used in the present embodiment is a bifocal lens called a one-piece type made of plastic, for example. In the bifocal lens called a one-piece type, as shown in FIG. 7B, the small balls 104 are formed so as to protrude in a wedge shape on the convex surface side of the lens, and there is a step at the boundary between the pedestal 103 and the small balls 104. Exists.
[0028]
If an attempt is made to detect the center position of the upper edge 108 or the rotation angle of the small ball 104 by image processing based on the overall contour of the small ball 104, the processing is complicated because there is no acute vertex in the small ball 104, and the detection accuracy is uncertain. It becomes. Therefore, in the present embodiment, the processing target lens 100 is irradiated with illumination light from one surface side (concave surface in the present embodiment), and the imaging device 39 is disposed on the other surface side (convex surface side). It is arranged so that an image of only the upper edge 108 of the small ball 104 is projected on the light receiving surface of the imaging device 39. In this way, only the upper edge 108 having the largest step among the entire contour of the small ball 104 can be clearly photographed, and the center position of the upper edge 108 and the rotation angle of the small ball 104 can be easily detected by image processing. It becomes.
[0029]
The image processing apparatus 6 includes a memory that stores image data and an arithmetic processing unit that performs various arithmetic processes on the image data according to a program. The image processing device 6 performs A / D conversion on the image signal output from the imaging device 39 of the lens meter 5, and temporarily stores the image data after the A / D conversion in an internal memory (step S5).
Subsequently, the image processing device 6 starts image processing on the input image stored in the memory. FIG. 6 is an explanatory diagram for explaining a state of image processing by the image processing device 6.
[0030]
First, the image processing device 6 compares the input image as shown in FIG. 6A with a predetermined first threshold value, and directly determines pixels having a luminance value equal to or higher than the first threshold value from the input image. At the same time, by performing static threshold processing for setting the luminance value to 0 for pixels whose luminance value is less than the first threshold, the background area is removed from the input image, and the lens area is extracted. The lens area image is stored in the memory (step S6).
[0031]
Subsequently, the image processing device 6 calculates, for each pixel, the difference between the image after smoothing the static threshold processing image stored in the memory and blurring the image and the image after the static threshold processing. Thus, a value of “1” is set for a pixel whose calculated difference is equal to or greater than a predetermined second threshold value, and a value of “0” is set for a pixel whose difference is less than the second threshold value. By performing threshold processing, the image after the static threshold processing is binarized (step S7).
[0032]
In this dynamic threshold processing, the contour is sharpened by difference processing, where the difference output is large, that is, the portion that seems to be the contour of the object is set to “1”, and other portions are set to “0”. Even if there is slight illumination unevenness or halation when the processing target lens 100 is photographed, the shape of the upper edge (hereinafter referred to as segment top) 108 of the small ball 104 can be extracted. By this dynamic threshold processing, an image as shown in FIG. 6B is obtained. The image processing device 6 stores the image after the dynamic threshold processing in the memory.
[0033]
In many cases, the binarized image includes dust, dirt, or the like on the surface of the processing target lens 100. Therefore, since the segment top cannot be detected with the binarized image obtained by the dynamic threshold processing, the noise top is removed as follows to detect the segment top.
[0034]
The image processing apparatus 6 regards a group of pixels “1” connected in the binarized image after the dynamic threshold processing as one connected component, and each pixel in the same connected component has the same label (number). Or, after performing a labeling process that gives a name), geometric feature parameters of each connected component are extracted and stored in a memory. Here, the area (number of connected component pixels) S, the major axis L1, and the minor axis L2 shown in FIG. 6C are extracted as characteristic parameters of each connected component. In FIG. 6C and subsequent figures, the area of the pixel “1” is indicated by hatching.
[0035]
Then, the image processing apparatus 6 is within the first area range in which the area S is preset, the major axis L1 is in the preset major axis range, and the minor axis L2 is in the preset minor axis range. The connected component is extracted as an area similar to the segment top (hereinafter referred to as segment top area ST), and the position of the extracted segment top area ST is stored in the memory (step S8). Thus, for example, a segment top region ST as shown in FIG. 6D can be extracted.
[0036]
The extracted segment top region ST includes a protruding noise component. Therefore, the image processing apparatus 6 once contracts the extracted segment top region ST by a predetermined number of pixels, and then expands the segment top region ST by the same number of pixels and restores the original. When the segment top region ST is contracted, the protruding noise component disappears. Therefore, if the segment top region ST after the contracting process is expanded and returned to the original state, the protruding noise component is removed from the segment top region ST. The shape can be corrected by removing (step S9).
[0037]
Subsequently, the image processing apparatus 6 obtains the minimum rectangle R including the segment top area ST as shown in FIG. 6E (step S10), counts the number of segment top areas ST, and stores it in the memory (step S10). S11).
Next, the image processing apparatus 6 determines whether or not the number of segment top areas counted in step S11 is 1 (step S12). If the number of segment top areas is not 1, the elapsed time being measured by the time-up timer is determined. It is determined whether or not a predetermined second (for example, 4 seconds) has been exceeded (step S13).
[0038]
When the elapsed time does not exceed the predetermined second, the image processing device 6 executes the processes of steps S5 to S12 again. Thus, when the number of segment top areas is not 1 (that is, when a region other than the segment top is detected) and the elapsed time does not exceed the predetermined seconds, the processes of steps S5 to S12 are repeatedly executed. .
[0039]
When the elapsed time exceeds the predetermined time in step S13, the image processing device 6 determines that the segment top cannot be detected by the image processing, and notifies the control device 8 that the image processing is impossible. Perform error handling for image processing. Upon receiving the notification, the control device 8 performs processing such as discharging the processing target lens 100 in which the image processing incapable error has occurred from the layout / block device.
[0040]
On the other hand, when the number of segment top areas is 1 in step S12, the image processing apparatus 6 determines the coordinates of the center C of the rectangle R, the segment top area ST, and the long side of the rectangle R as shown in FIG. The coordinates of the contact point P (reference position) are calculated, the axis A in the long side direction of the rectangle R is obtained, and the angle formed by this axis A and the horizontal reference line 102 of the layout block device (the processing target for the horizontal reference line 102) The rotation angle θ of the lens 100 is calculated, and the coordinates of the center C and the contact P and the rotation angle θ are stored in the memory (step S14).
[0041]
In the processing target lens 100, an angular deviation occurs at the time of supply with respect to the original position on the layout block device. The calculation of the rotation angle θ is a process for obtaining this angular deviation.
Further, the image processing device 6 calculates the coordinates of the center of gravity D of the segment top region ST and stores it in the memory (step S15).
[0042]
Next, the image processing apparatus 6 determines whether or not the coordinates of the center C, the contact point P, and the center of gravity D and the rotation angle θ have been acquired five times (step S16). Returning to S4, the time-up timer is reset to 0 and the above-described processing is performed again. Thereby, the process of step S4-S15 is repeated until each coordinate and rotation angle (theta) are acquired 5 times.
[0043]
After acquiring the coordinates of the center C, the contact P, and the center of gravity D and the rotation angle θ for five times, the image processing apparatus 6 calculates the minimum value and the maximum value from the coordinate values for the center C stored in the memory for five times. The average of the remaining three coordinate values is determined, and this average value is used as the final coordinate value of the center C. Similarly, the image processing device 6 obtains an average value for each of the coordinates of the contact P and the center of gravity D and the rotation angle θ (step S17 in FIG. 5). In this way, the data is stabilized by obtaining the average value after excluding the minimum value and the maximum value of each data.
[0044]
After the averaging process, the image processing apparatus 6 determines whether the center of gravity D is above the center C (step S18). When the processing target lens 100 is supplied to the layout / blocking device in an upside-down state, the center of gravity D is below the center C. When the center of gravity D is below the center C, the image processing device 6 performs upside down error processing for notifying the control device 8 that the processing target lens 100 is upside down and out of the allowable range of the layout block device. Do. Upon receiving the notification, the control device 8 performs processing such as discharging the processing target lens 100 in which the upside-down error has occurred from the layout block device.
[0045]
When the center of gravity D is above the center C, the image processing device 6 determines whether or not the rotation angle θ is within a preset range (for example, ± 60 °) (step S19). If the rotation angle θ is not within the preset range, the image processing device 6 notifies the control device 8 that the rotation angle of the lens 100 to be processed is outside the allowable range of the layout / block device. I do. Upon receiving the notification, the control device 8 performs processing such as discharging the processing target lens 100 in which the angle over error has occurred from the layout / block device.
[0046]
When the rotation angle θ is within a preset range, the image processing device 6 rotates the binarized image by the rotation angle θ with the center of the binarized image after the dynamic threshold processing as the rotation center. Thus, the segment top region ST is made parallel to the horizontal reference line 102 (step S20). The reason why the binarized image is rotated is to enable the right / left determination of the processing target lens 100 to be correctly performed in the next left / right determination process.
[0047]
Next, the image processing apparatus 6 determines whether the processing target lens 100 is a right-eye lens or a left-eye lens (step S21). In the case of the bifocal lens 100, the small balls 104 are arranged so as to be biased toward the ear with respect to the geometric center 101. Therefore, if the segment top region ST is on the right side with respect to the center of the binary image, the lens is for the right eye. If the segment top region ST is on the left side, the lens is for the left eye.
[0048]
Further, when determining whether the segment top region ST is biased to the left or right with respect to the center of the binary image, the center of the binary image needs to substantially match the position of the geometric center 101 of the processing target lens 100. There is. This alignment is performed by the centering mechanism of the lens supply device 3. That is, the lens supply device 3 performs centering of the processing target lens 100 when the processing target lens 100 is conveyed to the lens holding device 35 of the lens meter 5, and the geometric center 101 of the processing target lens 100 is about ± 1 mm. Is placed so as to come to the center of the lens support tube of the lens holding device 35.
[0049]
Next, the image processing device 6 transmits the result of the left / right determination of the processing target lens 100 and the calculated coordinates of the center C, the contact P, and the center of gravity D and the rotation angle θ to the control device 8, and the control device 8 The result of the right / left determination of the processing target lens 100 and the rotation angle θ are transmitted to the host computer 9 (step S22). Further, the control device 8 turns off the light source 31 of the lens meter 5 (step S23).
[0050]
The host computer 9 pre-reads the barcode attached to the tray of the lens 100 to be processed at the time of supply to the layout block device with a barcode reader. Information indicating whether the processing target lens 100 is a right-eye lens or a left-eye lens is written in the barcode. Therefore, the host computer 9 collates the result read in advance from the barcode with the result of the left / right determination sent from the control device 8, so that the content represented by the barcode and the actual lens to be processed placed on the tray It can be checked whether 100 matches.
[0051]
Then, the host computer 9 corrects the angle of the layout data (data representing the mutual positional relationship between the reference position, the geometric center 101, and the eye point 107) stored in advance in accordance with the rotation angle θ. Above, block data (data representing the relative position of the eye point 107 with respect to the reference position) is calculated based on the layout data after the angle correction, and transmitted to the control device 8 (step S46).
[0052]
In the processing target lens 100, the reference position is the center of the upper edge 108 of the small ball 104. Therefore, the contact P detected by the image processing apparatus 6 is the reference position of the processing target lens 100, and the contact P at this time is the horizontal direction (left-right method in FIG. 6) and the vertical direction (up-down direction in FIG. 6) at the time of supply. Due to the misalignment, the position of the layout block device deviates from the original position. That is, the processing target lens 100 is displaced in the horizontal direction and the vertical direction. On the other hand, the block data is calculated on the assumption that the angular deviation of the processing target lens 100 is corrected as described above, but the positional deviation in the horizontal direction and the vertical direction has no positional deviation.
[0053]
Therefore, when the control device 8 causes the lens supply device 3 to transport the processing target lens 100 from the lens meter 5 to a predetermined lens holding position, the control device 8 detects the horizontal and vertical misalignment of the processing target lens 100 in the contact P. The lens is supplied based on the block data from the host computer 9 so that the eye point 107 of the processing target lens 100 is directly below the lens holder 200 held by the holder holding device 4. The apparatus 3 is controlled (step S24).
[0054]
Subsequently, the control device 8 controls the holder holding device 4 and corrects the angle by rotating the lens holder 200 by the rotation angle θ in order to correct the angle shift at the time of supplying the processing target lens 100 (step). S25). Then, the control device 8 controls the holder holding device 4 to lower the lens holder 200 and press the elastic seal 201 attached to the lens holder 200 against the processing target lens 100 so as to be in close contact therewith. Thereby, as shown in FIG. 2, the lens holder 200 is attached to the processing center (eye point 107) of the processing target lens 100 via the elastic seal 201 (step S26).
[0055]
The control device 8 controls the holder holding device 4 to convey the lens holder 200 together with the processing target lens 100 to a predetermined extraction position (step S27), and then controls the lens conveyance device 7 to extract the extraction position. The processing target lens 100 is conveyed to the edging apparatus (step S28).
Thus, the process of the layout block device for one processing target lens 100 is completed.
[0056]
The lens to be processed 100 sent to the edging device is subjected to edging processing such as beveling based on the lens frame shape data and the wearer's prescription data by the edging processing device. A matching spectacle lens is produced.
[0057]
【The invention's effect】
According to the present invention, an image of a spectacle lens to be processed is captured and binarized, and a geometric feature parameter of each figure included in the binarized image is extracted. Is extracted as an image of the upper edge of a small ball previously formed on the spectacle lens, and a reference position having a predetermined positional relationship with the processing center position is extracted on the binary image based on the extracted position of the upper edge of the small ball. When the operator manually aligns the spectacle lens reference image displayed on the eyeglass lens figure displayed on the remark chart or the screen of the TV monitor and the actual eyeglass lens as in the past. Compared to the above, highly accurate alignment can be realized, and the burden on the operator can be remarkably reduced. As a result, high-precision alignment between the spectacle lens and the lens holder can be performed efficiently and in a short time.
[0058]
In addition, by illuminating the spectacle lens with a step at the boundary between the ball and the ball from one surface side and taking an image of the spectacle lens from the other surface side, Only the image of the upper edge can be obtained, and it becomes easy to obtain the reference position and angular deviation of the spectacle lens.
[0059]
In addition, a minimum rectangle including the upper edge of the small ball is obtained on the binary image, and an angle deviation with respect to the normal position of the spectacle lens is obtained based on the position of the rectangle. The processing center position can be obtained, and the processing can be stopped for a spectacle lens having a significant angular deviation.
[0060]
Further, the binary image is rotated according to the angle shift so that the upper edge of the small ball is horizontal, and the spectacle lens is used for the right eye and the left eye based on the position of the upper edge of the small ball in the binary image after the rotation process. By determining which lens is for use, the right and left determination of the spectacle lens can be performed correctly, and it can be checked whether a spectacle lens different from the desired lens has been sent by mistake, If it is determined that the spectacle lens is sent in error, the processing of the spectacle lens can be stopped.
[0061]
In addition, the upper and lower sides of the spectacle lens are determined by determining the top and bottom of the spectacle lens based on the center position of the rectangle and the center of gravity of the top edge of the small ball. Processing of the spectacle lens supplied in the reverse state can be stopped.
[0062]
In addition, the layout data representing the positional relationship between the reference position and the processing center position is stored in a calculation unit different from the image processing unit, and the processing unit calculates the processing center position of the spectacle lens. Therefore, it becomes easy to register layout data according to the spectacle lens to be processed.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a bifocal lens layout block device according to an embodiment of the present invention;
FIG. 2 is a side view showing a state in which a lens holder is attached to a bifocal lens through an elastic seal.
3 is a block diagram showing a configuration of a lens meter of the layout block device of FIG. 1. FIG.
4 is a flowchart showing the operation of the layout block device of FIG. 1. FIG.
FIG. 5 is a flowchart showing the operation of the layout block device of FIG. 1;
6 is an explanatory diagram showing a state of image processing by the image processing device of the layout block device of FIG. 1; FIG.
FIGS. 7A and 7B are a plan view and a side view showing a positional relationship between a small lens of a bifocal lens, a geometric center, and the like.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Holder supply apparatus, 2 ... Seal supply apparatus, 3 ... Lens supply apparatus, 4 ... Holder holding apparatus, 5 ... Lens meter, 6 ... Image processing apparatus, 7 ... Lens conveyance apparatus, 8 ... Control apparatus, 9 ... Host computer , 31 ... light source, 39 ... imaging device, 100 ... bifocal lens, 101 ... geometric center, 102 ... horizontal reference line, 103 ... pedestal, 104 ... small ball, 107 ... eye point.

Claims (7)

加工治具を取り付ける加工中心位置を加工対象の眼鏡レンズ上で求め、この加工中心位置に加工治具を取り付ける手順を有する眼鏡レンズの位置合わせ方法であって、
加工対象の眼鏡レンズの画像を撮影して2値化する手順と、
2値化画像に含まれる個々の図形の幾何学的な特徴パラメータを抽出して、この特徴パラメータが所定の条件に合う図形を前記加工対象の眼鏡レンズに予め形成された小玉の上縁の画像として抽出する手順と、
抽出した小玉の上縁の中央の位置を前記加工対象の眼鏡レンズの基準位置として前記2値画像上で求める手順と
前記小玉の上縁を含む最小の長方形を前記2値画像上で求め、この長方形の位置に基づいて、水平基準線に対する前記加工対象の眼鏡レンズの角度ずれを求める手順と、
予め眼鏡レンズ毎に用意された、基準位置と加工中心位置との位置関係を表すレイアウトデータのうち、前記加工対象の眼鏡レンズに対応するレイアウトデータを前記角度ずれに応じて角度補正して、角度補正後のレイアウトデータと前記加工対象の眼鏡レンズの基準位置に基づいて前記加工対象の眼鏡レンズの加工中心位置を求める手順とを有することを特徴とする眼鏡レンズの位置合わせ方法。
A method for aligning a spectacle lens having a procedure for obtaining a processing center position for attaching a processing jig on a spectacle lens to be processed and attaching the processing jig to the processing center position,
A procedure of taking an image of a spectacle lens to be processed and binarizing;
An image of an upper edge of a small ball in which a geometric feature parameter of each figure included in the binarized image is extracted and a figure that satisfies the predetermined condition is formed on the eyeglass lens to be processed. And the procedure to extract as
A procedure for obtaining the center position of the upper edge of the extracted small ball on the binary image as a reference position of the eyeglass lens to be processed ;
A procedure for obtaining a minimum rectangle including the upper edge of the small ball on the binary image, and obtaining an angular deviation of the eyeglass lens to be processed with respect to a horizontal reference line based on the position of the rectangle;
Of the layout data representing the positional relationship between the reference position and the processing center position prepared in advance for each spectacle lens, the layout data corresponding to the spectacle lens to be processed is angle-corrected according to the angular deviation, and the angle A method for aligning a spectacle lens, comprising: a step of obtaining a processing center position of the spectacle lens to be processed based on layout data after correction and a reference position of the spectacle lens to be processed .
請求項1記載の眼鏡レンズの位置合わせ方法において、
台玉と小玉の境界に段差が存在する前記眼鏡レンズに対して一方の面側から照明光を照射して、他方の面側から前記眼鏡レンズの画像を撮影することにより、前記小玉の輪郭のうち上縁のみの画像を得ることを特徴とする眼鏡レンズの位置合わせ方法。
The method for aligning eyeglass lenses according to claim 1.
By irradiating illumination light from one surface side to the spectacle lens having a step at the boundary between the ball and the small ball, and taking an image of the spectacle lens from the other surface side, A method for aligning eyeglass lenses, wherein an image of only the upper edge is obtained.
請求項1記載の眼鏡レンズの位置合わせ方法において、
前記2値画像を前記小玉の上縁が水平となるよう前記角度ずれに応じて回転させ、回転処理後の2値画像における前記小玉の上縁の位置に基づいて、前記眼鏡レンズが右眼用、左眼用のいずれのレンズであるかを判定することを特徴とする眼鏡レンズの位置合わせ方法。
The method for aligning eyeglass lenses according to claim 1.
The binary image is rotated according to the angular deviation so that the upper edge of the small ball is horizontal, and the spectacle lens is used for the right eye based on the position of the upper edge of the small ball in the binary image after the rotation process. A method for aligning a spectacle lens, comprising determining which lens is for the left eye .
請求項記載の眼鏡レンズの位置合わせ方法において、
前記小玉の上縁を含む最小の長方形を前記2値画像上で求め、この長方形の中心位置と前記小玉の上縁の重心位置とに基づいて前記眼鏡レンズの上下を判定することを特徴とする眼鏡レンズの位置合わせ方法。
The method for aligning eyeglass lenses according to claim 1 .
The smallest rectangle including the upper edge of the small ball is obtained on the binary image, and the upper and lower sides of the spectacle lens are determined based on the center position of the rectangle and the center of gravity of the upper edge of the small ball. A method for aligning eyeglass lenses.
請求項記載の眼鏡レンズの位置合わせ方法において、
さらに、前記加工対象の眼鏡レンズに係る画像処理の経過時間が所定時間を超えている場合に、前記加工対象の眼鏡レンズをレイアウト・ブロック装置から排出する手順を有することを特徴とする眼鏡レンズの位置合わせ方法。
The method for aligning eyeglass lenses according to claim 1 .
The eyeglass lens further comprising a procedure of discharging the eyeglass lens to be processed from a layout block device when an elapsed time of image processing relating to the eyeglass lens to be processed exceeds a predetermined time . Alignment method.
加工対象の眼鏡レンズの画像を撮影する撮影手段と、前記画像を処理する画像処理手段と、前記眼鏡レンズの加工中心位置を求める演算手段と、この加工中心位置に加工治具を取り付ける機構とを有する眼鏡レンズのレイアウト・ブロック装置であって、
前記画像処理手段は、前記撮影手段によって撮影された画像を2値化して、2値化画像に含まれる個々の図形の幾何学的な特徴パラメータを抽出して、この特徴パラメータが所定の条件に合う図形を前記眼鏡レンズに予め形成された小玉の上縁の画像として抽出し、抽出した小玉の上縁の中央の位置を前記加工対象の眼鏡レンズの基準位置として前記2値画像上で求め、前記小玉の上縁を含む最小の長方形を前記2値画像上で求め、この長方形の位置に基づいて、水平基準線に対する前記加工対象の眼鏡レンズの角度ずれを求め、
前記演算手段は、基準位置と加工中心位置との位置関係を表すレイアウトデータを眼鏡レンズ毎に予め記憶し、前記加工対象の眼鏡レンズに対応するレイアウトデータを前記角度ずれに応じて角度補正して、角度補正後のレイアウトデータと前記加工対象の眼鏡レンズの基準位置に基づいて前記加工対象の眼鏡レンズの加工中心位置を求めることを特徴とする眼鏡レンズのレイアウト・ブロック装置
An imaging means for taking an image of the eyeglass lens to be processed, an image processing means for processing the image, an arithmetic means for obtaining a processing center position of the eyeglass lens, and a mechanism for attaching a processing jig to the processing center position An eyeglass lens layout block device comprising:
The image processing means binarizes the image photographed by the photographing means, extracts a geometric feature parameter of each figure included in the binarized image, and the feature parameter is set to a predetermined condition. A figure that fits is extracted as an image of an upper edge of a small ball previously formed on the spectacle lens, and a center position of the extracted upper edge of the small ball is obtained as a reference position of the eyeglass lens to be processed on the binary image, A minimum rectangle including the upper edge of the small ball is obtained on the binary image, and based on the position of the rectangle, an angular deviation of the eyeglass lens to be processed with respect to a horizontal reference line is obtained,
The calculation means stores in advance layout data representing a positional relationship between a reference position and a processing center position for each spectacle lens, and corrects the layout data corresponding to the spectacle lens to be processed according to the angular deviation. An eyeglass lens layout block device for obtaining a processing center position of the eyeglass lens to be processed based on layout data after angle correction and a reference position of the eyeglass lens to be processed .
請求項6記載の眼鏡レンズのレイアウト・ブロック装置において
さらに、エラーの発生時に前記加工対象の眼鏡レンズを排出する制御手段を有し、
前記画像処理手段は、前記加工対象の眼鏡レンズに係る画像処理の経過時間が所定時間を超えている場合に、画像処理不可エラーを前記制御手段に通知し、
前記制御手段は、前記画像処理不可エラーの通知を受けたときに、前記加工対象の眼鏡レンズをレイアウト・ブロック装置から排出することを特徴とする眼鏡レンズのレイアウト・ブロック装置
In the spectacle lens layout block device according to claim 6 ,
Furthermore, it has a control means for discharging the eyeglass lens to be processed when an error occurs,
The image processing means notifies the control means of an image processing impossible error when an elapsed time of image processing relating to the eyeglass lens to be processed exceeds a predetermined time,
The eyeglass lens layout / blocking device, wherein the control means discharges the eyeglass lens to be processed from the layout / blocking device when receiving a notification of the image processing impossible error .
JP2000188346A 2000-06-22 2000-06-22 Eyeglass lens alignment method and layout block device Expired - Fee Related JP3939903B2 (en)

Priority Applications (11)

Application Number Priority Date Filing Date Title
JP2000188346A JP3939903B2 (en) 2000-06-22 2000-06-22 Eyeglass lens alignment method and layout block device
US09/888,284 US6671039B2 (en) 2000-06-22 2001-06-21 Spectacle lens image sensing processing apparatus and spectacle lens positioning method
AU54020/01A AU779768B2 (en) 2000-06-22 2001-06-22 Spectacle lens image sensing processing apparatus and spectacle lens positioning method
DE60131580T DE60131580T2 (en) 2000-06-22 2001-06-22 Device for image recording and image processing in spectacle lenses and method for positioning these lenses
EP01115197A EP1167942B1 (en) 2000-06-22 2001-06-22 Spectacle lens image sensing processing apparatus
DE60141925T DE60141925D1 (en) 2000-06-22 2001-06-22 Device for image recording and image processing in spectacle lenses and method for positioning these lenses
DE60136888T DE60136888D1 (en) 2000-06-22 2001-06-22 Device for image acquisition and image processing in spectacle lenses
AT06117812T ATE465399T1 (en) 2000-06-22 2001-06-22 DEVICE FOR IMAGE RECORDING AND IMAGE PROCESSING FOR EYEGLASSE LENSES AND METHOD FOR POSITIONING THESE EYEGLASSE LENSES
AT01115197T ATE417255T1 (en) 2000-06-22 2001-06-22 DEVICE FOR IMAGE RECORDING AND IMAGE PROCESSING FOR EYEGLASSE LENSES
EP06117812A EP1717569B1 (en) 2000-06-22 2001-06-22 Spectacle lens image sensing processing apparatus and spectacle lens positioning method
EP06117805A EP1719996B1 (en) 2000-06-22 2001-06-22 Spectacle lens image sensing processing apparatus and spectacle lens positioning method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000188346A JP3939903B2 (en) 2000-06-22 2000-06-22 Eyeglass lens alignment method and layout block device

Publications (2)

Publication Number Publication Date
JP2002001639A JP2002001639A (en) 2002-01-08
JP3939903B2 true JP3939903B2 (en) 2007-07-04

Family

ID=18688146

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000188346A Expired - Fee Related JP3939903B2 (en) 2000-06-22 2000-06-22 Eyeglass lens alignment method and layout block device

Country Status (1)

Country Link
JP (1) JP3939903B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101855000B1 (en) 2016-10-25 2018-05-04 숭실대학교산학협력단 Apparatus and method for extracting glasses lens data based on image processing, recording medium for performing the method

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3734512B2 (en) * 1993-12-27 2006-01-11 株式会社メニコン Contact lens appearance inspection method and appearance inspection apparatus
DE4414784C2 (en) * 1994-04-28 1996-07-18 Wernicke & Co Gmbh System for grinding the peripheral edge and / or an optical surface of spectacle lenses
JP3149339B2 (en) * 1995-06-19 2001-03-26 旭光学工業株式会社 Engraving separation method and optical member inspection device
US6088089A (en) * 1996-06-28 2000-07-11 G. Rodenstock Instruments Gmbh Process and device for measuring the optical properties of spectacle lenses by means of an optical detector of engravings in the spectacle lenses
JPH10132707A (en) * 1996-09-05 1998-05-22 Topcon Corp Concealed mark observer and lens meter
JP4068233B2 (en) * 1998-08-31 2008-03-26 株式会社ニデック Cup mounting device
JPH11216650A (en) * 1998-01-30 1999-08-10 Nidek Co Ltd Centering device

Also Published As

Publication number Publication date
JP2002001639A (en) 2002-01-08

Similar Documents

Publication Publication Date Title
US6671039B2 (en) Spectacle lens image sensing processing apparatus and spectacle lens positioning method
TWI447383B (en) Method for detecting position of defect on semiconductor wafer
KR101234332B1 (en) Device and method for corrected acquisition of the shadow of an ophthalmic lens possessing one or more marks
JP3939902B2 (en) Positioning method and layout block device for progressive multifocal spectacle lens
JP3939903B2 (en) Eyeglass lens alignment method and layout block device
JP4481976B2 (en) Geometric center position detection method for progressive multifocal spectacle lens
CN114127623A (en) System and method for determining at least one characteristic of at least one lens mounted in a spectacle frame
JP4437808B2 (en) Hidden Mark Detection Method for Progressive Multifocal Eyeglass Lens
JP4409467B2 (en) Eyeglass lens suction jig mounting device
CN110599450B (en) LED light source position correction method and system
JPH11295672A (en) Method and device for aligning spectacle lenses
JP4729142B2 (en) Suction jig mounting device for eyeglass lens, and suction jig mounting position determination method
JP7344047B2 (en) How to align the board
US20230249308A1 (en) Centering apparatus and process
JP2005316433A (en) Suction fixture mounting device of spectacle lens, and suction fixture mounting position determining method
CN214151179U (en) Lens barrel for camera module, camera module and electronic equipment
JP3887084B2 (en) Optical member inspection device
WO2022189352A1 (en) Method for automatically centering an ophthalmic lens
JP2023105366A (en) Drawing system and drawing method of lens shape to base lens for spectacle lens
JP4729145B2 (en) Suction jig mounting device for eyeglass lens, and suction jig mounting position determination method
WO2023111897A1 (en) Method and system for inspecting an ophthalmic lens in an automated lens manufacturing process
JP2004287208A (en) Method and device for fixing spectacle lens
JP4353913B2 (en) Suction jig mounting device for eyeglass lens, and suction jig mounting position determination method
KR20230086307A (en) Method for calibration of blocker
CN110726532A (en) Focusing point detection method of contact lens

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20031215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060912

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070327

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070329

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3939903

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110406

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120406

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130406

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130406

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140406

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees