JP2021149031A - 仮想画像生成装置及び仮想画像生成方法 - Google Patents
仮想画像生成装置及び仮想画像生成方法 Download PDFInfo
- Publication number
- JP2021149031A JP2021149031A JP2020050935A JP2020050935A JP2021149031A JP 2021149031 A JP2021149031 A JP 2021149031A JP 2020050935 A JP2020050935 A JP 2020050935A JP 2020050935 A JP2020050935 A JP 2020050935A JP 2021149031 A JP2021149031 A JP 2021149031A
- Authority
- JP
- Japan
- Prior art keywords
- virtual image
- data
- spectacle lens
- virtual
- mesh data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 24
- 238000012986 modification Methods 0.000 claims abstract description 8
- 230000004048 modification Effects 0.000 claims abstract description 8
- 230000008859 change Effects 0.000 claims description 22
- 238000012937 correction Methods 0.000 claims description 17
- 238000006243 chemical reaction Methods 0.000 claims description 14
- 230000004044 response Effects 0.000 claims description 3
- 238000013461 design Methods 0.000 abstract description 40
- 230000010365 information processing Effects 0.000 description 22
- 210000005252 bulbus oculi Anatomy 0.000 description 16
- 230000008569 process Effects 0.000 description 15
- 238000005520 cutting process Methods 0.000 description 11
- 210000001508 eye Anatomy 0.000 description 11
- 238000012545 processing Methods 0.000 description 11
- 230000000750 progressive effect Effects 0.000 description 7
- 210000001525 retina Anatomy 0.000 description 7
- 238000004088 simulation Methods 0.000 description 7
- 239000000463 material Substances 0.000 description 6
- 238000005498 polishing Methods 0.000 description 6
- 238000013481 data capture Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000013213 extrapolation Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 208000001491 myopia Diseases 0.000 description 3
- 201000009310 astigmatism Diseases 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 239000004925 Acrylic resin Substances 0.000 description 1
- 229920000178 Acrylic resin Polymers 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 210000004087 cornea Anatomy 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000001179 pupillary effect Effects 0.000 description 1
- 239000000700 radioactive tracer Substances 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000011347 resin Substances 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02C—SPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
- G02C13/00—Assembling; Repairing; Cleaning
-
- G—PHYSICS
- G02—OPTICS
- G02C—SPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
- G02C7/00—Optical parts
- G02C7/02—Lenses; Lens systems ; Methods of designing lenses
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/06—Ray-tracing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Optics & Photonics (AREA)
- General Health & Medical Sciences (AREA)
- Architecture (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
- Eyeglasses (AREA)
- Image Generation (AREA)
Abstract
【課題】眼鏡レンズの設計の修正内容を反映した仮想画像を生成するまでにかかる時間を抑えること。【解決手段】仮想画像生成装置を、眼鏡レンズの三次元形状を示す形状データを所定の形式の離散的なメッシュデータに変換する変換部と、変換された眼鏡レンズのメッシュデータを所定の形式でメッシュ状に区画された仮想空間のデータに取り込むデータ取込部と、取り込まれたメッシュデータよりなる眼鏡レンズを通して、仮想空間に配置された物体を見たときの、仮想画像を生成する仮想画像生成部と、生成される仮想画像を所定の表示部に表示させる表示制御部と、表示された仮想画像に対する指示に応じて眼鏡レンズのメッシュデータを修正する修正部と、を備える構成とする。仮想画像生成部は、修正部による修正後のメッシュデータよりなる眼鏡レンズを通して物体を見たときの仮想画像を生成する。【選択図】図2
Description
本発明は、仮想画像生成装置及び仮想画像生成方法に関する。
眼鏡レンズ装用時の見え方を仮想画像を用いて患者にシミュレーションさせる装置が知られている(例えば特許文献1参照)。眼鏡レンズ装用時の見え方を患者にシミュレーションさせることにより、完成品の眼鏡レンズが患者の眼に合わないという不具合を事前に避けることができる。
一般に、この種の装置は、光源、観察対象となるオブジェクトのモデル、処方値に応じた眼鏡レンズモデル及び眼球モデルをCG(Computer Graphics)空間に配置して光線追跡を行い、眼球モデルの網膜上に結像するオブジェクトの画像(すなわち、眼鏡レンズ装用時の見え方を示すCG画像)を生成する。ここで、眼鏡レンズの設計データは、切削加工機や研磨加工機によるレンズ加工を行うため、例えばアナログ形式のデータとなっている。そのため、眼鏡レンズの設計データは、CG空間に取り込む際、トランスレータによりCGモデル形式のデータに変換される。
CG画像を観察した患者がその見え方の変更を要求すると、オペレータは、患者の要求に応じて眼鏡レンズの設計データに修正を加える。オペレータの操作により、装置は、修正後の設計データをCGモデル形式のデータに変換し、CGモデルとしてCG空間に配置する。次いで、光線追跡を行って、患者の要求に応じた修正が加わった眼鏡レンズ装用時の見え方を示すCG画像を生成する。
眼鏡レンズの設計に修正が入る都度、設計データを修正し、これ(すなわち切削加工機等の形式に適合する設計データ)をCG空間に取り込むため、CGモデル形式のデータに変換する必要がある。そのため、修正内容を反映した仮想画像を生成するまでに時間がかかるという問題が指摘される。
本発明は上記の事情に鑑みてなされたものであり、その目的とするところは、眼鏡レンズの設計の修正内容を反映した仮想画像を生成するまでにかかる時間を抑えることができる仮想画像生成装置及び仮想画像生成方法を提供することである。
本発明の一実施形態に係る仮想画像生成装置は、眼鏡レンズの三次元形状を示す形状データを所定の形式の離散的なメッシュデータに変換する変換部と、変換部により変換された眼鏡レンズのメッシュデータを所定の形式でメッシュ状に区画された仮想空間のデータに取り込むデータ取込部と、データ取込部により取り込まれたメッシュデータよりなる眼鏡レンズを通して、仮想空間に配置された物体を見たときの、仮想画像を生成する仮想画像生成部と、仮想画像生成部により生成される仮想画像を所定の表示部に表示させる表示制御部と、表示部に表示された仮想画像に対する指示に応じて眼鏡レンズのメッシュデータを修正する修正部と、を備える。仮想画像生成部は、修正部による修正後のメッシュデータよりなる眼鏡レンズを通して物体を見たときの仮想画像を生成する。
本発明の一実施形態において、上記指示は、例えば、仮想画像内の領域を指示する領域指示と、領域における物体の見え方の変更を指示する見え方変更指示と、を含む。この場合、修正部は、領域指示で指示された領域からの光線を追跡し、追跡した光線が通る眼鏡レンズ上の光線通過領域を特定し、領域における物体の見え方が見え方変更指示で指示された見え方となるように、光線通過領域のメッシュデータを修正する。
本発明の一実施形態において、表示部は、例えばタッチスクリーンである。この場合、表示部に表示される仮想画像に対するタッチ操作が上記領域指示である。
本発明の一実施形態において、眼鏡レンズのメッシュデータは、例えば3Dプリンタで使用可能な形式のデータである。
本発明の一実施形態において、眼鏡レンズのメッシュデータは、例えば枠入れ後のレンズ形状を示すデータである。
本発明の一実施形態に係る、仮想画像生成装置が実行する仮想画像生成方法は、眼鏡レンズの三次元形状を示す形状データを所定の形式の離散的なメッシュデータに変換する変換ステップと、変換ステップにて変換された眼鏡レンズのメッシュデータを所定の形式でメッシュ状に区画された仮想空間のデータに取り込むデータ取込ステップと、データ取込ステップにて取り込まれたメッシュデータよりなる眼鏡レンズを通して、仮想空間に配置された物体を見たときの、仮想画像を生成する仮想画像生成ステップと、仮想画像生成ステップにて生成される仮想画像を所定の表示部に表示させるステップと、表示部に表示された仮想画像に対する指示に応じて眼鏡レンズのメッシュデータを修正する修正ステップと、修正ステップにて修正されたメッシュデータよりなる眼鏡レンズを通して物体を見たときの仮想画像を生成する修正画像生成ステップと、修正画像生成ステップにて生成される仮想画像を表示部に表示させるステップと、を含む。
本発明の一実施形態によれば、仮想画像生成装置及び仮想画像生成方法において、眼鏡レンズの設計の修正内容を反映した仮想画像を生成するまでにかかる時間を抑えることができる。
以下、本発明の一実施形態に係るシミュレーションシステムについて図面を参照しながら説明する。
図1は、本発明の一実施形態に係るシミュレーションシステム1の概略構成を示すブロック図である。シミュレーションシステム1は、例えば眼鏡を販売する店舗に設置されており、図1に示されるように、情報処理端末10、入力装置20及び表示装置30を備える。情報処理端末10には、加工機である3Dプリンタ40が有線又は無線で接続される。
情報処理端末10は、仮想画像生成装置の一例である。本実施形態において、情報処理端末10は、デスクトップPC(Personal Computer)である。情報処理端末10は、ノートPC等の別の形態の情報処理端末であってもよい。
本実施形態において、入力装置20は、マウス及びキーボードである。入力装置20は、情報処理端末10に有線又は無線で接続される。
表示装置30は、ディスプレイにタッチパネルを取り付けたタッチスクリーンである。表示装置30は、例えば店舗内のカウンタ上の所定位置に設置される。一例として、表示装置30は、着座した患者(すなわち眼鏡の購入を検討している来店者)の眼と画面との距離が80cm程度となる位置に設置される。なお、オペレータ(すなわち店舗のスタッフ)は、患者の体格や年齢等を考慮し、表示装置30を移動させることによって患者の眼と画面との距離を変更してもよい。表示装置30は、タブレット端末、スマートフォン、VR(Virtual Reality)ヘッドセット等の別の形態の表示装置であってもよい。
本実施形態では、情報処理端末10、入力装置20、表示装置30のそれぞれが別個の装置となっているが、別の実施形態では、これら装置が単一の装置に含まれていてもよい。このような装置の一例として、情報処理端末10、入力装置20及び表示装置30の機能を備えるタブレット端末が挙げられる。この場合、シミュレーションシステム1は、単一のタブレット端末で構成される。
情報処理端末10は、制御部100及びメモリ110を備える。
制御部100は、例えばDSP(Digital Signal Processor)及びCPU(Central Processing Unit)を搭載したシステムLSI(Large-scale Integrated Circuit)である。メモリ110は、HDD(Hard Disk Drive)、RAM(Random Access Memory)、ROM(Read Only Memory)を含む。制御部100は、HDDやROMに格納されているプログラムを呼び出し、呼び出したプログラムをDSPやCPUで実行することにより、各種制御を行う。HDDやROM、RAMには、プログラムの実行に必要な制御パラメータも格納される。
HDDやROMに格納されるプログラムの1つに、仮想画像生成プログラムがある。図2に、仮想画像生成プログラムで実行される仮想画像生成処理のフローチャートを示す。
制御部100による仮想画像生成プログラムの実行に先立ち、オペレータにより患者の検眼が行われる。検眼の結果、患者に対する処方値が決定する。処方値には、例えば、球面屈折力、乱視屈折力、乱視軸方向、プリズム屈折力、プリズム基底方向、加入度数、遠用PD(Pupillary Distance)、近用PDがある。オペレータは、入力装置20を用いて、各種処方値データを入力する。入力された各種処方値データは、例えば情報処理端末10のHDDに保存される。
オペレータは、入力装置20を用いて、患者のレイアウトデータを入力する。入力されたレイアウトデータは、例えば情報処理端末10のHDDに保存される。レイアウトデータには、例えばアイポイントの位置や前傾角、あおり角、頂点間距離、瞳孔間距離等のデータが含まれる。レイアウトデータの入力は省くこともできる。なお、図2の仮想画像生成処理に用いるレイアウトデータは、患者のレイアウトデータから変更を加えたものであってもよい。例えばレイアウトデータに少しずつ変更を加え、この変更を加える毎に図2の仮想画像生成処理を実行することにより、レイアウトデータ毎のシミュレーション結果(後述の、眼鏡レンズ装用時の見え方を示すCG画像CGI)を得てもよい。
オペレータは、入力装置20を用いて、患者により選択されたフレームの形状データ(便宜上「フレームデータ」と記す。)を入力する。入力されたフレームデータは、例えば情報処理端末10のHDDに保存される。一例として、フレームデータは、バーコードタグで管理される。オペレータは、不図示のバーコードリーダによってフレームに貼り付けられたバーコードタグを読み取る。これにより、フレームデータの入力が完了する。フレームデータの入力は省くこともできる。フレームデータは、フレームトレーサの計測結果や型板(フレームシェイプ)の種類を示すデータであってもよく、また、加工側でフレームの形状データが既知の場合はフレームの品番を示すデータであってもよい。
オペレータは、入力装置20を操作して、検眼で得られた処方値をもとに眼鏡レンズの種類を選択する。選択可能な眼鏡レンズには、例えば、単焦点球面レンズ、単焦点非球面レンズ、疲労軽減用レンズ、近用専用レンズ、累進屈折力レンズ(遠近タイプ、中近タイプ等)がある。なお、累進屈折力レンズには、種々の設計タイプ(例えば近用の明視域が広いタイプ、遠用の明視域が広いタイプ等)がある。オペレータは、累進屈折力レンズを選択した場合には、入力装置20を操作して、更に設計タイプを選択する。
制御部100により、眼鏡レンズの設計データが作成される。この設計データ(便宜上「設計データDD」と記す。)は、眼鏡レンズの形状データである。制御部100は、オペレータにより選択された種類の眼鏡レンズによって処方度数が達成されるように、設計データDDを作成する。設計データDDは、例えば本件特許出願時に公知の設計プログラムを用いて作成される。
一例として、設計データDDは、XY平面に格子状に配置された制御点の関数である。制御点の値は、Z方向の高さを示す。設計データDDが示す眼鏡レンズの形状は、これら制御点とノットベクトルで定義されるBスプライン曲線の形状となっている。
なお、情報処理端末10のHDDには、多数の設計データDD(設計データ群)が予め格納されていてもよい。この場合、制御部100は、設計データDDの作成に代わり、HDDに格納された設計データ群の中から、選択された眼鏡レンズの種類と処方度数に基づいて、1つの設計データDDを選択する。
なお、設計データDDの作成処理又は選択処理の実行は、例えば情報処理端末10とネットワーク接続された眼鏡レンズメーカのサーバが負担してもよい。以下に説明する図2の仮想画像生成処理についても、情報処理端末10でなく、眼鏡レンズメーカのサーバが実行してもよい。
設計データDDは、切削加工機や研磨加工機によるレンズ加工を行うため、眼鏡レンズの形状を連続的な値で示すアナログ形式のデータとなっている。仮想画像生成プログラムには、プログラムモジュールとしてトランスレータが組み込まれている。トランスレータは、設計データDDを所定のCGモデル形式のデータ(便宜上「眼鏡レンズモデルデータLMD」と記す。)に変換する(ステップS11)。眼鏡レンズモデルデータLMDは、例えば眼鏡レンズの形状を三角メッシュで表現したデータである。
すなわち、ステップS11において、制御部100(トランスレータ)は、眼鏡レンズの三次元形状を示す形状データ(設計データDD)を所定の形式の離散的なメッシュデータ(眼鏡レンズの三次元形状を三角メッシュで表現する眼鏡レンズモデルデータLMD)に変換する変換部として動作する。なお、眼鏡レンズモデルデータLMDは、眼鏡レンズの形状を三角メッシュでなく、ボクセルで表現したデータであってもよい。
制御部100は、ステップS11の変換処理によって得た眼鏡レンズモデルデータLMDを、これ(眼鏡レンズモデルデータLMD)と同じ形式でメッシュ状に区画されたCG空間(便宜上「CG空間CGS」と記す。)のデータに取り込む(ステップS12)。これにより、眼鏡レンズモデルデータLMDによる眼鏡レンズモデル(便宜上「眼鏡レンズモデルLM」と記す。)がCG空間CGSに配置される。
すなわち、ステップS12において、制御部100は、変換部により変換された眼鏡レンズモデルデータLMDを所定の形式でメッシュ状に区画されたCG空間CGSのデータに取り込むデータ取込部として動作する。
なお、CG空間CGSには、予め又はオペレータの操作により、光源、観察対象となるオブジェクトモデル及び眼球モデルが配置される。眼球モデルは、グルストランドの模型眼のような一般によく知られているモデルであってもよく、また、眼球を構成する全ての組織を持つ複雑なモデルに限らず、例えば主な眼の要素(角膜と水晶体など)と網膜だけを持つ簡素なモデルであってもよい。
制御部100は、オペレータにより入力されたレイアウトデータに基づいてCG空間CGS内における眼鏡レンズモデルLMの位置及び患者の前額平行面に対する角度を決定し、決定された位置及び角度で眼鏡レンズモデルLMをCG空間CGSに配置する。なお、レイアウトデータの入力が省かれている場合、眼鏡レンズモデルLMは、CG空間CGSに既定の位置及び角度で配置される。
また、制御部100は、オペレータにより入力されたフレームデータに基づいて眼鏡レンズモデルLMを枠入れ後のレンズ形状にモデリングし、モデリング後の眼鏡レンズモデルLMをCG空間CGSに配置する。なお、フレームデータの入力が省かれている場合、眼鏡レンズモデルLMは、既定のレンズ形状にモデリングされてCG空間CGSに配置される。
すなわち、CG空間CGSに配置される眼鏡レンズモデルLMの形状は、アンカットレンズ形状でなく枠入れ後の形状(カットレンズ形状)である。なお、眼鏡レンズモデルLMの形状は、カットレンズ形状でなく、アンカットレンズ形状であってもよい。
図3に、複数のオブジェクトモデル、眼鏡レンズモデルLM及び眼球モデルEMを配置したCG空間CGSの一例を示す。なお、図3では、便宜上、オブジェクトモデルよりも大きなスケールで、眼鏡レンズモデルLM及び眼球モデルEMを示す。また、CG空間CGSには、左右一対の眼鏡レンズモデルLM及び眼球モデルEMが配置されるが、図3では、便宜上、一組の眼鏡レンズモデルLM及び眼球モデルEMのみ示す。
複数のオブジェクトモデルには、デスク、本、PCモニタ、ボックス、壁、窓、木が含まれる。便宜上、デスク、本、PCモニタ、ボックス、壁、窓、木のオブジェクトに、それぞれ、符号50〜56を付す。複数のオブジェクトモデルの中で患者が注視する対象として、本、PCモニタ、木が想定される。本51は、近距離(眼球モデルから30cm〜40cm離れた位置)に配置され、PCモニタ52は、中距離(眼球モデルから70cm〜80cm離れた位置)に配置され、木56は、遠距離(眼球モデルから4m離れた位置)に配置される。
制御部100は、光線追跡を行い、眼球モデルEMの網膜上に結像するオブジェクトの画像(すなわち、眼鏡レンズ装用時の見え方を示すCG画像CGI)を生成する(ステップS13)。ここでは、左右の各眼球モデルEMの網膜上でのCG画像CGI又は左右一方の眼球モデルEMの網膜上でのCG画像CGIが生成される。CG画像CGIには、各画素に写るオブジェクト(各物体点)から眼球モデルEM(例えば回旋中心)までの距離情報が付帯する。図4に、CG画像CGIの一例を示す。
眼鏡レンズモデルLMが遠近両用累進屈折力レンズの場合を考える。この場合、制御部100は、例えば3パターンのCG画像CGIを生成する。具体的には、制御部100は、眼鏡レンズの近用部を通してオブジェクトを見たときの近用CG画像、中間距離のオブジェクトを見たとき(言い換えると、累進帯の長さ方向における中間部を通してオブジェクトを見たとき)の中間CG画像、眼鏡レンズの遠用部を通してオブジェクトを見たときの遠用CG画像を生成する。
このように、ステップS13において、制御部100は、データ取込部により取り込まれたメッシュデータよりなる眼鏡レンズを通して、CG空間CGSに配置されたオブジェクトを見たときの、CG画像CGIを生成する仮想画像生成部として動作する。
制御部100は、CG画像CGIを表示装置30に出力する(ステップS14)。これにより、CG画像CGIが表示装置30に表示される。
表示装置30が三次元画像表示対応のディスプレイやVRヘッドセットである場合を考える。この場合、制御部100は、左右一対のCG画像CGIを表示装置30に出力する。表示装置30が前者のディスプレイである場合、患者は、専用の液晶シャッタ眼鏡や円偏光フィルタ眼鏡等を装用することにより、CG画像CGIを立体視することができる。表示装置30が後者のVRヘッドセットである場合、患者は、VRヘッドセットを装用することにより、CG画像CGIを立体視することができる。
このように、制御部100は、仮想画像生成部により生成されるCG画像CGIを表示装置30に表示させる表示制御部として動作する。
患者は、表示装置30に表示されたCG画像CGIを観察する。オペレータは、CG画像CGIを観察する患者に、CG画像CGI内で見え方を変えたい領域をタッチするよう伝える。なお、当該領域のタッチを促すメッセージが表示装置30に表示されてもよい。表示装置30は、患者にタッチされた画面内の座標を検知して制御部100に送信する。
CG画像CGIには、例えばオブジェクトと重ならない位置に、「+0.25D」、「+0.50D」、「−0.25D」、「−0.50D」等を表記したアイコンが重畳して表示される。なお、図4では、便宜上、「+0.25D」のアイコン61と、「−0.25D」のアイコン62のみ示す。オペレータは、見え方をどの程度変えたいかを患者に訊いて、アイコンをタッチする。一例として、患者がもう少しクリア(鮮明)に見たいと言った場合、「+0.25D」のアイコン61をタッチする。
なお、オペレータの手を借りず、患者自身が判断してアイコンをタッチしてもよい。タッチされたアイコンの情報(より正確には、タッチされたアイコンが表示される座標)は、制御部100に送信される。また、アイコンの表記は、度数の値でなく、万人により分かり易い表記(例えば「少しクリア」、「クリア」、「少しぼやけ」等)に変えてもよい。
CG画像CGIに対するタッチ操作は、見え方を変えたいCG画像CGI内の領域を指示する領域指示である。「+0.25D」等のアイコンに対するタッチ操作は、当該領域(便宜上「指示領域IA」と記す。)におけるオブジェクトの見え方の変更を指示する見え方変更指示である。
等非点収差の等高線をCG画像CGIに重畳して表示する変形例が考えられる。この変形例では、例えば等高線をタッチしてドラッグすることにより、等高線の形を変えることができる。等高線の形が変わることにより、例えば明視域の広さを変えることができる。このような等高線に対するタッチ操作及びドラッグ操作も、見え方変更指示に含まれる。また、明視域の広さを変えたい等高線をタッチしたときに、「やや狭く」、「少し広く」、「広く」を表記したアイコンを表示してもよい。この場合、ドラッグ操作に代えて、これらアイコンをタッチ操作することにより、明視域の広さを変えることができる。このような等高線に対するタッチ操作及びアイコンにタッチ操作も、見え方変更指示に含まれる。
制御部100は、領域指示及び見え方変更指示を検知すると(ステップS15:YES)、指示領域IAからの光線(より詳細には、指示領域IAに含まれる点群からの光線群)を追跡し、追跡した光線が通る眼鏡レンズモデルLM上の光線通過領域PAを特定する(ステップS16)。
制御部100は、眼鏡レンズモデルLM上の光線通過領域PAにおいて見え方変更指示により指示された度数や非点収差分布の変化が加わるように、光線通過領域PAの形状を修正する(ステップS17)。なお、光線通過領域PAの形状とその周辺領域の形状とを滑らかにつなぐため、また、これら領域に適切な収差量を与えるため、光線通過領域PAの周辺領域の形状も必要に応じて修正される。
すなわち、ステップS16及びS17において、制御部100は、表示装置30に表示されたCG画像CGIに対する指示に応じて眼鏡レンズモデルLMを修正する修正部として動作する。より詳細には、ステップS16及びS17において、修正部として動作する制御部100は、指示領域IAからの光線を追跡し、追跡した光線が通る眼鏡レンズモデルLM上の光線通過領域PAを特定し、光線通過領域PAにおけるオブジェクトの見え方が見え方変更指示で指示された見え方となるように、光線通過領域PAの形状を修正する。
なお、光線通過領域PAの特定及び形状の修正は、オペレータが手入力作業で行ってもよい。
本実施形態では、アイコンをタッチ操作することにより度数を0.25Dずつ変更することができるが、別の実施形態では、アイコンをタッチ操作することにより度数をn(nは0.25以外であり、一例として0.125)Dずつ変更することができてもよい。この場合、nD(例えば0.125D)を表記するアイコンがCG画像CGIに重畳して表示される。このアイコンは、度数を細かいピッチで連続的に変更させるためのスライダに代えてもよい。
眼鏡レンズモデルLMが遠近両用累進屈折力レンズモデルであり、近用CG画像を観察する患者が近距離にある本51をタッチし、更に、「+0.25D」のアイコン61をタッチするケースについて説明する。このケースでは、制御部100は、タッチされた画素が写すオブジェクトの全体(すなわち本51全体)を写す画素領域を指示領域IAとして検知する。
図5に、このケースの説明を補助する図であって、図3のCG空間CGS内の、本51、眼鏡レンズモデルLM及び眼球モデルEMを含む部分を拡大した図を示す。また、図5には、光線(言い換えると、本51に対する患者の視線)を示す。なお、図5では、眼鏡レンズモデルLMの上部を遠用部とし、眼鏡レンズモデルLMの下部を近用部とする。そのため、図5において、光線は、眼鏡レンズモデルLMの下部を通っている。また、眼球モデルEMの網膜(主に中心窩)と本51間の光線は多数存在するが、図5では、便宜上、二本の光線R1、R2のみ示す。図5中、光線R1と光線R2に挟まれる眼鏡レンズモデルLM上の領域が光線通過領域PAである。
制御部100は、本51の像が形成される網膜上の領域(言い換えると、近用CG画像内で本51全体を写す画素領域(指示領域IA))、及びこの画素領域に付帯する距離情報(言い換えると、本51の物体距離)から、眼鏡レンズモデルLMに入射される光線R1、R2等の軌跡を計算し、計算結果から光線通過領域PAを特定する。
制御部100は、特定した光線通過領域PAにおいて度数が0.25D上がるように、光線通過領域PAの形状を修正する。
制御部100は、眼鏡レンズモデルLMの形状修正後、光線追跡を行い、CG画像CGI(すなわち、形状修正後の眼鏡レンズ装用時の見え方を示すCG画像CGI)を生成し(ステップS18)、生成したCG画像CGIを表示装置30に出力する(ステップS19)。これにより、修正内容を反映したCG画像CGIが表示装置30に表示される。
図4に示されるように、CG画像CGIには「OK」のアイコン63が重畳して表示される。「OK」のアイコン63がタッチ操作されると(ステップS20:YES)、制御部100は、眼鏡レンズ装用時の見え方が患者の納得するものになったとみなし、図2の仮想画像生成処理を終了する。CG画像CGIがタッチ操作されると(ステップS20:NO)、制御部100は、この操作を領域指示として検知し、ステップS15に戻る。患者が眼鏡レンズ装用時の見え方に納得するまで、ステップS15〜S20の処理がループする。
眼鏡レンズモデルLMが遠近両用累進屈折力レンズの場合、近用CG画像、中間CG画像、遠用CG画像の全てのCG画像CGIに対し、ステップS13〜S20の処理が実行される。
このように、本実施形態では、修正対象のデータは、制御点の関数である設計データDDでなく、眼鏡レンズモデルデータLMDである。そのため、本実施形態では、眼鏡レンズの設計に修正が入る都度行っていた、設計データDDから眼鏡レンズモデルデータLMDへの変換処理が不要となる。これにより、修正内容を反映したCG画像CGIを生成するまでにかかる時間を短く抑えることが可能となる。
オペレータは、修正内容を反映したCG画像CGIを患者に速やかに提示することができる。患者を長時間待たせることなく、患者の意見が反映された設計変更を眼鏡レンズに加えることができるため、装用時の見え方が患者の納得のいくものとなる眼鏡レンズの設計を店舗内で完結させることができる。
従来のように、修正後の設計データDDから眼鏡レンズモデルデータLMDへの変換を行うと、例えば両データの分解能の違いから、眼鏡レンズモデルデータLMDが設計データDDに対して誤差を含むもの(例えば眼鏡レンズモデルデータLMDによる形状が設計データDDによる形状に対して劣化した形状)となることがある。本実施形態では、この変換処理が不要であることから、この種の誤差が眼鏡レンズモデルデータLMDに含まれない。
また、本実施形態では、眼鏡レンズの形状そのものを示さない設計データDDでなく、眼鏡レンズの形状そのものを示す眼鏡レンズモデルデータLMDが修正対象である。オペレータは、修正後の眼鏡レンズの形状を速やかに把握することができるため、修正作業の容易性が向上する。
図2の仮想画像生成処理が終了(言い換えると、眼鏡レンズ装用時の見え方について患者が納得)すると、オペレータは、入力装置20を用いて、情報処理端末10に対して眼鏡レンズの加工指示を入力する。加工指示が入力されると、情報処理端末10は、図2の仮想画像生成処理で最終的に得た眼鏡レンズモデルデータLMDを3Dプリンタ40に送信する。
眼鏡レンズモデルデータLMDは、3Dプリンタ40で使用可能な形式のデータであり、例えばSTL形式でのデータある。そのため、情報処理端末10は、眼鏡レンズモデルデータLMDを別の形式のデータに変換することなく3Dプリンタ40に送信する。
3Dプリンタ40は、基材を用いて、情報処理端末10より受信した眼鏡レンズモデルデータLMDにより表現される形状の眼鏡レンズを造形する。使用される基材は、例えばUV硬化型の透明な樹脂である。具体的には、透明性が高くかつ微細な造形に適したアクリル樹脂等がある。
このように、本実施形態では、情報処理端末10により作成された眼鏡レンズモデルデータLMDを、そのまま、3Dプリンタ40用の加工データとして使用することができる。眼鏡レンズモデルデータLMDを別の形式のデータに変換する必要がないため、データ形式の変換により生じ得る誤差に配慮した設計を行う必要がない。
3Dプリンタ40を用いることにより、切削加工機や研磨加工機によるレンズ加工時に生じていた切削屑等がなくなる。そのため、加工時に必要な基材の量が減る。また、切削屑等を回収・除去するための設備が不要となる。
切削加工機や研磨加工機を用いる場合、アンカットレンズの作成から始まる。例えば基材をブロッカで固定し、固定した基材を切削・研磨することにより、枠入れ前のアンカットレンズが製造される。加工機が扱うデータは矩形のデータ領域を必要とするため、円形状のアンカットレンズを加工する際は、レンズが存在しない部分の領域のデータを外挿により補間しなければならない。このとき、基材部分と外挿部分の境界は、連続かつ滑らかに面として破綻しないように接続しないと、バイト等の工具で基材を切削等する際に工具を円滑に動かせず、加工できなくなってしまう。この外挿による補間がなされたレンズ形状の作成は、手間がかかり難しく、時間もかかるという問題がある。これに対し、3Dプリンタ40を用いる場合、アンカットレンズの作成を経ずに最初から枠入れ後のカットレンズの形状を加工することができる。外挿部分の設計が不要となるため、切削加工機や研磨加工機を用いる場合と比べて眼鏡レンズの設計が容易となる。
3Dプリンタ40は、例えば店舗内又は眼鏡レンズ製造工場に設置される。3Dプリンタ40が店舗内に設置される場合、造形した眼鏡レンズを患者にその場で渡すことができる。
以上が本発明の例示的な実施形態の説明である。本発明の実施形態は、上記に説明したものに限定されず、本発明の技術的思想の範囲において様々な変形が可能である。例えば明細書中に例示的に明示される実施形態等又は自明な実施形態等を適宜組み合わせた内容も本願の実施形態に含まれる。
1 シミュレーションシステム
10 情報処理端末
20 入力装置
30 表示装置
40 3Dプリンタ
10 情報処理端末
20 入力装置
30 表示装置
40 3Dプリンタ
Claims (8)
- 眼鏡レンズの三次元形状を示す形状データを所定の形式の離散的なメッシュデータに変換する変換部と、
前記変換部により変換された眼鏡レンズのメッシュデータを前記所定の形式でメッシュ状に区画された仮想空間のデータに取り込むデータ取込部と、
前記データ取込部により取り込まれたメッシュデータよりなる眼鏡レンズを通して、前記仮想空間に配置された物体を見たときの、仮想画像を生成する仮想画像生成部と、
前記仮想画像生成部により生成される仮想画像を所定の表示部に表示させる表示制御部と、
前記表示部に表示された仮想画像に対する指示に応じて前記眼鏡レンズのメッシュデータを修正する修正部と、
を備え、
前記仮想画像生成部は、
前記修正部による修正後のメッシュデータよりなる眼鏡レンズを通して前記物体を見たときの仮想画像を生成する、
仮想画像生成装置。 - 前記指示は、
前記仮想画像内の領域を指示する領域指示と、前記領域における前記物体の見え方の変更を指示する見え方変更指示と、を含み、
前記修正部は、
前記領域指示で指示された領域からの光線を追跡し、追跡した光線が通る前記眼鏡レンズ上の光線通過領域を特定し、
前記領域における前記物体の見え方が前記見え方変更指示で指示された見え方となるように、前記光線通過領域のメッシュデータを修正する、
請求項1に記載の仮想画像生成装置。 - 前記表示部は、
タッチスクリーンであり、
前記表示部に表示される前記仮想画像に対するタッチ操作が前記領域指示である、
請求項2に記載の仮想画像生成装置。 - 前記眼鏡レンズのメッシュデータは、
3Dプリンタで使用可能な形式のデータである、
請求項1から請求項3の何れか一項に記載の仮想画像生成装置。 - 前記眼鏡レンズのメッシュデータは、
枠入れ後のレンズ形状を示すデータである、
請求項1から請求項4の何れか一項に記載の仮想画像生成装置。 - 仮想画像生成装置が実行する仮想画像生成方法であって、
眼鏡レンズの三次元形状を示す形状データを所定の形式の離散的なメッシュデータに変換する変換ステップと、
前記変換ステップにて変換された眼鏡レンズのメッシュデータを前記所定の形式でメッシュ状に区画された仮想空間のデータに取り込むデータ取込ステップと、
前記データ取込ステップにて取り込まれたメッシュデータよりなる眼鏡レンズを通して、前記仮想空間に配置された物体を見たときの、仮想画像を生成する仮想画像生成ステップと、
前記仮想画像生成ステップにて生成される仮想画像を所定の表示部に表示させるステップと、
前記表示部に表示された仮想画像に対する指示に応じて前記眼鏡レンズのメッシュデータを修正する修正ステップと、
前記修正ステップにて修正されたメッシュデータよりなる眼鏡レンズを通して前記物体を見たときの仮想画像を生成する修正画像生成ステップと、
前記修正画像生成ステップにて生成される仮想画像を前記表示部に表示させるステップと、
を含む、
仮想画像生成方法。 - 前記表示部は、
タッチスクリーンであり、
前記指示は、
前記仮想画像内の領域を指示する領域指示と、前記領域における前記物体の見え方の変更を指示する見え方変更指示と、を含み、
前記表示部に表示される前記仮想画像に対するタッチ操作が前記領域指示であり、
前記修正ステップにて、
前記領域指示で指示された領域からの光線を追跡し、追跡した光線が通る前記眼鏡レンズ上の光線通過領域を特定し、
前記領域における前記物体の見え方が前記見え方変更指示で指示された見え方となるように、前記光線通過領域のメッシュデータを修正する、
請求項6に記載の仮想画像生成方法。 - 前記眼鏡レンズのメッシュデータは、
枠入れ後のレンズ形状を示すデータである、
請求項6又は請求項7に記載の仮想画像生成方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020050935A JP7272985B2 (ja) | 2020-03-23 | 2020-03-23 | 仮想画像生成装置及び仮想画像生成方法 |
PCT/JP2021/010716 WO2021193261A1 (ja) | 2020-03-23 | 2021-03-17 | 仮想画像生成装置及び仮想画像生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020050935A JP7272985B2 (ja) | 2020-03-23 | 2020-03-23 | 仮想画像生成装置及び仮想画像生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021149031A true JP2021149031A (ja) | 2021-09-27 |
JP7272985B2 JP7272985B2 (ja) | 2023-05-12 |
Family
ID=77848670
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020050935A Active JP7272985B2 (ja) | 2020-03-23 | 2020-03-23 | 仮想画像生成装置及び仮想画像生成方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7272985B2 (ja) |
WO (1) | WO2021193261A1 (ja) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000107129A (ja) * | 1998-10-09 | 2000-04-18 | Hoya Corp | 眼光学系のシミュレーション方法及び装置 |
JP2007206211A (ja) * | 2006-01-31 | 2007-08-16 | Eyemetrics Japan Co Ltd | 眼鏡装着シミュレーション方法及び装置 |
JP2010134460A (ja) * | 2008-11-06 | 2010-06-17 | Seiko Epson Corp | 眼鏡レンズ用視覚シミュレーション装置、眼鏡レンズ用視覚シミュレーション方法及び眼鏡レンズ用視覚シミュレーションプログラム |
WO2013175923A1 (ja) * | 2012-05-25 | 2013-11-28 | Hoya株式会社 | シミュレーション装置 |
WO2014122834A1 (ja) * | 2013-02-06 | 2014-08-14 | Hoya株式会社 | シミュレーションシステム、シミュレーション装置および商品説明補助方法 |
JP2016520336A (ja) * | 2013-03-12 | 2016-07-14 | リー, スティーブン ピー.LEE, Steven P. | コンピュータ制御による屈折及び乱視の判定 |
WO2018074528A1 (ja) * | 2016-10-20 | 2018-04-26 | 株式会社ニコン・エシロール | 画像作成装置、画像作成方法、画像作成プログラム、眼鏡レンズの設計方法および眼鏡レンズの製造方法 |
WO2019007939A1 (de) * | 2017-07-06 | 2019-01-10 | Carl Zeiss Ag | Verfahren, vorrichtung und computerprogramm zum virtuellen anpassen einer brillenfassung |
WO2019067779A1 (en) * | 2017-09-27 | 2019-04-04 | University Of Miami | DIGITAL THERAPEUTIC GUARANTEES |
-
2020
- 2020-03-23 JP JP2020050935A patent/JP7272985B2/ja active Active
-
2021
- 2021-03-17 WO PCT/JP2021/010716 patent/WO2021193261A1/ja active Application Filing
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000107129A (ja) * | 1998-10-09 | 2000-04-18 | Hoya Corp | 眼光学系のシミュレーション方法及び装置 |
JP2007206211A (ja) * | 2006-01-31 | 2007-08-16 | Eyemetrics Japan Co Ltd | 眼鏡装着シミュレーション方法及び装置 |
JP2010134460A (ja) * | 2008-11-06 | 2010-06-17 | Seiko Epson Corp | 眼鏡レンズ用視覚シミュレーション装置、眼鏡レンズ用視覚シミュレーション方法及び眼鏡レンズ用視覚シミュレーションプログラム |
WO2013175923A1 (ja) * | 2012-05-25 | 2013-11-28 | Hoya株式会社 | シミュレーション装置 |
WO2014122834A1 (ja) * | 2013-02-06 | 2014-08-14 | Hoya株式会社 | シミュレーションシステム、シミュレーション装置および商品説明補助方法 |
JP2016520336A (ja) * | 2013-03-12 | 2016-07-14 | リー, スティーブン ピー.LEE, Steven P. | コンピュータ制御による屈折及び乱視の判定 |
WO2018074528A1 (ja) * | 2016-10-20 | 2018-04-26 | 株式会社ニコン・エシロール | 画像作成装置、画像作成方法、画像作成プログラム、眼鏡レンズの設計方法および眼鏡レンズの製造方法 |
WO2019007939A1 (de) * | 2017-07-06 | 2019-01-10 | Carl Zeiss Ag | Verfahren, vorrichtung und computerprogramm zum virtuellen anpassen einer brillenfassung |
WO2019067779A1 (en) * | 2017-09-27 | 2019-04-04 | University Of Miami | DIGITAL THERAPEUTIC GUARANTEES |
Also Published As
Publication number | Publication date |
---|---|
WO2021193261A1 (ja) | 2021-09-30 |
JP7272985B2 (ja) | 2023-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11592691B2 (en) | Systems and methods for generating instructions for adjusting stock eyewear frames using a 3D scan of facial features | |
JP3342423B2 (ja) | 眼光学系のシミュレーション装置 | |
US11307437B2 (en) | Method of designing and placing a lens within a spectacles frame | |
JP6088549B2 (ja) | シミュレーションシステムおよびシミュレーション装置 | |
JP6014038B2 (ja) | 眼鏡装用シミュレーション方法、プログラム、装置、眼鏡レンズ発注システム及び眼鏡レンズの製造方法 | |
CN112470233B (zh) | 用于模型的动态调整的方法和系统 | |
CN101426446A (zh) | 用于触觉表达的装置和方法 | |
US9772513B2 (en) | Simulation system for wearing spectacles, a simulation device for wearing spectacles and a simulation program for wearing spectacles | |
JP2010134460A (ja) | 眼鏡レンズ用視覚シミュレーション装置、眼鏡レンズ用視覚シミュレーション方法及び眼鏡レンズ用視覚シミュレーションプログラム | |
JP6431591B1 (ja) | 三次元顔画像の基準正面の設定方法、それを用いた眼鏡の選定方法及びそれを用いたカルテの作成方法 | |
JP4804096B2 (ja) | 眼鏡レンズの明視域表示方法、眼鏡レンズの明視域表示装置、及び眼鏡レンズの明視域表示プログラムを格納した記録媒体 | |
WO2021193261A1 (ja) | 仮想画像生成装置及び仮想画像生成方法 | |
JPH08215149A (ja) | 眼光学系のシミュレーション装置 | |
JP6852612B2 (ja) | 表示プログラム、情報処理装置、及び表示方法 | |
JP7241702B2 (ja) | 画像作成装置、眼鏡レンズ選択システム、画像作成方法およびプログラム | |
JP3735842B2 (ja) | 眼光学系のシミュレーション装置を駆動するためのプログラムを記録したコンピュータ読み取り可能な記録媒体 | |
JPH11183856A (ja) | 眼鏡の視野体験装置、視野体験方法および記録媒体 | |
JP6154180B2 (ja) | 厚さ表示システム、厚さ表示方法、及び厚さ表示用プログラム | |
JP6136278B2 (ja) | レイアウト編集処理方法,位置決め方法,ならびにそれらの装置およびプログラム | |
JP7203190B2 (ja) | 計算方法、画像生成方法、眼鏡レンズの設計方法、眼鏡レンズの製造方法、眼鏡レンズの販売方法、計算装置およびプログラム | |
CN114730101B (zh) | 使用面部特征的3d扫描来调整库存眼镜框架的系统和方法 | |
JP6490861B1 (ja) | 三次元顔画像の基準正面の設定方法、それを用いた眼鏡の選定方法及びそれを用いたカルテの作成方法 | |
JP5996206B2 (ja) | 眼鏡装用シミュレーションシステム、眼鏡装用シミュレーション情報の提供方法及び眼鏡装用シミュレーションプログラム | |
WO2021156503A9 (en) | Method for displaying a sharp image on a retina of an eye of the person | |
JP2021162678A (ja) | 眼鏡レンズの評価装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220318 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230417 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230427 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7272985 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |