WO2021193261A1 - 仮想画像生成装置及び仮想画像生成方法 - Google Patents

仮想画像生成装置及び仮想画像生成方法 Download PDF

Info

Publication number
WO2021193261A1
WO2021193261A1 PCT/JP2021/010716 JP2021010716W WO2021193261A1 WO 2021193261 A1 WO2021193261 A1 WO 2021193261A1 JP 2021010716 W JP2021010716 W JP 2021010716W WO 2021193261 A1 WO2021193261 A1 WO 2021193261A1
Authority
WO
WIPO (PCT)
Prior art keywords
virtual image
data
spectacle lens
virtual
unit
Prior art date
Application number
PCT/JP2021/010716
Other languages
English (en)
French (fr)
Inventor
健太 上岡
Original Assignee
ホヤ レンズ タイランド リミテッド
健太 上岡
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ホヤ レンズ タイランド リミテッド, 健太 上岡 filed Critical ホヤ レンズ タイランド リミテッド
Publication of WO2021193261A1 publication Critical patent/WO2021193261A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C13/00Assembling; Repairing; Cleaning
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C7/00Optical parts
    • G02C7/02Lenses; Lens systems ; Methods of designing lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/06Ray-tracing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts

Definitions

  • the present invention relates to a virtual image generator and a virtual image generation method.
  • a light source, a model of an object to be observed, a spectacle lens model according to a prescribed value, and an eyeball model are arranged in a CG (Computer Graphics) space to perform ray tracing, and the eyeball model is on the retina.
  • Generates an image of an object to be imaged in that is, a CG image showing how it looks when wearing a spectacle lens.
  • the design data of the spectacle lens is, for example, analog format data because the lens is processed by a cutting machine or a polishing machine. Therefore, the design data of the spectacle lens is converted into the data in the CG model format by the translator when it is taken into the CG space.
  • the operator modifies the design data of the spectacle lens according to the patient's request.
  • the device converts the modified design data into CG model format data and arranges it in the CG space as a CG model. Ray tracing is then performed to generate a CG image showing how the spectacle lens looks when modified according to the patient's request.
  • the design data is modified, and this (that is, the design data that matches the format of the cutting machine, etc.) is taken into the CG space, so it is necessary to convert it to the data in the CG model format. Therefore, it is pointed out that it takes time to generate a virtual image that reflects the modified contents.
  • the present invention has been made in view of the above circumstances, and an object of the present invention is a virtual image generation device capable of reducing the time required to generate a virtual image reflecting the modified contents of the design of the spectacle lens. And to provide a virtual image generation method.
  • the virtual image generator includes a conversion unit that converts shape data indicating the three-dimensional shape of the spectacle lens into discrete mesh data of a predetermined format, and a spectacle lens converted by the conversion unit.
  • An object placed in the virtual space is viewed through a data capture unit that captures mesh data into the data of the virtual space partitioned in a mesh shape in a predetermined format and a spectacle lens consisting of the mesh data captured by the data capture unit.
  • a display control unit that displays a virtual image generated by the virtual image generator on a predetermined display unit, and a virtual image displayed on the display unit. It is provided with a correction unit for correcting the mesh data of the spectacle lens.
  • the virtual image generation unit generates a virtual image when an object is viewed through a spectacle lens composed of mesh data corrected by the correction unit.
  • the above-mentioned instruction includes, for example, an area instruction for instructing an area in a virtual image and an appearance change instruction for instructing a change in the appearance of an object in the area.
  • the correction unit tracks the light beam from the area specified by the area instruction, identifies the light ray passing area on the spectacle lens through which the tracked light ray passes, and instructs the appearance of the object in the area by the appearance change instruction. Modify the mesh data in the ray-passing area so that it looks like it is.
  • the display unit is, for example, a touch screen.
  • the touch operation on the virtual image displayed on the display unit is the area instruction.
  • the mesh data of the spectacle lens is, for example, data in a format that can be used in a 3D printer.
  • the mesh data of the spectacle lens is, for example, data indicating the lens shape after frame placement.
  • the virtual image generation method executed by the virtual image generation device includes a conversion step of converting shape data indicating a three-dimensional shape of a spectacle lens into discrete mesh data of a predetermined format, and conversion.
  • a spectacle lens consisting of a data capture step in which the mesh data of the spectacle lens converted in the step is captured in the data of the virtual space partitioned in a mesh shape in a predetermined format, and a mesh data captured in the data capture step.
  • a virtual image generation step for generating a virtual image when an object arranged in a virtual space is viewed, a step for displaying the virtual image generated in the virtual image generation step on a predetermined display unit, and a display unit A modification step that modifies the mesh data of the spectacle lens according to the instruction for the displayed virtual image, and a modification image generation that generates a virtual image when an object is viewed through the spectacle lens consisting of the mesh data modified in the modification step.
  • the step includes a step of displaying the virtual image generated in the modified image generation step on the display unit.
  • the present invention it is possible to reduce the time required to generate a virtual image reflecting the modified contents of the design of the spectacle lens in the virtual image generation device and the virtual image generation method.
  • FIG. 1 is a block diagram showing a schematic configuration of a simulation system 1 according to an embodiment of the present invention.
  • the simulation system 1 is installed in, for example, a store that sells eyeglasses, and includes an information processing terminal 10, an input device 20, and a display device 30 as shown in FIG.
  • a 3D printer 40 which is a processing machine, is connected to the information processing terminal 10 by wire or wirelessly.
  • the information processing terminal 10 is an example of a virtual image generator.
  • the information processing terminal 10 is a desktop PC (Personal Computer).
  • the information processing terminal 10 may be another form of information processing terminal such as a notebook PC.
  • the input device 20 is a mouse and a keyboard.
  • the input device 20 is connected to the information processing terminal 10 by wire or wirelessly.
  • the display device 30 is a touch screen in which a touch panel is attached to the display.
  • the display device 30 is installed at a predetermined position on a counter in the store, for example.
  • the display device 30 is installed at a position where the distance between the eyes of a seated patient (that is, a visitor who is considering purchasing eyeglasses) and the screen is about 80 cm.
  • the operator that is, the staff of the store
  • the display device 30 may be another form of display device such as a tablet terminal, a smartphone, or a VR (Virtual Reality) headset.
  • the information processing terminal 10, the input device 20, and the display device 30 are separate devices, but in another embodiment, these devices may be included in a single device.
  • An example of such a device is a tablet terminal having the functions of the information processing terminal 10, the input device 20, and the display device 30.
  • the simulation system 1 is composed of a single tablet terminal.
  • the information processing terminal 10 includes a control unit 100 and a memory 110.
  • the control unit 100 is, for example, a system LSI (Large-scale Integrated Circuit) equipped with a DSP (Digital Signal Processor) and a CPU (Central Processing Unit).
  • the memory 110 includes an HDD (Hard Disk Drive), a RAM (Random Access Memory), and a ROM (Read Only Memory).
  • the control unit 100 performs various controls by calling a program stored in the HDD or ROM and executing the called program in the DSP or CPU.
  • the HDD, ROM, and RAM also store control parameters required for program execution.
  • FIG. 2 shows a flowchart of the virtual image generation process executed by the virtual image generation program.
  • the operator Prior to the execution of the virtual image generation program by the control unit 100, the operator performs an eye examination of the patient. As a result of optometry, the prescription value for the patient is determined. Prescription values include, for example, spherical refractive power, astigmatic refractive power, astigmatic axis direction, prism refractive power, prism base direction, addition power, Pupillary Distance (PD), and near PD.
  • the operator uses the input device 20 to input various prescription value data.
  • the input various prescription value data are stored in, for example, the HDD of the information processing terminal 10.
  • the operator inputs the patient layout data using the input device 20.
  • the input layout data is stored in, for example, the HDD of the information processing terminal 10.
  • the layout data includes, for example, data such as the position of the eye point, the forward tilt angle, the tilt angle, the distance between vertices, and the distance between pupils. Input of layout data can be omitted.
  • the layout data used in the virtual image generation process of FIG. 2 may be modified from the patient layout data. For example, by making small changes to the layout data and executing the virtual image generation process of FIG. 2 each time the changes are made, the simulation results for each layout data (a CG image showing the appearance when the spectacle lens is worn, which will be described later). CGI) may be obtained.
  • the operator uses the input device 20 to input the shape data of the frame selected by the patient (referred to as "frame data" for convenience).
  • the input frame data is stored in, for example, the HDD of the information processing terminal 10.
  • frame data is managed by barcode tags.
  • the operator reads the barcode tag attached to the frame by a barcode reader (not shown). This completes the input of frame data.
  • Input of frame data can be omitted.
  • the frame data may be data indicating the measurement result of the frame tracer or the type of the template (frame shape), or data indicating the part number of the frame when the shape data of the frame is known on the processing side. May be good.
  • the operator operates the input device 20 and selects the type of spectacle lens based on the prescription value obtained by the optometry.
  • Selectable spectacle lenses include, for example, a single focus spherical lens, a single focus aspherical lens, a fatigue reduction lens, a near vision dedicated lens, and a progressive power lens (perspective type, middle / near type, etc.).
  • progressive power lens perspective type, middle / near type, etc.
  • design types of progressive power lenses for example, a type having a wide clear vision range for near vision, a type having a wide clear vision range for far vision, etc.
  • the operator selects the progressive power lens, the operator operates the input device 20 to further select the design type.
  • the control unit 100 creates design data for the spectacle lens.
  • This design data (referred to as "design data DD" for convenience) is the shape data of the spectacle lens.
  • the control unit 100 creates the design data DD so that the prescription power is achieved by the type of spectacle lens selected by the operator.
  • the design data DD is created, for example, by using a design program known at the time of filing the present patent application.
  • the design data DD is a function of control points arranged in a grid pattern on the XY plane.
  • the value of the control point indicates the height in the Z direction.
  • the shape of the spectacle lens indicated by the design data DD is the shape of the B-spline curve defined by these control points and the knot vector.
  • a large number of design data DDs may be stored in advance in the HDD of the information processing terminal 10.
  • the control unit 100 selects one design data DD from the design data group stored in the HDD based on the selected spectacle lens type and prescription power. ..
  • the execution of the design data DD creation process or selection process may be borne by, for example, the server of the spectacle lens manufacturer connected to the information processing terminal 10 via the network.
  • the virtual image generation process of FIG. 2 described below may also be executed by the server of the spectacle lens manufacturer instead of the information processing terminal 10.
  • the design data DD is analog format data that indicates the shape of the spectacle lens as continuous values because the lens is processed by a cutting machine or a polishing machine.
  • a translator is incorporated as a program module in the virtual image generation program. The translator converts the design data DD into data in a predetermined CG model format (referred to as “spectacle lens model data LMD” for convenience) (step S11).
  • the spectacle lens model data LMD is, for example, data in which the shape of the spectacle lens is represented by a triangular mesh.
  • the control unit 100 uses the shape data (design data DD) indicating the three-dimensional shape of the spectacle lens as discrete mesh data of a predetermined format (the three-dimensional shape of the spectacle lens is a triangular mesh). It operates as a conversion unit that converts the spectacle lens model data to be expressed (LMD).
  • the spectacle lens model data LMD may be data in which the shape of the spectacle lens is expressed by voxels instead of a triangular mesh.
  • the control unit 100 describes the spectacle lens model data LMD obtained by the conversion process in step S11 as a CG space (for convenience, "CG space CGS") partitioned in a mesh shape in the same format as this (spectacle lens model data LMD). ) (Step S12).
  • the spectacle lens model (referred to as “spectacle lens model LM” for convenience) based on the spectacle lens model data LMD is arranged in the CG space CGS.
  • control unit 100 operates as a data acquisition unit that incorporates the spectacle lens model data LMD converted by the conversion unit into the data of the CG space CGS partitioned in a predetermined format.
  • a light source, an object model to be observed, and an eyeball model are arranged in the CG space CGS in advance or by the operation of the operator.
  • the eye model may be a well-known model such as the model eye of the lens strand, and is not limited to a complex model having all the tissues constituting the eye, for example, the main eye elements (for example, the main eye elements (). It may be a simple model with only the cornea and lens) and the retina.
  • the control unit 100 determines the position of the spectacle lens model LM and the angle with respect to the patient's forehead parallel plane in the CG space CGS based on the layout data input by the operator, and determines the spectacle lens model LM at the determined position and angle. Is placed in the CG space CGS. When the input of layout data is omitted, the spectacle lens model LM is arranged in the CG space CGS at a predetermined position and angle.
  • control unit 100 models the spectacle lens model LM into the lens shape after the frame is placed based on the frame data input by the operator, and arranges the spectacle lens model LM after modeling in the CG space CGS.
  • the spectacle lens model LM is modeled into a predetermined lens shape and arranged in the CG space CGS.
  • the shape of the spectacle lens model LM arranged in the CG space CGS is not an uncut lens shape but a shape after frame insertion (cut lens shape).
  • the shape of the spectacle lens model LM may be an uncut lens shape instead of a cut lens shape.
  • FIG. 3 shows an example of a CG space CGS in which a plurality of object models, a spectacle lens model LM, and an eyeball model EM are arranged. Note that FIG. 3 shows the spectacle lens model LM and the eyeball model EM on a scale larger than the object model for convenience. Further, a pair of left and right spectacle lens model LM and eyeball model EM are arranged in the CG space CGS, but FIG. 3 shows only one set of spectacle lens model LM and eyeball model EM for convenience.
  • Multiple object models include desks, books, PC monitors, boxes, walls, windows, and trees.
  • desks, books, PC monitors, boxes, walls, windows, and wooden objects are designated by reference numerals 50 to 56, respectively.
  • Books, PC monitors, and trees are assumed to be the objects that the patient gazes at in multiple object models.
  • the book 51 is arranged at a short distance (a position 30 cm to 40 cm away from the eyeball model)
  • the PC monitor 52 is arranged at a medium distance (a position 70 cm to 80 cm away from the eyeball model)
  • the tree 56 is arranged at a long distance (a position 70 cm to 80 cm away from the eyeball model). It is placed at a position 4 m away from the eyeball model).
  • the control unit 100 performs ray tracing and generates an image of an object imaged on the retina of the eyeball model EM (that is, a CG image CGI showing the appearance when wearing a spectacle lens) (step S13).
  • a CG image CGI on the retina of each of the left and right eyeball model EMs or a CG image CGI on the retina of one of the left and right eyeball model EMs is generated.
  • the CG image CGI is accompanied by distance information from the object (each object point) reflected in each pixel to the eyeball model EM (for example, the center of rotation).
  • FIG. 4 shows an example of a CG image CGI.
  • the control unit 100 generates, for example, three patterns of CG image CGI. Specifically, the control unit 100 passes through the near CG image when the object is viewed through the near portion of the spectacle lens and the intermediate portion in the length direction of the progressive zone when the object is viewed at an intermediate distance. An intermediate CG image (when the object is viewed) and a distance CG image when the object is viewed through the distance portion of the spectacle lens are generated.
  • control unit 100 generates a virtual CG image CGI when the object arranged in the CG space CGS is viewed through the spectacle lens composed of the mesh data captured by the data acquisition unit. Operates as an image generator.
  • the control unit 100 outputs the CG image CGI to the display device 30 (step S14). As a result, the CG image CGI is displayed on the display device 30.
  • the control unit 100 outputs a pair of left and right CG image CGIs to the display device 30.
  • the display device 30 is the former display, the patient can stereoscopically view the CG image CGI by wearing dedicated liquid crystal shutter glasses, circularly polarizing filter glasses, and the like.
  • the display device 30 is the latter VR headset, the patient can stereoscopically view the CG image CGI by wearing the VR headset.
  • control unit 100 operates as a display control unit that displays the CG image CGI generated by the virtual image generation unit on the display device 30.
  • the patient observes the CG image CGI displayed on the display device 30.
  • the operator tells the patient observing the CG image CGI to touch the area in the CG image CGI that he / she wants to change the appearance of.
  • a message prompting the touch of the area may be displayed on the display device 30.
  • the display device 30 detects the coordinates in the screen touched by the patient and transmits the coordinates to the control unit 100.
  • the patient may judge and touch the icon without the help of the operator.
  • the information of the touched icon (more accurately, the coordinates at which the touched icon is displayed) is transmitted to the control unit 100.
  • the notation of the icon may be changed to a notation that is easy for everyone to understand (for example, "slightly clear”, “clear”, “slightly blurry”, etc.) instead of the frequency value.
  • the touch operation for the CG image CGI is an area instruction that indicates an area in the CG image CGI whose appearance is desired to be changed.
  • the touch operation for the icon such as "+ 0.25D” is a appearance change instruction for instructing the change of the appearance of the object in the area (referred to as "instruction area IA" for convenience).
  • contour lines of astigmatism are superimposed on the CG image CGI and displayed.
  • the shape of the contour line can be changed by touching and dragging the contour line, for example.
  • the width of the clear vision area can be changed.
  • Touch operations and drag operations on such contour lines are also included in the appearance change instruction.
  • icons indicating "slightly narrow”, “slightly wide”, and "wide” may be displayed. In this case, the width of the clear field of view can be changed by touching these icons instead of the drag operation. Touch operations for such contour lines and touch operations for icons are also included in the appearance change instruction.
  • control unit 100 When the control unit 100 detects the area instruction and the appearance change instruction (step S15: YES), the control unit 100 tracks the light rays from the instruction area IA (more specifically, the light rays from the point cloud included in the instruction area IA). , The ray passing region PA on the spectacle lens model LM through which the traced ray passes is specified (step S16).
  • the control unit 100 corrects the shape of the light ray passing region PA in the light ray passing region PA on the spectacle lens model LM so that the power and astigmatism distribution change instructed by the appearance change instruction are added (step S17). ..
  • the shape of the peripheral region of the light ray passing region PA is also modified as necessary in order to smoothly connect the shape of the light ray passing region PA and the shape of the peripheral region thereof and to give an appropriate amount of aberration to these regions. NS.
  • the control unit 100 operates as a correction unit that modifies the spectacle lens model LM in response to an instruction to the CG image CGI displayed on the display device 30. More specifically, in steps S16 and S17, the control unit 100, which operates as a correction unit, tracks a ray from the instruction region IA, identifies a ray-passing region PA on the spectacle lens model LM through which the traced ray passes, and identifies the ray-passing region PA through which the traced ray passes. The shape of the light ray passing region PA is modified so that the appearance of the object in the light ray passing region PA becomes the appearance specified by the appearance change instruction.
  • the operator may manually input the light ray passing region PA and modify the shape.
  • the frequency can be changed by 0.25D by touching the icon, but in another embodiment, the frequency can be changed by touching the icon (n is other than 0.25).
  • n is other than 0.25
  • an icon indicating nD is superimposed on the CG image CGI and displayed. This icon may be replaced with a slider for continuously changing the frequency at a fine pitch.
  • the spectacle lens model LM is a bifocal progressive power lens model
  • a patient observing a near vision CG image touches the book 51 at a short distance and further touches the "+ 0.25D" icon 61. do.
  • the control unit 100 detects the pixel area in which the touched pixel captures the entire object (that is, the entire 51) as the instruction region IA.
  • FIG. 5 is a diagram that assists the explanation of this case, and shows an enlarged view of a portion of the CG space CGS of FIG. 3 including the present 51, the spectacle lens model LM, and the eyeball model EM. Further, FIG. 5 shows a light ray (in other words, the line of sight of the patient with respect to the book 51).
  • the upper portion of the spectacle lens model LM is the distance portion
  • the lower portion of the spectacle lens model LM is the near portion. Therefore, in FIG. 5, the light ray passes through the lower part of the spectacle lens model LM.
  • the ray between the 51 in FIG. 5 shows only two of the ray R 1, R 2.
  • the region on the spectacle lens model LM sandwiched between the light rays R 1 and the light rays R 2 is the light ray passing region PA.
  • the control unit 100 includes a region on the retina on which the image of the 51 is formed (in other words, a pixel region (instruction region IA) that captures the entire 51 in the near-field CG image), and distance information attached to the pixel region. From (in other words, the object distance of the present 51), the trajectories of the rays R 1 , R 2, etc. incident on the spectacle lens model LM are calculated, and the ray passing region PA is specified from the calculation result.
  • a region on the retina on which the image of the 51 is formed in other words, a pixel region (instruction region IA) that captures the entire 51 in the near-field CG image
  • distance information attached to the pixel region from (in other words, the object distance of the present 51), the trajectories of the rays R 1 , R 2, etc. incident on the spectacle lens model LM are calculated, and the ray passing region PA is specified from the calculation result.
  • the control unit 100 modifies the shape of the light ray passing region PA so that the power increases by 0.25D in the specified light ray passing region PA.
  • the control unit 100 After correcting the shape of the spectacle lens model LM, the control unit 100 performs ray tracing to generate a CG image CGI (that is, a CG image CGI showing the appearance when the spectacle lens is worn after the shape correction) (step S18).
  • the generated CG image CGI is output to the display device 30 (step S19).
  • the CG image CGI reflecting the corrected content is displayed on the display device 30.
  • the "OK" icon 63 is superimposed and displayed on the CG image CGI.
  • step S20: YES the control unit 100 considers that the appearance when the spectacle lens is worn is convincing to the patient, and performs the virtual image generation process of FIG. finish.
  • step S20: NO the control unit 100 detects this operation as an area instruction and returns to step S15. The process of steps S15-S20 loops until the patient is satisfied with the appearance when wearing the spectacle lens.
  • the processes of steps S13 to S20 are executed for all CG image CGIs of the near CG image, the intermediate CG image, and the distance CG image.
  • the data to be corrected is not the design data DD which is a function of the control point, but the spectacle lens model data LMD. Therefore, in the present embodiment, the conversion process from the design data DD to the spectacle lens model data LMD, which has been performed every time the design of the spectacle lens is modified, becomes unnecessary. As a result, it is possible to shorten the time required to generate the CG image CGI reflecting the correction contents.
  • the operator can promptly present the CG image CGI reflecting the correction contents to the patient. Since it is possible to make design changes to the spectacle lens that reflect the patient's opinion without making the patient wait for a long time, the spectacle lens design that makes the patient's appearance when wearing it is convincing is designed in the store. Can be completed.
  • the spectacle lens model data LMD contains an error with respect to the design data DD due to the difference in resolution between the two data (for example, due to the difference in resolution between the two data.
  • the shape based on the spectacle lens model data LMD may be deteriorated from the shape based on the design data DD).
  • this kind of error is not included in the spectacle lens model data LMD.
  • the spectacle lens model data LMD that shows the shape of the spectacle lens itself is the correction target. Since the operator can quickly grasp the shape of the spectacle lens after the correction, the ease of the correction work is improved.
  • the operator uses the input device 20 to instruct the information processing terminal 10 to process the spectacle lens. input.
  • the information processing terminal 10 transmits the spectacle lens model data LMD finally obtained by the virtual image generation process of FIG. 2 to the 3D printer 40.
  • the spectacle lens model data LMD is data in a format that can be used by the 3D printer 40, for example, data in the STL format. Therefore, the information processing terminal 10 transmits the spectacle lens model data LMD to the 3D printer 40 without converting it into data in another format.
  • the 3D printer 40 uses a base material to form a spectacle lens having a shape represented by the spectacle lens model data LMD received from the information processing terminal 10.
  • the substrate used is, for example, a UV curable transparent resin. Specifically, there are acrylic resins and the like that are highly transparent and suitable for fine modeling.
  • the spectacle lens model data LMD created by the information processing terminal 10 can be used as it is as the processing data for the 3D printer 40. Since it is not necessary to convert the spectacle lens model data LMD into data in another format, it is not necessary to design in consideration of the error that may occur due to the conversion of the data format.
  • an uncut lens When using a cutting machine or polishing machine, start by creating an uncut lens. For example, an uncut lens before frame placement is manufactured by fixing the base material with a blocker and cutting and polishing the fixed base material. Since the data handled by the processing machine requires a rectangular data area, when processing a circular uncut lens, the data in the area where the lens does not exist must be interpolated by extrapolation. At this time, if the boundary between the base material portion and the extrapolation portion is not connected continuously and smoothly so as not to collapse as a surface, the tool cannot be moved smoothly when cutting the base material with a tool such as a cutting tool, and processing can be performed. It will disappear. Creating a lens shape that has been interpolated by this extrapolation is troublesome, difficult, and time-consuming.
  • the shape of the cut lens after the frame is inserted can be processed from the beginning without creating the uncut lens. Since it is not necessary to design the extrapolated portion, it becomes easier to design the spectacle lens as compared with the case of using a cutting machine or a polishing machine.
  • the 3D printer 40 is installed, for example, in a store or in a spectacle lens manufacturing factory.
  • the shaped spectacle lens can be handed to the patient on the spot.
  • the embodiment of the present application also includes a content obtained by appropriately combining an embodiment or the like or a self-explanatory embodiment or the like which is exemplified in the specification.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Computer Graphics (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Architecture (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Eyeglasses (AREA)
  • Image Generation (AREA)

Abstract

仮想画像生成装置を、眼鏡レンズの三次元形状を示す形状データを所定の形式の離散的なメッシュデータに変換する変換部と、変換された眼鏡レンズのメッシュデータを所定の形式でメッシュ状に区画された仮想空間のデータに取り込むデータ取込部と、取り込まれたメッシュデータよりなる眼鏡レンズを通して、仮想空間に配置された物体を見たときの、仮想画像を生成する仮想画像生成部と、生成される仮想画像を所定の表示部に表示させる表示制御部と、表示された仮想画像に対する指示に応じて眼鏡レンズのメッシュデータを修正する修正部と、を備える構成とする。仮想画像生成部は、修正部による修正後のメッシュデータよりなる眼鏡レンズを通して物体を見たときの仮想画像を生成する。

Description

仮想画像生成装置及び仮想画像生成方法
 本発明は、仮想画像生成装置及び仮想画像生成方法に関する。
 眼鏡レンズ装用時の見え方を仮想画像を用いて患者にシミュレーションさせる装置が知られている(例えば特開2010-134460号公報参照)。眼鏡レンズ装用時の見え方を患者にシミュレーションさせることにより、完成品の眼鏡レンズが患者の眼に合わないという不具合を事前に避けることができる。
 一般に、この種の装置は、光源、観察対象となるオブジェクトのモデル、処方値に応じた眼鏡レンズモデル及び眼球モデルをCG(Computer Graphics)空間に配置して光線追跡を行い、眼球モデルの網膜上に結像するオブジェクトの画像(すなわち、眼鏡レンズ装用時の見え方を示すCG画像)を生成する。ここで、眼鏡レンズの設計データは、切削加工機や研磨加工機によるレンズ加工を行うため、例えばアナログ形式のデータとなっている。そのため、眼鏡レンズの設計データは、CG空間に取り込む際、トランスレータによりCGモデル形式のデータに変換される。
 CG画像を観察した患者がその見え方の変更を要求すると、オペレータは、患者の要求に応じて眼鏡レンズの設計データに修正を加える。オペレータの操作により、装置は、修正後の設計データをCGモデル形式のデータに変換し、CGモデルとしてCG空間に配置する。次いで、光線追跡を行って、患者の要求に応じた修正が加わった眼鏡レンズ装用時の見え方を示すCG画像を生成する。
 眼鏡レンズの設計に修正が入る都度、設計データを修正し、これ(すなわち切削加工機等の形式に適合する設計データ)をCG空間に取り込むため、CGモデル形式のデータに変換する必要がある。そのため、修正内容を反映した仮想画像を生成するまでに時間がかかるという問題が指摘される。
 本発明は上記の事情に鑑みてなされたものであり、その目的とするところは、眼鏡レンズの設計の修正内容を反映した仮想画像を生成するまでにかかる時間を抑えることができる仮想画像生成装置及び仮想画像生成方法を提供することである。
 本発明の一実施形態に係る仮想画像生成装置は、眼鏡レンズの三次元形状を示す形状データを所定の形式の離散的なメッシュデータに変換する変換部と、変換部により変換された眼鏡レンズのメッシュデータを所定の形式でメッシュ状に区画された仮想空間のデータに取り込むデータ取込部と、データ取込部により取り込まれたメッシュデータよりなる眼鏡レンズを通して、仮想空間に配置された物体を見たときの、仮想画像を生成する仮想画像生成部と、仮想画像生成部により生成される仮想画像を所定の表示部に表示させる表示制御部と、表示部に表示された仮想画像に対する指示に応じて眼鏡レンズのメッシュデータを修正する修正部と、を備える。仮想画像生成部は、修正部による修正後のメッシュデータよりなる眼鏡レンズを通して物体を見たときの仮想画像を生成する。
 本発明の一実施形態において、上記指示は、例えば、仮想画像内の領域を指示する領域指示と、領域における物体の見え方の変更を指示する見え方変更指示と、を含む。この場合、修正部は、領域指示で指示された領域からの光線を追跡し、追跡した光線が通る眼鏡レンズ上の光線通過領域を特定し、領域における物体の見え方が見え方変更指示で指示された見え方となるように、光線通過領域のメッシュデータを修正する。
 本発明の一実施形態において、表示部は、例えばタッチスクリーンである。この場合、表示部に表示される仮想画像に対するタッチ操作が上記領域指示である。
 本発明の一実施形態において、眼鏡レンズのメッシュデータは、例えば3Dプリンタで使用可能な形式のデータである。
 本発明の一実施形態において、眼鏡レンズのメッシュデータは、例えば枠入れ後のレンズ形状を示すデータである。
 本発明の一実施形態に係る、仮想画像生成装置が実行する仮想画像生成方法は、眼鏡レンズの三次元形状を示す形状データを所定の形式の離散的なメッシュデータに変換する変換ステップと、変換ステップにて変換された眼鏡レンズのメッシュデータを所定の形式でメッシュ状に区画された仮想空間のデータに取り込むデータ取込ステップと、データ取込ステップにて取り込まれたメッシュデータよりなる眼鏡レンズを通して、仮想空間に配置された物体を見たときの、仮想画像を生成する仮想画像生成ステップと、仮想画像生成ステップにて生成される仮想画像を所定の表示部に表示させるステップと、表示部に表示された仮想画像に対する指示に応じて眼鏡レンズのメッシュデータを修正する修正ステップと、修正ステップにて修正されたメッシュデータよりなる眼鏡レンズを通して物体を見たときの仮想画像を生成する修正画像生成ステップと、修正画像生成ステップにて生成される仮想画像を表示部に表示させるステップと、を含む。
 本発明の一実施形態によれば、仮想画像生成装置及び仮想画像生成方法において、眼鏡レンズの設計の修正内容を反映した仮想画像を生成するまでにかかる時間を抑えることができる。
本発明の一実施形態に係るシミュレーションシステムの概略構成を示すブロック図である。 本発明の一実施形態において実行される仮想画像生成処理のフローチャートである。 本発明の一実施形態において各モデルを配置したCG空間CGSの一例を示す図である。 本発明の一実施形態において、表示部に表示される、眼鏡レンズ装用時の見え方を示すCG画像の一例を示す図である。 本発明の一実施形態において実行される眼鏡レンズモデルの修正例を説明するための図である。
 以下、本発明の一実施形態に係るシミュレーションシステムについて図面を参照しながら説明する。
 図1は、本発明の一実施形態に係るシミュレーションシステム1の概略構成を示すブロック図である。シミュレーションシステム1は、例えば眼鏡を販売する店舗に設置されており、図1に示されるように、情報処理端末10、入力装置20及び表示装置30を備える。情報処理端末10には、加工機である3Dプリンタ40が有線又は無線で接続される。
 情報処理端末10は、仮想画像生成装置の一例である。本実施形態において、情報処理端末10は、デスクトップPC(Personal Computer)である。情報処理端末10は、ノートPC等の別の形態の情報処理端末であってもよい。
 本実施形態において、入力装置20は、マウス及びキーボードである。入力装置20は、情報処理端末10に有線又は無線で接続される。
 表示装置30は、ディスプレイにタッチパネルを取り付けたタッチスクリーンである。表示装置30は、例えば店舗内のカウンタ上の所定位置に設置される。一例として、表示装置30は、着座した患者(すなわち眼鏡の購入を検討している来店者)の眼と画面との距離が80cm程度となる位置に設置される。なお、オペレータ(すなわち店舗のスタッフ)は、患者の体格や年齢等を考慮し、表示装置30を移動させることによって患者の眼と画面との距離を変更してもよい。表示装置30は、タブレット端末、スマートフォン、VR(Virtual Reality)ヘッドセット等の別の形態の表示装置であってもよい。
 本実施形態では、情報処理端末10、入力装置20、表示装置30のそれぞれが別個の装置となっているが、別の実施形態では、これら装置が単一の装置に含まれていてもよい。このような装置の一例として、情報処理端末10、入力装置20及び表示装置30の機能を備えるタブレット端末が挙げられる。この場合、シミュレーションシステム1は、単一のタブレット端末で構成される。
 情報処理端末10は、制御部100及びメモリ110を備える。
 制御部100は、例えばDSP(Digital Signal Processor)及びCPU(Central Processing Unit)を搭載したシステムLSI(Large-scale Integrated Circuit)である。メモリ110は、HDD(Hard Disk Drive)、RAM(Random Access Memory)、ROM(Read Only Memory)を含む。制御部100は、HDDやROMに格納されているプログラムを呼び出し、呼び出したプログラムをDSPやCPUで実行することにより、各種制御を行う。HDDやROM、RAMには、プログラムの実行に必要な制御パラメータも格納される。
 HDDやROMに格納されるプログラムの1つに、仮想画像生成プログラムがある。図2に、仮想画像生成プログラムで実行される仮想画像生成処理のフローチャートを示す。
 制御部100による仮想画像生成プログラムの実行に先立ち、オペレータにより患者の検眼が行われる。検眼の結果、患者に対する処方値が決定する。処方値には、例えば、球面屈折力、乱視屈折力、乱視軸方向、プリズム屈折力、プリズム基底方向、加入度数、遠用PD(Pupillary Distance)、近用PDがある。オペレータは、入力装置20を用いて、各種処方値データを入力する。入力された各種処方値データは、例えば情報処理端末10のHDDに保存される。
 オペレータは、入力装置20を用いて、患者のレイアウトデータを入力する。入力されたレイアウトデータは、例えば情報処理端末10のHDDに保存される。レイアウトデータには、例えばアイポイントの位置や前傾角、あおり角、頂点間距離、瞳孔間距離等のデータが含まれる。レイアウトデータの入力は省くこともできる。なお、図2の仮想画像生成処理に用いるレイアウトデータは、患者のレイアウトデータから変更を加えたものであってもよい。例えばレイアウトデータに少しずつ変更を加え、この変更を加える毎に図2の仮想画像生成処理を実行することにより、レイアウトデータ毎のシミュレーション結果(後述の、眼鏡レンズ装用時の見え方を示すCG画像CGI)を得てもよい。
 オペレータは、入力装置20を用いて、患者により選択されたフレームの形状データ(便宜上「フレームデータ」と記す。)を入力する。入力されたフレームデータは、例えば情報処理端末10のHDDに保存される。一例として、フレームデータは、バーコードタグで管理される。オペレータは、不図示のバーコードリーダによってフレームに貼り付けられたバーコードタグを読み取る。これにより、フレームデータの入力が完了する。フレームデータの入力は省くこともできる。フレームデータは、フレームトレーサの計測結果や型板(フレームシェイプ)の種類を示すデータであってもよく、また、加工側でフレームの形状データが既知の場合はフレームの品番を示すデータであってもよい。
 オペレータは、入力装置20を操作して、検眼で得られた処方値をもとに眼鏡レンズの種類を選択する。選択可能な眼鏡レンズには、例えば、単焦点球面レンズ、単焦点非球面レンズ、疲労軽減用レンズ、近用専用レンズ、累進屈折力レンズ(遠近タイプ、中近タイプ等)がある。なお、累進屈折力レンズには、種々の設計タイプ(例えば近用の明視域が広いタイプ、遠用の明視域が広いタイプ等)がある。オペレータは、累進屈折力レンズを選択した場合には、入力装置20を操作して、更に設計タイプを選択する。
 制御部100により、眼鏡レンズの設計データが作成される。この設計データ(便宜上「設計データDD」と記す。)は、眼鏡レンズの形状データである。制御部100は、オペレータにより選択された種類の眼鏡レンズによって処方度数が達成されるように、設計データDDを作成する。設計データDDは、例えば本件特許出願時に公知の設計プログラムを用いて作成される。
 一例として、設計データDDは、XY平面に格子状に配置された制御点の関数である。制御点の値は、Z方向の高さを示す。設計データDDが示す眼鏡レンズの形状は、これら制御点とノットベクトルで定義されるBスプライン曲線の形状となっている。
 なお、情報処理端末10のHDDには、多数の設計データDD(設計データ群)が予め格納されていてもよい。この場合、制御部100は、設計データDDの作成に代わり、HDDに格納された設計データ群の中から、選択された眼鏡レンズの種類と処方度数に基づいて、1つの設計データDDを選択する。
 なお、設計データDDの作成処理又は選択処理の実行は、例えば情報処理端末10とネットワーク接続された眼鏡レンズメーカのサーバが負担してもよい。以下に説明する図2の仮想画像生成処理についても、情報処理端末10でなく、眼鏡レンズメーカのサーバが実行してもよい。
 設計データDDは、切削加工機や研磨加工機によるレンズ加工を行うため、眼鏡レンズの形状を連続的な値で示すアナログ形式のデータとなっている。仮想画像生成プログラムには、プログラムモジュールとしてトランスレータが組み込まれている。トランスレータは、設計データDDを所定のCGモデル形式のデータ(便宜上「眼鏡レンズモデルデータLMD」と記す。)に変換する(ステップS11)。眼鏡レンズモデルデータLMDは、例えば眼鏡レンズの形状を三角メッシュで表現したデータである。
 すなわち、ステップS11において、制御部100(トランスレータ)は、眼鏡レンズの三次元形状を示す形状データ(設計データDD)を所定の形式の離散的なメッシュデータ(眼鏡レンズの三次元形状を三角メッシュで表現する眼鏡レンズモデルデータLMD)に変換する変換部として動作する。なお、眼鏡レンズモデルデータLMDは、眼鏡レンズの形状を三角メッシュでなく、ボクセルで表現したデータであってもよい。
 制御部100は、ステップS11の変換処理によって得た眼鏡レンズモデルデータLMDを、これ(眼鏡レンズモデルデータLMD)と同じ形式でメッシュ状に区画されたCG空間(便宜上「CG空間CGS」と記す。)のデータに取り込む(ステップS12)。これにより、眼鏡レンズモデルデータLMDによる眼鏡レンズモデル(便宜上「眼鏡レンズモデルLM」と記す。)がCG空間CGSに配置される。
 すなわち、ステップS12において、制御部100は、変換部により変換された眼鏡レンズモデルデータLMDを所定の形式でメッシュ状に区画されたCG空間CGSのデータに取り込むデータ取込部として動作する。
 なお、CG空間CGSには、予め又はオペレータの操作により、光源、観察対象となるオブジェクトモデル及び眼球モデルが配置される。眼球モデルは、グルストランドの模型眼のような一般によく知られているモデルであってもよく、また、眼球を構成する全ての組織を持つ複雑なモデルに限らず、例えば主な眼の要素(角膜と水晶体など)と網膜だけを持つ簡素なモデルであってもよい。
 制御部100は、オペレータにより入力されたレイアウトデータに基づいてCG空間CGS内における眼鏡レンズモデルLMの位置及び患者の前額平行面に対する角度を決定し、決定された位置及び角度で眼鏡レンズモデルLMをCG空間CGSに配置する。なお、レイアウトデータの入力が省かれている場合、眼鏡レンズモデルLMは、CG空間CGSに既定の位置及び角度で配置される。
 また、制御部100は、オペレータにより入力されたフレームデータに基づいて眼鏡レンズモデルLMを枠入れ後のレンズ形状にモデリングし、モデリング後の眼鏡レンズモデルLMをCG空間CGSに配置する。なお、フレームデータの入力が省かれている場合、眼鏡レンズモデルLMは、既定のレンズ形状にモデリングされてCG空間CGSに配置される。
 すなわち、CG空間CGSに配置される眼鏡レンズモデルLMの形状は、アンカットレンズ形状でなく枠入れ後の形状(カットレンズ形状)である。なお、眼鏡レンズモデルLMの形状は、カットレンズ形状でなく、アンカットレンズ形状であってもよい。
 図3に、複数のオブジェクトモデル、眼鏡レンズモデルLM及び眼球モデルEMを配置したCG空間CGSの一例を示す。なお、図3では、便宜上、オブジェクトモデルよりも大きなスケールで、眼鏡レンズモデルLM及び眼球モデルEMを示す。また、CG空間CGSには、左右一対の眼鏡レンズモデルLM及び眼球モデルEMが配置されるが、図3では、便宜上、一組の眼鏡レンズモデルLM及び眼球モデルEMのみ示す。
 複数のオブジェクトモデルには、デスク、本、PCモニタ、ボックス、壁、窓、木が含まれる。便宜上、デスク、本、PCモニタ、ボックス、壁、窓、木のオブジェクトに、それぞれ、符号50~56を付す。複数のオブジェクトモデルの中で患者が注視する対象として、本、PCモニタ、木が想定される。本51は、近距離(眼球モデルから30cm~40cm離れた位置)に配置され、PCモニタ52は、中距離(眼球モデルから70cm~80cm離れた位置)に配置され、木56は、遠距離(眼球モデルから4m離れた位置)に配置される。
 制御部100は、光線追跡を行い、眼球モデルEMの網膜上に結像するオブジェクトの画像(すなわち、眼鏡レンズ装用時の見え方を示すCG画像CGI)を生成する(ステップS13)。ここでは、左右の各眼球モデルEMの網膜上でのCG画像CGI又は左右一方の眼球モデルEMの網膜上でのCG画像CGIが生成される。CG画像CGIには、各画素に写るオブジェクト(各物体点)から眼球モデルEM(例えば回旋中心)までの距離情報が付帯する。図4に、CG画像CGIの一例を示す。
 眼鏡レンズモデルLMが遠近両用累進屈折力レンズの場合を考える。この場合、制御部100は、例えば3パターンのCG画像CGIを生成する。具体的には、制御部100は、眼鏡レンズの近用部を通してオブジェクトを見たときの近用CG画像、中間距離のオブジェクトを見たとき(言い換えると、累進帯の長さ方向における中間部を通してオブジェクトを見たとき)の中間CG画像、眼鏡レンズの遠用部を通してオブジェクトを見たときの遠用CG画像を生成する。
 このように、ステップS13において、制御部100は、データ取込部により取り込まれたメッシュデータよりなる眼鏡レンズを通して、CG空間CGSに配置されたオブジェクトを見たときの、CG画像CGIを生成する仮想画像生成部として動作する。
 制御部100は、CG画像CGIを表示装置30に出力する(ステップS14)。これにより、CG画像CGIが表示装置30に表示される。
 表示装置30が三次元画像表示対応のディスプレイやVRヘッドセットである場合を考える。この場合、制御部100は、左右一対のCG画像CGIを表示装置30に出力する。表示装置30が前者のディスプレイである場合、患者は、専用の液晶シャッタ眼鏡や円偏光フィルタ眼鏡等を装用することにより、CG画像CGIを立体視することができる。表示装置30が後者のVRヘッドセットである場合、患者は、VRヘッドセットを装用することにより、CG画像CGIを立体視することができる。
 このように、制御部100は、仮想画像生成部により生成されるCG画像CGIを表示装置30に表示させる表示制御部として動作する。
 患者は、表示装置30に表示されたCG画像CGIを観察する。オペレータは、CG画像CGIを観察する患者に、CG画像CGI内で見え方を変えたい領域をタッチするよう伝える。なお、当該領域のタッチを促すメッセージが表示装置30に表示されてもよい。表示装置30は、患者にタッチされた画面内の座標を検知して制御部100に送信する。
 CG画像CGIには、例えばオブジェクトと重ならない位置に、「+0.25D」、「+0.50D」、「-0.25D」、「-0.50D」等を表記したアイコンが重畳して表示される。なお、図4では、便宜上、「+0.25D」のアイコン61と、「-0.25D」のアイコン62のみ示す。オペレータは、見え方をどの程度変えたいかを患者に訊いて、アイコンをタッチする。一例として、患者がもう少しクリア(鮮明)に見たいと言った場合、「+0.25D」のアイコン61をタッチする。
 なお、オペレータの手を借りず、患者自身が判断してアイコンをタッチしてもよい。タッチされたアイコンの情報(より正確には、タッチされたアイコンが表示される座標)は、制御部100に送信される。また、アイコンの表記は、度数の値でなく、万人により分かり易い表記(例えば「少しクリア」、「クリア」、「少しぼやけ」等)に変えてもよい。
 CG画像CGIに対するタッチ操作は、見え方を変えたいCG画像CGI内の領域を指示する領域指示である。「+0.25D」等のアイコンに対するタッチ操作は、当該領域(便宜上「指示領域IA」と記す。)におけるオブジェクトの見え方の変更を指示する見え方変更指示である。
 等非点収差の等高線をCG画像CGIに重畳して表示する変形例が考えられる。この変形例では、例えば等高線をタッチしてドラッグすることにより、等高線の形を変えることができる。等高線の形が変わることにより、例えば明視域の広さを変えることができる。このような等高線に対するタッチ操作及びドラッグ操作も、見え方変更指示に含まれる。また、明視域の広さを変えたい等高線をタッチしたときに、「やや狭く」、「少し広く」、「広く」を表記したアイコンを表示してもよい。この場合、ドラッグ操作に代えて、これらアイコンをタッチ操作することにより、明視域の広さを変えることができる。このような等高線に対するタッチ操作及びアイコンにタッチ操作も、見え方変更指示に含まれる。
 制御部100は、領域指示及び見え方変更指示を検知すると(ステップS15:YES)、指示領域IAからの光線(より詳細には、指示領域IAに含まれる点群からの光線群)を追跡し、追跡した光線が通る眼鏡レンズモデルLM上の光線通過領域PAを特定する(ステップS16)。
 制御部100は、眼鏡レンズモデルLM上の光線通過領域PAにおいて見え方変更指示により指示された度数や非点収差分布の変化が加わるように、光線通過領域PAの形状を修正する(ステップS17)。なお、光線通過領域PAの形状とその周辺領域の形状とを滑らかにつなぐため、また、これら領域に適切な収差量を与えるため、光線通過領域PAの周辺領域の形状も必要に応じて修正される。
 すなわち、ステップS16及びS17において、制御部100は、表示装置30に表示されたCG画像CGIに対する指示に応じて眼鏡レンズモデルLMを修正する修正部として動作する。より詳細には、ステップS16及びS17において、修正部として動作する制御部100は、指示領域IAからの光線を追跡し、追跡した光線が通る眼鏡レンズモデルLM上の光線通過領域PAを特定し、光線通過領域PAにおけるオブジェクトの見え方が見え方変更指示で指示された見え方となるように、光線通過領域PAの形状を修正する。
 なお、光線通過領域PAの特定及び形状の修正は、オペレータが手入力作業で行ってもよい。
 本実施形態では、アイコンをタッチ操作することにより度数を0.25Dずつ変更することができるが、別の実施形態では、アイコンをタッチ操作することにより度数をn(nは0.25以外であり、一例として0.125)Dずつ変更することができてもよい。この場合、nD(例えば0.125D)を表記するアイコンがCG画像CGIに重畳して表示される。このアイコンは、度数を細かいピッチで連続的に変更させるためのスライダに代えてもよい。
 眼鏡レンズモデルLMが遠近両用累進屈折力レンズモデルであり、近用CG画像を観察する患者が近距離にある本51をタッチし、更に、「+0.25D」のアイコン61をタッチするケースについて説明する。このケースでは、制御部100は、タッチされた画素が写すオブジェクトの全体(すなわち本51全体)を写す画素領域を指示領域IAとして検知する。
 図5に、このケースの説明を補助する図であって、図3のCG空間CGS内の、本51、眼鏡レンズモデルLM及び眼球モデルEMを含む部分を拡大した図を示す。また、図5には、光線(言い換えると、本51に対する患者の視線)を示す。なお、図5では、眼鏡レンズモデルLMの上部を遠用部とし、眼鏡レンズモデルLMの下部を近用部とする。そのため、図5において、光線は、眼鏡レンズモデルLMの下部を通っている。また、眼球モデルEMの網膜(主に中心窩)と本51間の光線は多数存在するが、図5では、便宜上、二本の光線R、Rのみ示す。図5中、光線Rと光線Rに挟まれる眼鏡レンズモデルLM上の領域が光線通過領域PAである。
 制御部100は、本51の像が形成される網膜上の領域(言い換えると、近用CG画像内で本51全体を写す画素領域(指示領域IA))、及びこの画素領域に付帯する距離情報(言い換えると、本51の物体距離)から、眼鏡レンズモデルLMに入射される光線R、R等の軌跡を計算し、計算結果から光線通過領域PAを特定する。
 制御部100は、特定した光線通過領域PAにおいて度数が0.25D上がるように、光線通過領域PAの形状を修正する。
 制御部100は、眼鏡レンズモデルLMの形状修正後、光線追跡を行い、CG画像CGI(すなわち、形状修正後の眼鏡レンズ装用時の見え方を示すCG画像CGI)を生成し(ステップS18)、生成したCG画像CGIを表示装置30に出力する(ステップS19)。これにより、修正内容を反映したCG画像CGIが表示装置30に表示される。
 図4に示されるように、CG画像CGIには「OK」のアイコン63が重畳して表示される。「OK」のアイコン63がタッチ操作されると(ステップS20:YES)、制御部100は、眼鏡レンズ装用時の見え方が患者の納得するものになったとみなし、図2の仮想画像生成処理を終了する。CG画像CGIがタッチ操作されると(ステップS20:NO)、制御部100は、この操作を領域指示として検知し、ステップS15に戻る。患者が眼鏡レンズ装用時の見え方に納得するまで、ステップS15~S20の処理がループする。
 眼鏡レンズモデルLMが遠近両用累進屈折力レンズの場合、近用CG画像、中間CG画像、遠用CG画像の全てのCG画像CGIに対し、ステップS13~S20の処理が実行される。
 このように、本実施形態では、修正対象のデータは、制御点の関数である設計データDDでなく、眼鏡レンズモデルデータLMDである。そのため、本実施形態では、眼鏡レンズの設計に修正が入る都度行っていた、設計データDDから眼鏡レンズモデルデータLMDへの変換処理が不要となる。これにより、修正内容を反映したCG画像CGIを生成するまでにかかる時間を短く抑えることが可能となる。
 オペレータは、修正内容を反映したCG画像CGIを患者に速やかに提示することができる。患者を長時間待たせることなく、患者の意見が反映された設計変更を眼鏡レンズに加えることができるため、装用時の見え方が患者の納得のいくものとなる眼鏡レンズの設計を店舗内で完結させることができる。
 従来のように、修正後の設計データDDから眼鏡レンズモデルデータLMDへの変換を行うと、例えば両データの分解能の違いから、眼鏡レンズモデルデータLMDが設計データDDに対して誤差を含むもの(例えば眼鏡レンズモデルデータLMDによる形状が設計データDDによる形状に対して劣化した形状)となることがある。本実施形態では、この変換処理が不要であることから、この種の誤差が眼鏡レンズモデルデータLMDに含まれない。
 また、本実施形態では、眼鏡レンズの形状そのものを示さない設計データDDでなく、眼鏡レンズの形状そのものを示す眼鏡レンズモデルデータLMDが修正対象である。オペレータは、修正後の眼鏡レンズの形状を速やかに把握することができるため、修正作業の容易性が向上する。
 図2の仮想画像生成処理が終了(言い換えると、眼鏡レンズ装用時の見え方について患者が納得)すると、オペレータは、入力装置20を用いて、情報処理端末10に対して眼鏡レンズの加工指示を入力する。加工指示が入力されると、情報処理端末10は、図2の仮想画像生成処理で最終的に得た眼鏡レンズモデルデータLMDを3Dプリンタ40に送信する。
 眼鏡レンズモデルデータLMDは、3Dプリンタ40で使用可能な形式のデータであり、例えばSTL形式でのデータある。そのため、情報処理端末10は、眼鏡レンズモデルデータLMDを別の形式のデータに変換することなく3Dプリンタ40に送信する。
 3Dプリンタ40は、基材を用いて、情報処理端末10より受信した眼鏡レンズモデルデータLMDにより表現される形状の眼鏡レンズを造形する。使用される基材は、例えばUV硬化型の透明な樹脂である。具体的には、透明性が高くかつ微細な造形に適したアクリル樹脂等がある。
 このように、本実施形態では、情報処理端末10により作成された眼鏡レンズモデルデータLMDを、そのまま、3Dプリンタ40用の加工データとして使用することができる。眼鏡レンズモデルデータLMDを別の形式のデータに変換する必要がないため、データ形式の変換により生じ得る誤差に配慮した設計を行う必要がない。
 3Dプリンタ40を用いることにより、切削加工機や研磨加工機によるレンズ加工時に生じていた切削屑等がなくなる。そのため、加工時に必要な基材の量が減る。また、切削屑等を回収・除去するための設備が不要となる。
 切削加工機や研磨加工機を用いる場合、アンカットレンズの作成から始まる。例えば基材をブロッカで固定し、固定した基材を切削・研磨することにより、枠入れ前のアンカットレンズが製造される。加工機が扱うデータは矩形のデータ領域を必要とするため、円形状のアンカットレンズを加工する際は、レンズが存在しない部分の領域のデータを外挿により補間しなければならない。このとき、基材部分と外挿部分の境界は、連続かつ滑らかに面として破綻しないように接続しないと、バイト等の工具で基材を切削等する際に工具を円滑に動かせず、加工できなくなってしまう。この外挿による補間がなされたレンズ形状の作成は、手間がかかり難しく、時間もかかるという問題がある。これに対し、3Dプリンタ40を用いる場合、アンカットレンズの作成を経ずに最初から枠入れ後のカットレンズの形状を加工することができる。外挿部分の設計が不要となるため、切削加工機や研磨加工機を用いる場合と比べて眼鏡レンズの設計が容易となる。
 3Dプリンタ40は、例えば店舗内又は眼鏡レンズ製造工場に設置される。3Dプリンタ40が店舗内に設置される場合、造形した眼鏡レンズを患者にその場で渡すことができる。
 以上が本発明の例示的な実施形態の説明である。本発明の実施形態は、上記に説明したものに限定されず、本発明の技術的思想の範囲において様々な変形が可能である。例えば明細書中に例示的に明示される実施形態等又は自明な実施形態等を適宜組み合わせた内容も本願の実施形態に含まれる。

Claims (8)

  1.  眼鏡レンズの三次元形状を示す形状データを所定の形式の離散的なメッシュデータに変換する変換部と、
     前記変換部により変換された眼鏡レンズのメッシュデータを前記所定の形式でメッシュ状に区画された仮想空間のデータに取り込むデータ取込部と、
     前記データ取込部により取り込まれたメッシュデータよりなる眼鏡レンズを通して、前記仮想空間に配置された物体を見たときの、仮想画像を生成する仮想画像生成部と、
     前記仮想画像生成部により生成される仮想画像を所定の表示部に表示させる表示制御部と、
     前記表示部に表示された仮想画像に対する指示に応じて前記眼鏡レンズのメッシュデータを修正する修正部と、
    を備え、
     前記仮想画像生成部は、
      前記修正部による修正後のメッシュデータよりなる眼鏡レンズを通して前記物体を見たときの仮想画像を生成する、
    仮想画像生成装置。
  2.  前記指示は、
      前記仮想画像内の領域を指示する領域指示と、前記領域における前記物体の見え方の変更を指示する見え方変更指示と、を含み、
     前記修正部は、
      前記領域指示で指示された領域からの光線を追跡し、追跡した光線が通る前記眼鏡レンズ上の光線通過領域を特定し、
      前記領域における前記物体の見え方が前記見え方変更指示で指示された見え方となるように、前記光線通過領域のメッシュデータを修正する、
    請求項1に記載の仮想画像生成装置。
  3.  前記表示部は、
      タッチスクリーンであり、
     前記表示部に表示される前記仮想画像に対するタッチ操作が前記領域指示である、
    請求項2に記載の仮想画像生成装置。
  4.  前記眼鏡レンズのメッシュデータは、
      3Dプリンタで使用可能な形式のデータである、
    請求項1から請求項3の何れか一項に記載の仮想画像生成装置。
  5.  前記眼鏡レンズのメッシュデータは、
      枠入れ後のレンズ形状を示すデータである、
    請求項1から請求項4の何れか一項に記載の仮想画像生成装置。
  6.  仮想画像生成装置が実行する仮想画像生成方法であって、
     眼鏡レンズの三次元形状を示す形状データを所定の形式の離散的なメッシュデータに変換する変換ステップと、
     前記変換ステップにて変換された眼鏡レンズのメッシュデータを前記所定の形式でメッシュ状に区画された仮想空間のデータに取り込むデータ取込ステップと、
     前記データ取込ステップにて取り込まれたメッシュデータよりなる眼鏡レンズを通して、前記仮想空間に配置された物体を見たときの、仮想画像を生成する仮想画像生成ステップと、
     前記仮想画像生成ステップにて生成される仮想画像を所定の表示部に表示させるステップと、
     前記表示部に表示された仮想画像に対する指示に応じて前記眼鏡レンズのメッシュデータを修正する修正ステップと、
     前記修正ステップにて修正されたメッシュデータよりなる眼鏡レンズを通して前記物体を見たときの仮想画像を生成する修正画像生成ステップと、
     前記修正画像生成ステップにて生成される仮想画像を前記表示部に表示させるステップと、
    を含む、
    仮想画像生成方法。
  7.  前記表示部は、
      タッチスクリーンであり、
     前記指示は、
      前記仮想画像内の領域を指示する領域指示と、前記領域における前記物体の見え方の変更を指示する見え方変更指示と、を含み、
     前記表示部に表示される前記仮想画像に対するタッチ操作が前記領域指示であり、
     前記修正ステップにて、
      前記領域指示で指示された領域からの光線を追跡し、追跡した光線が通る前記眼鏡レンズ上の光線通過領域を特定し、
      前記領域における前記物体の見え方が前記見え方変更指示で指示された見え方となるように、前記光線通過領域のメッシュデータを修正する、
    請求項6に記載の仮想画像生成方法。
  8.  前記眼鏡レンズのメッシュデータは、
      枠入れ後のレンズ形状を示すデータである、
    請求項6又は請求項7に記載の仮想画像生成方法。
PCT/JP2021/010716 2020-03-23 2021-03-17 仮想画像生成装置及び仮想画像生成方法 WO2021193261A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-050935 2020-03-23
JP2020050935A JP7272985B2 (ja) 2020-03-23 2020-03-23 仮想画像生成装置及び仮想画像生成方法

Publications (1)

Publication Number Publication Date
WO2021193261A1 true WO2021193261A1 (ja) 2021-09-30

Family

ID=77848670

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/010716 WO2021193261A1 (ja) 2020-03-23 2021-03-17 仮想画像生成装置及び仮想画像生成方法

Country Status (2)

Country Link
JP (1) JP7272985B2 (ja)
WO (1) WO2021193261A1 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000107129A (ja) * 1998-10-09 2000-04-18 Hoya Corp 眼光学系のシミュレーション方法及び装置
JP2007206211A (ja) * 2006-01-31 2007-08-16 Eyemetrics Japan Co Ltd 眼鏡装着シミュレーション方法及び装置
JP2010134460A (ja) * 2008-11-06 2010-06-17 Seiko Epson Corp 眼鏡レンズ用視覚シミュレーション装置、眼鏡レンズ用視覚シミュレーション方法及び眼鏡レンズ用視覚シミュレーションプログラム
WO2013175923A1 (ja) * 2012-05-25 2013-11-28 Hoya株式会社 シミュレーション装置
WO2014122834A1 (ja) * 2013-02-06 2014-08-14 Hoya株式会社 シミュレーションシステム、シミュレーション装置および商品説明補助方法
JP2016520336A (ja) * 2013-03-12 2016-07-14 リー, スティーブン ピー.LEE, Steven P. コンピュータ制御による屈折及び乱視の判定
WO2018074528A1 (ja) * 2016-10-20 2018-04-26 株式会社ニコン・エシロール 画像作成装置、画像作成方法、画像作成プログラム、眼鏡レンズの設計方法および眼鏡レンズの製造方法
WO2019007939A1 (de) * 2017-07-06 2019-01-10 Carl Zeiss Ag Verfahren, vorrichtung und computerprogramm zum virtuellen anpassen einer brillenfassung
WO2019067779A1 (en) * 2017-09-27 2019-04-04 University Of Miami DIGITAL THERAPEUTIC GUARANTEES

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000107129A (ja) * 1998-10-09 2000-04-18 Hoya Corp 眼光学系のシミュレーション方法及び装置
JP2007206211A (ja) * 2006-01-31 2007-08-16 Eyemetrics Japan Co Ltd 眼鏡装着シミュレーション方法及び装置
JP2010134460A (ja) * 2008-11-06 2010-06-17 Seiko Epson Corp 眼鏡レンズ用視覚シミュレーション装置、眼鏡レンズ用視覚シミュレーション方法及び眼鏡レンズ用視覚シミュレーションプログラム
WO2013175923A1 (ja) * 2012-05-25 2013-11-28 Hoya株式会社 シミュレーション装置
WO2014122834A1 (ja) * 2013-02-06 2014-08-14 Hoya株式会社 シミュレーションシステム、シミュレーション装置および商品説明補助方法
JP2016520336A (ja) * 2013-03-12 2016-07-14 リー, スティーブン ピー.LEE, Steven P. コンピュータ制御による屈折及び乱視の判定
WO2018074528A1 (ja) * 2016-10-20 2018-04-26 株式会社ニコン・エシロール 画像作成装置、画像作成方法、画像作成プログラム、眼鏡レンズの設計方法および眼鏡レンズの製造方法
WO2019007939A1 (de) * 2017-07-06 2019-01-10 Carl Zeiss Ag Verfahren, vorrichtung und computerprogramm zum virtuellen anpassen einer brillenfassung
WO2019067779A1 (en) * 2017-09-27 2019-04-04 University Of Miami DIGITAL THERAPEUTIC GUARANTEES

Also Published As

Publication number Publication date
JP7272985B2 (ja) 2023-05-12
JP2021149031A (ja) 2021-09-27

Similar Documents

Publication Publication Date Title
US11592691B2 (en) Systems and methods for generating instructions for adjusting stock eyewear frames using a 3D scan of facial features
JP3342423B2 (ja) 眼光学系のシミュレーション装置
US11307437B2 (en) Method of designing and placing a lens within a spectacles frame
JP6014038B2 (ja) 眼鏡装用シミュレーション方法、プログラム、装置、眼鏡レンズ発注システム及び眼鏡レンズの製造方法
JP6088549B2 (ja) シミュレーションシステムおよびシミュレーション装置
JP2010134460A (ja) 眼鏡レンズ用視覚シミュレーション装置、眼鏡レンズ用視覚シミュレーション方法及び眼鏡レンズ用視覚シミュレーションプログラム
AU2019294497A1 (en) Method and system for dynamic adjustment of a model
JP6431591B1 (ja) 三次元顔画像の基準正面の設定方法、それを用いた眼鏡の選定方法及びそれを用いたカルテの作成方法
WO2017177425A1 (zh) 一种虚拟现实设备中的图像处理方法和装置
JP4804096B2 (ja) 眼鏡レンズの明視域表示方法、眼鏡レンズの明視域表示装置、及び眼鏡レンズの明視域表示プログラムを格納した記録媒体
WO2021193261A1 (ja) 仮想画像生成装置及び仮想画像生成方法
JP2019028563A (ja) 表示プログラム、情報処理装置、及び表示方法
JP6490861B1 (ja) 三次元顔画像の基準正面の設定方法、それを用いた眼鏡の選定方法及びそれを用いたカルテの作成方法
JP7241702B2 (ja) 画像作成装置、眼鏡レンズ選択システム、画像作成方法およびプログラム
JP3735842B2 (ja) 眼光学系のシミュレーション装置を駆動するためのプログラムを記録したコンピュータ読み取り可能な記録媒体
JPH11183856A (ja) 眼鏡の視野体験装置、視野体験方法および記録媒体
JP6154180B2 (ja) 厚さ表示システム、厚さ表示方法、及び厚さ表示用プログラム
WO2021200133A1 (ja) 眼鏡レンズの評価装置
JPH08266464A (ja) 眼光学系のシミュレーション装置
JP5996206B2 (ja) 眼鏡装用シミュレーションシステム、眼鏡装用シミュレーション情報の提供方法及び眼鏡装用シミュレーションプログラム
JP5996205B2 (ja) 眼鏡装用シミュレーションシステム、眼鏡装用シミュレーション情報の提供方法及び眼鏡装用シミュレーションプログラム
WO2019117146A1 (ja) 基準正面設定装置、計測装置、眼鏡選定装置、カルテ作成装置、計測方法、眼鏡選定方法、及びカルテ作成方法
JP2021122717A (ja) ピント調節力のトレーニング用3次元画像を生成する方法
CN115151853A (zh) 用于在人的眼睛的视网膜上显示清晰图像的方法
JPH08266473A (ja) 眼光学系のシミュレーション装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21775017

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21775017

Country of ref document: EP

Kind code of ref document: A1