WO2016125798A1 - 眼鏡レンズ加工用システム、眼鏡レンズ加工用装置、眼鏡レンズ加工用端末装置、眼鏡レンズ加工用プログラム、および眼鏡レンズ加工方法 - Google Patents

眼鏡レンズ加工用システム、眼鏡レンズ加工用装置、眼鏡レンズ加工用端末装置、眼鏡レンズ加工用プログラム、および眼鏡レンズ加工方法 Download PDF

Info

Publication number
WO2016125798A1
WO2016125798A1 PCT/JP2016/053075 JP2016053075W WO2016125798A1 WO 2016125798 A1 WO2016125798 A1 WO 2016125798A1 JP 2016053075 W JP2016053075 W JP 2016053075W WO 2016125798 A1 WO2016125798 A1 WO 2016125798A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
lens
spectacle
processing
target
Prior art date
Application number
PCT/JP2016/053075
Other languages
English (en)
French (fr)
Inventor
教児 武市
新治 小池
Original Assignee
株式会社ニデック
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2015019813A external-priority patent/JP6536053B2/ja
Priority claimed from JP2015019811A external-priority patent/JP6503769B2/ja
Priority claimed from JP2015019812A external-priority patent/JP6536052B2/ja
Application filed by 株式会社ニデック filed Critical 株式会社ニデック
Priority to EP16746629.1A priority Critical patent/EP3254805A4/en
Publication of WO2016125798A1 publication Critical patent/WO2016125798A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B24GRINDING; POLISHING
    • B24BMACHINES, DEVICES, OR PROCESSES FOR GRINDING OR POLISHING; DRESSING OR CONDITIONING OF ABRADING SURFACES; FEEDING OF GRINDING, POLISHING, OR LAPPING AGENTS
    • B24B9/00Machines or devices designed for grinding edges or bevels on work or for removing burrs; Accessories therefor
    • B24B9/02Machines or devices designed for grinding edges or bevels on work or for removing burrs; Accessories therefor characterised by a special design with respect to properties of materials specific to articles to be ground
    • B24B9/06Machines or devices designed for grinding edges or bevels on work or for removing burrs; Accessories therefor characterised by a special design with respect to properties of materials specific to articles to be ground of non-metallic inorganic material, e.g. stone, ceramics, porcelain
    • B24B9/08Machines or devices designed for grinding edges or bevels on work or for removing burrs; Accessories therefor characterised by a special design with respect to properties of materials specific to articles to be ground of non-metallic inorganic material, e.g. stone, ceramics, porcelain of glass
    • B24B9/14Machines or devices designed for grinding edges or bevels on work or for removing burrs; Accessories therefor characterised by a special design with respect to properties of materials specific to articles to be ground of non-metallic inorganic material, e.g. stone, ceramics, porcelain of glass of optical work, e.g. lenses, prisms
    • B24B9/148Machines or devices designed for grinding edges or bevels on work or for removing burrs; Accessories therefor characterised by a special design with respect to properties of materials specific to articles to be ground of non-metallic inorganic material, e.g. stone, ceramics, porcelain of glass of optical work, e.g. lenses, prisms electrically, e.g. numerically, controlled
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B24GRINDING; POLISHING
    • B24BMACHINES, DEVICES, OR PROCESSES FOR GRINDING OR POLISHING; DRESSING OR CONDITIONING OF ABRADING SURFACES; FEEDING OF GRINDING, POLISHING, OR LAPPING AGENTS
    • B24B13/00Machines or devices designed for grinding or polishing optical surfaces on lenses or surfaces of similar shape on other work; Accessories therefor
    • B24B13/06Machines or devices designed for grinding or polishing optical surfaces on lenses or surfaces of similar shape on other work; Accessories therefor grinding of lenses, the tool or work being controlled by information-carrying means, e.g. patterns, punched tapes, magnetic tapes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B24GRINDING; POLISHING
    • B24BMACHINES, DEVICES, OR PROCESSES FOR GRINDING OR POLISHING; DRESSING OR CONDITIONING OF ABRADING SURFACES; FEEDING OF GRINDING, POLISHING, OR LAPPING AGENTS
    • B24B27/00Other grinding machines or devices
    • B24B27/0023Other grinding machines or devices grinding machines with a plurality of working posts
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B24GRINDING; POLISHING
    • B24BMACHINES, DEVICES, OR PROCESSES FOR GRINDING OR POLISHING; DRESSING OR CONDITIONING OF ABRADING SURFACES; FEEDING OF GRINDING, POLISHING, OR LAPPING AGENTS
    • B24B9/00Machines or devices designed for grinding edges or bevels on work or for removing burrs; Accessories therefor
    • B24B9/02Machines or devices designed for grinding edges or bevels on work or for removing burrs; Accessories therefor characterised by a special design with respect to properties of materials specific to articles to be ground
    • B24B9/06Machines or devices designed for grinding edges or bevels on work or for removing burrs; Accessories therefor characterised by a special design with respect to properties of materials specific to articles to be ground of non-metallic inorganic material, e.g. stone, ceramics, porcelain
    • B24B9/08Machines or devices designed for grinding edges or bevels on work or for removing burrs; Accessories therefor characterised by a special design with respect to properties of materials specific to articles to be ground of non-metallic inorganic material, e.g. stone, ceramics, porcelain of glass
    • B24B9/14Machines or devices designed for grinding edges or bevels on work or for removing burrs; Accessories therefor characterised by a special design with respect to properties of materials specific to articles to be ground of non-metallic inorganic material, e.g. stone, ceramics, porcelain of glass of optical work, e.g. lenses, prisms
    • B24B9/144Machines or devices designed for grinding edges or bevels on work or for removing burrs; Accessories therefor characterised by a special design with respect to properties of materials specific to articles to be ground of non-metallic inorganic material, e.g. stone, ceramics, porcelain of glass of optical work, e.g. lenses, prisms the spectacles being used as a template
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C13/00Assembling; Repairing; Cleaning

Definitions

  • the present disclosure relates to a spectacle lens processing system, a spectacle lens processing device, a spectacle lens processing terminal device, a spectacle lens processing program, and a spectacle lens processing method for processing spectacle lenses.
  • a spectacle frame shape measurement device that acquires spectacle frame shape data
  • a spectacle lens measurement device that measures the optical center of the spectacle lens
  • a cup attachment that attaches a cup (jig) to the spectacle lens
  • a spectacle lens processing system that processes spectacle lenses using an apparatus (blocker) and a spectacle lens processing apparatus (lens edger) that processes spectacle lenses is known.
  • spectacles are manufactured by processing the peripheral edge of the fabric lens based on the lens shape data of the spectacle frame and placing it in the spectacle frame.
  • the eyeglass frame shape data obtained by the spectacle frame shape measuring device or the like is stored in, for example, the spectacle frame shape measuring device, the spectacle lens processing device, or the memory of another terminal.
  • the conventional spectacle lens processing system requires an individual spectacle frame shape measuring device, and the spectacle frame is measured every time the spectacles are manufactured, which is troublesome.
  • the user discriminates the target lens shape data from the file name, and it was difficult to search for desired target lens shape data from a plurality of target lens data stored in the memory.
  • the operator discriminates the target lens shape data based on the file name and uses it for processing the spectacle lens.
  • the shape of the spectacle frame with the file name it is difficult to imagine the shape of the spectacle frame with the file name, and there is a possibility that the target lens data is selected by mistake.
  • the present disclosure provides a spectacle lens processing system, a spectacle lens processing device, a spectacle lens processing terminal device, a spectacle lens processing program, and a spectacle lens that solve at least one of the problems of the related art. It is a technical problem to provide a processing method.
  • the first embodiment according to the present disclosure is characterized by having the following configuration.
  • a spectacle lens processing system for sharing spectacle frame lens data a data sharing server having storage means for storing the lens data, and transferring the lens data to the data sharing server
  • the data sharing server receives the target lens shape data from a terminal device among the plurality of terminal devices via a communication network, and receives the target target lens shape data. By transferring it to another terminal device, the target lens shape data is shared among the plurality of terminal devices.
  • a spectacle lens processing terminal device comprising: transmission means for transmitting the target lens shape data to the data sharing server; and reception means for receiving target lens shape data from the data sharing server; Sharing the target lens shape data with the other eyeglass lens processing terminal device by receiving the target lens shape data transmitted from the terminal device to the data sharing server by the receiving means from the data sharing server;
  • Eyeglass lens processing for sharing eyeglass data comprising: a data sharing server capable of storing eyeglass data of eyeglass frames; and a plurality of terminal devices that transfer the eyeglass data to the data sharing server.
  • the eyeglass lens processing program used in the system for eyeglasses which is executed by the processor of the eyeglass lens processing system, so that the target lens data is transmitted from one terminal device through the communication network among the plurality of terminal devices.
  • the eyeglass lens processing system executes a sharing step of sharing the target lens data among the plurality of terminal devices by transferring the received target lens shape data to another terminal device. It is characterized by.
  • the second embodiment according to the present disclosure is characterized by having the following configuration.
  • a spectacle lens processing apparatus a target lens shape acquisition unit that acquires target lens shape data, an image acquisition unit that acquires image data related to a spectacle frame, and the target lens acquisition unit that acquires the target lens shape data.
  • Information processing means for storing the target lens shape data in the image data acquired by the image acquisition means, and storing in the storage means image data with target lens shape data, which is image data storing the target lens shape data. It is characterized by that.
  • a spectacle frame shape measuring device that measures the lens shape of the spectacle frame and acquires spectacle frame shape data
  • a spectacle lens processing device that processes the peripheral edge of the spectacle lens, and processes the peripheral edge of the spectacle lens
  • An eyeglass lens processing system for acquiring image data relating to an eyeglass frame, and the target lens data obtained by the eyeglass frame shape measuring device, the image data obtained by the image obtaining means.
  • Information processing means for storing image data storing the target lens shape data in a storage means, wherein the information processing means uses the target lens shape data from the image data with target lens shape data stored in the storage means. And the extracted lens shape data is transmitted to the eyeglass lens processing apparatus.
  • a spectacle lens processing program which is executed by the processor of the spectacle lens processing device, acquires a target lens shape acquisition step for acquiring spectacle frame data, and an image for acquiring image data related to the spectacle frame.
  • the acquisition step and the target lens data acquired in the target lens acquisition step are stored in the image data acquired in the image acquisition step, and the target image data is an image data storing the target lens data.
  • the spectacle lens processing apparatus executes the steps and a processing step of processing the spectacle lens by the spectacle lens processing apparatus using the transferred target lens shape data.
  • a spectacle lens processing method a target lens shape acquisition step of acquiring target lens shape data of a spectacle frame, an image acquisition step of acquiring image data related to a spectacle frame, and the target lens acquired in the target lens shape acquisition step
  • a storage step of storing mold data in the image data acquired by the image acquisition step, and image data with target lens shape data that is image data in which the target lens shape data is stored in the storage step are stored in a data server.
  • the display control step Stored in the image data displayed on the display unit in the storage step, the display control step of receiving the image data with the target lens shape data from the data server, and displaying the image data on the screen of the terminal device.
  • a spectacle lens processing terminal device used for managing spectacle frame lens data, storage means for storing spectacle frame lens data, and image relating to spectacle frame lens data and spectacle frames An information processing unit that receives data from a data server that stores data, associates the target lens shape data and the image data with each other and stores them in the storage unit, and displays the image data stored in the storage unit by the information processing unit Display control means to be displayed on, and transfer means for transferring the target lens shape data associated with the image data displayed on the display unit to a spectacle lens processing apparatus for processing spectacle lenses, It is characterized by providing.
  • the third embodiment according to the present disclosure is characterized by having the following configuration.
  • An eyeglass lens processing apparatus an imaging optical system for photographing a spectacle frame, a target lens shape acquisition means for acquiring target lens shape data, and a spectacle frame captured by the imaging optical system. And an information processing unit for storing the image data and the target lens shape data acquired by the target lens shape acquiring unit in association with each other.
  • the apparatus for processing spectacle lenses according to the present embodiment may be used, for example, when processing spectacle lenses.
  • the spectacle lens processing apparatus includes, for example, a target lens acquisition unit (for example, the control unit 13 and the control unit 31), an image acquisition unit (for example, the terminal device 10), and an information processing unit (for example, the control unit 13 and the control unit). 31) is mainly provided.
  • the target lens shape acquisition unit acquires target lens shape data, for example.
  • the target lens acquisition unit may include, for example, a measurement unit, and may measure target lens data by the measurement unit, or may read target lens data from an external target lens measuring device.
  • the target lens shape data for example, there is a method of measuring target lens shape data along a rim of a spectacle frame.
  • the target lens may be specified by photographing a demo lens or the like, and the target lens data stored in the storage unit may be read out. Further, design data or the like may be used as target lens data.
  • the image acquisition unit acquires image data related to a spectacle frame, for example.
  • the image data related to the spectacle frame may be, for example, image data indicating the shape of at least a part of the spectacle frame.
  • the image data related to the spectacle frame may be, for example, a graphic of the spectacle frame, a graphic of the spectacle frame, or a graphic created based on the lens shape data of the spectacle frame.
  • the image data related to the spectacle frame may be two-dimensional image data or three-dimensional image data.
  • the image data related to the spectacle frame may be a still image or a moving image.
  • a moving image it may be a moving image obtained by photographing a spectacle frame or a moving image obtained by processing a spectacle lens using the lens shape data of the spectacle frame.
  • it may be a moving image with sound explaining the characteristics of the spectacle frame, the processing method of the spectacle lens, and the like.
  • the information processing unit stores, for example, the target lens data acquired by the target lens acquiring unit in the image data acquired by the image acquiring unit, and the target image data with target lens data is image data storing the target lens data.
  • storage part for example, the memory 21, the memory 32, etc.
  • the information processing unit may store the target lens shape data in the information area defined in the image data.
  • the target lens shape data may be stored in a tag defined in the image data or an information area identified by the order recorded in the image data.
  • the information processing unit may extract the target lens shape data from the image data with target lens data stored in the storage unit. Then, the information processing unit may transmit the extracted target lens shape data to the eyeglass lens processing apparatus.
  • the spectacle lens processing apparatus may be, for example, an apparatus that processes the periphery of the spectacle lens.
  • the information processing unit may extract the lens shape data from the image data with the lens shape data, and restore it into a file format that can be read by the eyeglass lens processing apparatus.
  • the eyeglass lens processing apparatus may further include a display control unit (for example, the control unit 13) and a selection instruction receiving unit (for example, the control unit 13, the operation unit 12).
  • the display control unit may cause the display unit (for example, the display unit 11) to display the image data with the target lens shape data stored in the storage unit.
  • the selection instruction receiving unit may receive a selection instruction in which at least one image data with target lens data is selected from the image data with target lens data displayed on the display unit by the display control unit.
  • the information processing unit may extract the lens shape data from the image data with target lens data selected in the selection instruction received by the selection instruction receiving unit.
  • the eyeglass lens processing apparatus may further include a processing condition acquisition unit (for example, the control unit 13).
  • the processing condition acquisition unit may acquire processing conditions when processing the spectacle lens using the target lens shape data.
  • the information processing unit may store the processing conditions acquired by the processing condition acquisition unit in the image data. Thereby, the user can confirm the processing conditions suitable for the spectacle frame by confirming the image data.
  • the spectacle lens processing apparatus may further include an evaluation information acquisition unit (for example, the control unit 13 and the operation unit 12).
  • the evaluation information acquisition unit may acquire evaluation information from the user for the target lens shape data.
  • the information processing unit may store the evaluation information of the target lens shape data acquired by the evaluation information acquisition unit in the image data. Thereby, the user can select a suitable target lens by looking at the evaluation.
  • the spectacle lens processing device may function as a spectacle lens processing system by a spectacle frame shape measuring device (for example, the tracer 4) and a spectacle lens processing device (for example, the lens edger 5).
  • the spectacle frame shape measuring apparatus measures the lens shape of the spectacle frame and acquires the lens shape data of the spectacle frame.
  • the spectacle lens processing apparatus may process the peripheral edge of the spectacle lens.
  • the eyeglass lens processing system may include, for example, the image acquisition unit and the information processing unit as described above.
  • the image acquisition unit may acquire target lens shape data relating to the spectacle frame.
  • the information processing unit may store the target lens shape data acquired by the spectacle frame shape measuring device in the image data acquired by the image processing unit.
  • the information processing unit may cause the storage unit to store the image data with the target lens shape data, which is the image data storing the target lens shape data. Further, the information processing unit may extract the target lens shape data from the image data with target lens data stored in the storage unit, and transmit the extracted target lens shape data to the eyeglass lens processing apparatus.
  • a terminal device (for example, the terminal device 10) may be used as the eyeglass lens processing device.
  • the terminal device includes a storage unit (for example, the memory 21), an information processing unit (for example, the control unit 13), a display control unit (for example, the control unit 13), and a transfer unit (for example, the control unit 13).
  • the storage unit stores, for example, lens shape data of the spectacle frame.
  • the information processing unit for example, stores the target lens data and the image data in the storage unit in association with each other from a data server (for example, the data sharing server 30) that stores the target lens data of the spectacle frame and the image data related to the spectacle frame.
  • the display control unit may cause the display unit to display the image data stored in the storage unit by the information processing unit.
  • the transfer unit may transfer the target lens shape data associated with the image data displayed on the display unit to the eyeglass lens processing apparatus.
  • the spectacle lens processing device may be a data server or a terminal device.
  • the data server may store the target lens data in the image data of the spectacle frame
  • the terminal device may store target lens data in the image data.
  • a spectacle lens processing device for example, a terminal device, a spectacle lens processing device, a spectacle frame shape measuring device, a cup mounting device, or a spectacle lens measuring device
  • the eyeglass lens processing apparatus may extract the lens shape data from the image data with the lens shape data. Then, the spectacle lens may be processed based on the extracted target lens shape data.
  • the terminal device or the data server may be integrated with a spectacle lens processing device, a spectacle frame shape measuring device, or the like.
  • a spectacle lens processing device, a spectacle frame shape measuring device, or the like may function as the spectacle lens processing device.
  • the spectacle lens processing system (for example, spectacle lens processing system 1) of this embodiment is used when processing spectacle lenses, for example.
  • the eyeglass lens processing system mainly includes, for example, a data sharing server (for example, the sharing server 30) and a plurality of terminal devices (for example, the terminal device 10).
  • the data sharing server includes, for example, a storage unit (for example, memory 32) for storing target lens data.
  • the terminal device transfers the target lens data to the data sharing server.
  • the data sharing server may receive the target lens shape data from one terminal device among a plurality of terminal devices via the communication network, and transfer the received target lens shape data to another terminal device. Accordingly, the eyeglass lens processing system may share the target lens data among a plurality of terminal devices.
  • the data sharing server may periodically communicate with a plurality of terminal devices. Then, the new target lens shape data is received from one terminal device via the communication network, and the received new target lens shape data is compared with the target target lens data already stored in the storage unit. Depending on the comparison result, the own target lens shape data may be updated, and the updated target lens shape data may be transferred to another terminal device via the communication network. Accordingly, the data sharing server may synchronize the target lens data among the plurality of terminal devices.
  • the plurality of terminal devices may further include an information acquisition unit (for example, the control unit 13).
  • the information acquisition unit may acquire, for example, evaluation information that evaluates the fitting when the spectacle lens processed using the target lens data is put in the spectacle frame.
  • the data sharing server may share the evaluation information among the plurality of terminal devices by receiving the evaluation information acquired by the information acquisition unit and transferring the evaluation information to other terminal devices as described above. .
  • the information acquisition unit may acquire, for example, processing conditions when processing a spectacle lens using target lens data.
  • the data sharing server may share the processing conditions among a plurality of terminal devices by receiving the processing conditions acquired by the information acquisition unit and transferring them to other terminal devices as described above. .
  • the information acquisition unit may acquire classification information classified by at least one of the color and shape of the spectacle frame, for example.
  • the data sharing server may receive the classification information acquired by the information acquisition unit and transfer the classification information to other terminal apparatuses to share the classification information among a plurality of terminal apparatuses. .
  • a terminal device for example, a transmission part (for example, control part 13) and a receiving part (for example, control part 13).
  • the transmission unit may transmit the target lens data to the data sharing server.
  • the receiving unit may receive the target lens data from the data sharing server.
  • the terminal device may receive, for example, the target lens data transmitted from the other terminal device to the data sharing server by the transmitting unit from the data sharing server. Accordingly, the terminal device may share the target lens data with other terminal devices.
  • the terminal device may receive the target lens data stored in the storage unit of another terminal device, for example, by the receiving unit.
  • the terminal device may function as a data sharing server.
  • a plurality of terminal devices may be connected to the data sharing server via a single terminal device. Accordingly, the target lens shape data stored in the data sharing server may be shared among a plurality of terminal devices via one terminal device.
  • the spectacle lens processing apparatus (for example, spectacle lens processing apparatus, spectacle frame shape measuring apparatus) of this embodiment is used when processing spectacle lenses.
  • the eyeglass lens processing apparatus mainly includes, for example, an imaging optical system (for example, the imaging optical system 61), a target lens acquisition unit (for example, the control unit 501), and an information processing unit (for example, the control unit 501).
  • the imaging optical system photographs a spectacle frame, for example.
  • the target lens shape acquisition unit acquires target lens shape data of a spectacle frame.
  • the information processing unit may store the image data of the spectacle frame captured by the imaging optical system in association with the target lens shape data acquired by the target lens acquiring unit in the storage unit.
  • the user can confirm the shape of the target lens shape data with the associated image data.
  • the spectacle lens processing apparatus may further include a mounting portion (for example, the mounting table 62 and the support portion 63).
  • the placement unit may place a spectacle frame.
  • the imaging optical system may photograph the spectacle frame placed on the placement unit.
  • the imaging optical system may photograph the eyeglass frame from above the height of the surface including the left and right temples of the eyeglass frame placed on the placement unit. Thereby, the imaging optical system can photograph not only the shape of the eyeglass frame but also the shape of the temple.
  • the imaging optical system may have, for example, an imaging optical axis that is tilted to the left or right with respect to a plane including the symmetry axis of the spectacle frame placed on the placement unit.
  • the apparatus for producing glasses may further include a background member (for example, the background member 64).
  • the background member is disposed behind the spectacle frame placed on the placement unit with respect to the imaging optical system, and forms a background color that increases the contrast with the spectacle frame as the background of the subject. Good.
  • the eyeglass lens processing apparatus may further include a number registration unit (for example, the control unit 501).
  • the number registration unit may register the work number set for each spectacle in the image data of the spectacle frame captured by the imaging optical system.
  • the information processing unit is the same as the image data in which the work number is registered by the number registration unit and the work number registered in the image data by the number registration unit among the target lens shape data acquired by the target lens acquisition unit.
  • the target lens data registered with the work number may be associated with each other and stored in the storage unit. This prevents the discrepancy between the image data and the target lens data.
  • the eyeglass lens processing apparatus may be an eye position measuring apparatus that measures the eye position of the subject.
  • the imaging optical system may also be used as a measurement optical system for photographing the subject in order to measure the eye position.
  • the spectacle lens processing device may be a spectacle frame shape measuring device having a measuring element and measuring the lens shape of the spectacle frame by the measuring element.
  • the spectacle lens processing device may be a cup mounting device including a lens mounting table for mounting a spectacle lens and an arm for mounting a cup to the spectacle lens mounted on the lens mounting table.
  • the spectacle lens processing apparatus may be a spectacle lens processing apparatus that includes a lens processing unit and processes the peripheral edge of the spectacle lens by the lens processing unit.
  • a spectacle lens processing system 1 shown in FIG. 1 mainly includes a lens meter 2, a blocker 3, a tracer 4, a lens edger 5, and an information processing terminal (hereinafter sometimes abbreviated as a terminal) 10.
  • the eyeglass lens processing system 1 may include a shared server 30.
  • the shared server 30 may include, for example, a control unit 31 and a memory 32.
  • the lens meter 2, the blocker 3, the tracer 4, the lens edger 5, the terminal 10, and the shared server 30 may be connected to each other via a communication network.
  • the communication network may be wired or wireless, for example.
  • the lens meter 2 is a device for measuring the optical center of a spectacle lens, for example.
  • the lens meter 2 includes a measurement optical system (for example, a Shack-Hartmann optical system) 6 and measures the optical center of the spectacle lens.
  • the lens meter 2 may be provided with a marking mechanism 7 and may mark the optical center measured by the measuring optical system 6.
  • the blocker 3 is a device that attaches a cup to a spectacle lens.
  • This cup is used as a jig for holding the spectacle lens by the lens edger 5.
  • the blocker 3 attaches the cup to the spectacle lens with reference to the mark point provided at the optical center of the spectacle lens by the lens meter 2.
  • the blocker 3 includes, for example, a camera 8 and may automatically detect the mark point and attach the cup, or the user may attach the cup according to the position of the mark point on the scale.
  • the tracer 4 is a device for measuring the lens shape of the spectacle frame.
  • the tracer 4 includes a control unit 401 and a memory 402.
  • the tracer 4 may place a measuring element (not shown) along the rim of the spectacle frame and measure the lens shape of the spectacle frame based on the trajectory of the measuring element.
  • the lens edger (hereinafter abbreviated as edger) 5 is an apparatus for processing the peripheral edge of a spectacle lens into a lens shape of a spectacle frame, for example.
  • the edger 5 may include a control unit 501, a memory 502, and the like, for example.
  • the edger 5 includes lens processing means of at least one of a grindstone and a cutter, and processes the peripheral edge of the spectacle lens based on the lens shape data of the spectacle frame acquired by the tracer 4.
  • the terminal 10 is used, for example, for the user to manage information for producing eyeglasses.
  • the terminal 10 may include a display unit 11, an operation unit 12, a control unit 13, a built-in camera 20, a memory 21, and the like, for example.
  • the display unit 11 presents information for producing eyeglasses to the user, for example.
  • the display unit 11 displays an image of a spectacle frame photographed, a graphic image of the spectacle frame, a graphic image of target lens data, and the like.
  • the operation unit 12 outputs an operation signal to the control unit 13 of the terminal 10 based on a user operation.
  • the display unit 11 of the present embodiment uses a touch panel display and is also used as the operation unit 12.
  • the display unit 11 may not be a touch panel type.
  • the operation unit 12 may include various switches and accept user operations.
  • the built-in camera 20 includes an image sensor (not shown) and is used to capture an image of a spectacle frame or the like.
  • an application for storing the target lens data in the image data is installed.
  • the control unit 13 executes the application and stores the target lens shape data in the image data.
  • the image data for storing the target lens shape data for example, an image including information for recognizing the shape of the spectacle frame such as a photograph of the spectacle frame, a graphic created based on the target lens shape data of the spectacle frame is used (see FIG. 2A, see FIG. 2B).
  • an Exif (Exchangeable Image Image File Format) standard in which image attribute information such as a main image, a thumbnail image, and shooting information is recorded in a predetermined format is known.
  • image attribute information is stored in a directory on a tree called IFD.
  • a tag called “MakerNote” is defined in the area of the Exif IFD that is one of the IFDs, and the manufacturer may record unique information in this “MakerNote” tag.
  • an information area related to user information such as the above MakerNote tag is defined in image data.
  • Tags related to user information as described above can be freely used by the user, and the data format to be stored is often free.
  • tags called MakerNote are defined for JEPG, and private chunks are defined for PNG. Similar tags are often defined in other image formats.
  • the control unit 13 stores eyeglass frame lens data in an information area such as the above tag, for example.
  • the lens shape data is, for example, radius vector information with the frame center of the lens shape as the origin.
  • the control unit 13 stores the target lens shape data in a tag defined in the image data.
  • the control unit 13 calls a desired tag with a tag number determined for each image data format, and writes the target lens shape data to the called tag. By doing so, the control unit 13 can create image data in which the target lens shape data is stored.
  • control unit 13 can extract the target lens shape data stored in the image data by executing the application. For example, the control unit 13 calls a tag storing the target lens shape data, and outputs the target target lens data to a file format in which the edger 5 can read the stored target lens data.
  • FIG. 4 is an example of a screen displayed on the display unit 11 when the application is activated.
  • an image selection button 14 an image data column 15, a target lens selection button 16, a target lens data column 17, a target lens storage button 18, a target lens extraction button 19, and the like are displayed.
  • the image selection button 14 is a button that is selected when selecting image data for storing the target lens shape data.
  • the image data column 15 is a column in which the file name and image of the selected image are displayed.
  • the target lens selection button 16 is, for example, a button that is selected when selecting target lens data to be stored in the image data.
  • the target lens data column 17 is a column in which the file name of the selected target lens is displayed.
  • the target lens storage button 18 stores the target target lens data in the selected image data.
  • the target lens shape extraction button 19 is a button to be selected when extracting target lens shape data from the selected target image data with target lens shape data.
  • the control unit 13 displays an image reference screen 22 (see FIG. 5A).
  • the user refers to the storage location of the image data of the spectacle frame taken by the built-in camera 20 of the terminal 10 on the image reference screen 22 and selects the stored spectacle frame image data.
  • the control unit 13 displays the file name and image of the image data in the image data column 15 (see FIG. 4).
  • the user selects the target lens selection button 16 using the operation unit 12.
  • the control unit 13 displays a target lens reference screen 23 (see FIG. 5B).
  • the user refers to the storage location of the spectacle frame lens data acquired by the tracer 4 or the like on the target lens reference screen 23 and selects the stored spectacle frame lens data.
  • the control unit 13 displays the target lens data file name in the target lens data column 17.
  • the control unit 13 may cause the display unit 11 to display a graphic image of the selected target lens shape data so that the user can confirm the shape of the target lens shape data.
  • the control unit 13 stores the selected target lens data in the tag of the selected image data.
  • the control unit 13 displays an image reference screen 22.
  • the user refers to the storage location of the image data with target lens data in which target lens data is stored by using the image reference screen 22 and selects the stored target image data with target lens data.
  • the user may select image data with reference to the thumbnail image.
  • the control unit 13 displays the file name, image, and the like of the image data with target lens data in the image data column 15.
  • the user selects the image data with target lens data
  • the user operates the target lens extraction button 19 using the operation unit 12.
  • the control unit 13 extracts the target lens data stored in the tag of the selected target image data with target lens data, and stores the target lens data in the folder set as the output destination. Output.
  • the control unit 13 can create image data with target lens data in which target lens data is stored.
  • the control unit 13 can manage the target lens shape data as image data.
  • the user has determined the target lens shape based on the file name or the like in which the target lens model number has been input.
  • the target lens shape data can be handled together with the image data. Therefore, even if the user cannot imagine the shape of the target lens shape by the file name of the target lens shape data, the user can grasp the shape of the target lens shape data by confirming the image data. Therefore, the control part 13 can reduce that a user misses selection of target lens data.
  • a tag for storing a reduced version (thumbnail) of the image data is prepared, and the thumbnail image of the original image data is automatically stored.
  • the user can search for the lens shape data of the eyeglass frame to be created while looking at the thumbnail image on the file list screen as shown in FIG. 5A, and saves the trouble of opening the image data file.
  • the control unit 13 may store not only the target lens data but also other information in the image data.
  • the control unit 13 may store solid information (for example, the manufacturer, model, model number, etc. of the tracer 4) of the tracer 4 used for acquiring the target lens data.
  • the target lens data may be different. Therefore, if the information of the tracer 4 is stored in the image, the user can select target eyeglass lens lens data with reference to the manufacturer, model, etc. of the tracer 4.
  • control unit 13 may store the color information of the spectacle frame in the image data.
  • the shape of the target lens shape may differ slightly depending on the color of the spectacle frames.
  • the lens shape data is stored in image data that does not reflect the color of the eyeglass frame, such as a monochrome photograph of the eyeglass frame or an eyeglass shape graphic, the color of the eyeglass frame is not known. For this reason, the color information of the spectacle frame may be stored in the tag of the image data.
  • the control part 13 displays color information, for example, when displaying the target lens-shaped graphic image on the display part 11. FIG.
  • the user can select the target lens shape data after confirming the target image graphic image data and the color information stored in the image data.
  • the control unit 13 may store the evaluation information of the target lens data in the image data tag.
  • the control unit 13 may store the fitting evaluation when the spectacle lens is framed in the frame after manufacturing the spectacles in the tag of the image data based on the input to the operation unit 12 by the user. Thereby, the user can select the target lens data with reference to the evaluation information stored in the image data.
  • control unit 13 may store the processing conditions in a tag. For example, as described above, even when the evaluation of the target lens shape data stored in the image data is high, there is a possibility that the finish may be different depending on whether or not the processing is performed under the same conditions as the evaluation. is there. In such a case, the processing conditions when the spectacle lens is processed based on the evaluated target lens data are stored in the image data, so that the spectacle lens is processed again using the same target lens data. Can be processed with the same finish as the evaluation.
  • the processing conditions of the target lens data include, for example, information on the lens edger used, such as lens curve, lens thickness, lens material used, lens edger manufacturer, model, model number, etc.
  • the machining operation is, for example, a relative operation between a lens chuck shaft that holds a spectacle lens and a machining tool.
  • the tag for storing the target lens data need not be a manufacturer note.
  • the control unit 13 may store information related to the target lens shape data as described above, such as a tag for storing the image shooting date, a tag for storing a comment, and the like.
  • the tag for storing the target lens shape data is not limited to the tag defined by the image format, and may be a tag added to the image by the application.
  • the control unit 13 may add a tag to the image data by executing an application. Then, the control unit 13 may add the image data to the tag added to the image data.
  • the control unit 13 stores the target lens shape data in a tag added to the image data. Furthermore, the control unit 13 may store the target lens shape data in a tag added to the image data.
  • tags are not defined, such as image data in bitmap format.
  • a unique information area may be defined in the image data and the target lens shape data may be stored.
  • the information area for storing the target lens shape data may be identified according to the order of recording in the image data.
  • the control unit 13 of the terminal 10 acquires image data of a spectacle frame (step 1-1).
  • the control unit 13 may acquire an image of a spectacle frame taken by the user using the built-in camera 20 of the terminal 10.
  • the control unit 13 may store an image of the spectacle frame acquired by the built-in camera 20 in the memory 21.
  • the control unit 13 acquires the lens shape data of the spectacle frame (step 1-2).
  • the control unit 13 may acquire the target lens data measured by the user tracing the spectacle frame using the tracer 4.
  • the control unit 401 of the tracer 4 traces the set spectacle frame and stores the lens shape data of the spectacle frame in the memory 402. Further, the control unit 401 transmits the traced target lens shape data to the edger 5.
  • the control unit 501 of the edger 5 receives the target lens shape data, it stores it in the memory 502.
  • the terminal 10 may access the memory 402 of the tracer 4 by communication means such as wireless (may be wired) and acquire the eyeglass frame shape data.
  • communication means such as wireless (may be wired)
  • the user selects image data and target lens shape data using the application as described above, and presses the storage button 19.
  • the control unit 13 receives the operation signal from the operation unit 12, and stores the target lens shape data acquired from the tracer 4 in the image data of the selected spectacle frame (step 1-3).
  • Image data storing the target lens shape data (hereinafter also referred to as target image data) is transmitted from the terminal 10 to the shared server (for example, cloud server) 30 (step 1-4) and stored in the memory 32. . Saving to the shared server 30 may be performed automatically by the control unit 13 or manually by the user.
  • the terminal 10 is synchronized with the shared server 30 and may be automatically transmitted to the shared server 30 when the terminal 10 acquires the image data with the target lens shape data. Further, the control unit 31 of the shared server may automatically acquire the image data with target lens data from the terminal 10.
  • the user obtains the optical center of the fabric lens with the lens meter 2 and marks it with an ink pen or the like. Then, for example, the user uses the blocker 3 and attaches the cup at a predetermined position with respect to the optical center marked by the lens meter 2.
  • the cup is attached to the lens by, for example, a double-sided tape.
  • the cup is used as a jig when processing the lens with the edger 5.
  • the user sets the eyeglass lens to which the cup is attached by the lens meter 2 and the blocker 3 on the edger 5.
  • the edger 5 processes the peripheral edge of the set spectacle lens based on the target lens shape data received from the tracer 4.
  • the user puts the processed spectacle lens in the spectacle frame.
  • the user confirms the fitting when the spectacle lens is put in the spectacle frame.
  • the user may operate the terminal 10 and give a high evaluation value to the target lens shape data used this time.
  • the user may input the evaluation level of the target lens data in accordance with the fitting in the information area of the image data with target lens data.
  • the evaluation information may be synchronized with the shared server 30, and the evaluation information may be reflected in the target lens data on the shared server 30.
  • the user accesses the shared server 30 using the terminal 10 and acquires image data with target lens data (step 2-1).
  • the user accesses the shared server 30 using the terminal 10 and searches for the lens shape data of the spectacle frame of the spectacles to be created.
  • the target lens shape data is stored in the image data as described above, the user searches for a desired spectacle frame while checking the image data.
  • the user may select target lens data based on, for example, evaluation information of target lens data. For example, the user may download the image data with target lens data in which target lens data having the highest evaluation among the desired spectacle frames is stored.
  • the shared server 30 may present the number of downloads of each target lens shape data to the user. As a result, the user may acquire popular target lens shape data with a large number of downloads.
  • the control unit 13 extracts the target lens data from the acquired target image data with target lens data (step 2-2) and transmits it to the edger 5 (step 2-3).
  • the edger 5 receives the target lens shape data and processes the peripheral edge of the set spectacle lens (step 2-4).
  • the user takes out the spectacle lens from the edger 5 and puts it in the spectacle frame.
  • the user may confirm the fitting when the spectacle lens is put in the spectacle frame, and may record the evaluation value of the target lens data by the terminal 10.
  • the evaluation value of the target lens shape data recorded by the user may be synchronized and shared by the control unit 31 of the shared server 30.
  • the shared server 30 may collectively store the evaluation values input from each user. For example, the shared server 30 may calculate the average evaluation value from each user and store the average value as evaluation information of the target lens shape data.
  • the spectacle lens can be processed without using the tracer 4. Furthermore, the data of the tracer 4 can be shared with other users, whereby a plurality of target lens data can be acquired. Furthermore, since the target lens data uploaded to the shared server 30 can be evaluated, even when there are a plurality of target lens data, it is possible to obtain better target lens data by comparing the evaluations.
  • the shared server 30 that supervises the shared data may classify and manage the shared image data with target lens data.
  • the image data with the target lens shape data may be managed by classifying into the store of the spectacle store, the manufacturer of the spectacle frame, the color, and the shape (two points, rimless, etc.).
  • the control unit 31 such as the shared server 30 may read and classify information such as store, manufacturer, color, and shape recorded in the image data with target lens data.
  • the shared server 30 is used to share the image data with target lens data.
  • the present invention is not limited to this.
  • the image data with the target lens shape data uploaded on the web may be shared by downloading.
  • the target lens shape data may be extracted from the downloaded image data with target lens data.
  • the image data of the spectacle frame is taken by the built-in camera 20 such as the terminal 10, but the present invention is not limited to this.
  • a photographing unit for photographing a spectacle frame is provided in a device used when manufacturing spectacles such as an eye position meter, a tracer 4, a blocker 3, an edger 5, a lens meter 2, and a refractometer, and image data of the spectacle frame is acquired.
  • the eye position meter takes an image of a subject wearing spectacles and prepares spectacle wearing parameters (distance between pupils, distance between frame pupils (frame PD), eye point height, distance PD). , Near-field PD).
  • FIG. 8 is an example when the photographing unit 60 is provided in the edger 5.
  • the photographing unit 60 may include, for example, an imaging optical system 61 for photographing a spectacle frame from a predetermined direction.
  • the photographing unit 60 may include a mounting table 62 for mounting a spectacle frame.
  • the mounting table 62 may include, for example, a support unit 63 that supports the spectacle frame in a predetermined direction with respect to the imaging optical axis of the imaging optical system.
  • the photographing unit may photograph the spectacle frame supported by the support portion 63 of the mounting table 62 from a predetermined direction.
  • the photographing unit 60 may photograph a spectacle frame from a direction in which the shape of the spectacle frame is easily visible.
  • the direction in which the shape of the spectacle frame is easy to visually recognize is, for example, a direction inclined in either the left or right direction with respect to a plane including the left-right symmetry axis of the spectacle frame, or an upper direction with respect to the plane including the left and right temples
  • the direction may be inclined in the direction.
  • the photographing unit 60 may include a background member 64 that serves as a background when photographing a spectacle frame.
  • the background member 64 may form a background color having a high contrast with the spectacle frame so that the color of the spectacle frame is easily visible. For example, it may be formed in white.
  • a photographing unit 60 By using such a photographing unit 60, it is possible to photograph an image in which the shape, color, etc. of the spectacle frame can be easily seen. Furthermore, it is possible to give a sense of unity to the images of the spectacle frames, and it is easy to compare a plurality of spectacle frames.
  • the imaging optical system 61 of the imaging unit 60 may also be an optical system provided for other purposes.
  • a measurement optical system for photographing the subject's face or the anterior eye portion of the subject may be used as the imaging optical system 61 of the photographing unit 60.
  • a measurement optical system for measuring a spectacle lens may be used as the imaging optical system 61 of the imaging unit 60.
  • the target lens shape data having the same work number set for each spectacle may be combined with the image data.
  • the work number is determined at the start of the eyeglass production work for a certain wearer.
  • the lens shape data corresponding to the work number is obtained by reading at least one of the frame trace and the registered pattern data.
  • image data associated with the work number can be obtained.
  • At least one of the shared server 30 and each device or the like combines the target lens shape data associated with the work number and the image data and stores them in a specific place.
  • at least one of the shared server 30 and individual devices may upload the stored file as shared data to the website, the shared server 30 or the like.
  • the user can select and combine the target lens shape data and the image data. Furthermore, it is possible to reduce mistakes in storing the target lens data in the image data of another spectacle frame.
  • the eyeglass frame lens shape data is stored in the image data.
  • the hole position data may be stored in the image data.
  • the hole position data is, for example, hole position information when a spectacle lens is drilled.

Abstract

従来技術の問題点を少なくとも一つ解決する眼鏡レンズ加工用システム、眼鏡レンズ加工用装置、眼鏡レンズ加工用端末装置、眼鏡レンズ加工用プログラム、および眼鏡レンズ加工方法を提供することを技術課題とする。本開示に係る眼鏡レンズ加工用システムは、玉型データを記憶するための記憶手段を有するデータ共有サーバと、玉型データを前記データ共有サーバに転送する複数の端末装置と、を備え、前記データ共有サーバは、前記複数の端末装置のうち、一つの端末装置から通信ネットワークを介して前記玉型データを受信し、受信された前記玉型データを他の端末装置に転送することによって、前記複数の端末装置の間で玉型データを共有化することを特徴とする。

Description

眼鏡レンズ加工用システム、眼鏡レンズ加工用装置、眼鏡レンズ加工用端末装置、眼鏡レンズ加工用プログラム、および眼鏡レンズ加工方法
 本開示は、眼鏡レンズを加工するための眼鏡レンズ加工用システム、眼鏡レンズ加工用装置、眼鏡レンズ加工用端末装置、眼鏡レンズ加工用プログラム、および眼鏡レンズ加工方法に関する。
 眼鏡フレームの玉型データを取得する眼鏡枠形状測定装置(トレーサー)と、眼鏡レンズの光学中心等を測定する眼鏡レンズ測定装置(レンズメータ)と、眼鏡レンズにカップ(治具)を取り付けるカップ取付装置(ブロッカー)と、眼鏡レンズの加工を行う眼鏡レンズ加工装置(レンズエッジャー)等を用いて眼鏡レンズを加工する眼鏡レンズ加工システムが知られている。このような眼鏡レンズ加工システムでは、眼鏡フレームの玉型データを基に生地レンズの周縁を加工し、眼鏡フレームに枠入れすることによって眼鏡を作製する。
 また、眼鏡枠形状測定装置等によって取得された眼鏡フレームの玉型データは、例えば、眼鏡枠形状測定装置,眼鏡レンズ加工装置,その他の端末のメモリ等に記憶される。
特開2008-137106号公報
 第1の問題として、従来の眼鏡レンズ加工システムは個別に眼鏡枠形状測定装置が必要であり、眼鏡を作製する度に眼鏡フレームを測定していたため手間であった。
 第2の問題として、ユーザはファイル名で玉型データを判別しており、メモリに記憶された複数の玉型データから所望の玉型データを探すのが大変であった。
 第3の問題として、作業者はファイル名に基づいて玉型データを判別し、眼鏡レンズの加工に用いていた。しかしながら、ファイル名では眼鏡フレームの形状をイメージしづらく、玉型データを間違えて選択してしまう可能性があった。
 本開示は、上記の問題点に鑑み、従来技術の問題点を少なくとも一つ解決する眼鏡レンズ加工用システム、眼鏡レンズ加工用装置、眼鏡レンズ加工用端末装置、眼鏡レンズ加工用プログラム、および眼鏡レンズ加工方法を提供することを技術課題とする。
 上記第1の問題を解決するために、本開示に係る第1実施形態は以下のような構成を備えることを特徴とする。
 (1) 眼鏡フレームの玉型データを共有するための眼鏡レンズ加工用システムであって、玉型データを記憶するための記憶手段を有するデータ共有サーバと、玉型データを前記データ共有サーバに転送する複数の端末装置と、を備え、前記データ共有サーバは、前記複数の端末装置のうち、一つの端末装置から通信ネットワークを介して前記玉型データを受信し、受信された前記玉型データを他の端末装置に転送することによって、前記複数の端末装置の間で玉型データを共有化することを特徴とする。
 (2) 眼鏡レンズ加工用端末装置であって、玉型データをデータ共有サーバに送信する送信手段と、データ共有サーバから玉型データを受信する受信手段と、を備え、前記送信手段によって他の端末装置が前記データ共有サーバに送信した前記玉型データを、前記受信手段によって前記データ共有サーバから受信することによって、前記玉型データを前記他の眼鏡レンズ加工用端末装置と共有化することを特徴とする。
 (3) 眼鏡フレームの玉型データを記憶可能なデータ共有サーバと、玉型データを前記データ共有サーバに転送する複数の端末装置と、を備え、玉型データを共有化するための眼鏡レンズ加工用システムにおいて用いられる眼鏡レンズ加工用プログラムであって、前記眼鏡レンズ加工用システムのプロセッサによって実行されることで、前記複数の端末装置のうち、一つの端末装置から通信ネットワークを介して玉型データを受信し、受信した前記玉型データを他の端末装置に転送することによって、前記複数の端末装置の間で玉型データを共有化する共有化ステップを前記眼鏡レンズ加工用システムに実行させることを特徴とする。
 上記第2の問題を解決するために、本開示に係る第2実施形態は以下のような構成を備えることを特徴とする。
 (4)眼鏡レンズ加工用装置であって、眼鏡フレームの玉型データを取得する玉型取得手段と、眼鏡フレームに関する画像データを取得する画像取得手段と、前記玉型取得手段によって取得された前記玉型データを、前記画像取得手段によって取得された前記画像データに格納し、前記玉型データを格納した画像データである玉型データ付画像データを記憶手段に記憶させる情報処理手段と、を備えることを特徴とする。
 (5) 眼鏡フレームの玉型を測定し、眼鏡フレームの玉型データを取得する眼鏡枠形状測定装置と、眼鏡レンズの周縁を加工する眼鏡レンズ加工装置と、を備え、眼鏡レンズの周縁を加工するため眼鏡レンズ加工システムであって、眼鏡フレームに関する画像データを取得する画像取得手段と、前記眼鏡枠形状測定装置によって取得された前記玉型データを、前記画像取得手段によって取得された前記画像データに格納し、前記玉型データを格納した画像データを記憶手段に記憶させる情報処理手段を備え、前記情報処理手段は、前記記憶手段に記憶された前記玉型データ付画像データから前記玉型データを抽出し、前記眼鏡レンズ加工装置に、抽出された前記玉型データを送信することを特徴とすることを特徴とする。
 (6) 眼鏡レンズ加工用プログラムであって、眼鏡レンズ加工用装置のプロセッサによって実行されることで、眼鏡フレームの玉型データを取得する玉型取得ステップと、眼鏡フレームに関する画像データを取得する画像取得ステップと、前記玉型取得ステップにおいて取得された前記玉型データを、前記画像取得ステップによって取得された前記画像データに格納し、前記玉型データを格納した画像データである玉型データ付画像データをデータサーバに記憶させる記憶ステップと、前記データサーバから前記玉型データ付画像データを受け取り、前記画像データを端末装置の画面上に表示させる表示制御ステップと、表示制御ステップにおいて表示部に表示された画像データに格納された玉型データを眼鏡レンズ加工装置に転送する転送ステップと、転送された玉型データを用いて眼鏡レンズ加工装置にて眼鏡レンズの加工を行う加工ステップと、を眼鏡レンズ加工装置に実行させることを特徴とする。
 (7) 眼鏡レンズ加工方法であって、眼鏡フレームの玉型データを取得する玉型取得工程と、眼鏡フレームに関する画像データを取得する画像取得工程と、前記玉型取得工程において取得された前記玉型データを、前記画像取得工程によって取得された前記画像データに格納する格納工程と、前記格納工程において前記玉型データが格納された画像データである玉型データ付画像データをデータサーバに記憶させる記憶工程と、前記データサーバから前記玉型データ付画像データを受け取り、前記画像データを端末装置の画面上に表示させる表示制御工程と、表示制御工程において表示部に表示された画像データに格納された玉型データを眼鏡レンズ加工装置に転送する転送工程と、転送された玉型データを用いて眼鏡レンズ加工装置にて眼鏡レンズの加工を行う加工工程と、を有する。
 (8) 眼鏡フレームの玉型データを管理するために用いられる眼鏡レンズ加工用端末装置であって、眼鏡フレームの玉型データを記憶する記憶手段と、眼鏡フレームの玉型データおよび眼鏡フレームに関する画像データを記憶するデータサーバから受け取り、前記玉型データおよび前記画像データを互いに関連付けて前記記憶手段に記憶させる情報処理手段と、前記情報処理手段によって前記記憶手段に記憶された前記画像データを表示部に表示させる表示制御手段と、前記表示部に表示された前記画像データに関連付けられた前記玉型データを、眼鏡レンズを加工するための眼鏡レンズ加工装置に転送する転送手段と、
を備えることを特徴とする。
 上記第3の問題を解決するために、本開示に係る第3実施形態は以下のような構成を備えることを特徴とする。
 (9) 眼鏡レンズ加工用装置であって、眼鏡フレームを撮影するための撮像光学系と、眼鏡フレームの玉型データを取得する玉型取得手段と、前記撮像光学系によって撮影された眼鏡フレームの画像データと、前記玉型取得手段によって取得された玉型データとを関連付けて記憶手段に記憶させる情報処理手段と、を備えることを特徴とする。
本実施例の眼鏡加工システムの概略図である。 眼鏡フレームに関する画像の例を示す図である。 眼鏡フレームに関する画像の例を示す図である。 画像ファイルのタグを説明するための図である。 アプリケーションの操作画面の一例である。 参照画面を説明するための図である。 参照画面を説明するための図である。 玉型データの共有について説明するための図である。 本実施例の制御動作を説明するためのフローチャートである。 エッジャーに撮影ユニットを設けた場合の外観図である。
<第1実施形態>
 以下、第1実施形態に係る眼鏡レンズ加工用装置を図面に基づいて簡単に説明する。本実施形態の眼鏡レンズ加工用装置(例えば、端末装置10,共有サーバ30)は、例えば、眼鏡レンズを加工する際に用いられてもよい。眼鏡レンズ加工用装置は、例えば、玉型取得部(例えば、制御部13,制御部31)と、画像取得部(例えば、端末装置10)と、情報処理部(例えば、制御部13,制御部31)を主に備える。
 玉型取得部は、例えば、眼鏡フレームの玉型データを取得する。玉型取得部は、例えば、測定部を備え、玉型データを測定部によって測定してもよいし、または、外部の玉型測定装置から玉型データを読み出してもよい。
 玉型データを測定する方法としては、例えば、眼鏡フレームのリムに測定子を沿わせて玉型データを測定する方法が挙げられる。また、例えば、デモレンズ等を撮影することよって玉型を特定し、特定された玉型データを記憶部に記憶された玉型データを読み出してもよい。また、設計データ等を玉型データとして用いてもよい。
 画像取得部は、例えば、眼鏡フレームに関する画像データを取得する。眼鏡フレームに関する画像データとは、例えば眼鏡フレームの少なくとも一部の形状を示す画像データでもよい。眼鏡フレームに関する画像データとは、例えば、眼鏡フレームの写真,眼鏡フレームのグラフィック,眼鏡フレームの玉型データに基づいて作成されたグラフィックでもよい。眼鏡フレームに関する画像データは、2次元画像データであってもよいし、3次元画像データであってもよい。眼鏡フレームに関する画像データは、静止画像であってもよいし、動画像であってもよい。例えば、動画の場合、眼鏡フレームを撮影した動画,眼鏡フレームの玉型データを用いて眼鏡レンズを加工する様子を撮影した動画であってもよい。さらに、眼鏡フレームの特徴,眼鏡レンズの加工方法等を解説した音声付の動画であってもよい。
 情報処理部は、例えば、玉型取得部によって取得された玉型データを、画像取得部によって取得された画像データに格納し、玉型データを格納した画像データである玉型データ付画像データを記憶部(例えば、メモリ21,メモリ32など)に記憶させてもよい。情報処理部は、例えば、画像データに定義された情報領域に玉型データを格納してもよい。例えば、画像データに定義されたタグ、または画像データに記録される順序によって識別される情報領域に玉型データを格納してもよい。
 なお、情報処理部は、記憶部に記憶された玉型データ付画像データから玉型データを抽出してもよい。そして、情報処理部は、抽出された玉型データを眼鏡レンズ加工装置に送信してもよい。ここで、眼鏡レンズ加工装置とは、例えば、眼鏡レンズの周縁を加工する装置であってもよい。例えば、情報処理部は、玉型データ付画像データから玉型データを抽出し、眼鏡レンズ加工装置に読み込めるファイル形式に復元してもよい。
 なお、眼鏡レンズ加工用装置は、表示制御部(例えば、制御部13など)と、選択指示受付部(例えば、制御部13,操作部12など)と、をさらに備えてもよい。表示制御部は、例えば、記憶部に記憶された玉型データ付画像データを表示部(例えば、表示部11)に表示させてもよい。選択指示受付部は、例えば、表示制御部によって表示部に表示された玉型データ付画像データのうち、少なくとも一つの玉型データ付画像データが選択された選択指示を受け付けてもよい。
 この場合、情報処理部は、選択指示受付部によって受け付けた選択指示において選択された玉型データ付画像データから玉型データを抽出してもよい。
 なお、眼鏡レンズ加工用装置は、加工条件取得部(例えば、制御部13など)をさらに備えてもよい。加工条件取得部は、例えば、玉型データを用いて眼鏡レンズを加工するときの加工条件を取得してもよい。この場合、情報処理部は、加工条件取得部によって取得された加工条件を画像データに格納してもよい。これによって、ユーザは、画像データを確認することによって、その眼鏡フレームに適した加工条件を確認できる。
 なお、眼鏡レンズ加工用装置は、評価情報取得部(例えば、制御部13,操作部12など)をさらに備えてもよい。評価情報取得部は、例えば、玉型データに対するユーザからの評価情報を取得してもよい。この場合、情報処理部は、評価情報取得部によって取得された玉型データの評価情報を画像データに格納してもよい。これによって、ユーザは、評価を見て適した玉型を選択できる。
 なお、眼鏡レンズ加工用装置は、眼鏡枠形状測定装置(例えば、トレーサー4)と、眼鏡レンズ加工装置(例えば、レンズエッジャー5)とによって眼鏡レンズ加工システムとして機能してもよい。眼鏡枠形状測定装置は、例えば、眼鏡フレームの玉型を測定し、眼鏡フレームの玉型データを取得する。眼鏡レンズ加工装置は、例えば、眼鏡レンズの周縁を加工してもよい。眼鏡レンズ加工システムは、例えば、上記のような画像取得部と、情報処理部と、を備えてもよい。画像取得部は、例えば、眼鏡フレームに関する玉型データを取得してもよい。情報処理部は、例えば、眼鏡枠形状測定装置によって取得された玉型データを、画像処理部によって取得された画像データに格納してもよい。そして、情報処理部は、玉型データを格納した画像データである玉型データ付画像データを記憶部に記憶させてもよい。さらに、情報処理部は、記憶部に記憶させた玉型データ付画像データから玉型データを抽出し、抽出された玉型データを眼鏡レンズ加工装置に送信してもよい。
 なお、眼鏡レンズ加工用装置として端末装置(例えば、端末装置10)が用いられてもよい。例えば、端末装置は、記憶部(例えば、メモリ21)と、情報処理部(例えば、制御部13)と、表示制御部(例えば、制御部13)と、転送部(例えば、制御部13)を主に備えてもよい。記憶部は、例えば、眼鏡フレームの玉型データを記憶する。情報処理部は、例えば、眼鏡フレームの玉型データおよび眼鏡フレームに関する画像データを記憶するデータサーバ(例えば、データ共有サーバ30)から、玉型データおよび画像データを互いに関連付けて記憶部に記憶させてもよい。表示制御部は、例えば、情報処理部によって記憶部に記憶された画像データを表示部に表示させてもよい。転送部は、例えば、表示部に表示された画像データに関連付けられた玉型データを眼鏡レンズ加工装置に転送してもよい。
 なお、眼鏡レンズ加工用装置は、データサーバであってもよいし、端末装置であってもよい。例えば、データサーバが眼鏡フレームの画像データに玉型データを格納してもよいし、または端末装置が画像データに玉型データを格納してもよい。
 なお、眼鏡レンズ加工用装置(例えば、端末装置、眼鏡レンズ加工装置、眼鏡枠形状測定装置、カップ取付装置、眼鏡レンズ測定装置)は、玉型データ付画像データから玉型データを抽出してもよい。例えば、眼鏡レンズ加工装置は、玉型データ付画像データから玉型データを抽出してもよい。そして抽出した玉型データに基づいて眼鏡レンズを加工してもよい。
 なお、端末装置またはデータサーバは、眼鏡レンズ加工装置、または眼鏡枠形状測定装置などと一体であってもよい。例えば眼鏡レンズ加工装置、眼鏡枠形状測定装置などが眼鏡レンズ加工用装置として機能してもよい。
<第2実施形態>
 以下、第2実施形態に係る眼鏡レンズ加工用システムを図面に基づいて簡単に説明する。本実施形態の眼鏡レンズ加工用システム(例えば、眼鏡レンズ加工システム1)は、例えば、眼鏡レンズを加工する際に用いられる。眼鏡レンズ加工用システムは、例えば、データ共有サーバ(例えば、共有サーバ30)と、複数の端末装置(例えば、端末装置10)と、を主に備える。データ共有サーバは、例えば、玉型データを記憶するための記憶部(例えば、メモリ32)を有する。端末装置は、例えば、玉型データをデータ共有サーバに転送する。
 データ共有サーバは、例えば、複数の端末装置のうち、一つの端末装置から通信ネットワークを介して玉型データを受信し、受信された玉型データを他の端末装置に転送してもよい。これによって、眼鏡レンズ加工用システムは、複数の端末装置の間で玉型データを共有化してもよい。
 なお、データ共有サーバは、複数の端末装置と周期的に通信してもよい。そして、複数の端末装置のうち、一つの端末装置から通信ネットワークを介して新たな玉型データを受信し、受信した新たな玉型データと既に記憶部に記憶された玉型データとを比較し、その比較結果に応じて、自身の玉型データを更新し、更新された玉型データを通信ネットワークを介して他の端末装置に転送してもよい。これによって、データ共有サーバは、複数の端末装置の間で玉型データを同期化してもよい。
 なお、複数の端末装置は、情報取得部(例えば、制御部13)をさらに備えてもよい。情報取得部は、例えば、玉型データを用いて加工された眼鏡レンズを眼鏡フレームに枠入れしたときのフィッティングを評価した評価情報を取得してもよい。この場合、データ共有サーバは、上記のように、情報取得部によって取得された評価情報を受信し、他の端末装置に転送することによって複数の端末装置の間で評価情報を共有化してもよい。
 なお、情報取得部は、例えば、玉型データを用いて眼鏡レンズを加工するときの加工条件を取得してもよい。この場合、データ共有サーバは、上記のように、情報取得部によって取得された加工条件を受信し、他の端末装置に転送することによって複数の端末装置の間で加工条件を共有化してもよい。
 なお、情報取得部は、例えば、眼鏡フレームの色及び形状の少なくともいずれかによって分類される分類情報を取得してもよい。この場合、データ共有サーバは、上記のように、情報取得部によって取得された分類情報を受信し、他の端末装置に転送することによって複数の端末装置の間で分類情報を共有化してもよい。
 なお、端末装置、例えば、送信部(例えば、制御部13)と、受信部(例えば、制御部13)とを備えてもよい。送信部は、例えば、玉型データをデータ共有サーバに送信してもよい。受信部は、例えば、データ共有サーバから玉型データを受信してもよい。
 端末装置は、例えば、他の端末装置が送信部によってデータ共有サーバに送信した玉型データを、受信部によってデータ共有サーバから受信してもよい。これによって、端末装置は、玉型データを他の端末装置と共有化してもよい。
 なお、端末装置は、例えば、他の端末装置の記憶部に記憶された玉型データを受信部によって受信してもよい。例えば、端末装置はデータ共有サーバとして機能してもよい。
 なお、複数の端末装置が、一つの端末装置を介してデータ共有サーバと接続されてもよい。これによって、データ共有サーバに記憶された玉型データを、一つの端末装置を介して複数の端末装置の間で共有化してもよい。
<第3実施形態>
 以下、第3実施形態に係る眼鏡レンズ加工用装置を図面に基づいて簡単に説明する。本実施形態の眼鏡レンズ加工用装置(例えば、眼鏡レンズ加工装置、眼鏡枠形状測定装置)は、眼鏡レンズを加工する際に用いられる。眼鏡レンズ加工用装置は、例えば、撮像光学系(例えば、撮像光学系61)と、玉型取得部(例えば、制御部501)と、情報処理部(例えば、制御部501)を主に備える。撮像光学系は、例えば、眼鏡フレームを撮影する。玉型取得部は、例えば、眼鏡フレームの玉型データを取得する。情報処理部は、例えば、撮像光学系によって撮影された眼鏡フレームの画像データと、玉型取得部によって取得された玉型データとを関連付けて記憶部に記憶させてもよい。これによって、ユーザは、玉型データがどのような形状であるかを、関連付けられた画像データによって確認することができる。
 なお、眼鏡レンズ加工用装置は、さらに載置部(例えば、載置台62、支持部63)を備えてもよい。載置部は、例えば、眼鏡フレームを載置してもよい。この場合、撮像光学系は、載置部に載置された眼鏡フレームを撮影してもよい。
 なお、撮像光学系は、載置部に載置された眼鏡フレームの左右のテンプルを含む面の高さよりも上方から眼鏡フレームを撮影してもよい。これによって、撮像光学系は、眼鏡フレームの玉型の形状だけでなく、テンプルの形状等も撮影できる。
 なお、撮像光学系は、例えば、載置部に載置された眼鏡フレームの左右対称軸を含む平面に対して、左右いずれかに傾斜した撮像光軸を有してもよい。
 なお、眼鏡作製用装置は、さらに背景部材(例えば、背景部材64)を備えてもよい。背景部材は、例えば、撮像光学系に対して、載置部に載置された眼鏡フレームよりも後方に配置され、被検者の背景として眼鏡フレームとのコントラストを高める背景色を形成してもよい。
 なお、眼鏡レンズ加工用装置は、さらに番号登録部(例えば、制御部501)を備えてもよい。番号登録部は、例えば、撮像光学系によって撮影された眼鏡フレームの画像データに、眼鏡ごとに設定される作業番号を登録してもよい。この場合、情報処理部は、番号登録部によって作業番号が登録された画像データと、玉型取得部によって取得された玉型データのうち番号登録部によって画像データに登録された作業番号と同一の作業番号が登録された玉型データと、を関連付けて記憶部に記憶させてもよい。これによって画像データと玉型データの食い違いを防ぐことができる。
 例えば、眼鏡レンズ加工用装置は被検者のアイポジションを測定するアイポジション測定装置であってもよい。この場合、撮像光学系は、アイポジションを測定するために被検者を撮影するための測定光学系と兼用されてもよい。
 また、眼鏡レンズ加工用装置は、測定子を有し、測定子によって眼鏡フレームの玉型形状を測定するための眼鏡枠形状測定装置であってもよい。
 また、眼鏡レンズ加工用装置は、眼鏡レンズを載置するレンズ載置台と、レンズ載置台に載置された眼鏡レンズにカップを取り付けるためアームと、を備えるカップ取り付け装置であってもよい。
 また、眼鏡レンズ加工用装置は、レンズ加工部を備え、レンズ加工部によって眼鏡レンズの周縁を加工するための眼鏡レンズ加工装置であってもよい。
<実施例>
 以下、本開示に係る眼鏡レンズ加工システムの実施例について説明する。図1に示す眼鏡レンズ加工システム1は、レンズメータ2と、ブロッカー3と、トレーサー4と、レンズエッジャー5と、情報処理端末(以下、端末と略す場合がある)10を主に備える。また、眼鏡レンズ加工システム1は、共有サーバ30を備えてもよい。共有サーバ30は、例えば、制御部31とメモリ32等を備えてもよい。例えば、レンズメータ2、ブロッカー3、トレーサー4、レンズエッジャー5、端末10、共有サーバ30は、互いに通信ネットワークを介して接続されていてもよい。通信ネットワークは、例えば、有線であってもよいし、無線であってもよい。
 レンズメータ2は、例えば、眼鏡レンズの光学中心等を測定するための装置である。例えば、レンズメータ2は、測定光学系(例えば、シャックハルトマン光学系等)6を備え、眼鏡レンズの光学中心を測定する。さらにレンズメータ2は印点機構7を備えてもよく、測定光学系6によって測定された光学中心に印点を施してもよい。
 ブロッカー3は、眼鏡レンズにカップを取り付ける装置である。このカップは、レンズエッジャー5によって眼鏡レンズを保持するための治具として用いられる。例えば、ブロッカー3はレンズメータ2によって眼鏡レンズの光学中心に施された印点を基準として眼鏡レンズにカップを取り付ける。ブロッカー3は、例えばカメラ8を備え、自動で印点を検出してカップを取り付けてもよいし、ユーザが印点の位置をスケールに合わせてカップを取り付けてもよい。
 トレーサー4は、眼鏡フレームの玉型形状を測定するための装置である。例えば、トレーサー4は、制御部401,メモリ402を備える。例えば、トレーサー4は、眼鏡フレームのリムに図示無き測定子を沿わせ、測定子の軌道に基づいて眼鏡フレームの玉型形状を測定してもよい。
 レンズエッジャー(以下、エッジャーと略す)5は、例えば、眼鏡レンズの周縁を眼鏡フレームの玉型形状に加工するための装置である。エッジャー5は、例えば、制御部501,メモリ502等を備えてもよい。エッジャー5は、砥石およびカッターの少なくともいずれかのレンズ加工手段を備え、トレーサー4によって取得された眼鏡フレームの玉型データに基づいて眼鏡レンズの周縁を加工する。
<端末装置>
 端末10は、例えば、眼鏡を作製するための情報をユーザが管理するために用いられる。端末10は、例えば、表示部11と、操作部12と、制御部13と、内蔵カメラ20、メモリ21等を備えてもよい。表示部11は、例えば、眼鏡を作製するための情報をユーザに呈示する。例えば表示部11は、眼鏡フレームを写真撮影した画像、眼鏡フレームのグラフィック画像、および玉型データのグラフィック画像等を表示する。操作部12は、例えば、ユーザの操作に基づいて端末10の制御部13等に操作信号を出力する。なお、本実施例の表示部11は、タッチパネル式のディスプレイが用いられ、操作部12と兼用される。もちろん、表示部11は、タッチパネル式でなくともよい。この場合、例えば操作部12は各種スイッチを備え、ユーザの操作を受け付けてもよい。内蔵カメラ20は、図示無き撮像素子を備え、眼鏡フレームの画像等を撮影するために用いられる。
 本実施例の端末10には、例えば、画像データに玉型データを格納するためのアプリケーションがインストールされている。例えば制御部13は、アプリケーションを実行し、画像データに玉型データを格納する。玉型データを格納する画像データとしては、例えば、眼鏡フレームの写真,眼鏡フレームの玉型データに基づいて作成されたグラフィック等の眼鏡フレームの形状を認識できる情報が含まれる画像が用いられる(図2A,図2B参照)。
 画像データのファイルフォーマットとしては、例えば、主画像、サムネイル画像、および撮影情報等の画像属性情報を所定の形式で記録したExif(Exchangeable Image File Format)規格等が知られている。例えば、Exif規格のファイルにおいて、画像属性情報は、IFDというツリー上のディレクトリ内に格納されている。Exif規格で、このIFDのうちの1つであるExifIFDの領域内には、MakerNoteというタグが定義されており、メーカーは、このMakerNoteタグに、独自の情報を記録してもよい。
 一般的に画像データには、上記のMakerNoteタグのようなユーザ情報に関する情報領域が定義されている場合がある。上記のようなユーザ情報に関するタグはユーザが自由に使用でき、格納するデータ形式は自由である場合が多い。例えば、JEPGであればMakerNote、PNGであれば私用チャンク等と呼ばれるタグが定義される。他の画像フォーマットにおいても同様のタグが定義される場合が多い。
 制御部13は、例えば、上記のタグのような情報領域に眼鏡フレームの玉型データを格納する。玉型データは、例えば、玉型の枠中心を原点とした動径情報である。制御部13は、図3に示すように、画像データに定義されたタグに玉型データを格納する。例えば、制御部13は、画像データのフォーマットごとに定められたタグ番号によって所望のタグを呼び出し、呼び出したタグに玉型データを書き込む。こうすることで、制御部13は玉型データが格納された画像データを作成することができる。
 さらに、制御部13は、アプリケーションを実行することによって画像データに格納された玉型データを抽出することができる。例えば、制御部13は、玉型データが格納されたタグを呼び出し、格納された玉型データをエッジャー5が読み込めるファイル形式に玉型データを出力する。
<玉型データの格納・抽出>
 以下、玉型データを画像データに格納・抽出するときのアプリケーションの操作について説明する。制御部13は、ユーザの操作に基づいて操作部12から出力された操作信号に基づいて、画像データに玉型データを格納、または抽出の少なくともいずれかを行う。まず、画像データに玉型データを格納する場合の操作について説明する。図4は、アプリケーションを起動したときに表示部11に表示される画面の一例である。表示部11には、例えば、画像選択ボタン14と、画像データ欄15と、玉型選択ボタン16と、玉型データ欄17と、玉型格納ボタン18と、玉型抽出ボタン19等が表示される。画像選択ボタン14は、玉型データを格納する画像データを選択する場合に選択するボタンである。画像データ欄15は、選択された画像のファイル名および画像等が表示される欄である。玉型選択ボタン16は、例えば、画像データに格納する玉型データを選択する場合に選択するボタンである。玉型データ欄17は、選択された玉型のファイル名が表示される欄である。玉型格納ボタン18は、選択された画像データに選択された玉型データを格納する。玉型抽出ボタン19は、選択された玉型データ付画像データから玉型データを抽出する場合に選択するボタンである。
 まずユーザは、操作部(ここではタッチパネル)12によって画像選択ボタン14を選択する。画像選択ボタン14が選択されると、制御部13は画像参照画面22を表示させる(図5A参照)。ユーザは、例えば端末10の内蔵カメラ20等によって撮影した眼鏡フレームの画像データの保存場所を画像参照画面22によって参照し、保存された眼鏡フレームの画像データを選択する。眼鏡フレームの画像データが選択されると、制御部13は画像データ欄15に画像データのファイル名および画像等を表示する(図4参照)。続いてユーザは、操作部12によって玉型選択ボタン16を選択する。玉型選択ボタン16が選択されると、制御部13は玉型参照画面23を表示させる(図5B参照)。ユーザは、例えばトレーサー4等によって取得された眼鏡フレームの玉型データの保存場所を玉型参照画面23によって参照し、保存された眼鏡フレームの玉型データを選択する。眼鏡フレームの玉型データが選択されると、制御部13は玉型データ欄17に玉型データのファイル名を表示する。なお、制御部13は、玉型データの形状をユーザに確認させるために、選択された玉型データのグラフィック画像を表示部11に表示させてもよい。
 ユーザは眼鏡フレームの画像データと玉型データが選択されると、操作部12によって玉型格納ボタン18を選択する。玉型格納ボタン18が選択されると制御部13は、選択された画像データのタグに、選択された玉型データを格納する。
 次に、画像データから玉型データを抽出する場合の操作について説明する。ユーザは、例えば操作部12によって画像選択ボタン14を選択する。画像選択ボタン14が選択されると、制御部13は画像参照画面22を表示させる。ユーザは、例えば玉型データが格納された玉型データ付画像データの保存場所を画像参照画面22によって参照し、保存された玉型データ付画像データを選択する。このとき、ユーザは、サムネイル画像を参考にして画像データを選んでもよい。玉型データ付画像データが選択されると、制御部13は画像データ欄15に玉型データ付画像データのファイル名および画像等を表示する。ユーザは玉型データ付画像データを選択すると、操作部12によって玉型抽出ボタン19を操作する。玉型抽出ボタン19が操作されると、例えば制御部13は選択された玉型データ付画像データのタグに格納された玉型データを抽出し、出力先に設定されたフォルダに玉型データを出力する。
 以上のように、制御部13は、玉型データが格納された玉型データ付画像データを作成することができる。これによって、制御部13は、玉型データを画像データとして管理することができる。従来のように玉型データを管理する場合、ユーザは玉型の型番などが入力されたファイル名等で玉型を判断していた。しかしながら、ファイル名で玉型の形状をイメージすることは難しく、ユーザは所望の玉型データを探すことが難しかった。
 そこで、本実施例のように玉型データを画像データに格納することによって、玉型データを画像データとともに扱うことができる。そのため、ユーザは玉型データのファイル名で玉型の形状をイメージできなくとも、画像データを確認することによって玉型データの形状を把握することができる。従って、制御部13は、ユーザが玉型データの選択をミスすることを低減させることができる。
 なお、上記のように、画像データのフォーマットによっては、画像データの縮小版(サムネイル)を格納するためのタグが用意され、元の画像データのサムネイル画像が自動で格納される。このような場合、ユーザは図5Aのようにファイル一覧画面でサムネイル画像を見ながら、作成する眼鏡フレームの玉型データを探すことができ、わざわざ画像データのファイルを開く手間が省ける。
 なお、制御部13は、玉型データだけでなく、その他の情報を画像データに格納してもよい。例えば、制御部13は、玉型データの取得に用いたトレーサー4の固体情報(例えば、トレーサー4のメーカー、機種、型番等)を格納してもよい。例えば、トレーサー4のメーカー,機種等によって、同じ眼鏡フレームを測定した場合でも玉型データが異なる場合がある。したがって、トレーサー4の情報が画像に格納されていれば、ユーザはトレーサー4のメーカー,機種等を参考にして所望の眼鏡レンズの玉型データを選択することができる。
 さらに制御部13は、眼鏡フレームの色情報を画像データに格納してもよい。例えば、同じ型番の眼鏡フレームであっても眼鏡フレームの色によって玉型の形状が微妙に異なる場合がある。眼鏡フレームのモノクロ写真,玉型形状のグラフィック等の眼鏡フレームの色が反映されない画像データに玉型データを格納した場合、眼鏡フレームの色が分からなくなる。このため、画像データのタグに眼鏡フレームの色情報を格納してもよい。そして、制御部13は、例えば玉型形状のグラフィック画像を表示部11に表示する際に色情報を表示させる。これによって、ユーザは、玉型形状のグラフィックの画像データと、その画像データに格納された色情報を確認した上で、玉型データを選択することができる。
 なお、制御部13は、画像データのタグに玉型データの評価情報を格納してもよい。例えば制御部13は、眼鏡作製後、眼鏡レンズをフレームに枠入れしたときのフィッティングの評価をユーザの操作部12への入力に基づいて画像データのタグに格納してもよい。これによって、ユーザは、画像データに格納された評価情報を参考に玉型データを選択することができる。
 なお、制御部13は、加工条件をタグに格納してもよい。例えば上記のように、画像データに格納された玉型データの評価が高い場合であっても、評価されたときと同じ条件で加工された場合とそうでない場合とで、仕上がりが異なる可能性がある。このような場合、評価された玉型データに基づいて眼鏡レンズを加工したときの加工条件が画像データに格納されることによって、再度同じ玉型データを用いて眼鏡レンズを加工する場合であっても、評価時と同様の仕上がりで加工できる。
 玉型データの加工条件としては、例えば、レンズカーブ,レンズの厚さ,レンズの材質等の使用したレンズに関する情報、レンズエッジャーのメーカー,機種,型番、等の使用したレンズエッジャーに関する情報、眼鏡レンズの加工方法・加工動作等が挙げられる。ここで、加工動作とは、例えば、眼鏡レンズを挟持するレンズチャック軸と、加工工具との相対的な動作である。
 なお、玉型データを格納するタグは、メーカーノートでなくてもよい。例えば、制御部13は画像の撮影日が格納されるタグ,コメント等を格納するタグ等に、上記のような玉型データに関する情報を格納してもよい。
 なお、玉型データを格納するタグは、画像フォーマットによって定義されたタグに限らず、アプリケーションによって画像に付加されたタグであってもよい。例えば、制御部13は、アプリケーションを実行することによって、画像データにタグを付加してもよい。そして制御部13は、画像データに付加されたタグに画像データを付加してもよい。制御部13は、画像データに付加したタグに玉型データを格納する。さらに制御部13は、画像データに付加したタグに玉型データを収納してもよい。
 なお、例えばビットマップ形式の画像データのようにタグが定義されていない場合もある。このような場合は、画像データに独自の情報領域を定義し、玉型データを格納してもよい。例えば、画像データに記録する順序によって玉型データを格納するための情報領域が識別されてもよい。
<システム全体の制御動作>
 以下、図6に示すように、複数の眼鏡店(例えば、ショップA,ショップBなど)の眼鏡レンズ加工システムにおいて、他の店舗と玉型データを共有して眼鏡レンズを加工するときの制御動作を図7のフローチャートに基づいて説明する。ここで、図6の例では、ショップAでトレースされた眼鏡フレームの玉型データを共有して、ショップBで眼鏡レンズを加工する場合について示している。
 まず、ショップAにおいて、端末10の制御部13は、眼鏡フレームの画像データを取得する(ステップ1-1)。例えば、制御部13は、ユーザが端末10の内蔵カメラ20を用いて撮影した眼鏡フレームの画像を取得してもよい。制御部13は、内蔵カメラ20によって取得された眼鏡フレームの画像をメモリ21に保存してもよい。
 続いて、制御部13は、眼鏡フレームの玉型データを取得する(ステップ1-2)。例えば、制御部13は、ユーザがトレーサー4を用いて眼鏡フレームをトレースして測定された玉型データを取得してもよい。トレーサー4の制御部401は、セットされた眼鏡フレームをトレースし、眼鏡フレームの玉型データをメモリ402に保存する。さらに制御部401は、トレースした玉型データをエッジャー5に送信する。エッジャー5の制御部501は玉型データを受信すると、メモリ502に保存する。
 例えば、端末10は、無線(有線でもよい)等の通信手段によってトレーサー4のメモリ402にアクセスし、眼鏡フレームの玉型データを取得してもよい。玉型データが取得されると、前述のようにユーザはアプリケーションを用いて画像データと玉型データを選択し、格納ボタン19を押す。制御部13は操作部12からの操作信号を受け付け、選択された眼鏡フレームの画像データにトレーサー4から取得した玉型データを格納する(ステップ1-3)。
 玉型データを格納した画像データ(以下、玉型データ付画像データともいう)は、端末10から共有サーバ(例えば、クラウドサーバ)30へ送信され(ステップ1-4)、メモリ32に保存される。共有サーバ30への保存は制御部13が自動で行ってもよいし、ユーザが手動で行ってもよい。端末10は共有サーバ30と同期しており、端末10が玉型データ付画像データを取得すると、自動的に共有サーバ30に送信してもよい。また、共有サーバの制御部31が端末10から自動的に玉型データ付画像データを取得してもよい。
 ユーザは、例えば、レンズメータ2によって生地レンズの光学中心を求め、インクペン等によってマークを付ける。そして、ユーザは、例えば、ブロッカー3を使用し、レンズメータ2によってマークされた光学中心に対して所定の位置にカップを取り付ける。カップは、例えば、両面テープによってレンズに取り付けられる。カップは、レンズをエッジャー5で加工するときの治具として用いられる。ユーザは、レンズメータ2、ブロッカー3によってカップが取り付けられた眼鏡レンズをエッジャー5にセットする。エッジャー5は、トレーサー4から受信した玉型データに基づいて、セットされた眼鏡レンズの周縁を加工する。
 ユーザは、加工された眼鏡レンズを眼鏡フレームに枠入れする。ユーザは、眼鏡レンズを眼鏡フレームに枠入れしたときのフィッティングを確認する。例えば、フィッティングが良好であった場合、ユーザは端末10を操作し、今回用いた玉型データに高い評価値をつけてもよい。例えば、ユーザは玉型データ付画像データの情報領域にフィッティングに応じて玉型データの評価レベルを入力してもよい。ユーザによって玉型が評価されると、評価情報は、共有サーバ30と同期され、共有サーバ30上の玉型データにも評価情報が反映されてもよい。
 次に、ショップBにおいてトレーサー4を用いずに眼鏡を作製する場合、ユーザは、端末10を用いて共有サーバ30にアクセスし玉型データ付画像データを取得する(ステップ2-1)。例えば、ユーザは端末10を用いて共有サーバ30にアクセスし、作成する眼鏡の眼鏡フレームの玉型データを探す。この場合、上記のように玉型データは画像データに格納されているため、ユーザは画像データを確認しながら所望の眼鏡フレームを探す。
 なお、同じ眼鏡フレームの玉型データが複数存在する場合、ユーザは、例えば玉型データの評価情報に基づいて玉型データを選んでよい。例えば、ユーザは、所望の眼鏡フレームの中で一番評価が高い玉型データが格納された玉型データ付画像データをダウンロードしてもよい。また、共有サーバ30は、各玉型データのダウンロード数をユーザに呈示してもよい。これによって、ユーザはダウンロード数が多く、人気のある玉型データを取得してもよい。
 制御部13は、取得された玉型データ付画像データから玉型データを抽出し(ステップ2-2)、エッジャー5に送信する(ステップ2-3)。エッジャー5は、玉型データを受信し、セットされた眼鏡レンズの周縁を加工する(ステップ2-4)。
 エッジャー5による眼鏡レンズの加工が終了すると、ユーザは、エッジャー5から眼鏡レンズを取り出し、眼鏡フレームに枠入れする。ユーザは、眼鏡レンズを眼鏡フレームに枠入れするときのフィッティングを確認し、端末10によって玉型データの評価値を記録してもよい。ユーザに記録された玉型データの評価値は、共有サーバ30の制御部31によって同期され、共有されてもよい。なお、共有サーバ30は、各ユーザから入力された評価値をまとめて記憶してもよい。例えば、共有サーバ30は、各ユーザからの評価値の平均を算出し、その平均値を玉型データの評価情報として記憶してもよい。
 このように、端末10を用いて共有サーバ30から玉型データを取得することによって、トレーサー4を用いることなく眼鏡レンズを加工することができる。さらに、トレーサー4のデータを他のユーザと共有できることによって、複数の玉型データを取得することができる。さらに、共有サーバ30にアップされている玉型データを評価できることによって、玉型データが複数ある場合でも評価を比較することで、より良好な玉型データを取得することができる。
 なお、例えば、共有データを統括する共有サーバ30等は、共有された玉型データ付画像データを分類して管理してもよい。例えば、眼鏡店の店舗、眼鏡フレームのメーカー,色,形状(2ポイント,リムレスなど)等に分類して玉型データ付画像データを管理してもよい。例えば、共有サーバ30等の制御部31は、玉型データ付画像データに記録された店舗、メーカー,色,形状等の情報を読み出して分類してもよい。このように、玉型データ付画像データが分類して管理されることによって、ユーザは所望の玉型データ付画像データを見つけやすい。
 なお、以上の説明において、共有サーバ30を用いて玉型データ付画像データを共有するように説明したが、これに限らない。例えば、ウェブ上にアップロードされた玉型データ付画像データをダウンロードすることによって共有してもよい。この場合、ダウンロードした玉型データ付画像データから玉型データを抽出してもよい。
 なお、以上の説明において、眼鏡フレームの画像データを端末10等の内蔵カメラ20で撮影するとしたが、これに限らない。例えば、アイポジションメータ、トレーサー4、ブロッカー3、エッジャー5、レンズメータ2、レフラクトメータ等の眼鏡作製時に用いられる機器に眼鏡フレームを撮影するための撮影ユニットを設け、眼鏡フレームの画像データを取得してもよい。アイポジションメータは、例えば、眼鏡を装用した被検者を撮影して、眼鏡を作製するための眼鏡装用パラメータ(瞳孔間距離、フレーム瞳孔間距離(フレームPD)、アイポイント高さ、遠用PD、近用PD)を測定する装置である。
 例えば図8は、エッジャー5に撮影ユニット60を設けたときの例である。撮影ユニット60は、例えば、眼鏡フレームを所定の方向から撮影するための撮像光学系61を備えてもよい。
 さらに、撮影ユニット60は、眼鏡フレームを載置するための載置台62を備えてもよい。載置台62は、例えば、撮像光学系の撮像光軸に対して眼鏡フレームを所定の方向に支持する支持部63を備えてもよい。撮影ユニットは、例えば、載置台62の支持部63によって支持された眼鏡フレームを所定の方向から撮影してもよい。例えば、撮影ユニット60は、例えば、眼鏡フレームの形状が視認しやすい方向から眼鏡フレームを撮影してもよい。眼鏡フレームの形状が視認しやすい方向とは、例えば、眼鏡フレームの左右対称軸を含む平面に対して、左右いずれかの方向に傾斜した方向,眼鏡フレームの左右のテンプルを含む面に対して上方に傾斜した方向であってもよい。これによって眼鏡フレームの玉型だけでなくテンプルを含む形状が確認しやすい画像を撮影できる。
 さらに、撮影ユニット60は、眼鏡フレームを撮影する際の背景となる背景部材64を備えてもよい。背景部材64は、眼鏡フレームの色が視認しやすいように、眼鏡フレームとのコントラストが高い背景色を形成してもよい。例えば白色で形成されてもよい。
 このような撮影ユニット60を用いることによって、眼鏡フレームの形状,色等を視認しやすい画像を撮影できる。さらに、眼鏡フレームの画像に統一感を持たせることができ、複数の眼鏡フレームの比較を行い易い。
 なお、撮影ユニット60の撮像光学系61は、他の用途のために備えられた光学系を兼用してもよい。例えば、アイポジションメータ,レフラクトメータ等において、被検者の顔または被検者の前眼部を撮影するための測定光学系が、撮影ユニット60の撮像光学系61として兼用されてもよい。また、例えば、レンズメータ,ブロッカーにおいて、眼鏡レンズを測定するための測定光学系が撮影ユニット60の撮像光学系61として兼用されてもよい。
 なお、画像データに玉型データを格納する際、各眼鏡に設定される作業番号が同一である玉型データと画像データを結合させてもよい。この場合、例えば、ある装用者に対する眼鏡作製作業の開始時にその作業番号を決定する。そしてフレームトレースおよび登録パターンデータの読み出しの少なくともいずれかによって、その作業番号に対応した玉型データが得られる。さらに眼鏡作製用機器に搭載された撮影ユニット61で眼鏡フレームを撮影する際に作業番号を入力しておくことによって、その作業番号と対応付けられた画像データが得られる。共有サーバ30および個々の機器等の少なくともいずれかは、作業番号によって関連づけられた玉型データと画像データを結合して特定の場所に保管する。さらに、共有サーバ30および個々の機器等の少なくともいずれかは、保管されたファイルを共有データとしてウェブサイト,共有サーバ30などにアップロードしてもよい。
 このように、玉型データとそれを格納する画像データが自動的に関連付けられることによって、ユーザが玉型データと画像データを選択して、結合させるという作業を省略できる。さらに、玉型データを別の眼鏡フレームの画像データに格納するというミスを低減できる。
 なお、以上の説明において、眼鏡フレームの玉型データを画像データに格納するものとしたが、これに限らない。例えば、穴位置データを画像データに格納してもよい。穴位置データとは、例えば、眼鏡レンズに穴開け加工を施す場合の穴の位置情報である。
 1 眼鏡レンズ加工システム
 2 レンズメータ
 3 ブロッカー
 4 トレーサー
 5 レンズエッジャー
 10 端末装置
 11 表示部
 12 操作部
 13 制御部
 21 メモリ
 30 共有サーバ
 31 制御部
 32 メモリ
 60 撮影ユニット
 61 撮像光学系

Claims (26)

  1.  眼鏡フレームの玉型データを共有するための眼鏡レンズ加工用システムであって、
     玉型データを記憶するための記憶手段を有するデータ共有サーバと、
     玉型データを前記データ共有サーバに転送する複数の端末装置と、を備え、
     前記データ共有サーバは、前記複数の端末装置のうち、一つの端末装置から通信ネットワークを介して前記玉型データを受信し、受信された前記玉型データを他の端末装置に転送することによって、前記複数の端末装置の間で玉型データを共有化することを特徴とする眼鏡レンズ加工用システム。
  2.  前記データ共有サーバは、前記複数の端末装置と周期的に通信して、
     前記複数の端末装置のうち、一つの端末装置から通信ネットワークを介して新たな玉型データを受信し、受信した新たな玉型データと既に前記記憶手段に記憶された玉型データとを比較し、その比較結果に応じて、自身の玉型データを更新し、更新された玉型データを通信ネットワークを介して他の端末装置に転送することによって、玉型データを同期化することを特徴とする請求項1の眼鏡レンズ加工用システム。
  3.  前記複数の端末装置は、前記玉型データを用いて加工された前記眼鏡レンズを眼鏡フレームに枠入れしたときのフィッティングを評価した評価情報を取得する情報取得手段を備え、
     前記データ共有サーバは、前記複数の端末装置のうち、一つの端末装置から通信ネットワークを介して、前記情報取得手段によって取得された前記評価情報を受信し、通信ネットワークを介して前記評価情報を他の端末装置に転送することによって、前記複数の端末装置の間で前記評価情報を共有化することを特徴とする請求項1または2の眼鏡レンズ加工用システム。
  4.  前記複数の端末装置は、前記玉型データを用いて前記眼鏡レンズを加工するときの加工条件を取得する情報取得手段を備え、
     前記データ共有サーバは、前記複数の端末装置のうち、一つの端末装置から通信ネットワークを介して、前記情報取得手段によって取得された前記加工条件を受信し、通信ネットワークを介して前記加工条件を他の端末装置に転送することによって、前記複数の端末装置の間で前記加工条件を共有化することを特徴とする請求項1または2の眼鏡レンズ加工用システム。
  5.  前記複数の端末装置は、前記眼鏡フレームの色及び形状の少なくともいずれかによって分類される分類情報を取得する情報取得手段を備え、
     前記データ共有サーバは、前記複数の端末装置のうち、一つの端末装置から通信ネットワークを介して、前記情報取得手段によって取得された前記分類情報を受信し、通信ネットワークを介して前記分類情報を他の端末装置に転送することによって、前記複数の端末装置の間で前記分類情報を共有化することを特徴とする請求項1または2の眼鏡レンズ加工用システム。
  6.  眼鏡レンズ加工用端末装置であって、
     玉型データをデータ共有サーバに送信する送信手段と、
     データ共有サーバから玉型データを受信する受信手段と、を備え、
     前記送信手段によって他の端末装置が前記データ共有サーバに送信した前記玉型データを、前記受信手段によって前記データ共有サーバから受信することによって、前記玉型データを前記他の眼鏡レンズ加工用端末装置と共有化することを特徴とする眼鏡レンズ加工用端末装置。
  7.  眼鏡フレームの玉型データを記憶可能なデータ共有サーバと、玉型データを前記データ共有サーバに転送する複数の端末装置と、を備え、玉型データを共有化するための眼鏡レンズ加工用システムにおいて用いられる眼鏡レンズ加工用プログラムであって、
     前記眼鏡レンズ加工用システムのプロセッサによって実行されることで、
     前記複数の端末装置のうち、一つの端末装置から通信ネットワークを介して玉型データを受信し、受信した前記玉型データを他の端末装置に転送することによって、前記複数の端末装置の間で玉型データを共有化する共有化ステップを前記眼鏡レンズ加工用システムに実行させることを特徴とする眼鏡レンズ加工用プログラム。
  8.  眼鏡レンズ加工用装置であって、
     眼鏡フレームの玉型データを取得する玉型取得手段と、
     眼鏡フレームに関する画像データを取得する画像取得手段と、
     前記玉型取得手段によって取得された前記玉型データを、前記画像取得手段によって取得された前記画像データに格納し、前記玉型データを格納した画像データである玉型データ付画像データを記憶手段に記憶させる情報処理手段と、を備えることを特徴とする眼鏡レンズ加工用装置。
  9.  前記情報処理手段は、前記記憶手段に記憶された前記玉型データ付画像データから前記玉型データを抽出し、抽出された前記玉型データを、眼鏡レンズを加工するための眼鏡レンズ加工装置に送信することを特徴とする請求項8の眼鏡レンズ加工用装置。
  10.  前記記憶手段に記憶された前記玉型データ付画像データを表示部に表示させる表示制御手段と、
     前記表示制御手段によって前記表示部に表示された前記玉型データ付画像データのうち、少なくとも一つの玉型データ付画像データの選択指示を受け付ける選択指示受付手段と、をさらに備え、
     前記情報処理手段は、前記選択指示受付手段によって受け付けた選択指示において選択された前記玉型データ付画像データから前記玉型データを抽出することを特徴とする請求項8又は9の眼鏡レンズ加工用装置。
  11.  前記情報処理手段は、前記玉型データを用いて眼鏡レンズを加工するときの加工条件を前記画像データに格納することを特徴とする請求項8~10のいずれかの眼鏡レンズ加工用装置。
  12.  前記玉型データに対するユーザからの評価情報を取得する評価情報取得手段をさらに備え、
     前記情報処理手段は、前記評価情報取得手段によって取得された前記玉型データの評価情報を前記画像データに格納することを特徴とする請求項8~11のいずれかの眼鏡レンズ加工用装置。
  13.  眼鏡フレームの玉型を測定し、眼鏡フレームの玉型データを取得する眼鏡枠形状測定装置と、
     眼鏡レンズの周縁を加工する眼鏡レンズ加工装置と、を備え、眼鏡レンズの周縁を加工するため眼鏡レンズ加工システムであって、
     眼鏡フレームに関する画像データを取得する画像取得手段と、
     前記眼鏡枠形状測定装置によって取得された前記玉型データを、前記画像取得手段によって取得された前記画像データに格納し、前記玉型データを格納した画像データを記憶手段に記憶させる情報処理手段を備え、
     前記情報処理手段は、前記記憶手段に記憶された前記玉型データ付画像データから前記玉型データを抽出し、前記眼鏡レンズ加工装置に、抽出された前記玉型データを送信することを特徴とすることを特徴とする眼鏡レンズ加工システム。
  14.  眼鏡レンズ加工用プログラムであって、
     眼鏡レンズ加工用装置のプロセッサによって実行されることで、
     眼鏡フレームの玉型データを取得する玉型取得ステップと、
     眼鏡フレームに関する画像データを取得する画像取得ステップと、
     前記玉型取得ステップにおいて取得された前記玉型データを、前記画像取得ステップによって取得された前記画像データに格納し、前記玉型データを格納した画像データである玉型データ付画像データをデータサーバに記憶させる記憶ステップと、
     前記データサーバから前記玉型データ付画像データを受け取り、前記画像データを端末装置の画面上に表示させる表示制御ステップと、
     表示制御ステップにおいて表示部に表示された画像データに格納された玉型データを眼鏡レンズ加工装置に転送する転送ステップと、
     転送された玉型データを用いて眼鏡レンズ加工装置にて眼鏡レンズの加工を行う加工ステップと、
    を眼鏡レンズ加工装置に実行させることを特徴とする眼鏡レンズ加工用プログラム。
  15.  眼鏡レンズ加工方法であって、
     眼鏡フレームの玉型データを取得する玉型取得工程と、
     眼鏡フレームに関する画像データを取得する画像取得工程と、
     前記玉型取得工程において取得された前記玉型データを、前記画像取得工程によって取得された前記画像データに格納する格納工程と、
     前記格納工程において前記玉型データが格納された画像データである玉型データ付画像データをデータサーバに記憶させる記憶工程と、
     前記データサーバから前記玉型データ付画像データを受け取り、前記画像データを端末装置の画面上に表示させる表示制御工程と、
     表示制御工程において表示部に表示された画像データに格納された玉型データを眼鏡レンズ加工装置に転送する転送工程と、
     転送された玉型データを用いて眼鏡レンズ加工装置にて眼鏡レンズの加工を行う加工工程と、
    を有する眼鏡レンズ加工方法。
  16.  眼鏡フレームの玉型データを管理するために用いられる眼鏡レンズ加工用端末装置であって、
     眼鏡フレームの玉型データを記憶する記憶手段と、
     眼鏡フレームの玉型データおよび眼鏡フレームに関する画像データを記憶するデータサーバから受け取り、前記玉型データおよび前記画像データを互いに関連付けて前記記憶手段に記憶させる情報処理手段と、
     前記情報処理手段によって前記記憶手段に記憶された前記画像データを表示部に表示させる表示制御手段と、
     前記表示部に表示された前記画像データに関連付けられた前記玉型データを、眼鏡レンズを加工するための眼鏡レンズ加工装置に転送する転送手段と、
    を備えることを特徴とする眼鏡レンズ加工用端末装置。
  17.  眼鏡レンズ加工用装置であって、
     眼鏡フレームを撮影するための撮像光学系と、
     眼鏡フレームの玉型データを取得する玉型取得手段と、
     前記撮像光学系によって撮影された眼鏡フレームの画像データと、前記玉型取得手段によって取得された玉型データとを関連付けて記憶手段に記憶させる情報処理手段と、を備えることを特徴とする眼鏡レンズ加工用装置。
  18.  眼鏡フレームを載置するための載置部をさらに備え、
     前記撮像光学系は、前記載置部に載置された眼鏡フレームを撮影することを特徴とする請求項17の眼鏡レンズ加工用装置。
  19.  前記撮像光学系は、前記載置部に載置された眼鏡フレームの左右のテンプルを含む面の高さよりも上方から前記眼鏡フレームを撮影することを特徴とする請求項17または18の眼鏡レンズ加工用装置。
  20.  前記撮像光学系は、前記載置部に載置された眼鏡フレームの左右対称軸を含む平面に対して、左右いずれかの方向に傾斜した撮像光軸を有することを特徴とする請求項17~19のいずれかの眼鏡レンズ加工用装置。
  21.  前記撮像光学系に対して、前記載置部に載置された眼鏡フレームよりも後方に配置され、被検者の背景として前記眼鏡フレームとのコントラストを高める背景色を形成する背景部材を備えることを特徴とする請求項17~20のいずれかの眼鏡レンズ加工用装置。
  22.  前記撮像光学系によって撮影された前記眼鏡フレームの画像データに、眼鏡ごとに設定される作業番号を登録する番号登録手段をさらに備え、
     前記情報処理手段は、前記番号登録手段によって作業番号が登録された画像データと、前記玉型取得手段によって取得された玉型データのうち前記番号登録手段によって前記画像データに登録された作業番号と同一の作業番号が登録された玉型データと、を関連付けて前記記憶手段に記憶させることを特徴とする請求項17~21のいずれかの眼鏡レンズ加工用装置。
  23.  前記眼鏡レンズ加工用装置は、被検者のアイポジションを測定するためのアイポジション測定装置であって、前記撮像光学系は、アイポジションを測定するために前記被検者を撮影するための測定光学系と兼用されることを特徴とする請求項17~22のいずれかの眼鏡レンズ加工用装置。
  24.  前記眼鏡レンズ加工用装置は、測定子を有し、前記測定子によって眼鏡フレームの玉型形状を測定するための眼鏡枠形状測定装置であることを特徴とする請求項17~22のいずれかの眼鏡レンズ加工用装置。
  25.  前記眼鏡レンズ加工用装置は、眼鏡レンズを載置するレンズ載置台と、前記レンズ載置台に載置された眼鏡レンズにカップを取り付けるためアームと、を備えるカップ取り付け装置であることを特徴とする請求項17~22のいずれかの眼鏡レンズ加工用装置。
  26.  前記眼鏡レンズ加工用装置は、レンズ加工手段を備え、前記レンズ加工手段によって眼鏡レンズの周縁を加工するための眼鏡レンズ加工装置であることを特徴とする請求項17~22のいずれかの眼鏡レンズ加工用装置。
PCT/JP2016/053075 2015-02-04 2016-02-02 眼鏡レンズ加工用システム、眼鏡レンズ加工用装置、眼鏡レンズ加工用端末装置、眼鏡レンズ加工用プログラム、および眼鏡レンズ加工方法 WO2016125798A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP16746629.1A EP3254805A4 (en) 2015-02-04 2016-02-02 Eyeglass lens machining system, eyeglass lens machining device, eyeglass lens fabrication device, eyeglass lens fabrication program, and eyeglass lens fabrication method

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2015-019811 2015-02-04
JP2015-019813 2015-02-04
JP2015019813A JP6536053B2 (ja) 2015-02-04 2015-02-04 眼鏡レンズ加工用装置、および眼鏡レンズ加工用プログラム
JP2015019811A JP6503769B2 (ja) 2015-02-04 2015-02-04 眼鏡レンズ加工用装置、眼鏡レンズ加工用システム、眼鏡レンズ加工プログラム、眼鏡レンズ加工方法、および眼鏡レンズ加工用端末装置
JP2015019812A JP6536052B2 (ja) 2015-02-04 2015-02-04 眼鏡レンズ加工用システム、およびそれに用いられる眼鏡レンズ加工用端末装置、眼鏡レンズ加工用プログラム
JP2015-019812 2015-02-04

Publications (1)

Publication Number Publication Date
WO2016125798A1 true WO2016125798A1 (ja) 2016-08-11

Family

ID=56564138

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/053075 WO2016125798A1 (ja) 2015-02-04 2016-02-02 眼鏡レンズ加工用システム、眼鏡レンズ加工用装置、眼鏡レンズ加工用端末装置、眼鏡レンズ加工用プログラム、および眼鏡レンズ加工方法

Country Status (2)

Country Link
EP (1) EP3254805A4 (ja)
WO (1) WO2016125798A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10685457B2 (en) 2018-11-15 2020-06-16 Vision Service Plan Systems and methods for visualizing eyewear on a user
CN112162418A (zh) * 2020-08-29 2021-01-01 苏州无用科技有限公司 镜片配镜远程加工方法及加工系统

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210040265A (ko) * 2019-10-03 2021-04-13 가부시키가이샤 니데크 안경 렌즈 주연 가공 시스템 및 기록 매체

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002174800A (ja) * 2001-09-07 2002-06-21 Tokai Kogaku Kk 眼鏡の玉型加工データ通信システム
JP2003084817A (ja) * 2001-07-03 2003-03-19 Canon Inc レンズ加工管理システム
JP2013125083A (ja) * 2011-12-13 2013-06-24 Seiko Epson Corp 設計データ提供システム、データサーバー、設計データ提供方法、仕様データ提供方法
JP2014091202A (ja) * 2012-11-06 2014-05-19 Hoya Corp レンズ加工システム、加工サイズ管理装置、加工サイズ管理方法および眼鏡レンズの製造方法
US20140199918A1 (en) * 2011-09-01 2014-07-17 Essilor International (Compagnie Generale D'optique) Process for surfacing a surface of a spectacle lens

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69333737T2 (de) * 1992-06-24 2005-12-01 Hoya Corporation Herstellung von Brillenlinsen
US6890241B2 (en) * 2001-07-03 2005-05-10 Canon Kabushiki Kaisha Lens processing management system
JP4888947B2 (ja) * 2003-11-05 2012-02-29 Hoya株式会社 眼鏡レンズの周縁加工方法
JP2007301695A (ja) * 2006-05-12 2007-11-22 Hoya Corp 眼鏡レンズの面取り方法および面取り装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003084817A (ja) * 2001-07-03 2003-03-19 Canon Inc レンズ加工管理システム
JP2002174800A (ja) * 2001-09-07 2002-06-21 Tokai Kogaku Kk 眼鏡の玉型加工データ通信システム
US20140199918A1 (en) * 2011-09-01 2014-07-17 Essilor International (Compagnie Generale D'optique) Process for surfacing a surface of a spectacle lens
JP2013125083A (ja) * 2011-12-13 2013-06-24 Seiko Epson Corp 設計データ提供システム、データサーバー、設計データ提供方法、仕様データ提供方法
JP2014091202A (ja) * 2012-11-06 2014-05-19 Hoya Corp レンズ加工システム、加工サイズ管理装置、加工サイズ管理方法および眼鏡レンズの製造方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3254805A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10685457B2 (en) 2018-11-15 2020-06-16 Vision Service Plan Systems and methods for visualizing eyewear on a user
CN112162418A (zh) * 2020-08-29 2021-01-01 苏州无用科技有限公司 镜片配镜远程加工方法及加工系统

Also Published As

Publication number Publication date
EP3254805A1 (en) 2017-12-13
EP3254805A4 (en) 2019-02-27

Similar Documents

Publication Publication Date Title
CN107111161B (zh) 用于确定光学设备的参数的方法
US9236024B2 (en) Systems and methods for obtaining a pupillary distance measurement using a mobile computing device
CN105144249B (zh) 零件安装作业支持系统及零件安装方法
US8340802B2 (en) Systems and methods for producing clip-ons for a primary eyewear
JP6279131B2 (ja) 表示システム及び情報処理方法
WO2016125798A1 (ja) 眼鏡レンズ加工用システム、眼鏡レンズ加工用装置、眼鏡レンズ加工用端末装置、眼鏡レンズ加工用プログラム、および眼鏡レンズ加工方法
US10121188B2 (en) Method for ordering a spectacle lens and associated system
JP6536053B2 (ja) 眼鏡レンズ加工用装置、および眼鏡レンズ加工用プログラム
US10853652B2 (en) Measurement data collection device and program
JP6536052B2 (ja) 眼鏡レンズ加工用システム、およびそれに用いられる眼鏡レンズ加工用端末装置、眼鏡レンズ加工用プログラム
CN106612355B (zh) 手机摄像模组单体校正产线生产方法及其系统
JP2012080403A (ja) 情報取得装置、情報取得機能付き撮影機器、情報取得用集積回路、画像表示システム、情報取得プログラム、及び情報取得方法
JP6503769B2 (ja) 眼鏡レンズ加工用装置、眼鏡レンズ加工用システム、眼鏡レンズ加工プログラム、眼鏡レンズ加工方法、および眼鏡レンズ加工用端末装置
CN106461501A (zh) 镜片检查装置和眼镜镜片的制造方法
KR102000960B1 (ko) 벡터를 이용한 증강 현실 영상 구현 방법
JP2013226397A (ja) 近業目的距離測定装置、並びに近業目的距離測定装置を用いた眼鏡レンズの製造方法及び製造システム
CN102316253A (zh) 一种立体数码相机及同步拍摄方法
JP2002174800A (ja) 眼鏡の玉型加工データ通信システム
JP2014026411A (ja) ヘルスケアシステム及びそのサーバ
JP7121172B2 (ja) レンズメータ
KR20170095543A (ko) 히스토리별 사진군 포토앨범 자동 분류시스템
CN206711151U (zh) 一种虚拟试衣眼镜及虚拟试衣系统
CN117044195A (zh) 便携式电子设备的校准方法
JP7036559B2 (ja) 杭位置検査装置及び杭位置検査方法
CN109804301A (zh) 用于确定光学设备的参数的方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16746629

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2016746629

Country of ref document: EP