WO2020184590A1 - レンズオーダーシステム、レンズオーダー方法、プログラム、およびデータ構造 - Google Patents

レンズオーダーシステム、レンズオーダー方法、プログラム、およびデータ構造 Download PDF

Info

Publication number
WO2020184590A1
WO2020184590A1 PCT/JP2020/010398 JP2020010398W WO2020184590A1 WO 2020184590 A1 WO2020184590 A1 WO 2020184590A1 JP 2020010398 W JP2020010398 W JP 2020010398W WO 2020184590 A1 WO2020184590 A1 WO 2020184590A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
lens
user
type
storage unit
Prior art date
Application number
PCT/JP2020/010398
Other languages
English (en)
French (fr)
Inventor
伸介 伊藤
Original Assignee
三井化学株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三井化学株式会社 filed Critical 三井化学株式会社
Priority to JP2021505096A priority Critical patent/JPWO2020184590A1/ja
Priority to EP20768982.9A priority patent/EP3940448A4/en
Priority to CN202080020346.1A priority patent/CN113631992B/zh
Priority to US17/438,510 priority patent/US20220146859A1/en
Priority to KR1020217028979A priority patent/KR102579621B1/ko
Publication of WO2020184590A1 publication Critical patent/WO2020184590A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C7/00Optical parts
    • G02C7/02Lenses; Lens systems ; Methods of designing lenses
    • G02C7/024Methods of designing ophthalmic lenses
    • G02C7/027Methods of designing ophthalmic lenses considering wearer's parameters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M11/00Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
    • G01M11/02Testing optical properties
    • G01M11/0228Testing optical properties by measuring refractive power
    • G01M11/0235Testing optical properties by measuring refractive power by measuring multiple properties of lenses, automatic lens meters
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C7/00Optical parts
    • G02C7/02Lenses; Lens systems ; Methods of designing lenses
    • G02C7/024Methods of designing ophthalmic lenses
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C7/00Optical parts
    • G02C7/10Filters, e.g. for facilitating adaptation of the eyes to the dark; Sunglasses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0621Item configuration or customization
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C2202/00Generic optical aspects applicable to one or more of the subgroups of G02C7/00
    • G02C2202/06Special ophthalmologic or optometric aspects
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C7/00Optical parts
    • G02C7/10Filters, e.g. for facilitating adaptation of the eyes to the dark; Sunglasses
    • G02C7/104Filters, e.g. for facilitating adaptation of the eyes to the dark; Sunglasses having spectral characteristics for purposes other than sun-protection

Definitions

  • This disclosure relates to a lens ordering system, a lens ordering method, a program, and a data structure.
  • the lens is processed by selecting an appropriate material, dye, and coating according to the application and mental and physical condition of the user who wears the eyeglasses in which the lens is incorporated.
  • light emitted by a display of a digital device causes eye strain and the like, and is considered to be unfavorable light for the human body.
  • lens processing that shields such unfavorable light from the human body.
  • Lens processing that meets the needs of users suffering from eye strain can be said to be a social issue necessary to improve the so-called quality of life.
  • Lens processing has a technology that cuts a specific wavelength by making the lens a specific dye and thickness.
  • WO2014-133111 which is published internationally, proposes lens processing that applies so-called blue light cut to lens processing that takes into consideration the state of mind and body such as when eye fatigue or pain occurs due to the use of a display or the like. ..
  • lens processing has been proposed in consideration of prevention of eye disorders (age-related macular degeneration, etc.).
  • lens processing that keeps the circadian rhythm normal is proposed.
  • lens processing has been proposed that suppresses the inhibition of melatonin secretion due to nighttime light exposure.
  • lens processing that prevents and suppresses migraine is proposed.
  • lens processing there are various factors to be considered in lens processing, and it is difficult to determine how to perform lens processing in consideration of all of these factors. Therefore, a system that supports or proposes lens processing is required.
  • An object of the present disclosure is to provide a lens ordering system, a lens ordering method, a program, and a data structure capable of presenting recommended lens information to a user in consideration of a plurality of items.
  • the lens ordering system of the present disclosure includes a computer, the computer including a CPU, a storage unit, and a selection unit executed by the CPU, and the storage unit contains basic information about a user and basic information about the user.
  • the type of resin material used for the lens material based on the usage information regarding the intended use of the lens by the user and the user information including at least one of the mental and physical information including the mental and physical symptoms and conditions including the user's eyes.
  • Data capable of determining lens information including the type of dye and the type of coating is stored, and the selection unit is based on the user information acquired about the user and the data stored in the storage unit.
  • a lens ordering system that determines and outputs the lens information.
  • the computer further includes an acquisition unit, and the acquisition unit acquires at least one of the usage information and the mental and physical information among the user information in a predetermined order by input. be able to.
  • the lens ordering system of the present disclosure is a trained model in which the data is pre-learned to output the lens information from the user information including at least one of the usage information and the mental and physical information, and the usage.
  • the weight parameter of the neural network model is used for deep learning.
  • the trained model learned by the method is used, and the selection unit can determine the user information acquired about the user as the input to the trained model and the lens information output from the trained model.
  • the computer further includes a collecting unit, and the collecting unit collects the user information of the user input at the terminal via a network and records it in the storage unit.
  • the selection unit can determine the lens information of the user by collating the user information of the user recorded in the storage unit with the data recorded in the storage unit.
  • the lens ordering method of the present disclosure includes basic information about the user stored in a storage unit of a computer, usage information regarding the intended use of the lens of the user, and mental and physical symptoms and conditions including the user's eye.
  • a computer is made to execute a process of determining and outputting the lens information based on the user information.
  • the program of the present disclosure is an application relating to basic information about a user stored in the storage unit of the computer and the use of the lens desired by the user in a lens order system including a storage unit and a selection unit of the computer.
  • the information and the user information including at least one of the psychosomatic information including the user's eyes and the psychosomatic symptoms and conditions, the type of resin material used for the lens material, the type of dye, and the type of coating
  • This is a program that functions as the selection unit that determines and outputs the lens information based on the data that can determine the lens information to be included and the user information acquired for the user.
  • the data structure of the present disclosure is a data structure including user information used when a lens ordering system having a storage unit, a selection unit, and a display unit performs a process of determining information related to lens processing.
  • the data structure includes user information including basic information about the user, usage information about the intended use of the lens by the user, and at least one of the psychosomatic information including the psychosomatic symptoms and conditions including the user's eyes, and the lens. It has lens information including the type of resin material used for the material, the type of dye, and the type of coating, and in the storage unit, data capable of determining the lens information from the user information is stored in advance.
  • the lens information is determined based on the data stored in the storage unit, and the selection unit is stored in the display unit. It is a data structure that outputs the lens information determined in.
  • the lens ordering system According to the biological information acquisition method, the lens ordering system, the lens ordering method, the program, and the data structure of the present disclosure, it is possible to present the lens information recommended to the user in consideration of a plurality of items. can get.
  • the lens ordering device of the present embodiment outputs recommended lens information based on the input user information about the user.
  • the user of this embodiment is, for example, a customer who intends to purchase a custom-order lens at an optician.
  • FIG. 1 is a block diagram showing an example of the system configuration of the lens ordering device 10 of the first embodiment.
  • the lens ordering device 10 having the configuration shown in FIG. 1 can be configured by a computer including a CPU, a RAM, a program for executing each processing routine described later, and a ROM storing various data.
  • the lens ordering device 10 is an example of a lens ordering system.
  • the lens ordering device 10 can be realized by the computer 50 shown in FIG.
  • the computer 50 includes a CPU 51, a memory 52 as a temporary storage area, and a non-volatile storage unit 53.
  • the computer 50 also has an input / output interface (I / F) 54 to which an input / output device or the like (not shown) is connected, and a read / write (R / W) unit 55 that controls reading and writing of data to a recording medium.
  • the computer 50 includes a network I / F 56 connected to a network such as the Internet.
  • the CPU 51, the memory 52, the storage unit 53, the input / output I / F 54, the R / W unit 55, and the network I / F 56 are connected to each other via the bus 57.
  • the storage unit 53 can be realized by a Hard Disk Drive (HDD), a solid state drive (SSD), a flash memory, or the like.
  • the storage unit 53 as a storage medium stores a program for causing the computer 50 to function.
  • the CPU 51 reads the program from the storage unit 53, expands it in the memory 52, and sequentially executes the processes included in the program.
  • the lens ordering device 10 includes a data storage unit 22, an acquisition unit 28, a selection unit 30, and a display unit 32, as shown in FIG.
  • the data storage unit 22 stores a trained model that inputs user information and outputs lens information.
  • the user information includes basic information, usage information, and mental and physical information.
  • the basic information is information such as power, astigmatism, age, gender, prescription, frame type, etc. according to the user's eyesight.
  • the usage information is information on the type of usage of the lens desired by the user, for example, "drive”, “sports", “office work (PC work)", and the like.
  • the psychosomatic information is information including psychosomatic symptoms and states including the eyes of the user, and is, for example, information such as "cataract", "migraine", and "eye strain”.
  • the lens information includes the type of resin material used for the lens material, the type of dye, the type of coating, and the like.
  • Examples of the type of resin material include polyurethane, acrylate, and polyolefin.
  • Examples of dye types include Tinuvin326 (manufactured by BASF Japan Ltd.), FDB series such as FDB-001 (manufactured by Yamada Chemical Co., Ltd.), FDG series such as FDG-001 (manufactured by Yamada Chemical Co., Ltd.), and FDR. FDR series such as -001 (manufactured by Yamada Chemical Co., Ltd.) can be mentioned.
  • Examples of the type of coating include a primer layer, a hard coat layer, an antireflection layer, an antifogging coat layer, an antifouling layer, a water repellent layer and the like as a coating layer.
  • lens information for processing such as cutting the wavelength of blue light, preventing eye disorders such as age-related macular degeneration, sleep disorders, and suppressing pupillary reflexes.
  • the lens information further includes information on the dyeability of the lens and information on the solubility of the resin indicating compatibility between the specific dye and the specific resin.
  • the information on the dyeability of the lens is, for example, information indicating the color scheme, density, tone, etc. of the lens corresponding to the color sample of the color lens according to the resin type of the lens.
  • the information on the solubility of a resin showing compatibility between a specific dye and a specific resin is, for example, information indicating a relationship such that a certain dye has a property of not dissolving in monomoney of a certain resin.
  • solubility By including such information on solubility, it is possible to provide feedback when a specific dye is required depending on the symptom. Note that these lens information is merely an example.
  • Model learning uses neural networks by deep learning methods using the weights of usage information and mental and physical information and correct answer data such as lens material type, dye type, and coating type as training data. All you have to do is learn the weight parameters of the model.
  • the deep learning method any method such as GAN (Generative Adversarial Network) or LSTM (Long Short-Term Memory) may be used.
  • FIG. 3 is a diagram showing an example of an image of input / output of the model.
  • the input user information is divided into an element of information that can be obtained from a medical examination at an ophthalmology clinic and an element of information that can be obtained by a questionnaire or the like to a user at a store.
  • each of the input elements may be an adjustment parameter for a plurality of output elements. For example, if the information from the ophthalmology clinic is diagnosed as "migraine" due to the influence of the eyes, the element of "migraine", which is the input mental and physical information, is the type of pigment "type / function of pigment”. Affects the parameters of the "dye amount" element.
  • the weights of the model should be learned so that the elements of "dye type / function" and "dye amount” are adjusted to the parameters that alleviate "migraine".
  • the trained model learned in this way, when input including "migraine" is accepted as mental and physical information of user information, the trained model selects the type of pigment corresponding to "migraine”. Can be output. Since the model has multiple input elements, it is learned to adjust the influence of each of the input elements. For example, a model is trained by setting priority and weight parameters for input elements of training data. The priority and weight parameters are adjusted based on the lens information finally selected by the user.
  • the trained model based on the information obtained from a questionnaire to the user at the store, it may be determined that the symptom of the user's "headache" is highly likely to be photosensitive epilepsy. In that case, in the output of the trained model, the diagnosis of the ophthalmologist is promoted, and the trained model outputs the type of pigment corresponding to "migraine" based on the above information of the ophthalmologist's office. Processing may be performed. ..
  • the data storage unit 22 may store data in a table format in which each combination of user information and lens information is recorded.
  • the rule of the output element corresponding to the combination of each input element may be stored.
  • the data storage unit 22 has a customer database that records the history of basic information among the acquired user information.
  • the lens information finally determined is also recorded in the customer database.
  • the acquisition unit 28 acquires at least one of the usage information and the mental and physical information among the user information in a predetermined order by input. Further, when the acquisition unit 28 does not have the basic information among the user information of the user, the acquisition unit 28 acquires the basic information of the prerequisite user and records it in the customer database of the data storage unit 22.
  • FIGS. 4 to 6 are diagrams showing an example of the screen of the input interface of the acquisition unit 28.
  • the interface of the acquisition unit 28 is an interface such as a touch panel on which the user can input each item.
  • the interface screen shown in FIG. 4 one of "use”, “symptom, etc.”, and "use, symptom, etc.” is selected.
  • the next transition is to the interface screen shown on the left side of FIG.
  • the interface screen shown in FIG. 5 accepts the selection of the types of applications such as "drive”, “sports", and “office work (PC work)", which are major items.
  • the user selects, for example, "Sports” and then touches "Next" the screen transitions to the next interface screen.
  • the next interface screen accepts the selection of details for medium and small items of the "sports" application type. If you select the details of the type of application on the next interface screen on the right of FIG. 5 and then touch "Next", the next interface screen is shown in FIG.
  • the lens specification option is selected. As shown in FIG. 6, as an option, for example, selection of "light transmittance”, “color contrast”, “others, etc.” is accepted. It also displays annotations as selected. For example, if you select "Polarized”, an annotation such as "Adding a polarizing film makes it difficult to see the puddle on the road surface.” Is displayed. In addition to this, as the coating specifications, selection of blue light cut, hard coat, water repellency, photochrome, etc.
  • the appearance is simulated after the processing of the selection unit 30 is executed.
  • Examples of simulations are, for example, appearance or appearance.
  • the appearance displays, for example, the appearance of the user or avatar wearing spectacles with a lens based on lens information.
  • the appearance of the lens and the frame combined based on the lens information and the appearance of the user or the avatar wearing the glasses in which the lens and the frame are combined are displayed.
  • the appearance for example, an image or a video is displayed on the display operated by the user, and the difference in the appearance of the user between the case where the lens based on the lens information is used and the case where the lens is not used is displayed.
  • Images or videos should be saved or photographed in advance.
  • the user may switch between the case where the lens based on the lens information is used and the case where the lens is not used on the operation screen to compare the appearance, or both are arranged side by side on the same screen.
  • the user may perform the operation of comparing the lenses.
  • FIGS. 7 to 11 are diagrams showing an example of an input interface screen when the acquisition unit 28 accepts the input of the symptom.
  • the symptom selection items are displayed next as shown in FIG.
  • the interface screen shown on the left side of FIG. 7 accepts selection of symptom types such as "easy to feel glare", “often headache”, and “easy to get tired of eyes”.
  • the interface screen is displayed on the right side of FIG. Since the selection corresponds to the "headache" of the user's symptom, the case where the symptom is a headache will be described below as an example.
  • the interface screen shown on the right side of FIG. 7 accepts selection of a location such as “one or both sides of the head", “both sides of the head”, or “whole head” as the location of the symptom.
  • a location such as "one or both sides of the head", “both sides of the head”, or “whole head” as the location of the symptom.
  • the screen transitions to the interface screen shown on the left in FIG.
  • the interface screen shown on the left side of FIG. 8 accepts selection of a symptom state such as "a throbbing strong pain that matches the pulse or blood flow” or "a relatively light pain that is heavily tightened”.
  • a throbbing and intense pain that matches the pulse or blood flow and then touches "Next”
  • the interface screen is displayed on the right side of FIG.
  • the interface screen shown on the right side of FIG. 8 accepts multiple selections of related states such as "nausea” and "becomes sensitive to light” as related symptoms.
  • the related symptoms may have details, and on the right side of FIG. 8, a "details” button is added to the "light sensitive” selection item.
  • FIG. 9 when the "details” button is pressed, the details of the related symptom are displayed in a pop-up (or another screen).
  • the screen transitions to the next interface screen.
  • selection items for selecting the symptom state are displayed.
  • the interface screen is displayed on the left side of FIG.
  • the interface screen shown on the left side of FIG. 10 accepts selection of the cause of a symptom that is familiar to the user, such as "not” or “when feeling light (glare)", as a question regarding the cause of the symptom.
  • the process transitions to the interface screen shown on the right side of FIG.
  • the interface screen shown on the left side of FIG. 10 accepts selection of subjective symptoms related to causes such as "feel well” and "frequently feel” as subjective symptoms related to the selected cause.
  • the user selects an arbitrary subjective symptom and then touches "Next” the screen transitions to the interface screen shown in FIG. 11 below.
  • the judgment result regarding the symptom is displayed, and the lens information and the guidance to the order of the lens are displayed.
  • FIG. 11 is an example in which, as a result of the above selection, the possibility of photosensitive migraine is displayed as a judgment result.
  • the order of receiving the data of the acquisition unit 28 is set so that a hierarchy of large items and medium / small items is provided for the purpose, the upper hierarchy is selected, and the lower hierarchy is selected.
  • the order of accepting the selection of data in stages is set according to the symptom, the diagnosis result of the symptom is displayed, and depending on the selection, the ophthalmologist is encouraged to see the diagnosis result.
  • the acquisition unit 28 accepts lens specifications as an option.
  • the output of the lens specifications selected as an option is fixed.
  • the hierarchy may be appropriately designed in consideration of the above-mentioned priorities, weights, and the like.
  • the selection unit 30 determines the lens information output from the trained model by inputting the user information acquired by the acquisition unit 28 into the trained model stored in the data storage unit 22.
  • the selection unit 30 executes the simulation based on the determined lens information.
  • the selection unit 30 causes the display unit 32 to display the simulation result. If the simulation result is OK, the selection unit 30 outputs the final lens information to the display unit 32, and if it is NG, the selection unit 28 returns to the acquisition of the user information by the acquisition unit 28.
  • user information such as basic information, usage information, and mental / physical information is input to the trained model, recommended lens information is output according to the weight parameter of the neural network of the trained model.
  • the display unit 32 outputs the simulation result of the lens information by the selection unit 30.
  • the display unit 32 outputs the lens information finally determined by the selection unit 30, the acquired user information, and the simulation result.
  • FIG. 12 is a diagram showing an example of a processing routine executed by the lens ordering device 10. The operation of the lens ordering device 10 will be described with reference to FIG.
  • step S100 the acquisition unit 28 receives the lens order request for the user and determines whether or not it is a new order. Whether or not it is a new order is determined by referring to the customer database of the data storage unit 22. If it is a new order, the process proceeds to step S102. If it is not a new order, the process proceeds to step S104.
  • step S102 the acquisition unit 28 refers to the basic information of the user from the customer database of the data storage unit 22.
  • step S104 the acquisition unit 28 accepts input and selection on the interface screen for acquiring basic information, and acquires basic information of the user.
  • step S106 the acquisition unit 28 accepts the selection of the usage information, the mind / body information, and the usage information or the mind / body information user information type to select the lens.
  • the type is selected by the interface screen described with reference to FIG.
  • step S108 the acquisition unit 28 acquires the selection of the major item type for the selected type.
  • Major items are acquired by the interface screen described with reference to FIG. When the types of usage information and mental and physical information are selected, they are acquired for each. The same applies to the next step.
  • step S110 the acquisition unit 28 acquires the detailed selection of the medium / small items, which are subordinate items of the large items, for the selected type.
  • step S112 the acquisition unit 28 acquires the option selection. Options are acquired from the interface screen described with reference to FIG.
  • step S114 the selection unit 30 uses the user information acquired by the acquisition unit 28 as input to the trained model stored in the data storage unit 22, and as lens information that simulates the lens information output from the trained model. decide.
  • step S116 the selection unit 30 executes the simulation based on the determined lens information.
  • step S118 the display unit 32 displays the simulation result.
  • step S120 the acquisition unit 28 acquires whether the simulation result is OK or NG, proceeds to step S122 if it is OK, and returns to step S106 if it is NG to perform processing. repeat. In the repetition, the previous selection history may be reflected.
  • step S122 the display unit 32 outputs the lens information finally determined by the selection unit 30, the acquired user information, and the simulation result.
  • the lens ordering device 10 As described above, according to the lens ordering device 10 according to the first embodiment, it is possible to present lens information recommended to the user in consideration of a plurality of items.
  • FIG. 13 is a block diagram showing a system configuration of the lens ordering system of the second embodiment.
  • a plurality of terminals 210 and a lens order device 220 are connected via a network N.
  • the second embodiment is different from the lens ordering device 10 of the first embodiment in that the collecting unit 228 collects user information for each user and presents the lens information to the terminal 210.
  • the terminal 210 is a smartphone terminal owned by the user, a tablet terminal assigned to a store selling eyeglasses, or the like.
  • the terminal 210 has the same interface as the acquisition unit 28 and the display unit 32 of the first embodiment. Through the interface, at least one of user information, basic information, usage information, and mental and physical information is acquired.
  • the lens information received from the lens ordering device 220 is displayed by the interface.
  • the terminal 210 transmits the user information to the lens ordering device 220 together with the identification information assigned to the terminal 210 for each acquisition.
  • the identification information is the identification information of the terminal 210 and the identification information of the user who acquired the information.
  • the collecting unit 228 of the lens ordering device 220 collects the identification information of the terminal 210, the basic information which is the user information, and at least one of the usage information and the mental and physical information from each of the terminals 210, and the identification information.
  • Each of the basic information, the usage information, and the mental and physical information, which are user information, is stored in the data storage unit 22.
  • the selection unit 30 determines the lens information recommended for the user for each identification information stored in the data storage unit 22 by the same processing as in the first embodiment.
  • the transmission unit 232 transmits the lens information determined for the identification information to the terminal 210 to which the identification information is assigned.
  • FIG. 14 is a diagram showing an example of a processing routine executed by the lens ordering apparatus according to the second embodiment.
  • the operation of the lens ordering device 220 will be described with reference to FIG.
  • the terminal 210 performs the same processing as in steps S102 to 112 described above. Further, when the user information is newly input in response to the simulation result, the same processing may be performed and the user information may be transmitted.
  • step S200 the collecting unit 228 collects the identification information of the terminal 210 and the user information, such as basic information, usage information, and mental and physical information, from each of the terminals 210.
  • step S202 the collecting unit 228 stores each of the user information, the basic information, the usage information, and the mental and physical information in the data storage unit 22 for each identification information.
  • step S204 the selection unit 30 stores at least one of the user information, the basic information, the usage information, and the mental and physical information for each identification information stored in the data storage unit 22 in the data storage unit 22.
  • the lens information output from the trained model is determined as the user's lens information of the identification information.
  • the process of step S204 may be performed at predetermined intervals (5 minutes, 10 minutes, 20 minutes, etc.).
  • step S206 the selection unit 30 executes a simulation based on the determined lens information for each identification information stored in the data storage unit 22.
  • step S208 the transmission unit 232 transmits the lens information determined for the user of the identification information and the simulation result to the terminal 210 to which the identification information is assigned.
  • the lens order system 200 it is possible to present lens information recommended for each user in consideration of a plurality of items.
  • the present invention is not limited to the above-described embodiment, and various modifications and applications are possible within a range that does not deviate from the gist of the present invention.
  • the simulation result by the selection unit of the above-described embodiment has been described as an example of displaying on a lens ordering device or a terminal, but the present invention is not limited to this.
  • a 3D model of eyeglasses based on lens information can be drawn in a virtual space by VR (Virtual Reality), or an augmented reality method by AR (Augmented Reality) can be used to create virtual eyeglasses based on lens information. It may be displayed by a method such as drawing in the real space.
  • display control and access control may be provided for an external lens processor so as to partially disclose the determined lens information only for a part of the data of the lens information.
  • program has been described as an embodiment in which the program is pre-installed in the specification of the present application, it is also possible to store the program in a computer-readable recording medium and provide the program.

Landscapes

  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Optics & Photonics (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Development Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Chemical & Material Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Eyeglasses (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

レンズオーダーシステムは、コンピュータを備えており、前記コンピュータはCPUと、記憶部と、前記CPUによって実行される選定部とを備えている。前記記憶部には、ユーザに関する基本情報と、ユーザの所望するレンズの用途に関する用途情報、ならびにユーザの眼を含む心身の症状および状態を含む心身情報の少なくとも一方とを含むユーザ情報に基づいて、レンズの材料に用いられる樹脂の材料の種類、色素の種類、およびコーティングの種類を含むレンズ情報を決定することのできるデータが記憶されている。前記選定部は、ユーザについて取得した前記ユーザ情報と、前記記憶部に記憶されているデータとに基づいて、前記レンズ情報を決定し、出力する。

Description

レンズオーダーシステム、レンズオーダー方法、プログラム、およびデータ構造
 本開示は、レンズオーダーシステム、レンズオーダー方法、プログラム、およびデータ構造に関する。
 従来、レンズの着色に関する着色情報に基づいて、レンズを着色するシステムに関する特開2000-325840号公報の技術がある。
 レンズは、レンズを組み込む眼鏡を装用するユーザの用途および心身の状態に合わせて適切な材料、色素、コーティングを選択してレンズ加工を施すことが望ましい。例えば、デジタルデバイスのディスプレイが発する光(例えば460nm近辺の波長を有する光)は、眼精疲労等の原因となることが示唆されており、人体に対して好ましくない光であると考えられる。このような人体に対して好ましくない光を遮蔽するレンズ加工を施すことが望ましい。眼精疲労等に悩むユーザのニーズに応じたレンズ加工は、いわゆるクオリティ・オブ・ライフを向上させるために必要な社会的な課題ともいえる。
 レンズ加工は、レンズを特定の色素および厚さとし、特定の波長をカットする技術がある。
 例えば、国際公開WO2014-133111号公報では、ディスプレイ等の使用に伴う眼の疲れ、痛みが生じる場合等の心身の状態を考慮したレンズ加工について、いわゆるブルーライトカットを施すレンズ加工が提案されている。また、眼の障害(加齢黄斑変性など)予防を考慮したレンズ加工が提案されている。
 また、国際公開WO2015-37628号公報では、概日リズムを正常に保つようなレンズ加工が提案されている。睡眠障害に関して、夜間の光暴露によるメラトニン分泌阻害を抑制するようなレンズ加工が提案されている。
 また、国際公開WO2015-37627号公報では、片頭痛を予防、抑制するレンズ加工が提案されている。ナイトドライブ等の用途として用いることができる瞳孔光反射を抑制するレンズ加工が提案されている。
 以上のように、レンズ加工において考慮すべき要素は多岐に渡り、これらを全て考慮してどのようにレンズ加工を施せばよいかを判断することは困難である。そこで、レンズ加工をサポートまたは提案するシステムが求められる。
 本開示の課題は、複数の項目を考慮して、ユーザに推奨されるレンズ情報を提示することができるレンズオーダーシステム、レンズオーダー方法、プログラム、およびデータ構造を提供することである。
 本開示のレンズオーダーシステムは、コンピュータを備えており、前記コンピュータはCPUと、記憶部と、前記CPUによって実行される選定部とを備えており、前記記憶部には、ユーザに関する基本情報と、ユーザの所望するレンズの用途に関する用途情報、ならびにユーザの眼を含む心身の症状および状態を含む心身情報の少なくとも一方とを含むユーザ情報に基づいて、レンズの材料に用いられる樹脂の材料の種類、色素の種類、およびコーティングの種類を含むレンズ情報を決定することのできるデータが記憶され、前記選定部は、ユーザについて取得した前記ユーザ情報と、前記記憶部に記憶されているデータとに基づいて、前記レンズ情報を決定し、出力する、レンズオーダーシステムである。
 また、本開示のレンズオーダーシステムは、前記コンピュータは取得部をさらに含み、前記取得部は、入力により、前記ユーザ情報のうち、前記用途情報および前記心身情報の少なくとも一方を所定の順序で取得することができる。
 また、本開示のレンズオーダーシステムは、前記データは、前記用途情報および前記心身情報の少なくとも一方を含む前記ユーザ情報から前記レンズ情報を出力するように予め学習した学習済みモデルであって、前記用途情報および前記心身情報の各々の重みと、前記レンズの前記材料の種類、前記色素の種類、および前記コーティングの種類の正解データとを学習データとして用いて、ニューラルネットワークモデルの重みパラメータを深層学習の手法により学習した学習済みモデルとし、前記選定部は、ユーザについて取得した前記ユーザ情報を前記学習済みモデルへの入力として、前記学習済みモデルから出力された前記レンズ情報として決定することができる。
 また、本開示のレンズオーダーシステムは、前記コンピュータは収集部をさらに含み、前記収集部は、端末において入力された、ユーザの前記ユーザ情報をネットワークを介して収集し、前記記憶部に記録し、前記選定部は、前記記憶部に記録されたユーザの前記ユーザ情報と、前記記憶部に記録された前記データとを照合して、ユーザの前記レンズ情報を決定することができる。
 また、本開示のレンズオーダー方法は、コンピュータの記憶部に記憶された、ユーザに関する基本情報と、ユーザの所望するレンズの用途に関する用途情報、ならびにユーザの眼を含む心身の症状および状態を含む心身情報の少なくとも一方とを含むユーザ情報に基づいて、レンズの材料に用いられる樹脂の材料の種類、色素の種類、およびコーティングの種類を含むレンズ情報を決定することのできるデータと、ユーザについて取得した前記ユーザ情報とに基づいて、前記レンズ情報を決定し、出力する、処理をコンピュータに実行させる。
 また、本開示のプログラムは、コンピュータを、記憶部と、選定部とを備えるレンズオーダーシステムにおいて、前記コンピュータの記憶部に記憶された、ユーザに関する基本情報と、ユーザの所望するレンズの用途に関する用途情報、ならびにユーザの眼を含む心身の症状および状態を含む心身情報の少なくとも一方とを含むユーザ情報に基づいて、レンズの材料に用いられる樹脂の材料の種類、色素の種類、およびコーティングの種類を含むレンズ情報を決定することのできるデータと、ユーザについて取得した前記ユーザ情報とに基づいて、前記レンズ情報を決定し、出力する前記選定部、として機能させるプログラムである。
 また、本開示のデータ構造は、記憶部と選定部と表示部とを有するレンズオーダーシステムが、レンズの加工に関する情報を決定する処理を行う際に用いられる、ユーザ情報を含むデータ構造であって、当該データ構造は、ユーザに関する基本情報と、ユーザの所望するレンズの用途に関する用途情報、ならびにユーザの眼を含む心身の症状および状態を含む心身情報の少なくとも一方とを含むユーザ情報と、レンズの材料に用いられる樹脂の材料の種類、色素の種類、およびコーティングの種類を含むレンズ情報とを有し、前記記憶部には、前記ユーザ情報から、前記レンズ情報を決定することのできるデータが予め記憶され、前記選定部に、ユーザについて取得した前記ユーザ情報が入力されると、前記記憶部に記憶されている前記データに基づいて、前記レンズ情報を決定させ、前記表示部に、前記選定部で決定させた前記レンズ情報を出力させる、データ構造である。
 本開示の生体情報取得方法、レンズオーダーシステム、レンズオーダー方法、プログラム、およびデータ構造によれば、複数の項目を考慮して、ユーザに推奨されるレンズ情報を提示することができる、という効果を得られる。
第一の実施形態のレンズオーダー装置のシステム構成の一例を示すブロック図である。 本実施形態のレンズオーダー装置として機能するコンピュータの概略ブロック図である。 モデルの入出力のイメージの一例を示す図である。 取得部の入力インターフェースの画面の一例を示す図である。 取得部の入力インターフェースの画面の一例を示す図である。 取得部の入力インターフェースの画面の一例を示す図である。 取得部において症状の入力を受け付ける場合の入力インターフェースの画面の一例を示す図である。 取得部において症状の入力を受け付ける場合の入力インターフェースの画面の一例を示す図である。 取得部において症状の入力を受け付ける場合の入力インターフェースの画面の一例を示す図である。 取得部において症状の入力を受け付ける場合の入力インターフェースの画面の一例を示す図である。 取得部において症状の入力を受け付ける場合の入力インターフェースの画面の一例を示す図である。 第一の実施形態に係るレンズオーダー装置によって実行される処理ルーチンの一例を示す図である。 第二の実施形態のレンズオーダーシステムのシステム構成を示すブロック図である。 第二の実施形態に係るレンズオーダー装置によって実行される処理ルーチンの一例を示す図である。
 以下、本実施形態について詳細に説明する。本実施の形態のレンズオーダー装置は、入力されたユーザについてのユーザ情報に基づいて、推奨されるレンズ情報を出力する。なお、本実施形態のユーザは、例えば、眼鏡店でカスタムオーダーのレンズを購入しようとする顧客である。
<第一の実施形態に係るシステム構成>
 図1は、第一の実施形態のレンズオーダー装置10のシステム構成の一例を示すブロック図である。図1に示す構成のレンズオーダー装置10は、CPUと、RAMと、後述する各処理ルーチンを実行するためのプログラムおよび各種データを記憶したROMと、を含むコンピュータで構成することが出来る。レンズオーダー装置10が、レンズオーダーシステムの一例である。
 例えば、レンズオーダー装置10は、図2に示すコンピュータ50で実現することができる。コンピュータ50はCPU51、一時記憶領域としてのメモリ52、及び不揮発性の記憶部53を備える。また、コンピュータ50は、入出力装置等(図示省略)が接続される入出力interface(I/F)54、及び記録媒体に対するデータの読み込み及び書き込みを制御するread/write(R/W)部55を備える。また、コンピュータ50は、インターネット等のネットワークに接続されるネットワークI/F56を備える。CPU51、メモリ52、記憶部53、入出力I/F54、R/W部55、及びネットワークI/F56は、バス57を介して互いに接続される。
 記憶部53は、Hard Disk Drive(HDD)、solid state drive(SSD)、フラッシュメモリ等によって実現できる。記憶媒体としての記憶部53には、コンピュータ50を機能させるためのプログラムが記憶されている。CPU51は、プログラムを記憶部53から読み出してメモリ52に展開し、プログラムが有するプロセスを順次実行する。
 以上が図2におけるコンピュータの電気的な構成の一例の説明である。
 以下、図1のレンズオーダー装置10における各処理部について説明する。レンズオーダー装置10は、機能的には、図1に示されるように、データ記憶部22と、取得部28と、選定部30と、表示部32とを備えている。
 データ記憶部22には、ユーザ情報を入力として、レンズ情報を出力する学習済みモデルが格納されている。ユーザ情報は、基本情報と、用途情報と、心身情報とを含む。基本情報は、ユーザの視力に応じた度数、乱視、年齢、性別、処方箋、フレーム種類等の情報である。用途情報は、ユーザの所望するレンズの用途の種類、例えば、「ドライブ」、「スポーツ」、「事務作業(PC作業)」等に関する情報である。心身情報は、ユーザの眼を含む心身の症状および状態を含む情報であり、例えば、「白内障」、「片頭痛」、「眼精疲労」等の情報である。レンズ情報は、レンズの材料に用いられる樹脂の材料の種類、色素の種類、およびコーティングの種類等を含む。樹脂の材料の種類としては、例えば、ポリウレタン、アクリレート、ポリオレフィン等が挙げられる。色素の種類としては、例えば、Tinuvin326(BASFジャパン株式会社製)、FDB-001等のFDBシリーズ(山田化学工業株式会社製)、FDG-001等のFDGシリーズ(山田化学工業株式会社製)、FDR-001等のFDRシリーズ(山田化学工業株式会社製)等が挙げられる。コーティングの種類としては、例えば、コーティング層としての、プライマー層、ハードコート層、反射防止層、防曇コート層、防汚染層、撥水層等が挙げられる。これらの材料の種類、色素の種類、およびコーティングの種類を組合せることにより、用途情報および心身情報に応じたレンズ情報を出力することができる。例えば、特許文献2等に示すように、ブルーライトの波長のカット、加齢黄斑変性などの眼の障害予防、睡眠障害、瞳孔反射の抑制といった加工となるレンズ情報である。また、レンズ情報には、更に、レンズの染色性に関する情報、及び特定の色素と特定の樹脂との相性を示す樹脂の溶解性に関する情報を含む。レンズの染色性に関する情報とは、例えば、レンズの樹脂種に応じたカラーレンズの色見本に対応したレンズの配色、濃度、及びトーン等を表す情報である。このような染色性に関する情報を含むことで、レンズを染色する用途、又はオプションが指定された場合等のフィードバックが可能となる。特定の色素と特定の樹脂との相性を示す樹脂の溶解性に関する情報とは、例えば、ある色素はある樹脂のモノマネーに溶解しない特性がある、等の関係を表す情報である。このような溶解性に関する情報を含むことで、症状に応じて特定の色素が必要な場合等のフィードバックが可能となる。なお、これらのレンズ情報はあくまで例示である。
 モデルの学習は、用途情報および心身情報の各々の重みと、レンズの材料の種類、色素の種類、およびコーティングの種類等の正解データとを学習データとして用いて、深層学習の手法により、ニューラルネットワークモデルの重みパラメータを学習しておけばよい。深層学習の手法は、GAN(Generative Adversarial Network)、またはLSTM(Long Short-Term Memory)等どのような手法を用いてもよい。
 図3は、モデルの入出力のイメージの一例を示す図である。図3に示すように、入力されるユーザ情報は、眼科医院の診察から取得できる情報の要素と、店舗でユーザに対するアンケート等によって取得できる情報の要素とに分けられる。図3に示すように、入力の要素の各々が、複数の出力の要素の調整パラメータとなる場合もある。例えば、眼科医院の情報で、眼の影響による「片頭痛」との診断があった場合には、入力の心身情報である「片頭痛」という要素が、色素の種類として「色素の種類・機能」および「色素の量」の要素のパラメータに影響を及ぼす。「色素の種類・機能」および「色素の量」の要素は、「片頭痛」を緩和するパラメータに調整するようにモデルの重みを学習しておく。このように学習しておいた学習済みモデルを用いることで、ユーザ情報の心身情報として「片頭痛」を含む入力を受け付けた場合に、学習済みモデルは「片頭痛」に対応した色素の種類を出力することができる。モデルは、複数の入力の要素があるため、入力の要素の各々の影響を調整するように学習しておく。例えば、学習用データの入力の要素に、優先度および重みパラメータを定めて、モデルを学習する。優先度および重みパラメータは、ユーザが最終的に選んだレンズ情報に基づいて調整する。また、例えば、店舗でユーザに対するアンケート等から得られた情報に基づいて、ユーザの「頭痛」の症状が、光過敏性片頭痛であるとの可能性が高いと判断される場合がある。その場合には、学習済みモデルの出力において、眼科医の診断を促すとともに、上記の眼科医院の情報に基づいて学習済みモデルが「片頭痛」に対応した色素の種類を出力する場合と同様の処理を行ってもよい。     
 なお、データ記憶部22には、学習済みモデルの代わりに、ユーザ情報と、レンズ情報との組み合わせの各々を記録したテーブル形式のデータを記憶しておくようにしてもよい。この場合には、組み合わせに対する調整を与える項目として、入力の各要素の組合せに応じた出力の要素のルールを記憶しておくようにしてもよい。
 また、データ記憶部22には、取得されたユーザ情報のうちの基本情報の履歴を記録した顧客データベースを有する。また、顧客データベースには、最終的に決定されたレンズ情報も記録しておく。
 取得部28は、入力により、ユーザ情報のうち、用途情報および心身情報の少なくとも一方を所定の順序で取得する。また、取得部28は、ユーザのユーザ情報のうち基本情報がない場合には、前提となるユーザの基本情報を取得し、データ記憶部22の顧客データベースに記録する。
 図4~図6は、取得部28の入力インターフェースの画面の一例を示す図である。図4~図6に示すように、取得部28のインターフェースは、ユーザが各項目の入力が可能なタッチパネル等のインターフェースである。図4に示すインターフェース画面では、「用途」、「症状等」、「用途、症状等」のいずれかを選択する。ユーザが、例えば「用途」を選択すると、次は図5の左に示すインターフェース画面に遷移する。図5に示すインターフェース画面では、用途として大項目の「ドライブ」、「スポーツ」、「事務作業(PC作業)」等の用途の種類の選択を受け付ける。ユーザが、例えば「スポーツ」を選択した上で「次へ」をタッチすると、次のインターフェース画面に遷移する。次のインターフェース画面では、「スポーツ」用途の種類の中・小項目の詳細の選択を受け付ける。図5の右の次のインターフェース画面で、用途の種類の詳細を選択した上で「次へ」をタッチすると、次は図6に示すインターフェース画面に遷移する。図6に示すインターフェース画面では、レンズ仕様のオプションを選択する。図6に示すように、オプションとしては、例えば、「光透過率」、「カラーコントラスト」、「その他等」の選択を受け付ける。また、選択に応じて注釈を表示する。例えば、「偏光」を選択すると「偏光フィルムを追加すると、路面上の水たまりが見にくくなります。」といった注釈を表示する。この他に、コーティング仕様として、ブルーライトカット、ハードコート、撥水、フォトクロ等の選択を受け付けるようにしてもよい。また、図6に示すように、「仕様決定 見え方をシミュレートする」をタッチすると、選定部30の処理の実行の上、見え方のシミュレートが実行される。シミュレートの例としては、例えば、外観または見え方等である。外観は、例えば、ユーザまたはアバターがレンズ情報に基づくレンズを備える眼鏡をかけた状態の外観を表示する。また、ユーザがフレーム情報を入力している場合は、レンズ情報に基づくレンズとフレームとを組み合わせた外観や、当該レンズとフレームとを組み合わせた眼鏡をかけたユーザまたはアバターの外観を表示する。見え方は、例えば、ユーザが操作しているディスプレイに、画像または映像を表示し、レンズ情報に基づくレンズを使用した場合と当該レンズを使用しない場合とのユーザの見え方の違いを表示する。画像または映像は、予め保存しておくか、または撮影しておく。この場合、レンズ情報に基づくレンズを使用する場合と使用しない場合とを操作画面上で切り替えて見え方を比較する操作をユーザが行うようにしてもよいし、両者を同一画面上に並べて見え方を比較する操作をユーザが行うようにしてもよい。
 図7~11は取得部28において症状の入力を受け付ける場合の入力インターフェースの画面の一例を示す図である。例えば、図4において、ユーザが、例えば「症状等」を選択すると、次は図7に示すように症状の選択項目を表示する。図7の左に示すインターフェース画面では、症状として「眩しさを感じやすい」、「しばしば頭が痛くなる」、「眼が疲れやすい」等の症状の種類の選択を受け付ける。ユーザが、例えば「しばしば頭が痛くなる」を選択した上で「次へ」をタッチすると、次の図7の右に示すインターフェース画面に遷移する。当該選択はユーザの症状の「頭痛」に対応するため、以下では症状が頭痛の場合を例に説明する。図7の右に示すインターフェース画面では、症状の場所として、「頭の片側か両側」、「頭の両側」、「頭全体」等の場所の選択を受け付ける。ユーザが、例えば「しばしば頭が痛くなる」を選択した上で「次へ」をタッチすると、次の図8の左に示すインターフェース画面に遷移する。図8の左に示すインターフェース画面では、症状の状態として、「脈拍や血流に合ったズキズキとした強い痛み」、「重く締め付けられるような比較的軽い痛み」等の状態の選択を受け付ける。ユーザが、例えば「脈拍や血流に合ったズキズキとした強い痛み」を選択した上で「次へ」をタッチすると、次の図8の右に示すインターフェース画面に遷移する。図8の右に示すインターフェース画面では、関連症状として、「吐き気がする」、「光に敏感になる」等の関連状態の選択を複数選択可能として受け付ける。関連症状に詳細がある場合もあり、また、図8の右では、「光に敏感になる」の選択項目に「詳細」ボタンが併設されている。図9に示すように、「詳細」ボタンを押下すると、関連症状の詳細をポップアップ(または別画面)で表示する。ユーザが、例えば「しばしば頭が痛くなる」を選択した上で「次へ」をタッチすると、次のインターフェース画面に遷移する。次のインターフェース画面では症状の状態を選ぶための選択項目が表示される。ユーザが、任意の選択項目を選んで「次へ」をタッチすると、次の図10の左に示すインターフェース画面に遷移する。図10の左に示すインターフェース画面では、症状の原因に関する質問として、「ない」、「光(眩しさ)を感じるとき」等の心当たりのある症状の原因の選択を受け付ける。ユーザが、例えば「光(眩しさ)を感じるとき」を選択した上で「次へ」をタッチすると、次の図10の右に示すインターフェース画面に遷移する。図10の左に示すインターフェース画面では、選択した原因に関する自覚症状として、「よく感じる」、「しばしば感じる」等の原因に関する自覚症状の選択を受け付ける。ユーザが、任意の自覚症状を選択した上で「次へ」をタッチすると、次の図11に示すインターフェース画面に遷移する。図10の左に示すインターフェース画面では、症状に関する判断結果を表示すると共に、レンズ情報、およびレンズのオーダーへの誘導を表示する。図11は、上記の選択に応じた結果として、光過敏性片頭痛の可能性がある旨が判断結果として表示されている場合の例である。
 以上のように、取得部28のデータの受け付けの順序は、用途に大項目および中・小項目の階層を設け、上位の階層を選んで下位の階層を選択していくように設定する。また、症状に応じて、段階的なデータの選択の受け付けの順序を設定し、症状の診断結果を表示し、選択によっては診断結果において眼科医への受診を促す。上記インターフェース画面は、基本情報、症状等の心身情報を取得する場合についても同様である。また、取得部28は、オプションとしてレンズ仕様を受け付ける。オプションで選択されたレンズ仕様は出力が固定される。なお、階層は、上記の優先順位および重み等を考慮して、適宜設計すればよい。
 選定部30は、取得部28で取得したユーザ情報をデータ記憶部22に記憶された学習済みモデルへの入力として、学習済みモデルから出力されたレンズ情報を決定する。選定部30は、決定されたレンズ情報によってシミュレートを実行する。選定部30は、シミュレート結果を表示部32に表示させる。選定部30は、シミュレート結果がOKであれば、最終的なレンズ情報を表示部32に出力し、NGであれば、取得部28によるユーザ情報の取得に戻る。学習済みモデルに、ユーザ情報である、基本情報、用途情報、および心身情報を入力すると、学習済みモデルのニューラルネットワークの重みパラメータに応じて、推奨されるレンズ情報が出力される。
 表示部32は、選定部30によるレンズ情報のシミュレート結果を出力する。表示部32は、選定部30で最終的に決定されたレンズ情報、取得したユーザ情報、およびシミュレート結果を出力する。
<第一の実施形態に係る作用>
 図12は、レンズオーダー装置10によって実行される処理ルーチンの一例を示す図である。図12を参照して、レンズオーダー装置10の作用を説明する。
 ステップS100では、取得部28が、ユーザについてのレンズのオーダーのリクエストを受け付け、新規オーダーであるか否かを判定する。新規オーダーであるか否かの判定は、データ記憶部22の顧客データベースを参照して行う。新規オーダーである場合には、ステップS102へ移行する。新規オーダーでない場合には、ステップS104へ移行する。
 ステップS102では、取得部28が、データ記憶部22の顧客データベースからユーザの基本情報を参照する。
 ステップS104では、取得部28が、基本情報を取得するためのインターフェース画面により入力および選択を受け付け、ユーザの基本情報を取得する。
 ステップS106では、取得部28が、用途情報、心身情報、ならびに用途情報および心身情報いずれのユーザ情報の種別からレンズを選ぶかの選択を受け付ける。種別は、上記図4について説明したインターフェース画面により選択を受け付ける。
 ステップS108では、取得部28が、選択した種別について、大項目の種類の選択を取得する。大項目は、図5について説明したインターフェース画面による取得する。用途情報および心身情報の種別が選択された場合には、それぞれについて取得する。次のステップについても同様である。
 ステップS110では、取得部28が、選択した種別について、大項目の下位の項目である中・小項目の詳細の選択を取得する。
 ステップS112では、取得部28が、オプションの選択を取得する。オプションは、図6について説明したインターフェース画面により取得する。
 ステップS114では、選定部30が、取得部28で取得したユーザ情報をデータ記憶部22に記憶された学習済みモデルへの入力として、学習済みモデルから出力されたレンズ情報をシミュレートするレンズ情報として決定する。
 ステップS116では、選定部30が、決定されたレンズ情報に基づきシミュレートを実行する。
 ステップS118では、表示部32が、シミュレート結果を表示する。
 ステップS120では、取得部28が、シミュレート結果がOKであるかNGであるかを取得し、OKである場合にはステップS122へ移行し、NGである場合にはステップS106に戻って処理を繰り返す。なお、繰り返しでは、前回の選択履歴を反映しておいてもよい。
 ステップS122では、表示部32は、選定部30で最終的に決定されたレンズ情報、取得したユーザ情報、およびシミュレート結果を出力する。
 以上説明したように、第一の実施形態に係るレンズオーダー装置10によれば、複数の項目を考慮して、ユーザに推奨されるレンズ情報を提示することができる。
<第二の実施形態に係るシステム構成>
 第二の実施形態について説明する。図13は、第二の実施形態のレンズオーダーシステムのシステム構成を示すブロック図である。図13に示すように、レンズオーダーシステム200は、複数の端末210とレンズオーダー装置220とが、ネットワークNを介して接続されている。第二の実施形態は、上記第一の実施形態のレンズオーダー装置10と比較して、収集部228によってユーザごとにユーザ情報を収集し、レンズ情報を端末210に提示する点が異なっている。
 端末210は、ユーザが所有するスマートフォン端末、および眼鏡の販売店舗に割り当てられたタブレット端末等である。端末210は、第一の実施形態の取得部28および表示部32と同様のインターフェースを有する。当該インターフェースにより、ユーザ情報である、基本情報、ならびに用途情報および心身情報の少なくとも一方の各々を取得する。また当該インターフェースにより、レンズオーダー装置220から受信したレンズ情報を表示する。端末210は、当該端末210に取得ごとに割り当てられた識別情報と共にユーザ情報を、レンズオーダー装置220に送信する。識別情報は、当該端末210の識別情報、および情報を取得したユーザの識別情報である。
 レンズオーダー装置220の収集部228は、端末210の各々から、当該端末210の識別情報と、ユーザ情報である、基本情報、ならびに用途情報および心身情報の少なくとも一方の各々とを収集し、識別情報ごとに、ユーザ情報である、基本情報、ならびに用途情報、および心身情報の各々をデータ記憶部22に記憶する。選定部30は、データ記憶部22に記憶された識別情報ごとに、第一の実施形態と同様の処理により、ユーザに推奨されるレンズ情報を決定する。送信部232は、識別情報が割り当てられている端末210に、当該識別情報について決定したレンズ情報を送信する。
<第二の実施形態に係る作用>
 図14は、第二の実施形態に係るレンズオーダー装置によって実行される処理ルーチンの一例を示す図である。図14を参照して、レンズオーダー装置220の作用を説明する。なお、端末210は、上述したステップS102~112と同様の処理を行う。また、シミュレート結果を受けて、新たにユーザ情報の入力をやり直す場合には、同様の処理をして送信すればよい。
 ステップS200において、収集部228は、端末210の各々から、当該端末210の識別情報と、ユーザ情報である、基本情報、用途情報、および心身情報の各々とを収集する。
 ステップS202において、収集部228は、識別情報ごとに、ユーザ情報である、基本情報、用途情報、および心身情報の各々をデータ記憶部22に記憶する。
 ステップS204において、選定部30は、データ記憶部22に記憶された識別情報ごとに、ユーザ情報である、基本情報、ならびに用途情報および心身情報の少なくとも一方の各々をデータ記憶部22に記憶された学習済みモデルへの入力として、学習済みモデルから出力されたレンズ情報を、識別情報のユーザのレンズ情報として決定する。なお、ステップS204の処理は、予め定めた所定の間隔(5分、10分、または20分等)で行えばよい。
 ステップS206において、選定部30は、データ記憶部22に記憶された識別情報ごとに、決定されたレンズ情報に基づきシミュレートを実行する。
 ステップS208において、送信部232は、識別情報が割り当てられている端末210に、当該識別情報のユーザについて決定したレンズ情報およびシミュレート結果を送信する。
 以上説明したように、第二の実施形態に係るレンズオーダーシステム200によれば、複数の項目を考慮して、ユーザごとに推奨されるレンズ情報を提示することができる。
 なお、本発明は、上述した実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
 例えば、上述した実施形態の選定部によるシミュレート結果について、レンズオーダー装置または端末に表示をする場合を例に説明したがこれに限定されるものではない。例えば、シミュレート結果を、VR(Virtual Reality)による仮想空間にレンズ情報に基づく眼鏡の3Dモデルを描画したり、AR(Augmented Reality)による拡張現実の手法によりレンズ情報に基づく眼鏡を仮想的な眼鏡として現実空間に描画する、といった手法で表示をするようにしてもよい。
 また、例えば、外部のレンズ加工業者向けに、決定したレンズ情報について、当該レンズ情報の一部のデータに関してのみ部分的に情報を開示するような表示制御およびアクセス制御を設けてもよい。
 また、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムを、コンピュータ読み取り可能な記録媒体に格納して提供することも可能である。
 2019年3月14日に出願された日本国特許出願2019-047275の開示はその全体が参照により本明細書に取り込まれる。
 本明細書に記載された全ての文献、特許出願、および技術規格は、個々の文献、特許出願、および技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。

Claims (8)

  1.  レンズオーダーシステムであって、
     コンピュータを備えており、
     前記コンピュータはCPUと、記憶部と、前記CPUによって実行される選定部とを備えており、
     前記記憶部には、ユーザに関する基本情報と、ユーザの所望するレンズの用途に関する用途情報、ならびにユーザの眼を含む心身の症状および状態を含む心身情報の少なくとも一方とを含むユーザ情報に基づいて、レンズの材料に用いられる樹脂の材料の種類、色素の種類、およびコーティングの種類を含むレンズ情報を決定することのできるデータが記憶され、
     前記選定部は、ユーザについて取得した前記ユーザ情報と、前記記憶部に記憶されているデータとに基づいて、前記レンズ情報を決定し、出力する、
     レンズオーダーシステム。
  2.  前記コンピュータは取得部をさらに含み、
     前記取得部は、入力により、前記ユーザ情報のうち、前記用途情報および前記心身情報の少なくとも一方を所定の順序で取得する請求項1に記載のレンズオーダーシステム。
  3.  前記データは、前記用途情報および前記心身情報の少なくとも一方を含む前記ユーザ情報から前記レンズ情報を出力するように予め学習した学習済みモデルであって、前記用途情報および前記心身情報の各々の重みと、前記レンズの前記材料の種類、前記色素の種類、および前記コーティングの種類の正解データとを学習データとして用いて、ニューラルネットワークモデルの重みパラメータを深層学習の手法により学習した学習済みモデルとし、
     前記選定部は、ユーザについて取得した前記ユーザ情報を前記学習済みモデルへの入力として、前記学習済みモデルから出力された前記レンズ情報として決定する請求項1または請求項2に記載のレンズオーダーシステム。
  4.  前記コンピュータは収集部をさらに含み、
     前記収集部は、端末において入力された、ユーザの前記ユーザ情報をネットワークを介して収集し、前記記憶部に記録し、
     前記選定部は、前記記憶部に記録されたユーザの前記ユーザ情報と、前記記憶部に記録された前記データとを照合して、ユーザの前記レンズ情報を決定する請求項1~請求項3の何れか1項に記載のレンズオーダーシステム。
  5.  前記レンズ情報には、更に、レンズの染色性に関する情報、及び特定の色素と特定の樹脂との相性を示す樹脂の溶解性に関する情報を含む請求項1~請求項4の何れか1項に記載のレンズオーダーシステム。
  6.  コンピュータの記憶部に記憶された、ユーザに関する基本情報と、ユーザの所望するレンズの用途に関する用途情報、ならびにユーザの眼を含む心身の症状および状態を含む心身情報の少なくとも一方とを含むユーザ情報に基づいて、レンズの材料に用いられる樹脂の材料の種類、色素の種類、およびコーティングの種類を含むレンズ情報を決定することのできるデータと、ユーザについて取得した前記ユーザ情報とに基づいて、前記レンズ情報を決定し、出力する、
     処理をコンピュータに実行させるレンズオーダー方法。
  7.  コンピュータを、
     記憶部と、選定部とを備えるレンズオーダーシステムにおいて、
     前記コンピュータの記憶部に記憶された、ユーザに関する基本情報と、ユーザの所望するレンズの用途に関する用途情報、ならびにユーザの眼を含む心身の症状および状態を含む心身情報の少なくとも一方とを含むユーザ情報に基づいて、レンズの材料に用いられる樹脂の材料の種類、色素の種類、およびコーティングの種類を含むレンズ情報を決定することのできるデータと、ユーザについて取得した前記ユーザ情報とに基づいて、前記レンズ情報を決定し、出力する前記選定部、として機能させるためのプログラム。
  8.  記憶部と選定部と表示部とを有するレンズオーダーシステムが、レンズの加工に関する情報を決定する処理を行う際に用いられる、ユーザ情報を含むデータ構造であって、
     当該データ構造は、ユーザに関する基本情報と、ユーザの所望するレンズの用途に関する用途情報、ならびにユーザの眼を含む心身の症状および状態を含む心身情報の少なくとも一方とを含むユーザ情報と、レンズの材料に用いられる樹脂の材料の種類、色素の種類、およびコーティングの種類を含むレンズ情報とを有し、
     前記記憶部には、前記ユーザ情報から、前記レンズ情報を決定することのできるデータが予め記憶され、
     前記選定部に、ユーザについて取得した前記ユーザ情報が入力されると、前記記憶部に記憶されている前記データに基づいて、前記レンズ情報を決定させ、
     前記表示部に、前記選定部で決定させた前記レンズ情報を出力させる、
    データ構造。
PCT/JP2020/010398 2019-03-14 2020-03-10 レンズオーダーシステム、レンズオーダー方法、プログラム、およびデータ構造 WO2020184590A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2021505096A JPWO2020184590A1 (ja) 2019-03-14 2020-03-10
EP20768982.9A EP3940448A4 (en) 2019-03-14 2020-03-10 LENS ORDERING SYSTEM, METHOD, PROGRAM AND DATA STRUCTURE
CN202080020346.1A CN113631992B (zh) 2019-03-14 2020-03-10 镜片订购系统、镜片订购方法、程序以及数据结构
US17/438,510 US20220146859A1 (en) 2019-03-14 2020-03-10 Lens ordering system, lens ordering method, program, and data structure
KR1020217028979A KR102579621B1 (ko) 2019-03-14 2020-03-10 렌즈 오더 시스템, 렌즈 오더 방법, 프로그램 및 데이터 구조

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019047275 2019-03-14
JP2019-047275 2019-03-14

Publications (1)

Publication Number Publication Date
WO2020184590A1 true WO2020184590A1 (ja) 2020-09-17

Family

ID=72427595

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/010398 WO2020184590A1 (ja) 2019-03-14 2020-03-10 レンズオーダーシステム、レンズオーダー方法、プログラム、およびデータ構造

Country Status (6)

Country Link
US (1) US20220146859A1 (ja)
EP (1) EP3940448A4 (ja)
JP (1) JPWO2020184590A1 (ja)
KR (1) KR102579621B1 (ja)
CN (1) CN113631992B (ja)
WO (1) WO2020184590A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023095577A1 (ja) * 2021-11-25 2023-06-01 三井化学株式会社 網膜感度調整部材の提供方法、設計方法及び提供装置

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0354519A (ja) * 1989-02-16 1991-03-08 Pilkington Visioncare Holdings Inc 着色コンタクトレンズ及びその製造法
JP2000325840A (ja) 1999-05-20 2000-11-28 Hoya Corp 光学用プラスチックレンズの着色システム
JP2010517088A (ja) * 2007-01-25 2010-05-20 ローデンストック.ゲゼルシャフト.ミット.ベシュレンクテル.ハフツング 遠用部および近用部の基準点を決定する方法
WO2012057096A1 (ja) * 2010-10-25 2012-05-03 株式会社メニコン アゾ色素、眼用レンズ材料、眼用レンズ材料の製造方法及び眼用レンズ
WO2014133111A1 (ja) 2013-02-27 2014-09-04 三井化学株式会社 光学材料、光学材料用組成物およびその用途
WO2015037627A1 (ja) 2013-09-10 2015-03-19 三井化学株式会社 光学材料およびその用途
WO2015037628A1 (ja) 2013-09-10 2015-03-19 三井化学株式会社 光学材料およびその用途
JP2016537716A (ja) * 2013-08-22 2016-12-01 ビスポーク, インコーポレイテッド カスタム製品を創作するための方法及びシステム
US20170371178A1 (en) * 2016-06-22 2017-12-28 Indizen Optical Technologies of America, LLC Custom ophthalmic lens design derived from multiple data sources
JP2019047275A (ja) 2017-08-31 2019-03-22 キヤノン株式会社 画像形成方法、画像形成装置及びプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020044254A1 (en) * 2000-10-12 2002-04-18 Kathleen Saathoff Tinted contact lens and method for treatment of migraine headaches
US7188082B2 (en) * 2001-07-06 2007-03-06 Digital Vision, Inc. Electronic ordering system, such as for use by eye care professionals
JP4306702B2 (ja) * 2006-08-03 2009-08-05 セイコーエプソン株式会社 メガネレンズ発注システム
JP5905248B2 (ja) * 2011-12-12 2016-04-20 Hoya株式会社 眼鏡レンズ受発注システム、眼鏡レンズ発注プログラムおよび眼鏡レンズ発注方法
EP2637135A1 (en) * 2012-03-08 2013-09-11 Essilor International (Compagnie Générale D'Optique) Method for ordering a spectacle lens and associated system
FR3031816B1 (fr) * 2015-01-16 2018-02-16 Essilor International Procede de determination d'un filtre pour une lentille ophtalmique et lentille ophtalmique comportant un tel filtre
JP6475848B2 (ja) * 2015-09-16 2019-02-27 三井化学株式会社 光学材料用重合性組成物の製造方法および光学材料の製造方法
FR3051262B1 (fr) * 2016-05-13 2022-08-12 Essilor Int Procede de determination d'un filtre pour une lentille ophtalmique en fonction d'une grandeur representative d'une sensibilite dynamique de l'œil d'un porteur a une variation d'un flux lumineux

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0354519A (ja) * 1989-02-16 1991-03-08 Pilkington Visioncare Holdings Inc 着色コンタクトレンズ及びその製造法
JP2000325840A (ja) 1999-05-20 2000-11-28 Hoya Corp 光学用プラスチックレンズの着色システム
JP2010517088A (ja) * 2007-01-25 2010-05-20 ローデンストック.ゲゼルシャフト.ミット.ベシュレンクテル.ハフツング 遠用部および近用部の基準点を決定する方法
WO2012057096A1 (ja) * 2010-10-25 2012-05-03 株式会社メニコン アゾ色素、眼用レンズ材料、眼用レンズ材料の製造方法及び眼用レンズ
WO2014133111A1 (ja) 2013-02-27 2014-09-04 三井化学株式会社 光学材料、光学材料用組成物およびその用途
JP2016537716A (ja) * 2013-08-22 2016-12-01 ビスポーク, インコーポレイテッド カスタム製品を創作するための方法及びシステム
WO2015037627A1 (ja) 2013-09-10 2015-03-19 三井化学株式会社 光学材料およびその用途
WO2015037628A1 (ja) 2013-09-10 2015-03-19 三井化学株式会社 光学材料およびその用途
US20170371178A1 (en) * 2016-06-22 2017-12-28 Indizen Optical Technologies of America, LLC Custom ophthalmic lens design derived from multiple data sources
JP2019047275A (ja) 2017-08-31 2019-03-22 キヤノン株式会社 画像形成方法、画像形成装置及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3940448A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023095577A1 (ja) * 2021-11-25 2023-06-01 三井化学株式会社 網膜感度調整部材の提供方法、設計方法及び提供装置

Also Published As

Publication number Publication date
EP3940448A4 (en) 2022-12-14
CN113631992B (zh) 2023-09-15
CN113631992A (zh) 2021-11-09
US20220146859A1 (en) 2022-05-12
KR102579621B1 (ko) 2023-09-18
JPWO2020184590A1 (ja) 2020-09-17
KR20210125069A (ko) 2021-10-15
EP3940448A1 (en) 2022-01-19

Similar Documents

Publication Publication Date Title
JP7420438B2 (ja) 人の矯正レンズ処方を決定するための方法及びシステム
EP2989628B1 (fr) Procede de personnalisation d'un dispositif electronique afficheur d'image et dispositif electronique afficheur d'image l'utilisant
US8823742B2 (en) Method of simulating lens using augmented reality
US9568748B2 (en) Methods of designing and fabricating custom-fit eyeglasses using a 3D printer
JP2019141697A (ja) 眼科検査を実行するためのヘッドマウントディスプレイ
JP6845795B2 (ja) 装用者に適合された光学レンズのレンズ設計を決定する方法
US20210271117A1 (en) Method for determining an ophthalmic equipment and system associated
US11354805B2 (en) Utilization of luminance changes to determine user characteristics
US20130253891A1 (en) Simulation device, simulation program and binocular vision experiencing method
KR20130103153A (ko) 고객 맞춤형 안경 및 콘택트렌즈 버추얼 피팅 방법 및 그 시스템
WO2017177425A1 (zh) 一种虚拟现实设备中的图像处理方法和装置
WO2020184590A1 (ja) レンズオーダーシステム、レンズオーダー方法、プログラム、およびデータ構造
KR102076261B1 (ko) 안경 렌즈의 형태를 확인하기 위한 장치 및 방법 및 누진 안경 렌즈의 굴절력 분포를 결정하기 위한 장치 및 방법
JP3897058B2 (ja) 眼鏡の疑似体験装置、眼鏡の疑似体験方法及び記録媒体
US11189366B2 (en) Frame optimization system and method
WO2023095577A1 (ja) 網膜感度調整部材の提供方法、設計方法及び提供装置
WO2022014689A1 (ja) 頭痛原因判定システム、頭痛原因判定方法、プログラム、及びデータ構造
EP4043946A1 (en) A device and method for automatically evaluating visual equipment
US20220022742A1 (en) Method for assessing the suitability between an optical device and a user of the optical device
TW200304606A (en) System for determining level of magnification of eyeglasses and contact lenses and method thereof
JPH04272741A (ja) 眼鏡レンズの選定装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20768982

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20217028979

Country of ref document: KR

Kind code of ref document: A

Ref document number: 2021505096

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2020768982

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2020768982

Country of ref document: EP

Effective date: 20211014