JP2021056985A - Method for generating learning model, computer program, spectacle lens selection support method and spectacle lens selection support system - Google Patents
Method for generating learning model, computer program, spectacle lens selection support method and spectacle lens selection support system Download PDFInfo
- Publication number
- JP2021056985A JP2021056985A JP2019237429A JP2019237429A JP2021056985A JP 2021056985 A JP2021056985 A JP 2021056985A JP 2019237429 A JP2019237429 A JP 2019237429A JP 2019237429 A JP2019237429 A JP 2019237429A JP 2021056985 A JP2021056985 A JP 2021056985A
- Authority
- JP
- Japan
- Prior art keywords
- information
- user
- lens
- learning model
- measurement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 77
- 238000004590 computer program Methods 0.000 title claims abstract description 19
- 238000005259 measurement Methods 0.000 claims abstract description 105
- 238000003860 storage Methods 0.000 claims abstract description 55
- 238000012545 processing Methods 0.000 claims description 123
- 230000008569 process Effects 0.000 claims description 47
- 239000011521 glass Substances 0.000 claims description 18
- 238000007689 inspection Methods 0.000 description 51
- 238000004891 communication Methods 0.000 description 29
- 238000010586 diagram Methods 0.000 description 22
- 230000000750 progressive effect Effects 0.000 description 16
- 238000013145 classification model Methods 0.000 description 15
- 230000005540 biological transmission Effects 0.000 description 13
- 208000001491 myopia Diseases 0.000 description 13
- 230000004044 response Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 6
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 5
- 201000010041 presbyopia Diseases 0.000 description 5
- 210000002569 neuron Anatomy 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000004304 visual acuity Effects 0.000 description 4
- 238000009825 accumulation Methods 0.000 description 3
- 201000009310 astigmatism Diseases 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000004308 accommodation Effects 0.000 description 2
- 230000004438 eyesight Effects 0.000 description 2
- 238000011478 gradient descent method Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 208000017667 Chronic Disease Diseases 0.000 description 1
- 206010020675 Hypermetropia Diseases 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000004305 hyperopia Effects 0.000 description 1
- 201000006318 hyperopia Diseases 0.000 description 1
- 230000004379 myopia Effects 0.000 description 1
- 208000014733 refractive error Diseases 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Landscapes
- Eyeglasses (AREA)
- Eye Examination Apparatus (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本発明は、ユーザによる眼鏡のレンズの選択を支援する学習モデルの生成方法、コンピュータプログラム、眼鏡レンズ選択支援方法及び眼鏡レンズ選択支援システムに関する。 The present invention relates to a learning model generation method, a computer program, a spectacle lens selection support method, and a spectacle lens selection support system that assist a user in selecting a spectacle lens.
眼鏡のレンズには、近視、遠視及び乱視等のように眼の屈折誤差(屈折力)を単純に矯正するレンズの他に、加齢による調節力の低下を補うための多焦点レンズが広く利用されている。多焦点レンズは近方視のために不足する屈折力をレンズの下方に加入屈折力として付加したもので、見た目に境目ができないよう屈折力を連続的に変化させた累進屈折力レンズが普及している。 In addition to lenses that simply correct the refractive power of the eye, such as myopia, hyperopia, and astigmatism, multifocal lenses are widely used as lenses for spectacles to compensate for the decline in accommodation power due to aging. Has been done. Multifocal lenses have a refractive power that is insufficient for near vision added to the lower part of the lens as an additional refractive power, and progressive power lenses that continuously change the refractive power so that there is no visible boundary have become widespread. ing.
更に累進屈折力レンズには、遠方視向けの上部に視界を広く確保することで歩行や運転にも好適な遠近設計、及び、デスクワークや手元の作業にあわせて中間距離や近方視向けの領域を広く確保して室内での使用に好適な中近設計等のように、使用目的に合わせて選択できるよう様々な種類のレンズが提供されている。このように多くの選択肢が用意されている一方で、それらの特徴(メリット及びデメリット)を正確に理解しているユーザは少ない。眼鏡の作成時には店舗のスタッフがユーザから聞き取った情報からレンズの候補を提示し、提示された候補の中からユーザがレンズを決定して購入するのが一般的である。 Furthermore, the progressive power lens has a perspective design that is suitable for walking and driving by ensuring a wide field of view at the upper part for far vision, and an area for intermediate distance and near vision according to desk work and work at hand. Various types of lenses are provided so that they can be selected according to the purpose of use, such as a medium-near design that secures a wide range and is suitable for indoor use. While there are so many options available, few users have an accurate understanding of their characteristics (merits and demerits). When making eyeglasses, it is common that the staff of the store presents lens candidates from the information heard from the user, and the user decides and purchases the lens from the presented candidates.
特許文献1においては、老視眼者の年齢及び装用環境等に対する複数種類の累進多焦点レンズの個々の適性度を定めた評価データを予め作成し、老視眼者の年齢及び装用環境等の情報を求め、この情報に対する累進多焦点レンズの個々の適性度を評価データから求め、求めた適性度から老視眼者個人にとって最適な累進多焦点レンズを選択する累進多焦点レンズの選択方法が提案されている。
In
特許文献2においては、レンズの加入度に応じて複数のタイプ毎に設計パラメータをデータベースに記憶し、データベースから選択されたレンズを装用した際の最大遠点距離及び最大近点距離を演算し、選択されたレンズに対して最大遠点距離及び最大近点距離を並べて表示装置に表示する累進屈折力レンズ選択装置が提案されている。 In Patent Document 2, design parameters are stored in a database for each of a plurality of types according to the degree of addition of the lens, and the maximum far point distance and the maximum near point distance when the lens selected from the database is worn are calculated. A progressive power lens selection device has been proposed in which the maximum far point distance and the maximum near point distance are displayed side by side on a display device with respect to the selected lens.
レンズの選択に際しては、ユーザのニーズ、年齢及び屈折誤差等に応じてどのようなレンズが相応しいか、店舗のスタッフの経験により構築されたルールにより候補が絞られる。調節力が低下した所謂老視対策としての累進屈折力レンズは、その光学原理上、どのような使用環境(距離及び目的等)に対しても万能なレンズは存在せず、メリット及びデメリットのトレードオフによって成立しており、選択を誤ると使用中の不快感・違和感、見え方に対する不満の原因となる。レンズ選択のための知識や経験は、スタッフ教育により継承されるが、全てを適切に形式化すること自体が容易ではなく、一部は属人的なスキルに終わってしまうケースも存在する。 When selecting a lens, candidates are narrowed down according to the rules established based on the experience of the store staff, which lens is suitable according to the user's needs, age, refraction error, and the like. Due to its optical principle, there is no universal lens for any usage environment (distance, purpose, etc.) for the progressive power lens as a measure against presbyopia with reduced accommodation power, and there is a trade-off between advantages and disadvantages. It is established by turning off, and if you make a mistake in selection, it may cause discomfort / discomfort during use and dissatisfaction with the appearance. Knowledge and experience for lens selection are inherited by staff education, but it is not easy to formalize everything properly, and there are cases where some of them end up as personal skills.
特許文献1に記載の累進多焦点レンズの選択方法は、予め定められたルールに従ってレンズの選択を行うルールベースの選択方法である。レンズを選択する要因として複数のパラメータが存在する場合、複数のパラメータの評価結果をどの程度考慮するかがレンズの選択結果に大きく影響するため、予め最適なルールを定めることが難しいという問題がある。特許文献2に記載の累進屈折力レンズ選択装置は、最大遠点距離及び最大近点距離の組を複数並べて表示することでユーザによるレンズの選択を支援するものであるが、専門的な知識を有していないユーザには誤った選択へ誘導してしまう虞がある。
The method for selecting a progressive multifocal lens described in
本発明は、斯かる事情に鑑みてなされたものであって、その目的とするところは、ユーザに適した眼鏡のレンズの仕様を推測することで眼鏡のレンズの選択を支援することが期待できる学習モデルの生成方法、コンピュータプログラム、眼鏡レンズ選択支援方法及び眼鏡レンズ選択支援システムを提供することにある。 The present invention has been made in view of such circumstances, and an object of the present invention can be expected to support selection of spectacle lenses by inferring specifications of spectacle lenses suitable for the user. The purpose of the present invention is to provide a learning model generation method, a computer program, a spectacle lens selection support method, and a spectacle lens selection support system.
本発明に係る学習モデルの生成方法は、ユーザの属性情報、前記ユーザの眼に係る測定情報及び前記ユーザによる眼鏡の用途情報と、眼鏡のレンズの仕様情報とを対応付けた教師データを取得し、取得した前記教師データを用いて、前記属性情報、前記測定情報及び前記用途情報を入力した場合に前記仕様情報を出力する学習モデルを生成する。 The learning model generation method according to the present invention acquires teacher data in which the user's attribute information, the measurement information related to the user's eye, the usage information of the spectacles by the user, and the specification information of the spectacle lens are associated with each other. Using the acquired teacher data, a learning model that outputs the specification information when the attribute information, the measurement information, and the usage information are input is generated.
また、本発明に係るコンピュータプログラムは、コンピュータに、ユーザの属性情報、前記ユーザの眼に係る測定情報及び前記ユーザによる眼鏡の用途情報を取得し、前記属性情報、前記測定情報及び前記用途情報を入力した場合に眼鏡のレンズの仕様情報を出力する学習モデルに対し、取得した前記属性情報、前記測定情報及び前記用途情報を入力し、前記学習モデルが出力する前記仕様情報を取得する処理を実行させる。 In addition, the computer program according to the present invention acquires the user's attribute information, the measurement information related to the user's eye, and the usage information of the glasses by the user to the computer, and obtains the attribute information, the measurement information, and the usage information. A process of inputting the acquired attribute information, the measurement information, and the application information to the learning model that outputs the specification information of the lens of the eyeglass when input is executed, and acquiring the specification information output by the learning model is executed. Let me.
また、本発明に係る眼鏡レンズ選択支援方法は、ユーザの属性情報、前記ユーザの眼に係る測定情報及び前記ユーザによる眼鏡の用途情報を取得し、前記属性情報、前記測定情報及び前記用途情報を入力した場合に眼鏡のレンズの仕様情報を出力する学習モデルに対し、取得した前記属性情報、前記測定情報及び前記用途情報を入力し、前記学習モデルが出力する前記仕様情報を取得する。 Further, the spectacle lens selection support method according to the present invention acquires user attribute information, measurement information related to the user's eye, and usage information of the spectacles by the user, and obtains the attribute information, the measurement information, and the usage information. The acquired attribute information, the measurement information, and the application information are input to the learning model that outputs the specification information of the lens of the spectacle when input is input, and the specification information output by the learning model is acquired.
また、本発明に係る眼鏡レンズ選択支援システムは、ユーザの属性情報、前記ユーザの眼に係る測定情報及び前記ユーザによる眼鏡の用途情報を入力した場合に眼鏡のレンズの仕様情報を出力する学習モデルを記憶する記憶部と、前記属性情報、前記測定情報及び前記用途情報を取得するユーザ情報取得部と、前記ユーザ情報取得部が取得した前記属性情報、前記測定情報及び前記用途情報を前記学習モデルへ入力し、前記学習モデルが出力する前記仕様情報を取得する仕様情報取得部とを備える。 Further, the spectacle lens selection support system according to the present invention is a learning model that outputs specification information of the spectacle lens when the attribute information of the user, the measurement information related to the user's eye, and the usage information of the spectacle by the user are input. A storage unit that stores the attribute information, a user information acquisition unit that acquires the attribute information, the measurement information, and the usage information, and the learning model that stores the attribute information, the measurement information, and the usage information acquired by the user information acquisition unit. It is provided with a specification information acquisition unit that inputs to and acquires the specification information output by the learning model.
本発明による場合は、ユーザに適した眼鏡のレンズの仕様を推測することが期待できる。 In the case of the present invention, it can be expected that the specifications of the spectacle lens suitable for the user can be inferred.
本発明の実施形態に係る眼鏡レンズ選択支援システムの具体例を、以下に図面を参照しつつ説明する。なお、本発明はこれらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 A specific example of the spectacle lens selection support system according to the embodiment of the present invention will be described below with reference to the drawings. It should be noted that the present invention is not limited to these examples, and is indicated by the scope of claims, and is intended to include all modifications within the meaning and scope equivalent to the scope of claims.
<システム概要>
図1は、本実施の形態に係る眼鏡レンズ選択支援システムの概略を説明するための模式図である。本実施の形態に係るメガネレンズ選択支援システムは、サーバ装置1と、複数の店舗端末装置3と、複数の検査装置4と、複数のタブレット型端末装置5とを備えて構成されている。店舗端末装置3、検査装置4及びタブレット型端末装置5は、眼鏡を販売する店舗に設けられる装置であり、1つの店舗に複数の装置が設けられてもよい。これに対してサーバ装置1は、店舗とは別の場所に設けられる装置であり、サーバ装置1と各店舗端末装置3とは、インターネット等のネットワークNを介して通信を行うことができる。ただしサーバ装置1は、例えば本店等のいずれかの店舗に設けられてもよい。
<System overview>
FIG. 1 is a schematic diagram for explaining the outline of the spectacle lens selection support system according to the present embodiment. The spectacle lens selection support system according to the present embodiment includes a
各店舗に設けられた店舗端末装置3は、この店舗内の検査装置4及びタブレット型端末装置5との間で通信を行うことができる。例えば、店舗端末装置3及び検査装置4は、通信ケーブルを介して接続され、この通信ケーブルを介して通信を行う。また例えば店舗端末装置3及びタブレット型端末装置5は、無線LAN(Local Area Network)等の無線通信により通信を行う。検査装置4は、眼鏡を購入するために店舗を訪れたユーザの屈折および視力検査を行う装置である。検査装置4は、例えばユーザの眼の屈折誤差(屈折力)及び近見視力等を測定し、ユーザの眼に係る測定情報を店舗端末装置3へ送信する。タブレット型端末装置5は、ユーザからの情報の入力を受け付ける処理を行う。タブレット型端末装置5は、例えばユーザの年齢及び性別等の属性情報と、ユーザが購入しようとする眼鏡の使用目的及び使用環境等に関する用途情報とを、ユーザから受け付けて店舗端末装置3へ送信する。
The
店舗端末装置3は、例えば店舗の店員が操作する装置である。店舗端末装置3は、検査装置4からユーザの眼に係る測定情報を取得すると共に、タブレット型端末装置5からユーザの属性情報及びユーザによる眼鏡の用途情報を取得する。店舗端末装置3は、取得した測定情報、属性情報及び用途情報を一組にしてサーバ装置1へ送信する。その後、店舗端末装置3は、サーバ装置1により推測されたユーザに適したレンズの仕様情報をディスプレイ等に表示し、ユーザに適した眼鏡のレンズを提案する。
The
サーバ装置1は、店舗端末装置3から取得したユーザの属性情報、測定情報及び用途情報に基づいて、このユーザに適した眼鏡のレンズの仕様(例えばレンズの種類及び加入度数等)を推測する処理を行う。サーバ装置1は、推測結果であるレンズの仕様情報を店舗端末装置3へ送信する。本実施の形態に係るサーバ装置1は、機械学習により学習がなされた学習モデルである、仕様予測モデルを備えている。この仕様予測モデルは、ユーザの属性情報、測定情報及び用途情報の入力に対して眼鏡のレンズの仕様情報を出力するように予め学習がなされている。サーバ装置1は、この仕様予測モデルを用い、店舗端末装置3から取得したユーザの属性情報、測定情報及び用途情報を仕様予測モデルへ入力し、仕様予測モデルが出力するレンズの仕様情報を取得することで、ユーザに適した眼鏡のレンズの使用を推測する。
The
また、サーバ装置1は、仕様予測モデルの生成(学習)処理及び再学習処理を行う。仕様予測モデルの最初の学習処理においてサーバ装置1は、例えばこれまでに店舗の店員の判断等に基づいて提案及び販売等がなされた眼鏡に関する情報を基に作成された教師データを用いて、仕様予測モデルの学習処理を行う。サーバ装置1は、ユーザの属性情報、測定情報及び用途情報と、眼鏡のレンズの仕様情報とが対応付けた教師データを用いて仕様予測モデルの学習処理を行う。
Further, the
また店舗端末装置3は、サーバ装置1が推測した眼鏡のレンズの仕様情報をユーザに提示し、最終的にユーザが選択及び購入等した眼鏡のレンズに関する情報をサーバ装置1へ送信する。このときに店舗端末装置3が送信する情報には、例えばユーザの属性情報、測定情報及び用途情報と、これに対応付けたレンズの仕様情報とが含まれ得る。更に店舗端末装置3は、眼鏡を購入したユーザについての追跡情報(例えば、返品又は交換等の有無、使用後のユーザの感想等)を取得してサーバ装置1へ送信してもよい。サーバ装置1は、店舗端末装置3からの情報をデータベースに蓄積し、蓄積した情報に基づいて教師データを生成し、生成した教師データを用いて仕様予測モデルの再学習処理を行う。
Further, the
なお本実施の形態においては、各店舗に店舗端末装置3、検査装置4及びタブレット型端末装置5をそれぞれ個別の装置として設ける構成とするが、これに限るものではない。例えば店舗端末装置3、検査装置4及びタブレット型端末装置5の機能を1つの装置に集約してもよい。例えば店舗端末装置3がユーザの属性情報及び用途情報等の入力を受け付ける構成としてもよく、この場合には店舗にタブレット型端末装置5が設けられていなくてもよい。また例えば店舗端末装置3及び検査装置4の機能を1つの装置に集約してもよく、また例えば検査装置4及びタブレット型端末装置5の機能を1つの装置に集約してもよい。また店舗端末装置3及び検査装置4は、店舗の店員が操作する装置ではなく、ユーザが操作する装置であってもよい。タブレット型端末装置5は、ユーザが操作する装置ではなく、店舗の店員が操作する装置であってもよい。
In the present embodiment, the
また複数の店舗が存在せず、店舗が1つであってもよく、この場合にはサーバ装置1の機能を店舗端末装置3が備えてもよい。即ち、店舗端末装置3が仕様予測モデルを用いたレンズの仕様情報の推測処理を行ってもよい。ただしこの場合に、店舗端末装置3が仕様予測モデルの学習処理を行ってもよく、店舗端末装置3とは別の装置が学習処理を行ってもよい。サーバ装置1、店舗端末装置3、検査装置4及びタブレット型端末装置5の機能を1つの装置に集約してもよい。
Further, a plurality of stores may not exist and there may be one store. In this case, the
眼鏡を購入するために店舗を訪れたユーザは、まずタブレット型端末装置5にて自身の年齢及び性別等の属性情報と、購入しようとする眼鏡の使用目的及び使用環境等の用途情報とを入力する。タブレット型端末装置5は、入力された属性情報及び用途情報を店舗端末装置3へ送信する。次いでユーザは、検査装置4による屈折および視力検査を受ける。検査装置4による検査は店舗の店員の主導で行われてもよく、ユーザが検査装置4を自ら操作することで行われてもよい。本実施の形態において検査装置4は、ユーザの眼の屈折誤差及び/又は近見視力を少なくとも測定し、測定結果を店舗端末装置3へ送信する。店舗端末装置3は、タブレット型端末装置5から取得したユーザの属性情報及び用途情報と、検査装置4から取得した測定情報とを一組にしてサーバ装置1へ送信する。
A user who visits a store to purchase eyeglasses first inputs attribute information such as his / her age and gender and usage information such as the purpose of use and environment of use of the eyeglasses to be purchased on the
サーバ装置1は、店舗端末装置3からユーザの属性情報、用途情報及び測定情報を取得し、取得したこれらの情報を学習済の仕様予測モデルへ入力する。仕様予測モデルは、入力された属性情報、用途情報及び測定情報に応じた眼鏡のレンズの種類及び加入度数等の仕様情報を出力する。サーバ装置1は、仕様予測モデルが出力する仕様情報を取得して店舗端末装置3へ送信する。サーバ装置1からの仕様情報を受信した店舗端末装置3は、ユーザに対して適していると仕様予測モデルにより推測された眼鏡のレンズの種類及び加入度数等の情報を表示し、ユーザに眼鏡のレンズの仕様を提案する。ユーザは、店舗端末装置3に表示された仕様情報に基づいて、この仕様に該当する眼鏡の試着等を行い、購入する眼鏡のレンズを選択することができる。
The
サーバ装置1は、店舗端末装置3から取得した属性情報、用途情報及び測定情報と、この情報に対して仕様予測モデルが出力した仕様情報とを対応付けてデータベースに記憶して蓄積する。また店舗端末装置3は、サーバ装置1からの仕様情報に基づいてユーザが最終的に購入した眼鏡のレンズの仕様情報を取得し、取得した仕様情報をサーバ装置1へ送信する。更に店舗端末装置3は、例えば眼鏡を購入したユーザが後日にレンズの交換を希望したこと、眼鏡を返品したこと、ユーザによる眼鏡の使用感等の追跡情報を取得してサーバ装置1へ送信する。サーバ装置1は、これらの情報をデータベースに蓄積する。
The
その後、サーバ装置1は、所定期間(例えば1週間又は1ヶ月等)が経過する毎に、データベースに蓄積された情報を基に教師データを作成し、作成した教師データを用いて仕様予測モデルの再学習処理を行う。なお、教師データの作成は、サーバ装置1により自動的に行われてもよく、サーバ装置1を管理する管理者により作成されてもよい。
After that, the
<装置構成>
図2は、本実施の形態に係るサーバ装置1の構成を示すブロック図である。本実施の形態に係るサーバ装置1は、処理部11、記憶部(ストレージ)12及び通信部(トランシーバ)13等を備えて構成されている。なお本実施の形態においては、1つのサーバ装置1にて処理が行われるものとして説明を行うが、複数のサーバ装置1が分散して処理を行ってもよい。
<Device configuration>
FIG. 2 is a block diagram showing a configuration of the
処理部11は、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)又はGPU(Graphics Processing Unit)等の演算処理装置を用いて構成されている。処理部11は、記憶部12に記憶されたサーバプログラム12aを読み出して実行することにより、ユーザに適した眼鏡のレンズの仕様を推測する処理、ユーザが選択した眼鏡のレンズの仕様に係る情報を蓄積する処理、及び、蓄積した情報に基づいて仕様予測モデルを学習する処理等の種々の処理を行う。
The
記憶部12は、例えばハードディスク等の大容量の記憶装置を用いて構成されている。記憶部12は、処理部11が実行する各種のプログラム、及び、処理部11の処理に必要な各種のデータを記憶する。本実施の形態において記憶部12は、処理部11が実行するサーバプログラム12aと、眼鏡のレンズの仕様を推測する仕様予測モデル12bとを記憶している。また記憶部12には、ユーザが選択した眼鏡のレンズの仕様等に係る情報を記憶するユーザ情報DB(データベース)12cが設けられている。仕様予測モデル12b及びユーザ情報DB12cの詳細については、後述する。
The
本実施の形態においてサーバプログラム12aは、メモリカード又は光ディスク等の記録媒体99に記録された態様で提供され、サーバ装置1は記録媒体99からサーバプログラム12aを読み出して記憶部12に記憶する。ただし、サーバプログラム12aは、例えばサーバ装置1の製造段階において記憶部12に書き込まれてもよい。また例えばサーバプログラム12aは、遠隔の他のサーバ装置等が配信するものをサーバ装置1が通信にて取得してもよい。例えばサーバプログラム12aは、記録媒体99に記録されたものを書込装置が読み出してサーバ装置1の記憶部12に書き込んでもよい。サーバプログラム12aは、ネットワークを介した配信の態様で提供されてもよく、記録媒体99に記録された態様で提供されてもよい。
In the present embodiment, the
通信部13は、インターネット及び携帯電話通信網等を含むネットワークNを介して、種々の装置との間で通信を行う。本実施の形態において通信部13は、ネットワークNを介して、複数の店舗端末装置3との間で通信を行う。通信部13は、処理部11から与えられたデータを他の装置へ送信すると共に、他の装置から受信したデータを処理部11へ与える。
The
なお記憶部12は、サーバ装置1に接続された外部記憶装置であってよい。またサーバ装置1は、複数のコンピュータを含んで構成されるマルチコンピュータであってよく、ソフトウェアによって仮想的に構築された仮想マシンであってもよい。またサーバ装置1は、上記の構成に限定されず、例えば可搬型の記憶媒体に記憶された情報を読み取る読取部、操作入力を受け付ける入力部、又は、画像を表示する表示部等を含んでもよい。
The
また本実施の形態に係るサーバ装置1の処理部11には、記憶部12に記憶されたサーバプログラム12aを処理部11が読み出して実行することにより、ユーザ情報取得部11a、レンズ仕様推測部11b、仕様情報送信部11c及び学習処理部11d等がソフトウェア的な機能部として実現される。なおこれらの機能部は、眼鏡のレンズの仕様を推測する処理に関する機能部であり、これ以外の機能部については図示及び説明を省略する。
Further, in the
ユーザ情報取得部11aは、通信部13にて店舗端末装置3との間で通信を行うことにより、店舗端末装置3からユーザの属性情報、用途情報及び測定情報等の情報を取得する処理を行う。上述のように本実施の形態に係る眼鏡レンズ選択支援システムでは、タブレット型端末装置5にてユーザが入力した属性情報及び用途情報と、検査装置4にてなされたユーザの検査結果についての測定情報とは店舗端末装置3にて取得される。ユーザ情報取得部11aは、店舗端末装置3が取得したこれらの情報を、通信により店舗端末装置3から取得する。ユーザ情報取得部11aは、取得したユーザの属性情報、用途情報及び測定情報等を、記憶部12のユーザ情報DB12cに記憶する。またユーザ情報取得部11aは、ユーザによる眼鏡の選択結果、及び、眼鏡を購入したユーザからのその後の問い合わせ又は返品等の有無に関する情報を店舗端末装置3から取得してユーザ情報DB12cに記憶する。
The user
レンズ仕様推測部11bは、ユーザ情報取得部11aが取得したユーザの属性情報、用途情報及び測定情報に基づいて、このユーザに適した眼鏡のレンズの仕様を推測する処理を行う。本実施の形態においてレンズ仕様推測部11bは、記憶部12に記憶された機械学習済の仕様予測モデル12bを用いて、レンズの仕様を推測する。レンズ仕様推測部11bは、ユーザ情報取得部11aが取得した属性情報、用途情報及び測定情報を仕様予測モデル12bへ入力し、この入力に対した仕様予測モデル12bが出力するレンズの仕様情報を取得することによって、ユーザに適した眼鏡のレンズの仕様を推測する。
The lens
仕様情報送信部11cは、レンズ仕様推測部11bが推測したレンズの仕様情報を、ユーザの属性情報、用途情報及び測定情報の送信元である店舗端末装置3へレンズ仕様の推測結果として送信する処理を行う。
The specification
学習処理部11dは、ユーザに適した眼鏡のレンズの仕様を推測する仕様予測モデル12bの学習処理を行う。学習処理部11dは、仕様予測モデル12bの最初の学習段階、即ち仕様予測モデル12bを生成する段階において、本システムの管理者又は開発者等が予め作成した教師データを用いて学習処理を行う。このときに用いられる教師データは、眼鏡を販売する店舗等にて過去に販売された眼鏡のレンズの仕様情報とこれを購入したユーザに関する情報とに基づいて作成され得る。また学習処理部11dは、本システムの運用により蓄積されたデータを用いて仕様予測モデル12bの再学習を行ってもよい。なお、サーバ装置1以外の装置が仕様予測モデル12bの学習処理を行ってもよく、この場合にはサーバ装置1は学習処理部11dを備えていなくてよい。
The
図3は、ユーザ情報DB12cの一構成例を示す模式図である。本実施の形態に係るサーバ装置1の記憶部12に設けられたユーザ情報DB12cは、「ユーザ名」、「属性情報」、「用途情報」、「測定情報」、「推測仕様情報」、「購入仕様情報」及び「追跡情報」等の情報が対応付けて記憶されている。「ユーザ名」は、例えば店舗を訪れたユーザの氏名(本名)であってもよく、ユーザに対して付されたユーザID等の識別情報であってもよい。「ユーザ名」は、ユーザを一意に識別可能な情報であれば、どのような情報であってもよい。
FIG. 3 is a schematic diagram showing a configuration example of the
「属性情報」は、ユーザの個人に関する情報であり、例えばユーザの「年齢」及び「性別」等の情報である。また「属性情報」には、他にも職業、趣味又は持病の有無等の種々の情報が含まれ得る。本実施の形態において「属性情報」は、店舗においてユーザがタブレット型端末装置5を用いて自身で入力した情報である。
The "attribute information" is information about the user's individual, for example, information such as the user's "age" and "gender". In addition, the "attribute information" may include various information such as occupation, hobbies, and the presence or absence of a chronic disease. In the present embodiment, the "attribute information" is information input by the user himself / herself using the tablet
「用途情報」は、ユーザが購入しようとしている眼鏡の用途に関する情報であり、例えば「距離」、「運転」及び「屋内外」等の情報が含まれ得る。「距離」は、眼鏡を使用して見る対象物との距離であり、例えば屋外での眼鏡の使用を重視する遠距離、屋内でのテレビ鑑賞又はパーソナルコンピュータでの作業等を重視する中距離、及び、スマートフォン操作又は読書等を重視する近距離等の情報が設定され得る。「運転」は、ユーザが眼鏡を自動車の運転に用いるか否かを示す情報である。「屋内外」は、ユーザが眼鏡を屋内又は屋外のいずれで使用する可能性が高いかを示す情報である。本実施の形態において「用途情報」は、店舗においてユーザがタブレット型端末装置5を用いて自身で入力した情報である。
The "use information" is information about the use of the eyeglasses that the user intends to purchase, and may include, for example, information such as "distance", "driving", and "indoor / outdoor". "Distance" is the distance to the object to be viewed with eyeglasses, for example, a long distance that emphasizes the use of eyeglasses outdoors, a medium distance that emphasizes watching TV indoors or working with a personal computer, etc. In addition, information such as a short distance that emphasizes smartphone operation or reading can be set. "Driving" is information indicating whether or not the user uses the glasses for driving a car. “Indoor / outdoor” is information indicating whether the user is likely to use the eyeglasses indoors or outdoors. In the present embodiment, the "use information" is information input by the user himself / herself using the tablet
「測定情報」は、店舗にて検査装置4を用いて行ったユーザの眼の検査の結果に基づく情報であり、例えばユーザの眼の「屈折誤差(屈折力)」及び「近見視力」等の情報が含まれ得る。「屈折誤差」は、例えば眼の水平方向、鉛直方向及び45度の方位方向の3つの方位方向に対する眼の屈折力の包囲方向に対する変化の情報である。「近見視力」は、例えば30cm程度の近いものを見る場合の視力である。また「測定情報」には、他にも遠見視力、瞳孔間距離又は眼位等の種々の情報が含まれ得る。
The "measurement information" is information based on the result of the user's eye inspection performed using the
「推測仕様情報」は、ユーザの属性情報、用途情報及び測定情報に基づいてサーバ装置1が推測した眼鏡のレンズの仕様に関する情報であり、例えば「レンズ種類」及び「加入度数」等の情報が含まれ得る。「レンズ種類」は、例えば単焦点レンズ、遠近両用タイプ、中近重視の遠近両用タイプ及び室内タイプ等のレンズの種類が設定され得る。「加入度数」は、遠近両用タイプ(累進屈折力レンズ)の眼鏡において、遠くを見るためのレンズの度数と、近くを見るためのレンズの度数との差であり、レンズの種類が遠近両用タイプである場合に、加入度数の値が設定される。
The "guess specification information" is information related to the specifications of the spectacle lens estimated by the
「購入仕様情報」は、ユーザが実際に購入した眼鏡のレンズの仕様に関する情報であり、「推測仕様情報」と同じ項目の情報が含まれ得る。サーバ装置1が推測したレンズの仕様の眼鏡をユーザが購入した場合には、「購入仕様情報」と「推測仕様情報」とは同じ情報が設定される。本実施の形態において「購入仕様情報」は、例えば店舗の店員が店舗端末装置3を用いて入力した情報である。
The "purchase specification information" is information regarding the specifications of the lenses of the spectacles actually purchased by the user, and may include information of the same items as the "guess specification information". When the user purchases eyeglasses having the lens specifications estimated by the
「追跡情報」は、眼鏡を購入したユーザについてのその後の情報であり、例えば購入した眼鏡の返品又は交換等の有無、使用後のユーザの感想、及び、クレームの有無等の情報が含まれ得る。また「追跡情報」には、例えば購入後に所定の期間が経過してもユーザから交換等の要求がなかったことを、このユーザに対して推測したレンズの仕様情報が正しかったものと判断し、その旨を追跡情報として記憶してもよい。本実施の形態において「追跡情報」は、例えば店舗の店員が店舗端末装置3を用いて入力した情報である。
The "tracking information" is subsequent information about the user who purchased the eyeglasses, and may include, for example, information such as whether or not the purchased eyeglasses are returned or exchanged, the user's impression after use, and whether or not there is a complaint. .. Further, in the "tracking information", for example, it is judged that the lens specification information inferred to this user was correct because the user did not request replacement or the like even after a predetermined period of time had passed after the purchase. That fact may be stored as tracking information. In the present embodiment, the "tracking information" is, for example, information input by a store clerk using the
サーバ装置1は、各店舗の店舗端末装置3から取得した情報を、ユーザ情報DB12cに記憶して蓄積している。
The
図4は、仕様予測モデル12bの構成例を説明するための模式図である。本実施の形態に係るサーバ装置1が備える仕様予測モデル12bは、予め機械学習又は深層学習等の学習処理がなされた学習モデルである。学習モデルは、入力値に対して所定の演算を行い、演算結果を出力するものであり、記憶部12にはこの演算を規定する関数の係数及び閾値等のデータが仕様予測モデル12bとして記憶される。本実施の形態に係る仕様予測モデル12bは、ユーザの属性情報、用途情報及び測定情報の入力に対し、このユーザに適した眼鏡のレンズの種類及び加入度数を仕様情報として出力するよう、予め機械学習がなされている。
FIG. 4 is a schematic diagram for explaining a configuration example of the
また本実施の形態において仕様予測モデル12bは、分類モデル101及び回帰モデル102の2つの学習モデルを備えて構成されている。分類モデル101は、ユーザの属性情報、用途情報及び測定情報の入力に対して、このユーザに適した眼鏡のレンズの種類を出力する学習モデルである。分類モデル101は、入力された譲歩に基づいてユーザに対する適合率の高いレンズの種類を分類予測する。また回帰モデル102は、ユーザの属性情報、用途情報及び測定情報の入力に対して、このユーザに適した眼鏡のレンズの加入度数を出力する学習モデルである。本実施の形態において回帰モデル102は、分類モデル101において遠近両用タイプ(累進屈折力レンズ)が適していると予測されたユーザについて、レンズの加入度数を回帰予測する。なお、分類モデル101及び回帰モデル102には、例えば決定木(分析木及び回帰木)の学習モデルが採用され得る。ただし分類モデル101及び回帰モデル102は、例えばSVM(Support Vector Machine)又はニューラルネットワーク等の学習モデルが採用されてもよい。
Further, in the present embodiment, the
仕様予測モデル12bの分類モデル101及び回帰モデル102の最初の学習処理(生成処理)では、例えば複数の店舗において過去に販売された眼鏡のレンズの仕様情報と、眼鏡を購入したユーザの属性情報、用途情報及び測定情報とを基に作成された学習用の教師データが用いられる。過去に販売された眼鏡に関する情報は、店舗の店員が有する知識及び経験等に基づいて選択されたレンズに関する情報であり、この情報を基に作成された教師データを用いて学習処理がなされることにより、仕様予測モデル12bは、店舗の店員の知識及び経験等を学習により継承した学習モデルとなり得る。教師データには、ユーザに対して選択されたレンズについて、その後の眼鏡の使用に問題が発生していなければ正のラベルを付し、問題が発生していれば負のラベルを付して、店員の選択の正否に関する情報を加えてもよい。
In the first learning process (generation process) of the
図5及び図6は、仕様予測モデル12bの分類モデル101の構成例を示す模式図である。例えば分類モデル101は、図5に示すように、ユーザの属性情報、用途情報及び測定情報の入力に対し、単焦点レンズ、遠近両用タイプ、中近重視遠近両用タイプ及び室内タイプ等のレンズの種類に対する適合度をそれぞれ出力する学習モデルとすることができる。分類モデル101の出力は、例えばレンズの種類毎に0.00から1.00までの小数値として出力され、最も大きな数値が出力されたレンズの種類がこのユーザに適したレンズの種類と推測される。また候補を複数挙げる場合には、この数値の順に第1候補、第2候補…とすることができる。
5 and 6 are schematic views showing a configuration example of the
また例えば分類モデル101は、図6に示すように、レンズの種類毎に複数の分類モデル101a〜101dが生成されてもよい。各分類モデル101a〜101dはそれぞれレンズの種類のいずれか1つについて、このレンズのユーザに対する適合度を0.00から1.00までの小数値として出力する。
Further, for example, in the
また図示は省略するが、回帰モデル102についても同様に、1つの学習モデルとして生成されてもよく、レンズの種類毎に別の学習モデルとして生成されてもよい。
Although not shown, the
図7は、仕様予測モデル12bの別の構成例を説明するための模式図である。図7に示す例では、仕様予測モデル12bは、複数のニューロンが相互に結合したニューラルネットワークの構造を有する。既存の技術であるため詳しい説明は省略するが、ニューロンは複数の入力に対して演算を行い、演算結果として1つの値を出力する素子である。ニューロンは、演算に用いられる重み付けの係数及び閾値等の情報を有している。ニューラルネットワークの学習モデルは、一又は複数のデータの入力を受け付ける入力層と、入力層にて受け付けられたデータに対して演算処理を行う中間層と、中間層の演算結果を集約して一又は複数の値を出力する出力層とを備えている。深層学習の学習処理は、予め与えられた多数の学習用データを用いて、ニューラルネットワークを構成する各ニューロンの係数及び閾値等に適切な値を設定する処理である。本例の仕様予測モデル12bは、ニューラルネットワークの学習モデルに対して教師データを用いた深層学習がなされた学習済のモデルであり、例えば勾配降下法、確率的勾配降下法又は誤差逆伝播法等の手法により学習がなされる。
FIG. 7 is a schematic diagram for explaining another configuration example of the
本例の仕様予測モデル12bは、ユーザの属性情報、用途情報及び測定情報が入力され、このユーザに適すると推測されるレンズの種類及び加入度数を出力する。なお仕様予測モデル12bは、レンズの種類と加入度数とを別に出力してもよく、レンズの種類と加入度数とを組にして出力してもよい。仕様予測モデル12bの学習処理は、ユーザの属性情報、用途情報及び測定情報と、レンズの種類及び加入度数とが対応付けられた教師データを用いて行われる。
The
また仕様予測モデル12bとしていずれの学習モデルの構成を採用する場合であっても、サーバ装置1は、本システムの稼働に伴ってユーザの属性情報、用途情報及び測定情報とレンズの種類及び加入度数の情報とを蓄積し、蓄積した情報を用いて仕様予測モデル12bの再学習処理を行うことができる。これにより、仕様予測モデル12bによる予測の精度を、システムの稼働に伴って高めていくことができる。
In addition, regardless of which learning model configuration is adopted as the
図8は、本実施の形態に係る店舗端末装置3の構成を示すブロック図である。本実施の形態に係る店舗端末装置3は、処理部31、記憶部(ストレージ)32、通信部(トランシーバ)33、表示部(ディスプレイ)34及び操作部35等を備えて構成されている。処理部31は、CPU又はMPU等の演算処理装置を用いて構成されている。処理部31は、記憶部32に記憶されたプログラム32aを読み出して実行することにより、ユーザの属性情報、用途情報及び測定情報を取得する処理、及び、ユーザに適した眼鏡のレンズの仕様情報を出力する処理等の種々の処理を行う。
FIG. 8 is a block diagram showing the configuration of the
記憶部32は、例えばハードディスク等の磁気記憶装置又はフラッシュメモリ等の不揮発性のメモリ素子を用いて構成されている。記憶部32は、処理部31が実行する各種のプログラム、及び、処理部31の処理に必要な各種のデータを記憶する。本実施の形態において記憶部32は、処理部31が実行するプログラム32aを記憶している。本実施の形態においてプログラム32aは遠隔のサーバ装置等により配信され、これを店舗端末装置3が通信にて取得し、記憶部32に記憶する。ただしプログラム32aは、例えば店舗端末装置3の製造段階において記憶部32に書き込まれてもよい。例えばプログラム32aは、メモリカード又は光ディスク等の記録媒体に記録されたプログラム32aを店舗端末装置3が読み出して記憶部32に記憶してもよい。例えばプログラム32aは、記録媒体に記録されたものを書込装置が読み出して店舗端末装置3の記憶部32に書き込んでもよい。プログラム32aは、ネットワークを介した配信の態様で提供されてもよく、記録媒体に記録された態様で提供されてもよい。
The
通信部33は、インターネット及び携帯電話通信網等を含むネットワークNを介して、種々の装置との間で通信を行う。本実施の形態において通信部33は、ネットワークNを介して、サーバ装置1、検査装置4及びタブレット型端末装置5等との間で通信を行う。通信部33は、処理部31から与えられたデータを他の装置へ送信すると共に、他の装置から受信したデータを処理部31へ与える。
The
表示部34は、液晶ディスプレイ等を用いて構成されており、処理部31の処理に基づいて種々の画像及び文字等を表示する。本実施の形態において表示部34は、サーバ装置1によるユーザに適した眼鏡のレンズの仕様情報の推測結果を表示するために用いられる。
The
操作部35は、店舗の店員等の操作を受け付け、受け付けた操作を処理部31へ通知する。例えば操作部35は、機械式のボタン又は表示部34の表面に設けられたタッチパネル等の入力デバイスにより店員等の操作を受け付ける。また例えば操作部35は、マウス及びキーボード等の入力デバイスであってよく、これらの入力デバイスは店舗端末装置3に対して取り外すことが可能な構成であってもよい。
The
また本実施の形態に係る店舗端末装置3は、記憶部32に記憶されたプログラム32aを処理部31が読み出して実行することにより、属性情報取得部31a、用途情報取得部31b、測定情報取得部31c、ユーザ情報送信部31d及び推測結果出力部31e等がソフトウェア的な機能部として処理部31に実現される。属性情報取得部31aは、通信部33にてタブレット型端末装置5との間で通信を行うことによって、ユーザがタブレット型端末装置5へ入力した年齢及び性別等の属性情報を取得する処理を行う。同様に、用途情報取得部31bは、通信部にてタブレット型端末装置5との間で通信を行うことによって、ユーザがタブレット型端末装置5へ入力した用途情報を取得する処理を行う。
Further, in the
測定情報取得部31cは、通信部33にて検査装置4との間で通信を行うことによって、検査装置4にて測定されたユーザの屈折誤差及び近見視力等の測定情報を取得する処理を行う。ユーザ情報送信部31dは、属性情報取得部31aが取得した属性情報、用途情報取得部31bが取得した属性情報及び測定情報取得部31cが取得した測定情報を対応付けて、ユーザ情報としてサーバ装置1へ送信する処理を行う。推測結果出力部31eは、ユーザ情報送信部31dが送信したユーザ情報に対してサーバ装置1が送信する、このユーザに適した眼鏡のレンズの仕様情報を取得し、取得した仕様情報を表示部34にて出力(表示)する処理を行う。
The measurement
図9は、本実施の形態に係る検査装置4の構成を説明するための模式図である。図示の検査装置4は、ユーザの眼の屈折特性(屈折誤差)を測定するための装置である。検査装置4は、処理部41、操作部42、測定用眼鏡43、基台46、光射出部47及び距離センサ48等を備えて構成されている。測定用眼鏡43は、入射する光を絞って光を通過させる第1ピンホール及び第2ピンホール(図示は省略する)が形成されたディスク44を眼鏡枠45にて支持した構成である。測定用眼鏡43は、測定対象者であるユーザに装着される。
FIG. 9 is a schematic diagram for explaining the configuration of the
光射出部47は、例えば処理部41に接続されたディスプレイであり、測定用眼鏡43の第1ピンホール及び第2ピンホールを通過する光が同時にユーザの眼に入射するように、第1の光及び第2の光を出射する。処理部41は、例えばコンピュータを用いて構成され、第1ピンホールを通過した第1の光及び第2ピンホールを通過した第2の光がユーザの眼の網膜上に到達する到達位置の情報から、眼の屈折特性(屈折誤差)を算出する処理を行う。処理部41には操作部42、光射出部47及び距離センサ48が接続されている。
The
操作部42は、例えばキーボード及びマウス等の入力装置を用いて構成され、ユーザが光射出部47の発光部分の配列方向又は位置ズレ等を変更する操作を受け付ける。ユーザは、測定用眼鏡43を通して見える光射出部47の発光部分の像が位置ズレしないよう、操作部42を利用して光射出部47の発光部分の位置ズレ量を変更する操作を行う。処理部41は、操作部42へのユーザの入力に応じて光射出部47による第1の光及び第2の光の出射位置を調整する。
The
基台46は、ユーザの眼が所定の位置に配置されるように、ユーザが顔を乗せるための台である。基台46に対してユーザが顔を乗せることによって、ユーザの眼の位置が測定に適した所定の位置となるように位置決めされる。距離センサ48は、光射出部47からディスク44までの距離を測定するセンサであり、例えばレーザ距離計等を用いて構成され得る。距離センサ48は、測定した距離を処理部41へ与える。
The
処理部41は、操作部42にて入力を受け付けたユーザによる位置ズレの調整量aと、距離センサ48が測定した光射出部47からディスク44までの距離dと、ディスク44に形成された第1ピンホール及び第2ピンホールの間の距離hとに基づき、以下の(1)式を用いてユーザの屈折力(屈折誤差)Kを算出する。
K = D×(h−a)/h …(1)
ただし、D=1000/d
The
K = D × (haa) / h… (1)
However, D = 1000 / d
また処理部41は、店舗端末装置3との通信を行うことが可能であり、算出したユーザの屈折力(屈折誤差)を店舗端末装置3へ送信する。なお、本例では検査装置4がユーザの屈折誤差を測定する構成について説明したが、これに限るものではない。検査装置4は、例えばユーザの近見視力を測定する装置であってもよく、これら以外の眼の特性を測定するものであってよい。また検査装置4は、例えば屈折誤差を測定する装置と近見視力を測定する装置とのように2つ以上の装置を備えて構成されるものであってもよく、1つの装置で屈折誤差及び近見視力等の複数種類の測定を行うことが可能な装置であってもよい。
Further, the
図10は、本実施の形態に係るタブレット型端末装置5の構成を示すブロック図である。本実施の形態に係るタブレット型端末装置5は、処理部51、記憶部(ストレージ)52、通信部(トランシーバ)53、表示部(ディスプレイ)54及び操作部55等を備えて構成されている。処理部51は、CPU又はMPU等の演算処理装置を用いて構成されている。処理部51は、記憶部52に記憶されたプログラム52aを読み出して実行することにより、ユーザの属性情報及び用途情報等の入力を受け付ける処理、及び、入力を受け付けた情報を店舗端末装置3へ送信する処理等の種々の処理を行う。
FIG. 10 is a block diagram showing the configuration of the tablet-
記憶部52は、例えばハードディスク等の磁気記憶装置又はフラッシュメモリ等の不揮発性のメモリ素子を用いて構成されている。記憶部52は、処理部51が実行する各種のプログラム、及び、処理部51の処理に必要な各種のデータを記憶する。本実施の形態において記憶部52は、処理部51が実行するプログラム52aを記憶している。本実施の形態においてプログラム52aは遠隔のサーバ装置等により配信され、これをタブレット型端末装置5が通信にて取得し、記憶部52に記憶する。ただしプログラム52aは、例えばタブレット型端末装置5の製造段階において記憶部52に書き込まれてもよい。例えばプログラム52aは、メモリカード又は光ディスク等の記録媒体に記録されたプログラム52aをタブレット型端末装置5が読み出して記憶部52に記憶してもよい。例えばプログラム52aは、記録媒体に記録されたものを書込装置が読み出してタブレット型端末装置5の記憶部52に書き込んでもよい。プログラム52aは、ネットワークを介した配信の態様で提供されてもよく、記録媒体に記録された態様で提供されてもよい。
The
通信部53は、インターネット及び携帯電話通信網等を含むネットワークNを介して、種々の装置との間で通信を行う。本実施の形態において通信部53は、ネットワークNを介して、店舗端末装置3との間で通信を行う。通信部53は、処理部51から与えられたデータを他の装置へ送信すると共に、他の装置から受信したデータを処理部51へ与える。
The
表示部54は、液晶ディスプレイ等を用いて構成されており、処理部51の処理に基づいて種々の画像及び文字等を表示する。本実施の形態において表示部54は、ユーザの属性情報及び用途情報等の入力を受け付けるための画面を表示するために用いられる。
The
操作部55は、ユーザの操作を受け付け、受け付けた操作を処理部51へ通知する。例えば操作部55は、機械式のボタン又は表示部54の表面に設けられたタッチパネル等の入力デバイスによりユーザの操作を受け付ける。また例えば操作部55は、マウス及びキーボード等の入力デバイスであってよく、これらの入力デバイスはタブレット型端末装置5に対して取り外すことが可能な構成であってもよい。
The
また本実施の形態に係るタブレット型端末装置5は、記憶部52に記憶されたプログラム52aを処理部51が読み出して実行することにより、表示処理部51a、入力受付部51b及び情報送信部51c等がソフトウェア的な機能部として処理部51に実現される。表示処理部51aは、ユーザから属性情報及び用途情報の入力を受け付けるための入力画面を表示部54に表示する処理を行う。入力受付部51bは、表示部54に入力画面が表示されている際に操作部55に対してなされた操作に基づいて、ユーザによる属性情報及び用途情報の入力を受け付ける処理を行う。情報送信部51cは、入力受付部51bが入力を受け付けたユーザの属性情報及び用途情報を通信部53にて店舗端末装置3へ送信する処理を行う。
Further, in the tablet-
<眼鏡レンズ選択支援処理>
眼鏡を購入するために店舗を訪れたユーザは、まずタブレット型端末装置5にて自身の年齢及び性別等の属性情報と、購入しようとする眼鏡の使用目的及び使用環境等の用途情報とを入力する。このときにタブレット型端末装置5は、表示部54に属性情報及び用途情報の入力受付画面を表示する。図11は、タブレット型端末装置5が表示する属性情報及び用途情報の入力受付画面の一例を示す模式図である。図示の入力受付画面の上部には、「下記の質問にお答えください」のメッセージの下方に、氏名の入力を受け付ける入力ボックスと、年齢の入力を受け付ける入力ボックスと、性別として男性又は女性のいずれかの選択を受け付けるラジオボタン(オプションボタン)とが設けられている。更にその下方には、「これまで眼鏡をお使いでしたか?」のメッセージと共に眼鏡の使用経験の有無の選択を受け付けるラジオボタンと、「累進屈折力レンズをお使いの経験は?」のメッセージと共に累進屈折力レンズの使用経験の有無の選択を受け付けるラジオボタンとが設けられている。タブレット型端末装置5は、これら入力受付画面の上部に設けられた入力ボックス及びラジオボタンにより、ユーザの属性情報の入力を受け付ける。
<Glasses lens selection support processing>
A user who visits a store to purchase eyeglasses first inputs attribute information such as his / her age and gender and usage information such as the purpose of use and environment of use of the eyeglasses to be purchased on the
入力受付画面の下部には、ユーザによる眼鏡の使い方に関する選択を受け付けるためのラジオボタンと、眼鏡を自動車の運転に使うか否かの選択を受け付けるラジオボタンとが設けられている。眼鏡の使い方の受け付けは、「どのような使い方を重視しますか?」のメッセージの下方に設けられた、「外出時に遠くがよく見える」、「パソコン作業や室内でよく見える」及び「書籍やスマホ画面がよく見える」の3つの選択肢から選択を受け付ける。眼鏡を自動車の運転に使うか否かの受け付けは、「車の運転にも使う眼鏡ですか?」のメッセージと共に設けられた「はい」又は「いいえ」の選択肢から選択を受け付ける。タブレット型端末装置5は、これら入力受付画面の株に設けられたラジオボタンにより、ユーザの用途情報の入力を受け付ける。
At the bottom of the input reception screen, a radio button for accepting a user's choice regarding how to use the glasses and a radio button for accepting a choice as to whether or not to use the glasses for driving a car are provided. Acceptance of how to use eyeglasses is provided below the message "What kind of usage do you value?", "You can see far away when you go out", "You can see well when working on a computer or indoors" and "Books and books" Accepts selection from the three options of "I can see the smartphone screen well". When accepting whether or not to use eyeglasses for driving a car, a selection is accepted from the "Yes" or "No" options provided with the message "Are the glasses also used for driving a car?". The tablet-
タブレット型端末装置5は、表示部54に図11の入力受付画面を表示し、操作部55に対する操作に基づいて各項目への入力を反映する。タブレット型端末装置5は、入力受付画面の最下部に設けられた完了ボタンに対する操作に応じて、入力受付画面の各項目についてのユーザの最終的な情報の入力を受け付けて、ユーザの属性情報及び用途情報を店舗端末装置3へ送信する。
The tablet-
図12は、本実施の形態に係るタブレット型端末装置5が行う処理の手順を示すフローチャートである。本実施の形態に係るタブレット型端末装置5の処理部51の表示処理部51aは、図11に示した入力受付画面を表示部54に表示する(ステップS1)。処理部51の入力受付部51bは、入力受付画面の完了ボタンに対する操作がなされたか否かに応じて、ユーザによる情報の入力が完了したか否かを判定する(ステップS2)。入力が完了していない場合(S2:NO)、処理部51は、ステップS1へ処理を戻し、入力受付画面の表示を継続する。
FIG. 12 is a flowchart showing a procedure of processing performed by the tablet-
ユーザによる情報の入力が完了した場合(S2:YES)、入力受付部51bは、入力受付画面の各項目に入力された情報を取得する(ステップS3)。処理部51の情報送信部51cは、ステップS3にて受け付けた情報を、ユーザの属性情報及び用途情報として店舗端末装置3へ送信し(ステップS4)、処理を終了する。
When the input of information by the user is completed (S2: YES), the
タブレット型端末装置5にて属性情報及び用途情報の入力を終えたユーザは、検査装置4による屈折誤差及び近見視力等の測定を行う。検査装置4による検査は店舗の店員の主導で行われてもよく、ユーザが検査装置4を自ら操作することで行われてもよい。例えばユーザは、図9に示した構成の検査装置4にて屈折誤差の測定を行う。ユーザは、検査装置4の測定用眼鏡43を装着して基台46に顔を載せ、測定用眼鏡43のディスク44に形成された第1ピンホール及び第2ピンホールから光射出部47を見る。ユーザは、光射出部47から射出される第1の光及び第2の光に基づく発光像の位置ズレを操作部42にて調整する操作を行う。検査装置4は、ユーザによる調整量に基づいて屈折誤差を算出し、測定結果をディスプレイ等に表示する。
The user who has completed the input of the attribute information and the usage information in the tablet
図13は、検査装置4が表示する測定情報表示画面の一例を示す模式図である。図示の測定情報表示画面には、最上部に「あなたの屈折誤差測定結果です」のメッセージが表示され、その下方に右眼及び左眼の屈折誤差の測定結果が表示される。本例では、屈折誤差の測定結果として、例えばユーザの球面度数S、円柱(乱視)度数C、及び、乱視軸AX等の測定結果を右眼及び左眼のそれぞれについて示している。
FIG. 13 is a schematic view showing an example of the measurement information display screen displayed by the
検査装置4は、ユーザの屈折誤差の測定を終えた後、ディスプレイ等に図13の測定情報表示画面を表示する。検査装置4は、測定情報表示画面の最下部に設けられたOKボタンに対する操作を受け付けた場合に、この測定結果をユーザの測定情報として店舗端末装置3へ送信する。
After finishing the measurement of the refraction error of the user, the
図14は、本実施の形態に係る店舗端末装置3が行う処理の手順を示すフローチャートである。本実施の形態に係る店舗端末装置3の処理部31の属性情報取得部31a及び用途情報取得部31bは、タブレット型端末装置5から送信される属性情報及び用途情報を取得する(ステップS11)。次いで処理部31の測定情報取得部31cは、検査装置4から送信される測定情報を取得する(ステップS12)。処理部31のユーザ情報送信部31dは、ステップS11にて取得した属性情報及び用途情報と、ステップS12にて取得した測定情報とを、サーバ装置1へ送信する(ステップS13)。
FIG. 14 is a flowchart showing a procedure of processing performed by the
処理部31の推測結果出力部31eは、ステップS13の情報送信に対してサーバ装置1が送信する眼鏡の仕様情報を受信したか否かを判定する(ステップS14)。仕様情報を受信していない場合(S14:NO)、推測結果出力部31eは、サーバ装置1から仕様情報を受信するまで待機する。サーバ装置1から眼鏡の仕様情報を受信した場合(S14:YES)、推測結果出力部31eは、受信した仕様情報をユーザに適した眼鏡のレンズの候補として表示部34に表示する(ステップS15)。
The estimation
その後、処理部31は、候補として表示したレンズの仕様情報について、当該候補を購入する眼鏡の仕様とする選択がユーザによりなされたか否かを判定する(ステップS16)。表示した候補のレンズがユーザに選択されなかった場合(S16:NO)、処理部31は、次の候補となるレンズの仕様情報を取得して(ステップS17)、ステップS15へ処理を戻し、次の候補についての仕様情報を表示する。表示した候補のレンズがユーザにより選択された場合(S16:YES)、処理部31は処理を終了する。なお、ステップS14にてサーバ装置1から受信した仕様情報に、複数の候補についてのレンズの仕様が含まれている場合、処理部31は、受信した仕様情報から次の候補の仕様を取得することができる。これに対して、サーバ装置1から受信した仕様情報に複数の候補が含まれていない場合、処理部31は、次の候補となるレンズの仕様情報の送信をサーバ装置1へ要求し、この要求に応じてサーバ装置1が次の候補の仕様情報を店舗端末装置3へ送信する。
After that, the
図15は、本実施の形態に係るサーバ装置1が行う仕様推測処理の手順を示すフローチャートである。本実施の形態に係るサーバ装置1の処理部11のユーザ情報取得部11aは、店舗端末装置3が送信するユーザの属性情報、用途情報及び測定情報を取得する(ステップS21)。ユーザ情報取得部11aは、ステップS21にて取得した情報を、記憶部12のユーザ情報DB12cに記憶する(ステップS22)。
FIG. 15 is a flowchart showing a procedure of specification estimation processing performed by the
処理部11のレンズ仕様推測部11bは、ステップS21にて取得したユーザの属性情報、用途情報及び測定情報を仕様予測モデル12bへ入力する(ステップS23)。レンズ仕様推測部11bは、ステップS23の情報入力に応じて仕様予測モデル12bが出力する仕様情報(レンズの種類及び加入度数)を取得する(ステップS24)。レンズ仕様推測部11bは、ステップS24にて取得した仕様情報を、記憶部12のユーザ情報DB12cに推測仕様情報として記憶する(ステップS25)。処理部11の仕様情報送信部11cは、ステップS24にて取得したレンズの仕様情報を店舗端末装置3へ送信し(ステップS26)、処理を終了する。
The lens
図16は、店舗端末装置3が表示する仕様情報表示画面の一例を示す模式図である。図示の仕様情報表示画面には、最上部に「あなたにおすすめのレンズは」のメッセージが表示され、その下方に単焦点レンズ、遠近両用タイプ、中近重視遠近両用タイプ及び室内(中近)タイプの4つのレンズ種類についてその形状を略示する画像が横方向に並べて表示されている。仕様情報表示画面では、サーバ装置1からの仕様情報に応じて1つのレンズ種類が選択状態で示される。本図では、レンズ種類及びその説明文を太枠で囲むことで選択状態を表現している。
FIG. 16 is a schematic view showing an example of a specification information display screen displayed by the
また仕様情報表示画面では、遠近両用タイプ(累進屈折力レンズ)が選択されている場合、サーバ装置1からの仕様情報に応じて加入度数が示される。図示の例では、遠近両用タイプの加入度数として1.50Dの値が示されている。また仕様情報表示画面では、選択されたレンズ種類に関する簡単な説明文が表示される。図示の例では、遠近両用タイプの説明文として「遠方から手元まで広範囲に対応します、屋外での活動にもお勧めします」の文章が表示されている。
Further, on the specification information display screen, when the bifocal type (progressive power lens) is selected, the addition power is shown according to the specification information from the
店舗端末装置3は、サーバ装置1から受信したレンズの仕様情報に基づいて、ユーザに適すると推測されたレンズ種類を選択した仕様情報表示画面を表示部54に表示する。また店舗端末装置3は、仕様情報にて遠近両用タイプ(累進屈折力レンズ)が適すると推測されている場合、仕様情報に含まれる加入度数の推測値を仕様情報表示画面に示す。
The
また仕様情報表示画面の最下部には、「お勧めのタイプのレンズを選択する」のラベルが付されたボタンと、「別のタイプのレンズを選択する」のラベルが付されたボタンとが設けられている。店舗端末装置3は、「お勧めのタイプのレンズを選択する」のボタンに対する操作を受け付けた場合、仕様情報表示画面にて示されたレンズの種類及び加入度数のレンズがユーザに選択されたものとして後続の処理を行う。後続の処理としては、例えば店舗の店員へユーザの選択結果を通知して、試着用の眼鏡の提供を促す、又は、選択されたレンズの眼鏡についての見積金額を表示する等の処理が行われ得る。
At the bottom of the specification information display screen, there is a button labeled "Select a recommended type of lens" and a button labeled "Select another type of lens". It is provided. When the
また店舗端末装置3は、「別のタイプのレンズを選択する」のボタンに対する操作を受け付けた場合、例えば第2候補のレンズの仕様情報を示す仕様情報表示画面の表示を行う。サーバ装置1は仕様予測モデル12bの出力する数値に基づいて複数のレンズの仕様の候補を仕様情報に含めてもよく、この場合には店舗端末装置3は、サーバ装置1から受信した仕様情報に含まれる第2候補の情報を表示する。又は、店舗端末装置3はサーバ装置1に対して第2候補のレンズの仕様情報を要求し、この要求に応じてサーバ装置1が第2候補となるレンズの仕様を推測して仕様情報を店舗端末装置3へ送信してもよい。
Further, when the
例えばサーバ装置1は、仕様予測モデル12bが各レンズの種類についてユーザへの適合度又は推奨度等の数値を出力する場合に、この数値が高いものから順に第1候補、第2候補…とする。サーバ装置1は、例えば上位3位までのように所定の順位範囲ものについて仕様情報に複数の候補の情報を含めて送信するか、又は、適合度の数値が所定の閾値を超えるものについて仕様情報に複数の候補の情報を含めて送信する。店舗端末装置3は、サーバ装置1から受信した仕様情報に複数の候補の情報が含まれている場合、最も順位の高い候補から順に仕様情報表示画面にてレンズの仕様をユーザに提示し、ユーザがこのレンズを選択しなかった場合には次の候補のレンズの仕様を同様の仕様情報表示画面にてユーザに提示する。なお店舗端末装置3は、例えば仕様情報表示画面において複数の候補の仕様情報をユーザに提示してもよく、この場合には複数の候補を順位付けて表示してもよい。
For example, when the
ユーザは、店舗端末装置3の仕様情報表示画面にて勧められた仕様に基づいてレンズを選択し、例えばこのレンズを有する眼鏡の試着等を行うことができる。ユーザは、試着した眼鏡に満足した場合にはこの眼鏡の購入を決定し、試着した眼鏡に満足しない場合には第2候補、第3候補…とレンズの仕様を変えて眼鏡の試着を繰り返すことができる。
The user can select a lens based on the specifications recommended on the specification information display screen of the
<学習処理>
図17は、本実施の形態に係るサーバ装置1が行う仕様予測モデル12bの生成処理の手順を示すフローチャートである。本実施の形態に係るサーバ装置1の処理部11の学習処理部11dは、本システムの設計者等により予め作成されたユーザの属性情報、用途情報及び測定情報と眼鏡のレンズの仕様情報とが対応付けられた教師データを取得する(ステップS31)。学習処理部11dは、ステップS31にて取得した教師データを用いて、予め用意された学習モデルに対する教師ありの学習処理を行う(ステップS32)。学習処理部11dは、ステップS32の学習処理により学習がなされた学習済の学習モデルを、仕様予測モデル12bとして記憶部12に記憶し(ステップS33)、生成処理を終了する。
<Learning process>
FIG. 17 is a flowchart showing a procedure for generating the
図18は、本実施の形態に係るサーバ装置1が行う仕様予測モデル12bの再学習処理の手順を示すフローチャートである。本実施の形態に係るサーバ装置1の処理部11は、ユーザが最終的に購入した眼鏡のレンズの仕様情報を店舗端末装置3から取得して、取得した情報を購入仕様情報として記憶部12のユーザ情報DB12cに記憶する(ステップS41)。また処理部11は、眼鏡を購入したユーザからの問い合わせ、返品、交換又はクレーム等の有無についての追跡情報を店舗端末装置3から取得して、取得した追跡情報を記憶部12のユーザ情報DB12cに記憶する(ステップS42)。処理部11は、ユーザ情報DB12cに再学習に十分の量の情報の蓄積が完了したか否かを判定する(ステップS43)。十分な情報の蓄積が完了していない場合(S43:NO)、処理部11は、ステップS41へ戻り、情報の蓄積を継続して行う。
FIG. 18 is a flowchart showing the procedure of the re-learning process of the
十分な情報の蓄積が完了した場合(S43:YES)、処理部11の学習処理部11dは、ユーザ情報DB12cに記憶された情報に基づいて再学習のための教師データを作成する(ステップS44)。このときに学習処理部11dは、例えばユーザ情報DB12cに記憶されたユーザの属性情報、用途情報及び測定情報と、購入仕様情報とを対応付けて教師データを作成することができる。また例えば学習処理部11dは、推測仕様情報と購入仕様情報とが異なる場合には推測仕様情報には、この推測仕様情報に負のラベルを付して教師データとして用いてもよい。また例えば学習処理部11dは、追跡情報に基づいて返品又は交換等がなされた購入仕様情報に負のラベルを付して教師データとして用いてもよい。
When the accumulation of sufficient information is completed (S43: YES), the
学習処理部11dは、記憶部12に記憶された仕様予測モデル12bを読み出す(ステップS45)。学習処理部11dは、ステップS44にて作成した教師データを用いて、ステップS45にて読み出した仕様予測モデル12bの再学習処理を行う(ステップS46)。学習処理部11dは、ステップS46にて再学習を行った仕様予測モデル12bを記憶部12に記憶することで、仕様予測モデル12bを更新し(ステップS47)、処理を終了する。
The
<まとめ>
以上の構成の本実施の形態に係る眼鏡レンズ選択支援システムでは、サーバ装置1がユーザの属性情報、用途情報及び測定情報を店舗端末装置3から取得し、取得したこれらの情報を仕様予測モデル12bへ入力し、仕様予測モデル12bが出力する眼鏡のレンズの仕様情報を取得することによって、ユーザに適した眼鏡のレンズの仕様を予測する。仕様予測モデル12bは、ユーザの属性情報、用途情報及び測定情報と眼鏡のレンズの仕様情報とを対応付けた教師データを用いて予め学習がなされて生成された学習モデルである。これにより眼鏡レンズ選択支援システムは、ユーザに適した眼鏡のレンズの仕様を推測してユーザに提示することができ、ユーザによる眼鏡のレンズの選択を支援することが期待できる。
<Summary>
In the spectacle lens selection support system according to the present embodiment having the above configuration, the
また本実施の形態に係る眼鏡レンズ選択支援システムでは、仕様予測モデル12bへ入力する属性情報にはユーザの年齢の情報を含み、測定情報には目の屈折誤差の測定結果を含む。ユーザの年齢は老視の原因となり得るものであり、またユーザの視力と屈折誤差との間には相関があることが従来の研究により明かされており、ユーザの年齢及び屈折誤差を入力情報とすることにより、眼鏡レンズ選択支援システムは、仕様予測モデル12bを用いて精度のよいレンズの仕様の推測を実現することが期待できる。
Further, in the spectacle lens selection support system according to the present embodiment, the attribute information input to the
また本実施の形態に係る眼鏡レンズ選択支援システムでは、ユーザの屈折誤差を測定することが可能な検査装置4から屈折誤差の測定結果を店舗端末装置3が取得し、店舗端末装置3から屈折誤差の測定情報をサーバ装置1が取得する。これにより、サーバ装置1はユーザの屈折誤差の測定情報を容易に取得してレンズの仕様の推測に利用することができる。
Further, in the spectacle lens selection support system according to the present embodiment, the
また本実施の形態に係る眼鏡レンズ選択支援システムでは、仕様予測モデル12bが出力する仕様情報に眼鏡のレンズの種類及びレンズの加入度数の情報を含む。これによりユーザは、眼鏡のレンズの種類及び加入度数について自身に適した仕様のものを知ることができ、眼鏡のレンズの選択を容易に行うことができる。
Further, in the spectacle lens selection support system according to the present embodiment, the specification information output by the
また本実施の形態に係る眼鏡レンズ選択支援システムでは、ユーザの属性情報、用途情報及び測定情報と、仕様予測モデル12bが予測した予測仕様情報と、ユーザが最終的に選択して購入した購入仕様情報と、ユーザが購入した眼鏡に関する追跡情報とをサーバ装置1がユーザ情報DB12cに記憶して蓄積し、蓄積されたこれらの情報を基に教師データを生成して仕様予測モデル12bの再学習処理を行う。これにより眼鏡レンズ選択支援システムは、システムの稼働により蓄積された情報に基づいて仕様予測モデル12bを更新し、ユーザに適した眼鏡のレンズの推測の精度を向上することが期待できる。
Further, in the spectacle lens selection support system according to the present embodiment, the user's attribute information, application information and measurement information, the prediction specification information predicted by the
なお本実施の形態においては、眼鏡レンズ選択支援システムがサーバ装置1、店舗端末装置3、検査装置4及びタブレット型端末装置5等の複数の装置を含んで構成されるものとしたが、これに限るものではない。例えば本実施の形態におけるサーバ装置1、店舗端末装置3、検査装置4及びタブレット型端末装置5が行う処理を1つの装置が行う構成であってもよい。本実施の形態において示した装置構成、及び、各装置の役割分担は適宜に変更可能である。また図9に示した屈折誤差を測定する検査装置4の構成は一例であって、これに限るものではなく、検査装置4はどのような測定を行うものであってもよい。また図11、図13及び図16に示した画面は一例であって、これに限るものではない。
In the present embodiment, the spectacle lens selection support system is configured to include a plurality of devices such as a
また本実施の形態においては、図16に示した仕様情報表示画面の表示処理を店舗端末装置3が行う構成としたが、これに限るものではなく、仕様情報表示画面の表示処理をサーバ装置1が行ってもよい。即ち、サーバ装置1は仕様予測モデル12bが出力した仕様情報に基づいて図16に示した仕様情報表示画面を表示するための画像データ等を生成して店舗端末装置3へ送信し、このデータ等を受信した店舗端末装置3が受信したデータに基づいて表示部34に仕様情報表示画面を表示してもよい。
Further, in the present embodiment, the
今回開示された実施形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed this time should be considered as exemplary in all respects and not restrictive. The scope of the present invention is indicated by the scope of claims, not the above-mentioned meaning, and is intended to include all modifications within the meaning and scope equivalent to the scope of claims.
1 サーバ装置
3 店舗端末装置
4 検査装置
5 タブレット型端末装置
11 処理部
11a ユーザ情報取得部
11b レンズ仕様推測部(仕様情報取得部)
11c 仕様情報送信部
11d 学習処理部
12 記憶部
12a サーバプログラム(コンピュータプログラム)
12b 仕様予測モデル(学習モデル)
12c ユーザ情報DB
13 通信部
31 処理部
31a 属性情報取得部
31b 用途情報取得部
31c 測定情報取得部
31d ユーザ情報送信部
31e 推測結果出力部
32 記憶部
32a プログラム(コンピュータプログラム)
33 通信部
34 表示部
35 操作部
41 処理部
42 操作部
43 測定用眼鏡
44 ディスク
45 眼鏡枠
46 基台
47 光射出部
48 距離センサ
51 処理部
51a 表示処理部
51b 入力受付部
51c 情報送信部
52 記憶部
52a プログラム
1
11c Specification
12b Specification prediction model (learning model)
12c User information DB
13
33
Claims (19)
取得した前記教師データを用いて、前記属性情報、前記測定情報及び前記用途情報を入力した場合に前記仕様情報を出力する学習モデルを生成する、
学習モデルの生成方法。 Acquire teacher data in which the user's attribute information, the measurement information related to the user's eye, the usage information of the spectacles by the user, and the specification information of the spectacle lens are associated with each other.
Using the acquired teacher data, a learning model that outputs the specification information when the attribute information, the measurement information, and the usage information are input is generated.
How to generate a learning model.
前記測定情報には、前記ユーザの眼の屈折誤差の測定結果を含む、
請求項1に記載の学習モデルの生成方法。 The attribute information includes the age of the user.
The measurement information includes the measurement result of the refraction error of the user's eye.
The method for generating a learning model according to claim 1.
請求項1又は請求項2に記載の学習モデルの生成方法。 The specification information includes the type of spectacle lens.
The method for generating a learning model according to claim 1 or 2.
請求項1から請求項3までのいずれか1つに記載の学習モデルの生成方法。 The specification information includes the addition power of the spectacle lens.
The method for generating a learning model according to any one of claims 1 to 3.
取得した前記教師データを用いて、前記学習モデルを再生成する、
請求項1から請求項4までのいずれか1つに記載の学習モデルの生成方法。 The teacher data in which the attribute information, the measurement information, and the usage information of the user input to the generated learning model are associated with the tracking information related to the lens selected by the user is acquired.
Using the acquired teacher data, the learning model is regenerated.
The method for generating a learning model according to any one of claims 1 to 4.
ユーザの属性情報、前記ユーザの眼に係る測定情報及び前記ユーザによる眼鏡の用途情報を取得し、
前記属性情報、前記測定情報及び前記用途情報を入力した場合に眼鏡のレンズの仕様情報を出力する学習モデルに対し、取得した前記属性情報、前記測定情報及び前記用途情報を入力し、
前記学習モデルが出力する前記仕様情報を取得する
処理を実行させる、コンピュータプログラム。 On the computer
Acquire user attribute information, measurement information related to the user's eyes, and usage information of eyeglasses by the user.
The acquired attribute information, the measurement information, and the usage information are input to the learning model that outputs the specification information of the lens of the spectacles when the attribute information, the measurement information, and the usage information are input.
A computer program that executes a process of acquiring the specification information output by the learning model.
前記測定情報には、前記ユーザの眼の屈折誤差の測定結果を含む、
請求項6に記載のコンピュータプログラム。 The attribute information includes the age of the user.
The measurement information includes the measurement result of the refraction error of the user's eye.
The computer program according to claim 6.
請求項7に記載のコンピュータプログラム。 Obtaining the measurement result from a refraction error measuring device that measures the refraction error of the user's eye.
The computer program according to claim 7.
請求項6から請求項8までのいずれか1つに記載のコンピュータプログラム。 The specification information includes the type of spectacle lens.
The computer program according to any one of claims 6 to 8.
請求項6から請求項9までのいずれか1つに記載のコンピュータプログラム。 The specification information includes the addition power of the spectacle lens.
The computer program according to any one of claims 6 to 9.
請求項6から請求項10までのいずれか1つに記載のコンピュータプログラム。 The attribute information, the measurement information, and the usage information input to the learning model, the specification information output by the learning model, and the information related to the lens selected by the user are stored in a database in association with each other.
The computer program according to any one of claims 6 to 10.
前記仕様を拒否する選択を受け付けた場合に、別の仕様を提示する画面を表示する、請求項12又は請求項13に記載のコンピュータプログラム。 Accepting the selection of approval or disapproval regarding the specifications of the glasses presented on the screen,
The computer program according to claim 12 or 13, which displays a screen for presenting another specification when the option of rejecting the specification is accepted.
ユーザの属性情報、前記ユーザの眼に係る測定情報及び前記ユーザによる眼鏡の用途情報を取得し、
前記属性情報、前記測定情報及び前記用途情報を入力した場合に眼鏡のレンズの仕様情報を出力する学習モデルに対し、取得した前記属性情報、前記測定情報及び前記用途情報が入力された場合に前記学習モデルが出力する前記仕様情報を取得し、
取得した前記仕様情報に基づき、前記ユーザに眼鏡の仕様を提示する画面を表示する、
処理を実行させる、コンピュータプログラム。 On the computer
Acquire user attribute information, measurement information related to the user's eyes, and usage information of eyeglasses by the user.
When the acquired attribute information, the measurement information, and the usage information are input to the learning model that outputs the specification information of the lens of the spectacle when the attribute information, the measurement information, and the usage information are input, the said Acquire the specification information output by the learning model and
Based on the acquired specification information, a screen for presenting the specifications of the glasses to the user is displayed.
A computer program that executes processing.
前記仕様を拒否する選択を受け付けた場合に、別の仕様を提示する画面を表示する、請求項15又は請求項16に記載のコンピュータプログラム。 Accepting the selection of approval or disapproval regarding the specifications of the glasses presented on the screen,
The computer program according to claim 15 or 16, which displays a screen for presenting another specification when the option of rejecting the specification is accepted.
前記属性情報、前記測定情報及び前記用途情報を入力した場合に眼鏡のレンズの仕様情報を出力する学習モデルに対し、取得した前記属性情報、前記測定情報及び前記用途情報を入力し、
前記学習モデルが出力する前記仕様情報を取得する、
眼鏡レンズ選択支援方法。 Acquire user attribute information, measurement information related to the user's eyes, and usage information of eyeglasses by the user.
The acquired attribute information, the measurement information, and the usage information are input to the learning model that outputs the specification information of the lens of the spectacles when the attribute information, the measurement information, and the usage information are input.
Acquire the specification information output by the learning model.
Eyeglass lens selection support method.
前記属性情報、前記測定情報及び前記用途情報を取得するユーザ情報取得部と、
前記ユーザ情報取得部が取得した前記属性情報、前記測定情報及び前記用途情報を前記学習モデルへ入力し、前記学習モデルが出力する前記仕様情報を取得する仕様情報取得部と
を備える、眼鏡レンズ選択支援システム。 A storage unit that stores a learning model that outputs the specification information of the spectacle lens when the user's attribute information, the measurement information related to the user's eye, and the usage information of the spectacles by the user are input.
A user information acquisition unit that acquires the attribute information, the measurement information, and the usage information, and
A spectacle lens selection including a specification information acquisition unit that inputs the attribute information, the measurement information, and the usage information acquired by the user information acquisition unit into the learning model and acquires the specification information output by the learning model. Support system.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011001369.6A CN112578575B (en) | 2019-09-30 | 2020-09-22 | Learning model generation method, recording medium, eyeglass lens selection support method, and eyeglass lens selection support system |
EP20197359.1A EP3798944A1 (en) | 2019-09-30 | 2020-09-22 | Learning model generation method, computer program, eyeglass lens selection support method, and eyeglass lens selection support system |
US17/030,072 US20210097412A1 (en) | 2019-09-30 | 2020-09-23 | Learning model generation method, recording medium, eyeglass lens selection support method, and eyeglass lens selection support system |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962907882P | 2019-09-30 | 2019-09-30 | |
US62/907,882 | 2019-09-30 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021056985A true JP2021056985A (en) | 2021-04-08 |
Family
ID=75272722
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019237429A Pending JP2021056985A (en) | 2019-09-30 | 2019-12-26 | Method for generating learning model, computer program, spectacle lens selection support method and spectacle lens selection support system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021056985A (en) |
-
2019
- 2019-12-26 JP JP2019237429A patent/JP2021056985A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114730101B (en) | System and method for adjusting inventory eyeglass frames using 3D scanning of facial features | |
CN100462048C (en) | Spectacle and contact lens selecting system and method thereof | |
JP5648299B2 (en) | Eyeglass sales system, lens company terminal, frame company terminal, eyeglass sales method, and eyeglass sales program | |
JP4996039B2 (en) | Programmable device and computer network for prescribing and / or preparing ophthalmic lenses | |
JP2022078168A (en) | Head mounted display system configured to exchange biometric information | |
US20210271117A1 (en) | Method for determining an ophthalmic equipment and system associated | |
US10146064B2 (en) | Apparatus and method for ascertaining a type of spectacle lens and apparatus and method for determining a refractive power distribution of a progressive spectacle lens | |
CN106461966A (en) | Systems and methods for providing high resolution corrective ophthalmic lenses | |
US20240197167A1 (en) | Systems and methods for using machine learning to predict contact lens compatibility | |
JP2021056985A (en) | Method for generating learning model, computer program, spectacle lens selection support method and spectacle lens selection support system | |
EP3798944A1 (en) | Learning model generation method, computer program, eyeglass lens selection support method, and eyeglass lens selection support system | |
JP2894500B2 (en) | Progressive multifocal lens selection table | |
US20240069366A1 (en) | Method and apparatus for determining a fit of a visual equipment | |
CN114830162A (en) | Apparatus, method, and computer-readable storage medium for contextualized device recommendation | |
Gordon et al. | Accuracy and repeatability of internet-ordered spectacle lenses | |
EP4220282A1 (en) | Determining a lens shape for producing an optical lens for an eye of a person | |
US20240115126A1 (en) | A device and method for automatically evaluating visual equipment | |
TWI223764B (en) | System for determining level of magnification of eyeglasses and contact lenses and method thereof | |
Harvey | Nicer kids, better future | |
Schnider et al. | The short journey to contact lens success | |
JPH04272741A (en) | Device and method for selecting spectacles lens |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221118 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231121 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240208 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240528 |