WO2016143862A1 - 眼鏡装用パラメータ測定装置、眼鏡装用パラメータ測定プログラムおよび位置指定方法 - Google Patents

眼鏡装用パラメータ測定装置、眼鏡装用パラメータ測定プログラムおよび位置指定方法 Download PDF

Info

Publication number
WO2016143862A1
WO2016143862A1 PCT/JP2016/057609 JP2016057609W WO2016143862A1 WO 2016143862 A1 WO2016143862 A1 WO 2016143862A1 JP 2016057609 W JP2016057609 W JP 2016057609W WO 2016143862 A1 WO2016143862 A1 WO 2016143862A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
wearing
spectacle
subject
frame
Prior art date
Application number
PCT/JP2016/057609
Other languages
English (en)
French (fr)
Inventor
信幸 田所
直也 廣野
正明 松島
Original Assignee
ホヤ レンズ タイランド リミテッド
信幸 田所
直也 廣野
正明 松島
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=56879624&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=WO2016143862(A1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by ホヤ レンズ タイランド リミテッド, 信幸 田所, 直也 廣野, 正明 松島 filed Critical ホヤ レンズ タイランド リミテッド
Priority to CN201680011124.7A priority Critical patent/CN107250718B/zh
Priority to KR1020177022991A priority patent/KR101960211B1/ko
Priority to EP16761828.9A priority patent/EP3270099B2/en
Priority to JP2017505401A priority patent/JP6450450B2/ja
Priority to US15/547,898 priority patent/US10156740B2/en
Publication of WO2016143862A1 publication Critical patent/WO2016143862A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C13/00Assembling; Repairing; Cleaning
    • G02C13/003Measuring during assembly or fitting of spectacles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/11Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/26Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C13/00Assembling; Repairing; Cleaning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Definitions

  • the present invention relates to a spectacle wearing parameter measurement device, a spectacle wearing parameter measurement program, and a position designation method used when measuring spectacle wearing parameters.
  • spectacle wearing parameters measured by a spectacle wearer wearing a spectacle frame are required.
  • spectacle wearing parameters a distance between corneal apexes, a frame forward tilt angle, a fitting point position, a distance between pupils, a frame warp angle, and the like are known.
  • Spectacle wearing parameters are measured using a dedicated measuring device.
  • the dedicated measuring device is configured to, for example, capture the face of the subject wearing a spectacle frame and calculate various spectacle wearing parameters based on the face image as a result of the imaging.
  • the imaging result of the subject's face is displayed on a screen, and a point serving as a reference for measurement using a cursor mark or the like on the screen (for example, , Specify the corneal apex of the subject, the spectacle frame front frame, etc.) and calculate the spectacle wearing parameters such as the intercorneal apex distance and the frame forward tilt angle based on the position of the measurement reference point on the screen.
  • a point serving as a reference for measurement using a cursor mark or the like on the screen for example, Specify the corneal apex of the subject, the spectacle frame front frame, etc.
  • the spectacle wearing parameters such as the intercorneal apex distance and the frame forward tilt angle based on the position of the measurement reference point on the screen
  • a deformation mechanism may be provided for the temple of the spectacle frame in order to change the relative position between the spectacle wearer's eye position and the spectacle lens.
  • the temple width of the spectacle frame becomes wide (see, for example, FIG. 1A and FIGS. 2 to 3 of Patent Document 2).
  • the spectacle wearing parameter is measured based on the position of the measurement reference point on the screen. That is, specifying the position of the measurement reference point on the screen displaying the face image of the subject is an indispensable process for measuring the spectacle wearing parameters. Therefore, it is desirable that the position designation of the measurement reference point can be easily performed. In addition, since the position of the measurement reference point directly affects the measurement result of the spectacle wearing parameter, it is required that the designation is performed with high accuracy. For example, when measuring the distance between corneal apexes, it is necessary that the position of the measurement reference point is correctly aligned with the corneal apex of the subject.
  • the position of the measurement reference point is specified on a screen that displays the face image of the subject.
  • the position of the corneal apex of the subject on the face image obtained by imaging the face side of the subject is set as one of the measurement reference points. It will be specified as one.
  • the image used for measuring the spectacle wearing parameters and specifying the position of the measurement reference point therefor is obtained by capturing the face of the subject wearing the spectacle frame.
  • the present invention provides a spectacle wearing parameter measurement that enables the specification of the position of the measurement reference point when the position of the measurement reference point is specified on the face image of the subject when measuring the spectacle wearing parameter.
  • An object is to provide an apparatus, a spectacle wearing parameter measurement program, and a position designation method.
  • a first aspect of the present invention is a spectacle wearing parameter measurement device used when measuring spectacle wearing parameters of a subject wearing a spectacle frame, which is a face image in a state of wearing the spectacle frame of the subject.
  • An information processing unit that obtains a first image and a second image that is a face image in a state where the glasses frame is not worn, and prepares a third image in which the first image and the second image are associated;
  • a display screen unit for displaying an image prepared by the information processing unit, an operation unit for specifying a measurement reference point for spectacle wearing parameters on the image displayed on the display screen unit, and data of the specified measurement reference point
  • a spectacle wearing parameter measuring apparatus comprising: a calculation unit that calculates spectacle wearing parameters.
  • the third image includes a first image in the spectacle frame wearing state and a second image in the spectacle frame non-wearing state. Is a composite image including at least a measurement position.
  • the composite image includes a partial region of the first image in the spectacle frame wearing state and the second in the spectacle frame non-wearing state. It is a composite image with the corresponding area of the image of.
  • the partial region is examined on the first image obtained by imaging the subject's face from the side.
  • a computer that includes a display screen unit and an operation unit, and is used when measuring spectacle wearing parameters of a subject wearing a spectacle frame.
  • Image processing means for preparing a third image associating each of the first image that is a face image in the eyeglass frame wearing state of the subject and the second image that is a face image in the eyeglass frame non-wearing state;
  • Display control means for displaying the third image prepared by the image processing means on the display screen unit, and operation for specifying the measurement reference point of the spectacle wearing parameters on the third image displayed on the display screen unit by the operation unit
  • a spectacle wearing parameter measurement program that functions as a control unit and a measurement calculation unit that calculates spectacle wearing parameters using data of a designated measurement reference point.
  • the sixth aspect of the present invention is a measurement reference point on a face image required for measurement when measuring spectacle wearing parameters related to the subject using the face image of the subject wearing the spectacle frame.
  • a third image in which the first image in the spectacle frame wearing state is associated with the second image in the spectacle frame non-wearing state is prepared and displayed, and the third image is displayed on the third image.
  • a position designation method is characterized in that a measurement reference point of spectacle wearing parameters is designated.
  • the position of the measurement reference point when measuring the spectacle wearing parameters, when specifying the position of the measurement reference point on the face image of the subject, the position of the measurement reference point can be specified.
  • the present invention is used when measuring spectacle wearing parameters. More specifically, the face of the subject wearing the spectacle frame is imaged, and the face image as a result of the imaging is displayed on the screen, and a point serving as a measurement reference on the face image (for example, The spectacle wearing parameters are measured by calculating various spectacle wearing parameters based on the positions of the measurement reference points after designating the subject's corneal apex, the spectacle frame front frame, and the like. In the present invention, such spectacle wearing parameter measurement is performed using a spectacle wearing parameter measuring apparatus in which the apparatus main body (housing) is configured to be portable.
  • the portable spectacle wearing parameter measuring device is not particularly limited in its configuration as long as it can be carried by a spectacle wearing parameter measurer (that is, an examiner for the subject) by hand. It is conceivable to use a portable tablet terminal device that is a computer having an imaging function, an image display function, an operation function, and an information processing function. If configured using a tablet terminal device, an imaging function, an image display function, an operation function, and an information processing function necessary and sufficient for measurement of spectacle wearing parameters can be obtained, and the cost is low in view of the widespread use in recent years. It can also be realized by this, and it can be said that it is very suitable for promoting introduction into an eyeglass store.
  • a portable tablet terminal device generally employs a touch interface in which an operator touches an operation target and directly operates the device, thereby enabling clear operability.
  • a tablet terminal device is used as a spectacle wearing parameter measurement device, a face image obtained by imaging the face of a subject wearing a spectacle frame is displayed and used as an operation target.
  • a portion that is difficult to visually recognize may occur on the subject's face, which may deteriorate operability.
  • the inventor of the present application has intensively studied.
  • the inventor displays the face image of the subject wearing the spectacle frame and also displays the face image of the subject not wearing the spectacle frame to display the examiner (operation It is possible to avoid the occurrence of difficult-to-view parts on the subject's face and to suppress the deterioration in operability due to this.
  • the inventor of the present application has further studied earnestly.
  • the inventor of the present application prepares the imaging results of the face of the subject wearing the spectacle frame non-wearing state. By displaying them in a single display screen in association with each other, it is possible to easily grasp the state where there is no spectacle frame even in a portion that is difficult to visually recognize with the spectacle frame, and obtain a completely new idea that has not existed before. It came to.
  • the present invention has been made based on the above-described new idea by the present inventors. That is, according to the present invention, a face image (first image) in the spectacle frame wearing state of the subject and a face image (second image) in the spectacle frame non-wearing state are respectively acquired, and the spectacle wearing parameter
  • a (processed) image (third image) that associates each face image is generated and displayed on one display screen, and the measurement reference point is displayed on the processed image. It is characterized by specifying.
  • FIG. 1 is an explanatory diagram illustrating a specific example of spectacle wearing parameters.
  • the spectacle wearing parameters for example, the distance between the corneal apexes and the forward tilt angle of the frame when the subject wears the spectacle frame are known.
  • the distance between the corneal apexes is the distance on the far visual axis A when the visual axis when the subject (glasses wearer) looks far is the far visual axis A.
  • This is the distance CVD from the corneal apex of the eyeball E of the subject to the inner surface of the spectacle lens L framed in the spectacle frame F worn by the subject.
  • the curvature of the inner surface of the spectacle lens L framed in the spectacle frame F varies depending on the spherical power and the astigmatism power prescribed to the subject.
  • the measurement of spectacle wearing parameters is performed at the timing when the subject intends to purchase new spectacles, that is, the subject wears a spectacle frame in which a sample lens is framed at a spectacle store. It is common. Therefore, even if the corneal apex distance CVD is measured at a spectacle store, the measurement result does not necessarily reflect the prescription frequency of the subject. Further, in the state of being put in the spectacle frame F, the position of the inner surface of the spectacle lens L is often difficult to visually recognize.
  • the frame corneal apex distance FVD is measured instead of the corneal apex distance CVD.
  • the frame-corneal apex distance FVD is a distance on the far visual axis A when the subject (glasses wearer) takes the far visual axis A when viewed far.
  • a line extends horizontally from the apex of the cornea of the eyeball E of the subject to the spectacle frame F worn by the subject in that state, and the center of the width of the upper rim at the outermost uppermost end of the spectacle frame F
  • the distance from the intersection with the straight line connecting the center of the width of the lower rim at the lowermost outer periphery of the spectacle frame F is the corneal apex interframe distance.
  • the distance to the intersection of the straight line connecting the upper and lower edge edges of the dummy lens attached to the spectacle frame F is the corneal vertex frame distance. It is.
  • the distance to the intersection of the center of the width of the rim bar or the straight line connecting the center of the width of the brow bar and the midpoint of the edge of the edge of the dummy lens is This is the distance between frames.
  • the prescription power of the spectacle lens L is determined, based on the measurement result of the frame cornea apex distance FVD, the refractive index of the lens substrate, the lens convex curve shape, the lens concave curve shape, the lens thickness, the frame front It is possible to uniquely derive the corneal apex distance CVD that reflects the prescription frequency etc. by performing geometric calculation etc. using the tilt angle, the warp angle of the frame, the forward tilt angle of the lens, the eye point, and the position of the bevel as calculation parameters. It becomes.
  • the frame forward tilt angle generally refers to an angle formed by the temple and the rim of the spectacle frame F.
  • a straight line orthogonal to the far vision axis A that is, vertical
  • these spectacle wearing parameters are only one specific example. That is, the spectacle wearing parameters are not limited to these, as long as at least one of these parameters is included, and other parameters may be included. Other than these, for example, the fitting point position, the interpupillary distance, the frame warp angle, the near vision interpupillary distance, the eyeball rotation angle, and the like can be cited.
  • FIG. 2A and 2B are explanatory diagrams showing a configuration example of the spectacle wearing parameter measurement apparatus according to the embodiment of the present invention, in which FIG. 2A is an external perspective view, and FIG. 2B is a functional block diagram.
  • the spectacle wearing parameter measurement device 1 described in the present embodiment is configured using a portable tablet terminal device.
  • the spectacle wearing parameter measurement device 1 in this embodiment is simply referred to as a “tablet terminal”.
  • the tablet terminal 1 includes a portable device housing (main body) 10 that can be carried by a person who measures spectacles wearing parameters (that is, an examiner for a subject) by hand.
  • the apparatus housing 10 includes an imaging camera unit 11 having a CCD (Charge Coupled Device) sensor or a CMOS (Complementary Metal-Oxide Semiconductor) sensor, and a flat panel display such as an LCD (Liquid Crystal Display) panel.
  • a display screen unit 12 is provided, and an information processing unit 15 (not shown in FIG. 2A) having a CPU (Central Processing Unit) is provided.
  • the display screen unit 12 is provided with an operation unit 12a that realizes a touch interface.
  • the touch interface is a user interface that can be operated by touching the display of the display screen unit 12.
  • the tablet terminal 1 functions as a computer having an imaging function, an image display function, an operation function, and an information processing function.
  • the operation of the operation unit 12a by the touch interface may be performed using a touch pen as shown in the figure, but may be performed directly with the operator's finger.
  • the operation unit 12a is not based on a touch interface, and an information input device such as a keyboard or a mouse connected to the tablet terminal 1 may be used.
  • the tablet terminal 1 detects an angular velocity in the device housing 10 as shown in FIG.
  • a gyro sensor 13 which is a device to be operated and a memory unit 14 made of a nonvolatile memory are provided.
  • the gyro sensor 13 is used for grasping the posture state of the apparatus housing 10 and the like. As the gyro sensor 13, what the tablet terminal 1 originally has may be used.
  • the memory unit 14 stores a predetermined program necessary for processing operation of the information processing unit 15 in addition to the image data obtained by the imaging camera unit 11 and various data input by the operation unit 12a.
  • the information processing unit 15 functions as an imaging control unit 15a, an image processing unit 15b, a display control unit 15c, an operation control unit 15d, and a measurement calculation unit 15e. It has become.
  • the imaging control unit 15a controls the operation of the imaging camera unit 11.
  • the operation control of the imaging camera unit 11 includes control of whether or not the shutter of the imaging camera unit 11 is operable. Specifically, the imaging control unit 15a permits the operation of the shutter only when the posture of the apparatus housing 10 is in a predetermined state.
  • the image processing means 15b performs predetermined image processing on the face image of the subject that is the imaging result obtained by the imaging camera unit 11. Specifically, the image processing means 15b includes, as one of the predetermined image processes, the first image obtained by the imaging camera unit 11 in the eyeglass frame wearing state and the second image in the eyeglass frame non-wearing state. A processed image (third image) in which these images are associated with each other is generated. More specifically, a composite image obtained by combining the images is generated as a processed image in which the images are associated with each other.
  • the corresponding area of the first image in the eyeglass frame wearing state of the same subject is fitted in a partial area of the second image in the eyeglass frame non-wearing state of the subject (both areas) Is obtained by so-called superimposing synthesis.
  • the partial area and the corresponding area that are to be superimposed are combined on the face side image obtained by imaging the subject's face from the side.
  • the display control means 15c controls the operation of the display screen unit 12.
  • the operation control of the display screen unit 12 includes control of image contents displayed on the display screen unit 12.
  • the display control unit 15 c causes the display screen unit 12 to display the face image (that is, the image before imaging) of the subject that is an imaging target by the imaging camera unit 11 on the display screen unit 12. It functions as an imaging finder of the imaging camera unit 11.
  • the display control unit 15c displays the face image of the subject (that is, the captured image) as a result of imaging by the imaging camera unit 11 on the display screen unit 12, thereby performing the operation on the operation unit 12a performed thereafter. It is designed for operation.
  • the display control unit 15c displays a processed image (specifically, for example, a superimposed image) generated by the image processing unit 15b on the display screen unit 12 as an imaging result of the imaging camera unit 11. It shall be displayed.
  • the operation control means 15d controls the operation of the operation unit 12a.
  • the operation control of the operation unit 12a includes position recognition of a point designated by the operation unit 12a.
  • the operation control means 15d designates a point on the face image of the subject displayed on the display screen unit 12 by the operation unit 12a, so that the measurement reference point necessary for measuring the spectacle wearing parameters is determined. The position on the display image is recognized.
  • the measurement calculation means 15e is for obtaining spectacle wearing parameters relating to the subject. Specifically, the measurement calculation unit 15e performs calculation processing for obtaining spectacle wearing parameters related to the subject based on the measurement reference point specified by the operation unit 12a while using the imaging result obtained by the imaging camera unit 11. It is like that. In the present embodiment, the measurement calculation means 15e is also referred to as a calculation unit.
  • These means 15a to 15e are realized by the information processing unit 15 reading and executing a predetermined program in the memory unit 14. That is, the functions as the respective means 15a to 15e in the tablet terminal 1 are realized by a predetermined program in the memory unit 14 (that is, an embodiment of the spectacle wearing parameter measurement program according to the present invention).
  • the spectacle wearing parameter measurement program is installed and used in the memory unit 14, but is provided by being stored in a storage medium readable by the tablet terminal 1 prior to the installation. Alternatively, it may be provided to the tablet terminal 1 through a communication line connected to the tablet terminal 1.
  • the information processing unit 15 in the apparatus housing 10 functions as the measurement calculation unit 15e, that is, when the measurement calculation unit 15e performs calculation processing for obtaining spectacle wearing parameters in the apparatus housing 10.
  • the information processing unit 15 and the other device on the communication line are configured to be communicable through a wireless or wired communication line connected to the tablet terminal 1, for example, the other device has glasses. You may make it bear the function to perform the calculation process which calculates
  • the function and the like as the measurement calculation unit 15e by the information processing unit 15 are as follows: Like so-called cloud computing, other devices on the communication line may be substituted.
  • FIG. 3 is a flowchart showing an example of the procedure of the spectacle wearing parameter measurement method according to the embodiment of the present invention.
  • the spectacle wearing parameter measurement method described in the present embodiment at least the face side of the subject wearing the spectacle frame and the face side of the subject not wearing the spectacle frame are imaged. Based on the first image (face image in the spectacle frame wearing state) and the second image (face image in the spectacle frame non-wearing state), which are the imaging results, the intercorneal vertex distance FVD and the frame forward tilt angle ⁇ are obtained. By determining, the spectacle wearing parameters are measured.
  • a spectacle wearing parameter measurer that is, an examiner such as a spectacle store clerk
  • a spectacle wearing parameter examinee that is, a spectacle store customer or the like
  • the tablet terminal 1 on which the measurement program is installed as an application program is started up (step 101; hereinafter, step is abbreviated as “S”).
  • the subject prepares a spectacle frame to be worn.
  • the portable tablet terminal 1 is used for imaging of the subject, the subject can be moved to the device installation location or specified to the subject, unlike the case of using a fixed measuring device. There is no need to let the posture. Up to this point, this corresponds to the “preparation stage” in the spectacle wearing parameter measurement method of the present embodiment.
  • the examiner presses the shutter button of the imaging camera unit 11 while using the imaging camera unit 11 in the tablet terminal 1 while holding the tablet terminal 1 in the hand,
  • the face side of the subject wearing the spectacle frame is imaged (S102), and then the face side is imaged without wearing the spectacle frame (S103).
  • the tablet terminal 1 acquires at least a face side image in the eyeglass frame wearing state of the subject and a face side image in the subject eyeglass frame non-wearing state, respectively. Up to this point, this corresponds to the “imaging stage” in the spectacle wearing parameter measurement method of the present embodiment.
  • the examiner operates the tablet terminal 1 and measures various spectacle wearing parameters based on the imaging result obtained in the imaging stage. Specifically, the tablet terminal 1 obtains at least the frame forward tilt angle ⁇ (S104), measures the frame vertical width of the spectacle frame worn by the subject (S105), and then determines between the frame cornea vertices. The distance FVD is obtained (S106). Up to this point, this corresponds to the “measurement stage” in the spectacle wearing parameter measurement method of the present embodiment. And the tablet terminal 1 preserve
  • the tablet terminal 1 preserve
  • the spectacle wearing parameters are measured through a preparation stage, an imaging stage, and a measurement stage.
  • the steps are not necessarily performed in order, and may be performed in parallel.
  • the measurement stage may be started to determine the frame forward tilt angle ⁇ (S104).
  • FIG. 4 is an explanatory diagram showing a specific example of the contents displayed on the imaging finder of the spectacle wearing parameter measurement device according to one embodiment of the present invention, in which the first image is taken in the spectacle frame wearing state of the subject. It is a figure which shows the display content required for.
  • FIG. 5 is an explanatory diagram showing a specific example of the content displayed on the imaging finder, and is a diagram showing the display content when the subject's face is imaged from the side.
  • the tablet terminal 1 When the first image of the subject wearing the eyeglass frame is captured, the tablet terminal 1 first enters the imaging mode for the eyeglass frame wearing state in accordance with a predetermined operation by the examiner who performs the imaging.
  • the tablet terminal 1 that has entered the imaging mode for the spectacle frame wearing state follows the control by the display control unit 15c, and in the imaging viewfinder by the display screen unit 12 (that is, gravity).
  • Direction and a second reference line 32 consisting of a straight line extending in the vertical direction of the imaging finder, and a shutter button used for imaging. 33 is displayed.
  • the first reference line 31, the second reference line 32, and the shutter button 33 are displayed on the display screen unit 12.
  • the first reference line 31 is displayed so as to always extend in the vertical direction and the horizontal direction regardless of the posture of the device housing 10 of the tablet terminal 1. That is, regardless of the posture of the apparatus housing 10, the display is always fixed with respect to the direction of gravity. Such a first reference line 31 can be displayed in the imaging finder by using the function of the gyro sensor 13.
  • the second reference line 32 is always fixedly displayed with respect to the angle of view of the display screen unit 12. Therefore, when the posture of the device housing 10 of the tablet terminal 1 changes, the direction in which the second reference line 32 extends changes accordingly.
  • the 1st reference line 31 and the 2nd reference line 32 are displayed so that each can be identified. Specifically, it may be possible to identify each display color by making it different.
  • the shutter button 33 is pressed by the examiner in order to perform imaging with the imaging camera unit 11.
  • the shutter button 33 can be pressed only when the device housing 10 of the tablet terminal 1 is in a posture that can be regarded as standing in the vertical direction. Shall be. Specifically, when the examiner holds the apparatus housing 10 by hand, assuming that the state in which the apparatus housing 10 stands in the vertical direction is 90 °, the front-rear direction (the arrow direction in the figure) It is assumed that the shutter button 33 can be pressed only when the inclination of the shutter button is within ⁇ 5 °, for example. Such a pressing restriction on the shutter button 33 can also be realized by using the function of the gyro sensor 13.
  • the examiner determines that the face side surface of the subject in the eyeglass frame wearing state is an imaging target in the imaging camera unit 11. To do. Specifically, the examiner puts the eyeglass frame on the examinee and holds the tablet terminal 1 in his / her hand so as to face the side face of the subject wearing the eyeglass frame. The face side of the subject is displayed in the imaging finder by the display screen unit 12 of the tablet terminal 1.
  • the examiner sets the second reference line 32 displayed in the imaging finder to match the rim center line in the spectacle frame F worn by the examinee.
  • the position where the terminal 1 is held is adjusted by moving it in the direction of rotation (the arrow direction in the figure).
  • the tablet terminal 1 may give guidance to the examiner about matching the second reference line 32 with the rim center line.
  • the guidance may be performed by the imaging control unit 15a displaying character information on the display screen unit 12, but the guidance is not limited to this and may be performed by voice output.
  • the examiner presses the shutter button 33 in that state.
  • the imaging camera unit 11 captures an image displayed on the imaging finder.
  • An image as a result of imaging by the imaging camera unit 11 (that is, an image of the side face of the subject wearing the eyeglass frame) is combined with position information of the first reference line 31 and the second reference line 32 on the image.
  • the display control means 15c may be configured to be able to move the position of the second reference line 32 on the screen displayed by the display screen unit 12 while following the operation contents of the operation unit 12a by the examiner. In this way, the examiner can finely adjust the position of the second reference line 32 on the image that is the imaging result even after imaging of the face side face in the eyeglass frame wearing state of the subject. .
  • the display content on the display screen unit 12 is stored in the memory unit 14 as the imaging result of the first image of the subject wearing the eyeglass frame. Will be.
  • the second reference line 32 displayed in the imaging finder is The imaging is performed so as to match the rim center line in the spectacle frame F worn by the person.
  • the frame forward tilt angle ⁇ which is one of the spectacle wearing parameters, can be obtained. It will be possible to ask.
  • the first image of the subject wearing the eyeglass frame obtained by imaging is stored in the memory unit 14 and then read out from the memory unit 14 to store the first image of the tablet terminal 1. It can be displayed on the display screen unit 12 and reused.
  • the display control unit 15c that causes the display screen unit 12 to display the first image rotates the first image so that the position of the second reference line 32 overlaps the position of the first reference line 31.
  • the image processing unit 15b may perform image editing processing for moving in the direction. After such image editing processing, the display screen unit 12 is in a state in which the position adjustment amount obtained by moving the tablet terminal 1 in the rotational direction at the time of imaging is corrected (that is, the vertical direction of the first image).
  • the first image in the state of wearing the eyeglass frame of the subject is displayed in a state where the horizontal direction is along the edge that forms the angle of view of the display screen unit 12.
  • the tablet terminal 1 that is in the imaging mode for the glasses frame non-wearing state performs imaging in the imaging finder by the display screen unit 12 as shown in FIG. 5B while following the control by the display control unit 15c. And a guide image 34 corresponding to the imaging result of the first image in the eyeglass frame wearing state of the subject. As a result, in addition to the image obtained through the imaging camera unit 11, the shutter button 33 and the guide image 34 are displayed on the display screen unit 12.
  • the guide image 34 is obtained by performing a predetermined image editing process on the imaging result obtained in the imaging process (S102) of the first image in the spectacle frame wearing state.
  • a predetermined image editing process in addition to the image editing process for correcting the position adjustment amount described above, there is an image editing process for adjusting the transparency of the image to make it translucent.
  • the transparency of the image may be adjusted using a known technique. Specifically, it is conceivable to adjust the transparency within a range of 20% to 40%, preferably about 30%. If the transparency is adjusted in this way, even when the guide image 34 is displayed, other images can be seen through the guide image.
  • the examiner sets the imaging camera unit 11 as the imaging target for the face side face of the subject in the state where the eyeglass frame is not worn. Specifically, the examiner removes the spectacle frame worn by the subject and holds the tablet terminal 1 in his / her hand so as to face the side face of the subject who is not wearing the spectacle frame. Then, the face side of the subject is displayed in the imaging finder by the display screen unit 12 of the tablet terminal 1.
  • the examiner displays the outline of the second image in the eyeglass frame non-wearing state displayed in the imaging finder through the imaging camera unit 11 in the imaging finder.
  • the position where the tablet terminal 1 is held is adjusted so as to match the contour of the guide image 34 that is being held.
  • the tablet terminal 1 may provide guidance to the examiner about matching the contour of the second image in the glasses frame non-wearing state with the guide image 34.
  • the guidance may be performed by the imaging control unit 15a displaying character information on the display screen unit 12, but the guidance is not limited to this and may be performed by voice output.
  • the examiner presses the shutter button 33 in that state.
  • the imaging camera unit 11 captures an image displayed on the imaging finder.
  • An image that is a result of imaging by the imaging camera unit 11 (that is, an image of the face side surface when the subject's eyeglass frame is not worn) is temporarily displayed on the display screen unit 12 together with the guide image 34.
  • the display control unit 15c moves the position on the screen displayed by the display screen unit 12 while following the operation content of the operation unit 12a by the examiner with respect to the image that is the imaging result by the imaging camera unit 11.
  • the size may be enlarged or reduced. In this way, even after imaging of the side face of the subject when the eyeglass frame is not worn, the second image is obtained so that the contour of the second image as the imaging result completely matches the guide image 34. Can be fine-tuned by the examiner.
  • the display content on the display screen unit 12 is stored in the memory unit 14 as the imaging result of the second image when the subject's eyeglass frame is not worn. Will be.
  • the tablet terminal 1 described in the present embodiment captures the first image in the eyeglass frame wearing state of the subject when capturing the second image in the eyeglass frame non-wearing state of the subject.
  • the imaging is performed so as to match the guide image 34 based on the result. If imaging is performed in this way, the first image in the eyeglass frame wearing state of the subject and the image within the angle of view are already obtained for the second image in the eyeglass frame non-wearing state of the subject. Can be obtained with substantially the same arrangement and size.
  • the second image of the subject wearing the eyeglass frame that is not worn is read out from the memory unit 14 after the data is stored in the memory unit 14, whereby the tablet terminal 1. Can be displayed and reused.
  • the tablet terminal 1 in the forward tilt measurement mode reads out the first image in the eyeglass frame wearing state of the subject from the memory unit 14 and displays it on the display screen unit 12 while following the control by the display control unit 15c. And in the tablet terminal 1, the measurement calculating means 15e performs the calculation process which calculates
  • the measurement calculating means 15e calculates
  • the frame forward tilt angle ⁇ obtained by the measurement calculation means 15e in this way is displayed in a predetermined window in the screen of the display screen unit 12 while being controlled by the display control means 15c. If there is no problem as a result of confirmation by the examiner, the calculation processing result is stored in the memory unit 14.
  • the spectacle wearing parameters are calculated and obtained based on the face image that is the imaging result of the subject's face.
  • the spectacle wearing parameters specified by the distance magnitude such as the frame-corneal apex distance FVD, are calculated and calculated in order to calculate the distance magnitude on the face image and the actual distance in the real space. Calibration that correlates the magnitude of the distance is required.
  • the spectacle frame vertical width measurement process (S105) is performed on the spectacle frame F worn by the subject.
  • the tablet terminal 1 enters the spectacle frame vertical width measurement mode in accordance with a predetermined operation by the examiner.
  • FIG. 6 is an explanatory diagram showing a specific example of display contents on the display screen when the spectacle wearing parameter measurement apparatus according to an embodiment of the present invention obtains spectacle wearing parameters, and shows the spectacle frame worn by the subject. It is a figure which shows the display content at the time of measuring a frame vertical width.
  • the tablet terminal 1 that has entered the spectacle frame length measurement mode follows the control of the display control unit 15c, along the long side of the screen within the screen of the display screen unit 12, as shown in FIG.
  • a third reference line 35 made of an extending straight line and fourth reference lines 36a and 36b made of two straight lines arranged in parallel with the third reference line 35 are displayed.
  • the third reference line 35 is fixedly displayed in the vicinity of the intermediate point in the vertical direction of the screen on the display screen unit 12.
  • the display of the third reference line 35 is not essential, and the display may be omitted.
  • the fourth reference lines 36a and 36b are displayed so as to sandwich the third reference line 35, respectively.
  • fourth reference lines 36a and 36b can be moved independently within the screen while maintaining a parallel state with the third reference line 35.
  • the movement of the fourth reference lines 36a and 36b in the screen is performed while following the operation contents of the operation unit 12a by the examiner.
  • the examiner displays the screen on the display screen unit 12 as shown in FIG.
  • the eyeglass frame F worn by the subject is placed in a single state.
  • the examiner places the spectacle frame F on the screen so that the datum line of the spectacle frame F is aligned with the third reference line 35.
  • the 3rd reference line 35 is used as a guide for mounting spectacles frame F, it will become a thing convenient for an examiner.
  • the third reference line 35 is displayed, it is not necessary to use the screen peripheral area of the display screen unit 12 when measuring the spectacle frame vertical width, which will be described later, so that the measurement can be performed precisely. .
  • each 4th reference line 36a, 36b corresponds with the magnitude
  • the measurement calculation means 15e causes the actual distance between the fourth reference lines 36a and 36b.
  • the measurement calculation means 15e recognizes the size of the interval between the fourth reference lines 36a and 36b based on the number of pixels in the display screen unit 12, and the actual size per pixel in the recognized number of pixels.
  • the actual distance between each of the fourth reference lines 36a and 36b is obtained by multiplying by and the calculation processing result is set as the frame vertical width of the spectacle frame F.
  • the calculation result of the frame vertical width obtained by the measurement calculation means 15e in this way is displayed on the predetermined window 37 in the screen of the display screen unit 12 while being controlled by the display control means 15c. If there is no problem as a result of confirmation by the examiner, the calculation processing result is stored in the memory unit 14.
  • the tablet terminal 1 described in the present embodiment is configured to measure the spectacle frame vertical width of the spectacle frame F worn by the subject for calibration necessary for measurement of spectacle wearing parameters (S105). )I do.
  • the tablet terminal 1 according to the present embodiment performs the spectacle frame vertical width measurement process (S105), with the spectacle frame F placed on the screen of the display screen unit 12, and the frame vertical width of the spectacle frame F. Is converted into the number of pixels in the display screen unit 12, and then the size of the frame vertical width is obtained by arithmetic processing. Accordingly, it is not necessary to physically measure the frame vertical width of the spectacle frame F with a scale or the like, and it is not necessary to input the value of the measurement result to the tablet terminal 1, and the spectacle frame vertical width measurement process (S 105).
  • the tablet terminal 1 can then perform the measurement process (S106) of the intercorneal vertex distance FVD.
  • the tablet terminal 1 enters the frame-corneal apex distance measurement mode according to a predetermined operation by the examiner.
  • the tablet terminal 1 that has entered the frame-corneal apex distance measurement mode reads out the imaging result obtained in the imaging process (S102, S103) from the memory unit 14 while following the control by the display control unit 15c, and displays it on the display screen unit 12. It is displayed and used for the operation by the operation unit 12a performed by the examiner thereafter. However, at this time, in the tablet terminal 1, the function as the image processing unit 15 b in the information processing unit 15 performs image processing as described below.
  • FIG. 7 is an explanatory diagram showing a specific example of image composition processing performed by the spectacle wearing parameter measurement device according to one embodiment of the present invention.
  • the image processing means 15b reads out from the memory unit 14 a first image 41 that is an imaging result of the face side surface of the subject in the spectacle frame wearing state. Further, as shown in FIG. 7B, the image processing unit 15 b reads out from the memory unit 14 a second image 42 that is an imaging result of the face side surface of the subject in the state where the eyeglass frame is not worn.
  • the image processing means 15b When the first image 41 in the spectacle frame wearing state and the second image 42 in the spectacle frame non-wearing state are read out, the image processing means 15b performs superimposing synthesis on these images 41 and 42. Perform the necessary image processing.
  • the image processing unit 15 b extracts data of the partial area 43 of the first image 41 in the spectacle frame wearing state, and the partial area 43. Erase data in other areas except for (see hatched area in the figure).
  • the “partial region” at this time has a predetermined position, size, range, and the like with respect to the entire image, and includes at least the rim portion of the spectacle frame F worn by the subject. This is a region set so as not to include the temple portion of F and the eyeball cornea portion of the subject.
  • the partial area 43 may be rectangular as shown in the figure, but is not limited to this, and even if it is set to another shape such as a circular shape. Good.
  • the image processing means 15b erases the data of the corresponding area 44 corresponding to the partial area 43 described above with respect to the face side image 42 in the glasses frame non-wearing state (in the figure). (See hatching).
  • the “corresponding area” at this time is determined to have the same position, size, range, and the like as the partial area 43 so as to correspond to the partial area described above. Therefore, the corresponding region 44 is also set so as not to include the eyeball cornea portion of the subject as in the partial region 43 described above.
  • the outer shape of the corresponding region 44 may be any of a rectangular shape or a circular shape as long as it is the same as the partial region 43 described above.
  • the association between the partial area 43 and the corresponding area 44 is performed based on the position information of the pixels constituting the images 41 and 42.
  • the first image 41 in the spectacle frame wearing state and the second image 42 in the spectacle frame non-wearing state are captured so as to have the same angle of view. This is because the arrangement and size of the images in the corners are substantially the same.
  • the present invention is not necessarily limited to this, and the partial area 43 and the corresponding area 44 may be associated with each other by another method.
  • another method for example, after recognizing the shape of an image element (such as a subject's ear or a rim of a spectacle frame) that exists in common in each of the images 41 and 42, the image element in each is matched.
  • the partial area 43 and the corresponding area 44 are associated with high accuracy with reference to the positional relationship with the image element.
  • the image processing means 15b converts the partial region 43 in the first image 41 in the spectacle frame wearing state into the corresponding region 44 in the second image 42 in the spectacle frame non-wearing state. Superimpose synthesis is performed on these images 41 and 42 so as to fit in the image. As a result, the image processing means 15b combines the first image 41 in the spectacle frame wearing state and the second image 42 in the spectacle frame non-wearing state to obtain one composite image (third image) 45. It will be.
  • the composite image 45 corresponds to an aspect of a processed image in which the images 41 and 42 are associated with each other.
  • a partial region 43 in the first image 41 in the spectacle frame wearing state is changed to a corresponding region 44 in the second image 42 in the spectacle frame non-wearing state. It will be replaced. Therefore, if such superimpose synthesis is performed, the image portion of the spectacle frame is partially deleted from the synthesized image as necessary on one synthesized image 45 obtained as a result.
  • the tablet terminal 1 After performing the image composition processing as described above, the tablet terminal 1 displays one composite image 45 obtained by the image composition processing on the display screen unit 12 and then displays the frame-corneal vertex distance FVD to the examiner.
  • the measurement reference point necessary for the measurement is specified.
  • FIG. 8 is an explanatory diagram showing a specific example of display contents on the display screen when the spectacle wearing parameter measurement apparatus according to an embodiment of the present invention obtains spectacle wearing parameters, and in the case of obtaining the frame cornea apex distance. It is a figure which shows a display content.
  • the tablet terminal 1 that is in the frame-corneal apex distance measurement mode follows the control by the display control unit 15c, and the display screen unit 12 performs the above-described operation as shown in FIGS. 8 (a) and 8 (b).
  • One composite image 45 obtained by the image composition processing is displayed, and pointer images 53 and 54 are superimposed on the composite image 45 and displayed.
  • the pointer images 53 and 54 are graphic images that serve as a guide for specifying the position of the point to be specified by the operation unit 12a when specifying the measurement reference point by operating the operation unit 12a.
  • the pointer image 53 is used when designating the position of the corneal apex on the face side of the subject as a measurement reference point.
  • the pointer image 54 is used when the upper end position and the lower end position of the rim in the spectacle frame F worn by the subject are designated as measurement reference points.
  • the graphic pattern shapes constituting the pointer images 53 and 54 may be set in advance considering the operability by the examiner and the visibility of the composite image 45 to be overlaid, and are particularly limited. is not.
  • the tablet terminal 1 After the pointer images 53 and 54 are displayed superimposed on the composite image 45, the tablet terminal 1 operates the operation unit 12a on the screen of the display screen unit 12 as shown in FIG. A movable pointer image 53 is positioned at the apex of the cornea on the composite image 45 being displayed. At this time, the composite image 45 serving as the background is obtained by superimposing and performing partial deletion of the image portion of the spectacle frame from the face image as necessary. Therefore, when aligning the pointer image 53 with the corneal apex position, a portion that is difficult to visually recognize does not occur in the vicinity of the cornea of the subject's face.
  • the examiner operates the operation unit 12 a to combine the pointer image 54 that can be moved within the screen of the display screen unit 12 during display.
  • the eyeglass frame F on the image 45 is positioned at the upper and lower ends of the rim.
  • the center point in the pointer image 53 arranged at the corneal apex position is the frame cornea apex distance FVD. It is designated as one of the measurement reference points for obtaining, and the center points in the pointer image 54 arranged at the upper and lower ends of the rim of the spectacle frame F are the remaining measurement references for obtaining the frame-corneal apex distance FVD. It will be specified as a point.
  • the display control means 15c A partial enlarged window image 55 for enlarging and displaying the peripheral area is displayed at a predetermined location in the screen of the display screen unit 12. In this way, even when the pointer images 53 and 54 are moved by operating the touch interface, the part touched by the touch interface is changed to a predetermined part different from the part by the partial enlarged window image 55. Since the display is enlarged, the operability when the examiner moves and aligns the pointer images 53 and 54 can be improved.
  • the measurement calculation means 15e causes the pointer image 53 positioned at the cornea apex.
  • the intersection of the straight line passing through the center of the frame and the straight line connecting the centers of the pointer images 54 at the upper and lower ends of the rim of the spectacle frame F is obtained.
  • the measurement calculation means 15e calculates
  • the measurement of the intercorneal vertex distance FVD at this time is performed on the composite image 45 displayed on the display screen unit 12. Therefore, in measuring the frame-corneal apex distance FVD, calibration (calibration) that associates the size in the real space with the size on the composite image 45 is necessary.
  • the calibration obtains the frame vertical width of the spectacle frame F in the spectacle frame vertical width measurement process (S105) described above. It is conceivable to perform this by associating with the distance on the composite image 45 between the pointer images 54 arranged at the upper and lower ends of the image.
  • the distance corneal apex distance FVD obtained by the measurement calculation means 15e in this way is displayed on the predetermined window 56 in the screen of the display screen unit 12 while being controlled by the display control means 15c. If there is no problem as a result of confirmation by the examiner, the calculation processing result is stored in the memory unit 14.
  • the characteristic procedure for measuring the spectacle wearing parameters in the present embodiment has been described above.
  • the tablet terminal 1 may perform other procedures other than the characteristic procedure described above.
  • Other procedures include imaging processing of the upper face of the subject in the imaging stage and imaging processing of the front face of the subject, measurement processing of the frame warp angle ⁇ in the measurement stage, measurement processing of the fitting point position FP, and measurement of the interpupillary distance PD. Processing and the like.
  • the detailed description is abbreviate
  • various spectacle wearing parameters are measured using the portable tablet terminal 1. Therefore, installation space like a non-portable large-scale measuring device is not required, and introduction into an eyeglass store can be facilitated. In this respect, it is convenient for an examiner (such as a store clerk of an eyeglass store) who measures various spectacle wearing parameters.
  • the first image in the eyeglass frame wearing state of the subject and the second image in the eyeglass frame non-wearing state are respectively picked up and acquired, and the imaging result for the eyeglass frame wearing state is obtained.
  • the imaging result of the glasses frame non-wearing state are combined and displayed on a single composite image, and the measurement reference point required for obtaining the spectacle wear parameters on the single composite image (third image) is displayed. It is designed to specify. That is, in addition to the imaging results of the face image of the subject wearing the eyeglass frame, the imaging results of the face image of the subject wearing the eyeglass frame are prepared, and the imaging results are partially imaged.
  • a composite process is performed and displayed on the display screen unit 12 as a single composite image.
  • the image portion of the spectacle frame can be partially deleted as necessary on one composite image after the image composition processing through the image composition processing described above. become.
  • the spectacle frame shape worn by the subject can be caused by the spectacle frame shape. It is possible to prevent the examiner's face from becoming difficult to see. For example, even if the subject wears a spectacle frame with a large temple width, the cornea vertex of the subject is hidden in the temple of the spectacle frame on the face image by deleting the temple portion. Can be prevented.
  • the measurement reference point to be specified when specifying the measurement reference point necessary for obtaining the spectacle wearing parameters, can be specified by partially deleting the image portion of the spectacle frame as necessary.
  • the position of the measurement reference point can be easily specified, and as a result, the position of the measurement reference point can be specified easily. Can be secured.
  • a part of the imaging result for the spectacle frame wearing state is fitted to the corresponding region of the imaging result for the spectacle frame non-wearing state. If the superimposing composition is performed, only the necessary part of the imaging result in the spectacle frame wearing state (that is, a partial region of the imaging result) is used as the imaging result in the spectacle frame non-wearing state (that is, The corresponding area of the imaging result can be replaced. Therefore, according to the present embodiment, only the part necessary for designating the measurement reference point is surely replaced with the face image for the glasses frame non-wearing state. That is, it is possible to reliably delete the image portion of the spectacle frame that is unnecessary when specifying the measurement reference point, and as a result, it is possible to easily and accurately specify the position of the measurement reference point.
  • the temple of the eyeglass frame hides the corneal apex of the subject on the face image as described above.
  • the target region for superimposition synthesis that is, the partial region and the relevant region.
  • the region includes a rim portion of the spectacle frame to be worn, but is set so as not to include the temple portion of the spectacle frame and the eyeball cornea portion of the subject.
  • the position of the measurement reference point to be specified is not obscured even when the temple of the eyeglass frame hides the corneal apex of the subject on the face image.
  • the present invention is very suitable when applied to the measurement of the intercorneal vertex distance FVD, which is one of the spectacle wearing parameters.
  • a composite image (third image) of the first image in the spectacle frame wearing state and the second image in the spectacle frame non-wearing state a partial region of one image corresponds to the other image.
  • a composite image according to another composition mode may be displayed.
  • an image obtained by superimposing images in a state where the transparency is different can be cited.
  • the first image in the spectacle frame wearing state and the second image in the spectacle frame non-wearing state need to be displayed in a combined state as long as they are displayed in association with each other. Absent.
  • the present invention generates and displays a processed image (third image) in which the first image in the spectacle frame wearing state and the second image in the spectacle frame non-wearing state are associated with each other,
  • the measurement reference point may be designated on the processed image.
  • association means that the relevance of each image can be recognized when the measurement reference point is designated.
  • the processed images in which the images are associated with each other include the following images in addition to the composite image described in the present embodiment. That is, as the processed image, the first image in the spectacle frame wearing state and the second image in the spectacle frame non-wearing state are displayed side by side, and the position is adjusted and / or the size is adjusted, respectively.
  • the pointer image is processed so that the pointer image moves synchronously at the same position on the image.
  • the first image in the spectacle frame wearing state and the first in the spectacle frame non-wearing state are not limited to such an example, so that it is easy to visually recognize a location necessary for specifying the measurement reference point regardless of the presence or absence of the spectacle frame.
  • the second image is processed and displayed, it corresponds to the “processed image (that is, the third image)” in the present invention.
  • each image with the frame wearing state and without the frame as described above is divided by a vertical straight line located between the apex of the cornea and the front part of the glasses (the part where the spectacle lens is attached), and then the frame wearing state is obtained.
  • the information processing unit 15 acquires a first image in the eyeglass frame wearing state of the subject and a second image in the eyeglass frame non-wearing state, rather than newly generating a composite image, A third image associated with each image is prepared.
  • the processing procedure when measuring the frame-corneal apex distance FVD is mainly given as an example. Therefore, in the present embodiment, a case is described in which an image of the subject's face side surface is combined to form a combined image.
  • the present invention is not limited to this, and in addition to the subject's face side, the same image composition processing as in the present embodiment is performed on the subject's upper face and front face. It is also possible to do so. For example, if the eye point position on the sunglasses is specified while wearing sunglasses, it may not be easy to confirm the position of the cornea due to the shading action of the sunglasses.
  • a measurement auxiliary tool on which a measurement reference scale with a known figure size (that is, a size in real space) is drawn is imaged together with the face of the subject.
  • a measurement reference scale with a known figure size that is, a size in real space
  • calibration is performed to associate the size in the real space with the size on the face side composite image, and the face side composite image
  • image data obtained by the imaging camera unit 11 is used, but other image data may be used.
  • image data captured by the imaging camera unit 11 of the tablet terminal 1 image data obtained by imaging a subject with another imaging device may be used. It is a preferable example to provide the imaging camera unit 11 in the tablet terminal 1.
  • SYMBOLS 1 Glasses wearing parameter measurement apparatus (tablet terminal), 10 ... Apparatus housing, 11 ... Imaging camera part, 12 ... Display screen part, 12a ... Operation part, 13 ... Gyro sensor, 14 ... Memory part, 15 ... Information processing part , 15a ... imaging control means, 15b ... image synthesis means, 15c ... display control means, 15d ... operation control means, 15e ... measurement calculation means (calculation unit), 41 ... first image, 42 ... second image, 43 ... partial area 44 ... corresponding area 45 ... composite image (third image)

Landscapes

  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Eyeglasses (AREA)
  • Eye Examination Apparatus (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

 眼鏡フレームを装用する被検者の眼鏡装用パラメータについて測定を行う際に用いられる眼鏡装用パラメータ測定装置1を、前記被検者の眼鏡フレーム装用状態における顔画像である第1の画像と眼鏡フレーム非装用状態における顔画像である第2の画像とをそれぞれ取得し、前記第1の画像と前記第2の画像とを関連付けた第3の画像を準備する情報処理部15と、前記情報処理部15が準備した前記第3の画像を表示する表示画面部12と、前記表示画面部12が表示する前記第3の画像上で前記眼鏡装用パラメータの測定基準点の指定を行う操作部12aと、指定された前記測定基準点のデータを用いて眼鏡装用パラメータを算出する計測演算手段15eとを備えて構成する。

Description

眼鏡装用パラメータ測定装置、眼鏡装用パラメータ測定プログラムおよび位置指定方法
 本発明は、眼鏡装用パラメータについて測定を行う際に用いられる眼鏡装用パラメータ測定装置、眼鏡装用パラメータ測定プログラムおよび位置指定方法に関する。
 一般に、眼鏡レンズの作製には、眼鏡装用者が眼鏡フレームを装用した状態で測定される眼鏡装用パラメータが必要となる。眼鏡装用パラメータとしては、角膜頂点間距離、フレーム前傾角、フィッティングポイント位置、瞳孔間距離、フレーム反り角等が知られている。
 眼鏡装用パラメータの測定は、専用の測定装置を用いて行われる。専用の測定装置としては、例えば、眼鏡フレームを装用した状態の被検者の顔を撮像し、その撮像結果である顔画像を基に、各種眼鏡装用パラメータを演算して求めるように構成されたものがある(例えば、特許文献1参照)。具体的には、特許文献1に開示された測定装置では、被検者の顔の撮像結果を画面上に表示し、その画面上でカーソルマーク等を利用しつつ測定の基準となる点(例えば、被検者の角膜頂点や眼鏡フレーム前枠等)を指定させた上で、その測定基準点の画面上における位置に基づいて角膜頂点間距離やフレーム前傾角等の眼鏡装用パラメータを演算して求めるようになっている(例えば、特許文献1の段落「0033」~「0035」の記載参照)。
 ところで、眼鏡装用者の眼の位置と眼鏡レンズとの間の相対位置を変化させるべく、眼鏡フレームのテンプルに対して変形機構を設ける場合もある。その場合、眼鏡フレームにテンプル幅が広くなる(例えば、特許文献2の図1A、図2~3参照)。
特許第3976925号公報 特開2014-513328号公報
 上述したように、眼鏡装用パラメータの測定は、画面上における測定基準点の位置に基づいて行われる。つまり、被検者の顔画像を表示する画面上での測定基準点の位置指定は、眼鏡装用パラメータの測定を行う上で不可欠な処理である。そのため、測定基準点の位置指定は、簡便に行い得ることが望ましい。また、測定基準点の位置は、眼鏡装用パラメータの測定結果に直接的に影響を及ぼすため、その指定が精度よく行われていることが求められる。例えば、角膜頂点間距離を測定する場合であれば、測定基準点の位置が被検者の角膜頂点等に正しく合わせられていることが必要となる。
 しかしながら、従来技術では、以下に述べる理由により、必ずしも測定基準点の位置指定を簡便かつ高精度に行えるとは限らない。
 測定基準点の位置指定は、被検者の顔画像を表示する画面上で行う。例えば、眼鏡装用パラメータとして角膜頂点間距離を測定する場合であれば、被検者の顔側面を撮像して得られる顔画像上で、その被検者の角膜頂点の位置を測定基準点の一つとして指定することになる。
 ところが、眼鏡装用パラメータの測定およびそのための測定基準点の位置指定に用いる画像は、眼鏡フレームを装用した状態の被検者の顔を撮像して得られるものである。そのため、被検者が装用している眼鏡フレームの形状によっては、被検者の顔について視認困難な箇所が生じてしまい、指定すべき測定基準点の位置が不明確になってしまう可能性がある。具体的には、例えばプラスチック系素材の眼鏡フレームはテンプル幅が大きいものも存在しており、顔画像上において眼鏡フレームのテンプルに被検者の角膜頂点が隠れてしまうといったことが起こり得る。そのような場合には、測定基準点の位置指定を簡便に行うことができず、また指定後の測定基準点の位置について必要十分な位置精度を確保できないおそれがある。
 そして特許文献2に記載のように、テンプル幅の大きい眼鏡フレームを使用する場合、眼鏡フレームに隠れて角膜が見えなくなってしまう場合がある。そのような場合には、測定基準点の位置指定を簡便に行うことができず、また指定後の測定基準点の位置について必要十分な位置精度を確保できないおそれがある。そのため、角膜頂点を含む装用パラメータの距離の測定が困難となる場合がある。
 そこで、本発明は、眼鏡装用パラメータの測定にあたり、被検者の顔画像上で測定基準点の位置指定を行う場合に、その測定基準点の位置指定を行うことを可能にする眼鏡装用パラメータ測定装置、眼鏡装用パラメータ測定プログラムおよび位置指定方法を提供することを目的とする。
 本発明は、上記目的を達成するために案出されたものである。
 本発明の第1の態様は、眼鏡フレームを装用する被検者の眼鏡装用パラメータについて測定を行う際に用いられる眼鏡装用パラメータ測定装置であって、被検者の眼鏡フレーム装用状態における顔画像である第1の画像と眼鏡フレーム非装用状態における顔画像である第2の画像とをそれぞれ取得し、第1の画像と第2の画像とを関連付けた第3の画像を準備する情報処理部と、情報処理部が準備した画像を表示する表示画面部と、表示画面部が表示する画像上で眼鏡装用パラメータの測定基準点の指定を行う操作部と、指定された測定基準点のデータを用いて眼鏡装用パラメータを算出する演算部と、を備えることを特徴とする眼鏡装用パラメータ測定装置である。
 本発明の第2の態様は、第1の態様に記載の眼鏡装用パラメータ測定装置において、第3の画像は、眼鏡フレーム装用状態における第1の画像と眼鏡フレーム非装用状態における第2の画像とを合成した少なくとも測定位置を含む合成画像であることを特徴とする。
 本発明の第3の態様は、第2の態様に記載の眼鏡装用パラメータ測定装置において、合成画像は、眼鏡フレーム装用状態における第1の画像の一部領域と、眼鏡フレーム非装用状態における第2の画像の該当領域との合成画像であることを特徴とする。
 本発明の第4の態様は、第3の態様に記載の眼鏡装用パラメータ測定装置において、一部領域は、被検者の顔を側面から撮像して得られた第1の画像上で被検者が装用する眼鏡フレームのリム部分を含む領域であり、該当領域は、被検者の顔を側面から撮像して得られた第2の画像上で被検者の眼球角膜部分を含まない領域であることを特徴とする。
 本発明の第5の態様は、表示画面部および操作部を備え、眼鏡フレームを装用する被検者の眼鏡装用パラメータについて測定を行う際に用いられるコンピュータを、
 被検者の眼鏡フレーム装用状態における顔画像である第1の画像と眼鏡フレーム非装用状態における顔画像である第2の画像とのそれぞれを関連付けた第3の画像を準備する画像処理手段と、
 画像処理手段が準備した第3の画像を表示画面部に表示させる表示制御手段と、表示画面部が表示する第3の画像上で眼鏡装用パラメータの測定基準点の指定を操作部で行わせる操作制御手段と、指定された測定基準点のデータを用いて眼鏡装用パラメータを算出する計測演算手段と、として機能させることを特徴とする眼鏡装用パラメータ測定プログラムである。
 本発明の第6の態様は、眼鏡フレームを装用した状態の被検者の顔画像を用いて被検者に関する眼鏡装用パラメータを測定する際に、測定に必要となる顔画像上の測定基準点を指定するための位置指定方法であって、被検者の眼鏡フレーム装用状態における顔画像である第1の画像と眼鏡フレーム非装用状態における顔画像である第2の画像とをそれぞれ取得しておき、測定基準点の指定にあたり、眼鏡フレーム装用状態における第1の画像と眼鏡フレーム非装用状態における第2の画像とを関連付けた第3の画像を準備して表示し、第3の画像上で眼鏡装用パラメータの測定基準点の指定を行うことを特徴とする位置指定方法である。
 本発明によれば、眼鏡装用パラメータの測定にあたり、被検者の顔画像上で測定基準点の位置指定を行う場合に、その測定基準点の位置指定を行うことが可能となる。
眼鏡装用パラメータの具体例を示す説明図である。 本発明の一実施形態における眼鏡装用パラメータ測定装置の構成例を示す説明図である。 本発明の一実施形態における眼鏡装用パラメータ測定方法の手順の一例を示すフローチャートである。 本発明の一実施形態における眼鏡装用パラメータ測定装置の撮像ファインダーで表示する内容の具体例を示す説明図であり、被検者の眼鏡フレーム装用状態における第1の画像を撮像する場合に必要となる表示内容を示す図である。 本発明の一実施形態における眼鏡装用パラメータ測定装置の撮像ファインダーで表示する内容の具体例を示す説明図であり、被検者の顔を側面から撮像する際における表示内容を示す図である。 本発明の一実施形態における眼鏡装用パラメータ測定装置で眼鏡装用パラメータを求める際の表示画面部での表示内容の具体例を示す説明図であり、被検者が装用する眼鏡フレームのフレーム縦幅を測定する際の表示内容を示す図である。 本発明の一実施形態における眼鏡装用パラメータ測定装置が行う画像合成処理の具体例を示す説明図である。 本発明の一実施形態における眼鏡装用パラメータ測定装置で眼鏡装用パラメータを求める際の表示画面部での表示内容の具体例を示す説明図であり、フレーム角膜頂点間距離を求める場合の表示内容を示す図である。
 以下、本発明の実施形態を、図面に基づいて説明する。
 ここでは、以下のような項分けをして説明を行う。
 1.本発明の概要
 2.眼鏡装用パラメータの具体例
 3.眼鏡装用パラメータ測定装置の構成例
 4.眼鏡装用パラメータ測定方法の手順
  4-1.手順の概要
  4-2.特徴的な手順の詳細
  4-3.その他の手順
 5.本実施形態の効果
 6.変形例等
  6-1.合成画像の変形例
  6-2.顔側面画像以外への適用
  6-3.測定補助具の使用
<1.本発明の概要>
 先ず、本発明の概要について説明する。
 本発明は、眼鏡装用パラメータについて測定を行う際に用いられる。さらに詳しくは、眼鏡フレームを装用した状態の被検者の顔を撮像して、その撮像結果である顔画像を画面上に表示し、その顔画像上にて測定の基準となる点(例えば、被検者の角膜頂点や眼鏡フレーム前枠等)を指定した上で、その測定基準点の位置に基づいて各種眼鏡装用パラメータを演算して求めることで、眼鏡装用パラメータについて測定を行う。
 このような眼鏡装用パラメータの測定を、本発明では、装置本体(筐体)が可搬式に構成された眼鏡装用パラメータ測定装置を用いて行う。可搬式であれば、非可搬式の大掛かりな測定装置のような設置スペースを要することがなく、眼鏡店への導入を容易化できるからである。
 可搬式の眼鏡装用パラメータ測定装置は、眼鏡装用パラメータの測定者(すなわち被検者に対する検者)が手で持ち運び可能なものであれば、その構成が特に限定されるものではないが、その一例として撮像機能、画像表示機能、操作機能および情報処理機能を備えたコンピュータである携帯型のタブレット端末装置を利用して構成することが考えられる。タブレット端末装置を利用して構成すれば、眼鏡装用パラメータの測定に必要十分な撮像機能、画像表示機能、操作機能および情報処理機能が得られ、しかも近年広く普及しつつあることを鑑みれば低コストで構成することも実現可能となり、眼鏡店への導入を促進する上で非常に好適であると言える。
 ところで、例えば携帯型のタブレット端末装置は、操作者が操作対象に触れて直接的に操作するというタッチインタフェースを採用したものが一般的であり、これにより明快な操作性を実現することを可能にしている。ただし、このようなタブレット端末装置を眼鏡装用パラメータ測定装置として用いる場合には、眼鏡フレームを装用した状態の被検者の顔を撮像して得られた顔画像を表示して操作対象とするので、既に説明したように、被検者が装用している眼鏡フレームの形状によっては被検者の顔について視認困難な箇所が生じてしまい、これにより操作性が悪くなってしまうことが考えられる。
 この点につき、本願発明者は、鋭意検討を行った。そして、本願発明者は、眼鏡フレームを装用した状態の被検者の顔画像を表示しつつ、その眼鏡フレームを装用していない状態の被検者の顔画像についても表示して検者(操作者)が把握できるようにすれば、被検者の顔について視認困難な箇所が生じてしまうのを回避することができ、これによる操作性悪化を抑制できるのではないかと考えた。
 このことを実現すべく、本願発明者は、さらに鋭意検討を重ねた。そして、本願発明者は、眼鏡フレーム装用状態の被検者の顔の撮像結果に加えて、眼鏡フレーム非装用状態の被検者の顔の撮像結果を用意しておき、これらの撮像結果を互いに関連付けて一つの表示画面内に表示することで、眼鏡フレームによる視認困難な箇所についても当該眼鏡フレームがない状態を容易に把握することが可能になるという、従来にはない全く新たな着想を得るに至った。
 本発明は、上述した本願発明者による新たな着想に基づいてなされたものである。
 すなわち、本発明は、被検者の眼鏡フレーム装用状態における顔画像(第1の画像)と眼鏡フレーム非装用状態における顔画像(第2の画像)とをそれぞれ取得しておき、眼鏡装用パラメータの測定に必要となる測定基準点を指定にあたり、それぞれの顔画像を関連付けた(加工)画像(第3の画像)を生成して一つの表示画面内に表示し、その加工画像上で測定基準点の指定を行うことを特徴とする。
 このような特徴を有することで、眼鏡装用パラメータの測定にあたり、被検者の顔画像上で測定基準点の位置指定を行う場合に、その測定基準点の位置指定を行うことを実現可能とするのである。
<2.眼鏡装用パラメータの具体例>
 ここで、眼鏡装用パラメータ測定装置を用いて測定される眼鏡装用パラメータについて説明する。
 図1は、眼鏡装用パラメータの具体例を示す説明図である。
 眼鏡装用パラメータとしては、例えば、被検者が眼鏡フレームを装用した状態における角膜頂点間距離と、フレーム前傾角とが知られている。
 角膜頂点間距離は、図1(a)に示すように、被検者(眼鏡装用者)が遠方視したときの視軸を遠方視軸Aとした場合において、その遠方視軸A上における当該被検者の眼球Eの角膜頂点から当該被検者が装用する眼鏡フレームFに枠入れされた眼鏡レンズLの内面までの距離CVDである。
 ただし、眼鏡フレームFに枠入れされる眼鏡レンズLは、被検者に処方される球面度数や乱視度数等によって内面の曲率が異なったものとなる。その一方で、眼鏡装用パラメータの測定は、被検者が新たに眼鏡を購入しようとするタイミング、すなわち被検者が眼鏡店にてサンプルレンズが枠入れされた眼鏡フレームを装用した状態で行われることが一般的である。そのため、眼鏡店で角膜頂点間距離CVDを測定しても、その測定結果は、必ずしも被検者の処方度数等が反映されたものとはならない。また、眼鏡フレームFに枠入れされた状態では、眼鏡レンズLの内面の位置が視認困難であることが多い。
 そこで、本実施形態においては、眼鏡装用パラメータとして、角膜頂点間距離CVDではなく、これに代わってフレーム角膜頂点間距離FVDを測定する。
 フレーム角膜頂点間距離FVDは、図1(b)に示すように、被検者(眼鏡装用者)が遠方視したときの視軸を遠方視軸Aとした場合において、その遠方視軸A上における当該被検者の眼球Eの角膜の頂点から、その状態で被検者が装用する眼鏡フレームFへと水平方向に線を伸ばし、眼鏡フレームFの外周最上端にある上リムの幅の中央から、眼鏡フレームFの外周最下端にある下リムの幅の中央とを結んだ直線との交点までの距離が、角膜頂点フレーム間距離である。
 また、眼鏡フレームFが縁なしの場合は、眼鏡フレームFに取り付けられたダミーレンズの上端と下端のコバの幅の中点とを結んだ直線との交点までの距離が、角膜頂点フレーム間距離である。
 さらに、眼鏡フレームFがナイロールの場合は、リムバーの幅の中央、またはブローバーの幅の中央とダミーレンズの下端のコバの幅の中点とを結んだ直線との交点までの距離が、角膜頂点フレーム間距離である。
 なお、眼鏡レンズLの処方度数等が確定すれば、フレーム角膜頂点間距離FVDの測定結果を基に、レンズ基材の屈折率、レンズ凸面カーブ形状、レンズ凹面カーブ形状、レンズ肉厚、フレーム前傾角、フレームのそり角、レンズの前傾角、アイポイント、ヤゲンの位置を計算パラメータとして幾何演算等を行うことで、当該処方度数等が反映された角膜頂点間距離CVDを一意に導き出すことが可能となる。
 フレーム前傾角は、一般には眼鏡フレームFのテンプルとリムとがなす角度のことを言うが、本実施形態では、図1(b)に示すように、遠方視軸Aと直交する直線(すなわち鉛直方向に延びる直線)L1と、眼鏡フレームFのリム中心線L2とがなす角度αのことをいう。
 なお、これらの眼鏡装用パラメータは、一つの具体例に過ぎない。つまり、眼鏡装用パラメータは、これらに限定されることはなく、これらの少なくとも一つを含んでいればよく、またこれら以外のものを含んでいても構わない。これら以外のものとしては、例えば、フィッティングポイント位置、瞳孔間距離、フレーム反り角、近方視瞳孔間距離、眼球回旋角等が挙げられる。
 本実施形態では、眼鏡装用パラメータとしてフレーム角膜頂点間距離FVDおよびフレーム前傾角αを測定する場合を例に挙げて、以下に詳しく説明する。
<3.眼鏡装用パラメータ測定装置の構成例>
 次に、眼鏡装用パラメータの測定を行う際に用いられる眼鏡装用パラメータ測定装置の構成例について説明する。
 図2は、本発明の一実施形態における眼鏡装用パラメータ測定装置の構成例を示す説明図であり、(a)は外観斜視図、(b)は機能ブロック図を示している。
 図2(a)に示すように、本実施形態で説明する眼鏡装用パラメータ測定装置1は、携帯型のタブレット端末装置を利用して構成されている。以下、本実施形態における眼鏡装用パラメータ測定装置1を、単に「タブレット端末」と称す。
 タブレット端末1は、眼鏡装用パラメータの測定者(すなわち被検者に対する検者)が手で持ち運び可能な可搬式の装置筐体(本体部)10を備えている。そして、装置筐体10には、CCD(Charge Coupled Device)センサまたはCMOS(Complementary Metal-Oxide Semiconductor)センサを有してなる撮像カメラ部11と、LCD(Liquid Crystal Display)パネル等のフラットパネルディスプレイを有してなる表示画面部12と、CPU(Central Processing Unit)を有してなる情報処理部15(ただし図2(a)には不図示)とが設けられている。そして、表示画面部12には、タッチインタフェースを実現する操作部12aが付設されている。タッチインタフェースとは、表示画面部12のディスプレイに触れることで操作できるユーザインタフェースのことである。このようなタッチインタフェースにより、操作部12aからは、タブレット端末1に対する情報入力を行い得るようになっている。つまり、タブレット端末1は、撮像機能、画像表示機能、操作機能および情報処理機能を備えたコンピュータとして機能するものである。
 なお、タッチインタフェースによる操作部12aの操作は、図例のようにタッチペンを用いて行うことが考えられるが、操作者の指で直接行うようにしても構わない。また、操作部12aは、タッチインタフェースによるものではなく、タブレット端末1に接続されたキーボードやマウス等の情報入力装置を用いるようにしても構わない。
 また、タブレット端末1は、図2(b)に示すように、その装置筐体10内に、撮像カメラ部11、表示画面部12および操作部12a、情報処理部15に加えて、角速度を検出するデバイスであるジャイロセンサ13と、不揮発性メモリからなるメモリ部14と、が設けられている。
 ジャイロセンサ13は、装置筐体10の姿勢の状態等を把握するために用いられる。なお、ジャイロセンサ13は、タブレット端末1が本来的に有しているものを利用すればよい。
 メモリ部14には、撮像カメラ部11で得た画像データや操作部12aで入力された各種データの他に、情報処理部15の処理動作に必要となる所定プログラムが記憶される。このメモリ部14から所定プログラムを読み出して実行することで、情報処理部15は、撮像制御手段15a、画像処理手段15b、表示制御手段15c、操作制御手段15dおよび計測演算手段15eとして機能するようになっている。
 撮像制御手段15aは、撮像カメラ部11の動作制御を行うものである。撮像カメラ部11の動作制御には、当該撮像カメラ部11におけるシャッターの動作可否の制御が含まれる。具体的には、撮像制御手段15aは、装置筐体10の姿勢が所定の状態である場合にのみ、シャッターの動作を許可するようになっている。
 画像処理手段15bは、撮像カメラ部11で得られた撮像結果である被検者の顔画像について、その顔画像に対して所定の画像処理を行うものである。具体的には、画像処理手段15bは、所定の画像処理の一つとして、撮像カメラ部11で得られた被検者の眼鏡フレーム装用状態における第1の画像と眼鏡フレーム非装用状態における第2の画像とについて、これらを関連付けた加工画像(第3の画像)を生成するようになっている。さらに詳しくは、各画像を関連付けた加工画像として、当該各画像を合成した合成画像を生成する。この合成画像は、被検者の眼鏡フレーム非装用状態における第2の画像の一部領域に、同じ被検者の眼鏡フレーム装用状態における第1の画像の該当領域を嵌め込んだ(両領域同士を合成した)、いわゆるスーパーインポーズ合成を行って得られるものである。なお、スーパーインポーズ合成の対象となる一部領域および該当領域としては、詳細を後述するように、例えば、被検者の顔を側面から撮像して得られた顔側面画像上で当該被検者の眼球角膜部分を含む領域が挙げられる。つまり上記の例では合成画像は少なくとも測定位置を含むものとなる。
 表示制御手段15cは、表示画面部12の動作制御を行うものである。表示画面部12の動作制御には、当該表示画面部12が表示する画像内容についての制御が含まれる。具体的には、表示制御手段15cは、撮像カメラ部11による撮像対象である被検者の顔画像(すなわち撮像前の画像)を表示画面部12に画像表示させることで、表示画面部12を撮像カメラ部11の撮像ファインダーとして機能させる。また、表示制御手段15cは、撮像カメラ部11による撮像結果である被検者の顔画像(すなわち撮像済の画像)を表示画面部12に画像表示させることで、その後に行う操作部12aでの操作に供するようになっている。なお、このとき、表示制御手段15cは、撮像カメラ部11による撮像結果として、画像処理手段15bが生成した加工画像(具体的には、例えばスーパーインポーズ合成画像)を、表示画面部12に画像表示させるものとする。
 操作制御手段15dは、操作部12aの動作制御を行うものである。操作部12aの動作制御には、その操作部12aで指定された点の位置認識が含まれる。具体的には、操作制御手段15dは、表示画面部12が表示する被検者の顔画像上の点を操作部12aで指定させることで、眼鏡装用パラメータの測定に必要となる測定基準点の表示画像上での位置を認識するようになっている。
 計測演算手段15eは、被検者に関する眼鏡装用パラメータを求めるためのものである。詳しくは、計測演算手段15eは、撮像カメラ部11で得られた撮像結果を用いつつ、操作部12aで指定される測定基準点に基づいて、被検者に関する眼鏡装用パラメータを求める演算処理を行うようになっている。なお、本実施形態においては計測演算手段15eのことを演算部とも言う。
 これらの各手段15a~15eは、情報処理部15がメモリ部14内の所定プログラムを読み出して実行することによって実現される。つまり、タブレット端末1における各手段15a~15eとしての機能は、メモリ部14内の所定プログラム(すなわち、本発明に係る眼鏡装用パラメータ測定プログラムの一実施形態)によって実現される。その場合に、眼鏡装用パラメータ測定プログラムは、メモリ部14内にインストールされて用いられることになるが、そのインストールに先立ち、タブレット端末1で読み取り可能な記憶媒体に格納されて提供されるものであってもよいし、あるいはタブレット端末1と接続する通信回線を通じて当該タブレット端末1へ提供されるものであってもよい。
 なお、本実施形態では、装置筐体10内の情報処理部15が計測演算手段15eとして機能する場合、すなわち装置筐体10内にて計測演算手段15eが眼鏡装用パラメータを求める演算処理を行う場合を例に挙げたが、例えばタブレット端末1と接続する無線または有線の通信回線を通じて当該通信回線上の他装置と情報処理部15が通信可能に構成されている場合には、当該他装置に眼鏡装用パラメータを求める演算処理を行う機能を担わせるようにしても構わない。つまり、タブレット端末1の装置筐体10には、少なくとも撮像カメラ部11、表示画面部12および操作部12aが設けられていればよく、情報処理部15による計測演算手段15eとしての機能等は、いわゆるクラウドコンピューティングのように、通信回線上の他装置に代替させてもよい。
<4.眼鏡装用パラメータ測定方法の手順>
 次に、上述した構成のタブレット端末1を使用して行う眼鏡装用パラメータ測定方法の手順について説明する。
(4-1.手順の概要)
 ここで、先ず、眼鏡装用パラメータ測定方法の手順の概要について説明する。
 図3は、本発明の一実施形態における眼鏡装用パラメータ測定方法の手順の一例を示すフローチャートである。
 本実施形態で説明する眼鏡装用パラメータ測定方法においては、少なくとも、眼鏡フレームを装用した状態の被検者の顔側面と、眼鏡フレームを装用していない状態の被検者の顔側面とを撮像し、これらの撮像結果である第1の画像(眼鏡フレーム装用状態における顔画像)および第2の画像(眼鏡フレーム非装用状態における顔画像)を基にフレーム角膜頂点間距離FVDおよびフレーム前傾角αを求めることで、眼鏡装用パラメータについての測定を行う。
 具体的には、眼鏡装用パラメータの測定者(すなわち眼鏡店の店員等の検者)は、眼鏡装用パラメータの被検者(すなわち眼鏡店の顧客等)に撮影の準備をさせるとともに、眼鏡装用パラメータ測定プログラムがアプリケーションプログラムとしてインストールされたタブレット端末1の立ち上げを行う(ステップ101、以下ステップを「S」と略す。)。このとき、被検者は、装用を予定する眼鏡フレームを用意する。なお、被検者の撮影には、可搬性のあるタブレット端末1を用いるので、固定型の測定装置を用いる場合とは異なり、被検者を装置設置場所へ移動させたり、被検者に特定の姿勢をさせたりする必要がない。ここまでは、本実施形態の眼鏡装用パラメータ測定方法における「準備段階」に相当する。
 準備段階の後は、検者がタブレット端末1を手に持った状態で、そのタブレット端末1における撮像カメラ部11を利用しつつ、検者が撮像カメラ部11のシャッターボタン押下を行うことで、眼鏡フレームを装用した状態の被検者の顔側面を撮像し(S102)、次いで当該顔側面について眼鏡フレームを装用していない状態での撮像を行う(S103)。これにより、タブレット端末1は、少なくとも、被検者の眼鏡フレーム装用状態における顔側面の画像と、当該被検者の眼鏡フレーム非装用状態における顔側面の画像とを、それぞれ取得することになる。ここまでは、本実施形態の眼鏡装用パラメータ測定方法における「撮像段階」に相当する。
 撮像段階の後は、検者がタブレット端末1を操作しつつ、撮像段階で得られた撮像結果に基づいて、各種眼鏡装用パラメータの測定を行う。具体的には、タブレット端末1は、少なくとも、フレーム前傾角αを求めるとともに(S104)、被検者が装用する眼鏡フレームのフレーム縦幅の測定を行った上で(S105)、フレーム角膜頂点間距離FVDを求める(S106)。ここまでは、本実施形態の眼鏡装用パラメータ測定方法における「測定段階」に相当する。そして、タブレット端末1は、このようにして求めた各種眼鏡装用パラメータの測定結果を、例えばメモリ部14に保存しておく(S107)。
 このように、本実施形態で説明する眼鏡装用パラメータ測定方法では、大別すると準備段階、撮像段階および測定段階の各段階を経て、各眼鏡装用パラメータについての測定を行う。なお、各段階は、必ずしも順に行う必要はなく、それぞれを同時並行的に行ってもよい。具体的には、例えば、撮像段階にて被検者の眼鏡フレーム装用状態の第1の画像を取得した後(S102)、眼鏡フレーム非装用状態の第2の画像を取得する前に(S102)、測定段階を開始してフレーム前傾角αを求める(S104)ようにしてもよい。
(4-2.特徴的な手順の詳細)
 続いて、上述した各段階を経る眼鏡装用パラメータ測定方法における特徴的な手順について、具体例を挙げて詳細に説明する。
(S102:眼鏡フレーム装用状態の第1の画像の撮像処理)
 図4は、本発明の一実施形態における眼鏡装用パラメータ測定装置の撮像ファインダーで表示する内容の具体例を示す説明図であり、被検者の眼鏡フレーム装用状態における第1の画像を撮像する場合に必要となる表示内容を示す図である。図5は、同じく撮像ファインダーで表示する内容の具体例を示す説明図であり、被検者の顔を側面から撮像する際における表示内容を示す図である。
 被検者の眼鏡フレーム装用状態の第1の画像を撮像する場合に、タブレット端末1は、先ず、その撮像を行う検者による所定操作に応じて、眼鏡フレーム装用状態についての撮像モードとなる。
 眼鏡フレーム装用状態についての撮像モードとなったタブレット端末1は、表示制御手段15cによる制御に従いつつ、図4(a)に示すように、表示画面部12による撮像ファインダー内に、鉛直方向(すなわち重力方向)に延びる直線およびこれと直交する水平方向に延びる直線からなる第一基準線31と、撮像ファインダーの縦方向に延びる直線からなる第二基準線32と、撮像を行うために使用するシャッターボタン33と、を表示する。これにより、表示画面部12には、撮像カメラ部11を通じて得られる画像に加えて、第一基準線31、第二基準線32およびシャッターボタン33が表示される。
 第一基準線31は、タブレット端末1の装置筐体10の姿勢がどのような状態であっても、常に鉛直方向および水平方向に延びるように表示される。つまり、装置筐体10の姿勢にかかわらず、重力方向に対して常に固定的に表示されることになる。このような第一基準線31は、ジャイロセンサ13の機能を利用することで、撮像ファインダー内に表示することが可能である。
 一方、第二基準線32は、表示画面部12の画角に対して常に固定的に表示される。したがって、タブレット端末1の装置筐体10の姿勢が変わると、これに伴って第二基準線32が延びる方向も変わることになる。
 なお、第一基準線31と第二基準線32とは、それぞれを識別し得るように表示される。具体的には、それぞれの表示色を相違させることで、識別し得るようにすることが考えられる。
 シャッターボタン33は、撮像カメラ部11での撮像を行うために検者が押下するものである。ただし、シャッターボタン33は、図4(b)に示すように、タブレット端末1の装置筐体10が鉛直方向に立った状態にあると見做せる姿勢であるときに限り、押下可能な状態になるものとする。具体的には、検者が装置筐体10を手で持った場合に、当該装置筐体10が鉛直方向に立った姿勢となる状態を90°とすると、前後方向(図中における矢印方向)の傾きが例えば±5°以内であるときに限り、シャッターボタン33が押下可能な状態になるものとする。このようなシャッターボタン33の押下制限についても、ジャイロセンサ13の機能を利用することで実現することが可能である。
 撮像ファインダー内に第一基準線31、第二基準線32およびシャッターボタン33が表示されると、検者は、被検者の眼鏡フレーム装用状態における顔側面を撮像カメラ部11での撮像対象とする。具体的には、検者は、被検者に眼鏡フレームを装用させた上で、眼鏡フレーム装用状態の被検者の顔側面と対向するようにタブレット端末1を手に持って構えて、そのタブレット端末1の表示画面部12による撮像ファインダー内に当該被検者の顔側面を表示させる。
 そして、検者は、図5(a)に示すように、撮像ファインダー内に表示されている第二基準線32を、被検者が装用する眼鏡フレームFにおけるリム中心線と合わせるように、タブレット端末1を構えた位置を回転方向(図中における矢印方向)に移動させて調整する。このとき、タブレット端末1は、第二基準線32をリム中心線に合わせる旨について、検者に対してガイダンスを行うようにしてもよい。ガイダンスは、例えば、撮像制御手段15aが表示画面部12に文字情報を表示して行うことが考えられるが、これに限られることはなく、音声出力によって行うようにしても構わない。
 第二基準線32をリム中心線に合わせた状態で、かつ、シャッターボタン33が押下可能な状態になると、検者は、その状態でシャッターボタン33を押下する。シャッターボタン33の押下があると、タブレット端末1では、撮像ファインダーに表示されている状態の画像を撮像カメラ部11が撮像する。この撮像カメラ部11による撮像結果である画像(すなわち被検者の眼鏡フレーム装用状態における顔側面の画像)は、その画像上における第一基準線31および第二基準線32の位置情報と合わせて、表示画面部12で一旦表示される。
 ここで、表示制御手段15cは、表示画面部12が表示する画面上での第二基準線32の位置を、検者による操作部12aでの操作内容に従いつつ移動させ得るようにしてもよい。このようにすれば、被検者の眼鏡フレーム装用状態における顔側面の撮像後においても、その撮像結果である画像上での第二基準線32の位置を検者が微調整し得るようになる。
 その後、表示画面部12での表示内容は、検者による確認の結果、問題がなければ、被検者の眼鏡フレーム装用状態の第1の画像の撮像結果として、メモリ部14内にデータ保存されることになる。
 以上のように、本実施形態で説明するタブレット端末1は、被検者の眼鏡フレーム装用状態の第1の画像の撮像にあたり、撮像ファインダー内に表示されている第二基準線32を、被検者が装用する眼鏡フレームFにおけるリム中心線と合わせるようにして、当該撮像を行う。このようにして撮像を行えば、詳細を後述するように、第一基準線31と第二基準線32との位置関係を利用することで、眼鏡装用パラメータの一つであるフレーム前傾角αを求めることができるようになる。
 なお、撮像によって得られた被検者の眼鏡フレーム装用状態の第1の画像は、メモリ部14内へのデータ保存の後に、そのメモリ部14内からの読み出しを行うことによって、タブレット端末1の表示画面部12で表示して再利用することが可能となる。その場合に、表示画面部12に第1の画像の表示を行わせる表示制御手段15cは、第二基準線32の位置が第一基準線31の位置に重なるように当該第1の画像を回転方向に移動させる画像編集処理を画像処理手段15bに行わせてもよい。このような画像編集処理を経れば、表示画面部12には、撮像の際にタブレット端末1を回転方向に移動させた位置調整量が補正された状態(すなわち、第1の画像の鉛直方向および水平方向が表示画面部12の画角を構成する端辺に沿う状態)で、被検者の眼鏡フレーム装用状態の第1の画像が表示されることになる。
(S103:眼鏡フレーム非装用状態の第2の画像の撮像処理)
 被検者の眼鏡フレーム装用状態における第1の画像の撮像が終了すると、タブレット端末1は、次いで、検者による所定操作に応じて、当該被検者の眼鏡フレーム非装用状態についての撮像モードとなる。
 眼鏡フレーム非装用状態についての撮像モードとなったタブレット端末1は、表示制御手段15cによる制御に従いつつ、図5(b)に示すように、表示画面部12による撮像ファインダー内に、撮像を行うために使用するシャッターボタン33と、被検者の眼鏡フレーム装用状態における第1の画像の撮像結果に相当するガイド画像34と、を表示する。これにより、表示画面部12には、撮像カメラ部11を通じて得られる画像に加えて、シャッターボタン33およびガイド画像34が表示されることになる。
 ガイド画像34は、眼鏡フレーム装用状態の第1の画像の撮像処理(S102)で得られた撮像結果に対して、画像処理手段15bが所定の画像編集処理を施したものである。所定の画像編集処理としては、上述した位置調整量を補正する画像編集処理の他に、画像の透過性を調整して半透明にする画像編集処理がある。画像の透過性の調整は、公知技術を利用して行えばよいが、具体的には透過性を20%~40%の範囲内、好ましくは30%程度に調整することが考えられる。このように透過性を調整すれば、ガイド画像34を表示している状態であっても、そのガイド画像を透して他の画像を視認し得るようになる。
 撮像ファインダー内にシャッターボタン33およびガイド画像34が表示されると、検者は、被検者の眼鏡フレーム非装用状態における顔側面を撮像カメラ部11での撮像対象とする。具体的には、検者は、被検者が装用していた眼鏡フレームを外させた上で、その眼鏡フレーム非装用状態の被検者の顔側面と対向するようにタブレット端末1を手に持って構えて、そのタブレット端末1の表示画面部12による撮像ファインダー内に当該被検者の顔側面を表示させる。
 そして、検者は、図5(c)に示すように、撮像カメラ部11を通して撮像ファインダー内に表示されている眼鏡フレーム非装用状態における第2の画像の輪郭を、当該撮像ファインダー内に表示されているガイド画像34の輪郭に合わせるように、タブレット端末1を構えた位置を調整する。このとき、タブレット端末1は、眼鏡フレーム非装用状態における第2の画像の輪郭をガイド画像34に合わせる旨について、検者に対してガイダンスを行うようにしてもよい。ガイダンスは、例えば、撮像制御手段15aが表示画面部12に文字情報を表示して行うことが考えられるが、これに限られることはなく、音声出力によって行うようにしても構わない。
 眼鏡フレーム非装用状態における第2の画像の輪郭をガイド画像34に合わせた状態で、かつ、シャッターボタン33が押下可能な状態になると、検者は、その状態でシャッターボタン33を押下する。シャッターボタン33の押下があると、タブレット端末1では、撮像ファインダーに表示されている状態の画像を撮像カメラ部11が撮像する。この撮像カメラ部11による撮像結果である画像(すなわち被検者の眼鏡フレーム非装用状態における顔側面の画像)は、ガイド画像34と合わせて、表示画面部12で一旦表示される。
 ここで、表示制御手段15cは、撮像カメラ部11による撮像結果である画像について、検者による操作部12aでの操作内容に従いつつ、表示画面部12が表示する画面上での位置を移動させたり大きさを拡縮したりし得るようにしてもよい。このようにすれば、被検者の眼鏡フレーム非装用状態における顔側面の撮像後においても、その撮像結果である第2の画像の輪郭がガイド画像34に完全に合うように当該第2の画像を検者が微調整し得るようになる。
 その後、表示画面部12での表示内容は、検者による確認の結果、問題がなければ、被検者の眼鏡フレーム非装用状態の第2の画像の撮像結果として、メモリ部14内にデータ保存されることになる。
 以上のように、本実施形態で説明するタブレット端末1は、被検者の眼鏡フレーム非装用状態の第2の画像の撮像にあたり、当該被検者の眼鏡フレーム装用状態の第1の画像の撮像結果を基にしたガイド画像34に合わせるようにして、当該撮像を行う。このようにして撮像を行えば、被検者の眼鏡フレーム非装用状態の第2の画像について、既に得られている当該被検者の眼鏡フレーム装用状態の第1の画像と画角内の画像の配置や大きさ等が略同様のものを得ることができるようになる。なお、撮像によって得られた被検者の眼鏡フレーム非装用状態の第2の画像は、メモリ部14内へのデータ保存の後に、そのメモリ部14内からの読み出しを行うことによって、タブレット端末1の表示画面部12で表示して再利用することが可能となる。
(S104:フレーム前傾角αの測定処理)
 被検者の眼鏡フレーム装用状態の第1の画像の撮像処理(S102)が終了した後は、フレーム前傾角αの測定処理(S104)を開始することが可能となる。フレーム前傾角αを測定する場合に、タブレット端末1は、検者による所定操作に応じて、前傾角測定モードとなる。
 前傾角測定モードとなったタブレット端末1は、表示制御手段15cによる制御に従いつつ、被検者の眼鏡フレーム装用状態における第1の画像をメモリ部14内から読み出して表示画面部12で表示する。そして、タブレット端末1では、その眼鏡フレーム装用状態の第1の画像を用いつつ、計測演算手段15eがフレーム前傾角αを求める演算処理を行う。具体的には、メモリ部14内から読み出した眼鏡フレーム装用状態の第1の画像によれば、その画像上における第一基準線31および第二基準線32の位置を特定し得るので、計測演算手段15eは、当該第一基準線31における鉛直方向の直線を、フレーム前傾角αを求めるための直線L1(図1(b)参照)と見做すとともに、当該第二基準線32を、フレーム前傾角αを求めるための直線L2(図1(b)参照)と見做す。そして、計測演算手段15eは、画像上での直線L1と直線L2とがなす角度を、フレーム前傾角αとして求める。
 このようにして計測演算手段15eが求めたフレーム前傾角αは、表示制御手段15cによる制御に従いつつ、表示画面部12の画面内の所定ウインドウに表示される。そして、その演算処理結果は、検者による確認の結果、問題がなければ、メモリ部14内にデータ保存されることになる。
(S105:眼鏡フレーム縦幅の測定処理)
 ところで、測定段階においては、被検者の顔の撮像結果である顔画像を基に、眼鏡装用パラメータを演算して求める。そのため、例えばフレーム角膜頂点間距離FVDのような距離の大きさによって特定される眼鏡装用パラメータについては、これを演算して求めるのにあたり、顔画像上における距離の大きさと実空間内での実際の距離の大きさとを関連付けるキャリブレーション(較正)が必要となる。
 このキャリブレーションのために、本実施形態では、被検者が装用する眼鏡フレームFについて眼鏡フレーム縦幅の測定処理(S105)を行う。眼鏡フレーム縦幅の測定処理(S105)を行う場合に、タブレット端末1は、検者による所定操作に応じて、眼鏡フレーム縦幅測定モードとなる。
 図6は、本発明の一実施形態における眼鏡装用パラメータ測定装置で眼鏡装用パラメータを求める際の表示画面部での表示内容の具体例を示す説明図であり、被検者が装用する眼鏡フレームのフレーム縦幅を測定する際の表示内容を示す図である。
 眼鏡フレーム縦幅測定モードとなったタブレット端末1は、表示制御手段15cによる制御に従いつつ、図6(a)に示すように、表示画面部12における画面内に、当該画面の長辺に沿って延びる直線からなる第三基準線35と、その第三基準線35と平行に配された二本の直線からなる第四基準線36a,36bと、を表示する。
 第三基準線35は、表示画面部12における画面の上下方向中間点付近に固定的に表示される。なお、第三基準線35の表示は必須ではなく、当該表示を省略してもよい。
 一方、第四基準線36a,36bは、第三基準線35を挟むようにそれぞれが表示される。また、第四基準線36a,36bは、第三基準線35との平行状態を維持したまま、それぞれが独立して画面内で移動させ得るようになっている。第四基準線36a,36bの画面内での移動は、検者による操作部12aでの操作内容に従いつつ行われる。
 表示画面部12の画面内に第三基準線35および第四基準線36a,36bが表示されると、検者は、図6(b)に示すように、その表示画面部12の画面上に、被検者が装用する眼鏡フレームFを単体の状態で載置する。このとき、検者は、眼鏡フレームFのデータムラインを第三基準線35に合わせるようにして、当該眼鏡フレームFを画面上に載置する。このように、眼鏡フレームFを載置するためのガイドとして第三基準線35を用いれば、検者にとっては利便性の高いものとなる。さらには、第三基準線35を表示すれば、後述する眼鏡フレーム縦幅の測定を行う際に表示画面部12の画面周辺領域を使用せずに済むので、当該測定を精緻に行えるようになる。
 表示画面部12の画面上に眼鏡フレームFを載置すると、次いで、検者は、操作部12aを操作することで第四基準線36a,36bを画面内で移動させる。そして、一方の第四基準線36aを眼鏡フレームFのリム上端に合わせるとともに、他方の第四基準線36bを当該眼鏡フレームFのリム下端に合わせる。このようにすることで、各第四基準線36a,36bの間隔は、眼鏡フレームFのフレーム縦幅の大きさに一致することになる。
 この状態で操作部12aによる所定操作(例えば、図示せぬ「決定」アイコン画像の押下)があると、タブレット端末1では、計測演算手段15eが各第四基準線36a,36bの間の実距離を求める。具体的には、計測演算手段15eは、各第四基準線36a,36bの間隔の大きさを表示画面部12における画素数によって認識するとともに、認識した画素数に一画素あたりの実際の大きさを乗ずることで各第四基準線36a,36bの間の実距離を求め、その演算処理結果を眼鏡フレームFのフレーム縦幅の大きさとする。
 このようにして計測演算手段15eが求めたフレーム縦幅の演算処理結果は、表示制御手段15cによる制御に従いつつ、表示画面部12の画面内の所定ウインドウ37に表示される。そして、その演算処理結果は、検者による確認の結果、問題がなければ、メモリ部14内にデータ保存されることになる。
 以上のように、本実施形態で説明するタブレット端末1は、眼鏡装用パラメータの測定に必要となるキャリブレーションのために、被検者が装用する眼鏡フレームFについて眼鏡フレーム縦幅の測定処理(S105)を行う。しかも、本実施形態のタブレット端末1は、眼鏡フレーム縦幅の測定処理(S105)にあたり、表示画面部12の画面上に眼鏡フレームFを載置させた状態で、その眼鏡フレームFのフレーム縦幅の大きさを表示画面部12における画素数に換算した上で、当該フレーム縦幅の大きさを演算処理によって求めるようになっている。したがって、眼鏡フレームFのフレーム縦幅の大きさをスケール等で物理的に計測する必要がなく、その計測結果の値をタブレット端末1に入力する必要もなく、眼鏡フレーム縦幅の測定処理(S105)をタブレット端末1の表示画面部12を利用して簡便に行えるようになる。また、眼鏡装用パラメータの測定に必要となるキャリブレーションのために、眼鏡フレームFにスケールとなる治具等を予め装着しておく、といった必要も生じない。つまり、一連の処理をタブレット端末1のみで完結して行えるようになり、当該タブレット端末1を用いて眼鏡装用パラメータ測定装置を構成する上で非常に好適なものとなる。
(S106:フレーム角膜頂点間距離FVDの測定処理)
 以上のような眼鏡装用パラメータ測定装置が完了すると、その後、タブレット端末1では、フレーム角膜頂点間距離FVDの測定処理(S106)が実行可能となる。フレーム角膜頂点間距離FVDを測定する場合に、タブレット端末1は、検者による所定操作に応じて、フレーム角膜頂点間距離測定モードとなる。
 フレーム角膜頂点間距離測定モードとなったタブレット端末1は、表示制御手段15cによる制御に従いつつ、撮像処理(S102,S103)で得られた撮像結果をメモリ部14内から読み出して表示画面部12で表示して、その後に検者が行う操作部12aでの操作に供する。ただし、このとき、タブレット端末1では、情報処理部15における画像処理手段15bとしての機能が、以下に述べるような画像処理を行う。
(画像処理)
 図7は、本発明の一実施形態における眼鏡装用パラメータ測定装置が行う画像合成処理の具体例を示す説明図である。
 画像処理手段15bは、図7(a)に示すように、被検者の眼鏡フレーム装用状態における顔側面についての撮像結果である第1の画像41をメモリ部14内から読み出す。さらに、画像処理手段15bは、図7(b)に示すように、被検者の眼鏡フレーム非装用状態における顔側面についての撮像結果である第2の画像42をメモリ部14内から読み出す。
 眼鏡フレーム装用状態の第1の画像41および眼鏡フレーム非装用状態の第2の画像42を読み出したら、画像処理手段15bは、これらの画像41,42に対して、スーパーインポーズ合成を行うために必要となる画像処理を行う。
 具体的には、画像処理手段15bは、図7(c)に示すように、眼鏡フレーム装用状態の第1の画像41について、その一部領域43のデータ抽出を行うとともに、当該一部領域43を除く他の領域のデータ消去を行う(図中ハッチング部分参照)。このときの「一部領域」は、画像全体に対して占める位置、大きさ、範囲等が予め定められており、少なくとも被検者が装用する眼鏡フレームFのリム部分を含むが、当該眼鏡フレームFのテンプル部分および被検者の眼球角膜部分については含まないように設定された領域である。この一部領域43については、図例のような矩形状とすることが考えられるが、これに限定されることはなく、円形状等のような他の形状に設定されたものであってもよい。
 また、画像処理手段15bは、図7(d)に示すように、眼鏡フレーム非装用状態の顔側面画像42について、上述した一部領域43に対応する該当領域44のデータ消去を行う(図中ハッチング部分参照)。このときの「該当領域」は、上述した一部領域に対応するように、画像全体に対して占める位置、大きさ、範囲等が当該一部領域43と同一に定められている。したがって、この該当領域44においても、上述した一部領域43と同様に、被検者の眼球角膜部分については含まないように設定されることになる。また、該当領域44の外形形状についても、上述した一部領域43と同一であれば、矩形状や円形状等のいずれであってもよい。
 なお、一部領域43と該当領域44との対応付けは、各画像41,42を構成する画素の位置情報を基にして行うことが考えられる。眼鏡フレーム装用状態の第1の画像41と眼鏡フレーム非装用状態の第2の画像42とは、それぞれが同画角となるように撮像されており、眼鏡フレームの装用の有無を除けば、画角内の画像の配置や大きさ等が略同様だからである。ただし、必ずしもこれに限定されることはなく、他の手法により一部領域43と該当領域44との対応付けを行うようにしても構わない。他の手法としては、例えば、各画像41,42内に共通して存在する画像要素(被検者の耳や眼鏡フレームのリム等)を形状認識し、それぞれにおける画像要素を合致させた上で、その画像要素との位置関係を基準にして、一部領域43と該当領域44とを高精度に対応付けするといったものが挙げられる。
 その後、画像処理手段15bは、図7(e)に示すように、眼鏡フレーム装用状態の第1の画像41における一部領域43を、眼鏡フレーム非装用状態の第2の画像42における該当領域44に嵌め込むように、これらの画像41,42についてスーパーインポーズ合成を行う。これにより、画像処理手段15bは、眼鏡フレーム装用状態の第1の画像41と眼鏡フレーム非装用状態の第2の画像42とを合成して、一つの合成画像(第3の画像)45を得ることになる。この合成画像45は、それぞれの画像41,42を関連付けた加工画像の一態様に相当するものである。
 このようなスーパーインポーズ合成によって得られる一つの合成画像45は、眼鏡フレーム装用状態の第1の画像41における一部領域43が、眼鏡フレーム非装用状態の第2の画像42における該当領域44に置換されたものとなる。したがって、このようなスーパーインポーズ合成を行えば、その結果得られる一つの合成画像45上では、その合成画像中から眼鏡フレームの画像部分が必要に応じて部分的に削除されることになる。
(測定基準点の指定処理)
 以上のような画像合成処理を行った後、タブレット端末1では、その画像合成処理で得られた一つの合成画像45を表示画面部12で表示した上で、検者にフレーム角膜頂点間距離FVDの測定に必要となる測定基準点の指定を行わせる。
 図8は、本発明の一実施形態における眼鏡装用パラメータ測定装置で眼鏡装用パラメータを求める際の表示画面部での表示内容の具体例を示す説明図であり、フレーム角膜頂点間距離を求める場合の表示内容を示す図である。
 具体的には、フレーム角膜頂点間距離測定モードとなったタブレット端末1は、表示制御手段15cによる制御に従いつつ、図8(a)および(b)に示すように、表示画面部12にて上述した画像合成処理で得られた一つの合成画像45を表示するとともに、その合成画像45にポインタ画像53,54を重ねて表示する。
 ポインタ画像53,54は、操作部12aを操作して行う測定基準点の指定にあたり、その操作部12aで指定しようとする点の位置特定の目安となる図形画像である。これらのうち、ポインタ画像53は、被検者の顔側面における角膜頂点の位置を測定基準点として指定する際に用いられる。また、ポインタ画像54は、被検者が装用する眼鏡フレームFにおけるリムの上端位置および下端位置を測定基準点として指定する際に用いられる。これらのポインタ画像53,54を構成する図形パターン形状については、検者による操作性や重ねられる合成画像45の視認性等を考慮しつつ予め設定されたものであればよく、特に限定されるものではない。
 合成画像45にポインタ画像53,54を重ねて表示した後、タブレット端末1では、図8(a)に示すように、検者が操作部12aを操作して、表示画面部12の画面内で移動可能なポインタ画像53を、表示中の合成画像45上における角膜の頂点に位置させる。このとき、背景となる合成画像45は、スーパーインポーズ合成が行われて顔画像中から眼鏡フレームの画像部分が必要に応じて部分的に削除されたものである。したがって、ポインタ画像53を角膜頂点位置に合わせる際に、被検者の顔の角膜近傍について視認困難な箇所が生じてしまうことがない。
 さらに、タブレット端末1において、検者は、図8(b)に示すように、操作部12aを操作して、その表示画面部12の画面内で移動可能なポインタ画像54を、表示中の合成画像45上における眼鏡フレームFのリムの上端および下端に位置させる。
 その状態で操作部12aによる所定操作(例えば「決定」アイコン画像の押下)があると、タブレット端末1では、角膜頂点位置に配されたポインタ画像53における中心点が、フレーム角膜頂点間距離FVDを求めるための測定基準点の一つとして指定されるとともに、眼鏡フレームFのリムの上端および下端に配されたポインタ画像54における中心点が、フレーム角膜頂点間距離FVDを求めるための残りの測定基準点として指定されることになる。
 このとき、表示制御手段15cは、検者が画面内で移動させようとするポインタ画像53,54に触れると、図8(a)および(b)に示すように、そのポインタ画像53,54とその周辺領域を拡大して表示する部分拡大ウインドウ画像55を、表示画面部12の画面内の所定箇所に表示させる。このようにすれば、ポインタ画像53,54をタッチインタフェースで操作して移動させる場合であっても、そのタッチインタフェースで触れている箇所が部分拡大ウインドウ画像55によって当該箇所とは別の所定箇所に拡大表示されるので、検者がポインタ画像53,54を移動させて位置合わせする際の操作性向上が図れる。
(演算処理)
 検者がポインタ画像53,54をそれぞれの位置に移動させて、これによりフレーム角膜頂点間距離FVDを求めるための測定基準点を指定すると、計測演算手段15eは、角膜頂点に位置するポインタ画像53の中心を通る水平方向に延びる直線と、眼鏡フレームFのリムの上端および下端の各ポインタ画像54の中心を結ぶ直線との交点を求める。そして、計測演算手段15eは、その交点と角膜頂点に位置するポインタ画像53の中心との間の距離を、フレーム角膜頂点間距離FVDとして求める。
 このときのフレーム角膜頂点間距離FVDの測定は、表示画面部12で表示される合成画像45上で行う。そのため、フレーム角膜頂点間距離FVDの測定にあたっては、実空間内での大きさと合成画像45上での大きさとを関連付けるキャリブレーション(較正)が必要となる。キャリブレーションは、例えば、上述した眼鏡フレーム縦幅の測定処理(S105)において眼鏡フレームFのフレーム縦幅の大きさを求めているので、そのフレーム縦幅の演算処理結果を、眼鏡フレームFのリムの上端および下端に配された各ポインタ画像54の間の合成画像45上での距離に対応付けることで行うようにすることが考えられる。
 このようにして計測演算手段15eが求めたフレーム角膜頂点間距離FVDは、表示制御手段15cによる制御に従いつつ、表示画面部12の画面内の所定ウインドウ56に表示される。そして、その演算処理結果は、検者による確認の結果、問題がなければ、メモリ部14内にデータ保存されることになる。
(4-3.その他の手順)
 以上に、本実施形態において眼鏡装用パラメータを測定する際の特徴的な手順について説明したが、タブレット端末1は、上述した特徴的な手順以外のその他の手順について行うものであってもよい。その他の手順としては、撮像段階における被検者の顔上面の撮像処理や顔正面の撮像処理、測定段階におけるフレーム反り角βの測定処理、フィッティングポイント位置FPの測定処理、瞳孔間距離PDの測定処理等が挙げられる。なお、これらの各手順については、公知技術を利用して行えばよいため、ここではその詳細な説明を省略する。
<5.本実施形態の効果>
 本実施形態で説明したタブレット端末1、当該タブレット端末1の特徴的な機能を実現する眼鏡装用パラメータ測定プログラム、および、当該タブレット端末1を用いて行う位置指定方法によれば、以下のような効果が得られる。
 本実施形態によれば、可搬式のタブレット端末1を利用して、各種眼鏡装用パラメータの測定を行う。そのため、非可搬式の大掛かりな測定装置のような設置スペースを要することがなく、眼鏡店への導入を容易化できる。この点で、各種眼鏡装用パラメータの測定を行う検者(眼鏡店の店員等)にとっては、利便性に優れたものとなる。
 また、本実施形態では、被検者の眼鏡フレーム装用状態における第1の画像と眼鏡フレーム非装用状態における第2の画像とをそれぞれ撮像して取得しておき、眼鏡フレーム装用状態についての撮像結果と眼鏡フレーム非装用状態についての撮像結果とを一つの合成画像に合成して表示し、その一つの合成画像(第3の画像)上で眼鏡装用パラメータを求めるために必要となる測定基準点の指定を行うようになっている。つまり、眼鏡フレーム装用状態の被検者の顔画像の撮像結果に加えて、眼鏡フレーム非装用状態の被検者の顔画像の撮像結果を用意しておき、これらの撮像結果について部分的に画像合成処理を行って一つの合成画像として表示画面部12で表示する。
 したがって、本実施形態によれば、上述した画像合成処理を経ることで、その画像合成処理後の一つの合成画像上において、眼鏡フレームの画像部分を必要に応じて部分的に削除することが可能になる。このように、眼鏡フレームの画像部分を部分的に削除可能であれば、被検者が装用している眼鏡フレームの形状がどのようなものであっても、その眼鏡フレーム形状に起因して被検者の顔が視認困難になってしまうのを防ぐことができる。例えば、テンプル幅が大きい眼鏡フレームを被検者が装着している場合であっても、そのテンプル部分を削除することで、顔画像上において被検者の角膜頂点が眼鏡フレームのテンプルに隠れてしまうのを防止できる。
 つまり、本実施形態によれば、眼鏡装用パラメータを求めるために必要となる測定基準点の指定にあたり、必要に応じて眼鏡フレームの画像部分を部分的に削除することで、指定すべき測定基準点の位置が不明確になってしまうのを回避でき、その結果として測定基準点の位置指定を簡便に行うことができるようになり、さらには指定後の測定基準点の位置について必要十分な位置精度を確保し得るようにもなる。
 特に、本実施形態で説明したように、一つの合成画像への画像合成処理にあたり、眼鏡フレーム装用状態についての撮像結果の一部領域を、眼鏡フレーム非装用状態についての撮像結果の該当領域に嵌め込むスーパーインポーズ合成を行うようにすれば、眼鏡フレーム装用状態の撮像結果のうちの必要な部分(すなわち当該撮像結果の一部領域)についてのみ、これを眼鏡フレーム非装用状態の撮像結果(すなわち当該撮像結果の該当領域)に置換することができる。
 したがって、本実施形態によれば、測定基準点の指定にあたって必要となる部分だけを、確実に眼鏡フレーム非装用状態についての顔画像に置換することになる。つまり、測定基準点の指定にあたり不要となる眼鏡フレームの画像部分を確実に削除することができ、その結果として測定基準点の位置指定を簡便かつ高精度に行うことが実現可能となる。
 ところで、指定すべき測定基準点の位置が不明確になり得る状況としては、上述したように顔画像上において眼鏡フレームのテンプルが被検者の角膜頂点を隠してしまう場合が、その典型的な例として挙げられる。この点につき、本実施形態では、スーパーインポーズ合成の対象領域(すなわち一部領域および該当領域)を、被検者の顔を側面から撮像して得られた顔画像上で少なくとも被検者が装用する眼鏡フレームのリム部分を含むが、当該眼鏡フレームのテンプル部分および被検者の眼球角膜部分については含まないように設定された領域としている。したがって、本実施形態によれば、顔画像上において眼鏡フレームのテンプルが被検者の角膜頂点を隠してしまう場合であっても、指定すべき測定基準点の位置が不明確になるのを回避でき、その結果としてフレーム角膜頂点間距離FVDの測定に必要となる測定基準点の位置指定を簡便かつ高精度に行うことが実現可能となる。つまり、眼鏡装用パラメータの一つであるフレーム角膜頂点間距離FVDの測定を行う場合に適用して非常に好適なものとなる。
<6.変形例等>
 以上に本発明の実施形態を説明したが、上述した開示内容は、本発明の例示的な実施形態を示すものである。すなわち、本発明の技術的範囲は、上述の例示的な実施形態に限定されるものではない。以下に、変形例等について説明する。
(6-1.合成画像の変形例)
 本実施形態では、眼鏡フレーム装用状態の第1の画像と眼鏡フレーム非装用状態の第2の画像との合成画像(第3の画像)として、一方の画像の一部領域を他方の画像の該当領域に嵌め込んだスーパーインポーズ合成画像を表示する場合を例に挙げたが、本発明はこれに限定されるものではなく、他の合成態様による合成画像を表示するようにしてもよい。他の合成態様による合成画像としては、例えば、透過性を相違させた状態で各画像を重ね合わせたようなものが挙げられる。
 また、眼鏡フレーム装用状態の第1の画像と眼鏡フレーム非装用状態の第2の画像とは、それぞれが互いに関連付けられて表示されていれば、必ずしも合成された状態で表示されることを要さない。つまり、本発明は、眼鏡フレーム装用状態の第1の画像と眼鏡フレーム非装用状態の第2の画像との各画像を互いに関連付けた加工画像(第3の画像)を生成して表示し、その加工画像上で測定基準点の指定を行わせるものであってもよい。ここでいう「関連付け」とは、測定基準点の指定にあたり各画像の関連性を認識し得るようにすることをいう。したがって、各画像を互いに関連付けた加工画像には、本実施形態で説明した合成画像の他に、以下のようなものも含まれる。すなわち、加工画像としては、眼鏡フレーム装用状態の第1の画像と眼鏡フレーム非装用状態の第2の画像とのそれぞれを並べて表示しつつ、位置を合わせ、および/または、大きさを合わせ、それぞれの画像上の同一位置をポインタ画像が同期して移動するように加工したものが、その一例として挙げられる。このような例に限られず、測定基準点の指定にあたり必要となる箇所を眼鏡フレームの有無にかかわらず視認し易くするように、眼鏡フレーム装用状態の第1の画像と眼鏡フレーム非装用状態の第2の画像とを加工して表示するものであれば、本発明における「加工画像(すなわち第3の画像)」に該当することになる。例えば上記のようなフレーム装用状態とフレームなしの各々の画像を、角膜頂点と眼鏡のフロント部(眼鏡レンズを取り付ける部分)の間に位置する鉛直方向直線にて分割した上で、フレーム装用状態の画像であってフレームフロント部が含まれる分割画像と、フレームなしの画像であって角膜頂点を含む画像分割とを選択して並べることも本願の好適な実施の形態である。この場合、情報処理部15において、合成画像を新たに生成するというよりも、被検者の眼鏡フレーム装用状態における第1の画像と眼鏡フレーム非装用状態における第2の画像とをそれぞれ取得し、それぞれの画像を関連付けた第3の画像を準備している。
(6-2.顔側面の画像以外への適用)
 本実施形態では、主として、フレーム角膜頂点間距離FVDを測定するときの処理手順を例に挙げている。そのため、本実施形態では、被検者の顔側面についての画像を合成して合成画像とする場合について説明している。ただし、本発明はこれに限定されるものではなく、被検者の顔側面の他に、被検者の顔上面や顔正面等についても、本実施形態の場合と同様の画像合成処理を行うようにすることも考えられる。例えばサングラスを装用した状態で、サングラス上のアイポイント位置を特定しようとすると、サングラスの遮光作用により角膜位置を確認することは容易でないことがある。サングラス装用状態と、サングラスを装用していない画像を撮像し、少なくとも角膜頂点を含む画像と、サングラスのフレーム枠含む画像を合わせた合成画像を作成すればサングラス上のアイポイント位置を確認することが可能となる。
(6-3.測定補助具の使用)
 本実施形態では、実空間内での大きさと画像上での大きさとを関連付けるキャリブレーションを、眼鏡フレーム縦幅の測定処理(S105)を行ったうえで、その処理結果に基づいて行う場合を例に挙げている。ただし、キャリブレーションは、例えば、スケール等を用いて計測した眼鏡フレーム縦幅の値を検者がタブレット端末1に数値入力することで行うようにしてもよい。また、眼鏡フレーム縦幅を測定するのではなく、所定サイズの図形によって構成された測定基準スケールを指標として用い、その指標を被検者の顔画像と共に撮像することによって行うようにしてもよい。具体的には、撮像段階において、構成図形の大きさ(すなわち実空間内での大きさ)が既知である測定基準スケールが描かれた測定補助具を、被検者の顔と併せて撮像対象とする。そして、その撮像結果に含まれる測定基準スケールを構成するいずれかの図形部分を用いて、実空間内での大きさと顔側面合成画像上での大きさとを関連付けるキャリブレーションを行い、顔側面合成画像上でのスケール変換を行うようにすることが考えられる。なお、測定補助具については、公知技術を利用して実現したものであればよく、ここではその詳細な説明を省略する。
(6-4.画像データ)
 本実施形態では、撮像カメラ部11で得た画像データを使用したが、それ以外の画像データを使用しても構わない。例えば、タブレット端末1の撮像カメラ部11で撮像した画像データではなく、他の撮像機器により被験者を撮像して得られた画像データを使用しても構わない。タブレット端末1において撮像カメラ部11を設けるのはあくまで好ましい例である。
 1…眼鏡装用パラメータ測定装置(タブレット端末)、10…装置筐体、11…撮像カメラ部、12…表示画面部、12a…操作部、13…ジャイロセンサ、14…メモリ部、15…情報処理部、15a…撮像制御手段、15b…画像合成手段、15c…表示制御手段、15d…操作制御手段、15e…計測演算手段(演算部)、41…第1の画像,42…第2の画像、43…一部領域、44…該当領域、45…合成画像(第3の画像)

Claims (6)

  1.  眼鏡フレームを装用する被検者の眼鏡装用パラメータについて測定を行う際に用いられる眼鏡装用パラメータ測定装置であって、
     前記被検者の眼鏡フレーム装用状態における顔画像である第1の画像と眼鏡フレーム非装用状態における顔画像である第2の画像とをそれぞれ取得し、前記第1の画像と前記第2の画像とを関連付けた第3の画像を準備する情報処理部と、
     前記情報処理部が準備した前記第3の画像を表示する表示画面部と、
     前記表示画面部が表示する前記第3の画像上で前記眼鏡装用パラメータの測定基準点の指定を行う操作部と、
     指定された前記測定基準点のデータを用いて眼鏡装用パラメータを算出する演算部と、
     を備えることを特徴とする眼鏡装用パラメータ測定装置。
  2.  前記第3の画像は、前記眼鏡フレーム装用状態における第1の画像と前記眼鏡フレーム非装用状態における第2の画像とを合成した少なくとも測定位置を含む合成画像である
     ことを特徴とする請求項1記載の眼鏡装用パラメータ測定装置。
  3.  前記合成画像は、前記眼鏡フレーム装用状態における第1の画像の一部領域と、前記眼鏡フレーム非装用状態における第2の画像の該当領域との合成画像である
     ことを特徴とする請求項2記載の眼鏡装用パラメータ測定装置。
  4.  前記一部領域は、前記被検者の顔を側面から撮像して得られた第1の画像上で前記 被検者が装用する眼鏡フレームのリム部分を含む領域であり、
     前記該当領域は、前記被検者の顔を側面から撮像して得られた第2の画像上で前記被検者の眼球角膜部分を含まない領域である
     ことを特徴とする請求項3記載の眼鏡装用パラメータ測定装置。
  5.  表示画面部および操作部を備え、眼鏡フレームを装用する被検者の眼鏡装用パラメータについて測定を行う際に用いられるコンピュータを、
     前記被検者の眼鏡フレーム装用状態における顔画像である第1の画像と眼鏡フレーム非装用状態における顔画像である第2の画像とのそれぞれを関連付けた第3の画像を準備する画像処理手段と、
     前記画像処理手段が準備した前記第3の画像を前記表示画面部に表示させる表示制御手段と、
     前記表示画面部が表示する前記第3の画像上で前記眼鏡装用パラメータの測定基準点の指定を前記操作部で行わせる操作制御手段と、
     指定された前記測定基準点のデータを用いて前記眼鏡装用パラメータを算出する計測演算手段、
     として機能させることを特徴とする眼鏡装用パラメータ測定プログラム。
  6.  眼鏡フレームを装用した状態の被検者の顔画像を用いて前記被検者に関する眼鏡装用パラメータを測定する際に、前記測定に必要となる前記顔画像上の測定基準点を指定するための位置指定方法であって、
     前記被検者の眼鏡フレーム装用状態における顔画像である第1の画像と眼鏡フレーム非装用状態における顔画像である第2の画像とをそれぞれ取得しておき、
     前記測定基準点の指定にあたり、前記眼鏡フレーム装用状態における第1の画像と前記眼鏡フレーム非装用状態における第2の画像とを関連付けた第3の画像を準備して表示し、
     前記第3の画像上で前記眼鏡装用パラメータの測定基準点の指定を行う
     ことを特徴とする位置指定方法。
PCT/JP2016/057609 2015-03-10 2016-03-10 眼鏡装用パラメータ測定装置、眼鏡装用パラメータ測定プログラムおよび位置指定方法 WO2016143862A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201680011124.7A CN107250718B (zh) 2015-03-10 2016-03-10 眼镜佩戴参数测量装置、眼镜佩戴参数测量程序及位置指定方法
KR1020177022991A KR101960211B1 (ko) 2015-03-10 2016-03-10 안경 장용 파라미터 측정 장치, 안경 장용 파라미터 측정 프로그램 및 위치 지정 방법
EP16761828.9A EP3270099B2 (en) 2015-03-10 2016-03-10 Measurement device for eyeglasses-wearing parameter, measurement program for eyeglasses-wearing parameter, and position designation method
JP2017505401A JP6450450B2 (ja) 2015-03-10 2016-03-10 眼鏡装用パラメータ測定装置、眼鏡装用パラメータ測定プログラムおよび位置指定方法
US15/547,898 US10156740B2 (en) 2015-03-10 2016-03-10 Spectacle wearing parameter measurement device, spectacle wearing parameter measurement program, and position specifying method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015047760 2015-03-10
JP2015-047760 2015-03-10

Publications (1)

Publication Number Publication Date
WO2016143862A1 true WO2016143862A1 (ja) 2016-09-15

Family

ID=56879624

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/057609 WO2016143862A1 (ja) 2015-03-10 2016-03-10 眼鏡装用パラメータ測定装置、眼鏡装用パラメータ測定プログラムおよび位置指定方法

Country Status (6)

Country Link
US (1) US10156740B2 (ja)
EP (1) EP3270099B2 (ja)
JP (1) JP6450450B2 (ja)
KR (1) KR101960211B1 (ja)
CN (1) CN107250718B (ja)
WO (1) WO2016143862A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019016270A (ja) * 2017-07-10 2019-01-31 昭宏 八木 眼鏡ケース切削ラインデータ作成方法および眼鏡ケース切削ラインデータ作成装置
JP2019027945A (ja) * 2017-07-31 2019-02-21 株式会社ニデック 眼鏡測定装置

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3413122B1 (de) 2017-06-08 2020-03-04 Carl Zeiss Vision International GmbH Verfahren, vorrichtung und computerprogramm zum bestimmen eines nah-durchblickpunktes
US10685457B2 (en) 2018-11-15 2020-06-16 Vision Service Plan Systems and methods for visualizing eyewear on a user
FR3097336B1 (fr) * 2019-06-11 2023-10-20 Acep France Procédé de détermination de paramètres ophtalmiques par cartographie 3D
WO2021140070A1 (en) * 2020-01-10 2021-07-15 Essilor International Position variations of the lenses of an eyewear equipment
TW202242488A (zh) * 2020-12-21 2022-11-01 美商瑞克斯姆股份有限公司 用於自動觀看式3d顯示的高密度像素陣列

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003030296A (ja) * 2001-07-16 2003-01-31 Nikon Gijutsu Kobo:Kk 眼鏡の仮想装用システム
JP2006155638A (ja) * 1997-05-16 2006-06-15 Hoya Corp 眼鏡のヨロイ、ブリッジ及びリムロック位置の決定方法ならびに眼鏡オーダーメイドシステム
JP2007216049A (ja) * 2007-04-23 2007-08-30 Nidek Co Ltd 眼位置測定装置

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2391001A1 (fr) 1977-05-18 1978-12-15 Satelec Soc Generateur d'ultra-sons
KR910000591B1 (ko) 1986-10-30 1991-01-26 가부시기가이샤 도시바 안경 프레임 화상처리 기록방법 및 이를 실시하기 위한 시스템
US5257721A (en) 1992-11-04 1993-11-02 Smith Dulany S Painter's box
JP3537831B2 (ja) 1997-05-16 2004-06-14 Hoya株式会社 眼鏡のオーダーメイドシステム
US6095650A (en) 1998-09-22 2000-08-01 Virtual Visual Devices, Llc Interactive eyewear selection system
JP3976925B2 (ja) 1999-02-22 2007-09-19 株式会社ニデック 眼位置測定装置
US6682195B2 (en) 2001-10-25 2004-01-27 Ophthonix, Inc. Custom eyeglass manufacturing method
US20040004633A1 (en) 2002-07-03 2004-01-08 Perry James N. Web-based system and method for ordering and fitting prescription lens eyewear
US7665843B2 (en) * 2007-02-21 2010-02-23 Yiling Xie Method and the associate mechanism for stored-image database-driven spectacle frame fitting services over public network
GB0713461D0 (en) * 2007-07-11 2007-08-22 Ct Meter Ltd Device and methods for obtaining measurements for spectacles fitting
FR2931001B1 (fr) * 2008-05-06 2010-09-17 Xavier Arthur Carriou Procede pour la prise de mesure de la position de l'oeil par rapport a la monture de lunettes
CN101769723B (zh) * 2008-12-30 2013-07-03 鸿富锦精密工业(深圳)有限公司 电子装置及其物体形状参数测量方法
JP5687435B2 (ja) * 2010-04-16 2015-03-18 ホーヤ レンズ マニュファクチャリング フィリピン インク 眼鏡レンズ選択システム、眼鏡レンズ選択方法、眼鏡レンズ選択装置及び眼鏡レンズ選択結果提示装置
WO2012151591A2 (en) 2011-05-05 2012-11-08 Aria Enterprises, Inc. Adjustable eyewear
FR2980592B1 (fr) * 2011-09-28 2014-05-16 Essilor Int Procede de mesure de parametres morpho-geometriques d'un individu porteur de lunettes
FR2980591B1 (fr) * 2011-09-28 2014-05-16 Essilor Int Procede de mesures de parametres morpho-geometriques d'un individu porteur de lunettes
WO2015011286A1 (en) * 2013-07-26 2015-01-29 Essilor International (Compagnie Generale D'optique) Self-service prescription eyewear kiosk
DE102014013447A1 (de) * 2014-09-16 2016-03-17 Hans-Joachim Ollendorf Verfahren zur messgenauen Bestimmung von optischen Parametern eines Probanden zur Anpassung einer Brille an den Probanden und immobiles Videozentriersystem
EP3270098B2 (en) * 2015-03-10 2022-12-07 Hoya Lens Thailand Ltd. Measurement system for eyeglasses-wearing parameter, measurement program, measurement method therefor, and manufacturing method for eyeglasses lens

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006155638A (ja) * 1997-05-16 2006-06-15 Hoya Corp 眼鏡のヨロイ、ブリッジ及びリムロック位置の決定方法ならびに眼鏡オーダーメイドシステム
JP2003030296A (ja) * 2001-07-16 2003-01-31 Nikon Gijutsu Kobo:Kk 眼鏡の仮想装用システム
JP2007216049A (ja) * 2007-04-23 2007-08-30 Nidek Co Ltd 眼位置測定装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3270099A4 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019016270A (ja) * 2017-07-10 2019-01-31 昭宏 八木 眼鏡ケース切削ラインデータ作成方法および眼鏡ケース切削ラインデータ作成装置
JP2019027945A (ja) * 2017-07-31 2019-02-21 株式会社ニデック 眼鏡測定装置
JP7259199B2 (ja) 2017-07-31 2023-04-18 株式会社ニデック 眼鏡測定装置

Also Published As

Publication number Publication date
EP3270099A1 (en) 2018-01-17
JP6450450B2 (ja) 2019-01-09
CN107250718B (zh) 2019-11-15
EP3270099B1 (en) 2019-09-11
US10156740B2 (en) 2018-12-18
US20180024384A1 (en) 2018-01-25
EP3270099B2 (en) 2022-06-22
KR101960211B1 (ko) 2019-03-19
JPWO2016143862A1 (ja) 2017-11-02
CN107250718A (zh) 2017-10-13
EP3270099A4 (en) 2018-08-22
KR20170105587A (ko) 2017-09-19

Similar Documents

Publication Publication Date Title
JP6450450B2 (ja) 眼鏡装用パラメータ測定装置、眼鏡装用パラメータ測定プログラムおよび位置指定方法
JP6195894B2 (ja) 形状認識装置、形状認識プログラム、および形状認識方法
JP5013930B2 (ja) 眼鏡装用パラメータ測定装置及び眼鏡装用パラメータ測定方法
JP6077720B2 (ja) 視覚補償デバイスをカスタマイズするためのパラメータの少なくとも1つの値を判定する方法
KR102050647B1 (ko) 안경 장용 파라미터 측정 시스템, 측정용 프로그램, 및 그 측정 방법, 그리고 안경 렌즈의 제조 방법
US11448903B2 (en) Method for correcting centering parameters and/or an axial position and corresponding computer program and methods
JP2007093636A (ja) 眼鏡装用パラメータ測定装置、眼鏡レンズ及び眼鏡
JP2017191546A (ja) 医療用ヘッドマウントディスプレイ、医療用ヘッドマウントディスプレイのプログラムおよび医療用ヘッドマウントディスプレイの制御方法
JP2016200753A (ja) 画像表示装置
JP5279153B1 (ja) 瞳孔位置測定方法及び両用レンズの作製方法
JP2015064700A (ja) 眼鏡装用パラメータ測定装置、眼鏡装用パラメータ測定プログラムおよび位置指定方法
JPH09145324A (ja) メガネフレーム装用時のアイポイント測定装置
JP6164739B2 (ja) 眼鏡装用パラメータ測定装置、眼鏡装用パラメータ測定プログラムおよび画像取得方法
JP2015123262A (ja) 角膜表面反射画像を利用した視線計測方法及びその装置
JP2016167038A (ja) 眼鏡装用パラメータ測定装置、眼鏡装用パラメータ測定プログラムおよび撮像制御方法
JP2015064455A (ja) 眼鏡装用パラメータ測定装置、眼鏡装用パラメータ測定プログラムおよび画像取得方法
JP2017181657A (ja) 眼鏡装用画像解析装置、眼鏡装用画像解析方法、及び眼鏡装用画像解析プログラム
TW202122033A (zh) 鏡框配戴參數之量測方法及其量測設備
EP4086693A1 (en) Method, processing device and system for determining at least one centration parameter for aligning spectacle lenses in a spectacle frame to eyes of a wearer

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16761828

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017505401

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15547898

Country of ref document: US

REEP Request for entry into the european phase

Ref document number: 2016761828

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 20177022991

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE