WO2015014059A1 - 成像装置及成像方法 - Google Patents

成像装置及成像方法 Download PDF

Info

Publication number
WO2015014059A1
WO2015014059A1 PCT/CN2013/088547 CN2013088547W WO2015014059A1 WO 2015014059 A1 WO2015014059 A1 WO 2015014059A1 CN 2013088547 W CN2013088547 W CN 2013088547W WO 2015014059 A1 WO2015014059 A1 WO 2015014059A1
Authority
WO
WIPO (PCT)
Prior art keywords
imaging
receiver
lens module
parameters
image
Prior art date
Application number
PCT/CN2013/088547
Other languages
English (en)
French (fr)
Inventor
杜琳
张宏江
Original Assignee
北京智谷睿拓技术服务有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 北京智谷睿拓技术服务有限公司 filed Critical 北京智谷睿拓技术服务有限公司
Priority to US14/781,578 priority Critical patent/US10551638B2/en
Publication of WO2015014059A1 publication Critical patent/WO2015014059A1/zh

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C11/00Non-optical adjuncts; Attachment thereof
    • G02C11/10Electronic devices other than hearing aids
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/028Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/103Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining refraction, e.g. refractometers, skiascopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C7/00Optical parts
    • G02C7/02Lenses; Lens systems ; Methods of designing lenses
    • G02C7/08Auxiliary lenses; Arrangements for varying focal length
    • G02C7/081Ophthalmic lenses with variable focal length
    • G02C7/083Electrooptic lenses
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0127Head-up displays characterised by optical features comprising devices increasing the depth of field
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Definitions

  • the present invention relates to the field of imaging technologies, and in particular, to an imaging apparatus and method. Background technique
  • Wearable devices are gradually accepted by the public, such as Google glasses, smart watches, etc. These electronic smart devices will bring more convenience to people's lives.
  • myopia or hyperopic glasses correct the problem of ametropia caused by various causes by adding a concave lens or a convex lens with a fixed focal length in front of the human eye having refractive error.
  • traditional eyeglasses have troubles in optometry, and can only be corrected for a certain range of distances. For objects outside the range of a certain distance, the user may not be able to get a clear image and feel blurred; or it may be difficult to see, and it is prone to eye fatigue.
  • the glasses with different focal lengths on the lens there are a plurality of multifocal glasses with different focal lengths on the lens.
  • glasses with both presbyopic and myopic eyes are present, and the upper part of the lens is a myopic mirror to help the user to clearly watch.
  • Far-distance objects; the lower part of the lens is a far-sighted mirror to help the user clearly view nearby objects.
  • the user must look at the far side of the lens and look at the lower part of the lower part. For example, you must look down at the lower object in the distance and look up at the higher object in the vicinity; or you must manually adjust the position of the glasses, so use it to compare trouble.
  • a clear image of all distance objects in the field of view cannot be obtained.
  • an imaging recording apparatus such as a camera, a video camera or the like
  • a clear image of all distance objects in the field of view cannot be obtained.
  • a healthy human eye looks at an object that is close to the eye, it may also be invisible or eye fatigue.
  • the technical problem to be solved by the present invention is to provide an imaging apparatus and method for automatically adjusting an imaging parameter of an imaging device according to a focus of an imaging receiver, so that an imaging receiver (for example, a user's eyes) can conveniently obtain different distance objects. Clear imaging to enhance the user experience.
  • an imaging apparatus comprising: an imaging lens module, at least one imaging parameter adjustable for imaging an observation object of an imaging receiver;
  • An information processing module configured to detect a pair of focus positions of the imaging receiver, and determine the imaging parameters of the imaging lens module according to the focus position;
  • a lens adjustment module is configured to adjust the imaging lens module according to the determined imaging parameter.
  • the present invention also provides an imaging method, including:
  • the imaging lens module is adjusted based on the determined imaging parameters.
  • the above technical solution of the embodiment of the present invention automatically detects the focus position of the imaging receiver and automatically adjusts the imaging parameters of the imaging lens module located between the imaging receiver and the object according to the pair of focus positions, so that the imaging receiver (eg, the user's Eyes) easily capture clear images of objects at different distances.
  • the apparatus and method of the embodiments of the present invention can solve the problem of lack of refractive correction when viewing objects of different distances (for example, near-sighted eyes, distant objects, and far-sighted eyes) Problems such as visual blur and eye fatigue caused by objects (oversighted near-sighted objects, distant objects, and far-sighted objects); Presbyopia (presbyopia) Eyes due to lens adjustment range when looking at near and distant objects at the same time Reduction of visual blur and eye fatigue problems; and astigmatism, strabismus, etc. due to optical axis shifting caused by visual blur and eye fatigue problems.
  • FIG. 1 is a schematic block diagram showing the structure of a device according to an embodiment of the present invention.
  • FIG. 2 is a schematic diagram of an application of a device according to an embodiment of the present invention.
  • FIG. 3a is a schematic block diagram showing the structure of an information processing module in a device according to an embodiment of the present invention
  • FIG. 3b is a schematic block diagram showing another structure of an image device according to an embodiment of the present invention
  • FIG. 3c and FIG. d are schematic block diagrams showing the structure of a motion posture analysis processing unit in the imaging device according to the first embodiment of the present invention.
  • FIG. 4 is a schematic diagram of another application of an 'image device according to an embodiment of the present invention.
  • FIG. 5a is a structural block diagram of an I-eye detection system for an I-device according to an embodiment of the present invention
  • FIG. 5b is a structural block diagram of another eye-focus detection system for a 1-device according to an embodiment of the present invention
  • Figure 5c is an embodiment of the present invention Schematic diagram
  • FIG. 5d is a 1st eye focus detection system according to an embodiment of the present invention: a schematic diagram of the fundus image with a spot pattern;
  • FIG. 5e is a schematic diagram of an optical path of an eye I of a focus detection system according to an embodiment of the present invention.
  • Figure 5f is an embodiment of the present invention An image of the imaged parameters and the optical parameters of the eye to obtain the distance from the eye to the eye;
  • FIG. 6 is a diagram of an eye focus number detecting system of an image forming apparatus applied to an eye according to an embodiment of the present invention. Schematic diagram on the mirror;
  • FIG. 7 is a schematic diagram of an eye focus detection system of an imaging device applied to an eye lens according to an embodiment of the present invention.
  • FIG. 8 is a block diagram showing the structure of an information processing module of an image forming apparatus according to an embodiment of the present invention.
  • FIG. 9 is a flow chart showing an image forming method according to the present invention. detailed description
  • the imaging receiver has a limited adjustment range for the imaging parameters such as the focal length, and the imaging receiver is the user's eye as an example (of course, the imaging receiver can also be an imaging recording device such as a camera or a camera), for example, the eye of a user with normal vision will It is impossible to see or work very hard to see objects that are close to the eyes. For eyes with problems such as myopia, hyperopia, presbyopia, astigmatism and other ametropia, and strabismus, their own adjustment range is more limited.
  • an embodiment of the present invention provides an imaging device 100, including: an imaging lens module 110, wherein an imaging parameter is adjustable, and is used for forming an information processing module 120 for an imaging object of an imaging receiver, Detecting a focus position of the imaging receiver, and determining an imaging parameter of the imaging lens module according to the focus position;
  • the lens adjustment module 130 is configured to adjust the imaging lens module according to the determined imaging parameters.
  • the imaging receiver can obtain a desired image of the subject through the imaging lens module 110.
  • the imaging parameters can be adjusted corresponding to the objects of different distances in the field of view according to the needs of the imaging receiver, so that the user can easily and comfortably view the objects of different distances in the field of view, thereby improving the user.
  • the imaging device 100 is used as glasses (in addition to the common glasses, the glasses may also be optical devices such as a helmet eyepiece and a front windshield).
  • the imaging receiver 200 is an eye of the user, and the object includes a triangular object 300a, a rectangular object 300b, and an elliptical object 300c from the far side to the vicinity of the imaging device 100, wherein the lenses on each side of the glasses are respectively an image.
  • Lens module 110 is an eye of the user, and the object includes a triangular object 300a, a rectangular object 300b, and an elliptical object 300c from the far side to the vicinity of the imaging device 100, wherein the lenses on each side of the glasses are respectively an image.
  • Lens module 110 is an eye of the user, and the object includes a tri
  • the imaging lens module 110 includes at least one lens.
  • the description will be made by taking an example in which each of the imaging lens modules 110 includes only one lens.
  • the imaging parameters of the imaging lens module 110 include: a shape and/or a refractive index of the imaging lens module.
  • the adjustment of the imaging parameters of the imaging lens module 110 may be, for example, adjusting the curvature of the lens of the imaging lens module 110 to change the focal length of the imaging lens module 110; adjusting the refractive index of the lens of the imaging lens module 110 to The focal length of the imaging lens module 110 is changed.
  • the surface of the lens of the imaging lens module 110 can be adjusted to a cylindrical surface to correct the astigmatism; for the squint user, the surface of the lens of the imaging lens module 110 can be adjusted to a prism surface for squint Correction.
  • the imaging lens module may further include two or more lenses.
  • the imaging lens module 110 of one lens respectively is used. Adjust to a cylindrical or prismatic surface.
  • the information processing module 130 includes:
  • the refractive proofreading unit 131 is configured to learn imaging parameters corresponding to the imaging receiver 200 when the imaging receiver 200 respectively acquires a plurality of desired images of the distance object, and obtain refractive proof information corresponding to the imaging receiver.
  • the desired image can be, for example, a sharp image of the object or a clearer image.
  • the imaging receiver 200 is an eye
  • the desired image here may be a clear or clear image of the object that the user's eyes are more comfortable to view, that is, when the user views a clear image of the object, the eye does not need to be excessively self-adjusting, which is not easy. fatigue.
  • Table 1 An example of the refractive proofreading information for one nearsighted user corresponding to the imaging receiver of the present embodiment obtained in the present embodiment is shown in Table 1.
  • the target distance here is the distance between the object and the imaging device (in other embodiments, the distance between the object and the imaging receiver may also be selected as the target distance), and the optimal diopter is comfortable for the user's eyes at the target distance.
  • the diopter achieved by the corresponding area of the imaging lens module is required when viewing a clear image of the object.
  • the refractive calibration information may further include optical parameter information such as for astigmatism or strabismus.
  • the imaging parameter of the imaging lens module 110 corresponding to the object preferably corresponds to -5.55 diopters; assuming that the distance between the object and the imaging device is 0.8 m, The optimum diopter corresponding to 0.5m and lm is obtained by interpolation method to obtain the optimum diopter corresponding to the distance of 0.8m, and then the imaging parameters corresponding to the imaging lens module 110 are obtained.
  • the smaller the granularity of the distance for the object of the imaging receiver corresponding to the imaging parameter learning the more refractive proofreading information is obtained, and the required imaging lens module is obtained by the refractive calibration information.
  • the accuracy of the imaging parameters of 110 is higher.
  • the focus position determining unit 132 is configured to determine a focus position of the imaging recipient according to the optical parameters of the imaging receiver. The focus position of the imaging receiver is obtained, and the distance between the object and the imaging device is obtained.
  • the imaging parameter calculation unit 133 is configured to calculate an imaging parameter of the imaging lens module 110 according to a focus position of the imaging receiver and refractive proof information corresponding to the imaging receiver.
  • the imaging parameters of the corresponding imaging lens module 110 of each object are calculated by the look-up table method based on Table 1.
  • the information processing module 130 includes:
  • the motion posture analysis processing unit 134 is configured to determine imaging parameters of the imaging lens module 110 according to motion posture information of the imaging device 100 (or the imaging lens module 110).
  • the motion posture information of the imaging device includes: relative motion posture information of the imaging device and the object and/or motion velocity information of the imaging device.
  • the motion posture sensing module 140 may be added to the imaging device to acquire motion posture information of the imaging device.
  • the motion posture analysis processing unit 134 includes: a motion trajectory prediction adjustment sub-unit 1341, and a relative motion posture information according to the imaging device and the object, and the imaging lens module.
  • the imaging parameters at the current time predict imaging parameters corresponding to the next moment of the imaging lens module 110.
  • the object moves toward a direction close to the imaging receiver, and the moving speed is 0.5 m per second, and then the distance from the object at the next second can be predicted according to the distance of the object from the imaging device and the information described above, thereby adjusting the The imaging parameters of the imaging lens module 10.
  • the motion posture analysis processing unit 134 includes:
  • the first motion adjustment sub-unit 1342 or the second motion adjustment sub-unit 1343 is configured to adjust the imaging parameters of the imaging lens module to the set common imaging parameters when the motion speed of the imaging device exceeds a set threshold. Or adjust to the imaging parameter value of the imaging lens module at a previous moment.
  • the information processing module 130 in order to prevent the imaging parameters of the imaging lens module 110 from hopping in time, causing the user to stun, the information processing module 130 further includes:
  • the history information smoothing unit 135 is configured to perform temporal smoothing processing on the current imaging parameters of the imaging lens module 110 according to historical information of the imaging parameters of the imaging lens module 110.
  • the focus position determining unit may obtain a position of a focus point by using three types of systems, where
  • the first pair of focus position determining units can be based on the imaging surface of the imaging receiver When the image receiving surface is an eye, the imaging surface is the sharpest image presented by the fundus of the eye (such as the retina), and the imaging parameters of the optical path between the image collecting device and the imaging receiving party are obtained, and the pair of the imaging receiving party is obtained. Focus position.
  • the first pair of focus position determining units will be described in more detail below.
  • the second focus position determining unit tracks the optical axis direction of the imaging receiver through the optical axis tracking system, and obtains the depth of the scene where the observation object is located by the depth sensing device, and calculates the focus position of the imaging receiver.
  • An example in which the imaging device 400 uses the second focus position determining unit 410 to determine the focus position of the eye 200 (imaging receiver) is shown in FIG. As shown in FIG.
  • the imaging device 400 is glasses, and the imaging lens module is an eye lens 420, and passes through a line of sight tracker 411 (in the present embodiment, the line of sight tracker 411)
  • the camera 411a includes a beam splitter 411b that forms an optical path between the eye 200 and the camera 411a; the line of sight tracker is prior art, and is not described herein again.
  • the eye axis tracking system tracks the optical axis direction of the eye while passing through A depth sensor 412 is used to obtain the depth of the scene where the object is observed (the depth of the scene is also obtained by the depth sensor, which is not described here), and the focus position of the eye is obtained by the triangle relationship calculation.
  • a third pair of focus position determining unit configured to track an optical axis direction of the at least two imaging receivers by using an optical axis tracking system, where the imaging device corresponds to at least two mutually associated imaging receivers
  • the intersection of the optical axis directions of the at least two imaging receivers results in a focus position of the imaging receiver.
  • the optical axis directions of the two eyes are respectively tracked, and the optical axis directions of the two eyes are obtained, and the intersection positions of the two optical axes are calculated, and the focus position of the eyes can be obtained.
  • there must be at least two imaging receivers e.g., two eyes of a person), and only one imaging receiver is not applicable.
  • the function of the first focus position determining unit may be implemented by a focus detection system, and the following is an example in which the image receiving receiver is an eye:
  • an embodiment of the present invention provides an eye focus detection system 500, including: an image collection device 510, configured to collect an image presented by a fundus;
  • the imaging device 520 is configured to perform adjustment of imaging parameters between the eye and the image gathering device 510 to enable the image collecting device 510 to obtain the clearest image;
  • the image processing device 530 is configured to process the image obtained by the image collecting device 510 to obtain an optical parameter of the eye when the image collecting device obtains the clearest image.
  • the system 500 analyzes and processes the image of the fundus of the eye to obtain the optical parameters of the eye when the image collecting device obtains the clearest image, and can calculate the current focus position of the eye, thereby providing a basis for further realizing eye adaptive operation. .
  • the "eye funda” presented here is mainly an image presented on the retina, which may be an image of the fundus itself, or may be an image of other objects projected to the fundus.
  • the eyes here can be the human eye or the eyes of other animals.
  • the image collection device 510 is a micro camera. In another possible implementation manner of the embodiment of the present invention, the image collection is performed.
  • the device 510 can also directly use a photosensitive imaging device such as a CCD or CMOS device.
  • the imaging device 520 includes: an adjustable lens unit 521 located on an optical path between the eye and the image collecting device 510, whose focal length is adjustable and/or The position in the light path is adjustable.
  • an adjustable lens unit 521 located on an optical path between the eye and the image collecting device 510, whose focal length is adjustable and/or The position in the light path is adjustable.
  • the system equivalent focal length between the eye and the image collecting device 510 is adjustable, and the adjustment of the adjustable lens unit 521 causes the image collecting device 510 to be in the adjustable lens.
  • the clearest image of the fundus is obtained at a certain position or state of the unit 521.
  • the tunable lens unit 521 is continuously adjusted in real time during the detection process.
  • the adjustable lens unit 521 is: a focus adjustable lens for adjusting the focal length of the self by adjusting the refractive index and/or shape of the self. Specifically: 1) adjusting the focal length by adjusting the curvature of at least one side of the focal length adjustable lens, for example, increasing or decreasing the liquid medium in the cavity formed by the double transparent layer to adjust the curvature of the focus adjustable lens; 2) by changing the focal length The refractive index of the adjustable lens is used to adjust the focal length.
  • the focal length adjustable lens is filled with a specific liquid crystal medium, and the arrangement of the liquid crystal medium is adjusted by adjusting the voltage of the corresponding electrode of the liquid crystal medium, thereby changing the refractive index of the focus adjustable lens.
  • the adjustable lens unit 521 includes: a lens group for adjusting the relative position between the lenses in the lens group to complete the adjustment of the focal length of the lens group itself.
  • optical path parameters of the system by adjusting the characteristics of the adjustable lens unit 521 itself, it is also possible to change the optical path parameters of the system by adjusting the position of the adjustable lens unit 521 on the optical path.
  • the imaging device 520 in order not to affect the viewing experience of the user on the observation object, and in order to enable the system to be portablely applied to the wearable device, the imaging device 520 further includes: splitting Device 522 is used to form an optical transmission path between the eye and the viewing object, and between the eye and image collection device 510. This allows the optical path to be folded, reducing the size of the system while minimizing the user's other experience.
  • the spectroscopic device comprises: a first spectroscopic unit located between the eye and the observation object for transmitting light of the observation object to the eye and transmitting the light of the eye to the image collection device.
  • the first beam splitting unit may be a beam splitter, a beam splitting optical waveguide (including an optical fiber) or other suitable embodiment in an embodiment of the invention, the image processing device 530 of the system comprising an optical path calibration module, Calibrate the optical path of the system, for example, alignment calibration of the optical axis of the optical path to ensure the accuracy of the measurement.
  • the image processing apparatus 530 includes: an image analysis module 531, configured to analyze an image obtained by the image collection device to find a clearest image;
  • the parameter calculation module 532 is configured to calculate an optical parameter of the eye according to the clearest image and an imaging parameter known to the system when the clearest image is obtained.
  • the image capturing device 510 allows the image capturing device 510 to obtain the clearest image, but the image analyzing module 531 is required to find the clearest image, according to the clearest
  • the image and the known optical path parameters of the system can be calculated Optical parameters to the eye.
  • the optical parameters of the eye may include the optical axis direction of the eye.
  • the system further includes: a projection device 540, configured to project a light spot to the fundus.
  • a projection device 540 configured to project a light spot to the fundus.
  • the function of the projection device can be achieved by a micro projector.
  • the spot projected here can be used to illuminate the fundus without a specific pattern.
  • the projected spot includes a feature-rich pattern.
  • the rich features of the pattern facilitate inspection and improve detection accuracy.
  • the spot is an infrared spot that is invisible to the eye.
  • the exit surface of the projection device may be provided with an invisible light transmission filter for the eye.
  • the incident surface of the image collecting device is provided with an eye invisible light transmission filter.
  • the image processing device prefferably, in a possible implementation manner of the embodiment of the present invention, the image processing device
  • 530 also includes:
  • the projection control module 534 is configured to control the brightness of the projection spot of the projection device according to the result obtained by the image analysis module.
  • the projection control module 534 can adaptively adjust the brightness based on the characteristics of the image obtained by the image collection device 510.
  • the characteristics of the image here include the contrast of the image features as well as the texture features and the like.
  • a special case of controlling the brightness of the projection spot of the projection device is to open or close the projection device.
  • the user can periodically close the projection device when the user continuously looks at a point; when the user's fundus is bright enough, the illumination source can be turned off only to utilize Fundus information to detect the distance of the eye's current line of sight to the eye.
  • the projection control module 534 can also control the brightness of the projection spot of the projection device according to the ambient light.
  • the image processing device The 530 further includes: an image calibration module 533, configured to perform calibration of the fundus image to obtain at least one reference image corresponding to the image presented by the fundus.
  • the image analysis module 531 compares the image obtained by the image collection device 530 with the reference image to obtain the clearest image.
  • the clearest image may be an image obtained with the smallest difference from the reference image.
  • the difference between the currently obtained image and the reference image is calculated by an existing image processing algorithm, for example, using a classical phase difference autofocus algorithm.
  • the parameter calculation module 532 includes:
  • the eye optical axis direction determining unit 5321 is configured to obtain an eye optical axis direction according to characteristics of the eye when the clearest image is obtained.
  • the features of the eye here may be obtained from the clearest image or may be obtained separately.
  • the direction of the optical axis of the eye indicates the direction in which the eye's line of sight is gazing.
  • the eye optical axis direction determining unit 5321 includes: a first determining subunit, configured to obtain eye light according to a feature of the fundus when the clearest image is obtained Axis direction.
  • the accuracy of the optical axis direction of the eye is determined by the characteristics of the fundus as compared with the direction of the optical axis of the eye obtained by the features of the pupil and the surface of the eye.
  • the size of the spot pattern may be larger than the fundus viewable area or smaller than the fundus viewable area, where:
  • a classical feature point matching algorithm for example, Scale Invariant Feature Transform (SIFT) algorithm
  • SIFT Scale Invariant Feature Transform
  • the direction of the user's line of sight can be determined by determining the direction of the optical axis of the eye by the position of the spot pattern on the resulting image relative to the original spot pattern (obtained by the image calibration module).
  • the eye optical axis direction determining unit 5321 includes: a second determining subunit, configured to: according to the pupil of the eye when the clearest image is obtained.
  • the feature gets the direction of the optical axis of the eye.
  • the characteristics of the pupil of the eye may be obtained from the clearest image or may be acquired separately. Obtaining the optical axis direction of the eye through the eye pupil feature is a prior art and will not be described here.
  • the image processing device 530 further includes: an eye optical axis direction calibration module 535, configured to perform calibration of an optical axis direction of the eye, to perform the above more accurately. The determination of the direction of the optical axis of the eye.
  • an eye optical axis direction calibration module 535 configured to perform calibration of an optical axis direction of the eye, to perform the above more accurately. The determination of the direction of the optical axis of the eye.
  • the imaging parameters known by the system include fixed imaging parameters and real-time imaging parameters, wherein the real-time imaging parameters are parameter information of the adjustable lens unit when acquiring the clearest image, and the parameter information may be acquired.
  • the clearest image is recorded in real time.
  • the distance from the eye to the eye can be calculated, specifically:
  • Figure 5e shows a schematic diagram of eye imaging. Combined with the lens imaging formula in classical optics theory, equation (1) can be obtained from Figure 5e:
  • d. And d e are the distance between the current observation object 5010 of the eye and the real image 5020 on the retina to the eye equivalent lens 5030, f e is the equivalent focal length of the eye equivalent lens 5030, and X is the line of sight direction of the eye (which can be The direction of the optical axis is obtained).
  • Figure 5f is a schematic diagram showing the distance from the focus of the eye to the eye according to the imaging parameters known to the system and the optical parameters of the eye.
  • the spot 5040 in Figure 5f is converted into a virtual image by the adjustable lens unit 521 (not shown in Figure 5f). , assuming that the virtual image distance from the lens is s (not shown in Figure 5f), combined with formula (1)
  • d p is the optical equivalent distance of the spot 5040 to the adjustable lens unit 521, which is the optical equivalent distance of the adjustable lens unit 521 to the eye equivalent lens 5030
  • f p is the focal length value of the adjustable lens unit 521
  • the focus position of the eye can be easily obtained, which provides a basis for further eye-related further interaction.
  • an embodiment of the eye focus detection system 600 is applied to the glasses 400 (where the glasses 400 may be the imaging device of the embodiment of the present invention), which includes
  • the content of the embodiment shown in FIG. 5b is specifically as follows:
  • the system 600 of the present embodiment is integrated on the right side of the glasses 400 (not limited thereto), and includes:
  • the micro camera 610 has the same function as the image collecting device described in the embodiment of Fig. 5b, and is disposed on the right outer side of the glasses 200 so as not to affect the line of sight of the user's normal viewing object;
  • the first beam splitter 620 functions in the same manner as the first beam splitting unit described in the embodiment of FIG. 5b, and is disposed at an intersection of the gaze direction of the eye 200 and the incident direction of the camera 610 at a certain inclination angle, and transmits light and reflection of the observation object into the eye 200.
  • the focal length adjustable lens 630 has the same function as the focus adjustable lens described in the embodiment of FIG. 5b, and is located between the first beam splitter 620 and the camera 610 to adjust the focal length value in real time so that at a certain focal length value
  • the camera 610 is capable of capturing the sharpest image of the fundus.
  • the image processing apparatus is not shown in Fig. 6, and its function is the same as that of the image processing apparatus shown in Fig. 5b.
  • the fundus is illuminated by a source of illumination 640.
  • the preferred illumination source 640 herein is an invisible light source of the eye, preferably a near-infrared illumination source that is less influential to the eye 200 and that is more sensitive to the camera 610.
  • the illumination source 640 is located outside the spectacle frame on the right side. Therefore, it is necessary to complete the light emitted by the illumination source 640 to the fundus through a second dichroic mirror 650 and the first dichroic mirror 620. transfer.
  • the second beam splitter 650 is located before the incident surface of the camera 610. Therefore, it is also required to transmit light from the fundus to the second beam splitter 650.
  • the first beam splitter 620 in order to improve the user experience and improve the sharpness of the camera 610, preferably has a characteristic of high infrared reflectance and high visible light transmittance.
  • an infrared reflecting film may be provided on the side of the first beam splitter 620 facing the eye 200 to achieve the above characteristics.
  • the eye focus detection system 600 is located on the side of the lens of the glasses 600 away from the eye 200, the lens can also be regarded as an eye when calculating the optical parameters of the eye. As part of this, it is not necessary to know the optical properties of the lens at this time.
  • the eye focus detection system 600 may be located on the side of the lens of the eyeglass 400 near the eye 200. In this case, the optical characteristic parameters of the lens need to be obtained in advance, and the focus distance is calculated. When considering the factors affecting the lens.
  • the light emitted by the light source passes through the reflection of the second beam splitter 650, the projection of the focus adjustable lens 630, and the reflection of the first beam splitter 620, and then enters the eyes of the user through the lens of the glasses 400, and finally reaches the retina of the fundus;
  • the camera 610 passes through the pupil of the eye 200 through the optical path formed by the first beam splitter 620, the focus adjustable lens 630, and the second beam splitter 650 to capture an image of the fundus.
  • FIG. 7 is a schematic structural diagram of an eye focus detection system 700 according to another embodiment of the present invention.
  • the present embodiment is similar to the embodiment shown in FIG. 6, and includes a micro camera 710, a second beam splitter 720, and a focus adjustable lens 730, except that the projection device in the present embodiment is different.
  • 740 is a projection device 740 that projects a spot pattern, and the first beam splitter in the embodiment of FIG. 6 is replaced by a curved beam splitter 750.
  • the surface beam splitter 750 is used to correspond to the position of the pupil when the optical axis direction of the eye is different.
  • the image presented by the fundus is delivered to the image collection device.
  • the camera can capture the image superimposed and superimposed at various angles of the eyeball, but since only the fundus portion through the pupil can be clearly imaged on the camera, other parts will be out of focus and cannot be clearly imaged, and thus will not seriously interfere with the imaging of the fundus portion.
  • the characteristics of the fundus portion can still be detected. Therefore, compared with the embodiment shown in FIG. 6, the present embodiment can obtain an image of the fundus well when the eyes are gazing in different directions, so that the eye focus detecting device of the present embodiment has a wider application range and more accurate detection. high.
  • the information processing module 800 may include, for example:
  • Processor 810 communication interface 820, memory
  • (memory) 830 and a communication bus 840. among them:
  • the processor 810, the communication interface 820, and the memory 830 complete communication with each other via the communication bus 840.
  • the communication interface 820 is configured to perform network element communication.
  • the processor 810 is configured to execute the program 832, and specifically performs the corresponding functions of the information processing module.
  • the program 832 may include program code, including the computer operation, the processor 810 may be a central processing unit CPU, or an application specific integrated circuit (ASIC), or configured to implement the present invention.
  • the processor 810 may be a central processing unit CPU, or an application specific integrated circuit (ASIC), or configured to implement the present invention.
  • ASIC application specific integrated circuit
  • the memory 830 is configured to store the program 832.
  • Memory 830 may include high speed RAM memory and may also include non-volatile memory, such as at least one disk memory.
  • the program 832 can specifically cause the information processing module 800 to perform the following steps:
  • An imaging parameter of the imaging lens module is calculated according to a focus position of the imaging receiver and refractive calibration information corresponding to the imaging recipient.
  • an embodiment of the present invention provides an imaging method, including:
  • S110 detecting a focus position of the imaging receiver, and determining an imaging parameter of the imaging lens module according to the focus position, the imaging lens module being located between the imaging receiver and the observation object, and the imaging parameter is adjustable;
  • S120 Adjust the imaging lens module according to the determined imaging parameter.
  • the imaging parameters of the imaging lens module include: a shape and/or a refractive index of the imaging lens module.
  • the method before the step of determining an imaging parameter of the imaging lens module according to the focus position, the method includes:
  • the imaging parameters corresponding to the plurality of distance objects are acquired by the imaging receiver to learn the corresponding imaging parameters, and the refractive proof information corresponding to the imaging receiver is obtained.
  • the step S110 includes: determining a focus position of the imaging receiver according to an optical parameter of the imaging receiver;
  • An imaging parameter of the imaging lens module is calculated based on a focus position of the imaging recipient and refractive calibration information corresponding to the imaging recipient.
  • the method further includes: determining an imaging parameter of the imaging lens module according to motion posture information of the imaging lens module.
  • the determining, according to the motion posture information of the imaging lens module, the imaging parameter of the imaging lens module comprises: And imaging parameters corresponding to the next moment of the imaging lens module are predicted according to the relative motion posture information of the imaging lens module and the object and the imaging parameters of the imaging lens module at the current time.
  • the determining, according to the motion posture information of the imaging lens module, the imaging parameter of the imaging lens module comprises: a motion speed of the imaging lens module
  • the imaging parameters of the imaging lens module are adjusted to the set common imaging parameters.
  • the determining, according to the motion posture information of the imaging lens module, the imaging parameter of the imaging lens module comprises: a motion speed of the imaging lens module
  • the imaging parameters of the imaging lens module are adjusted to the imaging parameter values of the imaging lens module at a previous time.
  • the method further includes: before the step of determining the imaging parameter of the imaging lens module according to the motion posture information of the imaging lens module:
  • the motion posture information of the imaging device comprises: relative motion posture information of the imaging lens module and the object and/or motion speed information of the imaging device.
  • the method further includes: performing temporal smoothing processing on a current imaging parameter of the imaging lens module according to historical information of an imaging lens module imaging parameter.
  • the imaging receiver is an eye of the user.
  • the imaging device is an eye
  • the determining the imaging receiving according to the optical parameter of the imaging receiver The steps of the square focus position include:
  • Image collection device and image based on the sharpest image presented to the imaging surface of the imaging receiver Like the imaging parameters of the optical path between the receivers, the focus position of the imaging receiver is obtained.
  • the determining, by the optical parameter of the imaging receiver, the focus position of the imaging receiver comprises:
  • the image collected by the image is processed, and the focus position of the image receiving party is calculated according to the imaging parameters of the optical path between the image collecting device and the image receiving device and the optical parameters of the imaging receiver when the sharpest image is collected.
  • the optical parameter of the imaging receiver includes an optical axis direction of the imaging receiver.
  • the method includes: when the imaging receiving party is an eye, respectively corresponding to the position of the pupil when the optical axis direction of the eye is different, respectively, and transmitting the image presented by the fundus to the eye Image collection device.
  • the method further comprises: before the step of integrating the image presented by the image forming surface of the receiving side, the method further comprises: projecting a light spot to the imaging surface of the imaging receiver.
  • the determining, by the optical parameter of the imaging receiver, the focus position of the imaging receiver comprises:
  • the optical axis direction of the imaging receiver is tracked, and the depth of the scene where the observation object is located is obtained, and the focus position of the imaging receiver is calculated.
  • the method corresponds to at least two mutually associated imaging receivers, and determining the focus position of the imaging receiver according to the optical parameters of the imaging receiver
  • the steps include:
  • sequence number of each step does not mean the order of execution sequence, and the execution order of each step should be determined by its function and internal logic, and should not be The implementation of the specific embodiments of the invention constitutes any limitation.
  • the functions, if implemented in the form of software functional units and sold or used as separate products, may be stored in a computer readable storage medium.
  • the technical solution of the present invention which is essential or contributes to the prior art, or a part of the technical solution, may be embodied in the form of a software product, which is stored in a storage medium, including
  • the instructions are used to cause a computer device (which may be a personal computer, server, or network device, etc.) to perform all or part of the steps of the methods described in various embodiments of the present invention.
  • the foregoing storage medium includes: a U disk, a removable hard disk, a read-only memory (ROM), a random access memory (RAM), a magnetic disk or an optical disk, and the like, which can store program codes. .

Landscapes

  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Optics & Photonics (AREA)
  • Acoustics & Sound (AREA)
  • Otolaryngology (AREA)
  • Signal Processing (AREA)
  • Eye Examination Apparatus (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

公开了一种成像装置及方法。成像装置(100)包括:成像透镜模块(110),其成像参数可调,用于对成像接收方的观察对象进行成像;信息处理模块(120),用于检测成像接收方的对焦点位置,并根据对焦点位置确定成像透镜模块(110)的成像参数;透镜调节模块(130),用于根据确定的成像参数对成像透镜模块(110)进行调节。这种成像装置及方法通过自动检测成像接收方的对焦点位置并根据对焦点位置自动调节位于成像接收方与对象之间的成像透镜模块的成像参数,使得成像接收方(例如用户的眼睛)可以方便的获得不同距离对象的清晰成像。

Description

成像装置及成像方法 本申请要求于 2013 年 7 月 31 日提交中国专利局、 申请号为 201310328739.0、 发明名称为 "成像装置及方法" 的中国专利申请的优先权, 其全部内容通过引用结合在本申请中。 技术领域
本发明涉及成像技术领域, 尤其涉及一种成像装置及方法。 背景技术
穿戴式设备逐渐被大众所接受, 例如谷歌眼镜, 智能手表等, 这些电子 化智能设备将为人们的生活带来更多便利。
传统近视或远视眼镜通过在存在屈光不正的人眼前面增加一片固定焦距 的凹透镜或一片凸透镜来矫正因各种原因导致的屈光度不正问题。 但传统眼 镜存在验光配镜麻烦, 只能针对一定距离范围矫正等问题。 对于该一定距离 以外的范围的物体, 用户可能会无法得到清晰的像而感到视觉模糊; 或者看 起来很费劲, 容易出现眼睛疲劳的情况。
基于上述情况, 出现了一个镜片上有多个不同焦距的多焦点眼镜, 以同 时存在老花和近视的眼睛所佩戴的眼镜为例, 其镜片的上部为近视镜, 用于 帮助用户清晰的观看远处的物体; 镜片的下部为远视镜, 用于帮助用户清晰 的观看近处的物体。 但是, 这样用户必须通过镜片的上部看远处、 下部看近 处, 例如必须低头看远处较低的物体、 抬头看近处较高的物体; 或者必须手 动调节眼镜的位置, 因此使用起来比较麻烦。
同样,对于健康的人眼以及例如照相机、摄像机等的成像记录装置来说, 也无法获得视场范围内所有距离物体的清晰像。 例如健康的人眼在看离眼睛 很近的物体时, 也会发生无法看清或眼睛疲劳等情况。
在一些文献中, 例如公开号为 US4572616A和 US20070211207A1的美国 专利申请、 以及光学快讯 2004年第 12卷第 11期第 2494-2500页,名称为 "可 调微透镜阵歹l,, ( "Tunable microdoublet lens array", Optics Express, Vol. 12, Issue 11, pp. 2494-2500 (2004) ) 的论文中记载了一种电子可调焦距的透镜及透镜阵 列, 可以对透镜的焦距进行调节, 但是其没有提到自动检测用户眼睛对焦点 后自适应调整透镜的焦距。
发明内容
本发明要解决的技术问题是: 提供一种成像装置及方法, 以自动根据成 像接收方的对焦点调节成像装置的成像参数, 使得成像接收方 (例如用户的 眼睛) 可以方便的获得不同距离对象的清晰成像, 提高用户体验。
为实现上述目的, 第一方面, 本发明提供了一种成像装置, 包括: 一成像透镜模块, 至少一成像参数可调, 用于对一成像接收方的一观察 对象进行成像;
一信息处理模块, 用于检测所述成像接收方的一对焦点位置, 并根据所 述对焦点位置确定所述成像透镜模块的所述成像参数;
一透镜调节模块, 用于根据所述确定的成像参数对所述成像透镜模块进 行调节。
第二方面, 本发明还提供了一种成像方法, 包括:
检测一成像接收方的一对焦点位置, 并根据所述对焦点位置确定所述成 像透镜模块的至少一成像参数, 所述成像透镜模块位于所述成像接收方与一 观察对象之间并且所述成像参数可调;
根据所述确定的成像参数对所述成像透镜模块进行调节。
本发明实施例的上述技术方案通过自动检测成像接收方的对焦点位置并 根据该对焦点位置自动调节位于成像接收方与对象之间的成像透镜模块的成 像参数, 使得成像接收方 (例如用户的眼睛) 可以方便的获得不同距离对象 的清晰成像。 尤其对于具有屈光不正等问题的用户的眼睛来说, 通过本发明实施例的 装置及方法, 可以解决观看不同距离的对象时由于屈光矫正不足 (如近视眼 看远处物体、 远视眼看近处物体时)或过度 (近视眼看近处物体、 远视眼看 远处物体时) 等引起的视觉模糊和眼睛疲劳等问题; 老视 (老花) 眼同时看 近处和远处物体时由于晶状体调节范围缩小引起的视觉模糊和眼睛疲劳问题; 以及散光、 斜视等由于光轴偏移引起的视觉模糊和眼睛疲劳问题。 附图说明
图 1为本发明实施例的一种成 -装置的结构示意框图;
图 2为本发明实施例的一种成 -装置的应用示意图;
图 3a为本发明实施例的一种成 1 装置中信息处理模块的结构示意图框图: 图 3b为本发明实施例的另一种. 像装置的结构示意框图;
图 3c和图 d为本发明实施例一;中成像装置中运动姿态分析处理单元的结 构示意框图;
图 4为本发明实施例的又一种 '象装置的应用示意图;
图 5a为本发明实施例的一种成 I装置眼睛对焦点检测系统的结构框图; 图 5 b为本发明实施例的一种成 1 -装置的另一种眼睛对焦点检测系统的结 构框图;
图 5c为本发明实施例的一种成 1
Figure imgf000005_0001
图案示意图;
图 5 d为本发明实施例的一种成 1 很睛对焦点检测系统拍:
Figure imgf000005_0002
有光斑图案的眼底图像示意图;
图 5e为本发明实施例的一种成 1 很睛对焦点检测系统眼 I 光路示意图;
图 5f为本发明实施例的一种成 1
Figure imgf000005_0003
已 成像参数和眼睛的光学参数得到眼睛对焦点到眼睛的距离的示意图;
图 6为本发明实施例的一种成像装置的眼睛对焦点数检测系统应用在眼 镜上的示意图;
图 7 为本发明实施 1 一种成像装置的眼睛对焦点检测系统应用在眼 镜上的示意图;
图 8为本发明实施 1 -种成像装置的信息处理模块的结构框图; 图 9为本发明实施 1 -种成像方法的流程图。 具体实施方式
本发明的方法及装置结合附图及实施例详细说明如下。
成像接收方对于焦距等成像参数的调节范围有限, 以成像接收方为用户 的眼睛为例(当然所述成像接收方还可以为摄像机、照相机等成像记录装置), 例如视力正常的用户的眼睛会无法看清或者很费力才能看清离眼睛很近的对 象, 对于具有如近视、 远视、 老视、 散光等屈光不正、 以及斜视等问题的眼 睛来说, 其自身的调节范围更加有限。 以眼睛其远、 近视力均不正常的老视 为例, 为了看清对象, 其经常处在调节的状态, 很容易发生眼疲劳, 虽然可 以通过一般的眼镜来矫正, 但是现有技术的眼镜比较难以同时对远方和近处 的对象进行成像矫正。
因此, 如图 1所示, 本发明实施例提供了一种成像装置 100 , 包括: 成像透镜模块 110, 成像参数可调, 用于对成像接收方的观察对象进行成 信息处理模块 120, 用于检测成像接收方的对焦点位置, 并根据所述对焦 点位置确定所述成像透镜模块的成像参数;
透镜调节模块 130,用于根据所述确定的成像参数对所述成像透镜模块进 行调节。
成像接收方可以透过成像透镜模块 110得到对象的期望图像。
通过本发明实施例的成像装置, 可以根据成像接收方的需要针对视场中 不同距离的对象对应进行成像参数的调节, 使得用户可以轻松舒适的分别观 看视场中的不同距离的对象, 提高用户体验。 如图 2所示, 在本发明实施例的实施方式中, 以成像装置 100为眼镜(这 里的眼镜除了常见的眼镜之外, 也有可能为例如头盔目镜、 驾驶前挡风玻璃 等光学设备)、 所述成像接收方 200为用户的眼睛、 所述对象包括距离成像装 置 100从远到近的三角形对象 300a、 矩形对象 300b以及椭圆对象 300c为例 进行说明, 其中眼镜每侧的镜片分别是一个成像透镜模块 110。
在本发明实施例的一个可能的实施方式中, 所述成像透镜模块 110包括至 少一片透镜。 这里以每个成像透镜模块 110仅包括一片透镜为例进行说明。
在本发明实施例优选的实施方式中, 所述成像透镜模块 110的成像参数包 括: 成像透镜模块的形状和 /或折射率。
在本实施方式中, 对成像透镜模块 110成像参数的调节例如可以为, 对成 像透镜模块 110透镜的曲率进行调整以改变成像透镜模块 110的焦距; 对成像 透镜模块 110透镜的折射率进行调整以改变成像透镜模块 110的焦距。 此外, 对于散光用户来说, 可以将成像透镜模块 110透镜的表面调整成圆柱面以对散 光进行矫正; 对于斜视用户来说, 可以将成像透镜模块 110透镜的表面调整成 棱柱面以对斜视进行矫正。 当然,在本发明实施例的其它可能的实施方式中, 所述成像透镜模块还可以包括两片及以上的透镜, 此时, 对于散光或斜视用 户来说, 分别将一片透镜的成像透镜模块 110调整成圆柱面或棱柱面即可。 如图 3a所示, 在本发明实施例的一个可能的实施方式中, 所述信息处理 模块 130包括:
屈光校对单元 131 , 用于对成像接收方 200分别获取多个距离对象的期望 图像时成像接收方 200对应的成像参数进行学习, 得到与所述成像接收方对应 的屈光校对信息。 这里的期望图像例如可以是对象的清晰图像或较为清晰的 图像。 当成像接收方 200为眼睛时, 这里的期望图像可以为用户的眼睛比较舒 适的观看到的对象的清晰或较为清晰的图像, 即用户观看到对象的清晰图像 时, 眼睛不用过度自我调节, 不易疲劳。 如表一所示为本实施方式得到的与本实施例的成像接收方对应的针对一 个近视用户的屈光校对信息表示例。 这里的目标距离为对象与成像装置的距 离 (在其它实施方式中, 所述还可以选取对象与成像接收方的距离作为目标 距离), 所述最佳屈光度为用户的眼睛在所述目标距离舒适地观看到对象的清 晰图像时需要成像透镜模块对应区域达到的屈光度。 在本发明的其它实施例 中, 所述屈光校对信息可能还包括例如针对散光或斜视等其它屈光不正的光 学参数信息。
Figure imgf000008_0001
Figure imgf000008_0002
例如, 假设对象与成像装置之间的距离为 lm, 则与对象对应的成像透镜 模块 110的成像参数则优选与 -5.75屈光度对应; 假设对象与成像装置之间的距 离为 0.8m, 则可以根据 0.5m和 lm对应的最佳屈光度通过插值方法得到 0.8m的 距离对应的最佳屈光度, 再进而得到对应成像透镜模块 110的成像参数。 本领 域的技术人员可以知道, 用于进行成像接收方对应成像参数学习的对象的距 离的颗粒度越小, 得到的屈光校对信息越多, 通过所述屈光校对信息得到需 要的成像透镜模块 110的成像参数的准确度就越高。
对焦点位置确定单元 132,用于根据成像接收方的光学参数确定成像接收 方的对焦点位置。 得到成像接收方的对焦点位置, 则得到了对象与成像装置 之间的距离。
成像参数计算单元 133 , 用于根据所述成像接收方的对焦点位置以及与所 述成像接收方对应的屈光校对信息计算得到所述成像透镜模块 110的成像参 数。 本实施方式中, 通过基于表一的查表法来计算每个对象的对应成像透镜 模块 110的成像参数。
为了避免用户在较高速度运动时, 由于视场中观察的对象在不停的改变, 使得成像装置的调整速度跟不上对象变化的速度而无法及时调整或者即使及 时调整了也会给用户带来眩暈的感觉, 优选地, 在本发明实施例的一个可能 的实施方式中, 所述信息处理模块 130包括:
运动姿态分析处理单元 134, 用于根据所述成像装置 100 (或成像透镜模 块 110 ) 的运动姿态信息确定所述成像透镜模块 110的成像参数。
这里, 所述成像装置的运动姿态信息包括: 所述成像装置与对象的相对 运动姿态信息和 /或成像装置的运动速度信息。
优选地, 在本实施方式中, 如图 3b所示, 可以在成像装置中增加运动姿 态传感模块 140来获取所述成像装置的运动姿态信息。
优选地, 如图 3c和图 3d所示, 所述运动姿态分析处理单元 134包括: 运动轨迹预测调整子单元 1341 , 用于根据所述成像装置与对象的相对运 动姿态信息以及所述成像透镜模块在当前时刻的成像参数预测所述成像透镜 模块 110下一时刻对应的成像参数。 例如, 对象向着靠近成像接收方的方向运 动着, 并且运动速度为每秒 0.5m, 则可以根据对象当前与成像装置的距离以 及上述信息预测对象在下一秒时与对象的距离, 进而调节所述成像透镜模块 10的成像参数。
在本发明实施例的一个可能的实施方式中, 优选的, 所述运动姿态分析 处理单元 134包括:
第一运动调整子单元 1342或第二运动调整子单元 1343 , 用于在所述成像 装置的运动速度超过设定阈值时, 分别将所述成像透镜模块的成像参数调节 成设定的常用成像参数或调节成前一时刻成像透镜模块的成像参数值。
优选地, 在本发明实施例的一种可能的实施方式中, 为了防止成像透镜 模块 110的成像参数在时间上的跳变, 引起用户暈眩, 所述信息处理模块 130 还包括:
历史信息平滑单元 135 , 用于根据成像透镜模块 110成像参数的历史信息 对成像透镜模块 110的当前成像参数进行时间上的平滑处理。
在本发明实施例的一种可能的实施方式中, 所述对焦点位置确定单元可 能为通过三种形式的系统来获得对焦点的位置, 其中
第一对焦点位置确定单元, 可以根据釆集到成像接收方的成像面 (当所 述成像接收方为眼睛时, 所述成像面为眼睛的眼底 (如视网膜))呈现的最清 晰图像时图像釆集设备与成像接收方之间光路的成像参数, 得到所述成像接 收方的对焦点位置。 下面会对所述第一对焦点位置确定单元进行更加详细的 描述。
第二对焦点位置确定单元, 通过光轴跟踪系统跟踪成像接收方的光轴方 向, 再通过深度传感设备获得观察对象所在位置的场景深度, 计算得到成像 接收方的对焦点位置。 如图 4所示为成像装置 400使用所述第二对焦点位置确 定单元 410来确定眼睛 200(成像接收方)对焦点位置的实例。由图 4可以看出, 在本实施方式中, 所述成像装置 400为眼镜, 所述成像透镜模块为眼睛的镜片 420, 通过一个视线跟踪器 411 (本实施方式中, 所述视线跟踪器 411包括摄像 头 411a和在眼睛 200和摄像头 411a之间形成光路的分光镜 411b; 所述视线跟踪 器为已有技术,此处不再赘述)作为眼睛光轴跟踪系统跟踪眼睛的光轴方向, 同时通过一个深度传感器 412来获得观察对象所在位置的场景深度(通过深度 传感器得到场景深度也为已有技术, 此处不再赘述), 再通过三角关系计算获 得眼睛的对焦点位置。
第三对焦点位置确定单元, 用于所述成像装置对应于至少两个相互关联 的成像接收方的场合, 通过光轴跟踪系统跟踪所述至少两个成像接收方的光 轴方向, 再通过所述至少两个成像接收方的光轴方向的交点得到成像接收方 的对焦点位置。 例如分别对两个眼睛的光轴方向进行跟踪, 得到两眼的光轴 方向后计算两个光轴的交点位置, 则可以得到眼睛的对焦点位置。 在本实施 方式中, 必须至少要有两个成像接收方 (如人的两个眼睛), 仅有一个成像接 收方的场合不适用。
在本发明实施例的一种可能的实施方式中, 可以通过一个对焦点检测系 统来实现所述第一对焦点位置确定单元的功能, 下面以成像接收方为眼睛为 例来进行说明:
如图 5a所示,本发明实施例提供了一种眼睛对焦点检测系统 500,包括: 图像釆集装置 510, 用于釆集眼底呈现的图像; 成像装置 520,用于进行眼睛与所述图像釆集装置 510之间成像参数的调 节以使得所述图像釆集装置 510得到最清晰的图像;
图像处理装置 530, 用于对所述图像釆集装置 510得到的图像进行处理, 得到所述图像釆集装置获得最清晰图像时眼睛的光学参数。
本系统 500通过对眼睛眼底的图像进行分析处理, 得到所述图像釆集装 置获得最清晰图像时眼睛的光学参数, 就可以计算得到眼睛当前的对焦点位 置, 为进一步实现眼睛自适应操作提供基础。
这里的 "眼底" 呈现的图像主要为在视网膜上呈现的图像, 其可以为眼 底自身的图像, 或者可以为投射到眼底的其它物体的图像。 这里的眼睛可以 为人眼, 也可以为其它动物的眼睛。
如图 5b所示, 本发明实施例的一种可能的实施方式中, 所述图像釆集装 置 510为微型摄像头, 在本发明实施例的另一种可能的实施方式中, 所述图 像釆集装置 510还可以直接使用感光成像器件, 如 CCD或 CMOS等器件。
在本发明实施例的一种可能的实施方式中, 所述成像装置 520包括: 可 调透镜单元 521 , 位于眼睛与所述图像釆集装置 510之间的光路上, 自身焦距 可调和 /或在光路中的位置可调。 通过该可调透镜单元 521 , 使得从眼睛到所 述图像釆集装置 510之间的系统等效焦距可调, 通过可调透镜单元 521 的调 节, 使得所述图像釆集装置 510在可调透镜单元 521 的某一个位置或状态时 获得眼底最清晰的图像。 在本实施方式中, 所述可调透镜单元 521 在检测过 程中连续实时的调节。
优选地, 在本发明实施例的一种可能的实施方式中, 所述可调透镜单元 521 为: 焦距可调透镜, 用于通过调节自身的折射率和 /或形状完成自身焦距 的调整。 具体为: 1 ) 通过调节焦距可调透镜的至少一面的曲率来调节焦距, 例如在双层透明层构成的空腔中增加或减少液体介质来调节焦距可调透镜的 曲率; 2 )通过改变焦距可调透镜的折射率来调节焦距, 例如焦距可调透镜中 填充有特定液晶介质, 通过调节液晶介质对应电极的电压来调整液晶介质的 排列方式, 从而改变焦距可调透镜的折射率。 在本发明实施例的另一种可能的实施方式中, 所述可调透镜单元 521包 括: 透镜组, 用于调节透镜组中透镜之间的相对位置完成透镜组自身焦距的 调整。
除了上述两种通过调节可调透镜单元 521 自身的特性来改变系统的光路 参数以外, 还可以通过调节所述可调透镜单元 521 在光路上的位置来改变系 统的光路参数。
优选地, 在本发明实施例的一种可能的实施方式中, 为了不影响用户对 观察对象的观看体验, 并且为了使得系统可以便携应用在穿戴式设备上, 所 述成像装置 520还包括: 分光装置 522, 用于形成眼睛和观察对象之间、 以及 眼睛和图像釆集装置 510之间的光传递路径。 这样可以对光路进行折叠, 减 小系统的体积, 同时尽可能不影响用户的其它体验。
优选地, 在本实施方式中, 所述分光装置包括: 第一分光单元, 位于眼 睛和观察对象之间, 用于透射观察对象到眼睛的光, 传递眼睛到图像釆集装 置的光。
所述第一分光单元可以为分光镜、 分光光波导 (包括光纤)或其它适合 在本发明实施例的一种可能的实施方式中,所述系统的图像处理装置 530 包括光路校准模块, 用于对系统的光路进行校准, 例如进行光路光轴的对齐 校准等, 以保证测量的精度。
在本发明实施例的一种可能的实施方式中,所述图像处理装置 530包括: 图像分析模块 531 , 用于对所述图像釆集装置得到的图像进行分析, 找到 最清晰的图像;
参数计算模块 532, 用于根据所述最清晰的图像、 以及得到所述最清晰图 像时系统已知的成像参数计算眼睛的光学参数。
在本实施方式中, 通过成像装置 520使得所述图像釆集装置 510可以得 到最清晰的图像, 但是需要通过所述图像分析模块 531 来找到该最清晰的图 像, 此时根据所述最清晰的图像以及系统已知的光路参数就可以通过计算得 到眼睛的光学参数。 这里眼睛的光学参数可以包括眼睛的光轴方向。
在本发明实施例的一种可能的实施方式中, 优选地, 所述系统还包括: 投射装置 540, 用于向眼底投射光斑。 在一个可能的实施方式中, 可以通过微 型投影仪来实现该投射装置的功能。
这里投射的光斑可以没有特定图案仅用于照亮眼底。
在本发明实施例优选的一种实施方式中, 所述投射的光斑包括特征丰富 的图案。 图案的特征丰富可以便于检测, 提高检测精度。 如图 5c所示为一个 光斑图案 550 的示例图, 该图案可以由光斑图案生成器形成, 例如毛玻璃; 图 5d所示为在有光斑图案 550投射时拍摄到的眼底的图像。
为了不影响眼睛的正常观看, 优选的, 所述光斑为眼睛不可见的红外光 斑。
此时, 为了减小其它光谱的干扰:
所述投射装置的出射面可以设置有眼睛不可见光透射滤镜。
所述图像釆集装置的入射面设置有眼睛不可见光透射滤镜。
优选地, 在本发明实施例的一种可能的实施方式中, 所述图像处理装置
530还包括:
投射控制模块 534, 用于根据图像分析模块得到的结果, 控制所述投射装 置的投射光斑亮度。
例如所述投射控制模块 534可以根据图像釆集装置 510得到的图像的特 性自适应调整亮度。 这里图像的特性包括图像特征的反差以及紋理特征等。
这里, 控制所述投射装置的投射光斑亮度的一种特殊的情况为打开或关 闭投射装置, 例如用户持续注视一点时可以周期性关闭所述投射装置; 用户 眼底足够明亮时可以关闭发光源只利用眼底信息来检测眼睛当前视线对焦点 到眼睛的距离。
此外, 所述投射控制模块 534还可以根据环境光来控制投射装置的投射 光斑亮度。
优选地, 在本发明实施例的一种可能的实施方式中, 所述图像处理装置 530还包括: 图像校准模块 533 , 用于进行眼底图像的校准, 获得至少一个与 眼底呈现的图像对应的基准图像。
所述图像分析模块 531将图像釆集装置 530得到的图像与所述基准图像 进行对比计算, 获得所述最清晰的图像。 这里, 所述最清晰的图像可以为获 得的与所述基准图像差异最小的图像。 在本实施方式中, 通过现有的图像处 理算法计算当前获得的图像与基准图像的差异, 例如使用经典的相位差值自 动对焦算法。
优选地, 在本发明实施例的一种可能的实施方式中, 所述参数计算模块 532包括:
眼睛光轴方向确定单元 5321 , 用于根据得到所述最清晰图像时眼睛的特 征得到眼睛光轴方向。
这里眼睛的特征可以是从所述最清晰图像上获取的, 或者也可以是另外 获取的。 眼睛光轴方向表示眼睛视线注视的方向。
优选地, 在本发明实施例的一种可能的实施方式中, 所述眼睛光轴方向 确定单元 5321包括: 第一确定子单元, 用于根据得到所述最清晰图像时眼底 的特征得到眼睛光轴方向。 与通过瞳孔和眼球表面的特征得到眼睛光轴方向 相比, 通过眼底的特征来确定眼睛光轴方向精确度更高。
在向眼底投射光斑图案时, 光斑图案的大小有可能大于眼底可视区域或 小于眼底可视区域, 其中:
当光斑图案的面积小于等于眼底可视区域时, 可以利用经典特征点匹配 算法(例如尺度不变特征转换( Scale Invariant Feature Transform, SIFT )算法) 通过检测图像上的光斑图案相对于眼底位置来确定眼睛光轴方向;
当光斑图案的面积大于等于眼底可视区域时, 可以通过得到的图像上的 光斑图案相对于原光斑图案 (通过图像校准模块获得) 的位置来确定眼睛光 轴方向确定用户视线方向。
在本发明实施例的另一种可能的实施方式中, 所述眼睛光轴方向确定单 元 5321包括: 第二确定子单元, 用于根据得到所述最清晰图像时眼睛瞳孔的 特征得到眼睛光轴方向。 这里眼睛瞳孔的特征可以是从所述最清晰图像上获 取的, 也可以是另外获取的。 通过眼睛瞳孔特征得到眼睛光轴方向为已有技 术, 此处不再赘述。
优选地, 在本发明实施例的一种可能的实施方式中, 所述图像处理装置 530还包括: 眼睛光轴方向校准模块 535 , 用于进行眼睛光轴方向的校准, 以 便更精确的进行上述眼睛光轴方向的确定。
在本实施方式中, 所述系统已知的成像参数包括固定的成像参数和实时 成像参数, 其中实时成像参数为获取最清晰图像时所述可调透镜单元的参数 信息, 该参数信息可以在获取所述最清晰图像时实时记录得到。
在得到眼睛当前的光学参数之后, 就可以计算得到眼睛对焦点到眼睛的 距离, 具体为:
图 5e所示为眼睛成像示意图, 结合经典光学理论中的透镜成像公式, 由 图 5e可以得到公式 (1):
Figure imgf000015_0001
其中 d。和 de分别为眼睛当前观察对象 5010和视网膜上的实像 5020到眼 睛等效透镜 5030的距离, fe为眼睛等效透镜 5030的等效焦距, X为眼睛的视 线方向 (可由所述眼睛的光轴方向得到)。
图 5f所示为根据系统已知成像参数和眼睛的光学参数得到眼睛对焦点到 眼睛的距离的示意图,图 5f 中光斑 5040通过可调透镜单元 521会成一个虛像 (图 5f 中未示出 ), 假设该虛像距离透镜距离为 s (图 5f 中未示出 ), 结合公 式 (1)可以
Figure imgf000015_0002
其中 dp为光斑 5040到可调透镜单元 521的光学等效距离, 为可调透镜 单元 521到眼睛等效透镜 5030的光学等效距离, fp为可调透镜单元 521的焦 距值, 为所述眼睛等效透镜 5030到可调透镜单元 521的距离。 由(1)和 (2)可以得出当前观察对象 5010 (眼睛对焦点) 到眼睛等效透镜 5030的距离 d。如公式 (3)所示:
根据上述计算得到的观察对象 5010到眼睛的距离, 又由于之前的记载可 以得到眼睛光轴方向, 则可以轻易得到眼睛的对焦点位置, 为后续与眼睛相 关的进一步交互提供了基础。
如图 6所示为本发明实施例的一种可能的实施方式的眼睛对焦点检测系 统 600应用在眼镜 400 (这里的眼镜 400可以为本发明实施例的成像装置 )上 的实施例, 其包括图 5b所示实施方式的记载的内容, 具体为: 由图 6可以看 出, 在本实施方式中, 在眼镜 400右侧 (不局限于此)集成了本实施方式的 系统 600, 其包括:
微型摄像头 610, 其作用与图 5b实施方式中记载的图像釆集装置相同, 为了不影响用户正常观看对象的视线, 其被设置于眼镜 200右外侧;
第一分光镜 620, 其作用与图 5b实施方式中记载的第一分光单元相同, 以一定倾角设置于眼睛 200注视方向和摄像头 610入射方向的交点处, 透射 观察对象进入眼睛 200的光以及反射眼睛到摄像头 610的光;
焦距可调透镜 630,其作用与图 5b实施方式中记载的焦距可调透镜相同, 位于所述第一分光镜 620和摄像头 610之间, 实时进行焦距值的调整, 使得 在某个焦距值时, 所述摄像头 610能够拍到眼底最清晰的图像。
在本实施方式中, 所述图像处理装置在图 6中未表示出, 其功能与图 5b 所示的图像处理装置相同。
由于一般情况下, 眼底的亮度不够, 因此, 最好对眼底进行照明, 在本 实施方式中, 通过一个发光源 640来对眼底进行照明。 为了不影响用户的体 验, 这里优选的发光源 640为眼睛不可见光, 优选对眼睛 200影响不大并且 摄像头 610又比较敏感的近红外光发光源。
在本实施方式中, 所述发光源 640位于右侧的眼镜架外侧, 因此需要通 过一个第二分光镜 650与所述第一分光镜 620—起完成所述发光源 640发出 的光到眼底的传递。 本实施方式中, 所述第二分光镜 650 又位于摄像头 610 的入射面之前, 因此其还需要透射眼底到第二分光镜 650的光。
可以看出, 在本实施方式中, 为了提高用户体验和提高摄像头 610 的釆 集清晰度, 所述第一分光镜 620优选地可以具有对红外反射率高、 对可见光 透射率高的特性。 例如可以在第一分光镜 620朝向眼睛 200的一侧设置红外 反射膜实现上述特性。
由图 6 可以看出, 由于在本实施方式中, 所述眼睛对焦点检测系统 600 位于眼镜 600的镜片远离眼睛 200的一侧, 因此进行眼睛光学参数计算时, 可以将镜片也看成是眼睛的一部分, 此时不需要知道镜片的光学特性。
在本发明实施例的其它实施方式中, 所述眼睛对焦点检测系统 600可能 位于眼镜 400的镜片靠近眼睛 200的一侧, 此时, 需要预先得到镜片的光学 特性参数, 并在计算对焦点距离时, 考虑镜片的影响因素。
发光源发出的光通过第二分光镜 650的反射、焦距可调透镜 630的投射、 以及第一分光镜 620的反射后再透过眼镜 400的镜片进入用户眼睛, 并最终 到达眼底的视网膜上; 摄像头 610 经过所述第一分光镜 620、 焦距可调透镜 630以及第二分光镜 650构成的光路透过眼睛 200的瞳孔拍摄到眼底的图像。
如图 7所示为本发明实施例的另一种实施方式眼睛对焦点检测系统 700 的结构示意图。 由图 7可以看出, 本实施方式与图 6所示的实施方式相似, 包括微型摄像头 710、 第二分光镜 720、 焦距可调透镜 730, 不同之处在于, 在本实施方式中的投射装置 740为投射光斑图案的投射装置 740,并且通过一 个曲面分光镜 750取代了图 6实施方式中的第一分光镜。
这里釆用了曲面分光镜 750分别对应眼睛光轴方向不同时瞳孔的位置, 将眼底呈现的图像传递到图像釆集装置。 这样摄像头可以拍摄到眼球各个角 度混合叠加的成像, 但由于只有通过瞳孔的眼底部分能够在摄像头上清晰成 像, 其它部分会失焦而无法清晰成像, 因而不会对眼底部分的成像构成严重 干扰, 眼底部分的特征仍然可以检测出来。 因此, 与图 6所示的实施方式相 比, 本实施方式可以在眼睛注视不同方向时都能很好的得到眼底的图像, 使 得本实施方式的眼睛对焦检测装置适用范围更广, 检测精度更高。 如图 8所示, 在本发明实施例的一个可能的实施方式中, 所述信息处理 模块 800例如可以包括:
处理器 (processor)810、 通信接口(Communications Interface)820、 存储器
(memory)830、 以及通信总线 840。 其中:
处理器 810、 通信接口 820、 以及存储器 830通过通信总线 840完成相互 间的通信。
通信接口 820, 用于进行网元通信。
处理器 810, 用于执行程序 832, 具体可以执行上述信息处理模块相应的 功能。
具体地, 程序 832 可以包括程序代码, 所述程序代码包括计算机操作指 处理器 810 可能是一个中央处理器 CPU, 或者是特定集成电路 ASIC ( Application Specific Integrated Circuit ) , 或者是被配置成实施本发明实施例 的一个或多个集成电路。
存储器 830,用于存放程序 832。存储器 830可能包含高速 RAM存储器, 也可能还包括非易失性存储器 ( non- volatile memory ), 例如至少一个磁盘存 储器。 程序 832具体可以使得所述信息处理模块 800执行以下步骤:
于对成像接收方分别获取多个距离对象的期望图像时对应的成像参数进 行学习, 得到与所述成像接收方对应的屈光校对信息;
根据成像接收方的光学参数确定成像接收方的对焦点位置; 根据所述成像接收方的对焦点位置以及与所述成像接收方对应的屈光校 对信息计算得到所述成像透镜模块的成像参数。
程序 832 中各步骤的具体实现可以参见本发明实施例中的相应步骤和单 元对应的描述, 在此不再赘述。 所属领域的技术人员可以清楚地了解到, 为 描述的方便和简洁, 上述描述的设备和模块的具体工作过程, 可以参考前述 方法实施例中的对应过程描述, 在此不再赘述。 如图 9所示, 本发明实施例提出了一种成像方法, 包括:
S110: 检测成像接收方的对焦点位置, 并根据所述对焦点位置确定成像 透镜模块的成像参数, 所述成像透镜模块位于成像接收方与观察对象之间并 且成像参数可调;
S120: 根据所述确定的成像参数对所述成像透镜模块进行调节。
优选地, 在本发明实施例的一个可能的实施方式中, 所述成像透镜模块 的成像参数包括: 成像透镜模块的形状和 /或折射率。
优选地, 在本发明实施例的一个可能的实施方式中, 所述方法在根据所 述对焦点位置确定成像透镜模块的成像参数的步骤之前, 包括:
对成像接收方分别获取多个距离对象的期望图像时对应的成像参数进行 学习, 得到与所述成像接收方对应的屈光校对信息。
优选地,在本发明实施例的一个可能的实施方式中,所述步骤 S110包括: 根据成像接收方的光学参数确定成像接收方的对焦点位置;
根据所述成像接收方的对焦点位置以及与所述成像接收方对应的屈光校 对信息计算得到所述成像透镜模块的成像参数。
优选地, 在本发明实施例的一个可能的实施方式中, 所述方法还包括: 根据所述成像透镜模块的运动姿态信息确定所述成像透镜模块的成像参 数。
优选地, 在本发明实施例的一个可能的实施方式中, 所述根据所述成像 透镜模块的运动姿态信息确定所述成像透镜模块的成像参数的步骤包括: 根据所述成像透镜模块与对象的相对运动姿态信息以及所述成像透镜模 块在当前时刻的成像参数预测所述成像透镜模块下一时刻对应的成像参数。
优选地, 在本发明实施例的一个可能的实施方式中, 所述根据所述成像 透镜模块的运动姿态信息确定所述成像透镜模块的成像参数的步骤包括: 在所述成像透镜模块的运动速度超过设定阈值时, 将所述成像透镜模块 的成像参数调节成设定的常用成像参数。
优选地, 在本发明实施例的一个可能的实施方式中, 所述根据所述成像 透镜模块的运动姿态信息确定所述成像透镜模块的成像参数的步骤包括: 在所述成像透镜模块的运动速度超过设定阈值时, 将所述成像透镜模块 的成像参数调节成前一时刻成像透镜模块的成像参数值。
优选地, 在本发明实施例的一个可能的实施方式中, 所述方法在根据所 述成像透镜模块的运动姿态信息确定所述成像透镜模块的成像参数的步骤之 前还包括:
获取所述成像透镜模块的运动姿态信息。
优选地, 在本发明实施例的一个可能的实施方式中, 所述成像装置的运 动姿态信息包括: 所述成像透镜模块与对象的相对运动姿态信息和 /或成像装 置的运动速度信息。
优选地, 在本发明实施例的一个可能的实施方式中, 所述方法还包括: 根据成像透镜模块成像参数的历史信息对成像透镜模块的当前成像参数 进行时间上的平滑处理。
优选地, 在本发明实施例的一个可能的实施方式中, 所述成像接收方为 用户的眼睛。
优选地, 在本发明实施例的一个可能的实施方式中, 所述成像装置为眼 优选地, 在本发明实施例的一个可能的实施方式中, 所述根据成像接收 方的光学参数确定成像接收方的对焦点位置的步骤包括:
根据釆集到成像接收方的成像面呈现的最清晰图像时图像釆集设备与成 像接收方之间光路的成像参数, 得到所述成像接收方的对焦点位置。
优选地, 在本发明实施例的一个可能的实施方式中, 所述根据成像接收 方的光学参数确定成像接收方的对焦点位置的步骤包括:
釆集成像接收方成像面呈现的图像;
进行成像接收方与图像釆集设备之间光路成像参数的调节以釆集到最清 晰的图像;
对釆集到的图像进行处理, 根据釆集到最清晰图像时图像釆集设备与成 像接收方之间光路的成像参数以及成像接收方的光学参数, 计算成像接收方 的对焦点位置。
优选地, 在本发明实施例的一个可能的实施方式中, 所述成像接收方的 光学参数包括成像接收方的光轴方向。
优选地, 在本发明实施例的一个可能的实施方式中, 所述方法包括: 在 所述成像接收方为眼睛时, 分别对应眼睛光轴方向不同时瞳孔的位置, 将眼 底呈现的图像传递到图像釆集设备。
优选地, 在本发明实施例的一个可能的实施方式中, 所述方法在釆集成 像接收方成像面呈现的图像的步骤之前还包括: 向成像接收方的成像面投射 光斑。
优选地, 在本发明实施例的另一个可能的实施方式中, 所述根据成像接 收方的光学参数确定成像接收方的对焦点位置的步骤包括:
跟踪成像接收方的光轴方向, 再获得观察对象所在位置的场景深度, 计 算得到成像接收方的对焦点位置。
优选地, 在本发明实施例的又一个可能的实施方式中, 所述方法对应于 至少两个相互关联的成像接收方, 所述根据成像接收方的光学参数确定成像 接收方的对焦点位置的步骤包括:
跟踪所述至少两个成像接收方的光轴方向, 再通过所述至少两个成像接 收方的光轴方向的交点得到成像接收方的对焦点位置。
上述各步骤的具体实施方式可以根据上述的装置实施例中对应的描述实 施, 此处不再赘述。
本领域技术人员可以理解, 在本发明具体实施方式的上述方法中, 各步骤 的序号大小并不意味着执行顺序的先后, 各步骤的执行顺序应以其功能和内 在逻辑确定, 而不应对本发明具体实施方式的实施过程构成任何限定。
通过本发明的方法, 使得用户观看真实场景时都能看到最清晰的效果。 本领域普通技术人员可以意识到, 结合本文中所公开的实施例描述的各 示例的单元及方法步骤, 能够以电子硬件、 或者计算机软件和电子硬件的结 合来实现。 这些功能究竟以硬件还是软件方式来执行, 取决于技术方案的特 定应用和设计约束条件。 专业技术人员可以对每个特定的应用来使用不同方 法来实现所描述的功能, 但是这种实现不应认为超出本发明的范围。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用 时, 可以存储在一个计算机可读取存储介质中。 基于这样的理解, 本发明的 技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可 以以软件产品的形式体现出来, 该计算机软件产品存储在一个存储介质中, 包括若干指令用以使得一台计算机设备(可以是个人计算机, 服务器, 或者 网络设备等) 执行本发明各个实施例所述方法的全部或部分步骤。 而前述的 存储介质包括: U盘、 移动硬盘、 只读存储器(ROM, Read-Only Memory ), 随机存取存储器(RAM, Random Access Memory ),磁碟或者光盘等各种可以 存储程序代码的介质。
以上实施方式仅用于说明本发明, 而并非对本发明的限制, 有关技术领 域的普通技术人员, 在不脱离本发明的精神和范围的情况下, 还可以做出各 种变化和变型, 因此所有等同的技术方案也属于本发明的范畴, 本发明的专 利保护范围应由权利要求限定。

Claims

权 利 要 求
1、 一种成像装置, 其特征在于, 包括:
一成像透镜模块, 至少一成像参数可调, 用于对一成像接收方的一观察 对象进行成像;
一信息处理模块, 用于检测所述成像接收方的一对焦点位置, 并根据所 述对焦点位置确定所述成像透镜模块的所述成像参数;
一透镜调节模块, 用于根据所述确定的成像参数对所述成像透镜模块进 行调节。
2、 如权利要求 1所述的装置, 其特征在于, 所述信息处理模块包括: 一屈光校对单元, 用于对所述成像接收方分别获取多个距离对象的一期 望图像时对应的所述成像参数进行学习, 得到一与所述成像接收方对应的屈
7L J 1口 Ά自、。
3、 如权利要求 2所述的装置, 其特征在于, 所述成像接收方为一用户的 眼睛。
4、 如权利要求 2所述的装置, 其特征在于, 所述信息处理模块包括: 一对焦点位置确定单元, 用于根据所述成像接收方的至少一光学参数确 定所述成像接收方的一对焦点位置。
5、 如权利要求 4所述的装置, 其特征在于, 所述对焦点位置确定单元包 括:
一第一对焦点位置确定单元, 用于根据釆集到所述成像接收方的一成像 面呈现的一最清晰图像时一图像釆集设备与所述成像接收方之间光路的至少 一成像参数, 得到所述成像接收方的所述对焦点位置。
6、 如权利要求 5所述的装置, 其特征在于, 所述第一对焦点位置确定单 元包括:
所述图像釆集设备, 用于釆集所述成像接收方的所述成像面呈现的一图 一成像设备, 用于进行所述成像接收方与所述图像釆集设备之间光路成 像参数的调节以使得所述图像釆集设备得到所述最清晰的图像; 一图像处理子单元, 用于对所述图像釆集设备得到的所述图像进行处理, 根据得到所述图像釆集设备获得最清晰图像时所述图像釆集设备与所述成像 接收方之间光路的所述成像参数以及所述成像接收方的所述光学参数, 计算 得到所述成像接收方的所述对焦点位置。
7、 如权利要求 6所述的装置, 其特征在于, 所述成像接收方的所述光学 参数包括所述成像接收方的一光轴方向。
8、 如权利要求 6所述的装置, 其特征在于, 所述成像设备包括: 一可调透镜单元, 位于所述成像接收方与所述图像釆集设备之间的光路 上, 其自身焦距可调和 /或在所述光路中的位置可调。
9、 如权利要求 6所述的装置, 其特征在于, 所述成像设备包括: 一分光装置, 用于形成所述成像接收方和所述观察对象之间、 以及所述 成像接收方和所述图像釆集设备之间的光传递路径。
10、 如权利要求 9所述的装置, 其特征在于, 所述分光装置包括: 一曲面分光单元, 用于在所述成像接收方为一眼睛时, 分别对应所述眼 睛光轴方向不同时瞳孔的位置, 将所述眼底呈现的所述图像传递到所述图像 釆集设备。
11、 如权利要求 6所述的装置, 其特征在于, 所述第一对焦点位置确定单 元还包括:
一投射设备, 用于向所述成像接收方的所述成像面投射一光斑。
12、 如权利要求 4所述的装置, 其特征在于, 所述对焦点位置确定单元 包括:
一第二对焦点位置确定单元, 用于通过一光轴跟踪系统跟踪所述成像接 收方的所述光轴方向, 再通过一深度传感设备获得所述观察对象所在位置的 一场景深度, 计算得到所述成像接收方的所述对焦点位置。
13、 如权利要求 4所述的装置, 其特征在于, 所述成像装置对应于至少两 个相互关联的成像接收方, 所述对焦点位置确定单元包括: 一第三对焦点位置确定单元, 用于通过一光轴跟踪系统跟踪所述至少两 个成像接收方的一光轴方向, 再通过所述至少两个成像接收方的所述光轴方 向的一交点得到所述成像接收方的所述对焦点位置。
14、 如权利要求 4所述的装置, 其特征在于, 所述信息处理模块包括: 一成像参数计算单元, 用于根据所述成像接收方的所述对焦点位置以及 与所述成像接收方对应的所述屈光校对信息计算得到所述成像透镜模块的所 述成像参数。
15、 如权利要求 1所述的装置, 其特征在于, 所述信息处理模块包括: 一运动姿态分析处理单元, 用于根据所述成像装置的一运动姿态信息确 定所述成像透镜模块的所述成像参数。
16、 如权利要求 15所述的装置, 其特征在于, 所述运动姿态分析处理单 元包括:
一运动轨迹预测调整子单元, 用于根据所述成像装置与所述观察对象的 一相对运动姿态信息以及所述成像透镜模块在当前时刻的所述成像参数预测 所述成像透镜模块下一时刻对应的所述成像参数。
17、 如权利要求 15所述的装置, 其特征在于, 所述运动姿态分析处理单 元包括:
一第一运动调整子单元, 用于在所述成像装置的一运动速度超过一设定 阈值时, 将所述成像透镜模块的所述成像参数调节成一设定的常用成像参数。
18、 如权利要求 15所述的装置, 其特征在于, 所述运动姿态分析处理单 元包括:
一第二运动调整子单元, 用于在所述成像装置的运动速度超过一设定阈 值时, 将所述成像透镜模块的所述成像参数调节成前一时刻所述成像透镜模 块的所述成像参数值。
19、 如权利要求 15所述的装置, 其特征在于, 所述成像装置还包括: 一运动姿态传感模块, 用于获取所述成像装置的所述运动姿态信息。
20、 如权利要求 19所述的装置, 其特征在于, 所述成像装置的运动姿态 信息包括: 所述成像装置与所述观察对象的一相对运动姿态信息和 /或所述成 像装置的一运动速度信息。
21、 如权利要求 1所述的装置, 其特征在于, 所述信息处理模块还包括: 历史信息平滑单元, 用于根据所述成像透镜模块的所述成像参数的一历 史信息对所述成像透镜模块的一当前成像参数进行时间上的平滑处理。
22、 如权利要求 1所述的装置, 其特征在于, 所述成像透镜模块包括至少 一片透镜。
23、 如权利要求 1所述的装置, 其特征在于, 所述成像透镜模块的所述成 像参数包括: 所述成像透镜模块的形状和 /或折射率。
24、 如权利要求 1所述的装置, 其特征在于, 所述成像装置为眼镜。
25、 一种成像方法, 其特征在于, 包括:
检测一成像接收方的一对焦点位置, 并根据所述对焦点位置确定所述成 像透镜模块的至少一成像参数, 所述成像透镜模块位于所述成像接收方与一 观察对象之间并且所述成像参数可调;
根据所述确定的成像参数对所述成像透镜模块进行调节。
26、 如权利要求 25所述的方法, 其特征在于, 所述方法在根据所述对焦 点位置确定所述成像透镜模块的所述成像参数的步骤之前, 包括:
对所述成像接收方分别获取多个距离对象的一期望图像时对应的所述成 像参数进行学习, 得到与所述成像接收方对应的一屈光校对信息。
27、 如权利要求 26所述的方法, 其特征在于, 所述成像接收方为用户的 眼睛。
28、 如权利要求 26所述的方法, 其特征在于, 所述检测所述成像接收方 的所述对焦点位置的步骤包括:
根据所述成像接收方的一光学参数确定所述成像接收方的所述对焦点位 置。
29、 如权利要求 28所述的方法, 其特征在于, 所述根据所述成像接收方 的所述光学参数确定所述成像接收方的所述对焦点位置的步骤包括: 根据釆集到所述成像接收方的一成像面呈现的一最清晰图像时一图像釆 集设备与所述成像接收方之间光路的至少一成像参数, 得到所述成像接收方 的所述对焦点位置。
30、 如权利要求 29所述的方法, 其特征在于, 所述根据所述成像接收方 的所述光学参数确定所述成像接收方的所述对焦点位置的步骤包括:
釆集所述成像接收方所述成像面呈现的一图像;
进行所述成像接收方与所述图像釆集设备之间光路所述成像参数的调节 以釆集到所述最清晰的图像;
对釆集到的所述图像进行处理, 根据釆集到所述最清晰图像时所述图像 釆集设备与所述成像接收方之间光路的所述成像参数以及所述成像接收方的 所述光学参数, 计算所述成像接收方的所述对焦点位置。
31、 如权利要求 30所述的方法, 其特征在于, 所述成像接收方的所述光 学参数包括所述成像接收方的一光轴方向。
32、 如权利要求 30所述的方法, 其特征在于, 所述方法包括: 在所述成 像接收方为一眼睛时, 分别对应所述眼睛光轴方向不同时瞳孔的位置, 将所 述眼睛的眼底呈现的一图像传递到所述图像釆集设备。
33、 如权利要求 30所述的方法, 其特征在于, 所述方法在釆集所述成像 接收方所述成像面呈现的所述图像的步骤之前还包括: 向所述成像接收方的 所述成像面投射一光斑。
34、 如权利要求 28所述的方法, 其特征在于, 所述根据所述成像接收方 的所述光学参数确定所述成像接收方的所述对焦点位置的步骤包括:
跟踪所述成像接收方的所述光轴方向, 再获得所述观察对象所在位置的 一场景深度, 计算得到所述成像接收方的所述对焦点位置。
35、 如权利要求 28所述的方法, 其特征在于, 所述方法对应于至少两个 相互关联的成像接收方, 所述根据成像接收方的所述光学参数确定所述成像 接收方的所述对焦点位置的步骤包括:
跟踪所述至少两个成像接收方的一光轴方向, 再通过所述至少两个成像 接收方的所述光轴方向的一交点得到所述成像接收方的所述对焦点位置。
36、 如权利要求 28所述的方法, 其特征在于, 所述根据所述对焦点位置 确定所述成像透镜模块的所述成像参数的步骤包括:
根据所述成像接收方的所述对焦点位置以及与所述成像接收方对应的所 述屈光校对信息计算得到所述成像透镜模块的所述成像参数。
37、 如权利要求 25所述的方法, 其特征在于, 方法还包括:
根据所述成像透镜模块的一运动姿态信息确定所述成像透镜模块的所述 成像参数。
38、 如权利要求 37所述的方法, 其特征在于, 所述根据所述成像透镜模 块的所述运动姿态信息确定所述成像透镜模块的所述成像参数的步骤包括: 根据所述成像透镜模块与所述观察对象的一相对运动姿态信息以及所述 成像透镜模块在当前时刻的所述成像参数预测所述成像透镜模块下一时刻对 应的所述成像参数。
39、 如权利要求 37所述的方法, 其特征在于, 所述根据所述成像透镜模 块的所述运动姿态信息确定所述成像透镜模块的所述成像参数的步骤包括: 在所述成像透镜模块的一运动速度超过一设定阈值时, 将所述成像透镜 模块的所述成像参数调节成设定的一常用成像参数。
40、 如权利要求 37所述的方法, 其特征在于, 所述根据所述成像透镜模 块的所述运动姿态信息确定所述成像透镜模块的所述成像参数的步骤包括: 在所述成像透镜模块的一运动速度超过一设定阈值时, 将所述成像透镜 模块的成所述像参数调节成前一时刻所述成像透镜模块的所述成像参数值。
41、 如权利要求 37所述的方法, 其特征在于, 所述方法在根据所述成像 透镜模块的所述运动姿态信息确定所述成像透镜模块的所述成像参数的步骤 之前还包括:
获取所述成像透镜模块的所述运动姿态信息。
42、 如权利要求 41所述的方法, 其特征在于, 所述成像装置的运动姿态 信息包括: 所述成像透镜模块与所述观察对象的一相对运动姿态信息和 /或所 述成像装置的一运动速度信息。
43、 如权利要求 25所述的方法, 其特征在于, 所述方法还包括: 根据所述成像透镜模块所述成像参数的一历史信息对所述成像透镜模块 的一当前成像参数进行时间上的平滑处理。
44、 如权利要求 25所述的方法, 其特征在于, 所述成像透镜模块的所述 成像参数包括: 所述成像透镜模块的形状和 /或折射率。
45、 如权利要求 25所述的方法, 其特征在于, 所述成像装置为一眼镜。
PCT/CN2013/088547 2013-07-31 2013-12-04 成像装置及成像方法 WO2015014059A1 (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/781,578 US10551638B2 (en) 2013-07-31 2013-12-04 Imaging apparatus and imaging method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201310328739.0 2013-07-31
CN201310328739.0A CN103424891B (zh) 2013-07-31 2013-07-31 成像装置及方法

Publications (1)

Publication Number Publication Date
WO2015014059A1 true WO2015014059A1 (zh) 2015-02-05

Family

ID=49649878

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2013/088547 WO2015014059A1 (zh) 2013-07-31 2013-12-04 成像装置及成像方法

Country Status (3)

Country Link
US (1) US10551638B2 (zh)
CN (1) CN103424891B (zh)
WO (1) WO2015014059A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106033604A (zh) * 2015-03-12 2016-10-19 北京智谷睿拓技术服务有限公司 信息确定方法和设备

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103729824B (zh) * 2013-12-17 2018-02-02 北京智谷睿拓技术服务有限公司 信息交互方法及信息交互系统
WO2015090038A1 (en) 2013-12-17 2015-06-25 Beijing Zhigu Rui Tuo Tech Co., Ltd Information exchange
CN103745434B (zh) * 2013-12-17 2017-09-05 北京智谷睿拓技术服务有限公司 信息交互方法及信息交互系统
CN105446474B (zh) * 2014-09-26 2018-08-10 中芯国际集成电路制造(上海)有限公司 可穿戴智能设备及其交互的方法、可穿戴智能设备系统
CN105718034B (zh) * 2014-12-04 2018-12-21 中芯国际集成电路制造(上海)有限公司 可穿戴式设备交互方法及系统
CN105718036B (zh) * 2014-12-04 2019-04-26 中芯国际集成电路制造(上海)有限公司 可穿戴式设备的信息交互方法和系统
CN104615238B (zh) * 2014-12-22 2018-07-03 联想(北京)有限公司 一种信息处理方法及穿戴式电子设备
JP2016163150A (ja) * 2015-02-27 2016-09-05 株式会社リコー 通信端末、面談システム、通信方法及びプログラム
CN106375650B (zh) * 2015-11-17 2019-04-23 北京智谷睿拓技术服务有限公司 对焦方法和装置、图像采集设备
CN106375651B (zh) * 2015-11-30 2019-04-23 北京智谷睿拓技术服务有限公司 对焦方法和装置、图像采集设备
CN106054386A (zh) * 2016-06-25 2016-10-26 深圳市虚拟现实科技有限公司 一种自适应近眼显示装置
US9972134B2 (en) * 2016-06-30 2018-05-15 Microsoft Technology Licensing, Llc Adaptive smoothing based on user focus on a target object
CN108513668B (zh) * 2016-12-29 2020-09-08 华为技术有限公司 图片处理方法和装置
CN108420400A (zh) * 2018-05-18 2018-08-21 合肥奥比斯科技有限公司 一种图像引导式眼底相机
CN109900355B (zh) * 2019-03-15 2020-02-07 中国科学院微电子研究所 成像方法及装置
CN110811537B (zh) * 2019-11-12 2020-10-13 赵成玉 一种功能眼镜系统
JP2022139798A (ja) * 2021-03-12 2022-09-26 株式会社Jvcケンウッド 自動焦点調整眼鏡、自動焦点調整眼鏡の制御方法、プログラム
CN115813330B (zh) * 2023-02-22 2023-06-02 北京鹰瞳科技发展股份有限公司 人眼屈光度检测装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5182585A (en) * 1991-09-26 1993-01-26 The Arizona Carbon Foil Company, Inc. Eyeglasses with controllable refracting power
CN1645244A (zh) * 2004-01-20 2005-07-27 精工爱普生株式会社 投影机及其中的变焦调整方法
CN1912672A (zh) * 2005-06-07 2007-02-14 因·S·唐 不动的镜头系统和方法
CN101194198A (zh) * 2005-01-21 2008-06-04 庄臣及庄臣视力保护公司 具有可变焦距的自适应电激活透镜
CN101900927A (zh) * 2009-05-29 2010-12-01 精工爱普生株式会社 投影仪及其控制方法
EP2646859A1 (en) * 2010-12-01 2013-10-09 Adlens Beacon, Inc. Variable binocular loupe utilizing fluid filled lens technology

Family Cites Families (172)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4264154A (en) 1979-06-05 1981-04-28 Polaroid Corporation Apparatus for automatically controlling transmission of light through a lens system
US4572616A (en) 1982-08-10 1986-02-25 Syracuse University Adaptive liquid crystal lens
US4973149A (en) 1987-08-19 1990-11-27 Center For Innovative Technology Eye movement detector
JP2676870B2 (ja) 1989-01-17 1997-11-17 キヤノン株式会社 注視点検出手段を有した光学装置
JP2920940B2 (ja) 1989-06-20 1999-07-19 キヤノン株式会社 視線検出手段を有した機器
US5731046A (en) 1994-01-18 1998-03-24 Qqc, Inc. Fabrication of diamond and diamond-like carbon coatings
JPH08564A (ja) 1994-06-17 1996-01-09 Nikon Corp 眼科装置
US5774274A (en) * 1995-05-12 1998-06-30 Schachar; Ronald A. Variable focus lens by small changes of the equatorial lens diameter
US6072443A (en) 1996-03-29 2000-06-06 Texas Instruments Incorporated Adaptive ocular projection display
JPH09289973A (ja) 1996-04-26 1997-11-11 Canon Inc 眼底カメラ
JPH1070742A (ja) 1996-08-29 1998-03-10 Olympus Optical Co Ltd 二眼式映像表示装置
JP3802630B2 (ja) 1996-12-28 2006-07-26 オリンパス株式会社 立体画像生成装置および立体画像生成方法
DE19704197A1 (de) 1997-02-05 1998-08-06 Zeiss Carl Jena Gmbh Anordnung zur subjektivem Refraktionsbestimmung und/oder zur Bestimmung anderer Sehfunktionen
US6152563A (en) 1998-02-20 2000-11-28 Hutchinson; Thomas E. Eye gaze direction tracker
JP3383228B2 (ja) 1998-11-09 2003-03-04 シャープ株式会社 ヘッドマウントディスプレイ装置
US6318857B1 (en) 1998-12-09 2001-11-20 Asahi Kogaku Kogyo Kabushiki Kaisha Variable power spectacles
US6619799B1 (en) 1999-07-02 2003-09-16 E-Vision, Llc Optical lens system with electro-active lens having alterably different focal lengths
JP2004513731A (ja) 2000-11-22 2004-05-13 カール ツァイス イェナ ゲーエムベーハー 人間の目の光学的刺激
US6478425B2 (en) 2000-12-29 2002-11-12 Koninlijke Phillip Electronics N. V. System and method for automatically adjusting a lens power through gaze tracking
DE10103922A1 (de) 2001-01-30 2002-08-01 Physoptics Opto Electronic Gmb Interaktives Datensicht- und Bediensystem
US7352913B2 (en) 2001-06-12 2008-04-01 Silicon Optix Inc. System and method for correcting multiple axis displacement distortion
US7001020B2 (en) 2001-08-02 2006-02-21 Daphne Instruments, Inc. Complete autorefractor system in an ultra-compact package
JP4224260B2 (ja) 2002-02-18 2009-02-12 株式会社トプコン キャリブレーション装置、方法及び結果診断装置、並びにキャリブレーション用チャート
EP1485749A4 (en) 2002-03-13 2006-02-08 E Vision Llc ELECTRO-OPTICAL LENS WITH INTEGRATED COMPONENTS
US20080106633A1 (en) 2002-03-13 2008-05-08 Blum Ronald D Electro-optic lens with integrated components for varying refractive properties
CN100553601C (zh) 2002-07-22 2009-10-28 林超群 动态式透镜视力训练装置
IL151592A (en) 2002-09-04 2008-06-05 Josef Bekerman Variable optical power spectacles for eyesight rehabilitation and methods for lens optical power control
JP3766681B2 (ja) 2003-01-16 2006-04-12 秀典 堀江 視力改善装置
US7298414B2 (en) 2003-01-29 2007-11-20 Hewlett-Packard Development Company, L.P. Digital camera autofocus using eye focus measurement
JP3844076B2 (ja) 2003-03-07 2006-11-08 セイコーエプソン株式会社 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
US20050003043A1 (en) 2003-07-03 2005-01-06 Vincent Sewalt Composition and method for reducing caking and proteinaceous products
JP4085034B2 (ja) 2003-07-17 2008-04-30 信越化学工業株式会社 化合物、高分子化合物、レジスト材料及びパターン形成方法
JP2005092175A (ja) 2003-08-08 2005-04-07 Olympus Corp 光学特性可変光学素子
JP2005058399A (ja) 2003-08-11 2005-03-10 Nikon Corp ディスプレイ装置
JP4401727B2 (ja) 2003-09-30 2010-01-20 キヤノン株式会社 画像表示装置及び方法
US7702225B2 (en) 2004-01-02 2010-04-20 Vision Instruments Pty Ltd Devices to facilitate alignment and focusing of a fundus camera
US9229540B2 (en) 2004-01-30 2016-01-05 Electronic Scripting Products, Inc. Deriving input from six degrees of freedom interfaces
JP4604190B2 (ja) 2004-02-17 2010-12-22 国立大学法人静岡大学 距離イメージセンサを用いた視線検出装置
JP2007531912A (ja) 2004-03-31 2007-11-08 ザ・リージェンツ・オブ・ザ・ユニバーシティー・オブ・カリフォルニア 流体適応レンズ
US20060016459A1 (en) 2004-05-12 2006-01-26 Mcfarlane Graham High rate etching using high pressure F2 plasma with argon dilution
US7461938B2 (en) * 2004-06-30 2008-12-09 Ophthonix, Inc. Apparatus and method for determining sphere and cylinder components of subjective refraction using objective wavefront measurement
US7567241B2 (en) 2004-08-03 2009-07-28 Silverbrook Research Pty Ltd Stylus with customizable appearance
CA2586139C (en) 2004-11-08 2015-07-07 Optovue, Inc. Optical apparatus and method for comprehensive eye diagnosis
US8104892B2 (en) 2004-12-03 2012-01-31 The Invention Science Fund I, Llc Vision modification with reflected image
US7486988B2 (en) 2004-12-03 2009-02-03 Searete Llc Method and system for adaptive vision modification
US7334892B2 (en) * 2004-12-03 2008-02-26 Searete Llc Method and system for vision enhancement
US7344244B2 (en) 2004-12-03 2008-03-18 Searete, Llc Adjustable lens system with neural-based control
US8885139B2 (en) 2005-01-21 2014-11-11 Johnson & Johnson Vision Care Adaptive electro-active lens with variable focal length
JP4744973B2 (ja) 2005-08-05 2011-08-10 株式会社トプコン 眼底カメラ
JP4719553B2 (ja) 2005-11-04 2011-07-06 キヤノン株式会社 撮像装置、撮像方法、コンピュータプログラム、及びコンピュータ読み取り可能な記憶媒体
CN2868183Y (zh) 2006-01-19 2007-02-14 杨宏军 智能视力保护器
JP5167545B2 (ja) 2006-03-31 2013-03-21 国立大学法人静岡大学 視点検出装置
US7764433B2 (en) 2006-05-18 2010-07-27 The Regents Of The University Of California Method and system for correcting optical aberrations, including widefield imaging applications
JP4822331B2 (ja) 2006-06-22 2011-11-24 株式会社トプコン 眼科装置
US7542210B2 (en) 2006-06-29 2009-06-02 Chirieleison Sr Anthony Eye tracking head mounted display
CN100485448C (zh) 2006-06-29 2009-05-06 贾怀昌 自由曲面全反射式的目视光学棱镜
JP5017989B2 (ja) 2006-09-27 2012-09-05 ソニー株式会社 撮像装置、撮像方法
CN201005945Y (zh) 2007-01-15 2008-01-16 陈清祥 可调整滤光片的视线导正辅助器
JP2010535067A (ja) 2007-08-02 2010-11-18 オキュラー・オプティクス・インコーポレイテッド 多重焦点眼内レンズシステムおよび方法
CN101116609B (zh) 2007-08-30 2010-06-16 中国科学技术大学 扫描式自动变焦虹膜图像采集系统及采集方法
CN101149254B (zh) 2007-11-12 2012-06-27 北京航空航天大学 高精度视觉检测系统
US8786675B2 (en) 2008-01-23 2014-07-22 Michael F. Deering Systems using eye mounted displays
US8331006B2 (en) 2008-02-13 2012-12-11 Nokia Corporation Display device and a method for illuminating a light modulator array of a display device
WO2009117506A2 (en) 2008-03-18 2009-09-24 Pixeloptics, Inc. Advanced electro-active optic device
WO2009140255A2 (en) 2008-05-12 2009-11-19 Dreher Andreas W Adjustable eye glasses with a magnetic attachment
JP4518193B2 (ja) 2008-06-10 2010-08-04 ソニー株式会社 光学装置および虚像表示装置
CN101430429A (zh) 2008-06-17 2009-05-13 沈嘉琦 一种近视矫正眼镜
CN101662696B (zh) 2008-08-28 2011-01-26 联想(北京)有限公司 调节摄像系统的方法和设备
TW201011350A (en) * 2008-09-04 2010-03-16 E Pin Optical Industry Co Ltd Liquid crystal zoom lens
WO2010030985A1 (en) 2008-09-12 2010-03-18 Gesturetek, Inc. Orienting displayed elements relative to a user
TWI367748B (en) 2008-09-30 2012-07-11 Univ Ishou Apparatus for sight healthcare
US8884735B2 (en) 2008-11-17 2014-11-11 Roger Li-Chung Vision protection method and system thereof
CN201360319Y (zh) 2008-12-17 2009-12-09 胡超 眼镜式多功能立体图像装置
CN201352278Y (zh) 2008-12-23 2009-11-25 黄玲 一种自动变焦眼镜
US9495589B2 (en) 2009-01-26 2016-11-15 Tobii Ab Detection of gaze point assisted by optical reference signal
CN201464738U (zh) 2009-04-13 2010-05-12 段亚东 多功能保健眼镜
US8100532B2 (en) * 2009-07-09 2012-01-24 Nike, Inc. Eye and body movement tracking for testing and/or training
JP2011043876A (ja) 2009-08-19 2011-03-03 Brother Industries Ltd 画像表示装置
JP5371638B2 (ja) * 2009-09-01 2013-12-18 キヤノン株式会社 眼科撮影装置及びその方法
JP5388765B2 (ja) 2009-09-01 2014-01-15 キヤノン株式会社 眼底カメラ
CN101782685A (zh) 2009-09-04 2010-07-21 上海交通大学 实时多角度立体视觉系统
JP2011071898A (ja) 2009-09-28 2011-04-07 Panasonic Corp 立体映像表示装置および立体映像表示方法
CN102576154A (zh) 2009-10-30 2012-07-11 惠普发展公司,有限责任合伙企业 立体显示系统
US8552850B2 (en) 2010-02-17 2013-10-08 Honeywell International Inc. Near-to-eye tracking for adaptive operation
US20120212499A1 (en) 2010-02-28 2012-08-23 Osterhout Group, Inc. System and method for display content control during glasses movement
US8964298B2 (en) * 2010-02-28 2015-02-24 Microsoft Corporation Video display modification based on sensor input for a see-through near-to-eye display
US20130278631A1 (en) 2010-02-28 2013-10-24 Osterhout Group, Inc. 3d positioning of augmented reality information
US20120242698A1 (en) 2010-02-28 2012-09-27 Osterhout Group, Inc. See-through near-eye display glasses with a multi-segment processor-controlled optical layer
US20120206485A1 (en) 2010-02-28 2012-08-16 Osterhout Group, Inc. Ar glasses with event and sensor triggered user movement control of ar eyepiece facilities
CN201637953U (zh) 2010-03-19 2010-11-17 熊火胜 智能变焦镜片
US9628722B2 (en) 2010-03-30 2017-04-18 Personify, Inc. Systems and methods for embedding a foreground video into a background feed based on a control input
CN101819334B (zh) 2010-04-01 2013-04-17 夏翔 多功能电子眼镜
CN101819331B (zh) 2010-04-27 2012-03-07 中国计量学院 一种遥控变焦眼镜装置
CN201754203U (zh) 2010-05-06 2011-03-02 徐晗 动态视角液晶眼镜
WO2011153112A2 (en) * 2010-05-29 2011-12-08 Wenyu Jiang Systems, methods and apparatus for making and using eyeglasses with adaptive lens driven by gaze distance and low power gaze tracking
JP5685013B2 (ja) 2010-06-30 2015-03-18 キヤノン株式会社 光断層撮像装置及びその制御方法、プログラム
CN101917638B (zh) 2010-07-07 2012-10-31 深圳超多维光电子有限公司 立体显示装置、移动终端及立体显示跟踪方法
KR20120005328A (ko) 2010-07-08 2012-01-16 삼성전자주식회사 입체 안경 및 이를 포함하는 디스플레이장치
US8324957B2 (en) 2010-07-16 2012-12-04 Linear Technology Corporation Capacitively coupled switched current source
US8884984B2 (en) 2010-10-15 2014-11-11 Microsoft Corporation Fusing virtual content into real content
US9395546B2 (en) 2010-10-29 2016-07-19 Lg Electronics Inc. Stereoscopic image processing system and device and glasses
US20120113235A1 (en) 2010-11-08 2012-05-10 Sony Corporation 3d glasses, systems, and methods for optimized viewing of 3d video content
WO2012083415A1 (en) 2010-11-15 2012-06-28 Tandemlaunch Technologies Inc. System and method for interacting with and analyzing media on a display using eye gaze tracking
US9304319B2 (en) 2010-11-18 2016-04-05 Microsoft Technology Licensing, Llc Automatic focus improvement for augmented reality displays
US8628193B2 (en) * 2010-11-20 2014-01-14 Yibin TIAN Automatic accommodative spectacles using a scene analyzer and focusing elements
CN102487393B (zh) 2010-12-01 2015-09-23 深圳市同洲软件有限公司 数字电视接收终端与移动终端交互方法、装置和系统
US9161681B2 (en) 2010-12-06 2015-10-20 Lensvector, Inc. Motionless adaptive stereoscopic scene capture with tuneable liquid crystal lenses and stereoscopic auto-focusing methods
US9690099B2 (en) 2010-12-17 2017-06-27 Microsoft Technology Licensing, Llc Optimized focal area for augmented reality displays
CN102008288B (zh) 2010-12-17 2012-02-01 中国科学院光电技术研究所 一种线扫描共焦检眼镜的系统和方法
US9507416B2 (en) 2011-02-22 2016-11-29 Robert Howard Kimball Providing a corrected view based on the position of a user with respect to a mobile platform
WO2012122411A1 (en) 2011-03-08 2012-09-13 Pixeloptics, Inc. Advanced electro-active optic device
JP2012199621A (ja) 2011-03-18 2012-10-18 Jvc Kenwood Corp 複眼撮像装置
CN102918444B (zh) 2011-03-25 2015-12-23 松下电器产业株式会社 显示装置
US8510166B2 (en) 2011-05-11 2013-08-13 Google Inc. Gaze tracking system
US8911087B2 (en) 2011-05-20 2014-12-16 Eyefluence, Inc. Systems and methods for measuring reactions of head, eyes, eyelids and pupils
JP2012247449A (ja) 2011-05-25 2012-12-13 Canon Inc 投射型映像表示装置
US20120307208A1 (en) * 2011-06-01 2012-12-06 Rogue Technologies, Inc. Apparatus and method for eye tracking
US20120327116A1 (en) 2011-06-23 2012-12-27 Microsoft Corporation Total field of view classification for head-mounted display
US20130241927A1 (en) 2011-07-03 2013-09-19 Neorai Vardi Computer device in form of wearable glasses and user interface thereof
US9285592B2 (en) 2011-08-18 2016-03-15 Google Inc. Wearable device with input and output structures
US9323325B2 (en) 2011-08-30 2016-04-26 Microsoft Technology Licensing, Llc Enhancing an object of interest in a see-through, mixed reality display device
CN202267785U (zh) 2011-08-30 2012-06-06 福州瑞芯微电子有限公司 一种自动跟踪人眼位置的裸眼三维显示结构
JP5879826B2 (ja) 2011-08-31 2016-03-08 株式会社ニデック 眼底撮影装置
US20130072828A1 (en) 2011-09-15 2013-03-21 Jason Sweis Shutter glasses
US9081177B2 (en) 2011-10-07 2015-07-14 Google Inc. Wearable computer with nearby object response
US20130107066A1 (en) 2011-10-27 2013-05-02 Qualcomm Incorporated Sensor aided video stabilization
JP2014533556A (ja) 2011-11-18 2014-12-15 オプトビュー,インコーポレーテッド 眼底カメラ
US9442517B2 (en) * 2011-11-30 2016-09-13 Blackberry Limited Input gestures using device movement
CN102572483B (zh) 2011-12-02 2014-08-13 深圳超多维光电子有限公司 跟踪式裸眼立体显示控制方法、装置及显示设备、系统
US9182815B2 (en) 2011-12-07 2015-11-10 Microsoft Technology Licensing, Llc Making static printed content dynamic with virtual data
CN202383380U (zh) 2011-12-31 2012-08-15 张欣 多功能眼镜
CN103197757A (zh) 2012-01-09 2013-07-10 癸水动力(北京)网络科技有限公司 一种沉浸式虚拟现实系统及其实现方法
US8384999B1 (en) 2012-01-09 2013-02-26 Cerr Limited Optical modules
KR101911439B1 (ko) 2012-01-30 2019-01-07 삼성전자주식회사 초점길이 가변형 마이크로 렌즈와 이를 포함하는 마이크로 렌즈 어레이 및 이를 포함하는 3d 디스플레이와 그 동작 방법
WO2013117999A1 (en) 2012-02-06 2013-08-15 Sony Ericsson Mobile Communications Ab Gaze tracking with projector
US20130241805A1 (en) 2012-03-15 2013-09-19 Google Inc. Using Convergence Angle to Select Among Different UI Elements
US20130293530A1 (en) 2012-05-04 2013-11-07 Kathryn Stone Perez Product augmentation and advertising in see through displays
TWI474072B (zh) 2012-06-14 2015-02-21 Largan Precision Co Ltd 光學影像鏡片系統組
US9430055B2 (en) 2012-06-15 2016-08-30 Microsoft Technology Licensing, Llc Depth of field control for see-thru display
US20130342572A1 (en) 2012-06-26 2013-12-26 Adam G. Poulos Control of displayed content in virtual environments
JP5538483B2 (ja) 2012-06-29 2014-07-02 株式会社ソニー・コンピュータエンタテインメント 映像処理装置、映像処理方法、および映像処理システム
US9310611B2 (en) 2012-09-18 2016-04-12 Qualcomm Incorporated Methods and systems for making the use of head-mounted displays less obvious to non-users
CN103065605B (zh) 2012-12-10 2015-12-09 惠州Tcl移动通信有限公司 一种根据视力状况调节显示效果的方法和系统
US20140160157A1 (en) 2012-12-11 2014-06-12 Adam G. Poulos People-triggered holographic reminders
CN103150013A (zh) 2012-12-20 2013-06-12 天津三星光电子有限公司 一种移动终端
CN103190883B (zh) 2012-12-20 2015-06-24 苏州触达信息技术有限公司 一种头戴式显示装置和图像调节方法
CN102981270A (zh) 2012-12-25 2013-03-20 中国科学院长春光学精密机械与物理研究所 一种无遮拦自适应变焦距光学系统及其标定方法
CN103054695A (zh) 2013-01-09 2013-04-24 中山市目明视光视力科技有限公司 调整眼内光学焦点位置的镜片组合方法
US10133342B2 (en) 2013-02-14 2018-11-20 Qualcomm Incorporated Human-body-gesture-based region and volume selection for HMD
US9507147B2 (en) 2013-02-14 2016-11-29 Blackberry Limited Wearable display system with detached projector
US20140232746A1 (en) 2013-02-21 2014-08-21 Hyundai Motor Company Three dimensional augmented reality display apparatus and method using eye tracking
US20140240351A1 (en) 2013-02-27 2014-08-28 Michael Scavezze Mixed reality augmentation
US9898866B2 (en) 2013-03-13 2018-02-20 The University Of North Carolina At Chapel Hill Low latency stabilization for head-worn displays
US9041741B2 (en) 2013-03-14 2015-05-26 Qualcomm Incorporated User interface for a head mounted display
US20140282224A1 (en) * 2013-03-15 2014-09-18 Qualcomm Incorporated Detection of a scrolling gesture
KR102458124B1 (ko) 2013-03-15 2022-10-21 매직 립, 인코포레이티드 디스플레이 시스템 및 방법
CN103280175A (zh) 2013-06-17 2013-09-04 苏州旭宇升电子有限公司 一种投影装置
JP5967597B2 (ja) 2013-06-19 2016-08-10 パナソニックIpマネジメント株式会社 画像表示装置および画像表示方法
US9256987B2 (en) 2013-06-24 2016-02-09 Microsoft Technology Licensing, Llc Tracking head movement when wearing mobile device
CN103353677B (zh) 2013-06-28 2015-03-11 北京智谷睿拓技术服务有限公司 成像装置及方法
US9443355B2 (en) 2013-06-28 2016-09-13 Microsoft Technology Licensing, Llc Reprojection OLED display for augmented reality experiences
CN103353663B (zh) 2013-06-28 2016-08-10 北京智谷睿拓技术服务有限公司 成像调整装置及方法
CN103353667B (zh) 2013-06-28 2015-10-21 北京智谷睿拓技术服务有限公司 成像调整设备及方法
WO2015006334A1 (en) 2013-07-08 2015-01-15 Ops Solutions Llc Eyewear operational guide system and method
CN103297735A (zh) 2013-07-16 2013-09-11 苏州旭宇升电子有限公司 一种投影装置
US9619939B2 (en) 2013-07-31 2017-04-11 Microsoft Technology Licensing, Llc Mixed reality graduated information delivery
CN103558909B (zh) 2013-10-10 2017-03-29 北京智谷睿拓技术服务有限公司 交互投射显示方法及交互投射显示系统
WO2015094191A1 (en) 2013-12-17 2015-06-25 Intel Corporation Controlling vision correction using eye tracking and depth detection
US9965030B2 (en) 2014-07-31 2018-05-08 Samsung Electronics Co., Ltd. Wearable glasses and method of displaying image via the wearable glasses
US10261579B2 (en) 2014-09-01 2019-04-16 Samsung Electronics Co., Ltd. Head-mounted display apparatus
US10330958B2 (en) 2015-04-10 2019-06-25 Bespoke, Inc. Systems and methods for creating eyewear with multi-focal lenses
EP3335070B1 (en) 2015-09-30 2020-11-25 Sony Interactive Entertainment Inc. Methods for optimizing positioning of content on a screen of a head mounted display

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5182585A (en) * 1991-09-26 1993-01-26 The Arizona Carbon Foil Company, Inc. Eyeglasses with controllable refracting power
CN1645244A (zh) * 2004-01-20 2005-07-27 精工爱普生株式会社 投影机及其中的变焦调整方法
CN101194198A (zh) * 2005-01-21 2008-06-04 庄臣及庄臣视力保护公司 具有可变焦距的自适应电激活透镜
CN1912672A (zh) * 2005-06-07 2007-02-14 因·S·唐 不动的镜头系统和方法
CN101900927A (zh) * 2009-05-29 2010-12-01 精工爱普生株式会社 投影仪及其控制方法
EP2646859A1 (en) * 2010-12-01 2013-10-09 Adlens Beacon, Inc. Variable binocular loupe utilizing fluid filled lens technology

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106033604A (zh) * 2015-03-12 2016-10-19 北京智谷睿拓技术服务有限公司 信息确定方法和设备
CN106033604B (zh) * 2015-03-12 2019-09-17 北京智谷睿拓技术服务有限公司 信息确定方法和设备

Also Published As

Publication number Publication date
US20160139433A1 (en) 2016-05-19
US10551638B2 (en) 2020-02-04
CN103424891A (zh) 2013-12-04
CN103424891B (zh) 2014-12-17

Similar Documents

Publication Publication Date Title
WO2015014059A1 (zh) 成像装置及成像方法
US9867532B2 (en) System for detecting optical parameter of eye, and method for detecting optical parameter of eye
US9961257B2 (en) Imaging to facilitate object gaze
US10048750B2 (en) Content projection system and content projection method
US10395510B2 (en) Reminding method and reminding device
US9870050B2 (en) Interactive projection display
US10002293B2 (en) Image collection with increased accuracy
US10271722B2 (en) Imaging to facilitate object observation
US10684680B2 (en) Information observation method and information observation device
WO2014206011A1 (zh) 成像装置及成像方法
WO2015024327A1 (zh) 视力保护成像装置及视力保护成像方法
KR20170136582A (ko) 눈 추적 디바이스 및 눈 추적 디바이스를 동작시키기 위한 방법
WO2015043275A1 (en) Imaging for local scaling
US20160110600A1 (en) Image collection and locating method, and image collection and locating device
JP6422954B2 (ja) 焦点距離の調節
CN108985291B (zh) 一种基于单摄像头的双眼追踪系统
EP3498149B1 (en) Optoelectronic binocular instrument for the correction of presbyopia and method for the binocular correction of presbyopia
CN111417893B (zh) 用于检验眼科镜片在镜架中的安装的方法和组件
US20230057524A1 (en) Eyeglass devices and related methods
JPH09262210A (ja) 光学システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13890744

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14781578

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13890744

Country of ref document: EP

Kind code of ref document: A1