WO2014206011A1 - 成像装置及成像方法 - Google Patents

成像装置及成像方法 Download PDF

Info

Publication number
WO2014206011A1
WO2014206011A1 PCT/CN2013/088531 CN2013088531W WO2014206011A1 WO 2014206011 A1 WO2014206011 A1 WO 2014206011A1 CN 2013088531 W CN2013088531 W CN 2013088531W WO 2014206011 A1 WO2014206011 A1 WO 2014206011A1
Authority
WO
WIPO (PCT)
Prior art keywords
imaging
sub
imaging device
region
lens module
Prior art date
Application number
PCT/CN2013/088531
Other languages
English (en)
French (fr)
Inventor
杜琳
张宏江
Original Assignee
北京智谷睿拓技术服务有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 北京智谷睿拓技术服务有限公司 filed Critical 北京智谷睿拓技术服务有限公司
Priority to US14/779,968 priority Critical patent/US10481396B2/en
Publication of WO2014206011A1 publication Critical patent/WO2014206011A1/zh

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0127Head-up displays characterised by optical features comprising devices increasing the depth of field
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Definitions

  • the present invention relates to the field of imaging technologies, and in particular, to an imaging apparatus and method.
  • Wearable devices are gradually accepted by the public, such as Google glasses, smart watches, etc. These electronic smart devices will bring more convenience to people's lives.
  • myopia or hyperopic glasses correct the problem of ametropia caused by various causes by adding a concave lens or a convex lens with a fixed focal length in front of the human eye having refractive error.
  • traditional eyeglasses have troubles in optometry, and can only be corrected for a certain range of distances. For objects outside the range of a certain distance, the user may not be able to get a clear image and feel blurred; or it may be difficult to see, and it is prone to eye fatigue.
  • the glasses with different focal lengths on the lens there are a plurality of multifocal glasses with different focal lengths on the lens.
  • glasses with both presbyopic and myopic eyes are present, and the upper part of the lens is a myopic mirror to help the user to clearly watch.
  • Far-distance objects; the lower part of the lens is a far-sighted mirror to help the user clearly view nearby objects.
  • the user must look at the far side of the lens and look at the lower part of the lower part. For example, you must look down at the lower object in the distance and look up at the higher object in the vicinity; or you must manually adjust the position of the glasses, so use it to compare trouble.
  • a clear image of all distance objects in the field of view cannot be obtained.
  • an imaging recording apparatus such as a camera, a video camera or the like
  • a clear image of all distance objects in the field of view cannot be obtained.
  • a healthy human eye looks at an object that is close to the eye, it may also be invisible or eye fatigue.
  • the technical problem to be solved by the present invention is to provide an imaging apparatus and method that enable an imaging receiver to comfortably receive clear images of objects at different distances and improve user experience.
  • the present invention provides an imaging apparatus, including: an imaging lens module for imaging at least one object, including a plurality of sub-regions with adjustable imaging parameters;
  • a position sensing module configured to obtain a position information of the at least one object relative to the imaging device
  • An information processing module configured to determine imaging parameters of at least one corresponding sub-area on the imaging lens module according to position information of the at least one object relative to the imaging device;
  • a lens adjustment module is configured to adjust an imaging parameter of a corresponding sub-area of the imaging lens module according to the determined imaging parameter.
  • the present invention provides an imaging method, including:
  • Imaging parameters of at least one corresponding sub-region on an imaging lens module according to position information of the at least one object relative to the imaging device; wherein the imaging lens module is configured to image at least one object, including multiple imaging Sub-area with adjustable parameters;
  • the adjustment of the imaging parameters of the corresponding sub-areas of the imaging lens module is performed based on the determined imaging parameters.
  • the apparatus and method of the embodiments of the present invention use an imaging lens module having a plurality of sub-regions with adjustable imaging parameters to correspond to sub-regions corresponding to the object according to different distances of the object from the imaging lens module
  • the imaging parameters are adjusted so that the imaging recipient (eg, the user's eyes) can easily obtain clear imaging of objects at different distances.
  • the apparatus and method of the embodiments of the present invention can solve the problem of lack of refractive correction when viewing objects of different distances (for example, near-sighted eyes, distant objects, and far-sighted eyes) Problems such as visual blur and eye fatigue caused by objects (oversighted near-sighted objects, distant objects, and far-sighted objects); Presbyopia (presbyopia) Eyes due to lens adjustment range when looking at near and distant objects at the same time Reduction of visual blur and eye fatigue problems; and astigmatism, strabismus, etc. due to optical axis shifting caused by visual blur and eye fatigue problems.
  • problems such as visual blur and eye fatigue caused by objects (oversighted near-sighted objects, distant objects, and far-sighted objects); Presbyopia (presbyopia) Eyes due to lens adjustment range when looking at near and distant objects at the same time Reduction of visual blur and eye fatigue problems; and astigmatism, strabismus, etc. due to optical axis shifting caused by visual blur and eye fatigue problems.
  • the apparatus and method of the embodiment of the present invention do not need to continuously adjust the overall focal length of the lens according to the distance of the object, and thus do not bring a bad experience such as stun to the user.
  • FIG. 1 is a schematic block diagram showing the structure of an image forming apparatus according to an embodiment of the present invention
  • FIG. 2 is a schematic diagram of application of an image forming apparatus according to an embodiment of the present invention.
  • FIG. 3 is a schematic view showing division of an imaging lens module sub-area in an image forming apparatus according to an embodiment of the present invention
  • FIG. 4 is a depth diagram of a plurality of objects obtained by an imaging device according to an embodiment of the present invention.
  • FIG. 5a is a block diagram showing the structure of an imaging device information processing module according to an embodiment of the present invention
  • FIG. 5b is a schematic block diagram showing an imaging parameter calculation unit in an imaging device according to an embodiment of the present invention
  • 5c is a schematic block diagram showing the structure of a motion posture analysis processing unit in an image forming apparatus according to an embodiment of the present invention
  • FIG. 5 is a schematic block diagram showing the structure of a motion posture analysis processing unit in an image forming apparatus according to an embodiment of the present invention
  • FIG. 6a is a schematic diagram of obtaining a projection of an object on an imaging lens module according to an embodiment of the present invention
  • FIG. 6b is a schematic diagram of a corresponding sub-region of an object on an imaging lens module according to an embodiment of the present invention
  • FIG. 7 is a schematic diagram of an imaging apparatus predicting an object corresponding sub-area at a next moment according to relative motion posture information of an imaging apparatus and an object according to an embodiment of the present invention
  • FIG. 8 is a structural block diagram of an information processing module of an image forming apparatus according to an embodiment of the present invention
  • FIG. 9 is a schematic flow chart of an image forming method according to an embodiment of the present invention.
  • FIG. 10 is a schematic flow chart of steps of an imaging method according to an embodiment of the present invention. detailed description
  • the imaging receiver has a limited adjustment range for the imaging parameters such as the focal length, and the imaging receiver is the user's eye as an example (of course, the imaging receiver can also be an imaging recording device such as a camera or a camera), for example, the eye of a user with normal vision will It is impossible to see or work very hard to see objects that are close to the eyes. For eyes with problems such as myopia, hyperopia, presbyopia, astigmatism and other ametropia, and strabismus, their own adjustment range is more limited.
  • an embodiment of the present invention discloses an imaging apparatus 100, including: an imaging lens module 110, configured to image at least one object, including a plurality of sub-regions with adjustable imaging parameters;
  • the area may be a physically independent sub-area, or may be a logical sub-area logically divided by an imaging lens module that is physically integral;
  • a position sensing module 120 configured to obtain a position information of the at least one object relative to the imaging device
  • an information processing module 130 configured to determine the imaging lens according to position information of the at least one object relative to the imaging device An imaging parameter corresponding to the sub-region on the module 110;
  • a lens adjustment module 140 configured to: the imaging lens module according to the determined imaging parameter
  • the corresponding sub-region of 110 performs adjustment of the imaging parameters.
  • the imaging receiver can obtain the object's expectation through the corresponding sub-region on the imaging lens module 110. Image.
  • the imaging parameters can be separately adjusted for the regions corresponding to the plurality of target objects at different distances in the field of view, so that the user can easily and comfortably view the objects of different distances in the field of view. Improve the user experience.
  • the imaging device 100 is used as glasses (in addition to the common glasses, the glasses may also be optical devices such as a helmet eyepiece and a front windshield).
  • the imaging receiver 200 is an eye of the user, and the object includes a triangular object 300a, a rectangular object 300b, and an elliptical object 300c from the far side to the near side of the imaging device 100, wherein the lenses on each side of the glasses are respectively an imaging lens.
  • Module 110 is an eye of the user, and the object includes a triangular object 300a, a rectangular object 300b, and an elliptical object 300c from the far side to the near side of the imaging device 100, wherein the lenses on each side of the glasses are respectively an imaging lens.
  • Module 110 is an eye of the user, and the object includes a
  • the imaging lens module 110 includes at least one lens.
  • each of the imaging lens modules 110 includes only one lens will be described.
  • the imaging parameters of the sub-region 111 include: a shape and/or a refractive index of the sub-region 111 lens.
  • the adjustment of the imaging parameters of the sub-region 111 may be, for example, adjusting the curvature of the lens of the sub-region 111 to change the focal length of the sub-region 111; adjusting the refractive index of the lens of the sub-region 111 to change the sub-region 111 The focal length.
  • the surface of the sub-region 111 lens can be adjusted to a cylindrical surface to correct the astigmatism; for the squint user, the surface of the sub-region 111 lens can be adjusted to a prism surface to correct the strabismus.
  • the imaging lens module may further include two or more lenses. At this time, for the astigmatism or squint user, the sub-regions 111 of one lens are respectively adjusted. It can be a cylindrical surface or a prismatic surface.
  • the sub-regions 111 of the imaging lens module are arranged in an array.
  • the imaging surface of the imaging lens group is mesh-divided to obtain the plurality of sub-regions 111.
  • the size of the plurality of sub-regions 111 may be uniform or different. Generally, the finer the division of the sub-regions 111, the higher the accuracy of the adjustment.
  • the sub-regions 111 are distributed in a rectangular array. In this embodiment, each sub-region 111 has the same size and aligned rows and columns; in other embodiments, the rows and columns of the sub-region arrays shown may also be staggered.
  • the sub-region 111 is in the form of a radiating concentric circle (consisting of a plurality of concentric circles 112 and a plurality of radiation lines 113 radially connecting adjacent concentric circles 112). distributed.
  • the radiating lines 113 of the radiating concentric circles are arranged in alignment, and in other embodiments, the radiation 113 between each adjacent two concentric circles 112 may also be misaligned.
  • the imaging lens group 110 distributed in two different sub-regions is placed in the same pair of glasses for the purpose of description.
  • the sub-regions of the left and right imaging lens groups of a pair of glasses are generally used.
  • the distribution is the same or similar.
  • the position sensing module 120 includes: a depth sensing unit, configured to acquire position depth information of the at least one object relative to the imaging device.
  • the depth sensing unit is a depth detector.
  • Figure 4 shows the depth map of the objects at different distances obtained by the depth detector.
  • the distance of the object can be represented by a color. For example, the farther the object is, the darker the color is.
  • the distance of the object is represented by the degree of density of the point, and the farther the object is filled, the denser the point is. It can be seen that the right elliptical object 300c is closest to the imaging device, the triangular object 300a is farthest from the imaging device, and the rectangular object 300b is between the two. Therefore, the depth map records the position and depth information of the object.
  • the position sensing module 120 may further include: an image sensor, configured to acquire image information of the at least one object.
  • the position depth information of the object can be obtained according to the image information of the object, for example: if the image sensor is a binocular image sensor, the position depth information of the object can be obtained according to the image information respectively obtained by the binocular image sensor; Characteristics of objects obtained in image information Information (target recognition and known size, such as blue sky, white clouds, mountain peaks, woods, etc. are usually distant views, books, computer screens, mobile phones, etc. are usually close-up, TV screens, roads, etc.
  • image information Information target recognition and known size, such as blue sky, white clouds, mountain peaks, woods, etc. are usually distant views, books, computer screens, mobile phones, etc. are usually close-up, TV screens, roads, etc.
  • the information processing module 130 includes:
  • the imaging receiver calibration unit 131 is configured to determine the relative positional relationship of the imaging lens module 110, the position sensing module 120, and the imaging receiver 200 (e.g., left and right eye pupils). In the embodiment, the relative positional relationship between the imaging lens module 110, the position sensing module 120, and the imaging receiver 200 can be accurately corrected by the imaging receiver calibration unit 131 to obtain more accurate imaging parameters; In other embodiments of the embodiment, since the position of the imaging lens module 110 and the position sensing module 120 is fixed when the imaging device is completed, the position of the imaging receiver 200 relative to the imaging lens module 110 can be predicted (eg, glasses The distance from the lens to the eye is generally estimable and does not vary too much. Therefore, the imaging receiver calibration unit 131 may not be included in the information processing module 130.
  • the refractive proofreading unit 132 is configured to learn the imaging parameters corresponding to the image receivers when acquiring the desired images of the plurality of distance objects, respectively, to obtain the refractive proofreading information corresponding to the imaging receivers.
  • the desired image can be, for example, a sharp image of the object or a clearer image.
  • the imaging receiver 200 is an eye
  • the desired image may be a clear or clear image of the object that the user's eyes are more comfortable to view, that is, when the user views a clear image of the object, the eye does not need to be excessively self-adjusting, which is not easy. fatigue.
  • the refractive proofreading information for one nearsighted user corresponding to the imaging receiver of the present embodiment obtained in the present embodiment is shown in Table 1.
  • the target distance here is the distance between the object and the imaging device (in other embodiments, the distance between the object and the imaging receiver may also be selected as a target)
  • the distance is the dioptric power that the user's eye needs to reach the corresponding area of the imaging lens module when the user's eye comfortably views the clear image of the object.
  • the refractive calibration information may further include optical parameter information such as for astigmatism or strabismus.
  • the imaging parameters of the sub-region corresponding to the object correspond to -5.55 diopters; assuming that the distance between the object and the imaging device is 0.8 m, it may be based on 0.5 m and The optimal diopter corresponding to lm is obtained by interpolation method to obtain the optimal diopter corresponding to the distance of 0.8 m, and then the imaging parameters of the corresponding sub-region are obtained.
  • the accuracy of the imaging parameters is higher.
  • the distance calculating unit 133 is configured to calculate a distance of the at least one object relative to the imaging lens module 110 according to position information of the at least one object with respect to the imaging device.
  • the distance of the at least one object relative to the imaging lens module 110 may be directly obtained from the position information, for example, the position information is depth map information obtained by the depth sensing unit, and the obtained image may be obtained directly from the figure.
  • a distance of the object relative to the imaging lens module 110 may be obtained by calculation and analysis of image information of an object obtained by, for example, an optical sensor, such as described above
  • the distance of the object with respect to the imaging lens module 110 is obtained by the feature information of the object in the image information of the object and/or the degree of clarity information of the object, the focus distance, and the like.
  • a sub-area determining unit 134 configured to determine a sub-area corresponding to the object on the imaging lens module
  • the object in the imaging lens module can be obtained by geometric optics and triangular relationship.
  • the projection on 110 can determine the sub-region 111 corresponding to the object according to the projection of the object.
  • the object may only correspond to one sub-region 111 (such as triangle object 300a), It is also possible to correspond to a plurality of sub-regions 111 (such as a rectangular object 300b and an elliptical object 300c).
  • the imaging parameter calculation unit 135 is configured to calculate an imaging parameter of each object corresponding sub-region 111 based on the distance of each object with respect to the imaging lens module 110 and the refractive proof information.
  • the imaging parameters of the corresponding sub-regions 111 of each object are calculated by the look-up table method based on Table 1.
  • the imaging parameter calculation unit 135 further includes an interpolation calculation sub-unit 1351 for obtaining other sub-regions 111 corresponding to the respective objects by a two-dimensional interpolation algorithm.
  • the imaging parameters of region 111 to produce a smooth transition effect.
  • the information processing module 130 further includes:
  • the history information smoothing unit 136 is configured to perform temporal smoothing processing on the current imaging parameters of each of the sub-regions 111 according to the history information of the imaging parameters of the respective sub-regions 111.
  • the spatial information smoothing unit 137 is configured to spatially smooth the imaging parameters of the sub-regions 111 according to the imaging parameters of the sub-regions 111 of the imaging lens module.
  • the information processing module 130 further includes:
  • the motion posture analysis processing unit 138 is configured to determine an imaging parameter of the corresponding sub-region 111 on the imaging lens module 110 according to the motion posture information of the imaging device.
  • the motion posture information of the imaging device includes: relative motion posture information of the imaging device and the object and/or motion velocity information of the imaging device.
  • a motion posture sensing module may be added to the imaging device to acquire motion posture information of the imaging device.
  • the motion posture analysis processing unit 138 includes:
  • a motion trajectory prediction adjustment unit 1381 configured to predict, according to the relative motion posture information of the imaging device and the object, and the imaging parameter of the object corresponding to the sub-region 111 at the current time.
  • the object 300a corresponds to the first sub-region 111a at the current time, and the focal length of the first sub-region 111a is A; the motion trajectory prediction adjustment sub-unit 1381 predicts according to the relative motion posture information of the imaging device and the object.
  • the focal length of the second sub-region b is also A.
  • the motion posture analysis unit 138 includes:
  • the first motion adjustment sub-unit 1382 or the second motion adjustment sub-unit 1383 is configured to adjust an imaging parameter of each sub-area of the imaging lens module 110 to a setting when a motion speed of the imaging apparatus 100 exceeds a set threshold.
  • the common imaging parameters herein may be, for example, the imaging parameters corresponding to the user's comfortable viewing of the commonly used distance object.
  • the information processing module 800 may include, for example:
  • a processor (processor) 810 a communication interface (Communications Interface) 820, memory (memory) 830, and a communication bus 840. among them:
  • the processor 810, the communication interface 820, and the memory 830 complete communication with each other via the communication bus 840.
  • the communication interface 820 is configured to perform network element communication.
  • the processor 810 is configured to execute the program 832, and specifically, the corresponding functions of each unit in the information processing module shown in FIG. 1 to FIG.
  • program 832 can include program code, including computer operating instructions.
  • Processor 810 can be a central processing unit CPU, or a specific integrated circuit ASIC.
  • the memory 830 is configured to store the program 832.
  • the memory 830 may include a high speed RAM memory and may also include a non-volatile memory such as at least one disk memory.
  • the program 832 can specifically cause the information processing module 800 to perform the following steps:
  • the imaging parameters of the corresponding sub-regions of each object are calculated based on the distance of each object relative to the imaging lens module and the refractive proof information.
  • S120 Determine imaging parameters of corresponding sub-regions on the imaging lens module according to position information of the at least one object with respect to the imaging device; wherein the imaging lens module is configured to image at least one object, including multiple imaging parameters
  • the adjustable sub-area where the sub-area may be a physically independent sub-area, or may be a logical sub-area logically divided by a physically integral imaging lens module;
  • S130 Adjust an imaging parameter of a corresponding sub-area of the imaging lens module according to the determined imaging parameter.
  • the imaging parameters can be separately adjusted for the regions corresponding to the plurality of target objects at different distances in the field of view, so that the user can easily and comfortably divide Don't watch objects at different distances in the field of view to improve the user experience.
  • the imaging lens module comprises at least one lens.
  • the imaging parameters of the sub-area include: a shape and/or a refractive index of the sub-region lens.
  • the sub-regions of the imaging lens module are distributed in an array.
  • the sub-regions are distributed in a rectangular array or the sub-regions are distributed in a radial concentric array.
  • the step of obtaining location information of the at least one object relative to the imaging device comprises: acquiring a depth of position of the at least one object relative to the imaging device information.
  • the obtaining the location information of the at least one object relative to the imaging device comprises: acquiring image information of the at least one object.
  • the embodiment of the present invention may obtain the position information of the at least one object relative to the imaging device according to the position depth information of the object relative to the imaging device or the image information of the object, and the specific implementation manner is as described in the foregoing device embodiment, where Let me repeat.
  • the step of determining the imaging parameters of the corresponding sub-regions on the imaging lens module according to the position information of the at least one object relative to the imaging device includes:
  • S131 learning, according to an imaging parameter that is obtained when the imaging receiver respectively acquires a plurality of desired images of the distance object, obtaining refractive proofreading information corresponding to the imaging receiver;
  • S132 calculating a distance of the at least one object relative to the imaging lens module according to position information of the at least one object relative to the imaging device; S133: determining a sub-region corresponding to the object on the imaging lens module;
  • S134 calculating an imaging parameter of each object corresponding sub-region according to a distance of each object with respect to the imaging lens module and the refractive proof information; preferably, other sub-regions between sub-regions corresponding to each object
  • the imaging parameters are obtained by a two-dimensional interpolation algorithm.
  • the step S130 further includes: determining a relative positional relationship between the imaging lens module, the position sensing module, and the imaging receiver.
  • the method further includes: performing temporal smoothing processing on current imaging parameters of each sub-region according to historical information of imaging parameters of each sub-region.
  • the method further includes: performing spatial smoothing processing on imaging parameters of each sub-area according to imaging parameters of each sub-area of the imaging lens module.
  • the method further includes: acquiring the motion posture information of the imaging device.
  • the method further includes: determining an imaging parameter of a corresponding sub-area on the imaging lens module according to the motion posture information of the imaging device.
  • the motion posture information of the imaging device includes: relative motion posture information of the imaging device and the object and/or motion velocity information of the imaging device.
  • the determining, according to the motion posture information of the imaging device, the imaging parameter of the corresponding sub-region on the imaging lens module comprises:
  • imaging parameters of the sub-region corresponding to the next moment of the object are predicted according to the relative motion posture information of the imaging device and the object and the imaging parameter of the object corresponding to the sub-region at the current time.
  • the determining, according to the motion posture information of the imaging device, the imaging parameter of the corresponding sub-region on the imaging lens module comprises:
  • each of the imaging lens modules is The imaging parameters of the region are adjusted to the set common imaging parameters.
  • the determining, according to the motion posture information of the imaging device, the imaging parameter of the corresponding sub-region on the imaging lens module comprises:
  • the imaging parameters of each sub-region of the imaging lens module are adjusted to an average of imaging parameters of each sub-region of the imaging lens module at a previous time.
  • sequence number of each step does not mean the order of execution sequence, and the execution order of each step should be determined by its function and internal logic, and should not be The implementation of the specific embodiments of the invention constitutes any limitation.
  • the user can see the clearest effect when viewing the real scene.
  • the functions may be stored in a computer readable storage medium if implemented in the form of a software functional unit and sold or used as a standalone product.
  • the technical solution of the present invention which is essential or contributes to the prior art, or a part of the technical solution, may be embodied in the form of a software product, which is stored in a storage medium, including
  • the instructions are used to cause a computer device (which may be a personal computer, server, or network device, etc.) to perform all or part of the steps of the methods described in various embodiments of the present invention.
  • the foregoing storage medium includes: a U disk, a removable hard disk, a read-only memory (ROM), a random access memory (RAM), a magnetic disk or an optical disk, and the like, which can store program codes. .
  • ROM read-only memory
  • RAM random access memory
  • magnetic disk or an optical disk and the like, which can store program codes.

Abstract

公开了一种成像装置和方法。成像装置包括:成像透镜模块(110),用于对至少一个对象(300a,300b,300c)进行成像,包括多个成像参数可调的子区域;位置传感模块(120),用于获得至少一个对象相对于成像装置的位置信息;信息处理模块(130),用于根据至少一个对象相对于成像装置的位置信息确定成像透镜模块上对应子区域的成像参数;透镜调节模块(140),用于根据确定的成像参数对成像透镜模块的对应子区域进行成像参数的调节。这种成像装置和方法可以同时针对视场中不同距离的多个目标对象所对应的区域分别进行成像参数的调节,使得用户可以轻松舒适的分别观看视场中的不同距离的对象,提高用户体验。

Description

成像装置及成像方法 本申请要求于 2013 年 6 月 28 日提交中国专利局、 申请号为 201310268508.5、 发明名称为 "成像装置及方法" 的中国专利申请的优先权, 其全部内容通过引用结合在本申请中。 技术领域
本发明涉及成像技术领域, 尤其涉及一种成像装置及方法。
背景技术
穿戴式设备逐渐被大众所接受, 例如谷歌眼镜, 智能手表等, 这些电子 化智能设备将为人们的生活带来更多便利。
传统近视或远视眼镜通过在存在屈光不正的人眼前面增加一片固定焦距 的凹透镜或一片凸透镜来矫正因各种原因导致的屈光度不正问题。 但传统眼 镜存在验光配镜麻烦, 只能针对一定距离范围矫正等问题。 对于该一定距离 以外的范围的物体, 用户可能会无法得到清晰的像而感到视觉模糊; 或者看 起来很费劲, 容易出现眼睛疲劳的情况。
基于上述情况, 出现了一个镜片上有多个不同焦距的多焦点眼镜, 以同 时存在老花和近视的眼睛所佩戴的眼镜为例, 其镜片的上部为近视镜, 用于 帮助用户清晰的观看远处的物体; 镜片的下部为远视镜, 用于帮助用户清晰 的观看近处的物体。 但是, 这样用户必须通过镜片的上部看远处、 下部看近 处, 例如必须低头看远处较低的物体、 抬头看近处较高的物体; 或者必须手 动调节眼镜的位置, 因此使用起来比较麻烦。
同样,对于健康的人眼以及例如照相机、摄像机等的成像记录装置来说, 也无法获得视场范围内所有距离物体的清晰像。 例如健康的人眼在看离眼睛 很近的物体时, 也会发生无法看清或眼睛疲劳等情况。
在一些文献中, 例如公开号为 US4572616A和 US20070211207A1的美国 专利申请、 以及光学快讯 2004年第 12卷第 11期第 2494-2500页,名称为 "可 调微透镜阵歹l,, ( "Tunable microdoublet lens array", Optics Express, Vol. 12, Issue 11, pp. 2494-2500 (2004) ) 的论文中记载了一种电子可调焦距的透镜及透镜阵 列, 可以对透镜的焦距进行调节, 但是对于视场中有多个不同深度不同的物 体时, 透镜无法快速在不同的焦距之间进行切换。
发明内容
本发明要解决的技术问题是: 提供一种成像装置及方法, 使得成像接收 方可以舒适的接收到不同距离对象的清晰图像, 提高用户体验。 为实现上述目的, 第一方面, 本发明提供了一种成像装置, 包括: 一成像透镜模块, 用于对至少一个对象进行成像, 包括多个成像参数可 调的子区域;
一位置传感模块, 用于获得所述至少一个对象相对于所述成像装置的一 位置信息;
一信息处理模块, 用于根据所述至少一个对象相对于所述成像装置的位 置信息确定所述成像透镜模块上至少一对应子区域的成像参数;
一透镜调节模块, 用于根据所述确定的成像参数对所述成像透镜模块的 对应子区域进行成像参数的调节。
第二方面, 本发明提供了一种成像方法, 包括:
获得至少一个对象相对于一成像装置的位置信息;
根据所述至少一个对象相对于所述成像装置的位置信息确定一成像透镜 模块上至少一对应子区域的成像参数; 其中, 所述成像透镜模块用于对至少 一个对象进行成像, 包括多个成像参数可调的子区域;
根据所述确定的成像参数对所述成像透镜模块的对应子区域进行成像参 数的调节。
本发明实施例的装置及方法通过具有多个成像参数可调的子区域的成像 透镜模块根据对象相对于成像透镜模块的距离不同而对与对象对应的子区域 的成像参数进行调节, 使得成像接收方 (例如用户的眼睛) 可以方便的获得 不同距离对象的清晰成像。
尤其对于具有屈光不正等问题的用户的眼睛来说, 通过本发明实施例的 装置及方法, 可以解决观看不同距离的对象时由于屈光矫正不足 (如近视眼 看远处物体、 远视眼看近处物体时)或过度 (近视眼看近处物体、 远视眼看 远处物体时) 等引起的视觉模糊和眼睛疲劳等问题; 老视 (老花) 眼同时看 近处和远处物体时由于晶状体调节范围缩小引起的视觉模糊和眼睛疲劳问题; 以及散光、 斜视等由于光轴偏移引起的视觉模糊和眼睛疲劳问题。
同时与能够整体调节焦距的透镜相比, 本发明实施例的装置及方法不需 要根据对象的距离不同而连续调节透镜的整体焦距, 因此不会给用户带来眩 暈等不良体验。
附图说明
图 1为本发明实施例的一种成像装置的结构示意框图;
图 2为本发明实施例的一种成像装置的应用示意图;
图 3 为本发明实施例的一种成像装置中成像透镜模块子区域划分的示意 图;
图 4为本发明实施例的一种成像装置获得的多个对象的深度图;
图 5a为本发明实施例的一种成像装置信息处理模块的结构示意图框图; 图 5b为本发明实施例的一种成像装置中成像参数计算单元的结构示意框 图;
图 5c为本发明实施例的一种成像装置中运动姿态分析处理单元的结构示 意框图;
图 5d为本发明实施例的一种成像装置中运动姿态分析处理单元的结构示 意框图;
图 6a为本发明实施例的一种获得对象在成像透镜模块上的投影的示意图; 图 6b为本发明实施例的一种对象在成像透镜模块上对应的子区域的示意 图; 图 7 为本发明实施例的一种成像装置根据成像装置与对象的相对运动姿 态信息预测到在下一时刻对象对应子区域的示意图;
图 8为本发明实施例的一种成像装置的信息处理模块的结构框图; 图 9为本发明实施例的一种成像方法的流程示意图;
图 10为本发明实施例的一种成像方法的步骤的流程示意图。 具体实施方式
本发明的方法及装置结合附图及实施例详细说明如下。
成像接收方对于焦距等成像参数的调节范围有限, 以成像接收方为用户 的眼睛为例(当然所述成像接收方还可以为摄像机、照相机等成像记录装置), 例如视力正常的用户的眼睛会无法看清或者很费力才能看清离眼睛很近的对 象, 对于具有如近视、 远视、 老视、 散光等屈光不正、 以及斜视等问题的眼 睛来说, 其自身的调节范围更加有限。 以眼睛其远、 近视力均不正常的老视 为例, 为了看清对象, 其经常处在调节的状态, 很容易发生眼疲劳, 虽然可 以通过一般的眼镜来矫正, 但是现有技术的眼镜比较难以同时对远方和近处 的对象进行成像矫正。
因此, 如图 1所示, 本发明实施例公开了一种成像装置 100, 包括: 成像透镜模块 110, 用于对至少一个对象进行成像, 包括多个成像参数可 调的子区域; 这里的子区域可以是物理上独立的子区域、 也可以是对物理上 是一个整体的成像透镜模块进行逻辑上划分得到的逻辑上的子区域;
位置传感模块 120,用于获得至少一个对象相对于所述成像装置的位置信 自 · 信息处理模块 130,用于根据所述至少一个对象相对于所述成像装置的位 置信息确定所述成像透镜模块 110上对应子区域的成像参数;
透镜调节模块 140, 用于根据所述确定的成像参数对所述成像透镜模块
110的对应子区域进行成像参数的调节。
成像接收方可以透过成像透镜模块 110 上对应的子区域得到对象的期望 图像。
通过本发明实施例的成像装置, 可以同时针对视场中不同距离的多个目 标对象所对应的区域分别进行成像参数的调节, 使得用户可以轻松舒适的分 别观看视场中的不同距离的对象, 提高用户体验。 如图 2所示, 在本发明实施例的实施方式中, 以成像装置 100为眼镜(这 里的眼镜除了常见的眼镜之外, 也有可能为例如头盔目镜、 驾驶前挡风玻璃 等光学设备)、 所述成像接收方 200为用户的眼睛所述对象包括距离成像装置 100从远到近的三角形对象 300a、矩形对象 300b以及椭圆对象 300c为例进行 说明, 其中眼镜每侧的镜片分别是一个成像透镜模块 110。
如图 3所示, 在本发明实施例的一个可能的实施方式中, 所述成像透镜模 块 110包括至少一片透镜。 这里以每个成像透镜模块 110仅包括一片透镜为例 进行说明。
在本发明实施例优选的实施方式中, 所述子区域 111的成像参数包括: 子 区域 111透镜的形状和 /或折射率。
在本实施方式中,对子区域 111成像参数的调节例如可以为,对子区域 111 透镜的曲率进行调整以改变子区域 111的焦距;对子区域 111透镜的折射率进行 调整以改变子区域 111的焦距。 此外, 对于散光用户来说, 可以将子区域 111 透镜的表面调整成圆柱面以对散光进行矫正; 对于斜视用户来说, 可以将子 区域 111透镜的表面调整成棱柱面以对斜视进行矫正。 当然, 在本发明实施例 的其它可能的实施方式中, 所述成像透镜模块还可以包括两片及以上的透镜, 此时, 对于散光或斜视用户来说, 分别将一片透镜的子区域 111调整成圆柱面 或棱柱面即可。
在本实施方式中, 优选地, 所述成像透镜模块的子区域 111呈阵列分布。 优选地, 将成像透镜组的成像面进行网格状分割得到所述多个子区域 111。 所 述多个子区域 111的大小可以是一致的, 也可以是不同的, 一般而言, 子区域 111的划分越精细, 调节的精度会越高。 优选地, 如图 3中眼镜左侧的成像透镜模块 110所示, 所述子区域 111呈矩 形阵列分布。 在本实施方式中, 各子区域 111的大小相同并且行列对齐设置; 在其它实施方式中, 所示子区域阵列的行列也可以是错开设置的。
优选地, 如图 3中眼镜右侧的成像透镜模块 110所示, 所述子区域 111呈辐 射同心圆 (由若干同心圆 112以及径向连接相邻同心圆 112的若干辐射线 113构 成) 阵列分布。 在本实施例中, 所示辐射同心圆的辐射线 113对齐设置, 在其 它实施例中, 每相邻两个同心圆 112之间的辐射线 113也可以不对齐设置。
在本实施方式的图 3 中为了描述需要, 将两种不同子区域分布的成像透 镜组 110放在同一副眼镜中, 在实际应用时, 一般一副眼镜的左右两个成像 透镜组的子区域分布是相同或相似的。
当然, 本领域的技术人员可以得知, 除了上述的矩形阵列和辐射同心圆
在本发明实施例的一种可能的实施方式中, 优选地, 所述位置传感模块 120包括: 深度传感单元, 用于获取所述至少一个对象相对于所述成像装置的 位置深度信息。
在本发明实施例的一种可能的实施方式中, 所示深度传感单元为深度检 测器。 如图 4所示为深度检测器获得的不同距离的对象的深度图。 一般可以通 过颜色表示对象的距离, 如越远的对象颜色越深, 本实施方式中以点的密集 程度表示对象的距离, 越远的对象填充的点越密集。 可以看出: 右侧椭圆对 象 300c距离成像装置最近、三角形对象 300a距离成像装置最远、矩形对象 300b 在以上二者之间。 因此, 所述深度图记录了对象的位置和深度信息。
在本发明实施例的其它实施方式中, 所述位置传感模块 120也可能包括: 图像传感器, 用于获取所述至少一个对象的图像信息。
可以根据对象的图像信息获得对象的位置深度信息, 例如: 如果所述图 像传感器为双目图像传感器, 则可以根据双目图像传感器分别得到的图像信 息得到对象的位置深度信息; 此外, 还可以从图像信息中获得的对象的特征 信息 (目标识别及已知大小等, 如蓝天、 白云、 山峰、 树林等通常是远景, 书本、 计算机屏幕、 手机等通常是近景, 电视屏幕, 道路等通常是中景) 和 / 或对象的清晰程度信息和对焦距离等得到对象相对于成像透镜模块的距离 (例如已知图像传感器的对焦距离, 而图像中清晰的图像则是在对焦距离附 近的位置), 根据对象的图像信息获得对象的位置深度信息为已有技术, 因此 这里不再赘述。 如图 5a所示, 在本发明实施例的一个可能的实施方式中, 所述信息处理 模块 130包括:
成像接收方校对单元 131 , 用于确定所述成像透镜模块 110、 位置传感模 块 120以及成像接收方 200 (例如左右眼瞳孔) 的相对位置关系。 本实施方式 中, 通过成像接收方校对单元 131可以对成像透镜模块 110、 位置传感模块 120 以及成像接收方 200的相对位置关系进行精确的校正, 以获得更加精确的成像 参数; 但是在本发明实施例的其它实施方式中, 由于成像透镜模块 110与位置 传感模块 120的位置在成像装置完成时即为固定的, 同时成像接收方 200相对 于成像透镜模块 110的位置可以预测出来(例如眼镜的镜片到眼睛的距离一般 是可以估算的, 不会有太大偏差), 因此也可以不再所述信息处理模块 130中 包括所述成像接收方校对单元 131。
屈光校对单元 132, 用于对成像接收方 200分别获取多个距离对象的期望 图像时对应的成像参数进行学习, 得到与所述成像接收方对应的屈光校对信 息。 这里的期望图像例如可以是对象的清晰图像或较为清晰的图像。 当成像 接收方 200为眼睛时, 这里的期望图像可以为用户的眼睛比较舒适的观看到的 对象的清晰或较为清晰的图像, 即用户观看到对象的清晰图像时, 眼睛不用 过度自我调节, 不易疲劳。
如表一所示为本实施方式得到的与本实施例的成像接收方对应的针对一 个近视用户的屈光校对信息表示例。 这里的目标距离为对象与成像装置的距 离 (在其它实施方式中, 所述还可以选取对象与成像接收方的距离作为目标 距离), 所述最佳屈光度为用户的眼睛在所述目标距离舒适的观看到对象的清 晰图像时需要成像透镜模块对应区域达到的屈光度。 在本发明的其它实施例 中, 所述屈光校对信息可能还包括例如针对散光或斜视等其它屈光不正的光 学参数信息。
Figure imgf000010_0001
Figure imgf000010_0002
例如, 假设对象与成像装置之间的距离为 lm, 则与对象对应的子区域的 成像参数则与 -5.75屈光度对应; 假设对象与成像装置之间的距离为 0.8m, 则 可以根据 0.5m和 lm对应的最佳屈光度通过插值方法得到 0.8m的距离对应的最 佳屈光度,再进而得到对应子区域的成像参数。本领域的技术人员可以知道, 用于进行成像接收方对应成像参数学习的对象的距离的颗粒度越小, 得到的 屈光校对信息越多, 通过所述屈光校对信息得到需要的子区域的成像参数的 准确度就越高。
距离计算单元 133 , 用于根据所述至少一个对象相对于所述成像装置的位 置信息计算所述至少一个对象相对于所述成像透镜模块 110的距离。 这里所述 至少一个对象相对于所述成像透镜模块 110的距离可以直接从所述位置信息 获得, 例如所述位置信息为深度传感单元得到的深度图信息, 可以直接从该 图中获得所述对象相对于所述成像透镜模块 110的距离; 此外, 还可以通过例 如光学传感器获得的对象的图像信息通过计算分析得到所述至少一个对象相 对于所述成像透镜模块 110的距离, 例如上面所述的通过对象的图像信息中的 对象的特征信息和 /或对象的清晰程度信息和对焦距离等得到对象相对于成像 透镜模块 110的距离。
子区域确定单元 134, 用于确定所述成像透镜模块上与对象对应的子区域
111。 如图 6a所示, 通过几何光学以及三角关系可以获得对象在成像透镜模块
110上的投影, 如图 6b所示, 根据所述对象的投影可以确定对象对应的子区域 111。由图 6b可以看出,对象可能仅与一个子区域 111对应(如三角形对象 300a ), 也可能与多个子区域 111对应 (如矩形对象 300b和椭圆形对象 300c )。
成像参数计算单元 135 , 用于根据每个对象相对于所述成像透镜模块 110 的距离以及所述屈光校对信息计算每个对象对应子区域 111的成像参数。 本实 施方式中, 通过基于表一的查表法来计算每个对象的对应子区域 111的成像参 数。
优选地, 如图 5b所示, 在本实施方式中所述成像参数计算单元 135还包括 插值计算子单元 1351 , 用于通过二维插值算法获得与各对象对应的子区域 111 之间的其它子区域 111的成像参数, 以产生平滑过渡效果。
在本实施方式中, 为了防止成像透镜模块 110上各子区域在时间和空间上 的跳变, 所述信息处理模块 130还包括:
历史信息平滑单元 136, 用于根据各子区域 111成像参数的历史信息对每 个子区域 111的当前成像参数进行时间上的平滑处理。
空间信息平滑单元 137, 用于根据成像透镜模块各子区域 111的成像参数, 对各子区域 111的成像参数进行空间上的平滑处理。
为了避免用户在较高速度运动时, 由于视场中的对象在不停的改变, 使 得成像装置的调整速度跟不上对象变化的速度而无法及时调整或者即使及时 调整了也会给用户带来眩暈的感觉, 优选地, 在本发明实施例的一个可能的 实施方式中, 如图 5a所示, 所述信息处理模块 130还包括:
运动姿态分析处理元 138, 用于根据所述成像装置的运动姿态信息确定所 述成像透镜模块 110上对应子区域 111的成像参数。
这里, 所述成像装置的运动姿态信息包括: 所述成像装置与对象的相对 运动姿态信息和 /或成像装置的运动速度信息。
优选地, 在本实施方式中, 可以在成像装置中增加运动姿态传感模块来 获取所述成像装置的运动姿态信息。
优选地, 如图 5c所示, 所述运动姿态分析处理单元 138包括:
运动轨迹预测调整子单元 1381 , 用于根据所述成像装置与对象的相对运 动姿态信息以及对象在当前时刻对应子区域 111的成像参数预测所述对象下 一时刻对应的子区域 111的成像参数。
如图 7所示, 例如对象 300a在当前时刻对应第一子区域 111a, 该第一子区 域 111a的焦距为 A; 所述运动轨迹预测调整子单元 1381根据成像装置与对象的 相对运动姿态信息预测到在下一时刻对象 a对应第二子区域 b, 则得到所述第 二子区域 b的焦距也为 A。
在本发明实施例的一个可能的实施方式中,优选的,如图 5c和图 5d所示, 所述运动姿态分析单元 138包括:
第一运动调整子单元 1382或第二运动调整子单元 1383 , 用于在所述成像 装置 100的运动速度超过设定阈值时, 将所述成像透镜模块 110各子区域的成 像参数调节成设定的常用成像参数或前一时刻成像透镜模块 110各子区域成 像参数的平均值。 这里的常用成像参数例如可以为用户舒适的观看常用距离 对象时对应的成像参数。 如图 8所示, 在本发明实施例的一个可能的实施方式中, 所述信息处理 模块 800例如可以包括:
处理器 (processor)810、 通信接口(Communications Interface)820、 存储器 (memory)830、 以及通信总线 840。 其中:
处理器 810、 通信接口 820、 以及存储器 830通过通信总线 840完成相互 间的通信。
通信接口 820, 用于进行网元通信。
处理器 810, 用于执行程序 832, 具体可以执行图 1至图 8所述信息处理 模块中各单元相应的功能。
具体地, 程序 832 可以包括程序代码, 所述程序代码包括计算机操作指 处理器 810 可能是一个中央处理器 CPU, 或者是特定集成电路 ASIC
( Application Specific Integrated Circuit ) , 或者是被配置成实施本发明实施例 的一个或多个集成电路。 存储器 830,用于存放程序 832。存储器 830可能包含高速 RAM存储器, 也可能还包括非易失性存储器 ( non- volatile memory ), 例如至少一个磁盘存 储器。 程序 832具体可以使得所述信息处理模块 800执行以下步骤:
对成像接收方分别获取多个距离对象的期望图像时对应的成像参数进行 学习, 得到与所述成像接收方对应的屈光校对信息;
根据所述至少一个对象相对于所述成像装置的位置信息计算所述至少一 个对象相对于所述成像透镜模块的距离;
确定所述成像透镜模块上与对象对应的子区域;
根据每个对象相对于所述成像透镜模块的距离以及所述屈光校对信息计 算每个对象对应子区域的成像参数。
程序 832 中各步骤的具体实现可以参见上文各实施例中的相应步骤或单 元中对应的描述, 在此不做赘述。 所属领域的技术人员可以清楚地了解到, 为描述的方便和简洁, 上述描述的设备和模块的具体工作过程, 可以参考前 述方法实施例中的对应过程描述, 在此不再赘述。 如图 9所示, 本发明实施例的一种可能的实施方式公开了一种成像方法, 包括:
S110: 获得至少一个对象相对于所述成像装置的位置信息;
S120: 根据所述至少一个对象相对于所述成像装置的位置信息确定成像 透镜模块上对应子区域的成像参数; 其中, 所述成像透镜模块用于对至少一 个对象进行成像, 包括多个成像参数可调的子区域, 这里的子区域可以是物 理上独立的子区域、 也可以是对物理上是一个整体的成像透镜模块进行逻辑 上划分得到的逻辑上的子区域;
S130: 根据所述确定的成像参数对所述成像透镜模块的对应子区域进行 成像参数的调节。
通过本发明实施例的成像装置, 可以同时针对视场中不同距离的多个目 标对象所对应的区域分别进行成像参数的调节, 使得用户可以轻松舒适的分 别观看视场中的不同距离的对象, 提高用户体验。 优选地, 在本发明实施例的一个可能的实施方式中, 所述成像透镜模块 包括至少一片透镜。
优选地, 在本发明实施例的一个可能的实施方式中, 所述子区域的成像 参数包括: 子区域透镜的形状和 /或折射率。
优选地, 在本发明实施例的一个可能的实施方式中, 所述成像透镜模块 的子区域呈阵列分布。 优选地, 所述子区域呈矩形阵列分布或所述子区域呈 辐射同心圆阵列分布。
具体所述成像透镜模块的结构如上述装置实施例所述, 此处不再赘述。 优选地, 在本发明实施例的一个可能的实施方式中, 所述获得至少一个 对象相对于所述成像装置的位置信息的步骤包括: 获取所述至少一个对象相 对于所述成像装置的位置深度信息。
在本发明实施例的其它可能的实施方式中, 所述获得至少一个对象相对 于所述成像装置的位置信息的步骤包括: 获取所述至少一个对象的图像信息。
本发明实施方式可以根据对象相对于成像装置的位置深度信息或对象的 图像信息来获得至少一个对象相对于所述成像装置的位置信息, 具体的实施 方式如上述装置实施例所述, 此处不再赘述。 如图 10所示, 在本实施方式中, 优选的, 所述根据所述至少一个对象相 对于所述成像装置的位置信息确定成像透镜模块上对应子区域的成像参数的 步骤包括:
S131 : 对成像接收方分别获取多个距离对象的期望图像时对应的成像参 数进行学习, 得到与所述成像接收方对应的屈光校对信息;
S132: 根据所述至少一个对象相对于所述成像装置的位置信息计算所述 至少一个对象相对于所述成像透镜模块的距离; S133: 确定所述成像透镜模块上与对象对应的子区域;
S134: 根据每个对象相对于所述成像透镜模块的距离以及所述屈光校对 信息计算每个对象对应子区域的成像参数; 优选地, 与各对象对应的子区域 之间的其它子区域的成像参数通过二维插值算法获得。
优选地, 在本发明实施例的一种可能的实施方式中, 所述步骤 S130还包 括:确定所述成像透镜模块、位置传感模块以及成像接收方的相对位置关系。
优选地, 在本发明实施例的一种可能的实施方式中, 所述方法还包括: 根据各子区域成像参数的历史信息对每个子区域的当前成像参数进行时间上 的平滑处理。
优选地, 在本发明实施例的一种可能的实施方式中, 所述方法还包括: 根据成像透镜模块各子区域的成像参数, 对各子区域的成像参数进行空间上 的平滑处理。
优选地, 在本发明实施例的一个可能的实施方式中, 所述方法还包括: 获取所述成像装置的运动姿态信息的步骤。
优选地, 在本发明实施例的一个可能的实施方式中, 所述方法还包括: 根据所述成像装置的运动姿态信息确定所述成像透镜模块上对应子区域的成 像参数。 优选地, 所述成像装置的运动姿态信息包括: 所述成像装置与对象 的相对运动姿态信息和 /或成像装置的运动速度信息。
优选地, 在本发明实施例的一个可能的实施方式中, 所述根据所述成像 装置的运动姿态信息确定所述成像透镜模块上对应子区域的成像参数的步骤 包括:
根据所述成像装置与对象的相对运动姿态信息以及对象在当前时刻对应 子区域的成像参数预测所述对象下一时刻对应的子区域的成像参数。
优选地, 在本发明实施例的一个可能的实施方式中, 所述根据所述成像 装置的运动姿态信息确定所述成像透镜模块上对应子区域的成像参数的步骤 包括:
在所述成像装置的运动速度超过设定阈值时, 将所述成像透镜模块各子 区域的成像参数调节成设定的常用成像参数。
优选地, 在本发明实施例的一个可能的实施方式中, 所述根据所述成像 装置的运动姿态信息确定所述成像透镜模块上对应子区域的成像参数的步骤 包括:
在所述成像装置的运动速度超过设定阈值时, 将所述成像透镜模块各子 区域的成像参数调节成前一时刻成像透镜模块各子区域成像参数的平均值。
上述各步骤的具体实施方式可以根据上述的装置实施例中对应的描述实 施, 此处不再赘述。
本领域技术人员可以理解, 在本发明具体实施方式的上述方法中, 各步骤 的序号大小并不意味着执行顺序的先后, 各步骤的执行顺序应以其功能和内 在逻辑确定, 而不应对本发明具体实施方式的实施过程构成任何限定。
通过本发明实施例的方法, 使得用户观看真实场景时都能看到最清晰的 效果。
本领域普通技术人员可以意识到, 结合本文中所公开的实施例描述的各 示例的单元及方法步骤, 能够以电子硬件、 或者计算机软件和电子硬件的结 合来实现。 这些功能究竟以硬件还是软件方式来执行, 取决于技术方案的特 定应用和设计约束条件。 专业技术人员可以对每个特定的应用来使用不同方 法来实现所描述的功能, 但是这种实现不应认为超出本发明的范围。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用 时, 可以存储在一个计算机可读取存储介质中。 基于这样的理解, 本发明的 技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可 以以软件产品的形式体现出来, 该计算机软件产品存储在一个存储介质中, 包括若干指令用以使得一台计算机设备(可以是个人计算机, 服务器, 或者 网络设备等) 执行本发明各个实施例所述方法的全部或部分步骤。 而前述的 存储介质包括: U盘、 移动硬盘、 只读存储器(ROM, Read-Only Memory ), 随机存取存储器(RAM, Random Access Memory ),磁碟或者光盘等各种可以 存储程序代码的介质。 以上实施方式仅用于说明本发明, 而并非对本发明的限制, 有关技术领 域的普通技术人员, 在不脱离本发明的精神和范围的情况下, 还可以做出各 种变化和变型, 因此所有等同的技术方案也属于本发明的范畴, 本发明的专 利保护范围应由权利要求限定。

Claims

1、 一种成像装置, 其特征在于, 包括:
一成像透镜模块, 用于对至少一个对象进行成像, 包括多个成像参数可 调的子区域;
一位置传感模块, 用于获得所述至少一个对象相对于所述成像装置的一 位置信息;
一信息处理模块, 用于根据所述至少一个对象相对于所述成像装置的位 置信息确定所述成像透镜模块上至少利 _一对应子区域的成像参数;
1
6
一透镜调节模块, 用于根据所述确要定的成像参数对所述成像透镜模块的 对应子区域进行成像参数的调节。 求
2、如权利要求 1所述的成像装置,其特征在于,所述信息处理模块包括: 一屈光校对单元, 用于对一成像接收方分别获取多个距离对象的期望图 像时对应的成像参数进行学习, 得到与所述成像接收方对应的一屈光校对信 自、
3、 如权利要求 2所述的成像装置, 其特征在于, 所述成像接收方为用户 的眼睛。
4、如权利要求 2所述的成像装置,其特征在于,所述信息处理模块包括: 一成像参数计算单元, 用于根据每个对象相对于所述成像透镜模块的距 离以及所述屈光校对信息计算每个对象对应子区域的成像参数。
5、 如权利要求 4所述的成像装置, 其特征在于, 所述成像参数计算单元 还包括:
一插值计算子单元, 用于通过二维插值算法获得与各对象对应的子区域 之间的其它子区域的成像参数。
6、如权利要求 1所述的成像装置,其特征在于,所述信息处理模块包括: 一距离计算单元, 用于根据所述至少一个对象相对于所述成像装置的位 置信息计算所述至少一个对象相对于所述成像透镜模块的距离。
7、如权利要求 1所述的成像装置,其特征在于,所述信息处理模块包括: 一子区域确定单元, 用于确定所述成像透镜模块上与所述对象对应的子 区域。
8、如权利要求 1所述的成像装置,其特征在于,所述信息处理模块包括: 一成像接收方校对单元, 用于确定所述成像透镜模块、 位置传感模块以 及成像接收方的相对位置关系。
9、如权利要求 1所述的成像装置,其特征在于,所述信息处理模块包括: 一运动姿态分析处理元, 用于根据所述成像装置的一运动姿态信息确定 所述成像透镜模块上对应子区域的成像参数。
10、 如权利要求 9所述的成像装置, 其特征在于, 所述运动姿态分析处理 单元包括:
一运动轨迹预测调整子单元, 用于根据所述成像装置与所述对象的相对 运动姿态信息以及所述对象在当前时刻对应子区域的成像参数预测所述对象 下一时刻对应的子区域的成像参数。
11、 如权利要求 9所述的成像装置, 其特征在于, 所述运动姿态分析单元 包括:
一第一运动调整子单元, 用于在所述成像装置的运动速度超过一设定阈 值时, 将所述成像透镜模块各子区域的成像参数调节成设定的常用成像参数。
12、 如权利要求 9所述的成像装置, 其特征在于, 所述运动姿态分析单元 包括:
一第二运动调整子单元, 用于在所述成像装置的运动速度超过一设定阈 值时, 将所述成像透镜模块各子区域的成像参数调节成前一时刻所述成像透 镜模块各子区域成像参数的平均值。
13、 如权利要求 9所述的成像装置, 其特征在于, 所述成像装置还包括: 一运动姿态传感模块, 用于获取所述成像装置的所述运动姿态信息。
14、 如权利要求 13所述的成像装置, 其特征在于, 所述成像装置的运动 姿态信息包括: 所述成像装置与所述对象的所述相对运动姿态信息和 /或所述 成像装置的运动速度信息。
15、 如权利要求 1所述的成像装置, 其特征在于, 所述信息处理模块还包 括:
一历史信息平滑单元, 用于根据所述各子区域成像参数的一历史信息对 每个子区域的当前成像参数进行时间上的平滑处理。
16、 如权利要求 1所述的成像装置, 其特征在于, 所述信息处理模块还包 括:
一空间信息平滑单元, 用于根据所述成像透镜模块各子区域的成像参数, 对各子区域的成像参数进行空间上的平滑处理。
17、 如权利要求 1所述的成像装置, 其特征在于, 所述成像透镜模块包括 至少一片透镜。
18、 如权利要求 1所述的成像装置, 其特征在于, 所述子区域的成像参数 包括: 所述子区域透镜的形状和 /或折射率。
19、 如权利要求 1所述的成像装置, 其特征在于, 所述成像透镜模块的子 区域呈阵列分布。
20、 如权利要求 19所述的成像装置, 其特征在于, 所述子区域呈矩形阵 列分布。
21、 如权利要求 19所述的成像装置, 其特征在于, 所述子区域呈辐射同 心圆阵列分布。
22、如权利要求 1所述的成像装置,其特征在于,所述位置传感模块包括: 一深度传感单元, 用于获取所述至少一个对象相对于所述成像装置的一 位置深度信息。
23、如权利要求 1所述的成像装置,其特征在于,所述位置传感模块包括: 一图像传感器, 用于获取所述至少一个对象的一图像信息。
24、 如权利要求 1所述的成像装置, 其特征在于, 所述成像装置为眼镜。
25、 一种成像方法, 其特征在于, 包括:
获得至少一个对象相对于一成像装置的位置信息;
根据所述至少一个对象相对于所述成像装置的位置信息确定一成像透镜 模块上至少一对应子区域的成像参数; 其中, 所述成像透镜模块用于对至少 一个对象进行成像, 包括多个成像参数可调的子区域;
根据所述确定的成像参数对所述成像透镜模块的对应子区域进行成像参 数的调节。
26、 如权利要求 25所述的方法, 其特征在于, 所述根据所述至少一个对 象相对于所述成像装置的位置信息确定一成像透镜模块上对应子区域的成像 参数的步骤包括:
对所述成像接收方分别获取多个距离对象的期望图像时对应的成像参数 进行学习, 得到与所述成像接收方对应的屈光校对信息。
27、 如权利要求 26所述的方法, 其特征在于, 所述成像接收方为用户的 眼睛。
28、 如权利要求 26所述的方法, 其特征在于, 所述根据所述至少一个对 象相对于所述成像装置的位置信息确定成像透镜模块上对应子区域的成像参 数的步骤包括:
根据每个对象相对于所述成像透镜模块的距离以及所述屈光校对信息计 算每个对象对应子区域的成像参数。
29、 如权利要求 28所述的方法, 其特征在于, 与各对象对应的子区域之 间的其它子区域的成像参数通过二维插值算法获得。
30、 如权利要求 25所述的方法, 其特征在于, 所述根据所述至少一个对 象相对于所述成像装置的位置信息确定成像透镜模块上对应子区域的成像参 数的步骤包括:
根据所述至少一个对象相对于所述成像装置的位置信息计算所述至少一 个对象相对于所述成像透镜模块的距离。
31、 如权利要求 25所述的方法, 其特征在于, 所述根据所述至少一个对 象相对于所述成像装置的位置信息确定成像透镜模块上对应子区域的成像参 数的步骤包括:
确定所述成像透镜模块上与所述对象对应的子区域。
32、 如权利要求 25所述的方法, 其特征在于, 所述根据所述至少一个对 象相对于所述成像装置的位置信息确定成像透镜模块上对应子区域的成像参 数的步骤包括:
确定所述成像透镜模块、 位置传感模块以及成像接收方的相对位置关系。
33、 如权利要求 25所述的方法, 其特征在于, 所述方法包括:
根据所述成像装置的运动姿态信息确定所述成像透镜模块上对应子区域
34、 如权利要求 33所述的方法, 其特征在于, 所述根据所述成像装置的 运动姿态信息确定所述成像透镜模块上对应子区域的成像参数的步骤包括: 根据所述成像装置与所述对象的相对运动姿态信息以及对象在当前时刻 对应子区域的成像参数预测所述对象下一时刻对应的子区域的成像参数。
35、 如权利要求 33所述的方法, 其特征在于, 所述根据所述成像装置的 运动姿态信息确定所述成像透镜模块上对应子区域的成像参数的步骤包括: 在所述成像装置的运动速度超过一设定阈值时, 将所述成像透镜模块各 子区域的成像参数调节成设定的常用成像参数。
36、 如权利要求 33所述的方法, 其特征在于, 所述根据所述成像装置的 运动姿态信息确定所述成像透镜模块上对应子区域的成像参数的步骤包括: 在所述成像装置的运动速度超过一设定阈值时, 将所述成像透镜模块各 子区域的成像参数调节成前一时刻所述成像透镜模块各子区域成像参数的平 均值。
37、 如权利要求 33所述的方法, 其特征在于, 所述方法包括: 获取所述 成像装置的所述运动姿态信息的步骤。
38、 如权利要求 37所述的方法, 其特征在于, 所述成像装置的运动姿态 信息包括: 所述成像装置与对象的相对运动姿态信息和 /或所述成像装置的运 动速度信息。
39、 如权利要求 25所述的方法, 其特征在于, 所述方法包括: 根据各子 区域成像参数的一历史信息对每个子区域的当前成像参数进行时间上的平滑 处理。
40、 如权利要求 25所述的方法, 其特征在于, 所述方法包括:
根据所述成像透镜模块各子区域的成像参数, 对各子区域的成像参数进 行空间上的平滑处理。
41、 如权利要求 25所述的方法, 其特征在于 所述成像透镜模块包括至 少一片透镜。
42、 如权利要求 25所述的方法, 其特征在于 所述子区域的成像参数包 括: 所述子区域透镜的形状和 /或折射率。
43、 如权利要求 25所述的方法, 其特征在于 所述成像透镜模块的子区 域呈阵列分布。
44、 如权利要求 43所述的方法, 其特征在于 所述子区域呈矩形阵列分
45、 如权利要求 43所述的方法, 其特征在于: 所述子区域呈辐射同心圆
^分布。
46、 如权利要求 25所述的方法, 其特征在于: 所述获得至少一个对象相 对于所述成像装置的位置信息的步骤包括:
获取所述至少一个对象相对于所述成像装置白 一位置深度信息。
47、 如权利要求 25所述的方法, 其特征在于:
对于所述成像装置的位置信息的步骤包括:
获取所述至少一个对象的一图像信息。
PCT/CN2013/088531 2013-06-28 2013-12-04 成像装置及成像方法 WO2014206011A1 (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/779,968 US10481396B2 (en) 2013-06-28 2013-12-04 Imaging device and imaging method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201310268508.5A CN103353677B (zh) 2013-06-28 2013-06-28 成像装置及方法
CN201310268508.5 2013-06-28

Publications (1)

Publication Number Publication Date
WO2014206011A1 true WO2014206011A1 (zh) 2014-12-31

Family

ID=49310063

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2013/088531 WO2014206011A1 (zh) 2013-06-28 2013-12-04 成像装置及成像方法

Country Status (3)

Country Link
US (1) US10481396B2 (zh)
CN (1) CN103353677B (zh)
WO (1) WO2014206011A1 (zh)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103353663B (zh) 2013-06-28 2016-08-10 北京智谷睿拓技术服务有限公司 成像调整装置及方法
CN103353667B (zh) 2013-06-28 2015-10-21 北京智谷睿拓技术服务有限公司 成像调整设备及方法
CN103353677B (zh) * 2013-06-28 2015-03-11 北京智谷睿拓技术服务有限公司 成像装置及方法
CN103431840B (zh) 2013-07-31 2016-01-20 北京智谷睿拓技术服务有限公司 眼睛光学参数检测系统及方法
CN103424891B (zh) 2013-07-31 2014-12-17 北京智谷睿拓技术服务有限公司 成像装置及方法
CN103431980A (zh) 2013-08-22 2013-12-11 北京智谷睿拓技术服务有限公司 视力保护成像系统及方法
CN103439801B (zh) 2013-08-22 2016-10-26 北京智谷睿拓技术服务有限公司 视力保护成像装置及方法
CN103605208B (zh) 2013-08-30 2016-09-28 北京智谷睿拓技术服务有限公司 内容投射系统及方法
CN103500331B (zh) 2013-08-30 2017-11-10 北京智谷睿拓技术服务有限公司 提醒方法及装置
CN103558909B (zh) 2013-10-10 2017-03-29 北京智谷睿拓技术服务有限公司 交互投射显示方法及交互投射显示系统
KR102155093B1 (ko) * 2014-08-05 2020-09-11 엘지전자 주식회사 이동단말기 및 그 제어방법
CN104410784B (zh) 2014-11-06 2019-08-06 北京智谷技术服务有限公司 光场采集控制方法和装置
CN104849867B (zh) * 2015-05-26 2017-07-14 宁波维真显示科技股份有限公司 调节裸眼3d显示器最佳观看距离的方法
WO2017020170A1 (en) * 2015-07-31 2017-02-09 SZ DJI Technology Co., Ltd. System and method for image processing
CN106254752B (zh) * 2015-09-22 2019-05-31 北京智谷睿拓技术服务有限公司 对焦方法和装置、图像采集设备
CN108700743A (zh) 2016-01-22 2018-10-23 康宁股份有限公司 宽视场个人显示器
CN106605154B (zh) * 2016-05-24 2019-05-24 英华达(上海)科技有限公司 一种运动目标的监测方法、穿戴式装置及服务器
CN111183634B (zh) * 2017-07-18 2022-01-04 辛特科技有限公司 一种利用透镜还原光场的方法
US10976551B2 (en) 2017-08-30 2021-04-13 Corning Incorporated Wide field personal display device
DE102017219790A1 (de) * 2017-11-07 2019-05-09 Volkswagen Aktiengesellschaft System und Verfahren zum Bestimmen einer Pose einer Augmented-Reality-Brille, System und Verfahren zum Einmessen einer Augmented-Reality-Brille, Verfahren zum Unterstützen einer Posenbestimmung einer Augmented-Reality-Brille und für das Verfahren geeignetes Kraftfahrzeug
CN110007475A (zh) * 2019-04-17 2019-07-12 万维云视(上海)数码科技有限公司 利用虚拟深度补偿视力的方法与装置
CN112068314B (zh) * 2020-09-29 2022-04-22 京东方科技集团股份有限公司 一种近眼显示装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5182585A (en) * 1991-09-26 1993-01-26 The Arizona Carbon Foil Company, Inc. Eyeglasses with controllable refracting power
CN1645244A (zh) * 2004-01-20 2005-07-27 精工爱普生株式会社 投影机及其中的变焦调整方法
CN1912672A (zh) * 2005-06-07 2007-02-14 因·S·唐 不动的镜头系统和方法
CN101194198A (zh) * 2005-01-21 2008-06-04 庄臣及庄臣视力保护公司 具有可变焦距的自适应电激活透镜
CN101900927A (zh) * 2009-05-29 2010-12-01 精工爱普生株式会社 投影仪及其控制方法
CN101917638A (zh) * 2010-07-07 2010-12-15 深圳超多维光电子有限公司 立体显示装置、移动终端及立体显示跟踪方法
CN202267785U (zh) * 2011-08-30 2012-06-06 福州瑞芯微电子有限公司 一种自动跟踪人眼位置的裸眼三维显示结构
WO2012075218A1 (en) * 2010-12-01 2012-06-07 Urban Schnell Variable binocular loupe utilizing fluid filled lens technology
CN103353677A (zh) * 2013-06-28 2013-10-16 北京智谷睿拓技术服务有限公司 成像装置及方法

Family Cites Families (169)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4264154A (en) 1979-06-05 1981-04-28 Polaroid Corporation Apparatus for automatically controlling transmission of light through a lens system
US4572616A (en) 1982-08-10 1986-02-25 Syracuse University Adaptive liquid crystal lens
US4973149A (en) 1987-08-19 1990-11-27 Center For Innovative Technology Eye movement detector
JP2676870B2 (ja) 1989-01-17 1997-11-17 キヤノン株式会社 注視点検出手段を有した光学装置
JP2920940B2 (ja) 1989-06-20 1999-07-19 キヤノン株式会社 視線検出手段を有した機器
US5731046A (en) 1994-01-18 1998-03-24 Qqc, Inc. Fabrication of diamond and diamond-like carbon coatings
JPH08564A (ja) 1994-06-17 1996-01-09 Nikon Corp 眼科装置
US5774274A (en) 1995-05-12 1998-06-30 Schachar; Ronald A. Variable focus lens by small changes of the equatorial lens diameter
US6072443A (en) 1996-03-29 2000-06-06 Texas Instruments Incorporated Adaptive ocular projection display
JPH09289973A (ja) 1996-04-26 1997-11-11 Canon Inc 眼底カメラ
JPH1070742A (ja) 1996-08-29 1998-03-10 Olympus Optical Co Ltd 二眼式映像表示装置
JP3802630B2 (ja) 1996-12-28 2006-07-26 オリンパス株式会社 立体画像生成装置および立体画像生成方法
DE19704197A1 (de) 1997-02-05 1998-08-06 Zeiss Carl Jena Gmbh Anordnung zur subjektivem Refraktionsbestimmung und/oder zur Bestimmung anderer Sehfunktionen
US6152563A (en) 1998-02-20 2000-11-28 Hutchinson; Thomas E. Eye gaze direction tracker
JP3383228B2 (ja) 1998-11-09 2003-03-04 シャープ株式会社 ヘッドマウントディスプレイ装置
US6318857B1 (en) 1998-12-09 2001-11-20 Asahi Kogaku Kogyo Kabushiki Kaisha Variable power spectacles
US6619799B1 (en) * 1999-07-02 2003-09-16 E-Vision, Llc Optical lens system with electro-active lens having alterably different focal lengths
WO2002041769A1 (de) 2000-11-22 2002-05-30 Carl Zeiss Jena Gmbh Optische stimulation des menschlichen auges
US6478425B2 (en) 2000-12-29 2002-11-12 Koninlijke Phillip Electronics N. V. System and method for automatically adjusting a lens power through gaze tracking
DE10103922A1 (de) 2001-01-30 2002-08-01 Physoptics Opto Electronic Gmb Interaktives Datensicht- und Bediensystem
EP1395865A2 (en) 2001-06-12 2004-03-10 Silicon Optix Inc. System and method for correcting keystone distortion
US7001020B2 (en) 2001-08-02 2006-02-21 Daphne Instruments, Inc. Complete autorefractor system in an ultra-compact package
JP4224260B2 (ja) 2002-02-18 2009-02-12 株式会社トプコン キャリブレーション装置、方法及び結果診断装置、並びにキャリブレーション用チャート
US20080106633A1 (en) * 2002-03-13 2008-05-08 Blum Ronald D Electro-optic lens with integrated components for varying refractive properties
CA2478315A1 (en) 2002-03-13 2003-09-18 Ronald D. Blum Electro-optic lens with integrated components
CN100553601C (zh) 2002-07-22 2009-10-28 林超群 动态式透镜视力训练装置
IL151592A (en) 2002-09-04 2008-06-05 Josef Bekerman Variable optical power spectacles for eyesight rehabilitation and methods for lens optical power control
DE112004000144T5 (de) 2003-01-16 2006-01-12 Horie, Hidenori, Yokohama Vorrichtung zur Verbesserung der Sehkraft
US7298414B2 (en) 2003-01-29 2007-11-20 Hewlett-Packard Development Company, L.P. Digital camera autofocus using eye focus measurement
JP3844076B2 (ja) 2003-03-07 2006-11-08 セイコーエプソン株式会社 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
US20050003043A1 (en) 2003-07-03 2005-01-06 Vincent Sewalt Composition and method for reducing caking and proteinaceous products
JP4085034B2 (ja) 2003-07-17 2008-04-30 信越化学工業株式会社 化合物、高分子化合物、レジスト材料及びパターン形成方法
JP2005092175A (ja) * 2003-08-08 2005-04-07 Olympus Corp 光学特性可変光学素子
JP2005058399A (ja) 2003-08-11 2005-03-10 Nikon Corp ディスプレイ装置
JP4401727B2 (ja) 2003-09-30 2010-01-20 キヤノン株式会社 画像表示装置及び方法
WO2005065528A1 (en) 2004-01-02 2005-07-21 Vision Instruments Pty Ltd Devices to facilitate alignment and focussing of a fundus camera
US9229540B2 (en) 2004-01-30 2016-01-05 Electronic Scripting Products, Inc. Deriving input from six degrees of freedom interfaces
JP4604190B2 (ja) 2004-02-17 2010-12-22 国立大学法人静岡大学 距離イメージセンサを用いた視線検出装置
JP2007531912A (ja) 2004-03-31 2007-11-08 ザ・リージェンツ・オブ・ザ・ユニバーシティー・オブ・カリフォルニア 流体適応レンズ
US20060016459A1 (en) 2004-05-12 2006-01-26 Mcfarlane Graham High rate etching using high pressure F2 plasma with argon dilution
US7461938B2 (en) 2004-06-30 2008-12-09 Ophthonix, Inc. Apparatus and method for determining sphere and cylinder components of subjective refraction using objective wavefront measurement
US7567241B2 (en) 2004-08-03 2009-07-28 Silverbrook Research Pty Ltd Stylus with customizable appearance
CN101072534A (zh) 2004-11-08 2007-11-14 光视有限公司 用于眼睛综合诊断的光学设备和方法
US7344244B2 (en) 2004-12-03 2008-03-18 Searete, Llc Adjustable lens system with neural-based control
US8104892B2 (en) 2004-12-03 2012-01-31 The Invention Science Fund I, Llc Vision modification with reflected image
US7486988B2 (en) 2004-12-03 2009-02-03 Searete Llc Method and system for adaptive vision modification
US7334892B2 (en) 2004-12-03 2008-02-26 Searete Llc Method and system for vision enhancement
US8885139B2 (en) * 2005-01-21 2014-11-11 Johnson & Johnson Vision Care Adaptive electro-active lens with variable focal length
JP4744973B2 (ja) 2005-08-05 2011-08-10 株式会社トプコン 眼底カメラ
JP4719553B2 (ja) 2005-11-04 2011-07-06 キヤノン株式会社 撮像装置、撮像方法、コンピュータプログラム、及びコンピュータ読み取り可能な記憶媒体
CN2868183Y (zh) 2006-01-19 2007-02-14 杨宏军 智能视力保护器
US7766479B2 (en) 2006-03-31 2010-08-03 National University Corporation Shizuoka University View point detecting device
US7764433B2 (en) 2006-05-18 2010-07-27 The Regents Of The University Of California Method and system for correcting optical aberrations, including widefield imaging applications
JP4822331B2 (ja) 2006-06-22 2011-11-24 株式会社トプコン 眼科装置
US7542210B2 (en) 2006-06-29 2009-06-02 Chirieleison Sr Anthony Eye tracking head mounted display
CN100485448C (zh) 2006-06-29 2009-05-06 贾怀昌 自由曲面全反射式的目视光学棱镜
JP5017989B2 (ja) 2006-09-27 2012-09-05 ソニー株式会社 撮像装置、撮像方法
CN201005945Y (zh) 2007-01-15 2008-01-16 陈清祥 可调整滤光片的视线导正辅助器
BRPI0814757A2 (pt) 2007-08-02 2015-03-03 Ocular Optics Inc Sistema e métodos de lentes intraocular multi-focal
CN101116609B (zh) 2007-08-30 2010-06-16 中国科学技术大学 扫描式自动变焦虹膜图像采集系统及采集方法
CN101149254B (zh) 2007-11-12 2012-06-27 北京航空航天大学 高精度视觉检测系统
US8786675B2 (en) 2008-01-23 2014-07-22 Michael F. Deering Systems using eye mounted displays
WO2009101236A1 (en) 2008-02-13 2009-08-20 Nokia Corporation Display device and a method for illuminating a light modulator array of a display device
EP2271964A4 (en) * 2008-03-18 2017-09-20 Mitsui Chemicals, Inc. Advanced electro-active optic device
WO2009140255A2 (en) 2008-05-12 2009-11-19 Dreher Andreas W Adjustable eye glasses with a magnetic attachment
JP4518193B2 (ja) 2008-06-10 2010-08-04 ソニー株式会社 光学装置および虚像表示装置
CN101430429A (zh) 2008-06-17 2009-05-13 沈嘉琦 一种近视矫正眼镜
CN101662696B (zh) 2008-08-28 2011-01-26 联想(北京)有限公司 调节摄像系统的方法和设备
TW201011350A (en) 2008-09-04 2010-03-16 E Pin Optical Industry Co Ltd Liquid crystal zoom lens
WO2010030985A1 (en) 2008-09-12 2010-03-18 Gesturetek, Inc. Orienting displayed elements relative to a user
TWI367748B (en) 2008-09-30 2012-07-11 Univ Ishou Apparatus for sight healthcare
US8884735B2 (en) 2008-11-17 2014-11-11 Roger Li-Chung Vision protection method and system thereof
CN201360319Y (zh) * 2008-12-17 2009-12-09 胡超 眼镜式多功能立体图像装置
CN201352278Y (zh) 2008-12-23 2009-11-25 黄玲 一种自动变焦眼镜
JP5456791B2 (ja) 2009-01-26 2014-04-02 トビー・テクノロジー・アーベー 空間領域の映像に対する人の注視点を決定するためのシステム及びその方法
CN201464738U (zh) 2009-04-13 2010-05-12 段亚东 多功能保健眼镜
US8100532B2 (en) 2009-07-09 2012-01-24 Nike, Inc. Eye and body movement tracking for testing and/or training
JP2011043876A (ja) 2009-08-19 2011-03-03 Brother Industries Ltd 画像表示装置
JP5388765B2 (ja) 2009-09-01 2014-01-15 キヤノン株式会社 眼底カメラ
JP5371638B2 (ja) 2009-09-01 2013-12-18 キヤノン株式会社 眼科撮影装置及びその方法
CN101782685A (zh) 2009-09-04 2010-07-21 上海交通大学 实时多角度立体视觉系统
JP2011071898A (ja) 2009-09-28 2011-04-07 Panasonic Corp 立体映像表示装置および立体映像表示方法
EP2494402B1 (en) 2009-10-30 2018-04-18 Hewlett-Packard Development Company, L.P. Stereo display systems
US8552850B2 (en) 2010-02-17 2013-10-08 Honeywell International Inc. Near-to-eye tracking for adaptive operation
US20130278631A1 (en) 2010-02-28 2013-10-24 Osterhout Group, Inc. 3d positioning of augmented reality information
US8964298B2 (en) 2010-02-28 2015-02-24 Microsoft Corporation Video display modification based on sensor input for a see-through near-to-eye display
US20120242698A1 (en) 2010-02-28 2012-09-27 Osterhout Group, Inc. See-through near-eye display glasses with a multi-segment processor-controlled optical layer
US20120206485A1 (en) 2010-02-28 2012-08-16 Osterhout Group, Inc. Ar glasses with event and sensor triggered user movement control of ar eyepiece facilities
US20120212499A1 (en) 2010-02-28 2012-08-23 Osterhout Group, Inc. System and method for display content control during glasses movement
CN201637953U (zh) 2010-03-19 2010-11-17 熊火胜 智能变焦镜片
US9628722B2 (en) 2010-03-30 2017-04-18 Personify, Inc. Systems and methods for embedding a foreground video into a background feed based on a control input
CN101819334B (zh) 2010-04-01 2013-04-17 夏翔 多功能电子眼镜
CN101819331B (zh) 2010-04-27 2012-03-07 中国计量学院 一种遥控变焦眼镜装置
CN201754203U (zh) 2010-05-06 2011-03-02 徐晗 动态视角液晶眼镜
JP2013535022A (ja) 2010-05-29 2013-09-09 ウェンユー・ジアーン 凝視距離および低電力凝視追跡によって動かされる適応レンズを有する眼鏡を製作し使用するためのシステム、方法および装置
JP5685013B2 (ja) 2010-06-30 2015-03-18 キヤノン株式会社 光断層撮像装置及びその制御方法、プログラム
KR20120005328A (ko) 2010-07-08 2012-01-16 삼성전자주식회사 입체 안경 및 이를 포함하는 디스플레이장치
US8324957B2 (en) 2010-07-16 2012-12-04 Linear Technology Corporation Capacitively coupled switched current source
US8884984B2 (en) 2010-10-15 2014-11-11 Microsoft Corporation Fusing virtual content into real content
US9395546B2 (en) 2010-10-29 2016-07-19 Lg Electronics Inc. Stereoscopic image processing system and device and glasses
US20120113235A1 (en) 2010-11-08 2012-05-10 Sony Corporation 3d glasses, systems, and methods for optimized viewing of 3d video content
WO2012083415A1 (en) 2010-11-15 2012-06-28 Tandemlaunch Technologies Inc. System and method for interacting with and analyzing media on a display using eye gaze tracking
US9304319B2 (en) 2010-11-18 2016-04-05 Microsoft Technology Licensing, Llc Automatic focus improvement for augmented reality displays
US8628193B2 (en) 2010-11-20 2014-01-14 Yibin TIAN Automatic accommodative spectacles using a scene analyzer and focusing elements
CN102487393B (zh) 2010-12-01 2015-09-23 深圳市同洲软件有限公司 数字电视接收终端与移动终端交互方法、装置和系统
US9314148B2 (en) 2010-12-06 2016-04-19 Lensvector, Inc. Motionless adaptive stereoscopic scene capture with tuneable liquid crystal lenses and stereoscopic auto-focusing methods
CN102008288B (zh) 2010-12-17 2012-02-01 中国科学院光电技术研究所 一种线扫描共焦检眼镜的系统和方法
US9690099B2 (en) 2010-12-17 2017-06-27 Microsoft Technology Licensing, Llc Optimized focal area for augmented reality displays
US9507416B2 (en) 2011-02-22 2016-11-29 Robert Howard Kimball Providing a corrected view based on the position of a user with respect to a mobile platform
WO2012122411A1 (en) 2011-03-08 2012-09-13 Pixeloptics, Inc. Advanced electro-active optic device
JP2012199621A (ja) 2011-03-18 2012-10-18 Jvc Kenwood Corp 複眼撮像装置
JP5118266B2 (ja) 2011-03-25 2013-01-16 パナソニック株式会社 表示装置
US8510166B2 (en) 2011-05-11 2013-08-13 Google Inc. Gaze tracking system
US8911087B2 (en) * 2011-05-20 2014-12-16 Eyefluence, Inc. Systems and methods for measuring reactions of head, eyes, eyelids and pupils
JP2012247449A (ja) 2011-05-25 2012-12-13 Canon Inc 投射型映像表示装置
US20120307208A1 (en) 2011-06-01 2012-12-06 Rogue Technologies, Inc. Apparatus and method for eye tracking
US20120327116A1 (en) 2011-06-23 2012-12-27 Microsoft Corporation Total field of view classification for head-mounted display
US20130241927A1 (en) 2011-07-03 2013-09-19 Neorai Vardi Computer device in form of wearable glasses and user interface thereof
US9285592B2 (en) 2011-08-18 2016-03-15 Google Inc. Wearable device with input and output structures
US9323325B2 (en) 2011-08-30 2016-04-26 Microsoft Technology Licensing, Llc Enhancing an object of interest in a see-through, mixed reality display device
JP5879826B2 (ja) 2011-08-31 2016-03-08 株式会社ニデック 眼底撮影装置
US20130072828A1 (en) 2011-09-15 2013-03-21 Jason Sweis Shutter glasses
US9081177B2 (en) * 2011-10-07 2015-07-14 Google Inc. Wearable computer with nearby object response
US20130107066A1 (en) 2011-10-27 2013-05-02 Qualcomm Incorporated Sensor aided video stabilization
CA2856075A1 (en) 2011-11-18 2013-05-23 Optovue, Inc. Fundus camera
US9442517B2 (en) 2011-11-30 2016-09-13 Blackberry Limited Input gestures using device movement
CN102572483B (zh) 2011-12-02 2014-08-13 深圳超多维光电子有限公司 跟踪式裸眼立体显示控制方法、装置及显示设备、系统
US9182815B2 (en) 2011-12-07 2015-11-10 Microsoft Technology Licensing, Llc Making static printed content dynamic with virtual data
CN202383380U (zh) 2011-12-31 2012-08-15 张欣 多功能眼镜
CN103197757A (zh) 2012-01-09 2013-07-10 癸水动力(北京)网络科技有限公司 一种沉浸式虚拟现实系统及其实现方法
US8384999B1 (en) 2012-01-09 2013-02-26 Cerr Limited Optical modules
KR101911439B1 (ko) 2012-01-30 2019-01-07 삼성전자주식회사 초점길이 가변형 마이크로 렌즈와 이를 포함하는 마이크로 렌즈 어레이 및 이를 포함하는 3d 디스플레이와 그 동작 방법
US9916005B2 (en) 2012-02-06 2018-03-13 Sony Corporation Gaze tracking with projector
US20130241805A1 (en) 2012-03-15 2013-09-19 Google Inc. Using Convergence Angle to Select Among Different UI Elements
US20130293530A1 (en) 2012-05-04 2013-11-07 Kathryn Stone Perez Product augmentation and advertising in see through displays
TWI474072B (zh) 2012-06-14 2015-02-21 Largan Precision Co Ltd 光學影像鏡片系統組
US9430055B2 (en) 2012-06-15 2016-08-30 Microsoft Technology Licensing, Llc Depth of field control for see-thru display
US20130342572A1 (en) 2012-06-26 2013-12-26 Adam G. Poulos Control of displayed content in virtual environments
JP5538483B2 (ja) 2012-06-29 2014-07-02 株式会社ソニー・コンピュータエンタテインメント 映像処理装置、映像処理方法、および映像処理システム
US9310611B2 (en) 2012-09-18 2016-04-12 Qualcomm Incorporated Methods and systems for making the use of head-mounted displays less obvious to non-users
CN103065605B (zh) 2012-12-10 2015-12-09 惠州Tcl移动通信有限公司 一种根据视力状况调节显示效果的方法和系统
US20140160157A1 (en) 2012-12-11 2014-06-12 Adam G. Poulos People-triggered holographic reminders
CN103190883B (zh) 2012-12-20 2015-06-24 苏州触达信息技术有限公司 一种头戴式显示装置和图像调节方法
CN103150013A (zh) 2012-12-20 2013-06-12 天津三星光电子有限公司 一种移动终端
CN102981270A (zh) 2012-12-25 2013-03-20 中国科学院长春光学精密机械与物理研究所 一种无遮拦自适应变焦距光学系统及其标定方法
CN103054695A (zh) 2013-01-09 2013-04-24 中山市目明视光视力科技有限公司 调整眼内光学焦点位置的镜片组合方法
US10133342B2 (en) 2013-02-14 2018-11-20 Qualcomm Incorporated Human-body-gesture-based region and volume selection for HMD
US9507147B2 (en) 2013-02-14 2016-11-29 Blackberry Limited Wearable display system with detached projector
US20140232746A1 (en) 2013-02-21 2014-08-21 Hyundai Motor Company Three dimensional augmented reality display apparatus and method using eye tracking
US20140240351A1 (en) 2013-02-27 2014-08-28 Michael Scavezze Mixed reality augmentation
US9898866B2 (en) 2013-03-13 2018-02-20 The University Of North Carolina At Chapel Hill Low latency stabilization for head-worn displays
US9041741B2 (en) 2013-03-14 2015-05-26 Qualcomm Incorporated User interface for a head mounted display
US20140282224A1 (en) 2013-03-15 2014-09-18 Qualcomm Incorporated Detection of a scrolling gesture
CN108427504B (zh) 2013-03-15 2021-06-11 奇跃公司 显示系统和方法
CN103280175A (zh) 2013-06-17 2013-09-04 苏州旭宇升电子有限公司 一种投影装置
EP3013042A4 (en) * 2013-06-19 2016-08-17 Panasonic Ip Man Co Ltd IMAGE DISPLAY DEVICE AND METHOD
US9256987B2 (en) 2013-06-24 2016-02-09 Microsoft Technology Licensing, Llc Tracking head movement when wearing mobile device
CN103353663B (zh) 2013-06-28 2016-08-10 北京智谷睿拓技术服务有限公司 成像调整装置及方法
US9443355B2 (en) 2013-06-28 2016-09-13 Microsoft Technology Licensing, Llc Reprojection OLED display for augmented reality experiences
CN103353667B (zh) 2013-06-28 2015-10-21 北京智谷睿拓技术服务有限公司 成像调整设备及方法
WO2015006334A1 (en) 2013-07-08 2015-01-15 Ops Solutions Llc Eyewear operational guide system and method
CN103297735A (zh) 2013-07-16 2013-09-11 苏州旭宇升电子有限公司 一种投影装置
US9619939B2 (en) 2013-07-31 2017-04-11 Microsoft Technology Licensing, Llc Mixed reality graduated information delivery
CN103558909B (zh) 2013-10-10 2017-03-29 北京智谷睿拓技术服务有限公司 交互投射显示方法及交互投射显示系统
WO2015094191A1 (en) 2013-12-17 2015-06-25 Intel Corporation Controlling vision correction using eye tracking and depth detection
US9965030B2 (en) 2014-07-31 2018-05-08 Samsung Electronics Co., Ltd. Wearable glasses and method of displaying image via the wearable glasses
US10261579B2 (en) 2014-09-01 2019-04-16 Samsung Electronics Co., Ltd. Head-mounted display apparatus
US10330958B2 (en) 2015-04-10 2019-06-25 Bespoke, Inc. Systems and methods for creating eyewear with multi-focal lenses
EP3335070B1 (en) 2015-09-30 2020-11-25 Sony Interactive Entertainment Inc. Methods for optimizing positioning of content on a screen of a head mounted display

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5182585A (en) * 1991-09-26 1993-01-26 The Arizona Carbon Foil Company, Inc. Eyeglasses with controllable refracting power
CN1645244A (zh) * 2004-01-20 2005-07-27 精工爱普生株式会社 投影机及其中的变焦调整方法
CN101194198A (zh) * 2005-01-21 2008-06-04 庄臣及庄臣视力保护公司 具有可变焦距的自适应电激活透镜
CN1912672A (zh) * 2005-06-07 2007-02-14 因·S·唐 不动的镜头系统和方法
CN101900927A (zh) * 2009-05-29 2010-12-01 精工爱普生株式会社 投影仪及其控制方法
CN101917638A (zh) * 2010-07-07 2010-12-15 深圳超多维光电子有限公司 立体显示装置、移动终端及立体显示跟踪方法
WO2012075218A1 (en) * 2010-12-01 2012-06-07 Urban Schnell Variable binocular loupe utilizing fluid filled lens technology
CN202267785U (zh) * 2011-08-30 2012-06-06 福州瑞芯微电子有限公司 一种自动跟踪人眼位置的裸眼三维显示结构
CN103353677A (zh) * 2013-06-28 2013-10-16 北京智谷睿拓技术服务有限公司 成像装置及方法

Also Published As

Publication number Publication date
US20160103323A1 (en) 2016-04-14
CN103353677B (zh) 2015-03-11
CN103353677A (zh) 2013-10-16
US10481396B2 (en) 2019-11-19

Similar Documents

Publication Publication Date Title
WO2014206011A1 (zh) 成像装置及成像方法
US10551638B2 (en) Imaging apparatus and imaging method
CN108051925B (zh) 具有焦点可调透镜的眼镜设备
US10292581B2 (en) Display device for demonstrating optical properties of eyeglasses
US10261345B2 (en) Imaging adjustment device and imaging adjustment method
US10191276B2 (en) Imaging adjustment device and imaging adjustment method
US9867532B2 (en) System for detecting optical parameter of eye, and method for detecting optical parameter of eye
US10048750B2 (en) Content projection system and content projection method
US9961335B2 (en) Pickup of objects in three-dimensional display
WO2014203440A1 (ja) 画像表示装置および画像表示方法
US20140137054A1 (en) Automatic adjustment of font on a visual display
CN103439801A (zh) 视力保护成像装置及方法
WO2015043275A1 (en) Imaging for local scaling
JP6422954B2 (ja) 焦点距離の調節
CN108474970A (zh) 用于确定适配于运动参数的眼科镜片的方法
CN106526857B (zh) 调焦方法和装置
WO2014179857A1 (en) Autofocus eyeglass system
CN111699432A (zh) 使用沉浸式系统确定眼睛的耐力的方法及其电子设备
EP3498149B1 (en) Optoelectronic binocular instrument for the correction of presbyopia and method for the binocular correction of presbyopia
CN204883084U (zh) 隐形眼镜
KR102211520B1 (ko) 정확도가 향상된 눈의 조절력 측정 및 훈련의 방법, 시스템 및 컴퓨터 프로그램
WO2018079835A1 (ja) 眼鏡レンズの評価方法、眼鏡レンズの設計方法、眼鏡レンズの製造方法および眼鏡レンズ評価装置
KR102499864B1 (ko) 사용자 맞춤용 누진렌즈 설계 장치 및 그의 누진렌즈 설계 방법
TW202321783A (zh) 眼鏡裝置和相關方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13888299

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14779968

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13888299

Country of ref document: EP

Kind code of ref document: A1