WO2014206013A1 - 成像调整设备及成像调整方法 - Google Patents

成像调整设备及成像调整方法 Download PDF

Info

Publication number
WO2014206013A1
WO2014206013A1 PCT/CN2013/088540 CN2013088540W WO2014206013A1 WO 2014206013 A1 WO2014206013 A1 WO 2014206013A1 CN 2013088540 W CN2013088540 W CN 2013088540W WO 2014206013 A1 WO2014206013 A1 WO 2014206013A1
Authority
WO
WIPO (PCT)
Prior art keywords
imaging
lens group
image
sub
information
Prior art date
Application number
PCT/CN2013/088540
Other languages
English (en)
French (fr)
Inventor
杜琳
张宏江
Original Assignee
北京智谷睿拓技术服务有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 北京智谷睿拓技术服务有限公司 filed Critical 北京智谷睿拓技术服务有限公司
Priority to US14/779,321 priority Critical patent/US10261345B2/en
Publication of WO2014206013A1 publication Critical patent/WO2014206013A1/zh

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C11/00Non-optical adjuncts; Attachment thereof
    • G02C11/10Electronic devices other than hearing aids
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C7/00Optical parts
    • G02C7/02Lenses; Lens systems ; Methods of designing lenses
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C7/00Optical parts
    • G02C7/02Lenses; Lens systems ; Methods of designing lenses
    • G02C7/08Auxiliary lenses; Arrangements for varying focal length
    • G02C7/081Ophthalmic lenses with variable focal length
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C7/00Optical parts
    • G02C7/02Lenses; Lens systems ; Methods of designing lenses
    • G02C7/08Auxiliary lenses; Arrangements for varying focal length
    • G02C7/081Ophthalmic lenses with variable focal length
    • G02C7/083Electrooptic lenses
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/011Head-up displays characterised by optical features comprising device for correcting geometrical aberrations, distortion
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0127Head-up displays characterised by optical features comprising devices increasing the depth of field
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Definitions

  • the present invention relates to the field of imaging technologies, and in particular, to an imaging adjustment apparatus and method.
  • the Galileo telescope can form the erect virtual image 1030a and change the angle of the virtual image to the eye through a convex lens 1010 and a concave lens 1020, forming a visual effect of zooming in or zooming out of the object along the optical axis 1040.
  • the magnification and focus can be changed, as shown in Figures 17a-17c.
  • the new lens with electronically adjustable focal length as described in the paper by 2494-2500 (2004) shows that the focal length of a single lens can also be dynamically adjusted.
  • Wearable devices are gradually accepted by the public, such as Google Glass, smart watches, etc. These electronic smart devices will bring more convenience to people's lives.
  • the technical problem to be solved by the present invention is to provide an imaging adjustment apparatus and method for solving or alleviating the problem of perspective distortion of an object during imaging.
  • the present invention provides an imaging analysis apparatus, including: an information processing module, configured to receive a positional depth information of an imaging lens group and/or an imaging receiver relative to an object, Obtaining an imaging parameter corresponding to the imaging lens group according to the position depth information, and transmitting the obtained imaging parameter.
  • the present invention provides an image forming apparatus comprising:
  • An imaging lens group for imaging an object comprising a plurality of at least one sub-region with adjustable imaging characteristics
  • a lens adjustment module is configured to receive an imaging parameter of the imaging lens group output by an imaging analysis device, determine a sub-region corresponding to the imaging parameter, and perform adjustment of an imaging characteristic of the sub-region.
  • the invention provides an imaging adjustment apparatus comprising the imaging analysis apparatus and imaging apparatus described above.
  • the present invention provides an imaging analysis method, including:
  • the resulting imaging parameters are transmitted.
  • the present invention provides an imaging method, including:
  • the imaging lens group for imaging an object, comprising a plurality of at least one sub-region with adjustable imaging characteristics;
  • the present invention provides an imaging adjustment method comprising the imaging analysis method and imaging method described above.
  • the above technical solution of the embodiment of the present invention images an object by using an imaging lens with an adjustable imaging parameter of each sub-area, and can separately perform imaging parameter adjustment for each sub-area to The perspective distortion of the living is adjusted and corrected, and the image of the object acquired by the user is prevented from undergoing perspective distortion to improve the user experience.
  • the present invention is particularly applicable to a case where a plurality of users view a program through a screen at a position where the angle is not good;
  • the method and apparatus of the example can also alleviate the refractive error problem of the user's eyes by adjusting the imaging parameters of each sub-area.
  • FIG. 1 is a schematic diagram of an application of an imaging analysis apparatus according to an embodiment of the present invention.
  • FIG. 2 is a schematic block diagram showing the structure of an imaging analysis apparatus according to an embodiment of the present invention.
  • FIG. 3 is a schematic diagram of an image receiving receiver and an image of an imaging device obtained by an imaging analyzing device according to an embodiment of the present invention
  • FIG. 4 is a schematic block diagram showing the structure of an information processing module according to an embodiment of the present invention.
  • FIG. 5 is a schematic diagram showing a depth map of a screen that should be obtained on the side of the glasses obtained by an imaging analysis apparatus according to an embodiment of the present invention
  • FIG. 6 is a schematic flow chart of an imaging analysis method according to an embodiment of the present invention.
  • FIG. 7 is a schematic flow chart of steps of an imaging analysis method according to an embodiment of the present invention.
  • FIG. 8 is a structural block diagram of an information processing module in another imaging analysis apparatus according to an embodiment of the present invention
  • FIG. 9a is a schematic block diagram showing the structure of an imaging apparatus according to an embodiment of the present invention.
  • 9b is a schematic block diagram showing the structure of another imaging apparatus according to an embodiment of the present invention.
  • FIG. 10 is a schematic structural diagram of an image forming apparatus according to an embodiment of the present invention.
  • FIG. 11 is a schematic diagram of a distribution of an imaging lens group sub-area in an imaging device according to an embodiment of the present invention
  • FIG. 12 is a schematic flowchart of an imaging method according to an embodiment of the present invention
  • FIG. 13 is a schematic diagram of an imaging adjustment method according to an embodiment of the present invention.
  • FIG. 14 is a schematic diagram of an imaging device and an imaging receiver acquired on an object side in an embodiment of the present invention
  • FIG. 15 is a schematic diagram of projection of a screen obtained on an imaging lens group according to an embodiment of the present invention
  • 17a-c are schematic views of an object imaged by a set of lens groups in the prior art. detailed description
  • An embodiment of the present invention provides an imaging analysis apparatus 110, including:
  • the information processing module 111 is configured to receive positional depth information of the imaging lens group and/or the imaging receiver relative to the object, obtain imaging parameters corresponding to the imaging lens group according to the position depth information, and send the obtained imaging parameters.
  • the imaging parameters corresponding to the imaging lens group may be, for example, imaging parameters of respective portions of the projection area of the object on the imaging lens group obtained according to the geometrical optics and the triangular relationship.
  • position depth information of an imaging lens group and/or an imaging receiver is acquired on an object side, and corresponding imaging parameters on the imaging lens group are obtained according to the information, and the obtained imaging parameters are sent to the imaging device.
  • the imaging receiver 200 is an eye of a user
  • the imaging lens group 121 is glasses (the glasses here are in addition to common glasses, It is also possible to use lenses such as helmet eyepieces, optical devices such as front windshields.
  • the imaging receiver may also be an imaging recording device such as a camera or a camera, and the imaging lens group is the imaging recording device lens. The lens on it.
  • the object 300 is a screen of a display device such as a computer, a television, a projector, or the like.
  • a display device such as a computer, a television, a projector, or the like.
  • the object may also be other objects.
  • the information processing module 111 is on the same side as the imaging device 120, and may be, for example, a processing module disposed on the glasses. In this In other possible implementation manners of the embodiments of the present invention, the information processing module 111 may also be disposed on the object 300 side, for example, on the screen side (for example, may be directly embedded in the display device or set as an external device). In the vicinity of the display device); can also be set in other locations, for example, can be set in a computer device, and the like.
  • the device further includes a position sensing module 112, configured to acquire the imaging lens group 121 and/or the imaging receiver 200.
  • the position depth information with respect to the object 300 is transmitted to the information processing module 111.
  • the position sensing module 112 is a depth sensor for acquiring position depth information of the imaging lens group 121 and/or the imaging receiver 200 on the object side.
  • the depth sensor may acquire a depth map of the glasses, a depth map of the human eye, or a depth map of the glasses and the human eye on the screen side, where the depth map includes position and depth information.
  • the position sensing module may be, for example, an optical sensor (such as a camera) for acquiring image information of the imaging lens group and/or the imaging receiver on the object side.
  • an image of the glasses, an image of the human eye, or an image of the glasses and the human eye are acquired on the screen side (as shown in Fig. 3).
  • the position and depth information of the corresponding points on the image can be derived from the deformed image and the known image shape information. For example, the normal lay length value between the left and right human eyes is known, and the image can be obtained by obtaining the pupil distance value on the deformed image. Location and depth information for each point.
  • the positional depth information of the imaging lens group 121 and/or the imaging receiver 200 received by the information processing module 111 from the display device comes from a positional position of the display device.
  • the sensing module 112 is, for example, a camera built in the display device, or may be, for example, a gaming device peripheral Kinect having functions such as instant dynamic capturing, image recognition, etc., that is, the position sensing may not be included in the imaging analyzing device. Module 112.
  • the information processing module 111 includes:
  • the position depth information calculation unit 111a is configured to obtain position depth information of the object 300 with respect to the imaging lens group 121 according to the position depth information of the imaging lens group 121 and/or the imaging receiver 200 with respect to the object 300;
  • the correcting unit 111b is configured to determine imaging parameters of the imaging lens group 121 according to position depth information of the object 300 with respect to the imaging lens group 121.
  • the position depth information calculation unit calculates a depth map 300a of the screen that should be obtained on the glasses side according to the depth map of the glasses and/or the human eye obtained by the depth sensor (as shown in FIG. 5 Show).
  • the position sensing module 112 when the position sensing module 112 is an optical sensor, the depth of the glasses and/or the position of the human eye relative to the screen may be inverted according to the acquired image of the glasses and/or the human eye. Information, and then calculate the depth information of the position of the screen relative to the glasses.
  • the imaging parameters of the corresponding regions on the imaging lens group 121 can be determined by the position depth information of the object 300 with respect to the imaging lens group 121.
  • the position depth information of a certain point on the screen relative to the spectacle lens is known.
  • the position of the virtual image of the desired screen can be obtained, and the distance between the glasses and the eye can be obtained by measurement or estimation, then according to geometric optics.
  • the imaging parameters of the region of the imaging lens group 121 corresponding to the object 300 are calculated.
  • the information processing module 111 further includes:
  • the refractive correction unit 111c is configured to generate an imaging parameter of the imaging lens group 121 corresponding to the refractive error when the imaging receiver 200 has refractive error.
  • the refractive error problem can be alleviated or solved by the refractive correction unit 111c.
  • the most suitable imaging parameter can be found by interacting with the user; or the refractive error information of the imaging receiver 200 known by the user can be obtained to obtain the corresponding imaging parameter.
  • the refractive error correction unit 111c can receive the refractive error information of the imaging receiver 200 sent from the imaging device 120 side to determine whether the imaging receiver 200 exists. Refractive error.
  • FIG. 6 is a schematic diagram of an imaging analysis method according to an embodiment of the present invention, including:
  • S110 Receive positional depth information of the imaging lens group and/or the imaging receiver relative to the object
  • S120 Obtain an imaging parameter corresponding to the imaging lens group according to the position depth information
  • the position depth information of the imaging lens group and/or the imaging receiver relative to the object is: the imaging lens group and/or imaging acquired on the object side.
  • the location depth information of the receiver is: the imaging lens group and/or imaging acquired on the object side.
  • the position depth information of the imaging lens group and/or the imaging receiver relative to the object is: the imaging lens group acquired on the object side and/or Imaging the image information of the recipient.
  • the step of obtaining imaging parameters corresponding to the imaging lens group according to the position depth information includes:
  • S121 obtaining position depth information of the object relative to the imaging lens group according to the positional depth information of the imaging lens group and/or the imaging receiver with respect to the object;
  • S122 Determine imaging parameters of the imaging lens group according to position depth information of the object with respect to the imaging lens group.
  • the method further includes: receiving refractive error information of the imaging receiver;
  • FIG. 8 is a schematic structural diagram of another information processing module 800 according to an embodiment of the present invention.
  • the specific embodiment of the present invention does not limit the specific implementation of the information processing module 800.
  • the information processing module 800 can include:
  • Processor 810 communication interface 820, memory
  • (memory) 830 and a communication bus 840. among them:
  • the processor 810, the communication interface 820, and the memory 830 complete each other through the communication bus 840. Communication between.
  • the communication interface 820 is configured to perform network element communication.
  • the processor 810 is configured to execute the program 832, and specifically, the related steps in the method embodiment shown in FIG. 7 above may be performed.
  • the program 832 may include program code, including the computer operation, the processor 810 may be a central processing unit CPU, or an application specific integrated circuit (ASIC), or configured to implement the present invention.
  • the processor 810 may be a central processing unit CPU, or an application specific integrated circuit (ASIC), or configured to implement the present invention.
  • ASIC application specific integrated circuit
  • the memory 830 is configured to store the program 832.
  • Memory 830 may include high speed RAM memory and may also include non-volatile memory, such as at least one disk memory.
  • the program 832 may specifically cause the information processing module to perform the following steps:
  • Position depth information of the object relative to the imaging lens group is obtained according to the positional depth information of the imaging lens group and/or the imaging receiver with respect to the object;
  • An imaging parameter of the imaging lens group is determined based on position depth information of the object with respect to the imaging lens group.
  • an imaging device 120 is disclosed in a possible implementation manner of an embodiment of the present invention, including:
  • the imaging lens group 121 is configured to image the object, and includes a plurality of sub-regions 121c with adjustable imaging characteristics.
  • the plurality of sub-regions 121c with adjustable imaging characteristics may be physically independent sub-regions, or may be a sub-region obtained by logically dividing the physical part into a whole; a lens adjustment module 122 for receiving the imaging lens group 121 output by the imaging analysis device 110
  • the imaging parameters determine the sub-region 121c corresponding to the imaging parameter and perform adjustment of the imaging characteristics of the sub-region 121c.
  • the imaging lens group includes at least two lenses, and at least one of the at least two lenses respectively has an image forming characteristic that is corresponding to each of the sub-regions. .
  • the imaging adjustment device 121 will be mainly described as an example of glasses.
  • the imaging lens group 121 includes a first lens 121a close to the object and a second lens 121b away from the object, and the first lens 121a and the second lens 121b are respectively associated with each
  • the partial imaging characteristics corresponding to the sub-region 121c are adjustable.
  • the imaging characteristic includes: a focal length.
  • the adjustment of the focal length of each sub-region 121c may be: 1) adjusting the focal length of the sub-region 121c by adjusting the curvature of at least one side of each sub-region 121c, for example, adding a cavity formed by a double-layer transparent layer. Or reducing the liquid medium to adjust the curvature of the sub-region 121c.
  • the imaging correction information described above may be, for example, a liquid medium corresponding to a portion of the sub-region 121c is reduced or increased by a certain value; 2) by changing the sub-region The refractive index of 121c adjusts the focal length of the sub-region 121c.
  • each sub-region 121c is filled with a specific liquid crystal medium, and the arrangement of the liquid crystal medium is adjusted by adjusting the voltage of the corresponding electrode of the liquid crystal medium, thereby changing the refractive index of the sub-region 121c.
  • the imaging correction information described above may be, for example, the electrode voltage of a corresponding portion of a certain sub-region 121c is increased or decreased by a certain value.
  • the imaging characteristic further includes: a relative position between the lenses.
  • the relative position between the lenses can be changed by adjusting the relative distance s between the lenses in the optical axis direction, and/or the relative position of the vertical optical axis direction, and/or the relative rotational angle about the optical axis.
  • the relative position between the lenses can be changed by adjusting the relative distance s between the lenses in the optical axis direction, and/or the relative position of the vertical optical axis direction, and/or the relative rotational angle about the optical axis.
  • the surface of the lens corresponding sub-region 121c may be adjusted to a cylindrical surface to correct astigmatism;
  • the lens may correspond to the surface of the sub-area 121c.
  • the first lens 121a of the imaging lens group is disposed to be adjustable in curvature toward a side of the object 300
  • the second lens 121b is disposed to be adjustable in curvature toward a side of the user's eye.
  • the positions of the first lens 121a and the second lens 121b are fixedly arranged, which makes the structure of the wearable device simple, light, and portable.
  • the plurality of sub-regions 121c with adjustable imaging characteristics are distributed in an array.
  • the imaging plane of the imaging lens group is mesh-divided to obtain the plurality of sub-regions 121c.
  • the size of the plurality of sub-regions 121c may be uniform or different. Generally, the finer the division of the sub-regions 121c, the higher the accuracy of the adjustment.
  • each sub-region 121c has the same size and row-column alignment; in other embodiments, each sub-region 121c may also be arranged in a staggered arrangement.
  • the plurality of imaging characteristic adjustable sub-regions 121c are radiated concentric circles (a number of concentric circles 121d and a plurality of adjacent concentric circles 121d radially connected)
  • the radiation line 121e constitutes an array distribution.
  • the radiating lines 121e of the radiating concentric circles are arranged in alignment, and in other embodiments, the radiating lines 121e between each adjacent two concentric circles 121d may also be arranged out of alignment.
  • the imaging lens group 121 in which two different sub-regions are distributed is placed in the same pair of glasses for the purpose of description.
  • the sons of the two left and right imaging lens groups 121 of a pair of glasses are generally used.
  • the distribution of regions 121c is the same or similar.
  • sub-regions 121c may be distributed in other manners or non-arrays in addition to the rectangular array and the radiant concentric array described above.
  • the sub-region 121c corresponding to the projection may be obtained according to the projection position of the object on the imaging lens group 121, and the same projection is different according to the distribution of the sub-region 121c.
  • Different sub-regions 121c may be corresponding.
  • the same projection respectively corresponds to the imaging lens group 121 on the left and right sides of the imaging device 120 shown in FIG. 11, The corresponding sub-region 121c obtained will be different.
  • the user can obtain an image of the object adjustment (as shown by 300b in Fig. 1), and correct the perspective distortion of the object.
  • the imaging device 120 further includes:
  • the ametropy detecting module 123 is configured to detect whether the imaging receiver 200 has ametropia, and generate ametropia information of the imaging receiver 200 when present and send it to the imaging analyzing device 110 in the embodiment.
  • the lens adjustment module 122 adjusts the imaging characteristics of the imaging lens group 121 according to the imaging parameters of the imaging lens group 121 corresponding to the refractive error returned by the imaging analysis device 110, and corrects the refractive error existing in the user's eyes, thereby further improving the user.
  • a possible implementation manner of an embodiment of the present invention discloses an imaging method, including:
  • S210 Receive an imaging parameter of an imaging lens group output by an imaging analysis method; the imaging lens group is configured to image an object, and include a plurality of sub-regions with adjustable imaging characteristics;
  • S220 Determine a sub-region corresponding to the imaging parameter and perform adjustment of an imaging characteristic of the sub-region.
  • the imaging lens group includes at least two lenses, and at least one of the at least two lenses is respectively imaged with a corresponding portion of each of the sub-regions.
  • Features are adjustable.
  • the imaging characteristic comprises: a focal length.
  • the imaging characteristic further comprises: a relative position between the lenses.
  • the plurality of sub-regions with adjustable imaging characteristics are distributed in an array.
  • the plurality of sub-regions with adjustable imaging characteristics are distributed in a rectangular array.
  • the plurality of sub-regions with adjustable imaging characteristics are distributed in a radial concentric array.
  • the method further comprises: detecting whether the imaging receiver has ametropia, and generating a refractive error information of the imaging receiver when present and transmitting.
  • an imaging adjustment apparatus comprising the imaging analysis apparatus and the imaging apparatus described above.
  • the imaging analysis device and the imaging device are integrated, for example both as part of a glasses device.
  • an imaging adjustment device may include an imaging analysis device and a plurality of imaging devices. That is, for example, when there are multiple imaging receivers simultaneously viewing an object (such as multiple people watching the screen at the same time), one imaging analysis device acquires a depth map or image of a plurality of imaging receivers and/or imaging devices, thereby obtaining each imaging receiver.
  • And/or position depth information of the imaging device relative to the object and then processing the position depth information by the information processing module, respectively, obtaining imaging parameters corresponding to the imaging lens group of each position depth information, and transmitting the imaging parameters to the corresponding imaging device (may be Sending in a one-to-one manner, or transmitting the imaging parameters of all the imaging lens groups together, and then identifying the imaging parameters corresponding to them by the imaging device side; the imaging device then performs adjustment of the imaging lens group according to the corresponding imaging parameters, so that multiple The image receiving receiver can obtain images of objects that are not deformed or deformed at different viewing angles.
  • an imaging adjustment method is provided, including the imaging analysis method and the imaging method described above, specifically:
  • a sub-region corresponding to the imaging parameter is determined and an adjustment of imaging characteristics is performed on the sub-region.
  • the specific implementation manners of the respective steps are respectively described in the foregoing method embodiments, and are not described herein again.
  • the sequence number of each step does not mean the order of execution sequence, and the execution order of each step should be determined by its function and internal logic, and should not be
  • the implementation of the specific embodiments of the invention constitutes any limitation.
  • FIG. 13 the following is further illustrated by the user viewing the screen 620 through the smart glasses device 610 (ie, the imaging receiver is the viewer's eyes, the imaging adjustment device is the smart glasses device 610, and the object is the screen 620 displaying the image).
  • An embodiment of an embodiment of the apparatus and method of the present invention is illustrated:
  • the viewer's offset position and distance can be obtained by the depth or image sensor and the known screen size, the depth or image sensor position, the focal length, the pixel, etc., due to the viewing position being misaligned (for the prior art)
  • the depth or image sensor located on the screen 620 captures a schematic view of a viewer wearing the smart glasses device 610 in real time, and the viewer is shown in FIG. 13 and FIG. 14 .
  • the distance from the left eye 700 to the center of the screen ⁇ , the distance from the left eye 700 to the screen can be obtained by depth map conversion, or by an image sensor such as a monocular or binocular camera by known pitch conversion or trigonometric calculation.
  • the corresponding screen deformation can be obtained by trigonometric calculation and the display area 621 of the deformed screen 620 is in the viewer's left eye 700.
  • the projection 622 on the lens of the smart glasses device 610 as shown in FIG.
  • Point a and point b on the smart glasses device 610 in FIG. 15 are point A and point B on the screen 620 to the eye lens and the imaging lens group 611 on the left side of the smart glasses device 610 (ie, the left lens).
  • the intersection point then calculate the required number of m for each sub-region 61 la covered by the projection 622, and finally overlay the calculation result to the entire spectacle lens by a classical extrapolation algorithm to achieve a smooth transition effect.
  • a similar method can be used to obtain the corresponding correction parameters for the imaging lens group 612 (ie, the right lens) on the right side of the smart glasses device 610. If the degree of correction is large, it is also necessary to adjust the optical axis 650 of the lenses of the two lens sub-regions.
  • the parameters are such as to maintain the parallax of the left and right eyes before and after correction.
  • the size of the virtual image 630 and the actual object 640 are respectively the virtual image distance, d. ⁇ and d. , min is the farthest and closest distance in the actual object depth map, such as the depth of point A and point B in Fig. 15, s is the first lens 661 close to the actual object 640 and the second lens 662 near the viewer's eye The distance of the sub-area.
  • d f is the distance from the real image 670 to the first lens 661 (the size of the real image 670 in FIG. 16), d.
  • the correction information generating unit can finally calculate the imaging lens group in the sub-area by the formulas (1) and (2).
  • the corrected imaging parameters that is, the focal length values of the focal length values of the second lens 662 and the first lens 661 /: and /. :
  • Ad d.
  • ⁇ ( ⁇ — s) is the distance between the actual object 6 4 0 and the corresponding virtual image 630, d, which can be calculated by the formula (1) and is constant for the entire screen.
  • the focal length value of the second lens 662 and the first lens 661 can be calculated by applying the formula (3) to each sub-region, and the focal lengths of the corresponding sub-regions of the first lens 661 and the second lens 662 are obtained by the lens adjustment module. Make adjustments to correct the deformation of the screen.
  • the method and apparatus of the present invention can correct the image deformation problem caused by the object, and improve the user experience.
  • the functions, if implemented in the form of software functional units and sold or used as separate products, may be stored in a computer readable storage medium.
  • the technical solution of the present invention which is essential or contributes to the prior art, or a part of the technical solution, may be embodied in the form of a software product, which is stored in a storage medium, including
  • the instructions are used to cause a computer device (which may be a personal computer, server, or network device, etc.) to perform all or part of the steps of the methods described in various embodiments of the present invention.
  • the foregoing storage medium includes: a U disk, a removable hard disk, a read-only memory (ROM), a random access memory (RAM), a magnetic disk or an optical disk, and the like, which can store program code. .

Landscapes

  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • General Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Otolaryngology (AREA)
  • Studio Devices (AREA)
  • Eyeglasses (AREA)
  • Lenses (AREA)

Abstract

一种成像分析装置(110)、成像装置(120)、成像调整设备及方法。成像分析装置包括:信息处理模块(111),用于接收成像透镜组(121)和/或成像接收方(200)相对于对象(300)的位置深度信息,根据位置深度信息得到成像透镜组对应的成像参数,并发送该成像参数。成像装置包括:成像透镜组,用于对对象成像,包括多个成像特性可调的子区域(121c);透镜调整模块(122),用于接收成像分析装置输出的成像透镜组的成像参数,确定与该成像参数对应的子区域并对该子区域进行成像特性的调节。通过由各子区域成像参数单独可调的成像透镜对对象进行成像,可以对对象发生的透视变形进行调整校正,避免用户获取的对象的图像发生透视变形。

Description

成像调整设备及成像调整方法 本申请要求于 2013 年 6 月 28 日提交中国专利局、 申请号为 201310265538.0、 发明名称为 "成像调整设备及方法" 的中国专利申请的优先 权, 其全部内容通过引用结合在本申请中。
技术领域
本发明涉及成像技术领域, 尤其涉及一种成像调整设备及方法。
背景技术
伽利略式望远镜通过一片凸透镜 1010和一片凹透镜 1020可以将观察对 象 1030形成正立虛像 1030a并改变虛像到眼睛的夹角, 形成沿光轴 1040拉 近或推远观察对象的视觉效果。 通过调整两片透镜的焦距以及之间的距离, 可以改变放大倍数及对焦, 如图 17a-17c所示。
固定焦距的透镜已经在眼镜、 望远镜、 相机、 显微镜等光学设备中广泛 应用, 通过组合不同焦距的透镜并调整透镜之间的距离, 透镜组可以动态调 整焦距。 此外, 如公开号为 US4572616A和 US20070211207A1的美国专利申 请以及光学快讯 2004年第 12卷第 11期第 2494-2500页, 名称为 "可调微透 镜阵歹1 J " ( "Tunable microdoublet lens array", Optics Express, Vol. 12, Issue 11, pp.
2494-2500 (2004) ) 的论文所记载的电子可调焦距的新型透镜所示, 单片透镜 的焦距也可以动态调整。
穿戴式设备逐渐被大众所接受, 例如谷歌眼镜、 智能手表等, 这些电子 化智能设备将为人们的生活带来更多便利。
在用户观看或者记录对象的图像时, 有可能会因为没有正对对象, 使得 接收到的对象的图像相对于对象的原图像发生透视变形。 如果可以在成像时 直接通过成像透镜对上述透视变形进行调整, 则可以直接得到对象没有透视 变形或透视变形程度较低的图像, 大大提高用户体验。 发明内容
本发明要解决的技术问题是: 提供一种成像调整设备及方法, 以在成像 时解决或减轻对象的透视变形问题。
为实现上述目的, 第一方面, 本发明提供了一种成像分析装置, 包括: 一信息处理模块, 用于接收一成像透镜组和 /或一成像接收方相对于一对 象的一位置深度信息, 根据所述位置深度信息得到成像透镜组对应的成像参 数, 并发送所述得到的成像参数。
第二方面, 本发明提供了一种成像装置, 包括:
一成像透镜组, 用于对一对象成像, 包括多个至少一成像特性可调的子 区域;
一透镜调整模块, 用于接收一成像分析装置输出的所述成像透镜组的成 像参数, 确定与所述成像参数对应的子区域并对所述子区域进行成像特性的 调节。
第三方面, 本发明提供了一种成像调整设备, 包括上面所述的成像分析 装置和成像装置。
第四方面, 本发明提供了一种成像分析方法, 包括:
接收一成像透镜组和 /或一成像接收方相对于对象的位置深度信息; 根据所述位置深度信息得到成像透镜组对应的成像参数;
发送所述得到的成像参数。
第五方面, 本发明提供了一种成像方法, 包括:
接收一成像分析方法输出的所述成像透镜组的至少一成像参数; 所述成 像透镜组用于对一对象成像, 包括多个至少一成像特性可调的子区域;
确定与所述成像参数对应的子区域并对所述子区域进行成像特性的调节。 第六方面, 本发明提供了一种成像调整方法, 包括上面所述的成像分析 方法和成像方法。
本发明实施例的上述技术方案通过每个子区域成像参数可调的成像透镜 来对对象进行成像, 可以单独对每个子区域进行成像参数调节, 以对对象发 生的透视变形进行调整校正, 避免用户获取的对象的图像发生透视变形, 以 提高用户体验, 本发明尤其适用于多个用户在角度不佳的位置通过屏幕观看 节目的情况; 此外, 本发明实施例的方法及装置同时还可以通过调节每个子 区域的成像参数来缓解用户眼睛存在的屈光不正问题。
附图说明
图 1为本发明实施例的一种成像分析装置的应用示意图;
图 2为本发明实施例的一种成像分析装置的结构示意框图;
图 3 为本发明实施例的一种成像分析装置获得的成像接收方和成像装置 的图像的示意图;
图 4为本发明实施例的一种信息处理模块的结构示意框图;
图 5 为本发明实施例的一种成像分析装置得到的在眼镜侧应该得到的屏 幕的深度图示意图;
图 6为本发明实施例的一种成像分析方法的流程示意图;
图 7为本发明实施例的一种成像分析方法的步骤的流程示意图;
图 8为本发明实施例的另一种成像分析装置中信息处理模块的结构框图; 图 9a为本发明实施例的一种成像装置的结构示意框图;
图 9b为本发明实施例的另一种成像装置的结构示意框图;
图 10为本发明实施例的一种成像装置的结构示意图;
图 11为本发明实施例的一种成像装置中成像透镜组子区域分布的示意图; 图 12为本发明实施例的一种成像方法的流程示意图;
图 13为本发明实施例的一种成像调整方法的示意图;
图 14为本发明实施例中在对象侧获取的成像装置和成像接收方的示意图; 图 15为本发明实施例中得到的屏幕在成像透镜组上的投影的示意图; 图 16为本发明实施例中根据对象、 成像透镜组以及成像接收方的位置得 到成像参数的示意图;
图 17a-c为现有技术中通过一组透镜组对物体进行成像的示意图。 具体实施方式
本发明的方法及装置结合附图及实施例详细说明如下。
本发明实施例提供了一种成像分析装置 110, 包括:
信息处理模块 111 , 用于接收成像透镜组和 /或成像接收方相对于对象的 位置深度信息, 根据所述位置深度信息得到成像透镜组对应的成像参数, 并 发送所述得到的成像参数。
在本发明实施例的一种实施方式中, 所述成像透镜组对应的成像参数例 如可以为根据几何光学和三角关系得到的对象在成像透镜组上的投影区域各 部分的成像参数。
本发明实施例的实施方式中, 在对象侧获取成像透镜组和 /或成像接收方 的位置深度信息, 根据该信息得到成像透镜组上对应的成像参数, 并将该得 到成像参数发送到成像设备上, 以供其调整成像透镜组上对应位置的成像参 数, 以对由于未对正对象而得到的透视变形的成像进行矫正, 使用户得到对 象矫正后的成像, 提高用户体验。 如图 1 所示, 在本发明实施例的一种可能的实施方式中, 所述成像接收 方 200为用户的眼睛, 所述成像透镜组 121为眼镜 (这里的眼镜除了常见的 眼镜之外, 也有可能为例如头盔目镜、驾驶前挡风玻璃等光学设备)的镜片。 当然, 本领域的技术人员可以知道, 在本发明实施例的其它实施方式中, 所 述成像接收方还可以为例如摄像机、 照相机等成像记录设备、 所述成像透镜 组为所述成像记录设备镜头上的镜片。
在本发明实施例的一种可能的实施方式中, 所述对象 300为如电脑、 电 视、 投影仪等显示设备的屏幕。 当然, 在本发明实施例的其它实施方式中, 所述对象还可以为其它物体。
在本发明实施例的一种可能的实施方式中, 所述信息处理模块 111 与所 述成像装置 120在同一侧, 例如可以为设置在眼镜上的一个处理模块。 在本 发明实施例的其它可能的实施方式中, 所述信息处理模块 111 还可以为设置 在对象 300侧, 例如是设置在屏幕侧 (例如可以是直接内嵌在显示设备中或 作为一个外置设备设置在显示设备附近); 还可以为设置在其它位置, 例如可 以为设置在电脑设备中等等。
在本发明实施例的一种可能的实施方式中, 如图 1和图 2所示, 所述装 置还包括位置传感模块 112 , 用于获取所述成像透镜组 121 和 /或成像接收方 200相对于对象 300的位置深度信息, 并向所述信息处理模块 111发送。
在本实施方式中, 优选地, 所述位置传感模块 112 为深度传感器, 用于 在对象侧获取所述成像透镜组 121和 /或成像接收方 200的位置深度信息。 在 本实施例中, 所述深度传感器可以在屏幕侧获取眼镜的深度图、 人眼的深度 图或眼镜和人眼的深度图, 该深度图中包括位置和深度信息。
在本发明实施例其它可能的实施方式中, 所述位置传感模块例如可以为: 光学传感器(如摄像头),用于在对象侧获取所述成像透镜组和 /或成像接收方 的图像信息。 例如在屏幕侧获取眼镜的图像、 人眼的图像、 或眼镜和人眼的 图像(如图 3所示)。 可以从变形图像和已知图像形状信息中推导得到图像上 对应的各点的位置和深度信息, 例如已知左右人眼之间正常瞳距值, 通过变 形图像上获得瞳距值可以得到图像上各点对应的位置和深度信息。
在本发明实施例的其它可能的实施方式中, 所述信息处理模块 111 接收 的成像透镜组 121和 /或成像接收方 200相对于对象的位置深度信息来自显示 设备自带或外置的位置传感模块 112 , 例如为显示设备上内置的摄像头、 或者 还可以为例如具有即时动态捕捉、影像辨识等功能的游戏设备外设 Kinect等, 即所述成像分析装置中可以不包括所述位置传感模块 112。
如图 4所示, 优选地, 在本发明实施例的一种可能的实施方式中, 所述 信息处理模块 111包括:
位置深度信息计算单元 111a, 用于根据所述成像透镜组 121和 /或成像接 收方 200相对于对象 300的位置深度信息得到对象 300相对于成像透镜组 121 的位置深度信息; 矫正单元 111b, 用于根据所述对象 300相对于成像透镜组 121的位置深 度信息确定所述成像透镜组 121的成像参数。
例如, 在本实施方式中, 所述位置深度信息计算单元根据所述深度传感 器获得的眼镜和 /或人眼的深度图, 计算得到在眼镜侧应该得到的屏幕的深度 图 300a (如图 5所示)。
在本发明实施例的其它实施方式中, 当所述位置传感模块 112 为光学传 感器时, 可以根据获取的眼镜和 /或人眼的图像推倒出眼镜和 /或人眼相对于屏 幕的位置深度信息, 再计算得到屏幕相对于眼镜的位置深度信息。
在本实施方式中, 通过对象 300相对于成像透镜组 121 的位置深度信息 可以确定成像透镜组 121 上对应区域的成像参数。 例如已知屏幕上某一点相 对于眼镜镜片的位置深度信息, 根据所述位置深度信息可以得到期望的屏幕 的虛像的位置, 又眼镜与眼睛的距离可以通过测量或估算获得, 那么根据几 何光学可以计算得到成像透镜组 121与对象 300对应的区域的成像参数。
由于成像接收方 200有可能是人眼, 人眼可能在存在远视、 近视和 /或散 光等屈光不正问题, 因此在本发明实施例的一种可能的实施方式中, 如图 4 所示, 所述信息处理模块 111还包括:
屈光矫正单元 111c, 用于在成像接收方 200存在屈光不正时生成与所述 屈光不正对应的、 成像透镜组 121的成像参数。 通过该屈光矫正单元 111c可 以缓解或解决所述屈光不正问题。在本实施例中,例如可以通过与用户交互, 找到最合适的成像参数; 或者还可以获得用户已知的成像接收方 200 的屈光 不正信息来得到对应的成像参数。
在本发明实施例的一种可能的实施方式中, 可以通过所述屈光矫正单元 111c接收成像装置 120侧发来的所述成像接收方 200的屈光不正信息来确定 成像接收方 200是否存在屈光不正。 如图 6所示为本发明实施例的一种成像分析方法, 包括:
S110: 接收成像透镜组和 /或成像接收方相对于对象的位置深度信息; S120: 根据所述位置深度信息得到成像透镜组对应的成像参数;
S130: 发送所述得到的成像参数。
优选地, 在本发明实施例一种可能的实施方式中, 所述成像透镜组和 /或 成像接收方相对于对象的位置深度信息为: 在对象侧获取的所述成像透镜组 和 /或成像接收方的位置深度信息。
优选地, 在本发明实施例另一种可能的实施方式中, 所述成像透镜组和 / 或成像接收方相对于对象的位置深度信息为: 在对象侧获取的所述成像透镜 组和 /或成像接收方的图像信息。
优选地, 在本发明实施例一种可能的实施方式中, 如图 7所示, 所述根 据所述位置深度信息得到成像透镜组对应的成像参数的步骤包括:
S121 : 根据所述成像透镜组和 /或成像接收方相对于对象的位置深度信息 得到对象相对于成像透镜组的位置深度信息;
S122: 根据所述对象相对于成像透镜组的位置深度信息确定所述成像透 镜组的成像参数。
优选地, 在本发明实施例一种可能的实施方式中, 所述方法还包括: 接收所述成像接收方的屈光不正信息;
在成像接收方存在屈光不正时生成与所述屈光不正对应的、 成像透镜组 本实施例中方法各步骤可以根据上面的成像分析装置的实施例得到的具 体实现方式, 在此不再赘述。 如图 8所示为本发明实施例提供的又一种信息处理模块 800的结构示意 图, 本发明具体实施例并不对信息处理模块 800 的具体实现做限定。 如图 8 所示, 该信息处理模块 800可以包括:
处理器 (processor)810、 通信接口(Communications Interface)820、 存储器
(memory)830、 以及通信总线 840。 其中:
处理器 810、 通信接口 820、 以及存储器 830通过通信总线 840完成相互 间的通信。
通信接口 820, 用于进行网元通信。
处理器 810, 用于执行程序 832, 具体可以执行上述图 7所示的方法实施 例中的相关步骤。
具体地, 程序 832 可以包括程序代码, 所述程序代码包括计算机操作指 处理器 810 可能是一个中央处理器 CPU, 或者是特定集成电路 ASIC ( Application Specific Integrated Circuit ) , 或者是被配置成实施本发明实施例 的一个或多个集成电路。
存储器 830,用于存放程序 832。存储器 830可能包含高速 RAM存储器, 也可能还包括非易失性存储器 (non-volatile memory ), 例如至少一个磁盘存 储器。 程序 832具体可以使得所述信息处理模块执行以下步骤:
根据所述成像透镜组和 /或成像接收方相对于对象的位置深度信息得到对 象相对于成像透镜组的位置深度信息;
根据所述对象相对于成像透镜组的位置深度信息确定所述成像透镜组的 成像参数。
程序 832 中各步骤的具体实现可以参见上面实施例中的相应步骤和单元 中对应的描述, 在此不再赘述。 所属领域的技术人员可以清楚地了解到, 为 描述的方便和简洁, 上述描述的设备和模块的具体工作过程, 可以参考前述 装置实施例中的对应过程描述, 在此不再赘述。 如图 9a所示, 在本发明实施例一种可能的实施方式中公布了一种成像装 置 120, 包括:
成像透镜组 121 ,用于对对象成像,包括多个成像特性可调的子区域 121c; 这里,所述多个成像特性可调的子区域 121c可以为物理上相互独立的子区域, 也可以是将物理实际为一个整体的部分进行逻辑上的划分得到的子区域; 透镜调整模块 122 ,用于接收成像分析装置 110输出的成像透镜组 121的 成像参数,确定与所述成像参数对应的子区域 121c并对所述子区域 121c进行 成像特性的调节。
在本发明实施例的一种可能的实施方式中, 所述成像透镜组包括至少两 片透镜, 所述至少两片透镜中至少一片透镜分别与每个所述子区域对应的部 分成像特性可调。
下面主要以所述成像调整装置 121为眼镜为例进行说明。
如图 10所示, 在本实施例中, 所述成像透镜组 121包括靠近对象的第一 透镜 121a和远离对象的第二透镜 121b, 所述第一透镜 121a和第二透镜 121b 分别与每个所述子区域 121c对应的部分成像特性可调。
在本发明实施例的一种可能的实施方式中, 所述成像特性包括: 焦距。 在本实施例中, 对每个子区域 121c焦距的调节可以为: 1 )通过调节每个子 区域 121c的至少一面的曲率来调节子区域 121c的焦距,例如在双层透明层构 成的空腔中增加或减少液体介质来调节子区域 121c 的曲率, 在这种情况下, 上面所述的成像校正信息例如可以为: 某个子区域 121c对应部分的液体介质 减少或增加一定值; 2 ) 通过改变子区域 121c的折射率来调节子区域 121c的 焦距, 例如每个子区域 121c中填充有特定液晶介质, 通过调节液晶介质对应 电极的电压来调整液晶介质的排列方式, 从而改变子区域 121c的折射率, 在 这种情况下, 上面所述的成像校正信息例如可以为: 某个子区域 121c对应部 分的电极电压增加或减少一定值。
在本发明实施例的一种可能的实施方式中, 除了上述的焦距外, 所述成 像特性还包括: 透镜之间的相对位置。 这里可以通过调节透镜之间沿光轴方 向的相对距离 s、 和 /或垂直光轴方向的相对位置、 和 /或绕光轴的相对转动角 度等改变透镜之间的相对位置。当然,也有可能只是透镜上与某些子区域 121c 对应部分的相对位置发生了改变, 其它部分不变。
在本发明实施例的一种可能的实施方式中, 为了对具有散光、 斜视等问 题的用户进行视力矫正, 还可以将透镜对应子区域 121c的表面调整成圆柱面 以对散光进行矫正; 对于斜视用户来说, 可以将透镜对应子区域 121c的表面 调整成棱柱面以对斜视进行矫正。
优选地, 如图 10所示, 将所述成像透镜组的第一透镜 121a设置成朝向 对象 300的一侧曲率可调, 将所述第二透镜 121b设置成朝向用户眼睛的一侧 曲率可调, 并且第一透镜 121a和第二透镜 121b的位置固定设置, 这样可以 使得穿戴式设备的结构简单、 轻薄便携。
优选地, 在本发明实施例的一种可能的实施方式中, 所述多个成像特性 可调的子区域 121c呈阵列分布。 优选地, 将成像透镜组的成像面进行网格状 分割得到所述多个子区域 121c。 所述多个子区域 121c的大小可以是一致的, 也可以是不同的,一般而言,子区域 121c的划分越精细,调节的精度会越高。
如图 11中成像装置 120左侧的成像透镜组 121所示, 在本发明实施例的 一种可能的实施方式中, 所述多个成像特性可调的子区域 121c呈矩形阵列分 布。 在本实施例中, 各子区域 121c的大小相同并且行列对齐设置; 在其它实 施例中, 各子区域 121c也可以是行列错开设置的。
如图 11中成像装置 120右侧的成像透镜组 121所示, 所述多个成像特性 可调的子区域 121c呈辐射同心圆 (由若干同心圆 121d以及径向连接相邻同 心圆 121d的若干辐射线 121e构成) 阵列分布。 在本实施例中, 所示辐射同 心圆的辐射线 121e对齐设置, 在其它实施例中, 每相邻两个同心圆 121d之 间的辐射线 121e也可以不对齐设置。
在本实施方式的图 11中为了描述需要, 将两种不同子区域分布的成像透 镜组 121 放在同一副眼镜中, 在实际应用时, 一般一副眼镜的左右两个成像 透镜组 121的子区域 121c分布是相同或相似的。
当然, 本领域的技术人员可以得知, 除了上述的矩形阵列和辐射同心圆 阵列以外, 所述子区域 121c还可以以其它方式的阵列或非阵列分布。
在本实施例中, 确定与所述成像参数对应的子区域 121c时, 根据对象在 成像透镜组 121上的投影位置可以得到投影对应的子区域 121c, 根据子区域 121c的分布不同, 同一个投影可以对应不同的子区域 121c。 例如, 同一个投 影分别对应到图 11所示的成像装置 120左侧和右侧的成像透镜组 121上时, 得到的对应的子区域 121c会不一样。
本实施例中, 经过调整后的成像透镜组 121 , 用户可以得到对象调整后的 图像(如图 1中的 300b所示), 矫正了对象的透视变形。
如图 9b所示, 在本发明实施例的一种可能的实施方式中, 所述成像装置 120还包括:
屈光不正检测模块 123 , 用于检测成像接收方 200是否存在屈光不正, 并 在存在时生成成像接收方 200的屈光不正信息并向所述成像分析装置 110发 在本实施例中, 所示透镜调整模块 122根据成像分析装置 110返回的与 屈光不正对应的成像透镜组 121 的成像参数对成像透镜组 121 的成像特性进 行调整, 对用户眼睛存在的屈光不正进行矫正, 进一步提高用户体验。 如图 12所示,本发明实施例的一种可能的实施方式公布了一种成像方法, 包括:
S210: 接收成像分析方法输出的成像透镜组的成像参数; 所述成像透镜 组用于对对象成像, 包括多个成像特性可调的子区域;
S220: 确定与所述成像参数对应的子区域并对所述子区域进行成像特性 的调节。
优选地, 在本发明实施例的一种可能的实施方式中, 所述成像透镜组包 括至少两片透镜, 所述至少两片透镜中至少一片透镜分别与每个所述子区域 对应部分的成像特性可调。
优选地,在本发明实施例的一种可能的实施方式中,所述成像特性包括: 焦距。
优选地, 在本发明实施例的一种可能的实施方式中, 所述成像特性还包 括: 透镜之间的相对位置。
优选地, 在本发明实施例的一种可能的实施方式中, 所述多个成像特性 可调的子区域呈阵列分布。 优选地, 在本发明实施例的一种可能的实施方式中, 所述多个成像特性 可调的子区域呈矩形阵列分布。
优选地, 在本发明实施例的另一种可能的实施方式中, 所述多个成像特 性可调的子区域呈辐射同心圆阵列分布。
优选地, 在本发明实施例的一种可能的实施方式中, 所述方法还包括: 检测成像接收方是否存在屈光不正, 在存在时生成成像接收方的屈光不 正信息并发送的步骤。
本实施例中方法各步骤可以根据上面的成像装置的实施例得到的具体实 现方式, 在此不再赘述。 本发明实施例的一种可能的实施方式中提供了一种成像调整设备, 包括 上面记载的成像分析装置和成像装置。
在本发明实施例的一种可能的实施方式中, 所述成像分析装置和成像装 置集成在一起, 例如都为眼镜设备的一部分。
在本发明实施例的另一种可能的实施方式中, 一个成像调整设备可能包 括一个成像分析装置和多个成像装置。 即, 例如有多个成像接收方同时观看 对象时 (如多人同时观看屏幕), 一个成像分析装置获取多个成像接收方和 / 或成像装置的深度图或图像, 进而得到每个成像接收方和 /或成像装置相对于 对象的位置深度信息, 再通过信息处理模块分别对这些位置深度信息处理后, 得到各位置深度信息对应成像透镜组的成像参数,发送到对应的成像装置(可 以是以一一对应的方式发送, 或者将所有成像透镜组的成像参数一起发送, 再由成像装置侧识别自身对应的成像参数); 成像装置再根据对应的成像参数 进行成像透镜组的调节, 使得多个成像接收方在不同的观看角度, 都能得到 不变形或变形较小的对象的图像。
所述成像分析装置和成像装置具体的结构分别见上面装置实施例中的描 述, 此处不再赘述。 本发明实施例的一种可能的实施方式中提供了一种成像调整方法, 包括 上面所述的成像分析方法和成像方法, 具体为:
接收成像透镜组和 /或成像接收方相对于对象的位置深度信息;
根据所述位置深度信息得到成像透镜组对应的成像参数;
确定与所述成像参数对应的子区域并对所述子区域进行成像特性的调节。 各步骤的具体实施方式分别见上面的方法实施例中的描述, 此处不再赘 述。
本领域技术人员可以理解, 在本发明具体实施方式的上述方法中, 各步骤 的序号大小并不意味着执行顺序的先后, 各步骤的执行顺序应以其功能和内 在逻辑确定, 而不应对本发明具体实施方式的实施过程构成任何限定。 如图 13所示,下面进一步以用户通过智能眼镜设备 610观看屏幕 620(即: 成像接收方为观看者的眼睛、 成像调整设备为智能眼镜设备 610、 对象为显示 图像的屏幕 620 )为例来说明本发明装置和方法实施例的实施方式:
当观看者由于观看位置不正时, 通过深度或图像传感器以及已知的屏幕 尺寸、 该深度或图像传感器位置、 焦距、 像素等参数可以得到所述观看者的 偏移位置及距离 (为现有技术, 本实施例中不再赘述), 如图 14所示为位于 屏幕 620上的深度或图像传感器实时捕获到一个观看者佩戴所述智能眼镜设 备 610的示意图,图 13和图 14中 为观看者左眼 700到屏幕中心 ο的距离, 左眼 700到屏幕的距离 可以通过深度图换算得到, 或者釆用单目或双目摄 像头等图像传感器通过已知瞳距换算或者三角几何计算得到。
根据所述观看者的位置 (观看者左眼到屏幕中心 0 的距离 和左眼到屏 幕 620的距离 可以通过三角几何计算得到对应的屏幕变形以及变形屏幕 620的显示区域 621在观看者左眼 700对应智能眼镜设备 610镜片上的投影 622, 如图 15所示。
所述图 15中智能眼镜设备 610上的点 a和点 b分别为屏幕 620上的点 A 和点 B到眼睛连线与智能眼镜设备 610上左侧的成像透镜组 611(即左侧镜片 ) 的交点, 然后对该投影 622覆盖到的各个子区域 61 la分别计算所需 m 数, 最后通过经典外插算法将计算结果覆盖到整个眼镜片以达到一个平滑过 渡的效果。 对所述智能眼镜设备 610右侧的成像透镜组 612 (即右侧镜片 )使 用类似方法可以得到对应的矫正参数, 如果矫正程度较大, 还需要调节两个 镜片各子区域透镜的光轴 650等参数以保持矫正前后左右眼视差不变。
如图 16所示, 由于屏幕 620上各点到智能眼镜设备 610的深度可以通过 上面的计算分析得到, 因此, 可以得到对于任意被投影所覆盖的成像透镜组 的子区域的矫正目标函数为:
hj = h。
, d。 max + d0 mjn (1)
d + s 其中 和 h。分别为虛像 630和实际对象 640 (本实施方式中即为屏幕)的 大小, 为虛像距离, d。^和 d。,min为实际对象深度图中最远和最近的距离, 例 如图 15中点 A和点 B的深度, s为靠近实际对象 640的第一透镜 661和靠近 观看者眼睛的第二透镜 662在该子区域的距离。
结合经典光学理论中的透镜成像公式可以得到公式 (2):
dr
Figure imgf000016_0001
其中 df为实像 670到第一透镜 661的距离(图 16中/^为实像 670的大小 ), d。为实际对象 640到所述第一透镜 661 之间的距离, Λ和 /。分别为第二透镜 662和第一透镜 661的焦距值。
由于该子区域第二透镜 662和第一透镜 661间距离 s可以根据眼镜机械结 构获得, 所述矫正信息生成单元最终可以由公式 (1)和 (2)计算得到成像透镜组 在该子区域的矫正后的成像参数, 即第二透镜 662和第一透镜 661 的焦距值 的焦距值/:和 /。:
Figure imgf000017_0001
其中 Ad = d。―(φ — s)为实际对象 640和对应虛像 630之间的距离, d,可 由公式 (1)计算得到, 且对于整个屏幕为一常数。
这样通过对每一子区域应用公式 (3)可以计算得到第二透镜 662和第一透 镜 661 的焦距值, 再通过透镜调整模块对所述第一透镜 661和第二透镜 662 对应子区域的焦距进行调节, 从而矫正屏幕的变形问题。
在图 16中仅示出了对象在高度方向变形的矫正, 对象在宽度方向的变形 也可以通过上述公式得到矫正。
综上所述, 通过本发明的方法和装置可以对未正对对象导致的图像变形 问题进行矫正, 改善用户体验。
本领域普通技术人员可以意识到, 结合本文中所公开的实施例描述的各 示例的单元及方法步骤, 能够以电子硬件、 或者计算机软件和电子硬件的结 合来实现。 这些功能究竟以硬件还是软件方式来执行, 取决于技术方案的特 定应用和设计约束条件。 专业技术人员可以对每个特定的应用来使用不同方 法来实现所描述的功能, 但是这种实现不应认为超出本发明的范围。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用 时, 可以存储在一个计算机可读取存储介质中。 基于这样的理解, 本发明的 技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可 以以软件产品的形式体现出来, 该计算机软件产品存储在一个存储介质中, 包括若干指令用以使得一台计算机设备(可以是个人计算机, 服务器, 或者 网络设备等) 执行本发明各个实施例所述方法的全部或部分步骤。 而前述的 存储介质包括: U盘、 移动硬盘、 只读存储器(ROM, Read-Only Memory )、 随机存取存储器(RAM, Random Access Memory ),磁碟或者光盘等各种可以 存储程序代码的介质。
以上实施方式仅用于说明本发明, 而并非对本发明的限制, 有关技术领 域的普通技术人员, 在不脱离本发明的精神和范围的情况下, 还可以做出各 种变化和变型, 因此所有等同的技术方案也属于本发明的范畴, 本发明的专 利保护范围应由权利要求限定。

Claims

权 利 要 求
11、、 一一种种成成像像分分析析装装置置,, 其其特特征征在在于于,, 包包括括::
一一信信息息处处理理模模块块,, 用用于于接接收收一一成成像像透透镜镜组组和和 //或或一一成成像像接接收收方方相相对对于于一一对对 象象的的一一位位置置深深度度信信息息,, 根根据据所所述述位位置置深深度度信信息息得得到到所所述述成成像像透透镜镜组组对对应应的的成成
55 像像参参数数,, 并并发发送送所所述述得得到到的的成成像像参参数数。。
22、、 如如权权利利要要求求 11所所述述的的装装置置,, 其其特特征征在在于于,, 所所述述装装置置还还包包括括:: 一一位位置置传传感感模模块块,, 用用于于获获取取所所述述成成像像透透镜镜组组和和 //或或成成像像接接收收方方相相对对于于所所述述 对对象象的的所所述述位位置置深深度度信信息息,, 并并向向所所述述信信息息处处理理模模块块发发送送。。
33、、 如如权权利利要要求求 22所所述述的的装装置置,, 其其特特征征在在于于,, 所所述述位位置置传传感感模模块块包包括括:: 1100 一一深深度度传传感感器器,, 用用于于在在所所述述对对象象侧侧获获取取所所述述成成像像透透镜镜组组和和 //或或成成像像接接收收方方 的的位位置置深深度度信信息息。。
44、、 如如权权利利要要求求 22所所述述的的装装置置,, 其其特特征征在在于于,, 所所述述位位置置传传感感模模块块包包括括:: 一一光光学学传传感感器器,, 用用于于在在所所述述对对象象侧侧获获取取所所述述成成像像透透镜镜组组和和 //或或成成像像接接收收方方 的的图图像像信信息息。。
1155 55、、 如如权权利利要要求求 11所所述述的的装装置置,, 其其特特征征在在于于,, 所所述述信信息息处处理理模模块块包包括括:: 一一位位置置深深度度信信息息计计算算单单元元,, 用用于于根根据据所所述述成成像像透透镜镜组组和和 //或或成成像像接接收收方方相相 对对于于所所述述对对象象的的所所述述位位置置深深度度信信息息得得到到所所述述对对象象相相对对于于所所述述成成像像透透镜镜组组的的一一 位位置置深深度度信信息息。。
66、、 如如权权利利要要求求 55所所述述的的装装置置,, 其其特特征征在在于于,, 所所述述信信息息处处理理模模块块包包括括:: 2200 一一矫矫正正单单元元,, 用用于于根根据据所所述述对对象象相相对对于于所所述述成成像像透透镜镜组组的的所所述述位位置置深深度度 信信息息确确定定所所述述成成像像透透镜镜组组的的成成像像参参数数。。
77、、 如如权权利利要要求求 11所所述述的的装装置置,, 其其特特征征在在于于,, 所所述述信信息息处处理理模模块块还还包包括括:: 一一屈屈光光矫矫正正单单元元,, 用用于于在在成成像像接接收收方方存存在在屈屈光光不不正正时时生生成成与与所所述述屈屈光光不不 正正对对应应的的、、 所所述述成成像像透透镜镜组组的的成成像像参参数数。。
2255 88、、 如如权权利利要要求求 77所所述述的的装装置置,, 其其特特征征在在于于,, 所所述述屈屈光光矫矫正正单单元元,, 还还用用于于
Figure imgf000019_0001
99、、 一一种种成成像像装装置置,, 其其特特征征在在于于,, 包包括括:: 一成像透镜组, 用于对一对象成像, 包括多个至少一成像特性可调的子 区域;
一透镜调整模块, 用于接收一成像分析装置输出的所述成像透镜组的成 像参数, 确定与所述成像参数对应的子区域并对所述子区域进行成像特性的 调节。
10、 如权利要求 9所述的装置, 其特征在于, 所述成像透镜组包括至少 两片透镜, 所述至少两片透镜中至少一片透镜分别与每个所述子区域对应部 分的成像特性可调。
11、 如权利要求 9所述的装置, 其特征在于, 所述成像特性包括: 焦距。 12、 如权利要求 11所述的装置, 其特征在于, 所述成像特性还包括: 所 述透镜之间的相对位置。
13、 如权利要求 9所述的装置, 其特征在于, 所述多个成像特性可调的 子区域呈阵列分布。
14、 如权利要求 13所述的装置, 其特征在于, 所述多个成像特性可调的 子区域呈矩形阵列分布。
15、 如权利要求 13所述的装置, 其特征在于, 所述多个成像特性可调的 子区域呈辐射同心圆阵列分布。
16、 如权利要求 9所述的装置, 其特征在于, 所述成像装置还包括: 一屈光不正检测模块, 用于检测一成像接收方是否存在屈光不正, 并在 存在时生成所述成像接收方的一屈光不正信息。
17、 如权利要求 16所述的装置, 其特征在于, 所述屈光不正检测模块, 还用于向所述成像分析装置发送所述成像接收方的所述屈光不正信息。
18、 如权利要求 9所述的装置, 其特征在于, 所述成像装置为眼镜。
19、 一种成像调整设备, 其特征在于, 包括权利要求 1 所述的成像分析 装置和权利要求 9所述的成像装置。
20、 一种成像分析方法, 其特征在于, 包括:
接收一成像透镜组和 /或一成像接收方相对于对象的位置深度信息; 根据所述位置深度信息得到成像透镜组对应的成像参数;
发送所述得到的成像参数。
21、 如权利要求 20所述的方法, 其特征在于, 所述成像透镜组和 /或成像 接收方相对于对象的位置深度信息为: 在对象侧获取的所述成像透镜组和 /或 成像接收方的位置深度信息。
22、 如权利要求 20所述的方法, 其特征在于, 所述成像透镜组和 /或成像 接收方相对于对象的位置深度信息为: 在对象侧获取的所述成像透镜组和 /或 成像接收方的图像信息。
23、 如权利要求 20所述的方法, 其特征在于, 所述根据所述位置深度信 息得到成像透镜组对应的成像参数的步骤包括:
根据所述成像透镜组和 /或成像接收方相对于所述对象的位置深度信息得 到所述对象相对于所述成像透镜组的位置深度信息;
根据所述对象相对于所述成像透镜组的位置深度信息确定所述成像透镜 24、 如权利要求 20所述的方法, 其特征在于, 所述方法还包括: 在成像接收方存在屈光不正时生成与所述屈光不正对应的、 所述成像透 镜组的成像参数。
25、 如权利要求 24所述的方法, 其特征在于, 在所述在成像接收方存在 屈光不正时生成与所述屈光不正对应的、 所述成像透镜组的成像参数的步骤 之前, 所述方法还包括:
接收所述成像接收方的一屈光不正信息。
26、 一种成像方法, 其特征在于, 包括:
接收一成像分析方法输出的所述成像透镜组的至少一成像参数; 所述成 像透镜组用于对一对象成像, 包括多个至少一成像特性可调的子区域;
确定与所述成像参数对应的子区域并对所述子区域进行成像特性的调节。
27、 如权利要求 26所述的方法, 其特征在于, 所述成像透镜组包括至少 两片透镜, 所述至少两片透镜中至少一片透镜分别与每个所述子区域对应部 分的成像特性可调。
28、如权利要求 27所述的方法,其特征在于,所述成像特性包括:焦距。
29、 如权利要求 28所述的方法, 其特征在于, 所述成像特性还包括: 所 述透镜之间的相对位置。
30、 如权利要求 26所述的方法, 其特征在于, 所述多个成像特性可调的 子区域呈阵列分布。
31、 如权利要求 30所述的方法, 其特征在于, 所述多个成像特性可调的 子区域呈矩形阵列分布。
32、 如权利要求 30所述的方法, 其特征在于, 所述多个成像特性可调的 子区域呈辐射同心圆阵列分布。
33、 如权利要求 26所述的方法, 其特征在于, 所述方法还包括: 检测一成像接收方是否存在屈光不正, 在存在时生成所述成像接收方的 一屈光不正信息并发送的步骤。
34、 一种成像调整方法, 其特征在于, 包括权利要求 20所述的成像分析 方法和权利要求 26所述的成像方法。
PCT/CN2013/088540 2013-06-28 2013-12-04 成像调整设备及成像调整方法 WO2014206013A1 (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/779,321 US10261345B2 (en) 2013-06-28 2013-12-04 Imaging adjustment device and imaging adjustment method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201310265538.0 2013-06-28
CN201310265538.0A CN103353667B (zh) 2013-06-28 2013-06-28 成像调整设备及方法

Publications (1)

Publication Number Publication Date
WO2014206013A1 true WO2014206013A1 (zh) 2014-12-31

Family

ID=49310053

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2013/088540 WO2014206013A1 (zh) 2013-06-28 2013-12-04 成像调整设备及成像调整方法

Country Status (3)

Country Link
US (1) US10261345B2 (zh)
CN (1) CN103353667B (zh)
WO (1) WO2014206013A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113055365A (zh) * 2021-03-05 2021-06-29 中国科学院国家天文台 光电望远镜远程观测引导方法和装置

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103353677B (zh) 2013-06-28 2015-03-11 北京智谷睿拓技术服务有限公司 成像装置及方法
CN103353667B (zh) * 2013-06-28 2015-10-21 北京智谷睿拓技术服务有限公司 成像调整设备及方法
CN103353663B (zh) 2013-06-28 2016-08-10 北京智谷睿拓技术服务有限公司 成像调整装置及方法
CN103431840B (zh) 2013-07-31 2016-01-20 北京智谷睿拓技术服务有限公司 眼睛光学参数检测系统及方法
CN103424891B (zh) 2013-07-31 2014-12-17 北京智谷睿拓技术服务有限公司 成像装置及方法
CN103439801B (zh) 2013-08-22 2016-10-26 北京智谷睿拓技术服务有限公司 视力保护成像装置及方法
CN103431980A (zh) 2013-08-22 2013-12-11 北京智谷睿拓技术服务有限公司 视力保护成像系统及方法
CN103500331B (zh) 2013-08-30 2017-11-10 北京智谷睿拓技术服务有限公司 提醒方法及装置
CN103605208B (zh) 2013-08-30 2016-09-28 北京智谷睿拓技术服务有限公司 内容投射系统及方法
CN103558909B (zh) 2013-10-10 2017-03-29 北京智谷睿拓技术服务有限公司 交互投射显示方法及交互投射显示系统
CN106161910B (zh) * 2015-03-24 2019-12-27 北京智谷睿拓技术服务有限公司 成像控制方法和装置、成像设备
CN106254804B (zh) * 2016-01-18 2019-03-29 北京智谷睿拓技术服务有限公司 光场显示控制方法和装置、光场显示设备
JP2019505843A (ja) 2016-01-22 2019-02-28 コーニング インコーポレイテッド 広視野パーソナル表示装置
CN105575263A (zh) * 2016-01-26 2016-05-11 上海斐讯数据通信技术有限公司 一种智能终端图像矫正装置及其矫正方法
CN108732750A (zh) * 2017-04-24 2018-11-02 中兴通讯股份有限公司 虚拟现实播放设备及其控制方法及计算机可读存储介质
US10976551B2 (en) 2017-08-30 2021-04-13 Corning Incorporated Wide field personal display device
CN109061883B (zh) * 2018-10-25 2020-12-04 杭州瞳创医疗科技有限公司 一种自动测量瞳距的头戴式显示设备和方法
CN109283701A (zh) * 2018-11-27 2019-01-29 四川长虹电器股份有限公司 一种基于智能眼镜的度数调节与管理系统及方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005058399A (ja) * 2003-08-11 2005-03-10 Nikon Corp ディスプレイ装置
CN101194198A (zh) * 2005-01-21 2008-06-04 庄臣及庄臣视力保护公司 具有可变焦距的自适应电激活透镜
CN101782685A (zh) * 2009-09-04 2010-07-21 上海交通大学 实时多角度立体视觉系统
CN201754203U (zh) * 2010-05-06 2011-03-02 徐晗 动态视角液晶眼镜
CN103353667A (zh) * 2013-06-28 2013-10-16 北京智谷睿拓技术服务有限公司 成像调整设备及方法

Family Cites Families (171)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4264154A (en) 1979-06-05 1981-04-28 Polaroid Corporation Apparatus for automatically controlling transmission of light through a lens system
US4572616A (en) * 1982-08-10 1986-02-25 Syracuse University Adaptive liquid crystal lens
US4973149A (en) 1987-08-19 1990-11-27 Center For Innovative Technology Eye movement detector
JP2676870B2 (ja) 1989-01-17 1997-11-17 キヤノン株式会社 注視点検出手段を有した光学装置
JP2920940B2 (ja) 1989-06-20 1999-07-19 キヤノン株式会社 視線検出手段を有した機器
US5182585A (en) 1991-09-26 1993-01-26 The Arizona Carbon Foil Company, Inc. Eyeglasses with controllable refracting power
JPH08564A (ja) 1994-06-17 1996-01-09 Nikon Corp 眼科装置
US6072443A (en) 1996-03-29 2000-06-06 Texas Instruments Incorporated Adaptive ocular projection display
JPH09289973A (ja) 1996-04-26 1997-11-11 Canon Inc 眼底カメラ
JPH1070742A (ja) 1996-08-29 1998-03-10 Olympus Optical Co Ltd 二眼式映像表示装置
JP3802630B2 (ja) 1996-12-28 2006-07-26 オリンパス株式会社 立体画像生成装置および立体画像生成方法
DE19704197A1 (de) 1997-02-05 1998-08-06 Zeiss Carl Jena Gmbh Anordnung zur subjektivem Refraktionsbestimmung und/oder zur Bestimmung anderer Sehfunktionen
US6152563A (en) 1998-02-20 2000-11-28 Hutchinson; Thomas E. Eye gaze direction tracker
JP3383228B2 (ja) 1998-11-09 2003-03-04 シャープ株式会社 ヘッドマウントディスプレイ装置
US6318857B1 (en) 1998-12-09 2001-11-20 Asahi Kogaku Kogyo Kabushiki Kaisha Variable power spectacles
US6619799B1 (en) * 1999-07-02 2003-09-16 E-Vision, Llc Optical lens system with electro-active lens having alterably different focal lengths
US6835179B2 (en) 2000-11-22 2004-12-28 Carl Zeiss Jena Gmbh Optical stimulation of the human eye
US6478425B2 (en) 2000-12-29 2002-11-12 Koninlijke Phillip Electronics N. V. System and method for automatically adjusting a lens power through gaze tracking
DE10103922A1 (de) 2001-01-30 2002-08-01 Physoptics Opto Electronic Gmb Interaktives Datensicht- und Bediensystem
US7352913B2 (en) 2001-06-12 2008-04-01 Silicon Optix Inc. System and method for correcting multiple axis displacement distortion
US7001020B2 (en) 2001-08-02 2006-02-21 Daphne Instruments, Inc. Complete autorefractor system in an ultra-compact package
CN1141602C (zh) 2001-08-14 2004-03-10 中国科学院长春光学精密机械与物理研究所 连续变焦菲涅耳微透镜阵列器件
JP4224260B2 (ja) 2002-02-18 2009-02-12 株式会社トプコン キャリブレーション装置、方法及び結果診断装置、並びにキャリブレーション用チャート
JP2005519684A (ja) 2002-03-13 2005-07-07 イー・ビジョン・エルエルシー 一体化構成部品を備えた電気光学レンズ
US20080106633A1 (en) 2002-03-13 2008-05-08 Blum Ronald D Electro-optic lens with integrated components for varying refractive properties
CN100553601C (zh) 2002-07-22 2009-10-28 林超群 动态式透镜视力训练装置
IL151592A (en) 2002-09-04 2008-06-05 Josef Bekerman Variable optical power spectacles for eyesight rehabilitation and methods for lens optical power control
US7393102B2 (en) 2003-01-16 2008-07-01 Hidenori Horie Eyesight improving device
US7298414B2 (en) 2003-01-29 2007-11-20 Hewlett-Packard Development Company, L.P. Digital camera autofocus using eye focus measurement
JP3844076B2 (ja) 2003-03-07 2006-11-08 セイコーエプソン株式会社 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
US20050003043A1 (en) 2003-07-03 2005-01-06 Vincent Sewalt Composition and method for reducing caking and proteinaceous products
JP4085034B2 (ja) 2003-07-17 2008-04-30 信越化学工業株式会社 化合物、高分子化合物、レジスト材料及びパターン形成方法
JP2005092175A (ja) 2003-08-08 2005-04-07 Olympus Corp 光学特性可変光学素子
JP4401727B2 (ja) 2003-09-30 2010-01-20 キヤノン株式会社 画像表示装置及び方法
US7702225B2 (en) 2004-01-02 2010-04-20 Vision Instruments Pty Ltd Devices to facilitate alignment and focusing of a fundus camera
JP2005208092A (ja) 2004-01-20 2005-08-04 Seiko Epson Corp プロジェクタ及びそれにおけるズーム調整方法
US9229540B2 (en) * 2004-01-30 2016-01-05 Electronic Scripting Products, Inc. Deriving input from six degrees of freedom interfaces
JP4604190B2 (ja) 2004-02-17 2010-12-22 国立大学法人静岡大学 距離イメージセンサを用いた視線検出装置
US7535649B2 (en) 2004-03-09 2009-05-19 Tang Yin S Motionless lens systems and methods
CN101069106A (zh) * 2004-03-31 2007-11-07 加利福尼亚大学校务委员会 流体自适应透镜
US20060016459A1 (en) 2004-05-12 2006-01-26 Mcfarlane Graham High rate etching using high pressure F2 plasma with argon dilution
US7461938B2 (en) 2004-06-30 2008-12-09 Ophthonix, Inc. Apparatus and method for determining sphere and cylinder components of subjective refraction using objective wavefront measurement
AU2005269256B2 (en) 2004-08-03 2008-08-07 Silverbrook Research Pty Ltd Head mounted display with wave front modulator
JP2008518740A (ja) 2004-11-08 2008-06-05 オプトビュー,インコーポレーテッド 総合的眼診断用光学装置および方法
US7486988B2 (en) 2004-12-03 2009-02-03 Searete Llc Method and system for adaptive vision modification
US8104892B2 (en) 2004-12-03 2012-01-31 The Invention Science Fund I, Llc Vision modification with reflected image
US7344244B2 (en) 2004-12-03 2008-03-18 Searete, Llc Adjustable lens system with neural-based control
US7334892B2 (en) 2004-12-03 2008-02-26 Searete Llc Method and system for vision enhancement
US8885139B2 (en) * 2005-01-21 2014-11-11 Johnson & Johnson Vision Care Adaptive electro-active lens with variable focal length
JP4744973B2 (ja) 2005-08-05 2011-08-10 株式会社トプコン 眼底カメラ
JP4719553B2 (ja) 2005-11-04 2011-07-06 キヤノン株式会社 撮像装置、撮像方法、コンピュータプログラム、及びコンピュータ読み取り可能な記憶媒体
CN2868183Y (zh) 2006-01-19 2007-02-14 杨宏军 智能视力保护器
JP5167545B2 (ja) 2006-03-31 2013-03-21 国立大学法人静岡大学 視点検出装置
US7764433B2 (en) 2006-05-18 2010-07-27 The Regents Of The University Of California Method and system for correcting optical aberrations, including widefield imaging applications
JP4822331B2 (ja) 2006-06-22 2011-11-24 株式会社トプコン 眼科装置
CN100485448C (zh) 2006-06-29 2009-05-06 贾怀昌 自由曲面全反射式的目视光学棱镜
US7542210B2 (en) 2006-06-29 2009-06-02 Chirieleison Sr Anthony Eye tracking head mounted display
JP5017989B2 (ja) 2006-09-27 2012-09-05 ソニー株式会社 撮像装置、撮像方法
CN201005945Y (zh) 2007-01-15 2008-01-16 陈清祥 可调整滤光片的视线导正辅助器
EP2187841A4 (en) 2007-08-02 2016-09-21 Ocular Optics Inc MULTIFOCAL INTRAOCULAR LENS SYSTEM AND METHODS
CN101116609B (zh) 2007-08-30 2010-06-16 中国科学技术大学 扫描式自动变焦虹膜图像采集系统及采集方法
CN101149254B (zh) 2007-11-12 2012-06-27 北京航空航天大学 高精度视觉检测系统
US8786675B2 (en) * 2008-01-23 2014-07-22 Michael F. Deering Systems using eye mounted displays
WO2009101236A1 (en) 2008-02-13 2009-08-20 Nokia Corporation Display device and a method for illuminating a light modulator array of a display device
EP2271964A4 (en) 2008-03-18 2017-09-20 Mitsui Chemicals, Inc. Advanced electro-active optic device
US20090279046A1 (en) 2008-05-12 2009-11-12 Dreher Andreas W Adjustable eye glasses with a magnetic attachment
JP4518193B2 (ja) 2008-06-10 2010-08-04 ソニー株式会社 光学装置および虚像表示装置
CN101430429A (zh) 2008-06-17 2009-05-13 沈嘉琦 一种近视矫正眼镜
JP5310266B2 (ja) 2009-05-29 2013-10-09 セイコーエプソン株式会社 プロジェクターおよびその制御方法
CN101662696B (zh) 2008-08-28 2011-01-26 联想(北京)有限公司 调节摄像系统的方法和设备
TW201011350A (en) 2008-09-04 2010-03-16 E Pin Optical Industry Co Ltd Liquid crystal zoom lens
WO2010030985A1 (en) 2008-09-12 2010-03-18 Gesturetek, Inc. Orienting displayed elements relative to a user
TWI367748B (en) 2008-09-30 2012-07-11 Univ Ishou Apparatus for sight healthcare
US8884735B2 (en) 2008-11-17 2014-11-11 Roger Li-Chung Vision protection method and system thereof
CN201360319Y (zh) * 2008-12-17 2009-12-09 胡超 眼镜式多功能立体图像装置
CN201352278Y (zh) 2008-12-23 2009-11-25 黄玲 一种自动变焦眼镜
WO2010083853A1 (en) 2009-01-26 2010-07-29 Tobii Technology Ab Detection of gaze point assisted by optical reference signals
CN201464738U (zh) 2009-04-13 2010-05-12 段亚东 多功能保健眼镜
US8100532B2 (en) 2009-07-09 2012-01-24 Nike, Inc. Eye and body movement tracking for testing and/or training
JP2011043876A (ja) 2009-08-19 2011-03-03 Brother Industries Ltd 画像表示装置
JP5388765B2 (ja) 2009-09-01 2014-01-15 キヤノン株式会社 眼底カメラ
JP5371638B2 (ja) 2009-09-01 2013-12-18 キヤノン株式会社 眼科撮影装置及びその方法
JP2011071898A (ja) * 2009-09-28 2011-04-07 Panasonic Corp 立体映像表示装置および立体映像表示方法
US9122066B2 (en) 2009-10-30 2015-09-01 Hewlett-Packard Development Company, L.P. Stereo display systems
US8552850B2 (en) 2010-02-17 2013-10-08 Honeywell International Inc. Near-to-eye tracking for adaptive operation
US20120212499A1 (en) 2010-02-28 2012-08-23 Osterhout Group, Inc. System and method for display content control during glasses movement
US20130278631A1 (en) 2010-02-28 2013-10-24 Osterhout Group, Inc. 3d positioning of augmented reality information
US20120242698A1 (en) 2010-02-28 2012-09-27 Osterhout Group, Inc. See-through near-eye display glasses with a multi-segment processor-controlled optical layer
US20120206485A1 (en) 2010-02-28 2012-08-16 Osterhout Group, Inc. Ar glasses with event and sensor triggered user movement control of ar eyepiece facilities
US8964298B2 (en) 2010-02-28 2015-02-24 Microsoft Corporation Video display modification based on sensor input for a see-through near-to-eye display
CN201637953U (zh) 2010-03-19 2010-11-17 熊火胜 智能变焦镜片
US9628722B2 (en) 2010-03-30 2017-04-18 Personify, Inc. Systems and methods for embedding a foreground video into a background feed based on a control input
CN101819334B (zh) 2010-04-01 2013-04-17 夏翔 多功能电子眼镜
CN101819331B (zh) 2010-04-27 2012-03-07 中国计量学院 一种遥控变焦眼镜装置
JP2013535022A (ja) 2010-05-29 2013-09-09 ウェンユー・ジアーン 凝視距離および低電力凝視追跡によって動かされる適応レンズを有する眼鏡を製作し使用するためのシステム、方法および装置
JP5685013B2 (ja) 2010-06-30 2015-03-18 キヤノン株式会社 光断層撮像装置及びその制御方法、プログラム
CN101917638B (zh) 2010-07-07 2012-10-31 深圳超多维光电子有限公司 立体显示装置、移动终端及立体显示跟踪方法
KR20120005328A (ko) * 2010-07-08 2012-01-16 삼성전자주식회사 입체 안경 및 이를 포함하는 디스플레이장치
US8324957B2 (en) 2010-07-16 2012-12-04 Linear Technology Corporation Capacitively coupled switched current source
US8884984B2 (en) 2010-10-15 2014-11-11 Microsoft Corporation Fusing virtual content into real content
US9395546B2 (en) * 2010-10-29 2016-07-19 Lg Electronics Inc. Stereoscopic image processing system and device and glasses
US20120113235A1 (en) 2010-11-08 2012-05-10 Sony Corporation 3d glasses, systems, and methods for optimized viewing of 3d video content
WO2012083415A1 (en) 2010-11-15 2012-06-28 Tandemlaunch Technologies Inc. System and method for interacting with and analyzing media on a display using eye gaze tracking
US9304319B2 (en) * 2010-11-18 2016-04-05 Microsoft Technology Licensing, Llc Automatic focus improvement for augmented reality displays
US8628193B2 (en) 2010-11-20 2014-01-14 Yibin TIAN Automatic accommodative spectacles using a scene analyzer and focusing elements
CN102487393B (zh) 2010-12-01 2015-09-23 深圳市同洲软件有限公司 数字电视接收终端与移动终端交互方法、装置和系统
AR084071A1 (es) 2010-12-01 2013-04-17 Schnell Urban Lupa binocular variable que usa una tecnologia de lentes rellenas con fluido
US9161681B2 (en) 2010-12-06 2015-10-20 Lensvector, Inc. Motionless adaptive stereoscopic scene capture with tuneable liquid crystal lenses and stereoscopic auto-focusing methods
US9690099B2 (en) 2010-12-17 2017-06-27 Microsoft Technology Licensing, Llc Optimized focal area for augmented reality displays
CN102008288B (zh) 2010-12-17 2012-02-01 中国科学院光电技术研究所 一种线扫描共焦检眼镜的系统和方法
US9507416B2 (en) 2011-02-22 2016-11-29 Robert Howard Kimball Providing a corrected view based on the position of a user with respect to a mobile platform
WO2012122411A1 (en) * 2011-03-08 2012-09-13 Pixeloptics, Inc. Advanced electro-active optic device
JP2012199621A (ja) 2011-03-18 2012-10-18 Jvc Kenwood Corp 複眼撮像装置
CN102918444B (zh) 2011-03-25 2015-12-23 松下电器产业株式会社 显示装置
US8510166B2 (en) 2011-05-11 2013-08-13 Google Inc. Gaze tracking system
US8911087B2 (en) * 2011-05-20 2014-12-16 Eyefluence, Inc. Systems and methods for measuring reactions of head, eyes, eyelids and pupils
JP2012247449A (ja) 2011-05-25 2012-12-13 Canon Inc 投射型映像表示装置
US20120307208A1 (en) 2011-06-01 2012-12-06 Rogue Technologies, Inc. Apparatus and method for eye tracking
US20120327116A1 (en) 2011-06-23 2012-12-27 Microsoft Corporation Total field of view classification for head-mounted display
US20130241927A1 (en) 2011-07-03 2013-09-19 Neorai Vardi Computer device in form of wearable glasses and user interface thereof
US9285592B2 (en) 2011-08-18 2016-03-15 Google Inc. Wearable device with input and output structures
CN202267785U (zh) 2011-08-30 2012-06-06 福州瑞芯微电子有限公司 一种自动跟踪人眼位置的裸眼三维显示结构
US9323325B2 (en) 2011-08-30 2016-04-26 Microsoft Technology Licensing, Llc Enhancing an object of interest in a see-through, mixed reality display device
JP5879826B2 (ja) 2011-08-31 2016-03-08 株式会社ニデック 眼底撮影装置
US20130072828A1 (en) 2011-09-15 2013-03-21 Jason Sweis Shutter glasses
US9081177B2 (en) 2011-10-07 2015-07-14 Google Inc. Wearable computer with nearby object response
US20130107066A1 (en) 2011-10-27 2013-05-02 Qualcomm Incorporated Sensor aided video stabilization
CA2856075A1 (en) 2011-11-18 2013-05-23 Optovue, Inc. Fundus camera
US9442517B2 (en) 2011-11-30 2016-09-13 Blackberry Limited Input gestures using device movement
CN102572483B (zh) * 2011-12-02 2014-08-13 深圳超多维光电子有限公司 跟踪式裸眼立体显示控制方法、装置及显示设备、系统
US9182815B2 (en) 2011-12-07 2015-11-10 Microsoft Technology Licensing, Llc Making static printed content dynamic with virtual data
CN202383380U (zh) 2011-12-31 2012-08-15 张欣 多功能眼镜
US8384999B1 (en) 2012-01-09 2013-02-26 Cerr Limited Optical modules
CN103197757A (zh) 2012-01-09 2013-07-10 癸水动力(北京)网络科技有限公司 一种沉浸式虚拟现实系统及其实现方法
KR101911439B1 (ko) * 2012-01-30 2019-01-07 삼성전자주식회사 초점길이 가변형 마이크로 렌즈와 이를 포함하는 마이크로 렌즈 어레이 및 이를 포함하는 3d 디스플레이와 그 동작 방법
CN104094197B (zh) 2012-02-06 2018-05-11 索尼爱立信移动通讯股份有限公司 利用投影仪的注视追踪
US20130241805A1 (en) 2012-03-15 2013-09-19 Google Inc. Using Convergence Angle to Select Among Different UI Elements
US20130293530A1 (en) 2012-05-04 2013-11-07 Kathryn Stone Perez Product augmentation and advertising in see through displays
TWI474072B (zh) 2012-06-14 2015-02-21 Largan Precision Co Ltd 光學影像鏡片系統組
US9430055B2 (en) 2012-06-15 2016-08-30 Microsoft Technology Licensing, Llc Depth of field control for see-thru display
US20130342572A1 (en) 2012-06-26 2013-12-26 Adam G. Poulos Control of displayed content in virtual environments
JP5538483B2 (ja) 2012-06-29 2014-07-02 株式会社ソニー・コンピュータエンタテインメント 映像処理装置、映像処理方法、および映像処理システム
US9310611B2 (en) 2012-09-18 2016-04-12 Qualcomm Incorporated Methods and systems for making the use of head-mounted displays less obvious to non-users
CN103065605B (zh) 2012-12-10 2015-12-09 惠州Tcl移动通信有限公司 一种根据视力状况调节显示效果的方法和系统
US20140160157A1 (en) 2012-12-11 2014-06-12 Adam G. Poulos People-triggered holographic reminders
CN103190883B (zh) 2012-12-20 2015-06-24 苏州触达信息技术有限公司 一种头戴式显示装置和图像调节方法
CN103150013A (zh) 2012-12-20 2013-06-12 天津三星光电子有限公司 一种移动终端
CN102981270A (zh) 2012-12-25 2013-03-20 中国科学院长春光学精密机械与物理研究所 一种无遮拦自适应变焦距光学系统及其标定方法
CN103054695A (zh) 2013-01-09 2013-04-24 中山市目明视光视力科技有限公司 调整眼内光学焦点位置的镜片组合方法
US10133342B2 (en) 2013-02-14 2018-11-20 Qualcomm Incorporated Human-body-gesture-based region and volume selection for HMD
US9507147B2 (en) 2013-02-14 2016-11-29 Blackberry Limited Wearable display system with detached projector
US20140232746A1 (en) 2013-02-21 2014-08-21 Hyundai Motor Company Three dimensional augmented reality display apparatus and method using eye tracking
US20140240351A1 (en) 2013-02-27 2014-08-28 Michael Scavezze Mixed reality augmentation
US9898866B2 (en) 2013-03-13 2018-02-20 The University Of North Carolina At Chapel Hill Low latency stabilization for head-worn displays
US9041741B2 (en) 2013-03-14 2015-05-26 Qualcomm Incorporated User interface for a head mounted display
US20140282224A1 (en) 2013-03-15 2014-09-18 Qualcomm Incorporated Detection of a scrolling gesture
EP4027222A1 (en) 2013-03-15 2022-07-13 Magic Leap, Inc. Display system and method
CN103280175A (zh) 2013-06-17 2013-09-04 苏州旭宇升电子有限公司 一种投影装置
US9256987B2 (en) 2013-06-24 2016-02-09 Microsoft Technology Licensing, Llc Tracking head movement when wearing mobile device
CN103353677B (zh) 2013-06-28 2015-03-11 北京智谷睿拓技术服务有限公司 成像装置及方法
US9443355B2 (en) 2013-06-28 2016-09-13 Microsoft Technology Licensing, Llc Reprojection OLED display for augmented reality experiences
CN103353663B (zh) 2013-06-28 2016-08-10 北京智谷睿拓技术服务有限公司 成像调整装置及方法
WO2015006334A1 (en) 2013-07-08 2015-01-15 Ops Solutions Llc Eyewear operational guide system and method
CN103297735A (zh) 2013-07-16 2013-09-11 苏州旭宇升电子有限公司 一种投影装置
US9619939B2 (en) 2013-07-31 2017-04-11 Microsoft Technology Licensing, Llc Mixed reality graduated information delivery
CN103558909B (zh) 2013-10-10 2017-03-29 北京智谷睿拓技术服务有限公司 交互投射显示方法及交互投射显示系统
US10620457B2 (en) * 2013-12-17 2020-04-14 Intel Corporation Controlling vision correction using eye tracking and depth detection
US9965030B2 (en) * 2014-07-31 2018-05-08 Samsung Electronics Co., Ltd. Wearable glasses and method of displaying image via the wearable glasses
US10261579B2 (en) * 2014-09-01 2019-04-16 Samsung Electronics Co., Ltd. Head-mounted display apparatus
WO2016164859A1 (en) * 2015-04-10 2016-10-13 Bespoke, Inc. Systems and methods for creating eyewear with multi-focal lenses
WO2017055910A1 (en) * 2015-09-30 2017-04-06 Sony Interactive Entertainment Inc. Methods for optimizing positioning of content on a screen of a head mounted display

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005058399A (ja) * 2003-08-11 2005-03-10 Nikon Corp ディスプレイ装置
CN101194198A (zh) * 2005-01-21 2008-06-04 庄臣及庄臣视力保护公司 具有可变焦距的自适应电激活透镜
CN101782685A (zh) * 2009-09-04 2010-07-21 上海交通大学 实时多角度立体视觉系统
CN201754203U (zh) * 2010-05-06 2011-03-02 徐晗 动态视角液晶眼镜
CN103353667A (zh) * 2013-06-28 2013-10-16 北京智谷睿拓技术服务有限公司 成像调整设备及方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113055365A (zh) * 2021-03-05 2021-06-29 中国科学院国家天文台 光电望远镜远程观测引导方法和装置
CN113055365B (zh) * 2021-03-05 2023-06-02 中国科学院国家天文台 光电望远镜远程观测引导方法和装置

Also Published As

Publication number Publication date
CN103353667B (zh) 2015-10-21
US20160161769A1 (en) 2016-06-09
US10261345B2 (en) 2019-04-16
CN103353667A (zh) 2013-10-16

Similar Documents

Publication Publication Date Title
WO2014206013A1 (zh) 成像调整设备及成像调整方法
US10191276B2 (en) Imaging adjustment device and imaging adjustment method
US20210325684A1 (en) Eyewear devices with focus tunable lenses
US9961335B2 (en) Pickup of objects in three-dimensional display
US10048750B2 (en) Content projection system and content projection method
WO2018019282A1 (zh) 双目全景图像获取方法,装置及存储介质
WO2014206011A1 (zh) 成像装置及成像方法
US11435576B2 (en) Near-eye display with extended accommodation range adjustment
WO2017107524A1 (zh) 虚拟现实头盔的成像畸变测试方法及装置
JP2020202569A (ja) 眼と異なるレンズの位置を補正する、実際のシーンを見るための仮想眼鏡セット
CN107430285A (zh) 适应于人眼分辨率的成像光学器件
US20150234206A1 (en) Configurable adaptive optical material and device
WO2015051606A1 (zh) 定位方法及定位系统
WO2018133221A1 (zh) 影像画面的显示控制方法、装置及头戴式显示设备
WO2015014059A1 (zh) 成像装置及成像方法
WO2021242932A1 (en) Generation of three-dimensional images with digital magnification
TW202119093A (zh) 頭戴式顯示裝置以及距離量測器
US20150356714A1 (en) System and method for using digital displays without optical correction devices
US11841513B2 (en) Light field near-eye display device and method of light field near-eye display
TWI745000B (zh) 光場近眼顯示裝置及光場近眼顯示方法
US20170359572A1 (en) Head mounted display and operating method thereof
JP4335957B1 (ja) 大型光学板
TW202205851A (zh) 可透光顯示系統及其圖像輸出方法與處理裝置
US20240223740A1 (en) Method and device for adjusting depth of stereoscopic image
CN115407513A (zh) 一种双目视差测量装置及方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13888305

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14779321

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13888305

Country of ref document: EP

Kind code of ref document: A1