WO2021112386A1 - 디스플레이 장치 - Google Patents

디스플레이 장치 Download PDF

Info

Publication number
WO2021112386A1
WO2021112386A1 PCT/KR2020/013673 KR2020013673W WO2021112386A1 WO 2021112386 A1 WO2021112386 A1 WO 2021112386A1 KR 2020013673 W KR2020013673 W KR 2020013673W WO 2021112386 A1 WO2021112386 A1 WO 2021112386A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
user
display device
image display
area
Prior art date
Application number
PCT/KR2020/013673
Other languages
English (en)
French (fr)
Inventor
김지원
김지광
소재민
이계훈
이상훈
최대수
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Publication of WO2021112386A1 publication Critical patent/WO2021112386A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/08Mirrors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0149Head-up displays characterised by mechanical features
    • G02B2027/0154Head-up displays characterised by mechanical features with movable elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Definitions

  • the present invention relates to a display device.
  • Augmented reality is a display technology that combines virtual objects or information on a real-world environment. Augmented reality (AR) has the advantage that it can be applied to various real environments. In particular, augmented reality (AR) is attracting attention as a next-generation display technology suitable for a ubiquitous environment or an Internet of things (IoT) environment. As an example of a virtual image display device for implementing augmented reality, a head up display (HUD) device is well known.
  • HUD head up display
  • An object to be solved is to provide a display device in which an output position of a target image is controlled in response to the position of the user's eyes.
  • the image display device for outputting a target image; a first mirror reflecting the target image and providing it to a user; an image control device for generating position information of an active region where the target image is output; and a driving device that controls the image display device to output the target image based on the location information of the active region, wherein the size of the active region is the size of the image display region in which pixels of the image display device are disposed.
  • a smaller display device may be provided.
  • the second mirror reflects the target image output from the image display device to the first mirror.
  • the image control device may determine a position of the active region within the image display region.
  • the apparatus further includes a photographing device generating user image information by photographing the user, wherein the image control apparatus may measure the position of the user's eyes based on the user image information.
  • the image control apparatus may determine an effective area based on information on the user's eye position, and the effective area may be a part of the image display area shown to the user.
  • the image control apparatus may generate location information of the active area so that the active area is disposed within the effective area.
  • pixels in the active area may be controlled to emit light by the driving device, and pixels outside the active area may be controlled not to emit light by the driving device.
  • pixels in the active area and pixels outside the active area may be controlled to emit light by the driving device, and a background image different from the target image may be output outside the active area.
  • the image display device for outputting a target image; a moving device for adjusting a position of the image display device; a movement control device for controlling the mobile device; a first mirror reflecting the target image and providing it to a user; a photographing device for photographing the user and generating user image information; a driving device for controlling an image output operation of the image display device; and an image control device that provides information on the target image to the driving device, wherein the image control device obtains the user's image information from the photographing device to measure the position of the user's eyes
  • the movement control apparatus may be provided with a display apparatus that controls the movement apparatus so that the position of the image display apparatus is adjusted based on information on the user's eye position.
  • the second mirror reflects the target image output from the image display device to the first mirror.
  • the image control device determines an effective area based on information on the user's eye position, wherein the effective area is an area that is disposed on the same plane as a surface on which an image is output in the image display device and is visible to the user.
  • the movement control apparatus may control the movement apparatus to adjust a position of the image display apparatus based on the information on the effective area.
  • the mobile device may adjust the position of the image display device so that the active region on which the target image is output is disposed within the effective region.
  • an image control device wherein the image control device measures the position of the user's eyes based on the user's image information obtained from the photographing device, and receives the information on the user's eye position Based on the determination of an effective area, which is an area that is disposed on the same plane as the image output surface of the image display device and is visible to the user, the position of the active area is determined such that an active area on which a target image is output is disposed within the effective area.
  • a display device for determining may be provided.
  • a size of the active area may be smaller than a size of an image display area in which pixels of the image display device are disposed.
  • the image control device may determine a position of the active region within the image display region.
  • a driving device for controlling an image output operation of the image display device, wherein the image control device controls the driving device so that pixels in the active region emit light and pixels outside the active region do not emit light .
  • the display device may further include a driving device configured to control an image output operation of the image display device, wherein the image control device may control the driving device to output a background image different from the target image outside the active region.
  • a movement control device for determining a position of the video display device; and a moving device for adjusting the position of the image display device, wherein the movement control device determines the position of the image display device so that the active region is disposed within the effective region based on the information on the effective region. determined, and the mobile device may adjust the position of the image display device based on information on the position of the image display device.
  • a position of the active region may be fixed in an image display region in which pixels of the image display device are disposed.
  • the present disclosure may provide a display device in which an output position of a target image is controlled in response to a user's eye position.
  • FIG. 1 is a conceptual diagram of a display device according to an exemplary embodiment.
  • Fig. 2 is a flowchart for explaining a method of operating a display apparatus according to an exemplary embodiment.
  • FIG. 3 is a conceptual diagram of a display device for explaining an operation method of the display device of FIG. 2 .
  • FIG. 4 is a conceptual diagram of an image display device for explaining an operation method of the display device of FIG. 2 .
  • FIG. 5 is a conceptual diagram of a second mirror for explaining an operation method of the display device of FIG. 2 .
  • FIG. 6 is a conceptual diagram of a display device for explaining an operation method of the display device of FIG. 2 .
  • FIG. 7 is a conceptual diagram of an image display device for explaining an operation method of the display device of FIG. 2 .
  • FIG. 8 is a conceptual diagram of a second mirror for explaining a method of operating the display device of FIG. 2 .
  • FIG. 9 is a conceptual diagram of an image display device for explaining an operation method of the display device of FIG. 2 .
  • FIG. 10 is a conceptual diagram of a second mirror for explaining a method of operating the display device of FIG. 2 .
  • FIG. 11 is a conceptual diagram of a display device according to an exemplary embodiment.
  • FIG. 12 is a flowchart for explaining a method of operating a display apparatus according to an exemplary embodiment.
  • FIG. 13 is a conceptual diagram of a display device for explaining an operation method of the display device of FIG. 12 .
  • FIG. 14 is a conceptual diagram of an image display device for explaining an operation method of the display device of FIG. 12 .
  • 15 is a conceptual diagram of a display device for explaining an operation method of the display device of FIG. 12 .
  • 16 is a conceptual diagram of an image display device for explaining an operation method of the display device of FIG. 12 .
  • 17 is a conceptual diagram of an image display device for explaining an operation method of the display device of FIG. 12 .
  • the image display device for outputting a target image; a first mirror reflecting the target image and providing it to a user; an image control device for generating position information of an active region where the target image is output; and a driving device that controls the image display device to output the target image based on the location information of the active region, wherein the size of the active region is the size of the image display region in which pixels of the image display device are disposed.
  • a smaller display device may be provided.
  • the image display device for outputting a target image; a moving device for adjusting a position of the image display device; a movement control device for controlling the mobile device; a first mirror reflecting the target image and providing it to a user; a photographing device for photographing the user and generating user image information; a driving device for controlling an image output operation of the image display device; and an image control device that provides information on the target image to the driving device, wherein the image control device obtains the user's image information from the photographing device to measure the position of the user's eyes
  • the movement control apparatus may be provided with a display apparatus that controls the movement apparatus so that the position of the image display apparatus is adjusted based on information on the user's eye position.
  • an image control device wherein the image control device measures the position of the user's eyes based on the user's image information obtained from the photographing device, and receives the information on the user's eye position Based on the determination of an effective area, which is an area that is disposed on the same plane as the image output surface of the image display device and is visible to the user, the position of the active area is determined such that an active area on which a target image is output is disposed within the effective area.
  • a display device for determining may be provided.
  • ...unit described in the specification mean a unit for processing at least one function or operation, which may be implemented as hardware or software, or a combination of hardware and software.
  • the term 'virtual image' refers to a case where when an image is formed by an optical system, light does not actually exist where the image is formed.
  • an erected virtual image is formed when an object is located inside the focal point of the concave mirror.
  • an image of the real image is formed by the concave mirror.
  • the term 'Virtual Image Display Apparatus' is a device capable of expressing a virtual image, and includes not only a vehicle HUD and an aircraft HUD, but also an entertainment HUD used indoors and outdoors.
  • image display area means an area in which an image can be output by the display device (area in which pixels are disposed).
  • active area means an area where a target image is output.
  • effective area is an area that can be viewed by a user, and may be moved relative to the image display area or the active area according to a change in the user's eye (or gaze) position or posture.
  • eye position refers to not only the spatial position of the user's pupils that change according to the user's posture change, but also factors that change the user's viewable area by the user's posture change such as the user's gaze direction. It is an all-inclusive concept.
  • FIG. 1 is a conceptual diagram of a display device according to an exemplary embodiment.
  • a display including an image display device 100 , a first mirror 210 , a second mirror 220 , an image control device 300 , a driving device 410 , and a photographing device 500 .
  • a device 11 may be provided.
  • the display device 11 may be a Head Up Display (HUD) device.
  • the image display device 100 may output a target image to be provided to the user.
  • the image display device 100 may include an image display region (not shown) in which pixels are disposed and an active region (not shown) in the image display region.
  • the image display area may be an area in which an image may be output.
  • the active area may be an area where the target image is output.
  • the size of the active area may be smaller than the size of the image display area.
  • the image display device 100 may provide the target image to the first mirror 210 .
  • the image display device 100 is not limited to a specific type of display device as long as it is a device capable of displaying an image.
  • the image display device 100 may be an LCD, LED, OLED, or other display device.
  • the first mirror 210 may reflect the target image output from the image display device 100 and provide it to the second mirror 220 .
  • the first mirror 210 may include an aspherical convex mirror.
  • one first mirror 210 is illustrated between the image display device 100 and the second mirror 220 , the number of the first mirrors 210 is not limited. In another example, two or more first mirrors may be disposed between the image display device 100 and the second mirror 220 .
  • the second mirror 220 may reflect the target image and provide it to the user.
  • the second mirror 220 may include an aspherical concave mirror.
  • the image formed by the first mirror 210 may be disposed between the focal point of the second mirror 220 and the reflective surface of the second mirror 220 . Accordingly, a virtual image may be provided to the user.
  • the size of the target image perceived by the user may be larger than the size of the target image output from the image display device 100 .
  • the image control apparatus 300 may determine the position of the active region where the target image is output in the image display region.
  • the image control apparatus 300 may determine pixels that emit light (hereinafter referred to as light-emitting pixels) among pixels in the image display area. In an embodiment, all of the pixels in the image display area may be light-emitting pixels. In an embodiment, some of the pixels in the image display area may be light-emitting pixels.
  • the image control apparatus 300 may provide information on the position of the active region and information on the position of the light emitting pixel to the driving device 410 .
  • the driving device 410 may control an image output operation of the image display device 100 based on the information on the position of the active region and the information on the position of the light emitting pixel. In an embodiment, the driving device 410 may emit light only pixels in the active area. In another exemplary embodiment, the driving device 410 emits light to all pixels in the image display area, the pixels in the active area output a target image, and pixels outside the active area output a background image different from the target image. (100) can be controlled.
  • the photographing apparatus 500 may generate user image information by photographing the user.
  • the photographing apparatus 500 may photograph an area including the user's face or the user's eyes.
  • the photographing apparatus 500 may provide user image information to the image control apparatus 300 .
  • the image control apparatus 300 may measure the position of the user's eyes based on user image information.
  • the eye position may be a concept that encompasses not only the spatial position of the user's pupil, which is changed according to the user's posture change, but also factors that change the user's viewable area due to the user's posture change such as the user's gaze direction. .
  • the image control apparatus 300 may determine the position of the active region according to the measured position of the user's eye. Determining the position of the active region by the image control apparatus 300 will be described later.
  • Fig. 2 is a flowchart for explaining a method of operating a display apparatus according to an exemplary embodiment.
  • 3 and 6 are conceptual views of a display device for explaining an operation method of the display device of FIG. 2 .
  • 4, 7, and 9 are conceptual views of an image display device for explaining an operation method of the display device of FIG. 2 .
  • 5, 8, and 10 are conceptual views of a second mirror for explaining a method of operating the display device of FIG. 2 .
  • the eye position of the user 1 may be measured.
  • the eye position of the user 1 is measured by the photographing device 500 and the image control device 300 .
  • the photographing apparatus 500 may generate user image information by photographing the user.
  • the photographing apparatus 500 may photograph an area including the user's face or the user's eyes.
  • the photographing apparatus 500 may provide user image information to the image control apparatus 300 .
  • the image control apparatus 300 may determine the position of the user's eyes based on the user image information.
  • the effective area 110 may be determined based on the location information of the eyes of the user 1 .
  • the effective area 110 may be an area visible to the user 1 on the image display device 100 .
  • the image control apparatus 300 may determine the effective area 110 based on the user 1's eye position information.
  • the active area 120 may be disposed in the effective area 110 .
  • the active area 120 may be an area in which a target image is output on the image display device 100 .
  • the driving device 410 may control the image display device 100 so that the active area 120 is disposed in the effective area 110 based on information on the effective area 110 .
  • the eyes of the user 1 may be disposed at a first position.
  • the first position may be a position where the user 1 can completely view the target image.
  • the effective area 110 may completely overlap the active area 120 .
  • the second mirror 220 may include an effective reflective region 222 and an active reflective region 224 .
  • the effective reflective area 222 may correspond to the effective area 110 .
  • an image output from the effective area 110 may be reflected by the first mirror 210 to reach the effective reflection area 222 of the second mirror 220 .
  • the active reflective region 224 may correspond to the active region 120 .
  • an image output from the active area 120 may be reflected by the first mirror 210 to reach the active reflection area 224 of the second mirror 220 .
  • the target image may be reflected from the active reflective region 224 in the effective reflective region 222 to reach the eye of the user 1 .
  • the user 1 can view the complete target image.
  • the eyes of the user 1 may be disposed at a second location different from the first location.
  • a case in which the position of the active region does not change according to the position of the user's 1 eye will be described with reference to FIGS. 7 and 8 .
  • the fact that the position of the active region does not change according to the position of the user's 1 eye is described for comparison with the embodiment according to the present disclosure.
  • the active region 120 may be disposed at a position determined when the user's 1 eye is disposed at the first position.
  • the effective area 110 may move.
  • the eyes of the user 1 may be arranged at a second position lower than the first position.
  • the effective area 110 may move upwards of the image display device 100 .
  • the position of the active region 120 does not change.
  • the effective region 110 may overlap an upper portion of the active region 120 and may not overlap a lower portion of the active region 120 .
  • the active reflective region 224 may correspond to an upper portion of the active region 120 .
  • the user 1 can see only the upper part of the target image and cannot see the lower part of the target image.
  • the user 1 cannot see the complete target image.
  • the active region 120 may be disposed in the effective region 110 .
  • the image control apparatus 300 may measure the eye position of the user 1 based on the image information of the user 1 provided from the photographing apparatus 500 , and determine the effective area 110 accordingly.
  • the image control apparatus 300 may generate active area information so that the active area 120 is disposed within the effective area 110 .
  • the image control device 300 may provide active region information to the driving device 410 .
  • the driving device 410 may control the image display device 100 based on the active area information.
  • the driving device 410 may control the image display device 100 so that the active region 120 is disposed within the effective region 110 .
  • the driving device 410 may control the image display device 100 so that the target image is output in the effective area 110 .
  • the active reflective region 224 may correspond to the entire active region 120 .
  • an image output from the active area 120 may be reflected by the first mirror 210 to reach the active reflection area 224 of the second mirror 220 .
  • the target image may be reflected from the active reflective region 224 in the effective reflective region 222 to reach the eye of the user 1 .
  • the user 1 can view the complete target image.
  • the present disclosure may provide a display device 11 that adjusts the position of the active region 120 according to the position of the user's 1 eye so that the active region 120 is disposed within the effective region 110 . Accordingly, the user 1 can view the complete target image.
  • FIG. 11 is a conceptual diagram of a display device according to an exemplary embodiment. For brevity of description, contents substantially the same as those described with reference to FIG. 1 may not be described.
  • an image display device 100 a first mirror 210 , a second mirror 220 , an image control device 300 , a driving device 410 , a movement control device 420 , and a photographing device ( 500 , and a display device 12 including a mobile device 600 may be provided.
  • the first mirror 210 , the second mirror 220 , the image control device 300 , the driving device 410 , and the photographing device 500 may be substantially the same as those described with reference to FIG. 1 .
  • the image display area of the image display apparatus 100 may be the same as the active area.
  • a target image may be output in the entire image display area.
  • the image control apparatus 300 may not generate information about the location of the active area.
  • the driving device 410 may control the image display device 100 so that the target image is output in the entire image display area.
  • the image control apparatus 300 may determine an effective area according to the position of the user's eye and provide information on the effective area to the movement control apparatus 420 .
  • the movement control device 420 may control the mobile device 600 based on the information on the effective area.
  • the moving device 600 may move the image display device 100 .
  • the moving device 600 may move the image display device 100 in a direction parallel to the plane on which the image of the image display device 100 is output.
  • the moving apparatus 600 may move the image display apparatus 100 so that the image display area in which the pixels of the image display apparatus 100 are disposed is disposed within the effective area. Accordingly, a complete target image may be provided to the user.
  • FIG. 12 is a flowchart for explaining a method of operating a display apparatus according to an exemplary embodiment.
  • 13 and 15 are conceptual views of a display device for explaining a method of operating the display device of FIG. 12 .
  • 14, 16, and 17 are conceptual views of an image display device for explaining a method of operating the display device of FIG. 12 .
  • contents substantially the same as those described with reference to FIGS. 2 to 10 may not be described.
  • the eye position of the user 1 may be measured.
  • (S210) Measuring the eye position of the user 1 is substantially the same as that described with reference to FIGS. 2 and 3 . can be the same as
  • the effective area 110 may be determined based on the user 1's eye position information. (S220) Determining the effective area 110 may be substantially the same as described with reference to FIGS. 2 and 3 . have.
  • the active area 120 may be disposed in the effective area 110 by using the mobile device 600 ( S230 ).
  • the active area 120 is illustrated in FIG. 2 . to 10 may be substantially the same as described with reference to FIGS.
  • the image control apparatus 300 may provide information on the effective area 110 to the movement control apparatus 420 .
  • the movement control apparatus 420 may control the movement apparatus 600 in the active area 120 to be disposed in the effective area 110 based on the information on the effective area 110 . Accordingly, the user 1 can view the complete target image.
  • the eyes of the user 1 may be placed in the first position.
  • the first location may be a location where the user 1 can view the complete target image.
  • the effective area 110 may completely overlap the active area 120 .
  • the second mirror 220 may include an effective reflective region 222 and an active reflective region 224 .
  • the effective reflective area 222 may correspond to the effective area 110 .
  • an image output from the effective area 110 may be reflected by the first mirror 210 to reach the effective reflection area 222 of the second mirror 220 .
  • the active reflective region 224 may correspond to the active region 120 .
  • an image output from the active area 120 may be reflected by the first mirror 210 to reach the active reflection area 224 of the second mirror 220 .
  • the target image may be reflected from the active reflective region 224 in the effective reflective region 222 to reach the eye of the user 1 . Accordingly, the user 1 can view the complete target image.
  • the eyes of the user 1 may be disposed at a second location different from the first location.
  • the image display device 100 and the active area 120 may be disposed at positions determined when the user 1's eyes are disposed at the first position.
  • the effective area 110 may be moved.
  • the eyes of the user 1 may be arranged at a second position lower than the first position.
  • the effective area 110 may move to an upper portion of the image display area 130 .
  • the positions of the image display device 100 and the active region 120 may not change.
  • the active area 120 may not completely overlap the effective area 110 .
  • the effective region 110 may move to a position that overlaps an upper portion of the active region 120 and does not overlap a lower portion of the active region 120 .
  • the active reflective region 224 may correspond to an upper portion of the active region 120 .
  • the user 1 can see only the upper part of the target image and cannot see the lower part of the target image.
  • the user 1 cannot see the complete target image.
  • the active region 120 may be disposed in the effective region 110 .
  • the image control apparatus 300 may measure the eye position of the user 1 based on the image information of the user 1 provided from the photographing apparatus 500 , and determine the effective area 110 accordingly.
  • the image control apparatus 300 may provide information on the effective area 110 to the movement control apparatus 420 .
  • the movement control apparatus 420 may control the movement apparatus 600 so that the active area 120 is disposed within the effective area 110 based on the information on the effective area 110 .
  • the image display device 100 may be moved by the moving device 600 to arrange the active area 120 in the effective area 110 .
  • the position of the active area 120 in the image display area 130 may be fixed.
  • the active reflective region 224 may correspond to the image control apparatus 300 . Accordingly, the user 1 can view the complete target image.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

디스플레이 장치는 목표 영상을 출력하는 영상 표시 장치, 목표 영상을 반사하여 사용자에게 제공하는 제1 미러, 목표 영상이 출력되는 활성 영역의 위치 정보를 생성하는 영상 제어 장치, 및 활성 영역의 위치 정보에 기초하여 목표 영상이 출력되도록 영상 표시 장치를 제어하는 구동 장치를 포함하되, 활성 영역의 크기는 영상 표시 장치의 픽셀들이 배치되는 영상 표시 영역의 크기보다 작다.

Description

디스플레이 장치
본 발명은 디스플레이 장치에 관한 것이다.
최근 가상 현실(Virtual reality, VR)을 구현할 수 있는 전자기기 및 디스플레이 장치가 개발되면서, 이에 대한 관심이 높아지고 있다. 가상 현실의 다음 단계로 증강 현실(Augmented reality, AR) 및 혼합 현실(mixed reality, MR)을 실현할 수 있는 기술도 연구되고 있다.
증강 현실(AR)은 현실 세계의 환경 위에 가상의 대상이나 정보를 결합하여 보여주는 디스플레이 기술이다. 증강 현실(AR)은 다양한 현실 환경에 응용이 가능하다는 장점이 있다. 특히, 증강 현실(AR)은 유비쿼터스(ubiquitous) 환경이나 사물 인터넷(internet of things)(IoT) 환경에 적합한 차세대 디스플레이 기술로 주목받고 있다. 증강 현실을 구현하기 위한 허상(Virtual) 디스플레이 장치의 일 예로, 헤드 업 디스플레이(Head Up Display; HUD) 장치가 잘 알려져 있다.
해결하고자 하는 과제는 사용자의 눈의 위치에 대응하여 목표 영상의 출력 위치가 제어되는 디스플레이 장치를 제공하는 것에 있다.
다만, 해결하고자 하는 과제는 상기 개시에 한정되지 않는다.
일 측면에 있어서, 목표 영상을 출력하는 영상 표시 장치; 상기 목표 영상을 반사하여 사용자에게 제공하는 제1 미러; 상기 목표 영상이 출력되는 활성 영역의 위치 정보를 생성하는 영상 제어 장치; 및 상기 활성 영역의 위치 정보에 기초하여 상기 목표 영상이 출력되도록 상기 영상 표시 장치를 제어하는 구동 장치;를 포함하되, 상기 활성 영역의 크기는 상기 영상 표시 장치의 픽셀들이 배치되는 영상 표시 영역의 크기보다 작은 디스플레이 장치가 제공될 수 있다.
상기 영상 표시 장치와 상기 제1 미러 사이에 제공되는 제2 미러;를 더 포함하되, 상기 제2 미러는 상기 영상 표시 장치로부터 출력된 상기 목표 영상을 상기 제1 미러로 반사할 수 있다.
상기 영상 제어 장치는, 상기 영상 표시 영역 내에서 상기 활성 영역의 위치를 결정할 수 있다.
상기 사용자를 촬영하여 사용자 영상 정보를 생성하는 촬영 장치;를 더 포함하되, 상기 영상 제어 장치는 상기 사용자 영상 정보에 기초하여 상기 사용자의 눈의 위치를 측정할 수 있다.
상기 영상 제어 장치는 상기 사용자의 눈 위치에 대한 정보에 기초하여 유효 영역을 결정하되, 상기 유효 영역은 상기 사용자에게 보여지는 상기 영상 표시 영역의 일부일 수 있다.
상기 영상 제어 장치는 상기 활성 영역이 상기 유효 영역 내에 배치되도록 상기 활성 영역의 위치 정보를 생성할 수 있다.
상기 영상 표시 영역 내에서, 상기 활성 영역 내의 픽셀들은 상기 구동 장치에 의해 발광하도록 제어되고, 상기 활성 영역 외부의 픽셀들은 상기 구동 장치에 의해 발광하지 않도록 제어될 수 있다.
상기 영상 표시 영역 내에서, 상기 활성 영역 내의 픽셀들 및 상기 활성 영역 외부의 픽셀들은 상기 구동 장치에 의해 발광하도록 제어되고, 상기 활성 영역 외부에서 상기 목표 영상과 다른 배경 영상이 출력될 수 있다.
일 측면에 있어서, 목표 영상을 출력하는 영상 표시 장치; 상기 영상 표시 장치의 위치를 조절하는 이동 장치; 상기 이동 장치를 제어하는 이동 제어 장치; 상기 목표 영상을 반사하여 사용자에게 제공하는 제1 미러; 상기 사용자를 촬영하여 사용자 영상 정보를 생성하는 촬영 장치; 상기 영상 표시 장치의 영상 출력 작동을 제어하는 구동 장치; 및 상기 구동 장치에 상기 목표 영상에 대한 정보를 제공하는 영상 제어 장치;를 포함하되, 상기 영상 제어 장치는 상기 촬영 장치로부터 상기 사용자의 영상 정보를 획득하여 상기 사용자의 눈의 위치를 측정하고, 상기 이동 제어 장치는 상기 사용자의 눈 위치에 대한 정보에 기초하여 상기 영상 표시 장치의 위치가 조절되도록 상기 이동 장치를 제어하는 디스플레이 장치가 제공될 수 있다.
상기 영상 표시 장치와 상기 제1 미러 사이에 제공되는 제2 미러;를 더 포함하되, 상기 제2 미러는 상기 영상 표시 장치로부터 출력된 상기 목표 영상을 상기 제1 미러로 반사할 수 있다.
상기 영상 제어 장치는 상기 사용자의 눈 위치에 대한 정보에 기초하여 유효 영역을 결정하되, 상기 유효 영역은 상기 영상 표시 장치에서 영상이 출력되는 면과 동일 평면에 배치되고, 상기 사용자에게 보여지는 영역일 수 있다.
상기 이동 제어 장치는 상기 유효 영역에 대한 정보에 기초하여, 상기 영상 표시 장치의 위치를 조절하도록 상기 이동 장치를 제어할 수 있다.
상기 이동 장치는 상기 목표 영상이 출력되는 활성 영역이 상기 유효 영역 내에 배치되도록 상기 영상 표시 장치의 위치를 조절할 수 있다.
일 측면에 있어서, 영상 제어 장치;를 포함하되, 상기 영상 제어 장치는, 촬영 장치로부터 획득한 사용자의 영상 정보에 기초하여 상기 사용자의 눈의 위치를 측정하고, 상기 사용자의 눈 위치에 대한 정보에 기초하여 영상 표시 장치의 영상이 출력되는 면과 동일 평면에 배치되어 상기 사용자에게 보여지는 영역인 유효 영역을 결정하고, 상기 유효 영역 내에 목표 영상이 출력되는 활성 영역이 배치되도록 상기 활성 영역의 위치를 결정하는 디스플레이 장치가 제공될 수 있다.
상기 활성 영역의 크기는 상기 영상 표시 장치의 픽셀들이 배치되는 영상 표시 영역의 크기보다 작을 수 있다.
상기 영상 제어 장치는, 상기 영상 표시 영역 내에서 상기 활성 영역의 위치를 결정할 수 있다.
상기 영상 표시 장치의 영상 출력 작동을 제어하는 구동 장치;를 더 포함하되, 상기 영상 제어 장치는 상기 활성 영역 내의 픽셀들은 발광하고, 상기 활성 영역 외부의 픽셀들은 발광하지 않도록 구동 장치를 제어할 수 있다.
상기 영상 표시 장치의 영상 출력 작동을 제어하는 구동 장치를 더 포함하되, 상기 영상 제어 장치는, 상기 활성 영역 외부에서 상기 목표 영상과 다른 배경 영상 출력되도록 상기 구동 장치를 제어할 수 있다.
상기 영상 표시 장치의 위치를 결정하는 이동 제어 장치; 및 상기 영상 표시 장치의 위치를 조절하는 이동 장치;를 더 포함하되, 상기 이동 제어 장치는 상기 유효 영역에 대한 정보에 기초하여, 상기 활성 영역이 상기 유효 영역 내에 배치되도록 상기 영상 표시 장치의 위치를 결정하고, 상기 이동 장치는 상기 영상 표시 장치의 위치에 대한 정보에 기초하여 상기 영상 표시 장치의 위치를 조절할 수 있다.
상기 영상 표시 장치의 픽셀들이 배치되는 영상 표시 영역 내에서 상기 활성 영역의 위치가 고정될 수 있다.
본 개시는 사용자의 눈의 위치에 대응하여 목표 영상의 출력 위치가 제어되는 디스플레이 장치를 제공할 수 있다.
다만, 발명의 효과는 상기 개시에 한정되지 않는다.
도 1은 예시적인 실시예에 따른 디스플레이 장치의 개념도이다.
도 2는 예시적인 실시예에 따른 디스플레이 장치의 작동 방법을 설명하기 위한 순서도이다.
도 3은 도 2의 디스플레이 장치의 작동 방법을 설명하기 위한 디스플레이 장치의 개념도이다.
도 4는 도 2의 디스플레이 장치의 작동 방법을 설명하기 위한 영상 표시 장치의 개념도이다.
도 5는 도 2의 디스플레이 장치의 작동 방법을 설명하기 위한 제2 미러의 개념도이다.
도 6은 도 2의 디스플레이 장치의 작동 방법을 설명하기 위한 디스플레이 장치의 개념도이다.
도 7은 도 2의 디스플레이 장치의 작동 방법을 설명하기 위한 영상 표시 장치의 개념도이다.
도 8은 도 2의 디스플레이 장치의 작동 방법을 설명하기 위한 제2 미러의 개념도이다.
도 9는 도 2의 디스플레이 장치의 작동 방법을 설명하기 위한 영상 표시 장치의 개념도이다.
도 10은 도 2의 디스플레이 장치의 작동 방법을 설명하기 위한 제2 미러의 개념도이다.
도 11은 예시적인 실시예에 따른 디스플레이 장치의 개념도이다.
도 12는 예시적인 실시예에 따른 디스플레이 장치의 작동 방법을 설명하기 위한 순서도이다.
도 13은 도 12의 디스플레이 장치의 작동 방법을 설명하기 위한 디스플레이 장치의 개념도이다.
도 14는 도 12의 디스플레이 장치의 작동 방법을 설명하기 위한 영상 표시 장치의 개념도이다.
도 15는 도 12의 디스플레이 장치의 작동 방법을 설명하기 위한 디스플레이 장치의 개념도이다.
도 16은 도 12의 디스플레이 장치의 작동 방법을 설명하기 위한 영상 표시 장치의 개념도이다.
도 17은 도 12의 디스플레이 장치의 작동 방법을 설명하기 위한 영상 표시 장치의 개념도이다.
일 측면에 있어서, 목표 영상을 출력하는 영상 표시 장치; 상기 목표 영상을 반사하여 사용자에게 제공하는 제1 미러; 상기 목표 영상이 출력되는 활성 영역의 위치 정보를 생성하는 영상 제어 장치; 및 상기 활성 영역의 위치 정보에 기초하여 상기 목표 영상이 출력되도록 상기 영상 표시 장치를 제어하는 구동 장치;를 포함하되, 상기 활성 영역의 크기는 상기 영상 표시 장치의 픽셀들이 배치되는 영상 표시 영역의 크기보다 작은 디스플레이 장치가 제공될 수 있다.
일 측면에 있어서, 목표 영상을 출력하는 영상 표시 장치; 상기 영상 표시 장치의 위치를 조절하는 이동 장치; 상기 이동 장치를 제어하는 이동 제어 장치; 상기 목표 영상을 반사하여 사용자에게 제공하는 제1 미러; 상기 사용자를 촬영하여 사용자 영상 정보를 생성하는 촬영 장치; 상기 영상 표시 장치의 영상 출력 작동을 제어하는 구동 장치; 및 상기 구동 장치에 상기 목표 영상에 대한 정보를 제공하는 영상 제어 장치;를 포함하되, 상기 영상 제어 장치는 상기 촬영 장치로부터 상기 사용자의 영상 정보를 획득하여 상기 사용자의 눈의 위치를 측정하고, 상기 이동 제어 장치는 상기 사용자의 눈 위치에 대한 정보에 기초하여 상기 영상 표시 장치의 위치가 조절되도록 상기 이동 장치를 제어하는 디스플레이 장치가 제공될 수 있다.
일 측면에 있어서, 영상 제어 장치;를 포함하되, 상기 영상 제어 장치는, 촬영 장치로부터 획득한 사용자의 영상 정보에 기초하여 상기 사용자의 눈의 위치를 측정하고, 상기 사용자의 눈 위치에 대한 정보에 기초하여 영상 표시 장치의 영상이 출력되는 면과 동일 평면에 배치되어 상기 사용자에게 보여지는 영역인 유효 영역을 결정하고, 상기 유효 영역 내에 목표 영상이 출력되는 활성 영역이 배치되도록 상기 활성 영역의 위치를 결정하는 디스플레이 장치가 제공될 수 있다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예들에 대해 상세히 설명하기로 한다. 이하의 도면들에서 동일한 참조부호는 동일한 구성요소를 지칭하며, 도면상에서 각 구성요소의 크기는 설명의 명료성과 편의상 과장되어 있을 수 있다. 한편, 이하에 설명되는 실시예는 단지 예시적인 것에 불과하며, 이러한 실시예들로부터 다양한 변형이 가능하다.
이하에서, "상부" 나 "상"이라고 기재된 것은 접촉하여 바로 위에 있는 것뿐만 아니라 비접촉으로 위에 있는 것도 포함할 수 있다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
또한, 명세서에 기재된 "...부" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
이하의 설명에서, '허상(Virtual Image)'이라 함은 광학계에 의해 상(image)이 맺힐 때, 상이 맺히는 곳에 실제로 빛이 존재하지 않는 경우를 의미한다. 오목 미러의 경우, 오목 미러의 초점 안쪽에 물체가 있는 경우에 정립 허상이 형성된다. 다른 광학계에 의해 오목 미러의 초점 안쪽에 실상(real image)가 맺히는 경우에도, 오목 미러에 의해 상기 실상에 대한 헝상이 형성된다.
이하의 설명에서, '허상 디스플레이 장치(Virtual Image Display Apparatus)'라 함은 허상을 표현할 수 있는 장치로서, 차량용 HUD, 항공기용 HUD 뿐만 아니라, 실내외에서 사용되는 엔터테인먼트용 HUD 등을 포괄한다.이하의 설명에서 "영상 표시 영역"은 디스플레이 장치에 의해 영상이 출력될 수 있는 영역(픽셀이 배치되는 영역)을 의미한다. "활성 영역"은 목표 영상이 출력되는 영역을 의미한다. "유효 영역"은 사용자가 시청 가능한 영역으로서, 사용자 눈(또는 시선) 위치 변경 또는 자세 변경에 따라 상기 영상 표시 영역 또는 상기 활성 영역에 대해 상대적으로 이동될 수 있다.
또한 이하의 설명에서, "눈 위치"는 사용자의 자세 변경에 따라 변동되는 사용자의 눈동자의 공간상 위치뿐 아니라, 사용자의 시선 방향 등 사용자의 자세 변경에 의해 사용자의 시청 가능 영역을 변동시키는 인자를 모두 포괄하는 개념이다.
도 1은 예시적인 실시예에 따른 디스플레이 장치의 개념도이다.
도 1을 참조하면, 영상 표시 장치(100), 제1 미러(210), 제2 미러(220), 영상 제어 장치(300), 구동 장치(410), 및 촬영 장치(500)를 포함하는 디스플레이 장치(11)가 제공될 수 있다. 디스플레이 장치(11)는 헤드 업 디스플레이(Head Up Display; HUD) 장치일 수 있다. 영상 표시 장치(100)는 사용자에게 제공하고자 하는 목표 영상을 출력할 수 있다. 영상 표시 장치(100)는 픽셀들이 배치되는 영상 표시 영역(미도시) 및 영상 표시 영역 내에 배치되는 활성 영역(미도시)을 포함할 수 있다. 영상 표시 영역은 영상이 출력될 수 있는 영역일 수 있다. 활성 영역은 목표 영상이 출력되는 영역일 수 있다. 활성 영역의 크기는 영상 표시 영역의 크기보다 작을 수 있다. 영상 표시 장치(100)는 목표 영상을 제1 미러(210)에 제공할 수 있다. 예를 들어, 영상 표시 장치(100)는 영상 표시가 가능한 장치라면 특정 방식의 표시 장치에 한정되지 않는다. 예컨대, 영상 표시 장치(100)는 LCD 또는 LED, OLED 일 수 있고, 그외 기타 다른 방식의 디스플레이 장치일 수 있다.
제1 미러(210)는 영상 표시 장치(100)로부터 출력된 목표 영상을 반사하여 제2 미러(220)에 제공할 수 있다. 예를 들어, 제1 미러(210)는 비구면 볼록 거울을 포함할 수 있다. 영상 표시 장치(100)와 제2 미러(220) 사이에 하나의 제1 미러(210)가 도시되었으나, 제1 미러(210)의 개수는 한정적인 것이 아니다. 다른 예에서, 영상 표시 장치(100)와 제2 미러(220) 사이에 둘 이상의 제1 미러들이 배치될 수 있다.
제2 미러(220)는 목표 영상을 반사하여 사용자에게 제공할 수 있다. 예를 들어, 제2 미러(220)는 비구면 오목 거울을 포함할 수 있다. 제1 미러(210)가 형성하는 상이 제2 미러(220)의 초점과 제2 미러(220)의 반사면 사이에 배치될 수 있다. 이에 따라, 사용자에게 허상이 제공될 수 있다. 사용자가 느끼는 목표 영상의 크기는 영상 표시 장치(100)로부터 출력되는 목표 영상의 크기보다 클 수 있다.
영상 제어 장치(300)는 영상 표시 영역 내에서 목표 영상이 출력되는 활성 영역의 위치를 결정할 수 있다. 영상 제어 장치(300)는 영상 표시 영역 내의 픽셀들 중 발광하는 픽셀들(이하, 발광 픽셀들)을 결정할 수 있다. 일 실시예에서, 영상 표시 영역 내의 픽셀들 전부가 발광 픽셀들일 수 있다. 일 실시예에서, 영상 표시 영역 내의 픽셀들 중 일부가 발광 픽셀들일 수 있다. 영상 제어 장치(300)는 활성 영역의 위치에 대한 정보 및 발광 픽셀의 위치에 대한 정보를 구동 장치(410)에 제공할 수 있다.
구동 장치(410)는 활성 영역의 위치에 대한 정보 및 발광 픽셀의 위치에 대한 정보에 기초하여 영상 표시 장치(100)의 영상 출력 작동을 제어할 수 있다. 일 실시예에서, 구동 장치(410)는 활성 영역 내의 픽셀들만 발광시킬 수 있다. 다른 실시예에서, 구동 장치(410)는 영상 표시 영역 내의 모든 픽셀들을 발광시키되, 활성 영역 내의 픽셀들은 목표 영상은 출력하고, 활성 영역 외부의 픽셀들은 목표 영상과 다른 배경 영상을 출력하도록 영상 표시 장치(100)를 제어할 수 있다.
촬영 장치(500)는 사용자를 촬영하여 사용자 영상 정보를 생성할 수 있다. 예를 들어, 촬영 장치(500)는 사용자의 얼굴 또는 사용자의 눈을 포함하는 영역을 촬영할 수 있다. 촬영 장치(500)는 사용자 영상 정보를 영상 제어 장치(300)에 제공할 수 있다.
영상 제어 장치(300)는 사용자 영상 정보에 기초하여 사용자의 눈의 위치를 측정할 수 있다. 눈의 위치는 사용자의 자세 변경에 따라 변동되는 사용자의 눈동자의 공간상 위치뿐 아니라, 사용자의 시선 방향 등 사용자의 자세 변경에 의해 사용자의 시청 가능 영역을 변동시키는 인자를 모두 포괄하는 개념일 수 있다. 영상 제어 장치(300)는 측정된 사용자의 눈의 위치에 따라 활성 영역의 위치를 결정할 수 있다. 영상 제어 장치(300)가 활성 영역의 위치를 결정하는 것에 대해선 후술된다.
도 2는 예시적인 실시예에 따른 디스플레이 장치의 작동 방법을 설명하기 위한 순서도이다. 도 3 및 도 6은 도 2의 디스플레이 장치의 작동 방법을 설명하기 위한 디스플레이 장치의 개념도들이다. 도 4, 도 7, 및 도 9는 도 2의 디스플레이 장치의 작동 방법을 설명하기 위한 영상 표시 장치의 개념도이다. 도 5, 도 8, 및 도 10은 도 2의 디스플레이 장치의 작동 방법을 설명하기 위한 제2 미러의 개념도이다.
도 2 및 도 3을 참조하면, 사용자(1)의 눈의 위치가 측정될 수 있다.(S110) 사용자(1)의 눈의 위치는 촬영 장치(500) 및 영상 제어 장치(300)에 의해 측정될 수 있다. 예를 들어, 촬영 장치(500)는 사용자를 촬영하여 사용자 영상 정보를 생성할 수 있다. 예를 들어, 촬영 장치(500)는 사용자의 얼굴 또는 사용자의 눈을 포함하는 영역을 촬영할 수 있다. 촬영 장치(500)는 사용자 영상 정보를 영상 제어 장치(300)에 제공할 수 있다. 영상 제어 장치(300)는 사용자 영상 정보에 기초하여 사용자의 눈의 위치를 결정할 수 있다.
사용자(1)의 눈의 위치 정보에 기초하여 유효 영역(110)이 결정될 수 있다.(S120) 유효 영역(110)은 영상 표시 장치(100) 상에서 사용자(1)가 볼 수 있는 영역일 수 있다. 예를 들어, 영상 제어 장치(300)는 사용자(1)의 눈의 위치 정보에 기초하여 유효 영역(110)을 결정할 수 있다.
유효 영역(110) 내에 활성 영역(120)이 배치될 수 있다.(S130) 활성 영역(120)은 영상 표시 장치(100) 상에서 목표 영상이 출력되는 영역일 수 있다. 구동 장치(410)는 유효 영역(110)에 대한 정보에 기초하여 유효 영역(110) 내에서 활성 영역(120)이 배치되도록 영상 표시 장치(100)를 제어할 수 있다.
이하에서, 사용자(1)의 눈의 위치에 따른 디스플레이 장치(11)의 작동 태양이 설명된다.
도 4 및 도 5를 참조하면, 사용자(1)의 눈이 제1 위치에 배치될 수 있다. 예를 들어, 제1 위치는 사용자(1)가 목표 영상을 완전히 볼 수 있는 위치일 수 있다. 사용자(1)의 눈이 제1 위치에 배치된 경우, 유효 영역(110)은 활성 영역(120)과 완전히 중첩할 수 있다.
제2 미러(220)는 유효 반사 영역(222) 및 활성 반사 영역(224)을 포함할 수 있다. 유효 반사 영역(222)은 유효 영역(110)에 대응할 수 있다. 예를 들어, 유효 영역(110)에서 출력된 영상은 제1 미러(210)에 의해 반사되어, 제2 미러(220)의 유효 반사 영역(222)에 도달할 수 있다. 활성 반사 영역(224)은 활성 영역(120)에 대응할 수 있다. 예를 들어, 활성 영역(120)에서 출력된 영상은 제1 미러(210)에 의해 반사되어, 제2 미러(220)의 활성 반사 영역(224)에 도달할 수 있다. 목표 영상은 유효 반사 영역(222) 내의 활성 반사 영역(224)에서 반사되어, 사용자(1)의 눈에 도달할 수 있다. 사용자(1)는 완전한 목표 영상을 볼 수 있다.
도 6을 참조하면, 사용자(1)의 눈이 제1 위치와 다른 제2 위치에 배치될 수 있다. 도 7 및 도 8을 참조하여, 사용자(1)의 눈의 위치에 따라 활성 영역의 위치가 변하지 않을 경우가 설명된다. 사용자(1)의 눈의 위치에 따라 활성 영역의 위치가 변하지 않는 것은 본 개시에 따른 실시예와의 비교를 위해 설명된다.
도 7을 참조하면, 활성 영역(120)은 사용자(1)의 눈이 제1 위치에 배치되었을 때 결정된 위치에 배치될 수 있다. 사용자(1)의 눈이 제2 위치로 이동한 경우, 유효 영역(110)은 이동할 수 있다. 예를 들어, 사용자(1)가 의자 등받이를 뒤로 젖혀서 기대면 사용자(1)의 눈은 제1 위치보다 낮은 제2 위치에 배치될 수 있다. 이 경우, 유효 영역(110)은 영상 표시 장치(100)의 상부로 이동할 수 있다. 활성 영역(120)의 위치는 변하지 않는다. 유효 영역(110)은 활성 영역(120)의 상부와 중첩하고, 활성 영역(120)의 하부와 중첩하지 않을 수 있다.
도 8을 참조하면, 도 5에 도시된 것과 달리, 활성 반사 영역(224)은 활성 영역(120)의 상부에 대응할 수 있다. 사용자(1)는 목표 영상의 상부만 볼 수 있고, 목표 영상의 하부는 볼 수 없다. 사용자(1)는 완전한 목표 영상을 볼 수 없다.
이하에서, 사용자(1)의 눈의 위치에 따라 활성 영역(120)의 위치가 변하는 예시적인 실시예가 설명된다.
도 9를 참조하면, 도 7에 도시된 것과 달리, 활성 영역(120)은 유효 영역(110) 내에 배치될 수 있다. 영상 제어 장치(300)는 촬영 장치(500)로부터 제공받은 사용자(1)의 영상 정보에 기초하여, 사용자(1)의 눈 위치를 측정하고, 이에 따른 유효 영역(110)을 결정할 수 있다. 영상 제어 장치(300)는 활성 영역(120)이 유효 영역(110) 내에 배치되도록 활성 영역 정보를 생성할 수 있다. 영상 제어 장치(300)는 활성 영역 정보를 구동 장치(410)에 제공할 수 있다.
구동 장치(410)는 활성 영역 정보에 기초하여 영상 표시 장치(100)를 제어할 수 있다. 구동 장치(410)는 활성 영역(120)이 유효 영역(110) 내에 배치되도록 영상 표시 장치(100)를 제어할 수 있다. 구동 장치(410)는 목표 영상이 유효 영역(110) 내에선 출력되도록 영상 표시 장치(100)를 제어할 수 있다.
도 10을 참조하면, 도 8에 도시된 것과 달리, 활성 반사 영역(224)은 활성 영역(120) 전체에 대응할 수 있다. 예를 들어, 활성 영역(120)에서 출력된 영상은 제1 미러(210)에 의해 반사되어, 제2 미러(220)의 활성 반사 영역(224)에 도달할 수 있다. 목표 영상은 유효 반사 영역(222) 내의 활성 반사 영역(224)에서 반사되어, 사용자(1)의 눈에 도달할 수 있다. 사용자(1)는 완전한 목표 영상을 볼 수 있다.
본 개시는 활성 영역(120)이 유효 영역(110) 내에 배치되도록 사용자(1)의 눈의 위치에 따라 활성 영역(120)의 위치를 조절하는 디스플레이 장치(11)를 제공할 수 있다. 이에 따라, 사용자(1)는 완전한 목표 영상을 볼 수 있다.
도 11은 예시적인 실시예에 따른 디스플레이 장치의 개념도이다. 설명의 간결함을 위해, 도 1을 참조하여 설명된 것과 실질적으로 동일한 내용은 설명되지 않을 수 있다.
도 11을 참조하면, 영상 표시 장치(100), 제1 미러(210), 제2 미러(220), 영상 제어 장치(300), 구동 장치(410), 이동 제어 장치(420), 촬영 장치(500), 및 이동 장치(600)를 포함하는 디스플레이 장치(12)가 제공될 수 있다. 제1 미러(210), 제2 미러(220), 영상 제어 장치(300), 구동 장치(410), 및 촬영 장치(500)는 도 1을 참조하여 설명된 것과 실질적으로 동일할 수 있다.
도 1을 참조하여 설명된 것과 달리, 영상 표시 장치(100)의 영상 표시 영역은 활성 영역과 동일할 수 있다. 영상 표시 영역 전체에서 목표 영상이 출력될 수 있다. 영상 제어 장치(300)는 활성 영역의 위치에 관한 정보를 생성하지 않을 수 있다. 구동 장치(410)는 목표 영상이 영상 표시 영역 전체에서 출력되도록 영상 표시 장치(100)를 제어할 수 있다. 영상 제어 장치(300)는 사용자의 눈의 위치에 따른 유효 영역을 결정하여, 유효 영역에 관한 정보를 이동 제어 장치(420)에 제공할 수 있다.
이동 제어 장치(420)는 유효 영역에 관한 정보에 기초하여 이동 장치(600)를 제어할 수 있다. 이동 장치(600)는 영상 표시 장치(100)를 이동시킬 수 있다. 예를 들어, 이동 장치(600)는 영상 표시 장치(100)를 영상 표시 장치(100)의 영상이 출력되는 면에 평행한 방향을 따라 이동시킬 수 있다. 이동 장치(600)는 영상 표시 장치(100)의 픽셀들이 배치되는 영상 표시 영역이 유효 영역 내에 배치되도록 영상 표시 장치(100)를 이동시킬 수 있다. 이에 따라, 완전한 목표 영상이 사용자에게 제공될 수 있다.
도 12는 예시적인 실시예에 따른 디스플레이 장치의 작동 방법을 설명하기 위한 순서도이다. 도 13 및 도 15는 도 12의 디스플레이 장치의 작동 방법을 설명하기 위한 디스플레이 장치의 개념도들이다. 도 14, 도 16, 및 도 17은 도 12의 디스플레이 장치의 작동 방법을 설명하기 위한 영상 표시 장치의 개념도이다. 설명의 간결함을 위해, 도 2 내지 도 10을 참조하여 설명된 것과 실질적으로 동일한 내용은 설명되지 않을 수 있다.
도 12 내지 도 14를 참조하면, 사용자(1)의 눈의 위치가 측정될 수 있다.(S210) 사용자(1)의 눈의 위치를 측정하는 것은 도 2 및 도 3을 참조하여 설명된 것과 실질적으로 동일할 수 있다.
사용자(1)의 눈의 위치 정보에 기초하여 유효 영역(110)이 결정될 수 있다.(S220) 유효 영역(110)을 결정하는 것은 도 2 및 도 3을 참조하여 설명된 것과 실질적으로 동일할 수 있다.
도 2 내지 도 10을 참조하여 설명된 것과 달리, 이동 장치(600)를 이용하는 것에 의해 유효 영역(110) 내에 활성 영역(120)이 배치될 수 있다.(S230) 활성 영역(120)은 도 2 내지 도 10을 참조하여 설명된 것과 실질적으로 동일할 수 있다. 영상 제어 장치(300)는 유효 영역(110)에 대한 정보를 이동 제어 장치(420)에 제공할 수 있다. 이동 제어 장치(420)는 유효 영역(110)에 대한 정보에 기초하여 활성 영역(120)이 유효 영역(110) 내에 배치되도록 내에 이동 장치(600)를 제어할 수 있다. 이에 따라, 사용자(1)는 완전한 목표 영상을 볼 수 있다.
이하에서, 사용자(1)의 눈의 위치에 따른 디스플레이 장치(12)의 작동 태양이 설명된다.
사용자(1)의 눈은 제1 위치에 배치될 수 있다. 예를 들어, 제1 위치는 사용자(1)가 완전한 목표 영상을 볼 수 있는 위치일 수 있다. 사용자(1)의 눈이 제1 위치에 배치된 경우, 유효 영역(110)은 활성 영역(120)과 완전히 중첩할 수 있다.
도 5를 다시 참조하면, 제2 미러(220)는 유효 반사 영역(222) 및 활성 반사 영역(224)을 포함할 수 있다. 유효 반사 영역(222)은 유효 영역(110)에 대응할 수 있다. 예를 들어, 유효 영역(110)에서 출력된 영상은 제1 미러(210)에 의해 반사되어, 제2 미러(220)의 유효 반사 영역(222)에 도달할 수 있다. 활성 반사 영역(224)은 활성 영역(120)에 대응할 수 있다. 예를 들어, 활성 영역(120)에서 출력된 영상은 제1 미러(210)에 의해 반사되어, 제2 미러(220)의 활성 반사 영역(224)에 도달할 수 있다. 목표 영상은 유효 반사 영역(222) 내의 활성 반사 영역(224)에서 반사되어, 사용자(1)의 눈에 도달할 수 있다. 이에 따라, 사용자(1)는 완전한 목표 영상을 볼 수 있다.
도 15를 참조하면, 사용자(1)의 눈이 제1 위치와 다른 제2 위치에 배치될 수 있다.
이하에서, 사용자(1)의 눈의 위치에 따라 영상 표시 장치(100) 및 활성 영역(120)의 위치가 변하지 않을 경우가 설명된다. 사용자(1)의 눈의 위치에 따라 영상 표시 장치(100) 및 활성 영역(120)의 위치가 변하지 않는 것은 본 개시에 따른 실시예와의 비교를 위해 설명된다.
도 16을 참조하면, 영상 표시 장치(100) 및 활성 영역(120)은 사용자(1)의 눈이 제1 위치에 배치되었을 때 결정된 위치에 배치될 수 있다. 사용자(1)의 눈이 제2 위치로 이동한 경우, 유효 영역(110)은 이동될 수 있다. 예를 들어, 사용자(1)가 의자 등받이를 뒤로 젖혀서 기대면 사용자(1)의 눈은 제1 위치보다 낮은 제2 위치에 배치될 수 있다. 이 경우, 유효 영역(110)은 영상 표시 영역(130)의 상부로 이동할 수 있다. 영상 표시 장치(100) 및 활성 영역(120)의 위치는 변하지 않을 수 있다. 활성 영역(120)은 유효 영역(110)에 완전히 중첩하지 않을 수 있다. 예를 들어, 유효 영역(110)은, 활성 영역(120)의 상부와 중첩하고 활성 영역(120)의 하부와 중첩하지 않는 위치로 이동할 수 있다.
도 8을 다시 참조하면, 활성 반사 영역(224)은 활성 영역(120)의 상부에 대응할 수 있다. 사용자(1)는 목표 영상의 상부만 볼 수 있고, 목표 영상의 하부는 볼 수 없다. 사용자(1)는 완전한 목표 영상을 볼 수 없다.
이하에서, 사용자(1)의 눈의 위치에 따라 영상 표시 장치(100) 및 활성 영역(120)의 위치가 변하는 예시적인 실시예가 설명된다.
도 17을 참조하면, 도 16에 도시된 것과 달리, 활성 영역(120)은 유효 영역(110) 내에 배치될 수 있다. 영상 제어 장치(300)는 촬영 장치(500)로부터 제공받은 사용자(1)의 영상 정보에 기초하여, 사용자(1)의 눈 위치를 측정하고, 이에 따른 유효 영역(110)을 결정할 수 있다. 영상 제어 장치(300)는 유효 영역(110)에 대한 정보를 이동 제어 장치(420)에 제공할 수 있다. 이동 제어 장치(420)는 유효 영역(110)에 대한 정보에 기초하여 활성 영역(120)이 유효 영역(110) 내에 배치되도록 이동 장치(600)를 제어할 수 있다. 이동 장치(600)에 의해 영상 표시 장치(100)가 이동되어, 활성 영역(120)을 유효 영역(110) 내에 배치할 수 있다. 예를 들어, 영상 표시 영역(130) 내에서의 활성 영역(120)의 위치는 고정될 수 있다.
도 10을 다시 참조하면, 활성 반사 영역(224)은 영상 제어 장치(300)에 대응할 수 있다. 이에 따라, 사용자(1)는 완전한 목표 영상을 볼 수 있다.
본 발명의 기술적 사상의 실시예들에 대한 이상의 설명은 본 발명의 기술적 사상의 설명을 위한 예시를 제공한다. 따라서 본 발명의 기술적 사상은 이상의 실시예들에 한정되지 않으며, 본 발명의 기술적 사상 내에서 당해 기술 분야의 통상의 지식을 가진 자에 의하여 상기 실시예들을 조합하여 실시하는 등 여러 가지 많은 수정 및 변경이 가능함은 명백하다.

Claims (15)

  1. 목표 영상을 출력하는 영상 표시 장치;
    상기 목표 영상을 반사하여 사용자에게 제공하는 제1 미러;
    상기 목표 영상이 출력되는 활성 영역의 위치 정보를 생성하는 영상 제어 장치; 및
    상기 활성 영역의 위치 정보에 기초하여 상기 목표 영상이 출력되도록 상기 영상 표시 장치를 제어하는 구동 장치;를 포함하되,
    상기 활성 영역의 크기는 상기 영상 표시 장치의 픽셀들이 배치되는 영상 표시 영역의 크기보다 작은 디스플레이 장치.
  2. 제 1 항에 있어서,
    상기 영상 표시 장치와 상기 제1 미러 사이에 제공되는 제2 미러;를 더 포함하되,
    상기 제2 미러는 상기 영상 표시 장치로부터 출력된 상기 목표 영상을 상기 제1 미러로 반사하는 디스플레이 장치.
  3. 제 1 항에 있어서,
    상기 영상 제어 장치는, 상기 영상 표시 영역 내에서 상기 활성 영역의 위치를 결정하는 디스플레이 장치.
  4. 제 1 항에 있어서,
    상기 사용자를 촬영하여 사용자 영상 정보를 생성하는 촬영 장치;를 더 포함하되,
    상기 영상 제어 장치는 상기 사용자 영상 정보에 기초하여 상기 사용자의 눈의 위치를 측정하는 디스플레이 장치.
  5. 제 4 항에 있어서,
    상기 영상 제어 장치는 상기 사용자의 눈 위치에 대한 정보에 기초하여 유효 영역을 결정하되,
    상기 유효 영역은 상기 사용자에게 보여지는 상기 영상 표시 영역의 일부인 디스플레이 장치.
  6. 제 5 항에 있어서,
    상기 영상 제어 장치는 상기 활성 영역이 상기 유효 영역 내에 배치되도록 상기 활성 영역의 위치 정보를 생성하는 디스플레이 장치.
  7. 목표 영상을 출력하는 영상 표시 장치;
    상기 영상 표시 장치의 위치를 조절하는 이동 장치;
    상기 이동 장치를 제어하는 이동 제어 장치;
    상기 목표 영상을 반사하여 사용자에게 제공하는 제1 미러;
    상기 사용자를 촬영하여 사용자 영상 정보를 생성하는 촬영 장치;
    상기 영상 표시 장치의 영상 출력 작동을 제어하는 구동 장치; 및
    상기 구동 장치에 상기 목표 영상에 대한 정보를 제공하는 영상 제어 장치;를 포함하되,
    상기 영상 제어 장치는 상기 촬영 장치로부터 상기 사용자의 영상 정보를 획득하여 상기 사용자의 눈의 위치를 측정하고,
    상기 이동 제어 장치는 상기 사용자의 눈 위치에 대한 정보에 기초하여 상기 영상 표시 장치의 위치가 조절되도록 상기 이동 장치를 제어하는 디스플레이 장치.
  8. 제 7 항에 있어서,
    상기 영상 표시 장치와 상기 제1 미러 사이에 제공되는 제2 미러;를 더 포함하되,
    상기 제2 미러는 상기 영상 표시 장치로부터 출력된 상기 목표 영상을 상기 제1 미러로 반사하는 디스플레이 장치.
  9. 제 7 항에 있어서,
    상기 영상 제어 장치는 상기 사용자의 눈 위치에 대한 정보에 기초하여 유효 영역을 결정하되,
    상기 유효 영역은 상기 영상 표시 장치에서 영상이 출력되는 면과 동일 평면에 배치되고, 상기 사용자에게 보여지는 영역인 디스플레이 장치.
  10. 제 9 항에 있어서,
    상기 이동 제어 장치는 상기 유효 영역에 대한 정보에 기초하여, 상기 영상 표시 장치의 위치를 조절하도록 상기 이동 장치를 제어하는 디스플레이 장치.
  11. 영상 제어 장치;를 포함하되,
    상기 영상 제어 장치는, 촬영 장치로부터 획득한 사용자의 영상 정보에 기초하여 상기 사용자의 눈의 위치를 측정하고, 상기 사용자의 눈 위치에 대한 정보에 기초하여 영상 표시 장치의 영상이 출력되는 면과 동일 평면에 배치되어 상기 사용자에게 보여지는 영역인 유효 영역을 결정하고, 상기 유효 영역 내에 목표 영상이 출력되는 활성 영역이 배치되도록 상기 활성 영역의 위치를 결정하는 디스플레이 장치.
  12. 제 11 항에 있어서,
    상기 활성 영역의 크기는 상기 영상 표시 장치의 픽셀들이 배치되는 영상 표시 영역의 크기보다 작은 디스플레이 장치.
  13. 제 11 항에 있어서,
    상기 영상 표시 장치의 영상 출력 작동을 제어하는 구동 장치;를 더 포함하되,
    상기 영상 제어 장치는 상기 활성 영역 내의 픽셀들은 발광하고, 상기 활성 영역 외부의 픽셀들은 발광하지 않도록 구동 장치를 제어하는 디스플레이 장치.
  14. 제 11 항에 있어서,
    상기 영상 표시 장치의 영상 출력 작동을 제어하는 구동 장치를 더 포함하되,
    상기 영상 제어 장치는, 상기 활성 영역 외부에서 상기 목표 영상과 다른 배경 영상 출력되도록 상기 구동 장치를 제어하는 디스플레이 장치.
  15. 제 11 항에 있어서,
    상기 영상 표시 장치의 위치를 결정하는 이동 제어 장치; 및
    상기 영상 표시 장치의 위치를 조절하는 이동 장치;를 더 포함하되,
    상기 이동 제어 장치는 상기 유효 영역에 대한 정보에 기초하여, 상기 활성 영역이 상기 유효 영역 내에 배치되도록 상기 영상 표시 장치의 위치를 결정하고,
    상기 이동 장치는 상기 영상 표시 장치의 위치에 대한 정보에 기초하여 상기 영상 표시 장치의 위치를 조절하는 디스플레이 장치.
PCT/KR2020/013673 2019-12-05 2020-10-07 디스플레이 장치 WO2021112386A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2019-0160960 2019-12-05
KR1020190160960A KR20210070799A (ko) 2019-12-05 2019-12-05 디스플레이 장치

Publications (1)

Publication Number Publication Date
WO2021112386A1 true WO2021112386A1 (ko) 2021-06-10

Family

ID=76222005

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/013673 WO2021112386A1 (ko) 2019-12-05 2020-10-07 디스플레이 장치

Country Status (2)

Country Link
KR (1) KR20210070799A (ko)
WO (1) WO2021112386A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140079903A (ko) * 2012-12-20 2014-06-30 에스엘 주식회사 차량의 헤드업 디스플레이 장치 및 그 동작 방법
JP2014150304A (ja) * 2013-01-31 2014-08-21 Nippon Seiki Co Ltd 表示装置及びその表示方法
JP2016053691A (ja) * 2014-09-04 2016-04-14 矢崎総業株式会社 車両用投影表示装置
KR101658743B1 (ko) * 2012-09-07 2016-09-21 가부시키가이샤 덴소 차량용 헤드업 디스플레이 장치
KR20180046567A (ko) * 2016-10-28 2018-05-09 현대자동차주식회사 차량용 헤드 업 디스플레이 제어 장치 및 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101658743B1 (ko) * 2012-09-07 2016-09-21 가부시키가이샤 덴소 차량용 헤드업 디스플레이 장치
KR20140079903A (ko) * 2012-12-20 2014-06-30 에스엘 주식회사 차량의 헤드업 디스플레이 장치 및 그 동작 방법
JP2014150304A (ja) * 2013-01-31 2014-08-21 Nippon Seiki Co Ltd 表示装置及びその表示方法
JP2016053691A (ja) * 2014-09-04 2016-04-14 矢崎総業株式会社 車両用投影表示装置
KR20180046567A (ko) * 2016-10-28 2018-05-09 현대자동차주식회사 차량용 헤드 업 디스플레이 제어 장치 및 방법

Also Published As

Publication number Publication date
KR20210070799A (ko) 2021-06-15

Similar Documents

Publication Publication Date Title
US8459803B2 (en) Multi-source projection-type display
WO2013133664A1 (ko) 안구 동작에 기초한 디바이스의 제어 방법 및 이를 위한 디바이스
WO2015129966A1 (en) Head mounted display providing closed-view and method of controlling therefor
WO2016006758A1 (en) Lightguide structure, optical device and imaging system
WO2020262923A1 (en) System and method for generating a mixed reality experience
WO2017164573A1 (en) Near-eye display apparatus and near-eye display method
WO2019168275A1 (en) A high-speed staggered binocular eye tracking systems
WO2019151817A1 (en) Apparatus and method for tracking a focal point in a head mounted display system
WO2018182159A1 (ko) 가상 오브젝트의 처리가 가능한 스마트 안경
WO2021112386A1 (ko) 디스플레이 장치
WO2020197134A1 (ko) 복수개의 증강 현실용 화상을 이용한 증강 현실용 광학 장치
WO2022145888A1 (ko) 증강 현실 장치를 제어하는 방법 및 이를 수행하는 증강 현실 장치
WO2022014952A1 (ko) 증강 현실 표시 장치
WO2022196869A1 (ko) 머리 착용형 디스플레이 장치, 그 장치에서의 동작 방법 및 저장매체
WO2020096186A1 (ko) 증강 현실용 광학 장치
WO2019164241A1 (ko) 접안 디스플레이 장치
WO2019112147A1 (ko) 미러 디스플레이 시스템에서 객체의 깊이를 제어하기 위한 방법
WO2020171338A1 (ko) 컴팩트형 증강 현실용 광학 장치
WO2019093679A1 (en) Projector and operating method thereof
WO2018124799A1 (en) Imaging system
WO2023043022A1 (ko) 모바일 장치의 확장 화면을 표시하는 장치 및 방법
WO2023043045A1 (ko) 전기 변색 소자를 포함하는 전자 장치 및 그 제어 방법
WO2023121120A1 (ko) 간섭 제거 방법 및 상기 방법을 수행하는 전자 장치
WO2023136072A1 (ja) キャリブレーション装置、表示装置、キャリブレーション方法、および画像表示方法
WO2023048409A1 (ko) 카메라를 포함하는 웨어러블 장치 및 그 제어 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20896769

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20896769

Country of ref document: EP

Kind code of ref document: A1