WO2019017700A1 - Display device and control method therefor - Google Patents

Display device and control method therefor Download PDF

Info

Publication number
WO2019017700A1
WO2019017700A1 PCT/KR2018/008145 KR2018008145W WO2019017700A1 WO 2019017700 A1 WO2019017700 A1 WO 2019017700A1 KR 2018008145 W KR2018008145 W KR 2018008145W WO 2019017700 A1 WO2019017700 A1 WO 2019017700A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
view
area
images
display panel
Prior art date
Application number
PCT/KR2018/008145
Other languages
French (fr)
Korean (ko)
Inventor
무크타로브파리드
한승룡
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Publication of WO2019017700A1 publication Critical patent/WO2019017700A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/324Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N2013/40Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene
    • H04N2013/405Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene the images being stereoscopic or three dimensional

Definitions

  • the present invention relates to a display device and a control method thereof, and more particularly, to a display device and a control method thereof for providing a 3D image to a user.
  • a display device such as a TV, which is one of household appliances most commonly used in general households, is developing rapidly.
  • the kinds of contents provided by the display device are also diversified.
  • a stereoscopic display device that provides 3D images has been developed and popularized.
  • the stereoscopic display device can be implemented not only in a 3D TV used in a home, but also in various types of display devices such as various monitors, mobile phones, PDAs, PCs, set-top PCs, tablet PCs, electronic frames, kiosks and the like.
  • 3D display technology is being used in various fields that require 3D image such as science, medicine, design, education, advertisement, computer game as well as domestic use.
  • the stereoscopic display device can be classified into a spectacular display device that watches 3D images by wearing glasses, and an unsharp display device that watches 3D images without glasses.
  • the spectacles-type display device can provide a satisfactory stereoscopic effect, there is an inconvenience that the viewer can watch the 3D image only by wearing glasses.
  • the non-eye-saving display device has an advantage that 3D images can be viewed without glasses, and in recent years, the development of a non-eye-wear display device has been continuously being discussed.
  • the conventional non-eye-warming display device a plurality of images are displayed on a single screen, resulting in deterioration of image quality.
  • the conventional non-anion-based display device is provided only on a display of a certain size or less.
  • the non-eye-warming display device has a limitation on a viewing zone, i.e., a space in which the viewer can view the 3D image, and when the viewer moves out of the viewing zone, the non- There was no problem.
  • the present invention has been conceived to solve the above-mentioned problems, and it is an object of the present invention to provide a display device capable of providing a high-quality 3D image to a user through vibration of a display panel, And a control method thereof.
  • a display device includes an actuator, a display panel including a plurality of pixels, a processor that displays a multi-view image generated based on a plurality of images corresponding to a plurality of viewpoints on a display panel, And a field of view separating unit for separating the field of view provided with the multi-view image displayed on the display panel and providing images at different viewpoints in each field of view, wherein the processor controls the actuator to vibrate the display panel And sequentially displaying a first multi-view image including an image of a partial area of each of the plurality of images and a second multi-view image including an image of another area of each of the plurality of images while the display panel is vibrating, The image of the partial area and the image of the other area can be provided in the same view area.
  • the processor confirms the pixels displaying the image of the partial region and the image of the other region among the plurality of pixels, and displays the image of the other region Respectively.
  • the image of the partial region and the image of the other region are provided at different positions in the same view region, and the position where the image of the different region and the image of the partial region is provided in the same view region, And may correspond to the position of an image in a different area from the image.
  • the image of the other region may be an image of a region adjacent to a partial region in the image corresponding to each viewpoint, and may be an image not included in the first multi-view image.
  • the display panel includes a plurality of display modules
  • the actuator includes a plurality of actuators for vibrating the plurality of display modules
  • the processor can control the plurality of actuators to vibrate the plurality of display modules .
  • the processor divides the first multi-view image into a plurality of first multi-view sub-images, divides the second multi-view image into a plurality of second multi-view sub-images, and a plurality
  • the first multi-view sub-image and the second multi-view sub-image may be sequentially displayed on the display module of the display unit.
  • the display device further includes a camera and is capable of adjusting the vibration amplitude of the actuator based on at least one position of the user's eyes and head included in the image captured through the camera have.
  • the processor can adjust the vibration magnitude of the plurality of actuators based on the position of at least one of the user's eyes and the head included in the image photographed through the camera.
  • a method of controlling a display device includes displaying a multi-view image generated based on a plurality of images corresponding to a plurality of views on a display panel of a display device, Providing a viewpoint image at different viewpoints in each of the viewports and vibrating the display panel and displaying a first multi view image including an image of a partial area of each of the plurality of images and a plurality of And sequentially displaying the second multi-view image including the images of the different regions of the image in the same view area.
  • the step of displaying the multi-view image may include the steps of: identifying pixels of the image of a part of the pixels included in the display panel and images of other areas, respectively, according to the magnitude of vibration of the display panel; And displaying the image of the partial region and the image of the different region, respectively.
  • the image of the partial region and the image of the other region are provided at different positions in the same view region, and the position where the image of the different region and the image of the partial region is provided in the same view region, And may correspond to the position of an image in a different area from the image.
  • the image of the other region may be an image of a region adjacent to a certain region in the image corresponding to each viewpoint, and may be an image not included in the first multi-view image.
  • the display panel includes a plurality of display modules, and the vibrating step may vibrate the plurality of display modules.
  • a method of controlling a display device comprising: capturing at least one of a user's eyes and a head; and displaying, based on at least one of a user's eyes and a head included in the captured image, And adjusting the vibration amplitude of the display panel.
  • the method may further include adjusting the vibration amplitude of the plurality of display modules based on the position of at least one of the user's eyes and the head and the position of at least one of the user's eyes and head included in the captured image .
  • FIG. 1 is a view for explaining an operation of a display apparatus for displaying a multi-view image according to an embodiment of the present invention.
  • FIGS. 2A to 2C are views showing the configuration of a display device according to an embodiment of the present invention.
  • FIG. 3 is a detailed block diagram illustrating the configuration of a spectacle-free 3D display device according to an embodiment of the present invention.
  • FIG. 4 is a view for explaining a multi-view image according to an embodiment of the present invention.
  • FIG. 5 is a view for explaining an operation of displaying a first multi-view image by a display apparatus according to an embodiment of the present invention.
  • FIG. 6 and 7 are views for explaining an operation of displaying a second multi-view image according to an exemplary embodiment of the present invention.
  • FIG. 8 is a diagram for explaining a case where a display device includes a plurality of modules according to an embodiment of the present invention.
  • FIG. 9 is a flowchart illustrating an operation of a display apparatus according to an exemplary embodiment of the present invention.
  • 'module' or 'sub' performs at least one function or operation, and may be implemented in hardware or software, or a combination of hardware and software.
  • a plurality of 'modules' or a plurality of 'parts' may be integrated into at least one module except for 'module' or 'module' which need to be implemented by specific hardware, and implemented by at least one processor (not shown) .
  • FIG. 1 is a view for explaining the operation of a display device for displaying a multi-view image according to an embodiment of the present invention.
  • a display device may display a multi-view image.
  • the multi-view image means an image generated based on a plurality of images corresponding to a plurality of viewpoints.
  • the multi-view image means an image in which a plurality of images obtained by photographing the same object at different angles are arranged in a predetermined arrangement pattern.
  • the multi-view image may be an image in which first to seventh images photographed at seven viewpoints are sequentially arranged.
  • FIG. 1 an image photographed at seven viewpoints is shown.
  • the number of viewpoints is not limited thereto.
  • the display device projects a plurality of images photographed at different viewpoints at different angles, and provides a focused image at a position (for example, about 3 meters) apart by a predetermined distance called a viewing distance.
  • a viewing distance for example, about 3 meters
  • the position where the focused image is formed is referred to as a viewing zone.
  • the user can simultaneously view images at different viewpoints, thereby enabling a three-dimensional feeling to be felt.
  • the display device displays light (or an optical view) corresponding to a first viewpoint image of seven viewpoints in the left eye of a user, and light corresponding to a second viewpoint image can do. Accordingly, the user can simultaneously view the images of different viewpoints with the left and right eyes, respectively, so that the user can feel the stereoscopic effect.
  • light corresponding to the first viewpoint image is projected on the left eye of the user, and light corresponding to the second viewpoint image is projected on the right eye.
  • the present invention is not limited thereto.
  • light corresponding to the first and second viewpoint images is projected on the left eye of the user and light corresponding to the third and fourth viewpoint images is projected on the right eye, It may be projected in the right eye.
  • the view mapping method includes a linear mapping method and a cyclic mapping method.
  • a linear mapping method is shown.
  • a multi-view image may be generated based on a cyclic mapping method.
  • FIGS. 2A to 2C are views showing the configuration of a display device according to an embodiment of the present invention.
  • the display device 100 may include a display panel 110, an actuator 120, a field-of-view separation unit 130, and a processor 140.
  • the display device 100 may be implemented as various types of display devices such as a TV, a monitor, a PC, a kiosk, a tablet PC, an electronic frame, a mobile phone, and the like.
  • An image input unit (not shown) of the display device 100 can receive an image.
  • the image input unit (not shown) can receive various images from an external storage medium, a broadcasting station, a web server, and the like.
  • the input image may be at least one of a single view image, a stereo image, and a multi-view image.
  • a single viewpoint image is an image captured by a general photographing apparatus
  • a stereoscopic image is a three-dimensional video image expressed by only a left eye image and a right eye image, and is a stereoscopic image photographed by a stereo photographing apparatus.
  • a stereo photographing apparatus is used for photographing a stereoscopic image with a photographing apparatus having two lenses.
  • the multi-view image refers to a three-dimensional video image that geometrically corrects images photographed through one or more photographing apparatuses and provides various viewpoints in various directions through spatial synthesis.
  • the display panel 110 may include a plurality of pixels composed of a plurality of sub-pixels.
  • the subpixel may be composed of R (Red), G (Green), and B (Blue). That is, the display panel 110 can be configured by arranging pixels composed of R, G, and B subpixels in a plurality of rows and columns.
  • the display panel 110 may include a liquid crystal display panel (LCD panel), a plasma display panel (PDP), an organic light emitting diode (OLED), a vacuum fluorescent display ), An FED (Field Emission Display), an ELD (Electro Luminescence Display), and the like.
  • the display panel 110 can display an image. Specifically, the display panel 110 may display a multi-view image generated based on a plurality of images corresponding to a plurality of viewpoints. As described above, a multi-view image refers to an image in which a plurality of images at different viewpoints are arranged in a predetermined arrangement pattern. For example, when a first image corresponding to a first viewpoint and a second image corresponding to a second viewpoint are input through an image input unit (not shown), the display panel 110 displays a part of the first image and a second image View image generated by disposing a part of the multi-view image.
  • the display device 100 when the display panel 110 is implemented as an LCD panel, the display device 100 includes a backlight unit (not shown) for supplying a backlight to the display panel 110 and a backlight unit And a panel driving unit (not shown) for driving the pixels of the display panel 110 according to pixel values of the respective pixels.
  • the actuator 120 can vibrate the display panel 110.
  • the actuator 120 may be physically coupled to the display panel 110 and may be implemented by various motors such as a linear motor, a piezo motor, and a step motor. Meanwhile, the actuator 120 may be implemented as a single unit to vibrate the display panel 110, or may be implemented as a plurality of actuators. When a plurality of actuators 120 are implemented, the actuators 120 are preferably disposed on the left and right sides of the display panel 110, but are not limited thereto.
  • the actuator 120 can vibrate the display panel 110 in the horizontal direction. Accordingly, the present invention can display, on the display panel 110, an image before being generated as a multi-view image, that is, an image of an area not included in the multi-view image among the original images. A detailed description thereof will be described later.
  • the viewing area separating unit 130 may be disposed on the front surface of the display panel 110 to separate the viewing area provided with the multi view image displayed on the display panel 110 and provide images at different viewing points in each viewing area.
  • the field-of-view separation unit 130 may be implemented as a lenticular lens including a plurality of lens regions.
  • the lenticular lens can separate the view area by refracting the multi-view image displayed on the display panel 110 through the plurality of lens areas.
  • each lens region of the lenticular lens is formed to have a size corresponding to at least one pixel, so that light transmitted through each pixel can be refracted differently.
  • the respective images corresponding to the different viewpoints included in the multi-view image displayed on the display panel 110 provide different viewports, and images at different viewpoints are provided in the respective viewports.
  • the field-of-view separation unit 130 may be implemented as a parallax barrier.
  • the parallax barrier may be implemented as a transparent slit array including a plurality of barrier regions. Accordingly, each of the images corresponding to the different viewpoints included in the multi-view image through the slit between the barrier regions provide different view areas, and images at different viewpoints are provided in each view field.
  • FIG. 2B illustrates a case where the viewing area separator 120 is implemented as a lenticular lens, the display panel 110 is implemented as an LCD panel, and the backlight 115 is implemented as an LED, for example, according to an embodiment of the present invention.
  • a display unit includes a display panel 110, a backlight 115, and a lenticular lens 130.
  • the display unit of the present invention is described as having the backlight 115, but it is not necessarily required to have the backlight 115.
  • the display unit of the present invention may be implemented as an OLED (organic light emitting diode) that does not require a separate backlight.
  • the display panel 110 includes a plurality of pixels divided into a plurality of columns. Then, images of different viewpoints are arranged for each pixel in each column. For example, the first to eighth images, which are a plurality of images at different viewpoints, may be sequentially and repeatedly arranged in each pixel column. That is, each pixel column may be arranged in groups numbered 1, 2, 3, 4, 5, 6, 7,
  • the backlight 115 may include a light emitting diode (LED).
  • the plurality of light sources constituting the backlight may be arranged in various forms, and various local dimming techniques may be applied.
  • the backlight may be a direct type backlight in which a plurality of light sources are arranged in a matrix form and are uniformly arranged over the entire liquid crystal screen. In this case, the backlight can operate with full-array local dimming or direct local dimming.
  • the backlight may be an edge type backlight in which a plurality of light sources are disposed only at the edge of the LCD. In this case, the backlight can operate with Edge-lit local dimming.
  • the backlight 115 provides light to the display panel 110.
  • Each image formed on the display panel 110 is projected onto the lenticular lens 130 by the light provided from the backlight 115 and the lenticular lens 130 refracts the light of each projected image and transmits do.
  • the lenticular lens 130 generates exit pupils at the position of the user, i.e., the viewing distance.
  • the thickness and the diameter of the lenticular lens can be designed such that the exit pupil generated by each pixel column is divided into an average binocular center distance of less than 65 mm when the viewfinder unit 130 is implemented as a lenticular lens.
  • the spacing of the slits and the like can be designed such that the exit pupil generated by each pixel column is divided into an average binocular center distance of less than 65 mm.
  • the lights of the separated images form an optical view, respectively. That is, as shown in FIG. 2B, when a plurality of optical views are formed in the viewing area and the left and right eyes of the user are respectively located in different optical views, 3D images can be viewed.
  • the field-of-view separation unit 130 may be tilted at an angle to improve picture quality.
  • the processor 140 may divide each of the plurality of multi-view images based on the angle of the Slanted part of the field separator 130, and combine them to generate a multi-view image frame for output. Accordingly, the user can view an image tilted in a specific direction, rather than viewing the image displayed in the vertical direction or the horizontal direction in the sub-pixels of the display panel 110. [ Thus, the viewer can view a portion of the subpixel that is not one complete subpixel for at least some pixels. For example, as shown in FIG. 2C, the user views the tilted region 210 at a predetermined angle by the view-of-view separating unit 130.
  • the optical operation of the view- The user views the pixel region (hereinafter referred to as the visible pixel region) in the inclined region as shown.
  • the size of the pixels A, B, and C provided in the visible pixel region can be determined by the pitch of the lenticular lens.
  • the processor 140 controls the overall operation of the display device 100.
  • the processor 140 may include one or more of a central processing unit (CPU), an application processor (AP), or a communication processor (CP) .
  • CPU central processing unit
  • AP application processor
  • CP communication processor
  • the processor 140 may render a plurality of images at different viewpoints.
  • the processor 140 may render a plurality of images at different points of view based on the depth information extracted by the 2D / 3D conversion. Or when a plurality of images at different viewpoints and a plurality of depth information corresponding thereto are input, a plurality of images may be rendered based on at least one image and depth information among a plurality of input image and depth information. Alternatively, when only a plurality of images at different viewpoints are input, a plurality of images can be rendered based on the extracted depth information after extracting depth information from a plurality of images.
  • the processor 140 may select one of a 3D image, that is, a left eye image and a right eye image, as a reference image (or a center image) to generate the leftmost image and the rightmost image as the basis of the multi-view image.
  • the processor 140 may generate the leftmost image and the rightmost image based on the corrected depth information corresponding to one of the left eye image and the right eye image selected as the reference image.
  • the processor 140 When the leftmost and rightmost images are generated, the processor 140 generates a plurality of interpolated images between the center image and the leftmost image, and generates a plurality of interpolated images between the center image and the rightmost image, Lt; / RTI >
  • the present invention is not limited to this, and it is also possible to generate an extrapolation view generated by an extrapolation technique.
  • the 2D image can be selected as the center image.
  • the above-described rendering operation is merely an example, and it goes without saying that a plurality of images can be rendered by various methods other than the rendering operation described above.
  • the processor 140 may adjust the depth of the input image based on the depth information according to various criteria. In this case, the processor 140 may render a plurality of images based on the adjusted depth image .
  • the processor 140 may provide a multi-view image by arranging a plurality of rendered images on the display panel 110 in a predetermined arrangement pattern.
  • a multi-view image generated based on images at two view points.
  • the processor 140 may provide a multi view image in which a first view image corresponding to the first viewpoint rendered and a second viewpoint image corresponding to the rendered viewpoint are arranged in a predetermined arrangement pattern.
  • the multi-view image may include a first multi-view image and a second multi-view image.
  • the first multi-view image is an image including a first view image and a second view image
  • the second multi-view image is a first view image not included in the first multi- It may be an image including another region of the image.
  • An image of another area included in the second multi-view image may be an image of an area adjacent to each of the partial areas of the first multi-view image, and may be an image of an area not included in the first multi-view image.
  • 1 multi view image may be a multi view image in which the first and second view images are arranged in the order of 1-1, 2-2, 1-3, 2-4, and 1-5
  • the first and second viewpoint images may be multi-view images arranged in the order of 2-1, 1-2, 2-3, 1-4, 2-5.
  • the processor 140 may then control the display panel 110 to display the first multi-view image.
  • a part of the first viewpoint image included in the first multi-view image is provided to the left eye of the user by the view-point separating unit 130, and a part of the second viewpoint image included in the first multi- And can be provided to the right side of the user by the view / That is, in the above-described embodiment, images 1-1, 1-3, 1-5 are provided in the left eye of the user, and images 2-4 and 2-4 are provided in the right eye of the user. As described above, since images of different viewpoints are provided to both sides of the user, the user can feel a three-dimensional feeling.
  • the processor 140 may control the display panel 110 to display the second multi-view image. That is, in the above-described embodiment, the processor 140 displays the second multi-view image arranged in the order of 2-1, 1-2, 2-3, 1-4, 2-5 on the display panel 110 .
  • pixels displaying a partial area included in the first multi-view image and pixels displaying another area of the adjacent area included in the second multi- can be different.
  • the processor 140 identifies a pixel providing a partial area of the first multi-view image and a pixel providing a neighboring area of the second multi-view image, based on the magnitude of vibration of the display panel 110 , And may display the first and second multi-view images respectively on the identified pixels.
  • the pixels displaying the second multi-view image may be pixels adjacent to the pixels displaying the first multi-view image. This is to maintain the continuity of the objects included in the 3D image in providing images at the same time at different times.
  • the processor 140 may transmit an electrical signal to the actuator 120 to vibrate the display panel 110. Specifically, the processor 140 controls the display panel 110 to move the pixels providing adjacent regions of the second multi-view image to a position close to the position where the pixels that present a portion of the first multi- Can be vibrated in the horizontal direction.
  • the pixel providing the 1-2 video included in the second multi-view video and the pixel providing the 1-2 video included in the second multi-view video are located in the vicinity of the position where the pixel providing the 1-3 video included in the first multi-
  • the display panel 110 can be vibrated in the horizontal direction so that the pixel providing the display panel 110 is moved.
  • the 1-2 video and the 1-4 video of the second multi-view video can be provided in the same viewing area as the 1-3 video of the first multi-view video. More specifically, in a state where the lenticular lens is fixed, the pixel providing the 1-2 video and the 1-4 video of the second multi-view video is connected to the 1- When the display panel 110 is vibrated such that the pixel providing the 3-image is located, the 1-2 and 1-4 images of the second multi-view image are displayed on the 1- 3 video in the same viewing area.
  • the concept of the viewing zone should be understood as a specific area in which a 3D image can be viewed, not a point to be a specific point.
  • a part of the first multi-view image and a neighboring area of the second multi-view image can be provided at different positions in the same view area.
  • the adjacent area of the second multi-view image can be sequentially displayed on the display panel 110 near a part of the first multi- have.
  • the processor 140 vibrates the display panel 110 in the left direction when viewed from the area 1-3 of the areas included in the first multi-view
  • the image of the area 1-4 is displayed near the area 1-3 and the image of the area 1-2 is included in the area of the second multi view when the display panel 110 is vibrated in the right direction.
  • the continuity of objects included in the 3D image can be maintained.
  • the display panel 110 may include a plurality of display modules.
  • the present invention may further comprise a plurality of actuators for vibrating each of the plurality of display modules.
  • the processor 140 may divide the first multi-view image into a plurality of first multi-view sub-images. Specifically, the processor 140 may divide the first multi-view image into the same number as the number of the display modules. For example, when a plurality of display modules is implemented with four, the processor 140 may divide the first multi-view image into four first multi-view sub-images by dividing the first multi-view image into four regions.
  • the processor 140 may provide the first multi-view sub-image to each of the plurality of display modules based on the position of the plurality of display modules in the display panel 110.
  • the processor 140 converts the image displayed at the position corresponding to the (1,1) coordinates of the first multi- To a display module at a position corresponding to the (1,1) coordinates on the display panel 110.
  • the processor 140 displays the images displayed at the positions corresponding to the (1,2), (2,1), (2,2) coordinates of the first multi-view image on the display panel 110, 2) and (2,1) (2,2) coordinates, respectively.
  • the processor 140 can divide the second multi-view image into a plurality of sub-images, and provide each sub-image to the corresponding display module. The description thereof will be omitted because it is redundant to the above-mentioned portion.
  • the processor 140 displays the first multi-view sub-image on each display module of the display panel 110, and then displays the second multi-view sub-image on each display module of the display panel 110,
  • the display module can be vibrated.
  • the processor 140 may vibrate the display module so as to have antiphase between adjacent display modules in order to minimize vibration of the display device 100 itself.
  • the processor 140 can sequentially display the first multi-view sub-image and the second multi-view sub-image.
  • the present invention is capable of displaying an image of an area not included in the first multi-view sub-image through the second multi-view sub-image, and providing a non-tight 3D image without deterioration of image quality.
  • the display panel 110 can be implemented with a plurality of display modules, high-quality, non-limiting 3D images can be provided even in a large-sized display.
  • the operation of the present invention has been described with reference to a multi-view image generated based on images at two viewpoints for convenience of explanation.
  • the number of viewpoints is not necessarily limited to this,
  • the present invention can be applied to multi-view images generated on the basis of the multi-view images.
  • FIG. 3 is a detailed block diagram illustrating the configuration of a spectacle-free 3D display device according to an embodiment of the present invention.
  • the display device 100 includes a display panel 110, an actuator 120, a field separator 130, a processor 140, an audio processor 150, a video interface 160, and a camera 170 ).
  • a display panel 110 an actuator 120, a field separator 130, a processor 140, an audio processor 150, a video interface 160, and a camera 170 .
  • the processor 140 includes a RAM 141, a ROM 142, a main CPU 143, a graphics processing unit 144, first through n interfaces 145-1 through 145-n,
  • the RAM 141, the ROM 142, the main CPU 143, the graphics processing unit 144, the first to n interfaces 145-1 to 145-n, etc. may be connected to each other via the bus 146.
  • the first to n interfaces 145-1 to 145-n are connected to the various components described above.
  • One of the interfaces may be a network interface connected to an external device via a network.
  • the main CPU 143 accesses a storage unit (not shown) and performs booting using the O / S stored in the storage unit (not shown). Various operations are performed using various modules, various programs, contents, and data stored in a storage unit (not shown).
  • the ROM 142 stores a command set for booting the system and the like.
  • the main CPU 143 copies the O / S stored in the storage unit (not shown) to the RAM 141 according to the instruction stored in the ROM 142, and executes the O / S To boot the system.
  • the main CPU 143 copies various programs stored in a storage unit (not shown) to the RAM 141, executes the program copied to the RAM 141, and performs various operations.
  • the graphic processing unit 144 generates a screen including various objects such as an icon, an image, and a text using an operation unit (not shown) and a rendering unit (not shown).
  • the operation unit (not shown) calculates an attribute value such as a coordinate value, a shape, a size, and a color to be displayed by each object according to the layout of the screen based on the received control command.
  • the rendering unit (not shown) creates screens of various layouts including the objects based on the attribute values calculated by the operation unit (not shown).
  • the camera 170 can take an image. Specifically, the camera 170 can photograph a user existing in front of the display device 100 '.
  • the camera 170 may be implemented as an external device separate from the display device 100 ', or may be implemented as a device embedded in the display device 100'.
  • the processor 140 may adjust the magnitude of the vibration of the actuator 120 based on the position of at least one of the user's eyes and the head included in the image photographed by the camera 170.
  • the processor 140 adjusts the vibration magnitude of the actuator 120 so that the visual field is formed at the changed position. Can be adjusted.
  • the processor 140 can vibrate the display panel 100 to adjust the position of the pixels included in the display panel 110.
  • the position of the adjusted pixel may be a position at which the field of view can be formed at the position of the user included in the photographed image, thereby forming the field of view at the changed position of at least one of the user's eyes and head .
  • the display device 100 may further include an eye tracking module (not shown) and a head tracking module (not shown).
  • an eye tracking module (not shown)
  • a head tracking module (not shown)
  • the specific operation of the eye tracking module (not shown) and the head tracking module (not shown) is omitted because each module is a known technology.
  • the processor 140 can adjust the magnitude of vibration of the actuator 120 based on at least one position of the user's eyes and the head. A detailed description thereof will be omitted since it is redundant with the above-mentioned portion.
  • the distance between the lenticular lens and the display module can be calculated by the following equation (1).
  • Dm is the distance between the lenticular lens and the display module
  • Do is the distance between the display module and the viewer
  • IPD is the pupil distance of the viewer
  • Hs is the horizontal size of the light source
  • the effective focal length (EFL) of the lenticular lens can be calculated by the following equation (2).
  • EFL is the focal length of the lenticular lens
  • Dm is the distance between the lenticular lens and the display module
  • Do is the distance between the display module and the viewer.
  • the width W1 of the lenticular lens can be calculated by the following equation (3).
  • Wl is the width of the lenticular lens
  • Hs is the horizontal size of the light source
  • N is the number of viewable areas
  • the above equations (1), (2) and (3) are only one equation for obtaining the parameters related to the lenticular lens, and in implementing the present invention, the parameters related to the lenticular lens are not necessarily calculated by the above- . That is, the parameters related to the lenticular lens may be calculated in other manners.
  • FIG. 4 is a view for explaining a multi-view image according to an embodiment of the present invention.
  • the multi-view image means an image in which the images corresponding to the respective viewpoints are arranged in a predetermined arrangement pattern.
  • the first view image 410 may include an image of a region 1-1 to 1-5
  • the second view image 420 may include an image of regions 2-1 to 2-5. can do.
  • the multi-view image 430 generated based on the first and second view-point images may be an image in which a part of the images included in the first and second view-point images are arranged in a predetermined arrangement pattern.
  • the multi-view image 430 shown in FIG. 4 is displayed, and the image of the area not included in the multi-view image, that is, the first view image 410, And the image of the area 2-1, 2-3, and 2-5 in the second viewpoint image 420 is not displayed, thereby causing image quality deterioration.
  • the present invention when viewing the multi-view image 430 as a first multi-view image, can provide a second multi-view image including an image of an area not included in the first multi-view image.
  • the second multi-view image may be an image in which the images of the regions 2-1, 1-2, 2-3, 1-4, and 2-5 are sequentially arranged.
  • the first multi-view image is viewed as an image in which the images at the first and second viewpoints are arranged in the order of 1-1, 2-2, 1-3, 2-4,
  • the second multi-view image will be described as an image in which the images at the first and second viewpoints are arranged in the order of 2-1, 1-2, 2-3, 1-4, 2-5.
  • FIG. 5 is a view for explaining an operation of displaying a first multi-view image by a display apparatus according to an embodiment of the present invention.
  • the processor 140 may display the first multi-view image on the display panel 110, as described above.
  • the pixels 511, 512, and 513 included in the display panel 110 may provide images of different regions.
  • the first pixel 511 may provide an image of a region 2-2 of the first multi-view image
  • the second pixel 512 may provide an image of an area 1-3 of the first multi-
  • the third pixel 513 can provide images of the 2-4 regions of the first multi-view image.
  • the pixels related to the image in the other area are omitted for convenience of explanation.
  • the processor 140 provides a first viewpoint image (for example, images in the areas 1-1, 1-3, and 1-5) included in the first multi-view image through the view /
  • the second viewing image included in the first multi-view image is provided to the right eye of the viewer through the viewing area separating unit, thereby providing the 3D image to the user.
  • FIG. 6 and 7 are views for explaining an operation of displaying a second multi-view image according to an exemplary embodiment of the present invention.
  • the processor 140 may provide a first multi-view image and then a second multi-view image.
  • the first pixel 511 may provide an image of a first area of the second multi-view image
  • the second pixel 512 may provide an image of a second area of the second multi-view image
  • the third pixel 513 may provide an image of a region 1-4 of the second multi-view image.
  • the processor 140 may transmit an electrical signal to the actuator to vibrate the display panel.
  • Fig. 6 shows a case where the display panel is vibrated to the left
  • Fig. 7 is a view to explain a case where the display panel is vibrated to the right.
  • the processor 140 may vibrate the display panel to the left. Accordingly, an image of the area 1-4 of the second multi-view image provided by the third pixel 513 in the same view area can be provided in the left eye of the user.
  • the processor 140 may vibrate the display panel to the right. Accordingly, an image of the area 1-4 of the second multi-view image provided by the first pixel 511 in the same view area can be provided in the left eye of the user.
  • the second view image may be provided to the user in the same manner as described above.
  • the detailed description will be omitted because it overlaps with the case of the first view image.
  • the continuity of the objects included in the 3D image can be maintained, May be provided to the user.
  • the conventional non-eyeglass display apparatus has a problem that image quality deterioration occurs due to displaying only the first multi-view image and not providing an image of an area not included in the first multi-view image.
  • image quality deterioration occurs due to displaying only the first multi-view image and not providing an image of an area not included in the first multi-view image.
  • By providing an image of an area not included in the first multi-view image as the second multi-view image it is possible to provide a high-quality 3D image to the user without a problem of deterioration of image quality.
  • FIG. 8 is a diagram for explaining a case where a display device includes a plurality of modules according to an embodiment of the present invention.
  • the display panel of the present invention may include a plurality of display modules 111, 112, 113, and 114.
  • a sub-image corresponding to each area of one multi-view image may be displayed on each display module.
  • the processor 140 displays an image displayed at a position corresponding to the (1,1) coordinates of the multi-view image on the display panel 110 , 1) coordinates to the display module 111 at a position corresponding to the coordinates.
  • the processor 140 displays the images displayed on the display panel 110 at positions corresponding to the (1,2), (2,1), (2,2) coordinates of the multi- , And (2,1) (2,2) coordinates of the display module 112, 113, and 114, respectively.
  • the processor 140 displays the first multi-view sub-image on each display module of the display panel 110, and then displays the second multi-view sub-image on each display module of the display panel 110
  • the plurality of display modules can be vibrated.
  • the processor 140 can sequentially display the first multi-view sub-image and the second multi-view sub-image.
  • the present invention is capable of displaying an image of an area not included in the first multi-view sub-image through the second multi-view sub-image, and providing a non-tight 3D image without deterioration of image quality.
  • the display panel 110 can be implemented with a plurality of display modules, high-quality, non-limiting 3D images can be provided even in a large-sized display.
  • FIG. 9 is a flowchart illustrating an operation of a display apparatus according to an embodiment of the present invention.
  • the display device displays a multi-view image generated on the display panel based on a plurality of images corresponding to a plurality of viewpoints.
  • the multi-view image may include a first multi-view image and a second multi-view image.
  • the display device separates the view areas provided with the multi-view images, and provides images at different view points in each view area.
  • the first viewpoint image included in each of the first and second multi-view images may be provided to the left eye of the user, and the second viewpoint image may be provided to the right eye of the user.
  • the display device vibrates the display panel, and while the display panel is being vibrated, a first multi-view image including an image of a partial area of each of the plurality of images, and a second multi-view image including an image of another area of each of the plurality of images,
  • the multi-view images are sequentially displayed in the same view area.
  • an image of an area not included in the first multi-view sub-image can be displayed through the second multi-view sub-image, and an unshallow 3D image can be provided without deterioration of image quality.
  • control method can be implemented by a program and provided to an electronic device.
  • a program including a control method may be stored in a non-transitory computer readable medium.
  • a non-transitory readable medium is a medium that stores data for a short period of time, such as a register, cache, memory, etc., but semi-permanently stores data and is readable by the apparatus.
  • the various applications or programs described above may be stored on non-volatile readable media such as CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM,

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

The present invention relates to a display device and a control method therefor. The present display device comprises: an actuator; a display panel including a plurality of pixels; a processor for displaying, on the display panel, a multi-view image generated on the basis of a plurality of images corresponding to a plurality of viewpoints; and a viewing zone separation unit arranged on the front surface of the display panel, and for separating a viewing zone to which the multi-view image displayed on the display panel is provided, so as to provide images of different viewpoints from each other to each viewing zone, wherein the processor controls the actuator such that the display panel is vibrated, and sequentially displays, while the display panel is vibrated, a first multi-view image including images of partial areas of each of a plurality of images and a second multi-view image including images of the other areas of each of the plurality of images, and the images of the partial areas and the images of the other areas can be provided to the same viewing zone.

Description

디스플레이 장치 및 그 제어 방법 Display device and control method thereof
본 발명은 디스플레이 장치 및 그 제어 방법에 관한 것으로, 더욱 상세하게는 사용자에게 3D 영상을 제공하는 디스플레이 장치 및 그 제어 방법에 관한 것이다.The present invention relates to a display device and a control method thereof, and more particularly, to a display device and a control method thereof for providing a 3D image to a user.
전자 기술의 발달에 힘입어 다양한 유형의 전자기기가 개발 및 보급되고 있다. 특히, 일반 가정에서 가장 많이 사용되고 있는 가전 제품 중 하나인 TV와 같은 디스플레이 장치는 최근 급속도로 발전하고 있다. Various types of electronic devices are being developed and distributed due to the development of electronic technologies. Especially, a display device such as a TV, which is one of household appliances most commonly used in general households, is developing rapidly.
디스플레이 장치의 성능이 고급화되면서, 디스플레이 장치가 제공하는 컨텐츠의 종류도 다양해 지고 있다. 특히, 최근에는 3D 영상을 제공하는 입체 디스플레이 장치가 개발되어 보급되고 있다.As the performance of the display device becomes higher, the kinds of contents provided by the display device are also diversified. Particularly, in recent years, a stereoscopic display device that provides 3D images has been developed and popularized.
입체 디스플레이 장치는 일반 가정에서 사용되는 3D 텔레비젼 뿐만 아니라, 각종 모니터, 휴대폰, PDA, PC, 셋탑 PC, 태블릿 PC, 전자 액자, 키오스크 등과 같은 다양한 유형의 디스플레이 장치로 구현될 수 있다. 또한, 3D 디스플레이 기술은, 가정 내 사용뿐만 아니라 과학, 의약, 디자인, 교육, 광고, 컴퓨터 게임 등과 같이 3D 영상이 필요한 다양한 분야에 사용되고 있다. The stereoscopic display device can be implemented not only in a 3D TV used in a home, but also in various types of display devices such as various monitors, mobile phones, PDAs, PCs, set-top PCs, tablet PCs, electronic frames, kiosks and the like. In addition, 3D display technology is being used in various fields that require 3D image such as science, medicine, design, education, advertisement, computer game as well as domestic use.
입체 디스플레이 장치는 크게 안경을 착용하여 3D 영상을 시청하는 안경식 디스플레이 장치와 안경 없이 3D 영상을 시청하는 무안경식 디스플레이 장치로 분류할 수 있다. The stereoscopic display device can be classified into a spectacular display device that watches 3D images by wearing glasses, and an unsharp display device that watches 3D images without glasses.
안경식 디스플레이 장치는 만족스러운 입체감을 제공할 수 있으나, 시청자가 반드시 안경을 착용하여야만 3D 영상을 시청할 수 있다는 불편함이 있었다. 이에 비해, 무안경식 디스플레이 장치는 안경 없이도 3D 영상을 시청할 수 있다는 장점이 있어, 최근에는 무안경식 디스플레이 장치에 대한 개발 논의가 지속적으로 이루어지고 있다.Although the spectacles-type display device can provide a satisfactory stereoscopic effect, there is an inconvenience that the viewer can watch the 3D image only by wearing glasses. In contrast, the non-eye-saving display device has an advantage that 3D images can be viewed without glasses, and in recent years, the development of a non-eye-wear display device has been continuously being discussed.
한편, 종래의 무안경식 디스플레이 장치의 경우, 복수의 영상을 하나의 화면에 디스플레이 함으로 인해, 화질의 열화 현상이 발생하는 문제가 있었다. 특히, 일정 크기 이상의 디스플레이를 구비한 디스플레이 장치의 경우 화질 열화 현상은 더욱 심해지고, 이에 따라 종래의 무안경식 디스플레이 장치는 일정 크기 이하의 디스플레이에서만 제공되고 있는 실정이다.On the other hand, in the conventional non-eye-warming display device, a plurality of images are displayed on a single screen, resulting in deterioration of image quality. Particularly, in the case of a display device having a display having a predetermined size or more, the image deterioration phenomenon becomes more serious, and therefore, the conventional non-anion-based display device is provided only on a display of a certain size or less.
또한, 무안경식 디스플레이 장치는 시역(Viewing zone), 즉 시청자가 3D 영상을 시청할 수 있는 공간에 대한 제약이 존재하여, 시청자가 시역을 벗어나도록 이동하면 무안경식 디스플레이 장치는 시청자에게 3D 영상을 제공할 수 없는 문제도 있었다.In addition, the non-eye-warming display device has a limitation on a viewing zone, i.e., a space in which the viewer can view the 3D image, and when the viewer moves out of the viewing zone, the non- There was no problem.
본 발명은 상술한 문제점을 해결하기 위해 안출된 것으로, 본 발명은 디스플레이 패널의 진동을 통해서, 사용자에게 고화질의 3D 영상을 제공하고, 사용자의 위치에 관계 없이 사용자에게 3D 영상을 제공할 수 있는 디스플레이 장치 및 그 제어 방법을 제공하는 것을 목적으로 한다.SUMMARY OF THE INVENTION The present invention has been conceived to solve the above-mentioned problems, and it is an object of the present invention to provide a display device capable of providing a high-quality 3D image to a user through vibration of a display panel, And a control method thereof.
본 발명의 일 실시 예에 따른 디스플레이 장치는, 액추에이터, 복수의 픽셀들을 포함하는 디스플레이 패널, 복수의 시점에 대응되는 복수의 영상에 기초하여 생성된 멀티 뷰 영상을 디스플레이 패널에 표시하는 프로세서 및 디스플레이 패널의 전면에 배치되고, 디스플레이 패널에 표시된 멀티 뷰 영상이 제공되는 시역을 분리하여, 각 시역에 서로 다른 시점의 영상을 제공하는 시역 분리부를 포함하고, 프로세서는, 디스플레이 패널을 진동시키도록 액추에이터를 제어하고, 디스플레이 패널이 진동하는 동안, 복수의 영상 각각의 일부 영역의 영상을 포함하는 제1 멀티 뷰 영상과 복수의 영상 각각의 다른 영역의 영상을 포함하는 제2 멀티 뷰 영상을 순차적으로 표시하며, 일부 영역의 영상과 다른 영역의 영상은, 동일한 시역에 제공될 수 있다.A display device according to an embodiment of the present invention includes an actuator, a display panel including a plurality of pixels, a processor that displays a multi-view image generated based on a plurality of images corresponding to a plurality of viewpoints on a display panel, And a field of view separating unit for separating the field of view provided with the multi-view image displayed on the display panel and providing images at different viewpoints in each field of view, wherein the processor controls the actuator to vibrate the display panel And sequentially displaying a first multi-view image including an image of a partial area of each of the plurality of images and a second multi-view image including an image of another area of each of the plurality of images while the display panel is vibrating, The image of the partial area and the image of the other area can be provided in the same view area.
그리고, 프로세서는 디스플레이 패널의 진동 크기에 따라, 복수의 픽셀들 중에서 일부 영역의 영상과 다른 영역의 영상이 각각 표시되는 픽셀들을 확인하고, 확인된 픽셀들에 일부 영역의 영상과 다른 영역의 영상을 각각 표시할 수 있다.According to the magnitude of the vibration of the display panel, the processor confirms the pixels displaying the image of the partial region and the image of the other region among the plurality of pixels, and displays the image of the other region Respectively.
여기에서, 일부 영역의 영상과 다른 영역의 영상은 동일한 시역에서 상이한 위치에 제공되며, 동일한 시역에서 일부 영역의 영상과 다른 영역의 영상이 제공되는 위치는, 각 시점에 대응되는 영상에서 일부 영역의 영상과 다른 영역의 영상의 위치에 대응될 수 있다.Here, the image of the partial region and the image of the other region are provided at different positions in the same view region, and the position where the image of the different region and the image of the partial region is provided in the same view region, And may correspond to the position of an image in a different area from the image.
여기에서, 다른 영역의 영상은 각 시점에 대응되는 영상에서 일부 영역에 인접한 영역의 영상이고, 제1 멀티 뷰 영상에 포함되지 않는 영상이 될 수 있다.Here, the image of the other region may be an image of a region adjacent to a partial region in the image corresponding to each viewpoint, and may be an image not included in the first multi-view image.
한편, 디스플레이 패널은 복수의 디스플레이 모듈을 포함하고, 액추에이터는, 복수의 디스플레이 모듈을 진동하기 위한 복수의 액추에이터를 포함하고, 프로세서는, 복수의 디스플레이 모듈을 진동시키도록 복수의 액추에이터를 제어할 수 있다.Meanwhile, the display panel includes a plurality of display modules, and the actuator includes a plurality of actuators for vibrating the plurality of display modules, and the processor can control the plurality of actuators to vibrate the plurality of display modules .
그리고, 프로세서는 제1 멀티 뷰 영상을 복수의 제1 멀티 뷰 서브 영상으로 구분하고, 제2 멀티 뷰 영상을 복수의 제2 멀티 뷰 서브 영상으로 구분하고, 복수의 디스플레이 모듈이 진동하는 동안, 복수의 디스플레이 모듈에 제1 멀티 뷰 서브 영상 및 제2 멀티 뷰 서브 영상을 순차적으로 표시할 수 있다.The processor divides the first multi-view image into a plurality of first multi-view sub-images, divides the second multi-view image into a plurality of second multi-view sub-images, and a plurality The first multi-view sub-image and the second multi-view sub-image may be sequentially displayed on the display module of the display unit.
그리고, 본 발명의 일 실시 예에 따른 디스플레이 장치는, 카메라를 더 포함하고, 카메라를 통해 촬영된 영상에 포함된 사용자의 눈 및 머리 중 적어도 하나의 위치에 기초하여, 액추에이터의 진동 크기를 조절할 수 있다.The display device according to an embodiment of the present invention further includes a camera and is capable of adjusting the vibration amplitude of the actuator based on at least one position of the user's eyes and head included in the image captured through the camera have.
또한, 프로세서는 카메라를 통해 촬영된 영상에 포함된 사용자의 눈 및 머리 중 적어도 하나의 위치에 기초하여, 복수의 액추에이터의 진동 크기를 조절할 수 있다.Further, the processor can adjust the vibration magnitude of the plurality of actuators based on the position of at least one of the user's eyes and the head included in the image photographed through the camera.
본 발명의 일 실시 예에 따른 디스플레이 장치의 제어 방법은, 디스플레이 장치의 디스플레이 패널에 복수의 시점에 대응되는 복수의 영상에 기초하여 생성된 멀티 뷰 영상을 표시하는 단계, 멀티 뷰 영상이 제공되는 시역을 분리하여, 각 시역에 서로 다른 시점의 영상을 제공하는 단계 및 디스플레이 패널을 진동시키고, 디스플레이 패널이 진동되는 동안, 복수의 영상 각각의 일부 영역의 영상을 포함하는 제1 멀티 뷰 영상과 복수의 영상 각각의 다른 영역의 영상을 포함하는 제2 멀티 뷰 영상을 동일한 시역에서 순차적으로 표시하는 단계를 포함할 수 있다.A method of controlling a display device according to an embodiment of the present invention includes displaying a multi-view image generated based on a plurality of images corresponding to a plurality of views on a display panel of a display device, Providing a viewpoint image at different viewpoints in each of the viewports and vibrating the display panel and displaying a first multi view image including an image of a partial area of each of the plurality of images and a plurality of And sequentially displaying the second multi-view image including the images of the different regions of the image in the same view area.
그리고, 멀티 뷰 영상을 표시하는 단계는 디스플레이 패널의 진동 크기에 따라, 디스플레이 패널에 포함된 픽셀들 중에서 일부 영역의 영상과 다른 영역의 영상이 각각 표시되는 픽셀들을 확인하는 단계 및 확인된 픽셀들에 일부 영역의 영상과 다른 영역의 영상을 각각 표시하는 단계를 더 포함할 수 있다.The step of displaying the multi-view image may include the steps of: identifying pixels of the image of a part of the pixels included in the display panel and images of other areas, respectively, according to the magnitude of vibration of the display panel; And displaying the image of the partial region and the image of the different region, respectively.
여기에서, 일부 영역의 영상과 다른 영역의 영상은 동일한 시역에서 상이한 위치에 제공되며, 동일한 시역에서 일부 영역의 영상과 다른 영역의 영상이 제공되는 위치는, 각 시점에 대응되는 영상에서 일부 영역의 영상과 다른 영역의 영상의 위치에 대응될 수 있다.Here, the image of the partial region and the image of the other region are provided at different positions in the same view region, and the position where the image of the different region and the image of the partial region is provided in the same view region, And may correspond to the position of an image in a different area from the image.
그리고, 다른 영역의 영상은 각 시점에 대응되는 영상에서 일부 영역에 인접한 영역의 영상이고, 제1 멀티 뷰 영상에 포함되지 않는 영상이 될 수 있다.The image of the other region may be an image of a region adjacent to a certain region in the image corresponding to each viewpoint, and may be an image not included in the first multi-view image.
한편, 디스플레이 패널은 복수의 디스플레이 모듈을 포함하고, 진동시키는 단계는, 복수의 디스플레이 모듈을 진동시킬 수 있다.Meanwhile, the display panel includes a plurality of display modules, and the vibrating step may vibrate the plurality of display modules.
그리고, 제1 멀티 뷰 영상을 복수의 제1 멀티 뷰 서브 영상으로 구분하고, 제2 멀티 뷰 영상을 복수의 제2 멀티 뷰 서브 영상으로 구분하는 단계 및 복수의 디스플레이 모듈이 진동하는 동안, 복수의 디스플레이 모듈에 제1 멀티 뷰 서브 영상 및 제2 멀티 뷰 서브 영상을 순차적으로 표시하는 단계를 더 포함할 수 있다.Dividing the first multi-view image into a plurality of first multi-view sub-images, and dividing the second multi-view image into a plurality of second multi-view sub-images; And sequentially displaying the first multi-view sub-image and the second multi-view sub-image on the display module.
그리고, 본 발명의 일 실시 예에 따른 디스플레이 장치의 제어 방법은, 사용자의 눈 및 머리 중 적어도 하나를 촬영하는 단계 및 촬영된 영상에 포함된 사용자의 눈 및 머리 중 적어도 하나의 위치에 기초하여, 디스플레이 패널의 진동 크기를 조절하는 단계를 더 포함할 수 있다.According to another aspect of the present invention, there is provided a method of controlling a display device, the method comprising: capturing at least one of a user's eyes and a head; and displaying, based on at least one of a user's eyes and a head included in the captured image, And adjusting the vibration amplitude of the display panel.
또한, 사용자의 눈 및 머리 중 적어도 하나를 촬영하는 단계 및 촬영된 영상에 포함된 사용자의 눈 및 머리 중 적어도 하나의 위치에 기초하여, 복수의 디스플레이 모듈을 진동 크기를 조절하는 단계를 더 포함할 수 있다.The method may further include adjusting the vibration amplitude of the plurality of display modules based on the position of at least one of the user's eyes and the head and the position of at least one of the user's eyes and head included in the captured image .
이상과 같은 본 발명의 다양한 실시 예에 따르면, 무안경식 디스플레이 장치에서 제공되는 3D 영상의 화질을 개선할 수 있고, 일정 크기 이상의 디스플레이에서도 화질 열화 현상 없이 무안경식 디스플레이를 이용할 수 있으며, 사용자가 다양한 시역(Viewing zone)에서 3D 영상을 감상할 수 있는 효과가 있다.According to various embodiments of the present invention as described above, it is possible to improve the image quality of the 3D image provided by the non-eye-warming display device and to use the non- There is an effect that a 3D image can be viewed in a viewing zone.
도 1은 본 발명의 일 실시 예에 따른 멀티 뷰 영상을 표시하는 디스플레이 장치의 동작을 설명하기 위한 도면이다.1 is a view for explaining an operation of a display apparatus for displaying a multi-view image according to an embodiment of the present invention.
도 2a 내지 도 2c는 본 발명의 일 실시 예에 따른 디스플레이 장치의 구성을 나타내는 도면들이다.2A to 2C are views showing the configuration of a display device according to an embodiment of the present invention.
도 3은 본 발명의 일 실시 예에 따른 무안경 3D 디스플레이 장치의 구성을 나타내는 상세 블럭도이다.3 is a detailed block diagram illustrating the configuration of a spectacle-free 3D display device according to an embodiment of the present invention.
도 4는 본 발명의 일 실시 예에 따른, 멀티 뷰 영상을 설명하기 위한 도면이다.4 is a view for explaining a multi-view image according to an embodiment of the present invention.
도 5는 본 발명의 일 실시 예에 따른 디스플레이 장치가 제1 멀티 뷰 영상을 디스플레이 하는 동작을 설명하기 위한 도면이다.5 is a view for explaining an operation of displaying a first multi-view image by a display apparatus according to an embodiment of the present invention.
도 6 및 도 7은 본 발명의 일 실시 예에 따른 디스플레이 장치가 제2 멀티 뷰 영상을 디스플레이 하는 동작을 설명하기 위한 도면이다.6 and 7 are views for explaining an operation of displaying a second multi-view image according to an exemplary embodiment of the present invention.
도 8은 본 발명의 일 실시 예에 따른, 디스플레이 장치가 복수의 모듈을 포함하는 경우를 설명하기 위한 도면이다.8 is a diagram for explaining a case where a display device includes a plurality of modules according to an embodiment of the present invention.
도 9는 본 발명의 일 실시 예에 따른 디스플레이 장치의 동작을 설명하기 위한 흐름도이다.9 is a flowchart illustrating an operation of a display apparatus according to an exemplary embodiment of the present invention.
--
본 실시 예들은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 특정한 실시 형태에 대해 범위를 한정하려는 것이 아니며, 개시된 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 실시 예들을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. These embodiments are capable of various modifications and various embodiments, and specific embodiments are illustrated in the drawings and described in detail in the description. It is to be understood, however, that it is not intended to limit the scope of the specific embodiments but includes all transformations, equivalents, and alternatives falling within the spirit and scope of the disclosure disclosed. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS In the following description of the embodiments of the present invention,
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. The terms first, second, etc. may be used to describe various elements, but the elements should not be limited by terms. Terms are used only for the purpose of distinguishing one component from another.
본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 권리범위를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다." 또는 "구성되다." 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to limit the scope of the claims. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the term " includes " Or " configured. &Quot; , Etc. are intended to designate the presence of stated features, integers, steps, operations, components, parts, or combinations thereof, may be combined with one or more other features, steps, operations, components, It should be understood that they do not preclude the presence or addition of combinations thereof.
실시 예에 있어서 '모듈' 혹은 '부'는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 '모듈' 혹은 복수의 '부'는 특정한 하드웨어로 구현될 필요가 있는 '모듈' 혹은 '부'를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서(미도시)로 구현될 수 있다.In the embodiment, 'module' or 'sub' performs at least one function or operation, and may be implemented in hardware or software, or a combination of hardware and software. In addition, a plurality of 'modules' or a plurality of 'parts' may be integrated into at least one module except for 'module' or 'module' which need to be implemented by specific hardware, and implemented by at least one processor (not shown) .
이하에서, 첨부된 도면을 참조하여 본 발명에 대하여 구체적으로 설명한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.
도 1은, 본 발명의 일 실시 예에 따른 멀티 뷰 영상을 표시하는 디스플레이 장치의 동작을 설명하기 위한 도면이다. FIG. 1 is a view for explaining the operation of a display device for displaying a multi-view image according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일 실시 예에 따른 디스플레이 장치는, 멀티 뷰 영상을 디스플레이 할 수 있다. 여기에서, 멀티 뷰 영상은 복수의 시점에 대응되는 복수의 영상에 기초하여 생성된 영상을 의미한다. 구체적으로, 멀티 뷰 영상은 동일한 오브젝트를 서로 다른 각도에서 촬영한 복수의 영상을 기설정된 배치 패턴으로 배치한 영상을 의미한다.Referring to FIG. 1, a display device according to an exemplary embodiment of the present invention may display a multi-view image. Here, the multi-view image means an image generated based on a plurality of images corresponding to a plurality of viewpoints. Specifically, the multi-view image means an image in which a plurality of images obtained by photographing the same object at different angles are arranged in a predetermined arrangement pattern.
일 예로, 도 1에 도시된 바와 같이, 멀티 뷰 영상은 7시점으로 촬영한 제1 내지 제7 영상을 순차적으로 배치한 영상이 될 수 있다. 한편, 도 1에서는 7시점으로 촬영한 영상이 도시되어 있으나, 이는 일 실시 예일 뿐 시점의 개수가 이에 한정되지 않음은 물론이다.For example, as shown in FIG. 1, the multi-view image may be an image in which first to seventh images photographed at seven viewpoints are sequentially arranged. In FIG. 1, an image photographed at seven viewpoints is shown. However, the number of viewpoints is not limited thereto.
그리고, 디스플레이 장치는 서로 다른 시점에서 촬영한 복수의 영상을 서로 다른 각도로 투사하고, 소위 시청 거리라 하는 일정한 거리만큼 떨어진 위치(가령, 약 3m)에 포커스된 영상을 제공한다. 이와 같이, 포커스된 영상이 형성되는 위치를 시역(Viewing zone)이라 한다. Then, the display device projects a plurality of images photographed at different viewpoints at different angles, and provides a focused image at a position (for example, about 3 meters) apart by a predetermined distance called a viewing distance. Thus, the position where the focused image is formed is referred to as a viewing zone.
한편, 사용자는 한 쪽 눈이 제1 시역에 위치하고, 다른 쪽 눈이 제2 시역에 위치하면, 서로 다른 시점의 영상을 동시에 시청하게 됨으로써 입체감을 느낄 수 있게 된다. On the other hand, when one eye is located in the first viewing area and the other eye is located in the second viewing area, the user can simultaneously view images at different viewpoints, thereby enabling a three-dimensional feeling to be felt.
일 예로, 도 1을 참조하면, 디스플레이 장치는 사용자의 좌안에 7 시점 중 제1 시점 영상에 해당하는 광(또는, 광학 뷰)을, 우안에는 7 시점 중 제2 시점 영상에 해당하는 광을 투사 할 수 있다. 이에 따라, 사용자는 좌안 및 우안으로 각각 서로 다른 시점의 영상을 동시에 시청하게 되어 입체감을 느낄 수 있게 된다. For example, referring to FIG. 1, the display device displays light (or an optical view) corresponding to a first viewpoint image of seven viewpoints in the left eye of a user, and light corresponding to a second viewpoint image can do. Accordingly, the user can simultaneously view the images of different viewpoints with the left and right eyes, respectively, so that the user can feel the stereoscopic effect.
한편, 도 1에서는 사용자의 좌안에는 제1 시점 영상에 해당하는 광이 투사되고, 우안에는 제2 시점 영상에 해당하는 광이 투사되는 것으로 도시하였으나, 반드시 이에 한정되는 것은 아니다. 일 예로, 사용자의 좌안에는 제1 및 제2 시점 영상에 해당하는 광이 투사되고, 우안에는 제3 및 제4 시점 영상에 해당하는 광이 투사되는 것과 같이, 복수의 시점 영상이 사용자의 좌안 및 우안에 각각 투사될 수도 있다.1, light corresponding to the first viewpoint image is projected on the left eye of the user, and light corresponding to the second viewpoint image is projected on the right eye. However, the present invention is not limited thereto. For example, when light corresponding to the first and second viewpoint images is projected on the left eye of the user and light corresponding to the third and fourth viewpoint images is projected on the right eye, It may be projected in the right eye.
한편, View Mapping에 방식에는 Linear Mapping 방식 및 Cyclic Mapping 방식이 존재하며, 도 1에서는 Linear Mapping 방식을 도시하였으나, 경우에 따라서는 Cyclic Mapping 방식에 기초하여 다시점 영상이 생성될 수 있음은 물론이다.On the other hand, the view mapping method includes a linear mapping method and a cyclic mapping method. In FIG. 1, a linear mapping method is shown. However, in some cases, a multi-view image may be generated based on a cyclic mapping method.
도 2a 내지 도 2c는 본 발명의 일 실시 예에 따른 디스플레이 장치의 구성을 나타내는 도면들이다.2A to 2C are views showing the configuration of a display device according to an embodiment of the present invention.
도 2a에 따르면, 디스플레이 장치(100)는 디스플레이 패널(110), 액추에이터(120), 시역 분리부(130) 및 프로세서(140)를 포함할 수 있다.2A, the display device 100 may include a display panel 110, an actuator 120, a field-of-view separation unit 130, and a processor 140.
디스플레이 장치(100)는 TV, 모니터, PC, 키오스크, 태블릿 PC, 전자 액자, 휴대폰 등과 같은 다양한 유형의 디스플레이 장치로 구현될 수 있다.The display device 100 may be implemented as various types of display devices such as a TV, a monitor, a PC, a kiosk, a tablet PC, an electronic frame, a mobile phone, and the like.
디스플레이 장치(100)의 영상 입력부(미도시)는 영상을 입력 받을 수 있다. 구체적으로, 영상 입력부(미도시)는 외부 저장 매체, 방송국 및 웹 서버 등으로부터 다양한 영상을 입력 받을 수 있다. 여기서, 입력되는 영상은 단일 시점 영상, 스테레오(Stereo) 영상, 다시점 영상 중 적어도 하나의 영상이 될 수 있다. 단일 시점 영상은 일반적인 촬영 장치에 의해 촬영된 영상이며, 스테레오 영상(Stereoscopic image)은 좌안 영상과 우안 영상만으로 표현된 3차원 비디오 영상으로써, 스테레오 촬영 장치에 의해 촬영된 입체 영상이다. 일반적으로 스테레오 촬영 장치는 2개의 렌즈를 구비한 촬영 장치로 입체 영상을 촬영하는데 사용된다. 그리고, 다시점 영상(Multiview image)은 한대 이상의 촬영 장치를 통해 촬영된 영상들을 기하학적으로 교정하고 공간적인 합성 등을 통하여 여러 방향의 다양한 시점을 사용자에게 제공하는 3차원 비디오 영상을 의미한다. An image input unit (not shown) of the display device 100 can receive an image. Specifically, the image input unit (not shown) can receive various images from an external storage medium, a broadcasting station, a web server, and the like. Here, the input image may be at least one of a single view image, a stereo image, and a multi-view image. A single viewpoint image is an image captured by a general photographing apparatus, and a stereoscopic image is a three-dimensional video image expressed by only a left eye image and a right eye image, and is a stereoscopic image photographed by a stereo photographing apparatus. Generally, a stereo photographing apparatus is used for photographing a stereoscopic image with a photographing apparatus having two lenses. The multi-view image refers to a three-dimensional video image that geometrically corrects images photographed through one or more photographing apparatuses and provides various viewpoints in various directions through spatial synthesis.
디스플레이 패널(110)은 복수의 서브 픽셀로 구성된 복수의 픽셀을 포함할 수 있다. 여기에서, 서브 픽셀은 R(Red), G(Green), B(Blue)로 구성될 수 있다. 즉, R, G, B의 서브 픽셀로 구성된 픽셀이 복수의 행 및 열 방향으로 배열되어 디스플레이 패널(110)을 구성할 수 있다. 이 경우, 디스플레이 패널(110)은 액정 디스플레이 패널(Liquid Crystal Display Panel: LCD Panel), 플라즈마 디스플레이 패널(Plasma Display Panel: PDP), 유기발광 소자(Organic Light Emitting Diode, OLED), VFD(Vacuum Fluorescent Display), FED(Field Emission Display), ELD(Electro Luminescence Display) 등과 같은 다양한 디스플레이 유닛으로 구현될 수 있다. The display panel 110 may include a plurality of pixels composed of a plurality of sub-pixels. Here, the subpixel may be composed of R (Red), G (Green), and B (Blue). That is, the display panel 110 can be configured by arranging pixels composed of R, G, and B subpixels in a plurality of rows and columns. In this case, the display panel 110 may include a liquid crystal display panel (LCD panel), a plasma display panel (PDP), an organic light emitting diode (OLED), a vacuum fluorescent display ), An FED (Field Emission Display), an ELD (Electro Luminescence Display), and the like.
디스플레이 패널(110)은 영상을 디스플레이 할 수 있다. 구체적으로, 디스플레이 패널(110)은 복수의 시점에 대응되는 복수의 영상에 기초하여 생성된 멀티 뷰 영상을 디스플레이 할 수 있다. 전술한 바와 같이, 멀티 뷰 영상은 서로 다른 시점의 복수의 영상 각각이 기설정된 배치 패턴으로 배치된 영상을 의미한다. 일 예로, 영상 입력부(미도시)를 통해서 제1 시점에 대응되는 제1 영상 및 제2 시점에 대응되는 제2 영상이 입력될 경우, 디스플레이 패널(110)은 제1 영상의 일부 및 제2 영상의 일부를 교번적으로 배치하여 생성된 멀티 뷰 영상을 디스플레이 할 수 있다.The display panel 110 can display an image. Specifically, the display panel 110 may display a multi-view image generated based on a plurality of images corresponding to a plurality of viewpoints. As described above, a multi-view image refers to an image in which a plurality of images at different viewpoints are arranged in a predetermined arrangement pattern. For example, when a first image corresponding to a first viewpoint and a second image corresponding to a second viewpoint are input through an image input unit (not shown), the display panel 110 displays a part of the first image and a second image View image generated by disposing a part of the multi-view image.
한편, 도 2a에 도시하지 않았지만, 디스플레이 패널(110)이 LCD 패널로 구현되는 경우, 디스플레이 장치(100)는 디스플레이 패널(110)에 백라이트를 공급하는 백라이트부(미도시) 및 영상 프레임을 구성하는 각 픽셀들의 픽셀 값에 따라 디스플레이 패널(110)의 픽셀들을 구동하는 패널 구동부(미도시)를 더 구비할 수 있다.2A, when the display panel 110 is implemented as an LCD panel, the display device 100 includes a backlight unit (not shown) for supplying a backlight to the display panel 110 and a backlight unit And a panel driving unit (not shown) for driving the pixels of the display panel 110 according to pixel values of the respective pixels.
액추에이터(120)는 디스플레이 패널(110)을 진동시킬 수 있다. 여기에서, 액추에이터(120)는 디스플레이 패널(110)에 물리적으로 결합되어 리니어 모터(linear motor), 피에조 모터(piezo motor) 및 스텝 모터(step motor) 등 다양한 모터로 구현될 수 있다. 한편, 액추에이터(120)는 하나로 구현되어 디스플레이 패널(110)을 진동시킬 수 있음은 물론, 복수개로 구현될 수도 있다. 또한, 액추에이터(120)가 복수개로 구현될 경우, 액추에이터(120)는 디스플레이 패널(110)의 좌측면 및 우측면에 배치되는 것이 바람직하나, 반드시 이에 한정되는 아니다.The actuator 120 can vibrate the display panel 110. [ Here, the actuator 120 may be physically coupled to the display panel 110 and may be implemented by various motors such as a linear motor, a piezo motor, and a step motor. Meanwhile, the actuator 120 may be implemented as a single unit to vibrate the display panel 110, or may be implemented as a plurality of actuators. When a plurality of actuators 120 are implemented, the actuators 120 are preferably disposed on the left and right sides of the display panel 110, but are not limited thereto.
액추에이터(120)는 디스플레이 패널(110)을 수평 방향으로 진동시킬 수 있다. 이에 따라, 본 발명은 멀티 뷰 영상으로 생성되기 전의 영상, 즉 원본 영상 중에서 멀티 뷰 영상에 포함되지 않은 영역의 영상을 디스플레이 패널(110)에 표시할 수 있다. 이에 대한 상세한 설명은 후술한다.The actuator 120 can vibrate the display panel 110 in the horizontal direction. Accordingly, the present invention can display, on the display panel 110, an image before being generated as a multi-view image, that is, an image of an area not included in the multi-view image among the original images. A detailed description thereof will be described later.
시역 분리부(130)는 디스플레이 패널(110)의 전면에 배치되어 디스플레이 패널(110)에 표시된 멀티 뷰 영상이 제공되는 시역을 분리하고, 각 시역에 서로 다른 시점의 영상을 제공할 수 있다.The viewing area separating unit 130 may be disposed on the front surface of the display panel 110 to separate the viewing area provided with the multi view image displayed on the display panel 110 and provide images at different viewing points in each viewing area.
여기에서, 시역 분리부(130)는 복수의 렌즈 영역을 포함하는 렌티큘러 렌즈(Lenticular lens)로 구현될 수 있다. 이 경우, 렌티큘러 렌즈는 복수의 렌즈 영역을 통해 디스플레이 패널(110)에 표시된 멀티 뷰 영상을 굴절시킴으로써 시역을 분리할 수 있다. 구체적으로, 렌티큘러 렌즈의 각 렌즈 영역은 적어도 하나의 픽셀에 대응되는 크기로 형성되어, 각 픽셀을 투과하는 광을 상이하게 굴절시킬 수 있다. 이에 따라, 디스플레이 패널(110)에 표시된 멀티 뷰 영상에 포함된 서로 다른 시점에 대응되는 각각의 영상은 서로 다른 시역을 제공하게 되고, 각 시역에는 서로 다른 시점의 영상이 제공되게 된다. Herein, the field-of-view separation unit 130 may be implemented as a lenticular lens including a plurality of lens regions. In this case, the lenticular lens can separate the view area by refracting the multi-view image displayed on the display panel 110 through the plurality of lens areas. Specifically, each lens region of the lenticular lens is formed to have a size corresponding to at least one pixel, so that light transmitted through each pixel can be refracted differently. Accordingly, the respective images corresponding to the different viewpoints included in the multi-view image displayed on the display panel 110 provide different viewports, and images at different viewpoints are provided in the respective viewports.
한편, 시역 분리부(130)는 패러랙스 배리어(Parallax Barrier)로 구현될 수도 있다. 이 경우, 패러랙스 배리어는 복수의 배리어 영역을 포함하는 투명 슬릿 어레이로 구현될 수 있다. 이에 따라, 배리어 영역 간의 슬릿(slit)을 통해 멀티 뷰 영상에 포함된 서로 다른 시점에 대응되는 각각의 영상은 서로 다른 시역을 제공하게 되고, 각 시역에는 서로 다른 시점의 영상이 제공되게 된다. Meanwhile, the field-of-view separation unit 130 may be implemented as a parallax barrier. In this case, the parallax barrier may be implemented as a transparent slit array including a plurality of barrier regions. Accordingly, each of the images corresponding to the different viewpoints included in the multi-view image through the slit between the barrier regions provide different view areas, and images at different viewpoints are provided in each view field.
도 2b는 본 발명의 일 실시 예에 따라 시역 분리부(120)가 렌티큘러 렌즈로 구현되고, 디스플레이 패널(110)이 LCD 패널로 구현되며, 백라이트(115)가 LED로 구현된 경우를 예를 들어 설명하기 위한 도면이다.2B illustrates a case where the viewing area separator 120 is implemented as a lenticular lens, the display panel 110 is implemented as an LCD panel, and the backlight 115 is implemented as an LED, for example, according to an embodiment of the present invention. Fig.
도 2b를 참조하면, 본 발명의 일 실시 예에 따른 디스플레이부는 디스플레이 패널(110), 백라이트(115) 및 렌티큘러 렌즈(130)를 포함한다. 한편, 여기서는 본 발명의 디스플레이부가 백라이트(115)를 구비한 것으로 설명하나, 반드시 백라이트(115)를 구비해야 하는 것은 아니다. 일 예로, 본 발명의 디스플레이부는 별도의 백라이트가 필요없는 OLED(organic light emitting diode)로도 구현될 수도 있다.Referring to FIG. 2B, a display unit according to an exemplary embodiment of the present invention includes a display panel 110, a backlight 115, and a lenticular lens 130. Here, the display unit of the present invention is described as having the backlight 115, but it is not necessarily required to have the backlight 115. For example, the display unit of the present invention may be implemented as an OLED (organic light emitting diode) that does not require a separate backlight.
디스플레이 패널(110)은 복수의 열(column)로 구분되는 복수의 픽셀을 포함한다. 그리고, 각 픽셀은 열 별로 상이한 시점의 영상이 배치된다. 예를 들어, 각 픽셀 열에는 서로 다른 시점의 복수의 영상인 제1 내지 제8 영상이 순차적으로 반복 배치될 수 있다. 즉, 각 픽셀 열은 1, 2, 3, 4, 5, 6, 7, 8로 넘버링된 그룹으로 배열될 수 있다. The display panel 110 includes a plurality of pixels divided into a plurality of columns. Then, images of different viewpoints are arranged for each pixel in each column. For example, the first to eighth images, which are a plurality of images at different viewpoints, may be sequentially and repeatedly arranged in each pixel column. That is, each pixel column may be arranged in groups numbered 1, 2, 3, 4, 5, 6, 7,
백라이트(115)는 발광 다이오드(Light Emitting Diode: LED)로 구성될 수 있다. 그리고 이러한 백라이트를 구성하는 복수의 광원은 다양한 형태로 배치될 수 있으며 다양한 로컬 디밍 기술이 적용될 수 있다. 예를 들어, 백라이트는 복수의 광원이 매트릭스 형태로 배치되어 액정화면 전체에 균일하게 배치되는 직하형(Direct type) 백라이트일 수 있다. 이 경우, 백라이트는 Full-Array 로컬 디밍 또는 Direct 로컬 디밍으로 동작할 수 있다. 또한, 백라이트는 LCD의 테두리 부분에만 복수의 광원이 배치되는 엣지형(Edge type) 백라이트일 수 있다. 이 경우, 백라이트는 Edge-lit 로컬 디밍으로 동작할 수 있다.The backlight 115 may include a light emitting diode (LED). The plurality of light sources constituting the backlight may be arranged in various forms, and various local dimming techniques may be applied. For example, the backlight may be a direct type backlight in which a plurality of light sources are arranged in a matrix form and are uniformly arranged over the entire liquid crystal screen. In this case, the backlight can operate with full-array local dimming or direct local dimming. In addition, the backlight may be an edge type backlight in which a plurality of light sources are disposed only at the edge of the LCD. In this case, the backlight can operate with Edge-lit local dimming.
백라이트(115)는 디스플레이 패널(110)로 광을 제공한다. 백라이트(115)로부터 제공되는 광에 의해, 디스플레이 패널(110)에 형성되는 각 영상은 렌티큘러 렌즈(130)로 투사되고, 렌티큘러 렌즈(130)는 투사되는 각 영상 의 광을 굴절시켜 사용자 방향으로 전달한다. The backlight 115 provides light to the display panel 110. Each image formed on the display panel 110 is projected onto the lenticular lens 130 by the light provided from the backlight 115 and the lenticular lens 130 refracts the light of each projected image and transmits do.
이에 따라, 렌티큘러 렌즈(130)는 사용자의 위치, 즉, 시청 거리에 출구동공(exit pupils)을 생성한다. 도시된 바와 같이, 시역 분리부(130)가 렌티큘러 렌즈로 구현되었을 경우 렌티큘러 렌즈의 두께 및 직경은 각 필셀 열에 의해 생성되는 출구 동공이 65mm 미만의 평균 양안 중심 거리로 분리되도록 설계될 수 있다. 또한, 시역 분리부(130)가 패러랙스 배리어로 구현되었을 경우 슬릿의 간격 등은 각 필셀 열에 의해 생성되는 출구 동공이 65mm 미만의 평균 양안 중심 거리로 분리되도록 설계될 수 있다. 그리고, 분리된 각 영상의 광들은 각각 광학 뷰를 형성한다. 즉, 도 2b에 도시된 바와 같이 시청 영역에는 복수의 광학 뷰가 형성되고 사용자의 좌안 및 우안이 각각 서로 다른 광학 뷰에 위치하게 되는 경우, 3D 영상을 시청할 수 있게 된다.Accordingly, the lenticular lens 130 generates exit pupils at the position of the user, i.e., the viewing distance. As shown in the figure, the thickness and the diameter of the lenticular lens can be designed such that the exit pupil generated by each pixel column is divided into an average binocular center distance of less than 65 mm when the viewfinder unit 130 is implemented as a lenticular lens. In addition, when the field-of-view separation unit 130 is implemented as a parallax barrier, the spacing of the slits and the like can be designed such that the exit pupil generated by each pixel column is divided into an average binocular center distance of less than 65 mm. Then, the lights of the separated images form an optical view, respectively. That is, as shown in FIG. 2B, when a plurality of optical views are formed in the viewing area and the left and right eyes of the user are respectively located in different optical views, 3D images can be viewed.
한편, 시역 분리부(130)는 화질 개선을 위하여 일정한 각도로 기울어져서 동작할 수 있다. 프로세서(140)는 복수의 다시점 영상 각각을 시역 분리부(130)가 기울어진(Slanted) 각도에 기초하여 분할하고, 이들을 조합하여 출력을 위한 다시점 영상 프레임을 생성할 수 있다. 이에 따라, 사용자는 디스플레이 패널(110)의 서브 픽셀에 수직 방향 또는 수평 방향으로 디스플레이된 영상을 시청하는 것이 아니라, 특정 방향으로 기울어진 영상을 시청할 수 있다. 이에 따라, 시청자는 적어도 일부 픽셀에 대해서는 하나의 완전한 서브 픽셀이 아닌 서브 픽셀의 일부를 시청할 수 있다. 예를 들어, 도 2c에 도시된 바와 같이 사용자는 시역 분리부(130)에 의하여 기설정된 각도로 기울어진 영역(210)을 시청하게 되며, 특히, 시역 분리부(130)의 광학적 동작에 의하여, 사용자는 도시된 바와 같은 기울어진 영역에 픽셀 영역(이하, 가시 픽셀 영역이라 함)을 시청하게 된다. 이 경우, 가시 픽셀 영역에서 제공되는 픽셀(A, B, C)의 크기는 렌티큘러 렌즈의 피치(pitch)에 의해 결정될 수 있다.Meanwhile, the field-of-view separation unit 130 may be tilted at an angle to improve picture quality. The processor 140 may divide each of the plurality of multi-view images based on the angle of the Slanted part of the field separator 130, and combine them to generate a multi-view image frame for output. Accordingly, the user can view an image tilted in a specific direction, rather than viewing the image displayed in the vertical direction or the horizontal direction in the sub-pixels of the display panel 110. [ Thus, the viewer can view a portion of the subpixel that is not one complete subpixel for at least some pixels. For example, as shown in FIG. 2C, the user views the tilted region 210 at a predetermined angle by the view-of-view separating unit 130. Particularly, by the optical operation of the view- The user views the pixel region (hereinafter referred to as the visible pixel region) in the inclined region as shown. In this case, the size of the pixels A, B, and C provided in the visible pixel region can be determined by the pitch of the lenticular lens.
프로세서(140)는 디스플레이 장치(100)의 전반적인 동작을 제어한다. 이를 위해, 프로세서(140)는 중앙처리장치(central processing unit(CPU)), 어플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서(communication processor(CP)) 중 하나 또는 그 이상을 포함할 수 있다.The processor 140 controls the overall operation of the display device 100. To that end, the processor 140 may include one or more of a central processing unit (CPU), an application processor (AP), or a communication processor (CP) .
먼저, 프로세서(140)는 서로 다른 시점의 복수의 영상을 렌더링할 수 있다. First, the processor 140 may render a plurality of images at different viewpoints.
구체적으로, 프로세서(140)는 입력된 영상이 2D 영상인 경우, 2D/3D 변환에 의해 추출된 뎁스 정보를 기초로 서로 다른 시점의 복수의 영상을 렌더링할 수 있다. 또는 서로 다른 시점의 복수의 영상 및 이에 대응되는 복수의 뎁스 정보가 입력되는 경우, 입력된 복수의 영상 및 뎁스 정보 중 적어도 하나의 영상 및 뎁스 정보에 기초하여 복수의 영상을 렌더링할 수 있다. 또는 서로 다른 시점의 복수의 영상 만 입력되는 경우, 복수의 영상으로부터 뎁스 정보를 추출한 후, 추출된 뎁스 정보에 기초하여 복수의 영상을 렌더링할 수 있다. Specifically, when the input image is a 2D image, the processor 140 may render a plurality of images at different points of view based on the depth information extracted by the 2D / 3D conversion. Or when a plurality of images at different viewpoints and a plurality of depth information corresponding thereto are input, a plurality of images may be rendered based on at least one image and depth information among a plurality of input image and depth information. Alternatively, when only a plurality of images at different viewpoints are input, a plurality of images can be rendered based on the extracted depth information after extracting depth information from a plurality of images.
일 예로, 프로세서(140)는 3D 영상, 즉 좌안 영상 및 우안 영상 중 하나를 기준 영상(또는 센터 영상)으로 선택하여 멀티 뷰 영상의 기초가 되는 최좌측 영상 및 최우측 영상을 생성할 수 있다. 이 경우, 프로세서(140)는 기준 영상으로 선택된 좌안 영상 및 우안 영상 중 하나에 대응되는 보정된 뎁스 정보를 기초로 최좌측 영상 및 최우측 영상을 생성할 수 있다. 프로세서(140)는 최좌측 영상 및 최우측 영상이 생성되면, 센터 영상과 최좌측 영상 사이에서 복수 개의 보간 영상을 생성하고, 센터 영상과 최우측 영상 사이에서 복수 개의 보간 영상을 생성함으로써 N개의 영상을 렌더링할 수 있다. 다만, 이에 한정되는 것은 아니며, 보외 기법에 의해 생성되는 보외 뷰(Extrapolation View)를 생성하는 것도 가능하다. 한편, 2D 영상 및 뎁스 정보를 기초로 영상을 렌더링하는 경우 2D 영상을 센터 영상으로 선택할 수 있음을 물론이다. For example, the processor 140 may select one of a 3D image, that is, a left eye image and a right eye image, as a reference image (or a center image) to generate the leftmost image and the rightmost image as the basis of the multi-view image. In this case, the processor 140 may generate the leftmost image and the rightmost image based on the corrected depth information corresponding to one of the left eye image and the right eye image selected as the reference image. When the leftmost and rightmost images are generated, the processor 140 generates a plurality of interpolated images between the center image and the leftmost image, and generates a plurality of interpolated images between the center image and the rightmost image, Lt; / RTI > However, the present invention is not limited to this, and it is also possible to generate an extrapolation view generated by an extrapolation technique. On the other hand, when an image is rendered based on the 2D image and the depth information, the 2D image can be selected as the center image.
다만, 상술한 렌더링 동작은 일 예를 든 것이며, 상술한 렌더링 동작 외에 다양한 방법에 의해 복수의 영상을 렌더링할 수 있음은 물론이다. 경우에 따라 프로세서(140)는 뎁스 정보에 기초하여 입력된 영상의 뎁스를 다양한 기준에 따라 조정할 수 있으며, 이 경우 프로세서(140)는 뎁스가 조정된 영상에 기초하여 복수의 영상을 렌더링할 수 있다. However, the above-described rendering operation is merely an example, and it goes without saying that a plurality of images can be rendered by various methods other than the rendering operation described above. In some cases, the processor 140 may adjust the depth of the input image based on the depth information according to various criteria. In this case, the processor 140 may render a plurality of images based on the adjusted depth image .
그리고, 프로세서(140)는 렌더링된 복수의 영상을 디스플레이 패널(110)에 기설정된 배치 패턴으로 배치하여 멀티 뷰 영상을 제공할 수 있다. 이하에서는, 설명의 편의를 위해 2시점의 영상에 기초하여 생성된 멀티 뷰 영상을 예로 들어 본 발명의 동작에 대해서 설명한다.The processor 140 may provide a multi-view image by arranging a plurality of rendered images on the display panel 110 in a predetermined arrangement pattern. Hereinafter, for convenience of description, the operation of the present invention will be described by taking as an example a multi-view image generated based on images at two view points.
프로세서(140)는 렌더링된 제1 시점에 대응되는 제1 시점 영상 및 렌더링된 제2 시점에 대응되는 제2 시점 영상을 기설정된 배치 패턴으로 배치한 멀티 뷰 영상을 제공할 수 있다. The processor 140 may provide a multi view image in which a first view image corresponding to the first viewpoint rendered and a second viewpoint image corresponding to the rendered viewpoint are arranged in a predetermined arrangement pattern.
여기에서, 멀티 뷰 영상은 제1 멀티 뷰 영상 및 제2 멀티 뷰 영상을 포함할 수 있다. 구체적으로, 제1 멀티 뷰 영상은 제1 시점 영상 및 제2 시점 영상의 일부 영역을 포함하는 영상이고, 제2 멀티 뷰 영상은 제1 멀티 뷰 영상에 포함되지 않은 제1 시점 영상 및 제2 시점 영상의 다른 영역을 포함하는 영상이 될 수 있다.Here, the multi-view image may include a first multi-view image and a second multi-view image. Specifically, the first multi-view image is an image including a first view image and a second view image, and the second multi-view image is a first view image not included in the first multi- It may be an image including another region of the image.
그리고, 제2 멀티 뷰 영상에 포함된 다른 영역의 영상은, 제1 멀티 뷰 영상의 일부 영역 각각에 인접한 영역의 영상으로써, 제1 멀티 뷰 영상에 포함되지 않은 영역의 영상이 될 수 있다. 예를 들어, 제1 시점 영상이 좌측에서 우측 방향으로 1-1 내지 1-5 영상으로 렌더링되고, 제2 시점 영상이 좌측에서 우측 방향으로 2-1 내지 2-5 영상으로 렌더링된 경우, 제1 멀티 뷰 영상은 제1 및 제2 시점 영상이 1-1, 2-2, 1-3, 2-4, 1-5 순서로 배치된 멀티 뷰 영상이 될 수 있고, 제2 멀티 뷰 영상은 제1 및 제2 시점 영상이 2-1, 1-2, 2-3, 1-4, 2-5 순서로 배치된 멀티 뷰 영상이 될 수 있다. An image of another area included in the second multi-view image may be an image of an area adjacent to each of the partial areas of the first multi-view image, and may be an image of an area not included in the first multi-view image. For example, when the first viewpoint image is rendered with 1-1 to 1-5 images from left to right and the second viewpoint image is rendered with 2-1 to 2-5 images from left to right, 1 multi view image may be a multi view image in which the first and second view images are arranged in the order of 1-1, 2-2, 1-3, 2-4, and 1-5, The first and second viewpoint images may be multi-view images arranged in the order of 2-1, 1-2, 2-3, 1-4, 2-5.
그리고, 프로세서(140)는 제1 멀티 뷰 영상을 표시하도록 디스플레이 패널(110)을 제어할 수 있다. 이 경우, 제1 멀티 뷰 영상에 포함된 제1 시점 영상의 일부 영역은 시역 분리부(130)에 의해 사용자의 좌안에 제공되고, 제1 멀티 뷰 영상에 포함된 제2 시점 영상의 일부 영역은 시역 분리부(130)에 의해 사용자의 우안에 제공될 수 있다. 즉, 상술한 실시 예에서, 1-1, 1-3, 1-5 영상은 사용자의 좌안에 제공되고, 2-4, 2-4 영상은 사용자의 우안에 제공될 수 있다. 이와 같이, 사용자의 양안에 서로 다른 시점의 영상이 제공됨으로써, 사용자는 입체감을 느낄 수 있게 된다.The processor 140 may then control the display panel 110 to display the first multi-view image. In this case, a part of the first viewpoint image included in the first multi-view image is provided to the left eye of the user by the view-point separating unit 130, and a part of the second viewpoint image included in the first multi- And can be provided to the right side of the user by the view / That is, in the above-described embodiment, images 1-1, 1-3, 1-5 are provided in the left eye of the user, and images 2-4 and 2-4 are provided in the right eye of the user. As described above, since images of different viewpoints are provided to both sides of the user, the user can feel a three-dimensional feeling.
이후, 프로세서(140)는 제2 멀티 뷰 영상을 표시하도록 디스플레이 패널(110)을 제어할 수 있다. 즉, 프로세서(140)는 상술한 실시 예에서, 2-1, 1-2, 2-3, 1-4, 2-5 순서로 배치된 제2 멀티 뷰 영상을 디스플레이 패널(110)에 표시할 수 있다.Then, the processor 140 may control the display panel 110 to display the second multi-view image. That is, in the above-described embodiment, the processor 140 displays the second multi-view image arranged in the order of 2-1, 1-2, 2-3, 1-4, 2-5 on the display panel 110 .
이때, 디스플레이 패널(110)에 포함된 복수의 픽셀들 중에서, 제1 멀티 뷰 영상에 포함된 일부 영역을 표시하는 픽셀들과 제2 멀티 뷰 영상에 포함된 인접 영역의 다른 영역을 표시하는 픽셀들은 다를 수 있다. 구체적으로, 프로세서(140)는 후술할 디스플레이 패널(110)의 진동 크기에 기초해서, 제1 멀티 뷰 영상의 일부 영역을 제공하는 픽셀과 제2 멀티 뷰 영상의 인접 영역을 제공하는 픽셀을 확인하고, 확인된 픽셀들에 각각 제1 및 제2 멀티 뷰 영상을 디스플레이 할 수 있다. 예를 들어, 제2 멀티 뷰 영상을 표시하는 픽셀들은 제1 멀티 뷰 영상을 표시하는 픽셀들과 인접한 위치에 존재하는 픽셀들이 될 수 있다. 이는, 동일한 시점의 영상을 서로 다른 시간에 제공함에 있어서, 3D 영상에 포함된 오브젝트의 연속성을 유지하기 위함이다. At this time, among the plurality of pixels included in the display panel 110, pixels displaying a partial area included in the first multi-view image and pixels displaying another area of the adjacent area included in the second multi- can be different. Specifically, the processor 140 identifies a pixel providing a partial area of the first multi-view image and a pixel providing a neighboring area of the second multi-view image, based on the magnitude of vibration of the display panel 110 , And may display the first and second multi-view images respectively on the identified pixels. For example, the pixels displaying the second multi-view image may be pixels adjacent to the pixels displaying the first multi-view image. This is to maintain the continuity of the objects included in the 3D image in providing images at the same time at different times.
그리고, 프로세서(140)는 액추에이터(120)에 전기적 신호를 전송하여 디스플레이 패널(110)을 진동시킬 수 있다. 구체적으로, 프로세서(140)는 제1 멀티 뷰 영상의 일부 영역을 제공하는 픽셀이 존재하던 위치의 근접 위치로, 제2 멀티 뷰 영상의 인접 영역을 제공하는 픽셀이 이동하도록, 디스플레이 패널(110)을 수평 방향으로 진동시킬 수 있다.The processor 140 may transmit an electrical signal to the actuator 120 to vibrate the display panel 110. Specifically, the processor 140 controls the display panel 110 to move the pixels providing adjacent regions of the second multi-view image to a position close to the position where the pixels that present a portion of the first multi- Can be vibrated in the horizontal direction.
예를 들어, 제1 멀티 뷰 영상에 포함된 1-3 영상을 제공하는 픽셀이 존재하던 위치의 근접 위치로, 제2 멀티 뷰 영상에 포함된 1-2 영상을 제공하는 픽셀 및 1-4 영상을 제공하는 픽셀이 이동하도록, 디스플레이 패널(110)을 수평 방향으로 진동시킬 수 있다. For example, if the pixel providing the 1-2 video included in the second multi-view video and the pixel providing the 1-2 video included in the second multi-view video are located in the vicinity of the position where the pixel providing the 1-3 video included in the first multi- The display panel 110 can be vibrated in the horizontal direction so that the pixel providing the display panel 110 is moved.
이에 따라, 제2 멀티 뷰 영상의 1-2 영상 및 1-4 영상은 제1 멀티 뷰 영상의 1-3 영상과 동일한 시역에서 제공될 수 있다. 구체적으로, 시역 분리부(130), 예를 들어 렌티큘러 렌즈가 고정되어 있는 상태에서, 제2 멀티 뷰 영상의 1-2 영상 및 1-4 영상을 제공하는 픽셀이 제1 멀티 뷰 영상의 1-3 영상을 제공하는 픽셀이 존재하던 위치에 근접하도록 디스플레이 패널(110)이 진동되면, 동일한 굴절률에 의해 제2 멀티 뷰 영상의 1-2 영상 및 1-4 영상은 제1 멀티 뷰 영상의1-3 영상과 동일한 시역에서 제공될 수 있다. 한편, 여기에서 시역(Viewing zone)의 개념은 특정 포인트가 되는 지점이 아닌, 3D 영상을 시청할 수 있는 특정 영역으로 이해되어져야 할 것이다.Accordingly, the 1-2 video and the 1-4 video of the second multi-view video can be provided in the same viewing area as the 1-3 video of the first multi-view video. More specifically, in a state where the lenticular lens is fixed, the pixel providing the 1-2 video and the 1-4 video of the second multi-view video is connected to the 1- When the display panel 110 is vibrated such that the pixel providing the 3-image is located, the 1-2 and 1-4 images of the second multi-view image are displayed on the 1- 3 video in the same viewing area. On the other hand, the concept of the viewing zone should be understood as a specific area in which a 3D image can be viewed, not a point to be a specific point.
한편, 디스플레이 패널(110)을 수평 방향으로 진동시킴으로써, 제1 멀티 뷰 영상의 일부 영역 및 제2 멀티 뷰 영상의 인접 영역은 동일한 시역에서 상이한 위치에 제공될 수 있다.On the other hand, by oscillating the display panel 110 in the horizontal direction, a part of the first multi-view image and a neighboring area of the second multi-view image can be provided at different positions in the same view area.
구체적으로, 프로세서(140)가 디스플레이 패널(110)을 수평 방향으로 진동시킴으로써, 제2 멀티 뷰 영상의 인접 영역은 제1 멀티 뷰 영상의 일부 영역 근처에서 순차적으로 디스플레이 패널(110)에 표시될 수 있다. 예를 들어, 상술한 실시 예에서, 제1 멀티 뷰에 포함된 영역 중 1-3 영역을 기준으로 보았을 때, 프로세서(140)가 디스플레이 패널(110)을 왼쪽 방향으로 진동시킬 경우, 제2 멀티 뷰에 포함된 영역 중 1-4 영역의 영상이 1-3 영역 근처에 표시되고, 디스플레이 패널(110)을 오른쪽 방향으로 진동시킬 경우, 제2 멀티 뷰에 포함된 영역 중 1-2 영역의 영상이 1-3 영역 근처에 표시될 수 있다.Specifically, by causing the processor 140 to vibrate the display panel 110 in the horizontal direction, the adjacent area of the second multi-view image can be sequentially displayed on the display panel 110 near a part of the first multi- have. For example, in the above-described embodiment, when the processor 140 vibrates the display panel 110 in the left direction when viewed from the area 1-3 of the areas included in the first multi-view, The image of the area 1-4 is displayed near the area 1-3 and the image of the area 1-2 is included in the area of the second multi view when the display panel 110 is vibrated in the right direction. Can be displayed near the 1-3 region.
이와 같이, 제1 멀티 뷰 영상의 일부 영역 및 제2 멀티 뷰 영상의 인접 영역이 순차적으로 디스플레이 패널(110)에 표시됨으로써, 3D 영상에 포함된 오브젝트의 연속성을 유지할 수 있다. As described above, since the partial area of the first multi-view image and the adjacent area of the second multi-view image are sequentially displayed on the display panel 110, the continuity of objects included in the 3D image can be maintained.
또한, 이와 같이, 제1 멀티 뷰에 포함되지 않은 영역의 영상을 제2 멀티 뷰를 통해 디스플레이 함으로써, 화질 열화 현상 없이 무안경식 3D 영상을 제공할 수 있는 효과가 있다.In addition, by displaying an image of an area not included in the first multi-view through the second multi-view as described above, it is possible to provide a seamless 3D image without deterioration of image quality.
한편, 본 발명의 다른 실시 예에 따르면, 디스플레이 패널(110)은 복수의 디스플레이 모듈을 포함할 수 있다. 이 경우, 본 발명은 복수의 디스플레이 모듈 각각을 진동시키기 위한 복수의 액추에이터를 더 포함할 수 있다.Meanwhile, according to another embodiment of the present invention, the display panel 110 may include a plurality of display modules. In this case, the present invention may further comprise a plurality of actuators for vibrating each of the plurality of display modules.
이 경우, 프로세서(140)는 제1 멀티 뷰 영상을 복수의 제1 멀티 뷰 서브 영상으로 구분할 수 있다. 구체적으로, 프로세서(140)는 제1 멀티 뷰 영상을 디스플레이 모듈의 개수와 동일한 개수로 각 영역을 구분할 수 있다. 예를 들어, 복수의 디스플레이 모듈이 4개로 구현될 경우, 프로세서(140)는 제1 멀티 뷰 영상을 영역별로 4등분하여 4개의 제1 멀티 뷰 서브 영상으로 구분할 수 있다. In this case, the processor 140 may divide the first multi-view image into a plurality of first multi-view sub-images. Specifically, the processor 140 may divide the first multi-view image into the same number as the number of the display modules. For example, when a plurality of display modules is implemented with four, the processor 140 may divide the first multi-view image into four first multi-view sub-images by dividing the first multi-view image into four regions.
그리고, 프로세서(140)는 복수의 디스플레이 모듈이 디스플레이 패널(110)에 존재하는 위치에 기초하여, 제1 멀티 뷰 서브 영상을 복수의 디스플레이 모듈 각각에 제공할 수 있다. 예를 들어, 프로세서(140)는 제1 멀티 뷰 서브 영상이 4개의 제1 멀티 뷰 서브 영상으로 구분된 경우, 제1 멀티 뷰 영상의 (1,1) 좌표에 대응되는 위치에서 디스플레이 되는 영상을 디스플레이 패널(110) 상에서 (1,1) 좌표에 대응되는 위치에 있는 디스플레이 모듈에 제공할 수 있다. 이와 마찬가지로, 프로세서(140)는 제1 멀티 뷰 영상의 (1,2), (2,1) (2,2) 좌표에 대응되는 위치에서 각각 디스플레이 되는 영상을 디스플레이 패널(110) 상에서 (1,2), (2,1) (2,2) 좌표에 대응되는 위치에 있는 디스플레이 모듈 각각에 제공할 수 있다. The processor 140 may provide the first multi-view sub-image to each of the plurality of display modules based on the position of the plurality of display modules in the display panel 110. [ For example, when the first multi-view sub-image is divided into four first multi-view sub-images, the processor 140 converts the image displayed at the position corresponding to the (1,1) coordinates of the first multi- To a display module at a position corresponding to the (1,1) coordinates on the display panel 110. Similarly, the processor 140 displays the images displayed at the positions corresponding to the (1,2), (2,1), (2,2) coordinates of the first multi-view image on the display panel 110, 2) and (2,1) (2,2) coordinates, respectively.
한편, 프로세서(140)는 제2 멀티 뷰 영상의 경우에도 제1 멀티 뷰 영상과 마찬가지로, 복수의 서브 영상으로 구분할 수 있고, 각각의 서브 영상을 대응되는 디스플레이 모듈에 제공할 수 있다. 이에 대한 설명은, 상술한 부분과 중복되므로 생략한다.Similarly to the first multi-view image, the processor 140 can divide the second multi-view image into a plurality of sub-images, and provide each sub-image to the corresponding display module. The description thereof will be omitted because it is redundant to the above-mentioned portion.
그리고, 프로세서(140)는 제1 멀티 뷰 서브 영상을 디스플레이 패널(110)의 각 디스플레이 모듈에 표시하고, 이후 제2 멀티 뷰 서브 영상을 디스플레이 패널(110)의 각 디스플레이 모듈에 표시하면서, 복수의 디스플레이 모듈을 진동시킬 수 있다. 이 경우, 프로세서(140)는 디스플레이 장치(100) 자체의 진동을 최소화하기 위해서, 인접하는 디스플레이 모듈간 역위상(antiphase)을 갖도록 디스플레이 모듈을 진동 시킬 수 있다. Then, the processor 140 displays the first multi-view sub-image on each display module of the display panel 110, and then displays the second multi-view sub-image on each display module of the display panel 110, The display module can be vibrated. In this case, the processor 140 may vibrate the display module so as to have antiphase between adjacent display modules in order to minimize vibration of the display device 100 itself.
이와 같이, 복수의 디스플레이 모듈을 진동시킴으로써, 프로세서(140)는 제1 멀티 뷰 서브 영상 및 제2 멀티 뷰 서브 영상을 순차적으로 표시할 수 있다.Thus, by vibrating the plurality of display modules, the processor 140 can sequentially display the first multi-view sub-image and the second multi-view sub-image.
이에 따라, 본 발명은 제1 멀티 뷰 서브 영상에 포함되지 않은 영역의 영상을 제2 멀티 뷰 서브 영상을 통해 디스플레이 할 수 있고, 화질 열화 현상 없이 무안경식 3D 영상을 제공할 수 있는 효과가 있다.Accordingly, the present invention is capable of displaying an image of an area not included in the first multi-view sub-image through the second multi-view sub-image, and providing a non-tight 3D image without deterioration of image quality.
또한, 복수의 디스플레이 모듈로 디스플레이 패널(110)을 구현할 수 있다는 점에서, 대형 디스플레이의 경우에도 고품질의 무안경식 3D 영상을 제공할 수 있는 효과가 있다.In addition, since the display panel 110 can be implemented with a plurality of display modules, high-quality, non-limiting 3D images can be provided even in a large-sized display.
한편, 상술한 실시 예에서는, 설명의 편의를 위해서 2시점의 영상에 기초하여 생성된 멀티 뷰 영상을 기준으로 본 발명의 동작에 대해서 설명하였으나, 시점의 개수가 반드시 이에 한정되는 것은 아니고 다양한 시점에 기초하여 생성된 멀티 뷰 영상에 본 발명이 적용될 수 있음은 물론이다.In the above-described embodiment, the operation of the present invention has been described with reference to a multi-view image generated based on images at two viewpoints for convenience of explanation. However, the number of viewpoints is not necessarily limited to this, The present invention can be applied to multi-view images generated on the basis of the multi-view images.
도 3은 본 발명의 일 실시 예에 따른 무안경 3D 디스플레이 장치의 구성을 나타내는 상세 블럭도이다. 3 is a detailed block diagram illustrating the configuration of a spectacle-free 3D display device according to an embodiment of the present invention.
도 3에 따르면, 디스플레이 장치(100')는 디스플레이 패널(110), 액추에이터(120), 시역 분리부(130), 프로세서(140), 오디오 처리부(150), 비디오 인터페이스(160) 및 카메라(170)를 포함할 수 있다. 이하, 상술한 설명과 중복되는 부분의 자세한 설명은 생략하도록 한다. 3, the display device 100 'includes a display panel 110, an actuator 120, a field separator 130, a processor 140, an audio processor 150, a video interface 160, and a camera 170 ). Hereinafter, a detailed description of a part overlapping with the above description will be omitted.
프로세서(140)는 RAM(141), ROM(142), 메인 CPU(143), 그래픽 처리부(144), 제1 내지 n 인터페이스(145-1 ~ 145-n), 버스(146)를 포함한다.The processor 140 includes a RAM 141, a ROM 142, a main CPU 143, a graphics processing unit 144, first through n interfaces 145-1 through 145-n,
RAM(141), ROM(142), 메인 CPU(143), 그래픽 처리부(144), 제1 내지 n 인터페이스(145-1 ~ 145-n) 등은 버스(146)를 통해 서로 연결될 수 있다. The RAM 141, the ROM 142, the main CPU 143, the graphics processing unit 144, the first to n interfaces 145-1 to 145-n, etc. may be connected to each other via the bus 146.
제1 내지 n 인터페이스(145-1 내지 145-n)는 상술한 각종 구성요소들과 연결된다. 인터페이스들 중 하나는 네트워크를 통해 외부 장치와 연결되는 네트워크 인터페이스가 될 수도 있다.The first to n interfaces 145-1 to 145-n are connected to the various components described above. One of the interfaces may be a network interface connected to an external device via a network.
메인 CPU(143)는 저장부(미도시)에 액세스하여, 저장부(미도시)에 저장된 O/S를 이용하여 부팅을 수행한다. 그리고, 저장부(미도시)에 저장된 각종 모듈, 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행한다. The main CPU 143 accesses a storage unit (not shown) and performs booting using the O / S stored in the storage unit (not shown). Various operations are performed using various modules, various programs, contents, and data stored in a storage unit (not shown).
ROM(142)에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴온 명령이 입력되어 전원이 공급되면, 메인 CPU(143)는 ROM(142)에 저장된 명령어에 따라 저장부(미도시)에 저장된 O/S를 RAM(141)에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, 메인 CPU(143)는 저장부(미도시)에 저장된 각종 프로그램을 RAM(141)에 복사하고, RAM(141)에 복사된 프로그램을 실행시켜 각종 동작을 수행한다. The ROM 142 stores a command set for booting the system and the like. The main CPU 143 copies the O / S stored in the storage unit (not shown) to the RAM 141 according to the instruction stored in the ROM 142, and executes the O / S To boot the system. When the booting is completed, the main CPU 143 copies various programs stored in a storage unit (not shown) to the RAM 141, executes the program copied to the RAM 141, and performs various operations.
그래픽 처리부(144)는 연산부(미도시) 및 렌더링부(미도시)를 이용하여 아이콘, 이미지, 텍스트 등과 같은 다양한 객체를 포함하는 화면을 생성한다. 연산부(미도시)는 수신된 제어 명령에 기초하여 화면의 레이아웃에 따라 각 객체들이 표시될 좌표값, 형태, 크기, 컬러 등과 같은 속성값을 연산한다. 렌더링부(미도시)는 연산부(미도시)에서 연산한 속성값에 기초하여 객체를 포함하는 다양한 레이아웃의 화면을 생성한다. The graphic processing unit 144 generates a screen including various objects such as an icon, an image, and a text using an operation unit (not shown) and a rendering unit (not shown). The operation unit (not shown) calculates an attribute value such as a coordinate value, a shape, a size, and a color to be displayed by each object according to the layout of the screen based on the received control command. The rendering unit (not shown) creates screens of various layouts including the objects based on the attribute values calculated by the operation unit (not shown).
카메라(170)는 영상을 촬영할 수 있다. 구체적으로, 카메라(170)는 디스플레이 장치(100')의 전방에 존재하는 사용자를 촬영할 수 있다.The camera 170 can take an image. Specifically, the camera 170 can photograph a user existing in front of the display device 100 '.
카메라(170)는 디스플레이 장치(100')와 별개의 외부 장치로 구현될 수 있음은 물론, 디스플레이 장치(100')에 내장된 장치로 구현될 수도 있다.The camera 170 may be implemented as an external device separate from the display device 100 ', or may be implemented as a device embedded in the display device 100'.
그리고, 프로세서(140)는 카메라(170)에 의해 촬영된 영상에 포함된 사용자의 눈 및 머리 중 적어도 하나의 위치에 기초하여, 액추에이터(120)의 진동 크기를 조절할 수 있다.The processor 140 may adjust the magnitude of the vibration of the actuator 120 based on the position of at least one of the user's eyes and the head included in the image photographed by the camera 170. [
구체적으로, 프로세서(140)는 카메라(170)에 의해 촬영된 영상에 포함된 사용자의 눈 및 머리 중 적어도 하나의 위치가 변동될 경우, 변동되는 위치에 시역이 형성되도록, 액추에이터(120)의 진동 크기를 조절할 수 있다. Specifically, when the position of at least one of the eyes and the head of the user included in the image photographed by the camera 170 is changed, the processor 140 adjusts the vibration magnitude of the actuator 120 so that the visual field is formed at the changed position. Can be adjusted.
보다 구체적으로, 프로세서(140)는 디스플레이 패널(100)을 진동 시켜서, 디스플레이 패널(110)에 포함된 픽셀의 위치를 조절할 수 있다. 여기에서, 조절된 픽셀의 위치는, 촬영된 이미지에 포함된 사용자의 위치에 시역이 형성될 수 있는 위치이고, 이에 따라 사용자의 눈 및 머리 중 적어도 하나의 변동된 위치에 시역을 형성할 수 있다.More specifically, the processor 140 can vibrate the display panel 100 to adjust the position of the pixels included in the display panel 110. [ Here, the position of the adjusted pixel may be a position at which the field of view can be formed at the position of the user included in the photographed image, thereby forming the field of view at the changed position of at least one of the user's eyes and head .
이를 위해, 디스플레이 장치(100')는 안구 추적 모듈(미도시) 및 헤드 트래킹 모듈(미도시)을 더 포함할 수 있다. 한편, 이러한 각 모듈은 공지의 기술이라는 점에서 안구 추적 모듈(미도시) 및 헤드 트래킹 모듈(미도시) 자체의 구체적인 동작 내용은 생략한다.To this end, the display device 100 'may further include an eye tracking module (not shown) and a head tracking module (not shown). In the meantime, the specific operation of the eye tracking module (not shown) and the head tracking module (not shown) is omitted because each module is a known technology.
한편, 디스플레이 패널(110)이 복수의 디스플레이 모듈로 구현되는 경우에도, 프로세서(140)는 사용자의 눈 및 머리 중 적어도 하나의 위치에 기초하여 엑추에이터(120)의 진동 크기를 조절할 수 있다. 이에 대한 구체적인 설명은 상술한 부분과 중복되므로 생략한다.Meanwhile, even when the display panel 110 is implemented by a plurality of display modules, the processor 140 can adjust the magnitude of vibration of the actuator 120 based on at least one position of the user's eyes and the head. A detailed description thereof will be omitted since it is redundant with the above-mentioned portion.
한편, 본 발명에 있어서, 렌티큘러 렌즈와 디스플레이 모듈간의 거리는 다음과 같은 수학식 1을 통해 산출될 수 있다.Meanwhile, in the present invention, the distance between the lenticular lens and the display module can be calculated by the following equation (1).
[수학식 1][Equation 1]
Dm ≥ Do * IPD / Hs Dm ≥ Do * IPD / Hs
(여기에서, Dm은 렌티큘러 렌즈와 디스플레이 모듈 간의 거리, Do는 디스플레이 모듈과 시청자의 거리, IPD는 시청자의 동공 거리, Hs는 광원의 수평 방향 사이즈를 의미한다.)(Where Dm is the distance between the lenticular lens and the display module, Do is the distance between the display module and the viewer, IPD is the pupil distance of the viewer, and Hs is the horizontal size of the light source).
그리고, 렌티큘러 렌즈의 초점 거리(EFL, Effective Focal Length)는 다음과 같은 수학식 2에 의해 산출될 수 있다.The effective focal length (EFL) of the lenticular lens can be calculated by the following equation (2).
[수학식 2]&Quot; (2) "
EFL = (Dm * Do) / (Dm + Do)EFL = (Dm * Do) / (Dm + Do)
(여기에서, EFL은 렌티큘러 렌즈의 초점 거리, Dm은 렌티큘러 렌즈와 디스플레이 모듈 간의 거리, Do는 디스플레이 모듈과 시청자의 거리를 의미한다.)(Where EFL is the focal length of the lenticular lens, Dm is the distance between the lenticular lens and the display module, and Do is the distance between the display module and the viewer).
그리고, 렌티큘러 렌즈의 폭(Wl)은 다음과 같은 수학식 3에 의해 산출될 수 있다.The width W1 of the lenticular lens can be calculated by the following equation (3).
[수학식 3]&Quot; (3) "
Wl ≥ Hs * NWl? Hs * N
(여기에서, Wl은 렌티큘러 렌즈의 폭, Hs는 광원의 수평 방향 사이즈, N은 시역의 개수를 의미한다.)(Where Wl is the width of the lenticular lens, Hs is the horizontal size of the light source, and N is the number of viewable areas).
한편, 상술한 수학식 1,2 및 3은 렌티큘러 렌즈와 관련된 파라미터를 구하기 위한 하나의 수식에 불과하고, 본 발명을 실시 함에 있어서 렌티큘러 렌즈와 관련된 파라미터가 반드시 상술한 수학식에 의해서만 산출되는 것은 아니다. 즉, 렌티큘러 렌즈와 관련된 파라미터는 다른 방식으로 산출될 수도 있다.The above equations (1), (2) and (3) are only one equation for obtaining the parameters related to the lenticular lens, and in implementing the present invention, the parameters related to the lenticular lens are not necessarily calculated by the above- . That is, the parameters related to the lenticular lens may be calculated in other manners.
도 4는, 본 발명의 일 실시 예에 따른, 멀티 뷰 영상을 설명하기 위한 도면이다. 4 is a view for explaining a multi-view image according to an embodiment of the present invention.
전술한 바와 같이, 멀티 뷰 영상은 각 시점에 대응되는 영상을 기설정된 배치 패턴으로 배치한 영상을 의미한다.As described above, the multi-view image means an image in which the images corresponding to the respective viewpoints are arranged in a predetermined arrangement pattern.
도 4를 참조하면, 제1 시점 영상(410)은 1-1 내지 1-5 영역의 영상을 포함할 수 있고, 제2 시점 영상(420)은 2-1 내지 2-5 영역의 영상을 포함할 수 있다. 그리고, 제1 및 제2 시점 영상에 기초하여 생성되는 멀티 뷰 영상(430)은 제1 및 제2 시점 영상에 포함된 일부 영역의 영상이 기설정된 배치 패턴으로 배치된 영상이 될 수 있다. Referring to FIG. 4, the first view image 410 may include an image of a region 1-1 to 1-5, and the second view image 420 may include an image of regions 2-1 to 2-5. can do. In addition, the multi-view image 430 generated based on the first and second view-point images may be an image in which a part of the images included in the first and second view-point images are arranged in a predetermined arrangement pattern.
한편, 종래의 디스플레이 장치는 도 4에 도시된 멀티 뷰 영상(430)만을 디스플레이 하고, 멀티 뷰 영상에 포함되지 않는 영역의 영상, 즉 제1 시점 영상(410)에서 1-2, 1-4 영역의 영상 및 제2 시점 영상(420)에서 2-1, 2-3, 2-5 영역의 영상을 디스플레이 하지 않음으로써, 화질 열화 현상 문제가 있었다.In the conventional display device, only the multi-view image 430 shown in FIG. 4 is displayed, and the image of the area not included in the multi-view image, that is, the first view image 410, And the image of the area 2-1, 2-3, and 2-5 in the second viewpoint image 420 is not displayed, thereby causing image quality deterioration.
이에 따라, 본 발명은 멀티 뷰 영상(430)을 제1 멀티 뷰 영상으로 보았을 때, 제1 멀티 뷰 영상에 포함되지 않은 영역의 영상을 포함하는 제2 멀티 뷰 영상을 제공할 수 있다. 여기에서, 제2 멀티 뷰 영상은 2-1, 1-2, 2-3, 1-4, 2-5 영역의 영상이 순차적으로 배치된 영상이 될 수 있다.Accordingly, when viewing the multi-view image 430 as a first multi-view image, the present invention can provide a second multi-view image including an image of an area not included in the first multi-view image. Here, the second multi-view image may be an image in which the images of the regions 2-1, 1-2, 2-3, 1-4, and 2-5 are sequentially arranged.
이하에서는, 설명의 편의를 위해, 제1 멀티 뷰 영상은 제1 및 제2 시점의 영상이 1-1, 2-2, 1-3, 2-4, 1-5 순서로 배치된 영상으로 보고, 제2 멀티 뷰 영상은 제1 및 제2 시점의 영상이 2-1, 1-2, 2-3, 1-4, 2-5 순서로 배치된 영상으로 보아서 설명하도록 한다.Hereinafter, for the sake of convenience of explanation, the first multi-view image is viewed as an image in which the images at the first and second viewpoints are arranged in the order of 1-1, 2-2, 1-3, 2-4, , And the second multi-view image will be described as an image in which the images at the first and second viewpoints are arranged in the order of 2-1, 1-2, 2-3, 1-4, 2-5.
도 5는 본 발명의 일 실시 예에 따른 디스플레이 장치가 제1 멀티 뷰 영상을 디스플레이 하는 동작을 설명하기 위한 도면이다.5 is a view for explaining an operation of displaying a first multi-view image by a display apparatus according to an embodiment of the present invention.
먼저, 프로세서(140)는 전술한 바와 같이, 디스플레이 패널(110)에 제1 멀티 뷰 영상을 디스플레이 할 수 있다. First, the processor 140 may display the first multi-view image on the display panel 110, as described above.
이 때, 디스플레이 패널(110)에 포함된 픽셀들(511, 512, 513)은 서로 다른 영역의 영상을 제공할 수 있다. 예를 들어, 제1 픽셀(511)은 제1 멀티 뷰 영상 중 2-2 영역의 영상을 제공할 수 있고, 제2 픽셀(512)는 제1 멀티 뷰 영상 중 1-3 영역의 영상을 제공할 수 있으며, 제3 픽셀(513)은 제1 멀티 뷰 영상 중 2-4 영역의 영상을 제공할 수 있다. 한편, 본 도면에서 그 외 영역의 영상과 관련된 픽셀의 경우는 설명의 편의를 위해 생략하였다. In this case, the pixels 511, 512, and 513 included in the display panel 110 may provide images of different regions. For example, the first pixel 511 may provide an image of a region 2-2 of the first multi-view image, and the second pixel 512 may provide an image of an area 1-3 of the first multi- And the third pixel 513 can provide images of the 2-4 regions of the first multi-view image. Meanwhile, in the figure, the pixels related to the image in the other area are omitted for convenience of explanation.
그리고, 프로세서(140)는 사용자의 좌안에는 시역 분리부를 통해서 제1 멀티 뷰 영상에 포함된 제1 시점 영상(가령, 1-1, 1-3, 1-5 영역의 영상)을 제공하고, 사용자의 우안에는 시역 분리부를 통해서 제1 멀티 뷰 영상에 포함된 제2 시점 영상을 제공함으로써, 사용자에게 3D 영상을 제공할 수 있다.The processor 140 provides a first viewpoint image (for example, images in the areas 1-1, 1-3, and 1-5) included in the first multi-view image through the view / The second viewing image included in the first multi-view image is provided to the right eye of the viewer through the viewing area separating unit, thereby providing the 3D image to the user.
도 6 및 도 7은 본 발명의 일 실시 예에 따른 디스플레이 장치가 제2 멀티 뷰 영상을 디스플레이 하는 동작을 설명하기 위한 도면이다.6 and 7 are views for explaining an operation of displaying a second multi-view image according to an exemplary embodiment of the present invention.
프로세서(140)는 제1 멀티 뷰 영상을 제공한 이후, 제2 멀티 뷰 영상을 제공할 수 있다. 이 때, 제1 픽셀(511)은 제2 멀티 뷰 영상 중 1-2 영역의 영상을 제공할 수 있고, 제2 픽셀(512)는 제2 멀티 뷰 영상 중 2-3 영역의 영상을 제공할 수 있으며, 제3 픽셀(513)은 제2 멀티 뷰 영상 중 1-4 영역의 영상을 제공할 수 있다.The processor 140 may provide a first multi-view image and then a second multi-view image. At this time, the first pixel 511 may provide an image of a first area of the second multi-view image, and the second pixel 512 may provide an image of a second area of the second multi-view image And the third pixel 513 may provide an image of a region 1-4 of the second multi-view image.
그리고, 프로세서(140)는 액추에이터에 전기적 신호를 전송하여 디스플레이 패널을 진동시킬 수 있다. The processor 140 may transmit an electrical signal to the actuator to vibrate the display panel.
도 6은 좌측으로 디스플레이 패널을 진동시키는 경우이며, 도 7은 우측으로 디스플레이 패널을 진동시키는 경우를 설명하기 위한 도면이다.Fig. 6 shows a case where the display panel is vibrated to the left, and Fig. 7 is a view to explain a case where the display panel is vibrated to the right.
도 6을 참조하면, 프로세서(140)는 디스플레이 패널을 좌측으로 진동시킬 수 있다. 이에 따라, 동일한 시역에 제3 픽셀(513)이 제공하는 제2 멀티 뷰 영상 중 1-4 영역의 영상이 사용자의 좌안에 제공될 수 있다.Referring to FIG. 6, the processor 140 may vibrate the display panel to the left. Accordingly, an image of the area 1-4 of the second multi-view image provided by the third pixel 513 in the same view area can be provided in the left eye of the user.
그리고, 도 7을 참조하면 프로세서(140)는 디스플레이 패널을 우측으로 진동시킬 수 있다. 이에 따라, 이에 따라, 동일한 시역에 제1 픽셀(511)이 제공하는 제2 멀티 뷰 영상 중 1-4 영역의 영상이 사용자의 좌안에 제공될 수 있다.7, the processor 140 may vibrate the display panel to the right. Accordingly, an image of the area 1-4 of the second multi-view image provided by the first pixel 511 in the same view area can be provided in the left eye of the user.
한편, 제2 시점 영상의 경우에도 상술한 방법과 마찬가지로 사용자에게 제공될 수 있다. 구체적인 설명은, 제1 시점 영상의 경우와 중복되므로 생략한다.On the other hand, the second view image may be provided to the user in the same manner as described above. The detailed description will be omitted because it overlaps with the case of the first view image.
이와 같이, 제1 멀티 뷰 영상의 일부 영역 및 제2 멀티 뷰 영상의 인접 영역이 순차적으로 디스플레이 패널(110)에 표시됨으로써, 3D 영상에 포함된 오브젝트의 연속성이 유지될 수 있고, 고화질의 3D 영상이 사용자에게 제공될 수 있다.Since the partial area of the first multi-view image and the adjacent area of the second multi-view image are sequentially displayed on the display panel 110, the continuity of the objects included in the 3D image can be maintained, May be provided to the user.
즉, 종래의 무안경 디스플레이 장치는, 제1 멀티 뷰 영상만을 표시하고 제1 멀티 뷰 영상에 포함되지 않은 영역의 영상은 제공하지 않음으로 인해서 화질의 열화 현상이 발생하는 문제가 있었으나, 본 발명은 제1 멀티 뷰 영상에 포함되지 않은 영역의 영상을 제2 멀티 뷰 영상으로 제공함에 의해서, 화질 열화 문제 없이 사용자에게 고화질읠 3D 영상을 제공할 수 있는 효과가 있다.That is, the conventional non-eyeglass display apparatus has a problem that image quality deterioration occurs due to displaying only the first multi-view image and not providing an image of an area not included in the first multi-view image. However, By providing an image of an area not included in the first multi-view image as the second multi-view image, it is possible to provide a high-quality 3D image to the user without a problem of deterioration of image quality.
도 8은 본 발명의 일 실시 예에 따른, 디스플레이 장치가 복수의 모듈을 포함하는 경우를 설명하기 위한 도면이다.8 is a diagram for explaining a case where a display device includes a plurality of modules according to an embodiment of the present invention.
본 발명의 디스플레이 패널은 복수의 디스플레이 모듈(111, 112, 113, 114)을 포함할 수 있다.The display panel of the present invention may include a plurality of display modules 111, 112, 113, and 114.
여기에서, 각 디스플레이 모듈에는 하나의 멀티 뷰 영상의 각 영역에 대응하는 서브 영상이 디스플레이 될 수 있다. 예를 들어, 프로세서(140)는 멀티 뷰 서브 영상이 4개의 서브 영상으로 구분된 경우, 멀티 뷰 영상의 (1,1) 좌표에 대응되는 위치에서 디스플레이 되는 영상을 디스플레이 패널(110) 상에서 (1,1) 좌표에 대응되는 위치에 있는 디스플레이 모듈(111)에 제공할 수 있다. 이와 마찬가지로, 프로세서(140)는 멀티 뷰 영상의 (1,2), (2,1) (2,2) 좌표에 대응되는 위치에서 각각 디스플레이 되는 영상을 디스플레이 패널(110) 상에서 (1,2), (2,1) (2,2) 좌표에 대응되는 위치에 있는 디스플레이 모듈(112, 113, 114) 각각에 제공할 수 있다. Here, a sub-image corresponding to each area of one multi-view image may be displayed on each display module. For example, when the multi-view sub-image is divided into four sub-images, the processor 140 displays an image displayed at a position corresponding to the (1,1) coordinates of the multi-view image on the display panel 110 , 1) coordinates to the display module 111 at a position corresponding to the coordinates. Likewise, the processor 140 displays the images displayed on the display panel 110 at positions corresponding to the (1,2), (2,1), (2,2) coordinates of the multi- , And (2,1) (2,2) coordinates of the display module 112, 113, and 114, respectively.
그리고, 프로세서(140)는 이와 같은 방법으로 제1 멀티 뷰 서브 영상을 디스플레이 패널(110)의 각 디스플레이 모듈에 표시하고, 이후 제2 멀티 뷰 서브 영상을 디스플레이 패널(110)의 각 디스플레이 모듈에 표시하면서, 복수의 디스플레이 모듈을 진동시킬 수 있다.In this way, the processor 140 displays the first multi-view sub-image on each display module of the display panel 110, and then displays the second multi-view sub-image on each display module of the display panel 110 The plurality of display modules can be vibrated.
이와 같이, 복수의 디스플레이 모듈을 진동시킴으로써, 프로세서(140)는 제1 멀티 뷰 서브 영상 및 제2 멀티 뷰 서브 영상을 순차적으로 표시할 수 있다.Thus, by vibrating the plurality of display modules, the processor 140 can sequentially display the first multi-view sub-image and the second multi-view sub-image.
이에 따라, 본 발명은 제1 멀티 뷰 서브 영상에 포함되지 않은 영역의 영상을 제2 멀티 뷰 서브 영상을 통해 디스플레이 할 수 있고, 화질 열화 현상 없이 무안경식 3D 영상을 제공할 수 있는 효과가 있다.Accordingly, the present invention is capable of displaying an image of an area not included in the first multi-view sub-image through the second multi-view sub-image, and providing a non-tight 3D image without deterioration of image quality.
또한, 복수의 디스플레이 모듈로 디스플레이 패널(110)을 구현할 수 있다는 점에서, 대형 디스플레이의 경우에도 고품질의 무안경식 3D 영상을 제공할 수 있는 효과가 있다.In addition, since the display panel 110 can be implemented with a plurality of display modules, high-quality, non-limiting 3D images can be provided even in a large-sized display.
도 9는, 본 발명의 일 실시 예에 따른 디스플레이 장치의 동작을 설명하기 위한 흐름도이다.9 is a flowchart illustrating an operation of a display apparatus according to an embodiment of the present invention.
먼저, 디스플레이 장치는 디스플레이 패널에 복수의 시점에 대응되는 복수의 영상에 기초하여 생성된 멀티 뷰 영상을 표시한다. 일 실시 예로, 멀티 뷰 영상은 제1 멀티 뷰 영상 및 제2 멀티 뷰 영상을 포함할 수 있다. First, the display device displays a multi-view image generated on the display panel based on a plurality of images corresponding to a plurality of viewpoints. In one embodiment, the multi-view image may include a first multi-view image and a second multi-view image.
그리고, 디스플레이 장치는 멀티 뷰 영상이 제공되는 시역을 분리하여, 각 시역에 서로 다른 시점의 영상을 제공한다. 구체적으로, 제1 및 제2 멀티 뷰 영상 각각에 포함된 제1 시점 영상은 사용자의 좌안에 제공할 수 있고, 제2 시점 영상은 사용자의 우안에 제공할 수 있다.The display device separates the view areas provided with the multi-view images, and provides images at different view points in each view area. Specifically, the first viewpoint image included in each of the first and second multi-view images may be provided to the left eye of the user, and the second viewpoint image may be provided to the right eye of the user.
그리고, 디스플레이 장치는 디스플레이 패널을 진동시키고, 디스플레이 패널이 진동되는 동안, 복수의 영상 각각의 일부 영역의 영상을 포함하는 제1 멀티 뷰 영상과 복수의 영상 각각의 다른 영역의 영상을 포함하는 제2 멀티 뷰 영상을 동일한 시역에서 순차적으로 표시한다.The display device vibrates the display panel, and while the display panel is being vibrated, a first multi-view image including an image of a partial area of each of the plurality of images, and a second multi-view image including an image of another area of each of the plurality of images, The multi-view images are sequentially displayed in the same view area.
이에 따라, 제1 멀티 뷰 서브 영상에 포함되지 않은 영역의 영상을 제2 멀티 뷰 서브 영상을 통해 디스플레이 할 수 있고, 화질 열화 현상 없이 무안경식 3D 영상을 제공할 수 있는 효과가 있다.Accordingly, an image of an area not included in the first multi-view sub-image can be displayed through the second multi-view sub-image, and an unshallow 3D image can be provided without deterioration of image quality.
한편, 상술한 다양한 실시 예에 따른 제어 방법은 프로그램으로 구현되어 전자 장치에 제공될 수 있다. 특히, 제어 방법을 포함하는 프로그램은 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장되어 제공될 수 있다. Meanwhile, the control method according to the various embodiments described above can be implemented by a program and provided to an electronic device. In particular, a program including a control method may be stored in a non-transitory computer readable medium.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.A non-transitory readable medium is a medium that stores data for a short period of time, such as a register, cache, memory, etc., but semi-permanently stores data and is readable by the apparatus. In particular, the various applications or programs described above may be stored on non-volatile readable media such as CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM,
또한, 이상에서는 본 개시의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시가 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해 되어서는 안 될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes and modifications may be made without departing from the spirit and scope of this disclosure.
--
--

Claims (15)

  1. 디스플레이 장치에 있어서,In the display device,
    액추에이터;Actuator;
    복수의 픽셀들을 포함하는 디스플레이 패널;A display panel including a plurality of pixels;
    복수의 시점에 대응되는 복수의 영상에 기초하여 생성된 멀티 뷰 영상을 상기 디스플레이 패널에 표시하는 프로세서; 및A processor for displaying on the display panel a multi-view image generated based on a plurality of images corresponding to a plurality of viewpoints; And
    상기 디스플레이 패널의 전면에 배치되고, 상기 디스플레이 패널에 표시된 상기 멀티 뷰 영상이 제공되는 시역을 분리하여, 각 시역에 서로 다른 시점의 영상을 제공하는 시역 분리부;를 포함하고,And a field of view separator disposed on a front surface of the display panel for separating a field of view provided with the multi-view image displayed on the display panel and providing images at different viewpoints in each field of view,
    상기 프로세서는,The processor comprising:
    상기 디스플레이 패널을 진동시키도록 상기 액추에이터를 제어하고, 상기 디스플레이 패널이 진동하는 동안, 상기 복수의 영상 각각의 일부 영역의 영상을 포함하는 제1 멀티 뷰 영상과 상기 복수의 영상 각각의 다른 영역의 영상을 포함하는 제2 멀티 뷰 영상을 순차적으로 표시하며,A first multi-view image including an image of a partial area of each of the plurality of images and an image of another area of each of the plurality of images while the display panel is vibrating; View image sequentially including the first multi-view image and the second multi-
    상기 일부 영역의 영상과 상기 다른 영역의 영상은, 동일한 시역에 제공되는, 디스플레이 장치.Wherein the image of the partial area and the image of the other area are provided in the same viewing area.
  2. 제1항에 있어서,The method according to claim 1,
    상기 프로세서는,The processor comprising:
    상기 디스플레이 패널의 진동 크기에 따라, 상기 복수의 픽셀들 중에서 상기 일부 영역의 영상과 상기 다른 영역의 영상이 각각 표시되는 픽셀들을 확인하고, 상기 확인된 픽셀들에 상기 일부 영역의 영상과 상기 다른 영역의 영상을 각각 표시하는, 디스플레이 장치.The method comprising the steps of: identifying pixels of the partial area and images of the other area, respectively, of the plurality of pixels according to the magnitude of vibration of the display panel; Respectively.
  3. 제1항에 있어서,The method according to claim 1,
    상기 일부 영역의 영상과 상기 다른 영역의 영상은, 동일한 시역에서 상이한 위치에 제공되며,The image of the partial area and the image of the other area are provided at different positions in the same view area,
    상기 동일한 시역에서 상기 일부 영역의 영상과 상기 다른 영역의 영상이 제공되는 위치는, 각 시점에 대응되는 영상에서 상기 일부 영역의 영상과 상기 다른 영역의 영상의 위치에 대응되는, 디스플레이 장치.Wherein the position of the image of the partial area and the image of the other area in the same view area correspond to the image of the partial area and the image of the other area in the image corresponding to each view point.
  4. 제1항에 있어서,The method according to claim 1,
    상기 다른 영역의 영상은, Wherein the image of the other area includes:
    각 시점에 대응되는 영상에서 상기 일부 영역에 인접한 영역의 영상이고, 상기 제1 멀티 뷰 영상에 포함되지 않는 영상인, 디스플레이 장치.Wherein the image is an image of an area adjacent to the partial area in an image corresponding to each viewpoint, and is not included in the first multi-view image.
  5. 제1항에 있어서,The method according to claim 1,
    상기 디스플레이 패널은, 복수의 디스플레이 모듈을 포함하고,The display panel includes a plurality of display modules,
    상기 액추에이터는, 복수의 디스플레이 모듈을 진동하기 위한 복수의 액추에이터를 포함하고,Wherein the actuator includes a plurality of actuators for vibrating the plurality of display modules,
    상기 프로세서는,The processor comprising:
    상기 복수의 디스플레이 모듈을 진동시키도록 상기 복수의 액추에이터를 제어하는, 디스플레이 장치.And controls the plurality of actuators to vibrate the plurality of display modules.
  6. 제5항에 있어서,6. The method of claim 5,
    상기 프로세서는,The processor comprising:
    상기 제1 멀티 뷰 영상을 복수의 제1 멀티 뷰 서브 영상으로 구분하고, 상기 제2 멀티 뷰 영상을 복수의 제2 멀티 뷰 서브 영상으로 구분하고, 상기 복수의 디스플레이 모듈이 진동하는 동안, 상기 복수의 디스플레이 모듈에 상기 제1 멀티 뷰 서브 영상 및 상기 제2 멀티 뷰 서브 영상을 순차적으로 표시하는, 디스플레이 장치.The first multi-view image is divided into a plurality of first multi-view sub-images, the second multi-view image is divided into a plurality of second multi-view sub-images, and the plurality And sequentially displays the first multi-view sub-image and the second multi-view sub-image on a display module of the display unit.
  7. 제1항에 있어서,The method according to claim 1,
    카메라;를 더 포함하고,Further comprising a camera,
    상기 카메라를 통해 촬영된 영상에 포함된 사용자의 눈 및 머리 중 적어도 하나의 위치에 기초하여, 상기 액추에이터의 진동 크기를 조절하는, 디스플레이 장치.And adjusts the magnitude of vibration of the actuator based on at least one position of the user's eyes and head included in the image photographed through the camera.
  8. 제5항에 있어서,6. The method of claim 5,
    카메라;를 더 포함하고,Further comprising a camera,
    상기 프로세서는 The processor
    상기 카메라를 통해 촬영된 영상에 포함된 사용자의 눈 및 머리 중 적어도 하나의 위치에 기초하여, 상기 복수의 액추에이터의 진동 크기를 조절하는, 디스플레이 장치.And adjusts the magnitude of vibration of the plurality of actuators based on a position of at least one of a user's eyes and a head included in an image photographed through the camera.
  9. 디스플레이 장치의 제어 방법에 있어서,A method of controlling a display device,
    상기 디스플레이 장치의 디스플레이 패널에 복수의 시점에 대응되는 복수의 영상에 기초하여 생성된 멀티 뷰 영상을 표시하는 단계;Displaying a multi-view image generated based on a plurality of images corresponding to a plurality of viewpoints on a display panel of the display device;
    상기 멀티 뷰 영상이 제공되는 시역을 분리하여, 각 시역에 서로 다른 시점의 영상을 제공하는 단계; 및Separating the view area provided with the multi view image and providing images at different view points in each view area; And
    상기 디스플레이 패널을 진동시키고, 상기 디스플레이 패널이 진동되는 동안, 상기 복수의 영상 각각의 일부 영역의 영상을 포함하는 제1 멀티 뷰 영상과 상기 복수의 영상 각각의 다른 영역의 영상을 포함하는 제2 멀티 뷰 영상을 동일한 시역에서 순차적으로 표시하는 단계;를 포함하는 디스플레이 장치의 제어 방법.A first multi-view image including an image of a partial area of each of the plurality of images, and a second multi-view image including an image of another area of each of the plurality of images while the display panel is being vibrated, And displaying the view images sequentially in the same view area.
  10. 제9항에 있어서,10. The method of claim 9,
    상기 멀티 뷰 영상을 표시하는 단계는,Wherein the displaying the multi-view image comprises:
    상기 디스플레이 패널의 진동 크기에 따라, 상기 디스플레이 패널에 포함된 픽셀들 중에서 상기 일부 영역의 영상과 상기 다른 영역의 영상이 각각 표시되는 픽셀들을 확인하는 단계; 및 Identifying pixels in which the image of the partial area and the image of the other area are respectively displayed among the pixels included in the display panel according to the magnitude of vibration of the display panel; And
    상기 확인된 픽셀들에 상기 일부 영역의 영상과 상기 다른 영역의 영상을 각각 표시하는 단계;를 더 포함하는, 디스플레이 장치의 제어 방법.And displaying the image of the partial region and the image of the different region in the identified pixels, respectively.
  11. 제9항에 있어서,10. The method of claim 9,
    상기 일부 영역의 영상과 상기 다른 영역의 영상은, 동일한 시역에서 상이한 위치에 제공되며,The image of the partial area and the image of the other area are provided at different positions in the same view area,
    상기 동일한 시역에서 상기 일부 영역의 영상과 상기 다른 영역의 영상이 제공되는 위치는, 각 시점에 대응되는 영상에서 상기 일부 영역의 영상과 상기 다른 영역의 영상의 위치에 대응되는, 디스플레이 장치의 제어 방법.Wherein the position of the image of the partial area and the image of the other area in the same view area corresponds to the position of the image of the partial area and the image of the other area in the image corresponding to each viewpoint, .
  12. 제9항에 있어서,10. The method of claim 9,
    상기 다른 영역의 영상은, Wherein the image of the other area includes:
    각 시점에 대응되는 영상에서 상기 일부 영역에 인접한 영역의 영상이고, 상기 제1 멀티 뷰 영상에 포함되지 않는 영상인, 디스플레이 장치의 제어 방법.Wherein the image is an image of an area adjacent to the partial area in an image corresponding to each viewpoint and is not included in the first multi-view image.
  13. 제9항에 있어서,10. The method of claim 9,
    상기 디스플레이 패널은, 복수의 디스플레이 모듈을 포함하고,The display panel includes a plurality of display modules,
    상기 진동시키는 단계는,Wherein the vibrating step comprises:
    상기 복수의 디스플레이 모듈을 진동시키는, 디스플레이 장치의 제어 방법.And vibrates the plurality of display modules.
  14. 제13항에 있어서,14. The method of claim 13,
    상기 제1 멀티 뷰 영상을 복수의 제1 멀티 뷰 서브 영상으로 구분하고, 상기 제2 멀티 뷰 영상을 복수의 제2 멀티 뷰 서브 영상으로 구분하는 단계; 및Dividing the first multi-view image into a plurality of first multi-view sub-images, and dividing the second multi-view image into a plurality of second multi-view sub-images; And
    상기 복수의 디스플레이 모듈이 진동하는 동안, 상기 복수의 디스플레이 모듈에 상기 제1 멀티 뷰 서브 영상 및 상기 제2 멀티 뷰 서브 영상을 순차적으로 표시하는 단계;를 더 포함하는 디스플레이 장치의 제어 방법.And sequentially displaying the first multi-view sub-image and the second multi-view sub-image on the plurality of display modules while the plurality of display modules are vibrated.
  15. 제9항에 있어서,10. The method of claim 9,
    사용자의 눈 및 머리 중 적어도 하나를 촬영하는 단계; 및Photographing at least one of a user's eyes and a head; And
    상기 촬영된 영상에 포함된 사용자의 눈 및 머리 중 적어도 하나의 위치에 기초하여, 상기 디스플레이 패널의 진동 크기를 조절하는 단계;를 더 포함하는, 디스플레이 장치의 제어 방법.And adjusting a magnitude of vibration of the display panel based on at least one position of a user's eye and a head included in the photographed image.
PCT/KR2018/008145 2017-07-20 2018-07-19 Display device and control method therefor WO2019017700A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2017-0092236 2017-07-20
KR1020170092236A KR20190010060A (en) 2017-07-20 2017-07-20 Display apparatus and Method for controlling the display apparatus thereof

Publications (1)

Publication Number Publication Date
WO2019017700A1 true WO2019017700A1 (en) 2019-01-24

Family

ID=65015247

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/008145 WO2019017700A1 (en) 2017-07-20 2018-07-19 Display device and control method therefor

Country Status (2)

Country Link
KR (1) KR20190010060A (en)
WO (1) WO2019017700A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100754192B1 (en) * 2004-12-29 2007-09-03 삼성전자주식회사 Display system for Automatic Switching 2D/3D Viewing Modes and Display method for presenting 2D/3D Video Content
US20090195642A1 (en) * 2005-09-29 2009-08-06 Rieko Fukushima Three-dimensional image display device, three-dimensional image display method, and computer program product for three-dimensional image display
KR20120075174A (en) * 2010-12-28 2012-07-06 삼성모바일디스플레이주식회사 Stereoscopic display apparatus
US20120188245A1 (en) * 2011-01-20 2012-07-26 Apple Inc. Display resolution increase with mechanical actuation
KR20150134416A (en) * 2013-03-25 2015-12-01 조세프 제거 Vibrating grid based 3D space visualization device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100754192B1 (en) * 2004-12-29 2007-09-03 삼성전자주식회사 Display system for Automatic Switching 2D/3D Viewing Modes and Display method for presenting 2D/3D Video Content
US20090195642A1 (en) * 2005-09-29 2009-08-06 Rieko Fukushima Three-dimensional image display device, three-dimensional image display method, and computer program product for three-dimensional image display
KR20120075174A (en) * 2010-12-28 2012-07-06 삼성모바일디스플레이주식회사 Stereoscopic display apparatus
US20120188245A1 (en) * 2011-01-20 2012-07-26 Apple Inc. Display resolution increase with mechanical actuation
KR20150134416A (en) * 2013-03-25 2015-12-01 조세프 제거 Vibrating grid based 3D space visualization device

Also Published As

Publication number Publication date
KR20190010060A (en) 2019-01-30

Similar Documents

Publication Publication Date Title
WO2015037796A1 (en) Display device and method of controlling the same
WO2016186441A1 (en) Multi-view image display apparatus and control method thereof, controller, and multi-view image generation method
WO2016010234A1 (en) Curved multi-view image display apparatus and control method thereof
WO2012093849A2 (en) 3d display device and method
WO2017065517A1 (en) 3d display apparatus and control method thereof
WO2012121520A2 (en) Multiple viewpoint image display device
WO2012044130A2 (en) 3d display device using barrier and driving method thereof
WO2014107099A1 (en) Display apparatus and display method thereof
US9866825B2 (en) Multi-view image display apparatus and control method thereof
WO2016021925A1 (en) Multiview image display apparatus and control method thereof
WO2014046522A1 (en) Multiview image generating method and multi view image display apparatus
WO2010107227A2 (en) A method of displaying three-dimensional image data and an apparatus of processing three-dimensional image data
WO2010151044A2 (en) Image-processing method for a display device which outputs three-dimensional content, and display device adopting the method
WO2011005056A2 (en) Image output method for a display device which outputs three-dimensional contents, and a display device employing the method
WO2018139880A1 (en) Head-mounted display apparatus, and method thereof for generating 3d image information
WO2014014263A2 (en) Image data scaling method and image display apparatus
WO2012050366A2 (en) 3d image display apparatus and display method thereof
WO2019035581A1 (en) Server, display device and control method therefor
WO2011155766A2 (en) Image processing method and image display device according to the method
EP3225025A1 (en) Display device and method of controlling the same
WO2016163783A1 (en) Display device and method of controlling the same
WO2015178576A1 (en) Image display device and image display method
WO2014107014A1 (en) Display method and display apparatus
WO2015012606A1 (en) Multi view image processing apparatus and image processing method thereof
WO2019017700A1 (en) Display device and control method therefor

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18834705

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18834705

Country of ref document: EP

Kind code of ref document: A1