WO2014136144A1 - 映像表示装置および映像表示方法 - Google Patents

映像表示装置および映像表示方法 Download PDF

Info

Publication number
WO2014136144A1
WO2014136144A1 PCT/JP2013/001465 JP2013001465W WO2014136144A1 WO 2014136144 A1 WO2014136144 A1 WO 2014136144A1 JP 2013001465 W JP2013001465 W JP 2013001465W WO 2014136144 A1 WO2014136144 A1 WO 2014136144A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
viewpoint
video
area
viewing
Prior art date
Application number
PCT/JP2013/001465
Other languages
English (en)
French (fr)
Inventor
厳太朗 竹田
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to PCT/JP2013/001465 priority Critical patent/WO2014136144A1/ja
Publication of WO2014136144A1 publication Critical patent/WO2014136144A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers

Definitions

  • This disclosure relates to a video display device that displays a plurality of viewpoint videos.
  • Patent Document 1 discloses a display device that displays a plurality of viewpoint images.
  • the display device includes a display unit, a light separation unit, and a display control unit.
  • the display unit displays a plurality of viewpoint images.
  • the light separation unit includes a plurality of transmission units and separates light from the display unit.
  • the display control unit controls timing for switching at least one of the display position of each viewpoint image on the display unit and the transmittance of each transmission unit of the light separation unit based on correlation information between frames of the viewpoint image. Thereby, this display device provides an environment suitable for viewing.
  • This disclosure provides a video display device that can reduce the adverse effects caused by the movement of the viewer (the person watching the video).
  • a video display device displays a plurality of viewpoint videos including a first viewpoint video and a second viewpoint video having different viewpoints based on a detection unit that detects a viewer's viewing position and the detected viewing position. And when the detected viewing position is within the first viewing area, the display section is a display area that can be seen from the left eye of the viewer in the first viewing area and is a display area that includes pixels.
  • a first block that is a block having a pixel value constituting the first viewpoint video is displayed in one display area, and is a display area that is visible from the right eye of the viewer in the first viewing area and is a display area that includes pixels.
  • the second display area is a block having a pixel value constituting the second viewpoint video, the second block corresponding to the same position as the first block is displayed, and the first display area and the second display area In between, first view Disposing a third display area is a display area including the a display area pixel invisible from any viewer in the region left and right eyes of.
  • the video display device can reduce adverse effects caused by the movement of the viewer.
  • FIG. 1 is a diagram illustrating a display mode of a left viewpoint video and a right viewpoint video according to a reference example.
  • FIG. 2 is a diagram illustrating a display mode when the viewing position is changed according to the reference example.
  • FIG. 3 is a block diagram showing a configuration of the video display apparatus according to the first embodiment.
  • FIG. 4 is a diagram showing a display mode of a plurality of viewpoint videos according to the first embodiment.
  • FIG. 5 is a schematic diagram showing a positional relationship between the viewer, the display panel, and the barrier according to the first embodiment.
  • FIG. 6 is a flowchart showing the operation of the video display apparatus according to the first embodiment.
  • FIG. 7 is a block diagram illustrating a configuration of the video display apparatus according to the second embodiment.
  • FIG. 8 is a diagram illustrating a display mode of a plurality of viewpoint videos according to the second embodiment.
  • FIG. 9 is a flowchart showing the operation of the video display apparatus according to the second embodiment.
  • FIG. 10 is a block diagram showing the configuration of the video display apparatus according to Embodiment 3.
  • FIG. 11 is a flowchart showing the operation of the video display apparatus according to the third embodiment.
  • FIG. 12 is a diagram illustrating a display mode when the viewpoint position is changed according to the third embodiment.
  • FIG. 13 is a diagram illustrating an example of the relationship between the viewing position and the pixel group according to the third embodiment.
  • FIG. 14 is a flowchart showing a detailed operation of the video display apparatus according to the third embodiment.
  • FIG. 15 is a conceptual diagram showing a plurality of viewpoint videos according to the fourth embodiment.
  • FIG. 16 is a diagram illustrating a display mode of a plurality of viewpoint videos according to the reference example.
  • FIG. 17 is a block diagram showing a configuration of the video display apparatus according to Embodiment 4.
  • FIG. 18 is a flowchart showing the operation of the video display apparatus according to the fourth embodiment.
  • FIG. 19 is a diagram illustrating a display mode when the viewpoint position is changed according to the fourth embodiment.
  • FIG. 20 is a diagram illustrating a plurality of regions corresponding to a plurality of pixel groups according to the reference example.
  • FIG. 21 is a diagram illustrating a plurality of regions corresponding to a plurality of pixel groups according to the fourth embodiment.
  • FIG. 22 is a diagram showing the position of the viewpoint according to the fourth embodiment.
  • FIG. 23 is a block diagram showing a configuration of a video display apparatus according to Embodiment 5.
  • FIG. 1 is a diagram illustrating a display mode of a left viewpoint video and a right viewpoint video according to a reference example.
  • the video display device according to the reference example simultaneously displays the left viewpoint video and the right viewpoint video on the display panel 91.
  • the viewpoint video is a video representing a view from a predetermined viewpoint position.
  • the left viewpoint video is a viewpoint video for the left eye of the viewer.
  • the right viewpoint video is a viewpoint video for the right eye of the viewer.
  • the video display device displays the left viewpoint video on the first pixel group of the display panel 91 and displays the right viewpoint video on the second pixel group of the display panel 91.
  • the pixel group includes a plurality of pixels for displaying one video.
  • the first pixel group includes a plurality of pixel columns each of which is an even column
  • the second pixel group includes a plurality of pixel columns each of which is an odd column.
  • the barrier (parallax barrier) 92 covers at least a part of the display panel 91.
  • the barrier 92 has a transmission part (opening part).
  • the video display device displays the left viewpoint video on the display panel 91 in an area that can be seen through the transmission part of the barrier 92 from the viewer's left eye. Then, the video display device displays the right viewpoint video on the display panel 91 in a region that can be seen through the transmission part of the barrier 92 from the right eye of the viewer. Then, the viewer recognizes one stereoscopic video based on the parallax between the left viewpoint video and the right viewpoint video.
  • Such a display method is called a naked-eye 3D method or a parallax barrier method.
  • FIG. 2 is a diagram showing a display mode when the viewing position is changed according to the reference example.
  • the viewing position which is the viewer's position
  • the right viewpoint video is displayed in the area visible from the left eye
  • the left viewpoint video is displayed in the area visible from the right eye.
  • a stereoscopic video is not properly recognized.
  • the video display device detects the viewing position using an image obtained by the camera 93. Then, the video display device displays the left viewpoint video on the display panel 91 in an area visible from the left eye of the viewer at the detected viewing position. Similarly, the video display device displays a right viewpoint video on the display panel 91 in a region that can be seen from the right eye of the viewer at the detected viewing position.
  • Such a display method is called a face tracking method.
  • a display area is inserted between a display area that can be seen from the left eye and a display area that can be seen from the right eye. As a result, adverse effects caused by the movement of the viewer are reduced.
  • FIG. 3 is a block diagram showing the configuration of the video display apparatus according to the present embodiment.
  • the video display device 10 includes a detection unit 11 and a display unit 12.
  • the detecting unit 11 detects the viewer position (viewing position).
  • a camera or infrared rays may be used for detecting the viewing position.
  • the display unit 12 displays a plurality of viewpoint videos based on the detected viewing position.
  • the display unit 12 includes a display panel for displaying a plurality of viewpoint videos, and a barrier (parallax barrier) that covers the display panel.
  • FIG. 4 is a diagram showing a display mode of a plurality of viewpoint videos according to the present embodiment.
  • the display panel 21 and the barrier (parallax barrier) 22 illustrated in FIG. 4 are examples of components included in the display unit 12, respectively.
  • the display unit 12 displays the left viewpoint video and the right viewpoint video on the display panel 21.
  • L of the display panel 21 indicates a pixel group in which the left viewpoint video is displayed
  • R of the display panel 21 indicates a pixel group in which the right viewpoint video is displayed.
  • the barrier 22 covers at least a part of the display panel 21.
  • the barrier 22 has a transmission part (opening part).
  • each pixel constituting the pixel group is a display element in the display panel 21.
  • a block (sample) having a pixel value constituting an image is displayed.
  • the block may be a block having a plurality of pixel values displayed on a plurality of pixels.
  • the display unit 12 displays the left viewpoint video on the display panel 21 in an area that can be seen through the transmission part of the barrier 22 from the viewer's left eye. Then, the display unit 12 displays the right viewpoint video on the display panel 21 in an area that can be seen through the transmission part of the barrier 22 from the right eye of the viewer. Further, the display unit 12 arranges an area between the area where the left viewpoint video is displayed and the area where the right viewpoint video is displayed. The area arranged between them is an area that cannot be seen from the left eye and the right eye of the viewer.
  • FIG. 5 is a schematic diagram showing the positional relationship between the viewer, the display panel 21 and the barrier 22 shown in FIG.
  • a region visible from the left eye is adjacent to a region visible from the right eye.
  • the distance between the viewer's left eye and right eye is 65 mm.
  • the distance between the pixels of the display panel 91 is 0.12 mm.
  • the distance between the viewer and the barrier 92 is 300 mm.
  • the distance between the display panel 91 and the barrier 92 is 0.35 mm.
  • an area is inserted between the area visible from the left eye and the area visible from the right eye.
  • the distance between the display panel 21 and the barrier 22 is 0.70 mm, which is different from the example of FIG. In other words, by making the distance between the display panel 21 and the barrier 22 twice the distance between the display panel 91 and the barrier 92 in the example of FIG. An area is inserted.
  • the positional relationship shown in FIG. 5 is an example, and the positional relationship between the viewer, the display panel, and the barrier is not limited to the example in FIG.
  • the distance between the pixels may be changed to half without changing the distance between the display panel and the barrier, the size of the transmissive part may be changed to half, or the distance between the transmissive parts may be It may be changed by a factor of two.
  • the positional relationship may be changed according to the refractive index of the medium such as the transmission part.
  • a region that can be seen from the left eye, a region that can be seen from the right eye, and a region that cannot be seen from the left eye and the right eye are classified for each pixel.
  • these areas do not have to be classified for each pixel.
  • these regions may be classified every two pixels or may be classified every three pixels.
  • the operation of the video display device 10 configured as described above will be described.
  • the video display device 10 performs an operation for displaying a plurality of viewpoint videos. Hereinafter, the operation will be described in detail.
  • FIG. 6 is a flowchart showing the operation of the video display device 10.
  • the detection unit 11 detects the viewing position of the viewer (S11).
  • the display unit 12 displays a plurality of viewpoint videos based on the detected viewing position (S12).
  • the viewing position is described as being divided into a plurality of viewing areas. From one viewing area, a pixel (display area) corresponding to the viewing area can be seen. That is, the viewing area is determined corresponding to the visible pixel (display area).
  • the display unit 12 When the detected viewing position is within the first viewing area, the display unit 12 has a pixel value constituting the first viewpoint video in the first display area that can be seen from the left eye of the viewer in the first viewing area. One block is displayed. In this case, the display unit 12 displays the second block having the pixel value constituting the second viewpoint video in the second display area that can be seen from the right eye of the viewer in the first viewing area. Furthermore, in this case, the display unit 12 arranges the third display area between the first display area and the second display area.
  • the first block is a block having a pixel value constituting the first viewpoint video, and is defined as a block displayed on a pixel (first display area) that can be seen from the left eye on the display panel 21.
  • the second block is a block having a pixel value constituting the second viewpoint video, and is defined as a block displayed on a pixel (second display area) that can be seen from the right eye on the display panel 21.
  • the first viewpoint image is an image representing a view from the first viewpoint position.
  • the second viewpoint video is a video representing a view from a second viewpoint position different from the first viewpoint position.
  • the first block and the second block correspond to the same position. More specifically, the relative position of the second block with respect to the second viewpoint image is equal to the relative position of the first block with respect to the first viewpoint image.
  • the display unit 12 displays the first block and the second block having the same relative position in the first display area and the second display area.
  • the first display area and the second display area are areas that can be seen through the same one transmissive part of the barrier 22 from the viewer's left eye or right eye, respectively.
  • the third display area arranged between the first display area and the second display area is an area that cannot be seen from the left eye and the right eye in the first viewing area.
  • the display unit 12 may not display anything in the third display area.
  • the first display area, the second display area, and the third display area are basically pixels, but may include a plurality of pixels. That is, each has a size of one pixel or more. Each of these may have the same size.
  • the first viewing area has a width that is about half of the distance between the left eye and the right eye.
  • the first viewing area has a width of 32.5 mm in the left-right direction at a position 300 mm away from the barrier 22.
  • the display unit 12 When the detected viewing position is in the second viewing area adjacent to the left of the first viewing area, the display unit 12 displays the second viewpoint video in the third display area that can be seen from the right eye of the viewer in the second viewing area.
  • a third block having the constituent pixel values is displayed. The third block may be the same as the second block.
  • the display unit 12 displays the first viewpoint in the third display area that can be seen from the left eye of the viewer in the third viewing area.
  • a fourth block having pixel values constituting an image is displayed. The fourth block may be the same as the first block.
  • the display unit 12 when the detected viewing position is in the second viewing area, the third viewing area, or another viewing area, the display unit 12 similarly uses a plurality of viewing areas to which the detected viewing position belongs.
  • Display viewpoint video That is, the display unit 12 displays a block having a pixel value constituting the first viewpoint video in the display area that can be seen from the left eye of the viewer in the viewing area, and the display area that can be seen from the right eye of the viewer in the viewing area. , Blocks having pixel values constituting the second viewpoint video are displayed. And the display part 12 arrange
  • the other viewing areas also have a width that is about half of the distance between the left eye and the right eye in the left-right direction with respect to the display unit 12 as in the first viewing area.
  • the video display device 10 includes the detection unit 11 and the display unit 12.
  • the detection unit 11 detects the viewing position of the viewer.
  • the display unit 12 displays a plurality of viewpoint videos including a first viewpoint video and a second viewpoint video having different viewpoints based on the detected viewing position.
  • the display unit 12 displays a first block having a pixel value constituting the first viewpoint video in the first display area, and the second display area.
  • the second block having the pixel values constituting the second viewpoint video is displayed.
  • the display unit 12 arranges a third display area between the first display area and the second display area.
  • the second block corresponds to the same position as the first block.
  • the first display area is a display area that can be seen from the left eye of the viewer in the first viewing area.
  • the second display area is a display area that can be seen from the right eye of the viewer in the first viewing area.
  • the third display area is a display area that cannot be seen from either the left eye or the right eye of the viewer in the first viewing area.
  • the left viewpoint video and the right viewpoint video are displayed in opposite areas due to the delay in switching between the left viewpoint video and the right viewpoint video, the right viewpoint video is viewed with the left eye, and the left eye with the right eye.
  • the adverse effect of viewing the viewpoint video is reduced.
  • the display unit 12 includes a display panel 21 and a barrier 22.
  • the barrier 22 covers at least a part of the display panel 21.
  • the first display area is a display area that can be seen through the barrier 22 from the left eye of the viewer in the first viewing area on the display panel 21.
  • the second display area is a display area that can be seen through the barrier 22 from the right eye of the viewer in the first viewing area on the display panel 21.
  • the third display area is a display area that cannot be seen through the barrier 22 from either the left eye or the right eye of the viewer in the first viewing area on the display panel 21.
  • the video display apparatus 10 can appropriately display a plurality of viewpoint videos on the display panel 21 having the visible display area and the invisible display area.
  • the display unit 12 when the detected viewing position is in the second viewing area adjacent to the left of the first viewing area, the display unit 12 has a pixel value constituting the second viewpoint video in the third display area.
  • the third block may be the second block.
  • the display unit 12 when the detected viewing position is in the third viewing area adjacent to the right of the first viewing area, the display unit 12 has a fourth block having a pixel value constituting the first viewpoint video in the third display area. Is displayed.
  • the fourth block may be the first block.
  • the video display device 10 can appropriately display a plurality of viewpoint videos even after the viewer moves.
  • FIG. 7 is a block diagram showing a configuration of the video display apparatus according to the present embodiment.
  • the video display device 30 includes an imaging unit 33, a detection unit 11, and a display unit 12.
  • an imaging unit 33 is added to the video display device 30.
  • the imaging unit 33 generates an image by photographing the viewer.
  • the imaging unit 33 is a camera.
  • the detection unit 11 detects the viewing position of the viewer using the image generated by the imaging unit 33. Specifically, the detection unit 11 detects the viewing position by detecting the position of the viewer in the image generated by the imaging unit 33. Note that the imaging unit 33 may be included in the detection unit 11.
  • FIG. 8 is a diagram showing a display mode of a plurality of viewpoint videos according to the present embodiment.
  • FIG. 8 shows a camera 23 as an example of the imaging unit 33.
  • the camera 23 generates an image by photographing the viewer.
  • the detection unit 11 detects the viewing position using the image generated by the camera 23.
  • the display unit 12 displays a plurality of viewpoint videos based on the viewing position.
  • the operation of the video display device 30 configured as described above will be described.
  • the video display device 30 performs an operation for displaying a plurality of viewpoint videos. Hereinafter, the operation will be described in detail.
  • FIG. 9 is a flowchart showing the operation of the video display device 30 shown in FIG.
  • the imaging unit 33 captures a viewer and generates an image (S21).
  • the detection unit 11 detects the viewing position using the image generated by the imaging unit 33 (S22).
  • the display unit 12 displays a plurality of viewpoint videos based on the viewing position as in the first embodiment (S23).
  • the video display device 30 includes the imaging unit 33, the detection unit 11, and the display unit 12.
  • the imaging unit 33 generates an image by photographing the viewer.
  • the detection unit 11 detects the viewing position of the viewer using the image generated by the imaging unit 33.
  • the display unit 12 can appropriately display a plurality of viewpoint videos based on the viewing position.
  • FIG. 10 is a block diagram showing the configuration of the video display apparatus according to this embodiment.
  • the video display device 40 includes a detection unit 11, a prediction unit 44, and a display unit 12.
  • a prediction unit 44 is added to the video display device 40.
  • the prediction unit 44 predicts the moving direction of the viewer. For example, the prediction unit 44 predicts the moving direction of the viewer based on the viewing position detected by the detection unit 11. More specifically, when the viewing position is on the left side of the center in each viewing area, the prediction unit 44 predicts the moving direction of the viewer as the left direction, and the viewing position is on the right side of the center in each viewing area. In some cases, the moving direction of the viewer is predicted as the right direction. Alternatively, the prediction unit 44 may predict the moving direction of the viewer using the viewing position history.
  • the display unit 12 displays a plurality of viewpoint videos based on the viewing position detected by the detection unit 11 and the movement direction predicted by the prediction unit 44.
  • FIG. 11 is a flowchart showing the operation of the video display device 40.
  • the detection unit 11 detects the viewing position of the viewer (S31).
  • the prediction unit 44 predicts the moving direction of the viewer (S32).
  • the display unit 12 displays a plurality of viewpoint videos based on the viewing position detected by the detection unit 11 and the movement direction predicted by the prediction unit 44 (S33).
  • the display unit 12 when the viewing position is in the first viewing area, the display unit 12 displays the first display area in the first viewing area that can be seen from the left eye of the viewer. A first block having pixel values constituting one viewpoint video is displayed. In this case, the display unit 12 displays the second block having the pixel value constituting the second viewpoint video in the second display area that can be seen from the right eye of the viewer in the first viewing area. Furthermore, in this case, the display unit 12 arranges the third display area between the first display area and the second display area.
  • the display part 12 displays the 3rd block which has the pixel value which comprises a 2nd viewpoint image
  • the third block may be the same as the second block.
  • the display part 12 displays the 4th block which has the pixel value which comprises a 1st viewpoint image
  • the fourth block may be the same as the first block.
  • FIG. 12 is a diagram showing a display mode when the viewpoint position is changed according to the present embodiment.
  • the display unit 12 displays a left-eye image on the display panel 21 in a pixel group that can be seen from the left eye of the viewer in the first viewing area.
  • the display unit 12 displays the right-eye image on the display panel 21 in a pixel group that can be seen from the right eye of the viewer in the first viewing area ((a) of FIG. 12).
  • the display unit 12 changes the display panel 21 to a pixel group that cannot be seen from the left eye or the right eye of the viewer in the first viewing area, and to the pixel group adjacent to the right.
  • the same viewpoint video as the displayed viewpoint video is displayed ((b) of FIG. 12).
  • the display unit 12 displays a pixel group on the display panel 21 that is not visible from the left eye or the right eye of the viewer in the second viewing area.
  • the same viewpoint video as the viewpoint video displayed in (1) is displayed ((d) in FIG. 12).
  • FIG. 13 is a diagram showing an example of the relationship between the viewing position and the pixel group according to the present embodiment.
  • the display panel 21 has a first pixel group, a second pixel group, a third pixel group, and a fourth pixel group.
  • the numerical value in the display panel 21 in FIG. 13 indicates whether each pixel in the display panel 21 belongs to the first pixel group, the second pixel group, the third pixel group, or the fourth pixel group.
  • the pixel group visible from the left eye is the fourth pixel group, and the pixel group visible from the right eye is This is the second pixel group.
  • the viewing position x is 1 (more specifically, when 0.5 ⁇ x ⁇ 1.5)
  • the pixel group that can be seen from the left eye is the third pixel group, and the pixel group that can be seen from the right eye Is the first pixel group.
  • FIG. 14 is a flowchart showing a more specific operation of the video display device 40.
  • the detection unit 11 detects the viewing position of the viewer (S41).
  • the display unit 12 calculates the value of the visible pixel based on the viewing position (S42).
  • the prediction unit 44 predicts the moving direction of the viewer (S43).
  • the display unit 12 calculates a value of an invisible pixel based on the prediction direction (S44).
  • the display unit 12 displays a plurality of viewpoint videos (S45).
  • the detection unit 11 detects the viewing position x as 0.2 (S41).
  • the pixel group seen from the left eye is the fourth pixel group
  • the pixel group seen from the right eye is the second pixel group.
  • the display unit 12 calculates the value of each pixel in the fourth pixel group so that the left viewpoint video is displayed in the fourth pixel group.
  • the display unit 12 calculates the value of each pixel of the second pixel group so that the right viewpoint video is displayed on the second pixel group (S42).
  • the prediction unit 44 predicts the moving direction as the right direction (S43).
  • the display unit 12 calculates the value of each pixel in the third pixel group so that the left viewpoint video is displayed in the third pixel group.
  • the display unit 12 calculates the value of each pixel of the first pixel group so that the right viewpoint video is displayed on the first pixel group (S44).
  • the display unit 12 displays the right viewpoint video in the first pixel group, the right viewpoint video in the second pixel group, the left viewpoint video in the third pixel group, and the left viewpoint in the fourth pixel group.
  • a video is displayed (S45).
  • the video display device 40 includes the detection unit 11, the prediction unit 44, and the display unit 12.
  • the prediction unit 44 predicts the moving direction of the viewer.
  • the display unit 12 displays a plurality of viewpoint videos based on the viewing position detected by the detection unit 11 and the movement direction predicted by the prediction unit 44.
  • the video display device 40 can appropriately display each of the left viewpoint video and the right viewpoint video in the area visible to the viewer after the movement before the movement. Therefore, the video display device 40 can reduce the adverse effects caused by the movement of the viewer.
  • the display unit 12 displays the second display area in the third display area.
  • a third block having pixel values constituting the viewpoint video is displayed.
  • the third block may be the second block.
  • the display unit 12 displays the third viewing area.
  • a fourth block having pixel values constituting the first viewpoint video is displayed.
  • the fourth block may be the first block.
  • the video display device 40 puts an appropriate video block on the third display area between the first display area seen from the left eye and the second display area seen from the right eye based on the viewing position and the prediction direction. Can be displayed.
  • the prediction unit 44 predicts the moving direction of the viewer to the left with respect to the display unit 12. Further, when the detected viewing position is on the right side of the center in the first viewing area, the predicting unit 44 predicts the moving direction of the viewer as the right direction with respect to the display unit 12.
  • the video display device 40 can predict an appropriate moving direction for displaying a plurality of viewpoint videos according to the movement of the viewer.
  • FIG. 15 is a conceptual diagram showing a plurality of viewpoint videos according to the present embodiment.
  • the viewer can view a plurality of different viewpoint videos from a plurality of different viewing positions. For example, when the position of the viewer is within the first area, the viewer can view the video of the first viewpoint. When the viewer's position is within the second region, the viewer can view the video of the second viewpoint. Thereby, the viewer recognizes a virtual stereoscopic image.
  • FIG. 16 is a diagram illustrating a display mode of a plurality of viewpoint videos according to the reference example.
  • the viewing position x is 0, on the display panel 91, the left viewpoint video 0L is displayed in the pixel group seen from the left eye, and the right viewpoint video 0R is displayed in the pixel group seen from the right eye.
  • the viewing position x is 1, on the display panel 91, the left viewpoint video 1L is displayed in the pixel group seen from the left eye, and the right viewpoint video 1R is displayed in the pixel group seen from the right eye.
  • the viewer recognizes the image three-dimensionally based on the parallax.
  • the video display device switches a plurality of viewpoint videos depending on the viewing position.
  • the numerical value attached to the viewpoint video such as “0” of “left viewpoint video 0L”, represents the position or angle of the viewpoint. Specifically, this numerical value corresponds to the difference between the reference position and the viewpoint position, or the difference between the reference angle and the viewpoint angle.
  • “L” or “R” attached to the viewpoint video such as “L” of “left viewpoint video 0L” and “R” of “right viewpoint video 0R”, is the viewpoint video for the left eye. Or for right eye.
  • FIG. 17 is a block diagram showing a configuration of the video display apparatus according to the present embodiment.
  • the video display device 50 includes a detection unit 11, a prediction unit 44, a generation unit 55, and a display unit 12. Compared with the video display device 40 shown in FIG. 10, a generation unit 55 is added to the video display device 50.
  • the generation unit 55 generates a plurality of viewpoint videos. For example, the generation unit 55 generates a left viewpoint video displayed in a pixel group that can be seen from the viewer's left eye. In addition, the generation unit 55 generates a right viewpoint video displayed in a pixel group that can be seen from the viewer's right eye. In addition, the generation unit 55 generates a viewpoint video that is displayed on a pixel group that is not visible from the left eye or the right eye of the viewer. The generation unit 55 generates these viewpoint videos based on the viewing position detected by the detection unit 11 and the prediction direction detected by the prediction unit 44.
  • the display unit 12 displays the plurality of viewpoint videos generated by the generation unit 55 on the plurality of pixel groups of the display panel 21 in the display unit 12.
  • FIG. 18 is a flowchart showing the operation of the video display device 50.
  • the detection unit 11 detects the viewing position of the viewer (S51).
  • the prediction unit 44 predicts the moving direction of the viewer (S52).
  • the generation unit 55 generates a plurality of viewpoint videos based on the viewing position detected by the detection unit 11 and the movement direction predicted by the prediction unit 44 (S53).
  • the display unit 12 displays a plurality of viewpoint videos generated by the generation unit 55 (S54). Specific examples are shown below.
  • FIG. 19 is a diagram showing a display mode when the viewpoint position is changed according to the present embodiment.
  • the generation unit 55 generates a left viewpoint video 0L and a right viewpoint video 0R.
  • the display unit 12 displays the left viewpoint video 0L on the display panel 21 in a pixel group visible from the viewer's left eye.
  • the display unit 12 displays the right viewpoint video 0R on the display panel 21 in a pixel group that can be seen from the right eye of the viewer.
  • the generation unit 55 when the viewing position x detected by the detection unit 11 is 0.3 ((b) in FIG. 19), the generation unit 55 generates a left viewpoint video 0.3L and a right viewpoint video 0.3R. . In this case, the prediction unit 44 predicts the moving direction as the right direction. The viewing position x at the boundary with respect to the right viewing area (0.5 ⁇ viewing position x ⁇ 1.5) is 0.5. Therefore, the generation unit 55 generates a left viewpoint video 0.5L and a right viewpoint video 0.5R.
  • the display unit 12 displays the left viewpoint video 0.3L on the display panel 21 in the pixel group that can be seen from the left eye of the viewer. In addition, the display unit 12 displays the right viewpoint video 0.3R on the display panel 21 in a pixel group that can be seen from the right eye of the viewer.
  • the display unit 12 displays the left viewpoint video 0.5L and the right viewpoint video 0.5R on the display panel 21 on two pixel groups that are not visible from the viewer's left eye or right eye. Specifically, the display unit 12 displays the left viewpoint video 0.5L in the pixel group adjacent to the left of the pixel group in which the left viewpoint video 0.3L is displayed, and the pixel in which the right viewpoint video 0.3R is displayed. The right viewpoint video 0.5R is displayed on the pixel group adjacent to the left of the group.
  • the video display device 50 preliminarily displays the left viewpoint video 0.5L and the right viewpoint video 0. Since 5R is displayed, it is possible to reduce the adverse effects caused by the processing delay. In addition, the viewpoint video viewed from the viewer is gradually changed as it moves. Therefore, the uncomfortable feeling given to the viewer is reduced.
  • the display unit 12 moves the left side to the pixel group visible from the left eye.
  • the viewpoint video 1.3L is displayed, and the right viewpoint video 1.3R is displayed on the pixel group that can be seen from the right eye.
  • the display unit 12 displays the left viewpoint video 1.5L and the right viewpoint video 1.5R on two pixel groups that cannot be seen from the left eye and the right eye.
  • FIG. 13 A more specific example of the operation of the video display device 50 can also be described with reference to FIGS.
  • FIGS. Hereinafter, a more specific example of the operation of the video display device 50 will be described using the relationship shown in FIG. 13 and the flowchart shown in FIG.
  • the detection unit 11 detects the viewing position x as 0.2 (S41).
  • the generation unit 55 generates a left viewpoint video 0.2L and a right viewpoint video 0.2R.
  • the pixel group visible from the left eye is the fourth pixel group
  • the pixel group visible from the right eye is the second pixel group.
  • the display unit 12 calculates the value of each pixel in the fourth pixel group so that the left viewpoint video 0.2L is displayed in the fourth pixel group.
  • the display unit 12 calculates the value of each pixel in the second pixel group so that the right viewpoint video 0.2R is displayed in the second pixel group (S42).
  • the prediction unit 44 predicts the moving direction as the right direction (S43).
  • the pixel group seen from the left eye is the third pixel group
  • the pixel group seen from the right eye is the first pixel group.
  • the viewing position x at the boundary with respect to the viewing area on the right is 0.5. Therefore, the generation unit 55 generates a left viewpoint video 0.5L and a right viewpoint video 0.5R. Then, the display unit 12 calculates the value of each pixel in the third pixel group so that the left viewpoint video 0.5L is displayed in the third pixel group. The display unit 12 calculates the value of each pixel in the first pixel group so that the right viewpoint video 0.5R is displayed in the first pixel group (S44).
  • the display unit 12 displays the right viewpoint video 0.5R in the first pixel group, the right viewpoint video 0.2R in the second pixel group, and the left viewpoint video 0.5L in the third pixel group. Then, the left viewpoint video 0.2L is displayed in the fourth pixel group (S45).
  • the left viewpoint video and the right viewpoint video are distinguished as a left eye video and a right eye video. However, these need not be distinguished.
  • FIG. 20 is a diagram illustrating a plurality of regions corresponding to a plurality of pixel groups according to the reference example.
  • the first pixel group can be seen from the left eye
  • the second pixel group can be seen from the right eye.
  • FIG. 21 is a diagram showing a plurality of regions corresponding to a plurality of pixel groups according to the present embodiment.
  • the first pixel group can be seen from the left eye
  • the third pixel group can be seen from the right eye.
  • the viewer views the video displayed in the second pixel group with the left eye before viewing the video viewed with the right eye with the left eye.
  • the video displayed in each pixel group is changed according to the movement of the viewer. Therefore, a steep change is suppressed.
  • FIG. 22 is a diagram showing the position of the viewpoint according to the present embodiment.
  • the prediction unit 44 predicts the moving direction as the right direction.
  • the video display device 50 includes the detection unit 11, the prediction unit 44, the generation unit 55, and the display unit 12.
  • the generation unit 55 generates a plurality of viewpoint videos based on the viewing position detected by the detection unit 11 and the movement direction predicted by the prediction unit 44.
  • the display unit 12 displays a plurality of viewpoint videos generated by the generation unit 55.
  • the video display device 50 can generate and display an appropriate viewpoint video based on the viewing position and the moving direction. Therefore, the video display device 50 can reduce the adverse effects caused by the movement of the viewer.
  • the generation unit 55 when the detected viewing position is within the first viewing area, the generation unit 55 generates the third viewpoint video based on the predicted moving direction.
  • the third viewpoint video is a video of the third viewpoint between the first viewpoint corresponding to the first viewpoint video and the second viewpoint corresponding to the second viewpoint video.
  • the display unit 12 displays a first block having a pixel value constituting the first viewpoint video in the first display area, and a second block having a pixel value constituting the second viewpoint video in the second display area. indicate. Then, the display unit 12 displays a third block having a pixel value constituting the generated third viewpoint video in a third display area between the first display area and the second display area.
  • the third viewpoint video between the first viewpoint video and the second viewpoint video is displayed in preparation for the movement of the viewer. Therefore, the video display device 50 can reduce the adverse effects caused by the movement of the viewer.
  • the generation unit 55 displays the video of the viewpoint closer to the second viewpoint than the middle between the first viewpoint and the second viewpoint. Generate as viewpoint video.
  • the generation unit 55 generates a video of a viewpoint closer to the first viewpoint than the middle between the first viewpoint and the second viewpoint as the third viewpoint video. To do.
  • the display part 12 displays the 3rd block which has the pixel value which comprises the produced
  • the video display device 50 can reduce the uncomfortable feeling given to the viewer moving from the first viewing area to another viewing area.
  • the generation unit 55 generates a first viewpoint video and a second viewpoint video corresponding to the detected viewing position. Then, the display unit 12 displays a first block having a pixel value constituting the generated first viewpoint video in the first display area, and configures the generated second viewpoint video in the second display area. A second block having pixel values is displayed.
  • the video display device 50 can display the viewpoint video generated based on the viewing position with finer accuracy.
  • FIG. 23 is a diagram showing a video display apparatus according to the present embodiment.
  • the video display device 60 includes a video input unit 66, a depth information acquisition unit 67, a generation unit 55, a detection unit 11, an arrangement unit 68, and a display unit 12.
  • the video input unit 66 receives video input.
  • the video input unit 66 is an input interface connectable to a broadcast network or a communication network, and receives video.
  • the video input unit 66 acquires a video from a recording medium.
  • the depth information acquisition unit 67 acquires depth information corresponding to the video input to the video input unit 66.
  • the depth information acquisition unit 67 may detect depth information from the video input to the video input unit 66.
  • the generation unit 55 generates a plurality of viewpoint videos using the video input to the video input unit 66 and the depth information obtained by the depth information acquisition unit 67. At this time, the generation unit 55 generates a plurality of viewpoint videos based on the viewing position detected by the detection unit 11.
  • the detecting unit 11 detects a viewing position that is a viewer's position.
  • a camera or the like may be used to detect the viewing position.
  • the arrangement unit 68 arranges a plurality of viewpoint videos in a plurality of pixel groups based on the viewing position.
  • the placement unit 68 places a plurality of viewpoint videos in a plurality of pixel groups so that the left-eye pixel and the right-eye pixel are not adjacent to each other.
  • the arrangement unit 68 may be included in the display unit 12.
  • the display unit 12 displays a plurality of viewpoint videos arranged by the arrangement unit 68.
  • the display unit 12 displays a plurality of viewpoint videos according to the parallax barrier method described in the first embodiment or the like.
  • the video display device 60 includes the video input unit 66, the depth information acquisition unit 67, the generation unit 55, the detection unit 11, the arrangement unit 68, and the display unit 12.
  • the generation unit 55 generates a plurality of viewpoint videos based on the viewing position detected by the detection unit 11. Thereby, the video display device 60 can appropriately change the viewpoint video according to the change in the viewing position.
  • Embodiments 1 to 5 have been described as examples of the technology disclosed in the present application. However, the technology in the present disclosure is not limited to this, and can also be applied to an embodiment in which changes, replacements, additions, omissions, and the like are appropriately performed. Also, it is possible to combine the components described in the first to fifth embodiments to form a new embodiment.
  • the detection unit 11 is shown.
  • the detection unit (detector) is not limited to the detection unit 11 shown in Embodiments 1 to 5 as long as the viewer's viewing position can be detected.
  • the detection unit may detect the viewing position based on an image obtained from the camera, or may detect the viewing position using infrared rays.
  • the detection unit may detect the positions of the viewer's left eye and right eye as the viewing position.
  • the display unit 12 is shown. If the display unit (display) can display a plurality of viewpoint videos including a first viewpoint video and a second viewpoint video having different viewpoints based on the detected viewing position, the display unit (display) will be described in the first to fifth embodiments.
  • the display unit 12 is not limited.
  • the display unit may display a plurality of viewpoint videos by a method different from the parallax barrier method.
  • the imaging unit 33 is shown.
  • the imaging unit (image sensor) is not limited to the imaging unit 33 described in the second embodiment as long as an image can be generated by shooting the viewer.
  • a video camera or a still camera is used for the imaging unit.
  • the prediction unit 44 is shown.
  • the prediction unit (predictor) is not limited to the prediction unit 44 shown in the third and fourth embodiments as long as the movement direction of the viewer can be predicted.
  • the prediction unit may predict the moving direction of the viewer based on the change in the viewing position.
  • the generation unit 55 is shown.
  • the generation unit (generator) is not limited to the generation unit 55 shown in the fourth embodiment as long as it can generate a viewpoint video.
  • the generation unit may generate the viewpoint video in a finer unit or may generate the viewpoint video in a coarser unit.
  • the display panel 21 is shown.
  • the display panel (display panel) is not limited to the display panel 21 shown in the first to fourth embodiments.
  • the barrier 22 is shown. The barrier is not limited to the barrier 22 described in Embodiments 1 to 4 as long as it can cover at least part of the display panel.
  • the video display device includes a generation unit 55 for displaying an arbitrary viewpoint video (free viewpoint video).
  • the arbitrary viewpoint video is not limited to the arbitrary viewpoint video generated by the generation unit 55.
  • the video display device may acquire the arbitrary viewpoint video from the video generation device that generates the arbitrary viewpoint video. Further, the video display device may hold an arbitrary viewpoint video in advance.
  • the display unit displays the first block having the pixel value constituting the first viewpoint video in the first display area, and the second display area displays the first block.
  • a second block having pixel values constituting a two-viewpoint video is displayed.
  • the display unit displays a third block having a pixel value constituting the third viewpoint video in a third display area between the first display area and the second display area.
  • the third viewpoint video in this case is a third viewpoint video between the first viewpoint corresponding to the first viewpoint video and the second viewpoint corresponding to the second viewpoint video.
  • the video display device may display a block having a pixel value constituting an arbitrary viewpoint video in the third display area without predicting the moving direction and generating the viewpoint video.
  • the display unit when the predicted moving direction is the left direction with respect to the display unit, the display unit is an image of a viewpoint on the left side of the second viewpoint corresponding to the second viewpoint image in the third display area.
  • a block having pixel values constituting a viewpoint video that is a video for the right eye may be displayed.
  • the display unit is an image of a viewpoint on the right side of the first viewpoint corresponding to the first viewpoint image in the third display area. You may display the block which has the pixel value which comprises the viewpoint image
  • the video display device may display blocks having pixel values constituting the arbitrary viewpoint video in the third display area based on the moving direction without generating the viewpoint video.
  • another component may execute a process executed by a specific component included in the video display device.
  • the order in which the processes are executed may be changed, or a plurality of processes may be executed in parallel.
  • the configuration according to the present disclosure can be realized not only as a video display device but also as a video display method including processing executed by the video display device.
  • the method is performed by a computer (more specifically, a computer processor).
  • the configuration according to the present disclosure can be realized as a program for causing a computer to execute the method.
  • the configuration according to the present disclosure can be realized as a non-transitory computer-readable recording medium such as a CD-ROM in which the program is recorded.
  • the video display device may be an electronic circuit such as an integrated circuit.
  • the plurality of components included in the video display device may be a single circuit as a whole or may be separate circuits. Each of these components may be a general-purpose circuit or a dedicated circuit.
  • the video display device may include a memory and a processor corresponding to the components shown in the first to fifth embodiments. Then, the processor may execute the processing shown in the first to fifth embodiments using the memory.
  • the present disclosure is applicable to a video display device that displays a plurality of viewpoint videos.
  • the present disclosure can be applied to a television receiver, a video player, a mobile phone, a car navigation system, and the like.
  • Video display device 11 Detection unit 12 Display unit 21, 91 Display panel 22, 92 Barrier (Parallax barrier) 23, 93 Camera 33 Imaging unit 44 Prediction unit 55 Generation unit 66 Video input unit 67 Depth information acquisition unit 68 Arrangement unit

Abstract

 映像表示装置(10)は、視聴者の視聴位置を検出する検出部(11)と、検出された視聴位置に基づいて、第1視点映像および第2視点映像を含む複数の視点映像を表示する表示部(12)とを備え、表示部(12)は、検出された視聴位置が第1視聴領域内である場合、第1視聴領域内の視聴者の左目から見える表示領域であり画素を含む表示領域である第1表示領域に、第1視点映像を構成する画素値を有するブロックである第1ブロックを表示し、第1視聴領域内の視聴者の右目から見える表示領域であり画素を含む表示領域である第2表示領域に、第2視点映像を構成する画素値を有するブロックであり、第1ブロックと同じ位置に対応するブロックである第2ブロックを表示し、第1表示領域と第2表示領域との間に、第1視聴領域内の視聴者の左目および右目のいずれからも見えない表示領域であり画素を含む表示領域である第3表示領域を配置する。

Description

映像表示装置および映像表示方法
 本開示は、複数の視点映像を表示する映像表示装置に関する。
 特許文献1は、複数の視点画像を表示する表示装置を開示する。この表示装置は、表示部と、光分離部と、表示制御部とを備える。表示部は、複数の視点画像を表示する。光分離部は、複数の透過部を有し、表示部からの光を分離させる。表示制御部は、視点画像のフレーム間の相関情報に基づき、表示部上の各視点画像の表示位置、または、光分離部の各透過部の透過率の少なくともいずれかを切り替えるタイミングを制御する。これにより、この表示装置は、視聴に適切な環境を提供する。
米国特許出願公開第2012/0206445号明細書
 本開示は、視聴者(映像を見る人)の移動によって発生する弊害を軽減することができる映像表示装置を提供する。
 本開示における映像表示装置は、視聴者の視聴位置を検出する検出部と、検出された視聴位置に基づいて、視点が互いに異なる第1視点映像および第2視点映像を含む複数の視点映像を表示する表示部とを備え、表示部は、検出された視聴位置が第1視聴領域内である場合、第1視聴領域内の視聴者の左目から見える表示領域であり画素を含む表示領域である第1表示領域に、第1視点映像を構成する画素値を有するブロックである第1ブロックを表示し、第1視聴領域内の視聴者の右目から見える表示領域であり画素を含む表示領域である第2表示領域に、第2視点映像を構成する画素値を有するブロックであり、第1ブロックと同じ位置に対応するブロックである第2ブロックを表示し、第1表示領域と第2表示領域との間に、第1視聴領域内の視聴者の左目および右目のいずれからも見えない表示領域であり画素を含む表示領域である第3表示領域を配置する。
 本開示における映像表示装置は、視聴者の移動によって発生する弊害を軽減することができる。
図1は、参考例に係る左視点映像および右視点映像の表示態様を示す図である。 図2は、参考例に係る視聴位置の変更時の表示態様を示す図である。 図3は、実施の形態1に係る映像表示装置の構成を示すブロック図である。 図4は、実施の形態1に係る複数の視点映像の表示態様を示す図である。 図5は、実施の形態1に係る視聴者、表示パネルおよびバリアの位置関係を示す模式図である。 図6は、実施の形態1に係る映像表示装置の動作を示すフローチャートである。 図7は、実施の形態2に係る映像表示装置の構成を示すブロック図である。 図8は、実施の形態2に係る複数の視点映像の表示態様を示す図である。 図9は、実施の形態2に係る映像表示装置の動作を示すフローチャートである。 図10は、実施の形態3に係る映像表示装置の構成を示すブロック図である。 図11は、実施の形態3に係る映像表示装置の動作を示すフローチャートである。 図12は、実施の形態3に係る視点位置の変更時の表示態様を示す図である。 図13は、実施の形態3に係る視聴位置と画素群との関係の例を示す図である。 図14は、実施の形態3に係る映像表示装置の詳細な動作を示すフローチャートである。 図15は、実施の形態4に係る複数の視点映像を示す概念図である。 図16は、参考例に係る複数の視点映像の表示態様を示す図である。 図17は、実施の形態4に係る映像表示装置の構成を示すブロック図である。 図18は、実施の形態4に係る映像表示装置の動作を示すフローチャートである。 図19は、実施の形態4に係る視点位置の変更時の表示態様を示す図である。 図20は、参考例に係る複数の画素群に対応する複数の領域を示す図である。 図21は、実施の形態4に係る複数の画素群に対応する複数の領域を示す図である。 図22は、実施の形態4に係る視点の位置を示す図である。 図23は、実施の形態5に係る映像表示装置の構成を示すブロック図である。
 以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
 なお、発明者は、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって請求の範囲に記載の主題を限定することを意図するものではない。
 (実施の形態1)
 以下、図1~6を用いて、本実施の形態を説明する。
 [1-1.構成]
 図1は、参考例に係る左視点映像および右視点映像の表示態様を示す図である。参考例に係る映像表示装置は、表示パネル91に、左視点映像および右視点映像を同時に表示する。視点映像は、所定の視点位置からの眺望を表す映像である。左視点映像は、視聴者の左目用の視点映像である。右視点映像は、視聴者の右目用の視点映像である。例えば、映像表示装置は、表示パネル91の第1画素群に左視点映像を表示し、表示パネル91の第2画素群に右視点映像を表示する。
 ここで、画素群は、1つの映像を表示するための複数の画素を含む。例えば、第1画素群は、それぞれが偶数列である複数の画素列で構成され、第2画素群は、それぞれが奇数列である複数の画素列で構成される。
 また、参考例において、バリア(パララックスバリア)92は、表示パネル91の少なくとも一部を覆う。バリア92は、透過部(開口部)を有する。
 参考例に係る映像表示装置は、表示パネル91において、視聴者の左目からバリア92の透過部を通って見える領域に、左視点映像を表示する。そして、映像表示装置は、表示パネル91において、視聴者の右目からバリア92の透過部を通って見える領域に、右視点映像を表示する。そして、視聴者は、左視点映像および右視点映像の視差により、1つの立体的な映像を認識する。このような表示方式は、裸眼3D方式、または、パララックスバリア方式と呼ばれる。
 図2は、参考例に係る視聴位置の変更時の表示態様を示す図である。視聴者の位置である視聴位置が変更された場合、図2の(a)のように、左目から見える領域に、右視点映像が表示され、右目から見える領域に、左視点映像が表示される可能性がある。この場合、立体的な映像が適切に認識されない。
 そこで、図2の(b)のように、映像表示装置は、カメラ93で得られる画像を用いて、視聴位置を検出する。そして、映像表示装置は、表示パネル91において、検出された視聴位置の視聴者の左目から見える領域に、左視点映像を表示する。同様に、映像表示装置は、表示パネル91において、検出された視聴位置の視聴者の右目から見える領域に、右視点映像を表示する。
 これにより、視聴者は、移動後も、立体的な映像を適切に認識することができる。このような表示方式は、フェイストラッキング方式と呼ばれる。
 しかしながら、移動の際、左視点映像および右視点映像の切替えに遅延が発生し、左視点映像および右視点映像がそれぞれ反対の領域に表示される可能性がある。そこで、本実施の形態では、左目から見える表示領域と、右目から見える表示領域との間に、表示領域が挿入される。これにより、視聴者の移動によって発生する弊害が軽減される。
 図3は、本実施の形態に係る映像表示装置の構成を示すブロック図である。図3のように、映像表示装置10は、検出部11および表示部12を備える。
 検出部11は、視聴者の位置(視聴位置)を検出する。例えば、視聴位置の検出には、カメラまたは赤外線などが用いられてもよい。
 表示部12は、検出された視聴位置に基づいて、複数の視点映像を表示する。例えば、表示部12は、複数の視点映像を表示するための表示パネル、および、表示パネルを覆うバリア(パララックスバリア)を有する。
 図4は、本実施の形態に係る複数の視点映像の表示態様を示す図である。図4に示された表示パネル21およびバリア(パララックスバリア)22は、それぞれ、表示部12に含まれる構成要素の例である。
 表示部12は、表示パネル21に、左視点映像および右視点映像を表示する。図4において、表示パネル21のLは、左視点映像が表示される画素群を示し、表示パネル21のRは、右視点映像が表示される画素群を示す。バリア22は、表示パネル21の少なくとも一部を覆う。バリア22は、透過部(開口部)を有する。
 ここで、画素群を構成する画素は、それぞれ、表示パネル21における表示素子である。画素には、映像を構成する画素値を有するブロック(サンプル)が表示される。ブロックは、複数の画素に表示される複数の画素値を有するブロックでもよい。
 表示部12は、表示パネル21において、視聴者の左目からバリア22の透過部を通って見える領域に、左視点映像を表示する。そして、表示部12は、表示パネル21において、視聴者の右目からバリア22の透過部を通って見える領域に、右視点映像を表示する。さらに、表示部12は、左視点映像が表示される領域と、右視点映像が表示される領域との間に領域を配置する。これらの間に配置される領域は、視聴者の左目からも右目からも見えない領域である。
 図5は、図4に示された視聴者、表示パネル21およびバリア22の位置関係を示す模式図である。参考として、図5の(a)の例では、左目から見える領域と、右目から見える領域が隣接している。また、この例では、視聴者の左目と右目との間の距離は、65mmである。表示パネル91の画素間の距離は、0.12mmである。視聴者とバリア92との間の距離は、300mmである。表示パネル91とバリア92との間の距離は、0.35mmである。
 図5の(b)の例では、左目から見える領域と、右目から見える領域との間に、領域が挿入されている。図5の(b)の例において表示パネル21とバリア22との間の距離が0.70mmであることが、図5の(a)の例とは異なる。つまり、表示パネル21とバリア22との間の距離を図5の(a)の例における表示パネル91とバリア92との間の距離の2倍にすることにより、左目からも右目からも見えない領域が挿入される。
 なお、図5に示された位置関係は例であり、視聴者、表示パネルおよびバリアの位置関係は、図5の例に限られない。例えば、表示パネルとバリアとの間の距離を変えずに、画素間の距離が半分に変更されてもよいし、透過部のサイズが半分に変更されてもよいし、透過部間の距離が2倍に変更されてもよい。透過部等の媒質の屈折率に応じて、位置関係が変更されてもよい。
 また、図5では、左目から見える領域と、右目から見える領域と、左目からも右目からも見えない領域とが、画素毎に分類される。しかしながら、これらの領域は、画素毎に分類されていなくてもよい。例えば、これらの領域は、2画素毎に分類されてもよいし、3画素毎に分類されてもよい。
 [1-2.動作]
 以上のように構成された映像表示装置10について、その動作を説明する。映像表示装置10は、複数の視点映像を表示するための動作を行う。以下、その動作について詳細に説明する。
 図6は、映像表示装置10の動作を示すフローチャートである。まず、検出部11は、視聴者の視聴位置を検出する(S11)。次に、表示部12は、検出された視聴位置に基づいて、複数の視点映像を表示する(S12)。
 ここでは、視聴位置は、複数の視聴領域に区分されるものとして説明する。ひとつの視聴領域から、その視聴領域に対応する画素(表示領域)が見える。つまり、視聴領域は、見える画素(表示領域)に対応して定められる。
 表示部12は、検出された視聴位置が第1視聴領域内である場合、第1視聴領域内の視聴者の左目から見える第1表示領域に、第1視点映像を構成する画素値を有する第1ブロックを表示する。また、この場合、表示部12は、第1視聴領域内の視聴者の右目から見える第2表示領域に、第2視点映像を構成する画素値を有する第2ブロックを表示する。さらに、この場合、表示部12は、第1表示領域と第2表示領域との間に第3表示領域を配置する。
 つまり、第1ブロックは、第1視点映像を構成する画素値を有するブロックであり、表示パネル21において左目から見える画素(第1表示領域)に表示されるブロックであるとして定義される。また、第2ブロックは、第2視点映像を構成する画素値を有するブロックであり、表示パネル21において右目から見える画素(第2表示領域)に表示されるブロックであるとして定義される。
 ここで、第1視点映像は、第1視点位置からの眺望を表す映像である。第2視点映像は、第1視点位置とは異なる第2視点位置からの眺望を表す映像である。
 また、ここで、第1ブロックと第2ブロックとは、同じ位置に対応する。より具体的には、第2視点映像に対する第2ブロックの相対位置は、第1視点映像に対する第1ブロックの相対位置に等しい。表示部12は、相対位置が互いに等しい第1ブロックと第2ブロックとを第1表示領域と第2表示領域とに表示する。
 例えば、第1表示領域および第2表示領域は、それぞれ、視聴者の左目または右目からバリア22の同じ1つの透過部を通って見える領域である。第1表示領域と第2表示領域との間に配置される第3表示領域は、第1視聴領域内の左目からも右目からも見えない領域である。検出された視聴位置が第1視聴領域内である場合、表示部12は、第3表示領域に何も表示しなくてもよい。
 第1表示領域、第2表示領域および第3表示領域は、それぞれ、基本的には画素であるが、複数の画素を含んでもよい。つまり、これらは、それぞれ、1画素以上の大きさを有する。これらは、それぞれ、同じ大きさを有していてもよい。
 第1視聴領域は、左目と右目との距離の半分程度の幅を有する。図5の(b)の例では、第1視聴領域は、バリア22から300mm離れた位置において、左右方向に32.5mmの幅を有する。
 表示部12は、検出された視聴位置が第1視聴領域の左隣の第2視聴領域内である場合、第2視聴領域内の視聴者の右目から見える第3表示領域に第2視点映像を構成する画素値を有する第3ブロックを表示する。第3ブロックは、第2ブロックと同じでもよい。また、表示部12は、検出された視聴位置が第1視聴領域の右隣の第3視聴領域内である場合、第3視聴領域内の視聴者の左目から見える第3表示領域に第1視点映像を構成する画素値を有する第4ブロックを表示する。第4ブロックは、第1ブロックと同じでもよい。
 検出された視聴位置が第2視聴領域、第3視聴領域または他の視聴領域内である場合も、表示部12は、同じように、検出された視聴位置が属する視聴領域に基づいて、複数の視点映像を表示する。つまり、表示部12は、視聴領域内の視聴者の左目から見える表示領域に、第1視点映像を構成する画素値を有するブロックを表示し、視聴領域内の視聴者の右目から見える表示領域に、第2視点映像を構成する画素値を有するブロックを表示する。そして、表示部12は、これらの表示領域の間にも表示領域を配置する。
 なお、他の視聴領域も、第1視聴領域のように、表示部12に対して左右方向に、左目と右目との間の距離の半分程度の幅を有する。
 [1-3.効果等]
 以上のように、本実施の形態において、映像表示装置10は、検出部11および表示部12を備える。検出部11は、視聴者の視聴位置を検出する。表示部12は、検出された視聴位置に基づいて、視点が互いに異なる第1視点映像および第2視点映像を含む複数の視点映像を表示する。
 また、表示部12は、検出された視聴位置が第1視聴領域内である場合、第1表示領域に、第1視点映像を構成する画素値を有する第1ブロックを表示し、第2表示領域に、第2視点映像を構成する画素値を有する第2ブロックを表示する。また、表示部12は、第1表示領域と第2表示領域との間に、第3表示領域を配置する。
 ここで、第2ブロックは、第1ブロックと同じ位置に対応する。第1表示領域は、第1視聴領域内の視聴者の左目から見える表示領域である。第2表示領域は、第1視聴領域内の視聴者の右目から見える表示領域である。第3表示領域は、第1視聴領域内の視聴者の左目および右目のいずれからも見えない表示領域である。
 これにより、例えば、視聴者が左に移動しても、左目から見えていた第1表示領域は、直ぐには、右目から見えない。したがって、視聴位置の変更時において、左視点映像および右視点映像の切替えの遅延によって、左視点映像および右視点映像がそれぞれ反対の領域に表示され、左目で右視点映像が視聴され、右目で左視点映像が視聴されるという弊害が軽減される。
 例えば、表示部12は、表示パネル21およびバリア22を備える。バリア22は、表示パネル21の少なくとも一部を覆う。第1表示領域は、表示パネル21において、第1視聴領域内の視聴者の左目からバリア22を通って見える表示領域である。第2表示領域は、表示パネル21において、第1視聴領域内の視聴者の右目からバリア22を通って見える表示領域である。第3表示領域は、表示パネル21において、第1視聴領域内の視聴者の左目および右目のいずれからもバリア22を通って見えない表示領域である。
 これにより、映像表示装置10は、見える表示領域と見えない表示領域とを有する表示パネル21に、複数の視点映像を適切に表示することができる。
 また、例えば、表示部12は、検出された視聴位置が第1視聴領域の左隣の第2視聴領域内である場合、第3表示領域に、第2視点映像を構成する画素値を有する第3ブロックを表示する。第3ブロックは、第2ブロックでもよい。また、表示部12は、検出された視聴位置が第1視聴領域の右隣の第3視聴領域内である場合、第3表示領域に、第1視点映像を構成する画素値を有する第4ブロックを表示する。第4ブロックは、第1ブロックでもよい。
 これにより、映像表示装置10は、視聴者が移動した後も、複数の視点映像を適切に表示することができる。
 (実施の形態2)
 以下、図7~9を用いて、本実施の形態を説明する。
 [2-1.構成]
 図7は、本実施の形態に係る映像表示装置の構成を示すブロック図である。図7のように、映像表示装置30は、撮像部33、検出部11および表示部12を備える。図3に示された映像表示装置10と比較して、映像表示装置30には、撮像部33が追加されている。
 撮像部33は、視聴者を撮影することにより、画像を生成する。例えば、撮像部33は、カメラである。検出部11は、撮像部33によって生成された画像を用いて、視聴者の視聴位置を検出する。具体的には、検出部11は、撮像部33によって生成された画像における視聴者の位置を検出することにより、視聴位置を検出する。なお、撮像部33は、検出部11に含まれていてもよい。
 図8は、本実施の形態に係る複数の視点映像の表示態様を示す図である。図8には、撮像部33の例として、カメラ23が示されている。カメラ23は、視聴者を撮影することにより、画像を生成する。検出部11は、カメラ23によって生成された画像を用いて、視聴位置を検出する。そして、表示部12は、視聴位置に基づいて、複数の視点映像を表示する。
 [2-2.動作]
 以上のように構成された映像表示装置30について、その動作を説明する。映像表示装置30は、複数の視点映像を表示するための動作を行う。以下、その動作について詳細に説明する。
 図9は、図7に示された映像表示装置30の動作を示すフローチャートである。まず、撮像部33は、視聴者を撮影し、画像を生成する(S21)。次に、検出部11は、撮像部33によって生成された画像を用いて、視聴位置を検出する(S22)。表示部12は、視聴位置に基づいて、実施の形態1と同じように、複数の視点映像を表示する(S23)。
 [2-3.効果等]
 以上のように、本実施の形態において、映像表示装置30は、撮像部33、検出部11および表示部12を備える。撮像部33は、視聴者を撮影することにより、画像を生成する。検出部11は、撮像部33で生成された画像を用いて、視聴者の視聴位置を検出する。
 したがって、表示部12は、視聴位置に基づいて、適切に、複数の視点映像を表示することができる。
 (実施の形態3)
 以下、図10~14を用いて、本実施の形態を説明する。
 [3-1.構成]
 図10は、本実施の形態に係る映像表示装置の構成を示すブロック図である。図10のように、映像表示装置40は、検出部11、予測部44および表示部12を備える。図3に示された映像表示装置10と比較して、映像表示装置40には、予測部44が追加されている。
 予測部44は、視聴者の移動方向を予測する。例えば、予測部44は、検出部11で検出された視聴位置に基づいて、視聴者の移動方向を予測する。より具体的には、予測部44は、視聴位置が各視聴領域において中央よりも左側である場合、視聴者の移動方向を左方向と予測し、視聴位置が各視聴領域において中央よりも右側である場合、視聴者の移動方向を右方向と予測する。あるいは、予測部44は、視聴位置の履歴を用いて、視聴者の移動方向を予測してもよい。
 表示部12は、検出部11で検出された視聴位置、および、予測部44で予測された移動方向に基づいて、複数の視点映像を表示する。
 [3-2.動作]
 以上のように構成された映像表示装置40について、その動作を説明する。映像表示装置40は、複数の視点映像を表示するための動作を行う。以下、その動作について詳細に説明する。
 図11は、映像表示装置40の動作を示すフローチャートである。まず、検出部11は、視聴者の視聴位置を検出する(S31)。次に、予測部44は、視聴者の移動方向を予測する(S32)。次に、表示部12は、検出部11で検出された視聴位置、および、予測部44で予測された移動方向に基づいて、複数の視点映像を表示する(S33)。
 具体的には、表示部12は、実施の形態1と同じように、視聴位置が第1視聴領域内である場合、第1視聴領域内の視聴者の左目から見える第1表示領域に、第1視点映像を構成する画素値を有する第1ブロックを表示する。また、この場合、表示部12は、第1視聴領域内の視聴者の右目から見える第2表示領域に、第2視点映像を構成する画素値を有する第2ブロックを表示する。さらに、この場合、表示部12は、第1表示領域と第2表示領域との間に第3表示領域を配置する。
 そして、表示部12は、予測部44で予測された予測方向が左方向である場合、第3表示領域に、第2視点映像を構成する画素値を有する第3ブロックを表示する。第3ブロックは、第2ブロックと同じでもよい。また、表示部12は、予測部44で予測された予測方向が右方向である場合、第3表示領域に、第1視点映像を構成する画素値を有する第4ブロックを表示する。第4ブロックは、第1ブロックと同じでもよい。
 図12は、本実施の形態に係る視点位置の変更時の表示態様を示す図である。まず、視聴位置が第1視聴領域内である場合、表示部12は、表示パネル21において、第1視聴領域内の視聴者の左目から見える画素群に左目映像を表示する。そして、この場合、表示部12は、表示パネル21において、第1視聴領域内の視聴者の右目から見える画素群に右目映像を表示する(図12の(a))。
 次に、移動方向が右方向である場合、表示部12は、表示パネル21において、第1視聴領域内の視聴者の左目からも右目からも見えない画素群に、その右隣の画素群に表示された視点映像と同じ視点映像を表示する(図12の(b))。これにより、視聴者が、第1視聴領域から、その右隣の第2視聴領域へ移動する際にも、左視点映像が左目から見え、右視点映像が右目から見える(図12の(c))。
 さらに、その後も移動方向が右方向である場合、表示部12は、表示パネル21において、第2視聴領域内の視聴者の左目からも右目からも見えない画素群に、その右隣の画素群に表示された視点映像と同じ視点映像を表示する(図12の(d))。
 次に、図13および図14を用いて、映像表示装置40の動作について、より具体的な例を説明する。
 図13は、本実施の形態に係る視聴位置と画素群との関係の例を示す図である。表示パネル21は、第1画素群、第2画素群、第3画素群および第4画素群を有する。図13の表示パネル21における数値は、表示パネル21における各画素が第1画素群、第2画素群、第3画素群および第4画素群のいずれに属するかを示す。
 例えば、視聴位置xが0である場合(より具体的には-0.5≦x<0.5である場合)、左目から見える画素群は第4画素群であり、右目から見える画素群は第2画素群である。また、例えば、視聴位置xが1である場合(より具体的には0.5≦x<1.5である場合)、左目から見える画素群は第3画素群であり、右目から見える画素群は第1画素群である。
 図14は、映像表示装置40のより具体的な動作を示すフローチャートである。まず、検出部11は、視聴者の視聴位置を検出する(S41)。次に、表示部12は、視聴位置に基づいて、見える画素の値を算出する(S42)。次に、予測部44は、視聴者の移動方向を予測する(S43)。次に、表示部12は、予測方向に基づいて、見えない画素の値を算出する(S44)。そして、表示部12は、複数の視点映像を表示する(S45)。
 例えば、視聴位置xが0.2である場合、検出部11は、視聴位置xを0.2として検出する(S41)。この場合、左目から見える画素群は第4画素群であり、右目から見える画素群は第2画素群である。したがって、表示部12は、第4画素群に左視点映像が表示されるように、第4画素群の各画素の値を算出する。また、表示部12は、第2画素群に右視点映像が表示されるように、第2画素群の各画素の値を算出する(S42)。
 そして、視聴位置xが0.2である場合、予測部44は、移動方向を右方向と予測する(S43)。右隣の視聴領域(0.5≦視聴位置x<1.5)において、左目から見える画素群は第3画素群であり、右目から見える画素群は第1画素群である。したがって、表示部12は、第3画素群に左視点映像が表示されるように、第3画素群の各画素の値を算出する。また、表示部12は、第1画素群に右視点映像が表示されるように、第1画素群の各画素の値を算出する(S44)。
 そして、表示部12は、第1画素群に右視点映像を表示し、第2画素群に右視点映像を表示し、第3画素群に左視点映像を表示し、第4画素群に左視点映像を表示する(S45)。
 [3-3.効果等]
 以上のように、本実施の形態において、映像表示装置40は、検出部11、予測部44および表示部12を備える。予測部44は、視聴者の移動方向を予測する。表示部12は、検出部11で検出された視聴位置、および、予測部44で予測された移動方向に基づいて、複数の視点映像を表示する。
 これにより、映像表示装置40は、移動後の視聴者から見える領域に、左視点映像および右視点映像のそれぞれを移動前に適切に表示することができる。したがって、映像表示装置40は、視聴者の移動によって発生する弊害を軽減することができる。
 例えば、表示部12は、検出された視聴位置が第1視聴領域内である場合、かつ、予測された移動方向が表示部12に対して左方向である場合、第3表示領域に、第2視点映像を構成する画素値を有する第3ブロックを表示する。第3ブロックは、第2ブロックでもよい。
 また、例えば、表示部12は、検出された視聴位置が第1視聴領域内である場合、かつ、予測された移動方向が表示部12に対して右方向である場合、第3表示領域に、第1視点映像を構成する画素値を有する第4ブロックを表示する。第4ブロックは、第1ブロックでもよい。
 これにより、映像表示装置40は、視聴位置および予測方向に基づいて、左目から見える第1表示領域と、右目から見える第2表示領域との間の第3表示領域に、適切な映像のブロックを表示することができる。
 また、例えば、予測部44は、検出された視聴位置が第1視聴領域において中央よりも左側である場合、視聴者の移動方向を表示部12に対して左方向と予測する。また、予測部44は、検出された視聴位置が第1視聴領域において中央よりも右側である場合、視聴者の移動方向を表示部12に対して右方向と予測する。
 これにより、映像表示装置40は、視聴者の移動に応じて複数の視点映像を表示するための適切な移動方向を予測することができる。
 (実施の形態4)
 以下、図15~22を用いて、本実施の形態を説明する。
 [4-1.構成]
 図15は、本実施の形態に係る複数の視点映像を示す概念図である。本実施の形態では、視聴者は、互いに異なる複数の視聴位置から、互いに異なる複数の視点映像を視聴することができる。例えば、視聴者の位置が第1領域内である場合、視聴者は第1視点の映像を視聴できる。視聴者の位置が第2領域内である場合、視聴者は第2視点の映像を視聴できる。これにより、視聴者は、仮想的な立体像を認識する。
 図16は、参考例に係る複数の視点映像の表示態様を示す図である。視聴位置xが0である場合、表示パネル91において、左目から見える画素群に左視点映像0Lが表示され、右目から見える画素群に右視点映像0Rが表示される。視聴位置xが1である場合、表示パネル91において、左目から見える画素群に左視点映像1Lが表示され、右目から見える画素群に右視点映像1Rが表示される。これにより、視聴者は、視差によって、映像を立体的に認識する。
 本実施の形態に係る映像表示装置は、上記のように、視聴位置によって複数の視点映像を切替える。
 なお、ここで、「左視点映像0L」の「0」のように、視点映像に付けられている数値は、視点の位置または角度を表す。具体的には、この数値は、基準位置と視点の位置との差、または、基準角度と視点の角度との差に対応する。また、「左視点映像0L」の「L」および「右視点映像0R」の「R」のように、視点映像に付けられている「L」または「R」は、視点映像が左目用であるか右目用であるかを表す。
 図17は、本実施の形態に係る映像表示装置の構成を示すブロック図である。図17のように、映像表示装置50は、検出部11、予測部44、生成部55および表示部12を備える。図10に示された映像表示装置40と比較して、映像表示装置50には、生成部55が追加されている。
 生成部55は、複数の視点映像を生成する。例えば、生成部55は、視聴者の左目から見える画素群に表示される左視点映像を生成する。また、生成部55は、視聴者の右目から見える画素群に表示される右視点映像を生成する。また、生成部55は、視聴者の左目からも右目からも見えない画素群に表示される視点映像を生成する。生成部55は、検出部11で検出された視聴位置、および、予測部44で検出された予測方向に基づいて、これらの視点映像を生成する。
 表示部12は、表示部12における表示パネル21の複数の画素群に、生成部55で生成された複数の視点映像を表示する。
 [4-2.動作]
 以上のように構成された映像表示装置50について、その動作を説明する。映像表示装置50は、複数の視点映像を表示するための動作を行う。以下、その動作について詳細に説明する。
 図18は、映像表示装置50の動作を示すフローチャートである。まず、検出部11は、視聴者の視聴位置を検出する(S51)。次に、予測部44は、視聴者の移動方向を予測する(S52)。次に、生成部55は、検出部11で検出された視聴位置、および、予測部44で予測された移動方向に基づいて、複数の視点映像を生成する(S53)。次に、表示部12は、生成部55で生成された複数の視点映像を表示する(S54)。以下、具体例を示す。
 図19は、本実施の形態に係る視点位置の変更時の表示態様を示す図である。まず、検出部11によって検出された視聴位置xが0である場合(図19の(a))、生成部55は、左視点映像0Lおよび右視点映像0Rを生成する。そして、表示部12は、表示パネル21において、視聴者の左目から見える画素群に左視点映像0Lを表示する。また、表示部12は、表示パネル21において、視聴者の右目から見える画素群に右視点映像0Rを表示する。
 次に、検出部11によって検出された視聴位置xが0.3である場合(図19の(b))、生成部55は、左視点映像0.3Lおよび右視点映像0.3Rを生成する。また、この場合、予測部44は、移動方向を右方向と予測する。右側の視聴領域(0.5≦視聴位置x<1.5)に対する境界の視聴位置xは、0.5である。したがって、生成部55は、左視点映像0.5Lおよび右視点映像0.5Rを生成する。
 そして、表示部12は、表示パネル21において、視聴者の左目から見える画素群に左視点映像0.3Lを表示する。また、表示部12は、表示パネル21において、視聴者の右目から見える画素群に右視点映像0.3Rを表示する。
 また、表示部12は、表示パネル21において、視聴者の左目からも右目からも見えない2つの画素群に、左視点映像0.5Lおよび右視点映像0.5Rを表示する。具体的には、表示部12は、左視点映像0.3Lが表示される画素群の左隣の画素群に左視点映像0.5Lを表示し、右視点映像0.3Rが表示される画素群の左隣の画素群に右視点映像0.5Rを表示する。
 これにより、視聴位置xが0.4から0.5に変更された場合でも(図19の(c))、映像表示装置50は、事前に、左視点映像0.5Lおよび右視点映像0.5Rを表示しているため、処理の遅延に伴う弊害を軽減することができる。また、視聴者から見える視点映像は、移動に伴って、徐々に変更される。そのため、視聴者に与える違和感が軽減される。
 なお、さらに、視聴者が右側へ移動し、検出部11によって検出された視聴位置xが1.3である場合(図19の(d))、表示部12は、左目から見える画素群に左視点映像1.3Lを表示し、右目から見える画素群に右視点映像1.3Rを表示する。そして、表示部12は、左目からも右目からも見えない2つの画素群に、左視点映像1.5Lおよび右視点映像1.5Rを表示する。
 映像表示装置50の動作のより具体的な例についても、図13および図14を用いて、説明することが可能である。以下、図13に示された関係を用いて、図14に示されたフローチャートに沿って、映像表示装置50の動作のより具体的な例を説明する。
 視聴位置xが0.2である場合、検出部11は、視聴位置xを0.2として検出する(S41)。この場合、生成部55は、左視点映像0.2Lおよび右視点映像0.2Rを生成する。また、この場合、左目から見える画素群は第4画素群であり、右目から見える画素群は第2画素群である。したがって、表示部12は、第4画素群に左視点映像0.2Lが表示されるように、第4画素群の各画素の値を算出する。また、表示部12は、第2画素群に右視点映像0.2Rが表示されるように、第2画素群の各画素の値を算出する(S42)。
 そして、視聴位置xが0.2である場合、予測部44は、移動方向を右方向と予測する(S43)。右隣の視聴領域(0.5≦視聴位置x<1.5)において、左目から見える画素群は第3画素群であり、右目から見える画素群は第1画素群である。
 また、右隣の視聴領域に対する境界の視聴位置xは、0.5である。したがって、生成部55は、左視点映像0.5Lおよび右視点映像0.5Rを生成する。そして、表示部12は、第3画素群に左視点映像0.5Lが表示されるように、第3画素群の各画素の値を算出する。また、表示部12は、第1画素群に右視点映像0.5Rが表示されるように、第1画素群の各画素の値を算出する(S44)。
 そして、表示部12は、第1画素群に右視点映像0.5Rを表示し、第2画素群に右視点映像0.2Rを表示し、第3画素群に左視点映像0.5Lを表示し、第4画素群に左視点映像0.2Lを表示する(S45)。
 上記の説明では、左視点映像および右視点映像が、左目用の映像、および、右目用の映像として、区別されている。しかし、これらは区別されなくてもよい。
 図20は、参考例に係る複数の画素群に対応する複数の領域を示す図である。この例では、左目から第1画素群が見え、右目から第2画素群が見える。このような状況で視聴者が右へ移動する際、視聴者は、右目で見ていた映像を急に左目で見る。よって、違和感が大きい。
 図21は、本実施の形態に係る複数の画素群に対応する複数の領域を示す図である。この例では、左目から第1画素群が見え、右目から第3画素群が見える。このような状況で視聴者が右へ移動する際、視聴者は、右目で見ていた映像を左目で見る前に、左目で第2画素群に表示された映像を見る。また、視聴者の移動に応じて、各画素群に表示される映像が変更される。したがって、急峻な変化が抑制される。
 図22は、本実施の形態に係る視点の位置を示す図である。例えば、左目の位置xが1.4である場合、生成部55は、仮想視点の位置x’が1.4である視点映像を生成する。そして、表示部12は、x’=1.4の視点映像を第1画素群に表示する。これにより、視聴者は、x’=1.4の視点映像を左目で見る。また、右目の位置xが3.4である場合、生成部55は、仮想視点の位置x’が3.4である視点映像を生成する。そして、表示部12は、x’=3.4の視点映像を第3画素群に表示する。
 さらに、この場合、予測部44は、移動方向を右方向と予測する。そして、生成部55は、右側の境界に対応するx’=1.5およびx’=3.5の2つの視点映像を生成する。そして、表示部12は、x’=1.5の視点映像を第2画素群に表示し、x’=3.5の視点映像を第4画素群に表示する。これにより、視聴者の移動に応じて、視点が円滑に変更される。
 [4-3.効果等]
 以上のように、本実施の形態において、映像表示装置50は、検出部11、予測部44、生成部55および表示部12を備える。生成部55は、検出部11で検出された視聴位置、および、予測部44で予測された移動方向に基づいて、複数の視点映像を生成する。表示部12は、生成部55で生成された複数の視点映像を表示する。
 これにより、映像表示装置50は、視聴位置および移動方向に基づいて、適切な視点映像を生成し、表示することができる。したがって、映像表示装置50は、視聴者の移動によって発生する弊害を軽減することができる。
 例えば、生成部55は、検出された視聴位置が第1視聴領域内である場合、予測された移動方向に基づいて、第3視点映像を生成する。ここで、第3視点映像は、第1視点映像に対応する第1視点と、第2視点映像に対応する第2視点との間の第3視点の映像である。
 表示部12は、第1表示領域に、第1視点映像を構成する画素値を有する第1ブロックを表示し、第2表示領域に、第2視点映像を構成する画素値を有する第2ブロックを表示する。そして、表示部12は、第1表示領域と第2表示領域との間の第3表示領域に、生成された第3視点映像を構成する画素値を有する第3ブロックを表示する。
 これにより、第1視点映像と第2視点映像との間の第3視点映像が、視聴者の移動に備えて、表示される。したがって、映像表示装置50は、視聴者の移動によって発生する弊害を軽減することができる。
 また、例えば、予測された移動方向が表示部12に対して左方向である場合、生成部55は、第1視点と第2視点との中間よりも第2視点に近い視点の映像を第3視点映像として生成する。予測された移動方向が表示部12に対して右方向である場合、生成部55は、第1視点と第2視点との中間よりも第1視点に近い視点の映像を第3視点映像として生成する。そして、表示部12は、第3表示領域に、生成された第3視点映像を構成する画素値を有する第3ブロックを表示する。
 これにより、映像表示装置50は、第1視聴領域から別の視聴領域へ移動する視聴者へ与える違和感を軽減することができる。
 また、例えば、生成部55は、検出された視聴位置に対応する第1視点映像および第2視点映像を生成する。そして、表示部12は、第1表示領域に、生成された第1視点映像を構成する画素値を有する第1ブロックを表示し、第2表示領域に、生成された第2視点映像を構成する画素値を有する第2ブロックを表示する。
 これにより、映像表示装置50は、より細かい精度の視聴位置に基づいて生成された視点映像を表示することができる。
 (実施の形態5)
 以下、図23を用いて、本実施の形態を説明する。本実施の形態では、上記の複数の実施の形態に対応する応用例を示す。
 図23は、本実施の形態に係る映像表示装置を示す図である。図23のように、映像表示装置60は、映像入力部66、奥行き情報取得部67、生成部55、検出部11、配置部68および表示部12を備える。
 映像入力部66は、映像の入力を受け付ける。例えば、映像入力部66は、放送ネットワークまたは通信ネットワーク等に接続可能な入力インターフェースであって、映像を受信する。または、映像入力部66は、記録媒体から、映像を取得する。
 奥行き情報取得部67は、映像入力部66に入力された映像に対応する奥行き情報を取得する。奥行き情報取得部67は、映像入力部66に入力された映像から、奥行き情報を検出してもよい。
 生成部55は、映像入力部66に入力された映像、および、奥行き情報取得部67で得られた奥行き情報を用いて、複数の視点映像を生成する。この時、生成部55は、検出部11で検出された視聴位置に基づいて、複数の視点映像を生成する。
 検出部11は、視聴者の位置である視聴位置を検出する。視聴位置の検出には、カメラなどが用いられてもよい。
 配置部68は、視聴位置に基づいて、複数の視点映像を複数の画素群に配置する。配置部68は、左目用の画素と右目用の画素とが隣接しないように、複数の視点映像を複数の画素群に配置する。配置部68は、表示部12に含まれていてもよい。
 表示部12は、配置部68によって配置された複数の視点映像を表示する。例えば、表示部12は、実施の形態1などで示されたパララックスバリア方式に従って、複数の視点映像を表示する。
 以上のように、本実施の形態において、映像表示装置60は、映像入力部66、奥行き情報取得部67、生成部55、検出部11、配置部68および表示部12を備える。特に、生成部55は、検出部11で検出された視聴位置に基づいて、複数の視点映像を生成する。これにより、映像表示装置60は、視聴位置の変化に応じて、視点映像を適切に変更することができる。
 (他の実施の形態)
 以上のように、本出願において開示する技術の例示として、実施の形態1~5を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施の形態にも適用可能である。また、上記実施の形態1~5で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。
 そこで、以下、他の実施の形態を例示する。
 実施の形態1~5では、検出部11が示されている。検出部(デテクター)は、視聴者の視聴位置を検出することができれば、実施の形態1~5で示された検出部11に限定されない。検出部は、カメラから得られる画像に基づいて視聴位置を検出してもよいし、赤外線を用いて視聴位置を検出してもよい。また、検出部は、視聴者の左目および右目の位置を視聴位置として検出してもよい。
 実施の形態1~5では、表示部12が示されている。表示部(ディスプレイ)は、検出された視聴位置に基づいて、視点が互いに異なる第1視点映像および第2視点映像を含む複数の視点映像を表示することができれば、実施の形態1~5で示された表示部12に限定されない。例えば、表示部は、パララックスバリア方式とは異なる方式で、複数の視点映像を表示してもよい。
 実施の形態2では、撮像部33が示されている。撮像部(イメージセンサー)は、視聴者を撮影することにより画像を生成することができれば、実施の形態2で示された撮像部33に限定されない。例えば、撮像部には、ビデオカメラまたはスチールカメラなどが用いられる。
 また、実施の形態3および4では、予測部44が示されている。予測部(プレディクター)は、視聴者の移動方向を予測することができれば、実施の形態3および4で示された予測部44に限定されない。例えば、予測部は、視聴位置の変化に基づいて、視聴者の移動方向を予測してもよい。
 実施の形態4では、生成部55が示されている。生成部(ジェネレーター)は、視点映像を生成することができれば、実施の形態4で示された生成部55に限定されない。例えば、生成部は、より細かい単位で、視点映像を生成してもよいし、より粗い単位で視点映像を生成してもよい。
 実施の形態1~4では、表示パネル21が示されている。表示パネル(ディスプレイパネル)は、実施の形態1~4で示された表示パネル21に限定されない。実施の形態1~4では、バリア22が示されている。バリアは、表示パネルの少なくとも一部を覆うことができれば、実施の形態1~4で示されたバリア22に限定されない。
 実施の形態4および5では、映像表示装置は、任意視点映像(自由視点映像)を表示するため、生成部55を備える。任意視点映像は、生成部55で生成される任意視点映像に限定されない。映像表示装置は、任意視点映像を生成する映像生成装置から任意視点映像を取得してもよい。また、映像表示装置は、事前に、任意視点映像を保持していてもよい。
 例えば、検出された視聴位置が第1視聴領域内である場合、表示部は、第1表示領域に第1視点映像を構成する画素値を有する第1ブロックを表示し、第2表示領域に第2視点映像を構成する画素値を有する第2ブロックを表示する。そして、表示部は、第1表示領域と第2表示領域との間の第3表示領域に、第3視点映像を構成する画素値を有する第3ブロックを表示する。この場合の第3視点映像は、第1視点映像に対応する第1視点と、第2視点映像に対応する第2視点との間の第3視点の映像である。
 つまり、映像表示装置は、移動方向の予測、および、視点映像の生成を行うことなく、第3表示領域に、任意視点映像を構成する画素値を有するブロックを表示してもよい。
 また、例えば、予測された移動方向が表示部に対して左方向である場合、表示部は、第3表示領域に、第2視点映像に対応する第2視点よりも左側の視点の映像であり、右目用の映像である視点映像を構成する画素値を有するブロックを表示してもよい。予測された移動方向が表示部に対して右方向である場合、表示部は、第3表示領域に、第1視点映像に対応する第1視点よりも右側の視点の映像であり、左目用の映像である視点映像を構成する画素値を有するブロックを表示してもよい。
 つまり、映像表示装置は、視点映像の生成を行うことなく、移動方向に基づいて、第3表示領域に、任意視点映像を構成する画素値を有するブロックを表示してもよい。
 また、例えば、映像表示装置に含まれる特定の構成要素が実行する処理を別の構成要素が実行してもよい。また、処理を実行する順番が変更されてもよいし、複数の処理が並行して実行されてもよい。
 また、本開示に係る構成は、映像表示装置として実現できるだけでなく、映像表示装置で実行される処理を含む映像表示方法として実現できる。例えば、その方法は、コンピュータ(より具体的にはコンピュータのプロセッサ)によって実行される。そして、本開示に係る構成は、その方法をコンピュータに実行させるためのプログラムとして実現できる。さらに、本開示に係る構成は、そのプログラムが記録されたCD-ROM等の非一時的なコンピュータ読み取り可能な記録媒体として実現できる。
 また、映像表示装置は、集積回路などの電子回路でもよい。映像表示装置に含まれる複数の構成要素は、全体として1つの回路でもよいし、それぞれ別々の回路でもよい。また、これらの構成要素は、それぞれ、汎用的な回路でもよいし、専用の回路でもよい。
 また、映像表示装置は、実施の形態1~5等に示された構成要素に対応するメモリおよびプロセッサを備えてもよい。そして、プロセッサが、メモリを用いて、実施の形態1~5等に示された処理を実行してもよい。
 以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。
 したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
 また、上述の実施の形態は、本開示における技術を例示するためのものであるから、請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。
 本開示は、複数の視点映像を表示する映像表示装置に適用可能である。具体的には、テレビジョン受像機、ビデオプレーヤー、携帯電話機およびカーナビゲーションなどに、本開示は適用可能である。
  10、30、40、50、60 映像表示装置
  11 検出部
  12 表示部
  21、91 表示パネル
  22、92 バリア(パララックスバリア)
  23、93 カメラ
  33 撮像部
  44 予測部
  55 生成部
  66 映像入力部
  67 奥行き情報取得部
  68 配置部
 

Claims (14)

  1.  視聴者の視聴位置を検出する検出部と、
     検出された前記視聴位置に基づいて、視点が互いに異なる第1視点映像および第2視点映像を含む複数の視点映像を表示する表示部とを備え、
     前記表示部は、検出された前記視聴位置が第1視聴領域内である場合、
     前記第1視聴領域内の前記視聴者の左目から見える表示領域であり画素を含む表示領域である第1表示領域に、前記第1視点映像を構成する画素値を有するブロックである第1ブロックを表示し、
     前記第1視聴領域内の前記視聴者の右目から見える表示領域であり画素を含む表示領域である第2表示領域に、前記第2視点映像を構成する画素値を有するブロックであり、前記第1ブロックと同じ位置に対応するブロックである第2ブロックを表示し、
     前記第1表示領域と前記第2表示領域との間に、前記第1視聴領域内の前記視聴者の左目および右目のいずれからも見えない表示領域であり画素を含む表示領域である第3表示領域を配置する
     映像表示装置。
  2.  前記映像表示装置は、さらに、前記視聴者の移動方向を予測する予測部を備え、
     前記表示部は、検出された前記視聴位置、および、予測された前記移動方向に基づいて、前記複数の視点映像を表示する
     請求項1に記載の映像表示装置。
  3.  前記表示部は、
     検出された前記視聴位置が前記第1視聴領域内である場合、かつ、予測された前記移動方向が前記表示部に対して左方向である場合、前記第3表示領域に、前記第2視点映像を構成する画素値を有する第3ブロックを表示し、
     検出された前記視聴位置が前記第1視聴領域内である場合、かつ、予測された前記移動方向が前記表示部に対して右方向である場合、前記第3表示領域に、前記第1視点映像を構成する画素値を有する第4ブロックを表示する
     請求項2に記載の映像表示装置。
  4.  前記表示部は、
     検出された前記視聴位置が前記第1視聴領域内である場合、かつ、予測された前記移動方向が前記表示部に対して左方向である場合、前記第3表示領域に前記第2ブロックを表示し、
     検出された前記視聴位置が前記第1視聴領域内である場合、かつ、予測された前記移動方向が前記表示部に対して右方向である場合、前記第3表示領域に前記第1ブロックを表示する
     請求項2に記載の映像表示装置。
  5.  前記映像表示装置は、さらに、検出された前記視聴位置が前記第1視聴領域内である場合、予測された前記移動方向に基づいて、前記第1視点映像に対応する第1視点と、前記第2視点映像に対応する第2視点との間の第3視点の映像である第3視点映像を生成する生成部を備え、
     前記表示部は、検出された前記視聴位置が前記第1視聴領域内である場合、前記第3表示領域に、生成された前記第3視点映像を構成する画素値を有する第3ブロックを表示する
     請求項2に記載の映像表示装置。
  6.  前記生成部は、
     検出された前記視聴位置が前記第1視聴領域内である場合、かつ、予測された前記移動方向が前記表示部に対して左方向である場合、前記第1視点と前記第2視点との中間よりも前記第2視点に近い視点の映像を前記第3視点映像として生成し、
     検出された前記視聴位置が前記第1視聴領域内である場合、かつ、予測された前記移動方向が前記表示部に対して右方向である場合、前記第1視点と前記第2視点との中間よりも前記第1視点に近い視点の映像を前記第3視点映像として生成する
     請求項5に記載の映像表示装置。
  7.  前記生成部は、さらに、検出された前記視聴位置が前記第1視聴領域内である場合、検出された前記視聴位置に対応する前記第1視点映像および前記第2視点映像を生成し、
     前記表示部は、検出された前記視聴位置が前記第1視聴領域内である場合、前記第1表示領域に、生成された前記第1視点映像の前記第1ブロックを表示し、前記第2表示領域に、生成された前記第2視点映像の前記第2ブロックを表示する
     請求項5に記載の映像表示装置。
  8.  前記表示部は、
     検出された前記視聴位置が前記第1視聴領域内である場合、かつ、予測された前記移動方向が前記表示部に対して左方向である場合、前記第3表示領域に、前記第2視点映像に対応する第2視点よりも左側の第3視点の映像であり、右目用の映像である第3視点映像を構成する画素値を有する第3ブロックを表示し、
     検出された前記視聴位置が前記第1視聴領域内である場合、かつ、予測された前記移動方向が前記表示部に対して右方向である場合、前記第3表示領域に、前記第1視点映像に対応する第1視点よりも右側の第4視点の映像であり、左目用の映像である第4視点映像を構成する画素値を有する第4ブロックを表示する
     請求項2に記載の映像表示装置。
  9.  前記表示部は、検出された前記視聴位置が前記第1視聴領域内である場合、前記第3表示領域に、前記第1視点映像に対応する第1視点と、前記第2視点映像に対応する第2視点との間の第3視点の映像である第3視点映像を構成する画素値を有する第3ブロックを表示する
     請求項1に記載の映像表示装置。
  10.  前記予測部は、
     検出された前記視聴位置が前記第1視聴領域において中央よりも左側である場合、前記視聴者の移動方向を前記表示部に対して左方向と予測し、
     検出された前記視聴位置が前記第1視聴領域において中央よりも右側である場合、前記視聴者の移動方向を前記表示部に対して右方向と予測する
     請求項2~8のいずれか1項に記載の映像表示装置。
  11.  前記表示部は、
     表示パネルと、
     前記表示パネルの少なくとも一部を覆うバリアとを備え、
     前記第1表示領域は、前記表示パネルにおいて、前記第1視聴領域内の前記視聴者の左目から前記バリアを通って見える表示領域であり、
     前記第2表示領域は、前記表示パネルにおいて、前記第1視聴領域内の前記視聴者の右目から前記バリアを通って見える表示領域であり、
     前記第3表示領域は、前記表示パネルにおいて、前記第1視聴領域内の前記視聴者の左目および右目のいずれからも前記バリアを通って見えない表示領域である
     請求項1~9のいずれか1項に記載の映像表示装置。
  12.  前記映像表示装置は、さらに、前記視聴者を撮影することにより、画像を生成する撮像部を備え、
     前記検出部は、生成された前記画像を用いて、前記視聴者の視聴位置を検出する
     請求項1~9のいずれか1項に記載の映像表示装置。
  13.  前記表示部は、
     検出された前記視聴位置が前記第1視聴領域の左隣の第2視聴領域内である場合、前記第3表示領域に、前記第2視点映像を構成する画素値を有する第3ブロックを表示し、
     検出された前記視聴位置が前記第1視聴領域の右隣の第3視聴領域内である場合、前記第3表示領域に、前記第1視点映像を構成する画素値を有する第4ブロックを表示する
     請求項1~3のいずれか1項に記載の映像表示装置。
  14.  視聴者の視聴位置を検出し、
     検出された前記視聴位置に基づいて、視点が互いに異なる第1視点映像および第2視点映像を含む複数の視点映像を表示し、
     前記複数の視点映像を表示する際、検出された前記視聴位置が第1視聴領域内である場合、
     前記第1視聴領域内の前記視聴者の左目から見える表示領域であり画素を含む表示領域である第1表示領域に、前記第1視点映像を構成する画素値を有するブロックである第1ブロックを表示し、
     前記第1視聴領域内の前記視聴者の右目から見える表示領域であり画素を含む表示領域である第2表示領域に、前記第2視点映像を構成する画素値を有するブロックであり、前記第1ブロックと同じ位置に対応するブロックである第2ブロックを表示し、
     前記第1表示領域と前記第2表示領域との間に、前記第1視聴領域内の前記視聴者の左目および右目のいずれからも見えない表示領域であり画素を含む表示領域である第3表示領域を配置する
     映像表示方法。
     
PCT/JP2013/001465 2013-03-07 2013-03-07 映像表示装置および映像表示方法 WO2014136144A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/001465 WO2014136144A1 (ja) 2013-03-07 2013-03-07 映像表示装置および映像表示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/001465 WO2014136144A1 (ja) 2013-03-07 2013-03-07 映像表示装置および映像表示方法

Publications (1)

Publication Number Publication Date
WO2014136144A1 true WO2014136144A1 (ja) 2014-09-12

Family

ID=51490715

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/001465 WO2014136144A1 (ja) 2013-03-07 2013-03-07 映像表示装置および映像表示方法

Country Status (1)

Country Link
WO (1) WO2014136144A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014228852A (ja) * 2013-05-27 2014-12-08 株式会社ジャパンディスプレイ 表示装置
JP2017038367A (ja) * 2015-08-07 2017-02-16 三星電子株式会社Samsung Electronics Co.,Ltd. 複数のユーザのためのレンダリング方法及び装置
JP2019030004A (ja) * 2017-07-28 2019-02-21 三星電子株式会社Samsung Electronics Co.,Ltd. イメージ処理方法、イメージ処理装置、コンピュータ・プログラム及び記録媒体
WO2020004275A1 (ja) * 2018-06-26 2020-01-02 京セラ株式会社 3次元表示装置、制御コントローラ、3次元表示方法、3次元表示システム、および移動体
WO2021065700A1 (ja) * 2019-09-30 2021-04-08 日本精機株式会社 表示制御装置、ヘッドアップディスプレイ装置、及び方法
JPWO2020004258A1 (ja) * 2018-06-25 2021-08-02 京セラ株式会社 3次元表示システム、光学素子、設置方法、制御方法、および移動体

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012248979A (ja) * 2011-05-26 2012-12-13 Sony Corp 表示装置および方法、並びにプログラム
JP2013013056A (ja) * 2011-05-27 2013-01-17 Jvc Kenwood Corp 裸眼立体視用映像データ生成方法
JP2013037264A (ja) * 2011-08-10 2013-02-21 Sharp Corp 画像表示装置、画像表示端末および画像の表示を制御するための制御方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012248979A (ja) * 2011-05-26 2012-12-13 Sony Corp 表示装置および方法、並びにプログラム
JP2013013056A (ja) * 2011-05-27 2013-01-17 Jvc Kenwood Corp 裸眼立体視用映像データ生成方法
JP2013037264A (ja) * 2011-08-10 2013-02-21 Sharp Corp 画像表示装置、画像表示端末および画像の表示を制御するための制御方法

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014228852A (ja) * 2013-05-27 2014-12-08 株式会社ジャパンディスプレイ 表示装置
JP2017038367A (ja) * 2015-08-07 2017-02-16 三星電子株式会社Samsung Electronics Co.,Ltd. 複数のユーザのためのレンダリング方法及び装置
JP2019030004A (ja) * 2017-07-28 2019-02-21 三星電子株式会社Samsung Electronics Co.,Ltd. イメージ処理方法、イメージ処理装置、コンピュータ・プログラム及び記録媒体
US11634028B2 (en) 2017-07-28 2023-04-25 Samsung Electronics Co., Ltd. Image processing method of generating an image based on a user viewpoint and image processing device
JP7098452B2 (ja) 2017-07-28 2022-07-11 三星電子株式会社 イメージ処理方法、イメージ処理装置、コンピュータ・プログラム及び記録媒体
JPWO2020004258A1 (ja) * 2018-06-25 2021-08-02 京セラ株式会社 3次元表示システム、光学素子、設置方法、制御方法、および移動体
US11483544B2 (en) 2018-06-25 2022-10-25 Kyocera Corporation Three-dimensional display system, optical element, installation method, control method, and moving body
JPWO2020004275A1 (ja) * 2018-06-26 2021-07-08 京セラ株式会社 3次元表示装置、制御コントローラ、3次元表示方法、3次元表示システム、および移動体
JP7145214B2 (ja) 2018-06-26 2022-09-30 京セラ株式会社 3次元表示装置、制御コントローラ、3次元表示方法、3次元表示システム、および移動体
CN112352422A (zh) * 2018-06-26 2021-02-09 京瓷株式会社 三维显示装置、控制器、三维显示方法、三维显示系统以及移动体
WO2020004275A1 (ja) * 2018-06-26 2020-01-02 京セラ株式会社 3次元表示装置、制御コントローラ、3次元表示方法、3次元表示システム、および移動体
US11924400B2 (en) 2018-06-26 2024-03-05 Kyocera Corporation Three-dimensional display device, control controller, three-dimensional display method, three-dimensional display system, and moving body
WO2021065700A1 (ja) * 2019-09-30 2021-04-08 日本精機株式会社 表示制御装置、ヘッドアップディスプレイ装置、及び方法

Similar Documents

Publication Publication Date Title
US9204140B2 (en) Display device and display method
CN106454307B (zh) 针对多个用户的光场渲染的方法和设备
EP2854402B1 (en) Multi-view image display apparatus and control method thereof
TWI444036B (zh) 2d至3d使用者介面內容資料轉換
CN102170577B (zh) 用于处理视频图像的方法和系统
CN102939764B (zh) 图像处理器、图像显示装置和图像拍摄装置
EP2659680B1 (en) Method and apparatus for providing mono-vision in multi-view system
WO2014136144A1 (ja) 映像表示装置および映像表示方法
JP5450330B2 (ja) 画像処理装置および方法、ならびに立体画像表示装置
JP5257248B2 (ja) 画像処理装置および方法、ならびに画像表示装置
US20160150226A1 (en) Multi-view three-dimensional display system and method with position sensing and adaptive number of views
JP5762998B2 (ja) 表示装置および電子機器
US20160021365A1 (en) Image displaying method and image displaying device
JP2013521686A (ja) 3dtvのための視差分布推定
EP2541948B1 (en) Stereoscopic image display method and display timing controller
WO2015074807A2 (en) Generation of images for an autosteroscopic multi-view display
KR101719984B1 (ko) 3차원 컨텐츠를 출력하는 멀티비전 디스플레이 기기의 영상 처리 방법 및 그 방법을 채용한 멀티비전 디스플레이 기기
KR101228916B1 (ko) 멀티 비젼의 3차원 영상 표시 장치 및 방법
JP2006267767A (ja) 画像表示装置
US20140160257A1 (en) Video signal processing apparatus
Lee et al. Eye tracking based glasses-free 3D display by dynamic light field rendering
KR100763398B1 (ko) 휴대용 영상 표시장치를 이용한 입체영상의 표시방법
US20140085434A1 (en) Image signal processing device and image signal processing method
US9270980B2 (en) Autostereoscopic display system and method
TWI826033B (zh) 影像顯示方法與3d顯示系統

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13876942

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13876942

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP