WO2015050390A1 - Method and device for processing image - Google Patents

Method and device for processing image Download PDF

Info

Publication number
WO2015050390A1
WO2015050390A1 PCT/KR2014/009305 KR2014009305W WO2015050390A1 WO 2015050390 A1 WO2015050390 A1 WO 2015050390A1 KR 2014009305 W KR2014009305 W KR 2014009305W WO 2015050390 A1 WO2015050390 A1 WO 2015050390A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
output
images
viewpoint
projected
Prior art date
Application number
PCT/KR2014/009305
Other languages
French (fr)
Korean (ko)
Inventor
최서영
남동경
조양호
이진호
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US15/027,195 priority Critical patent/US20160241846A1/en
Publication of WO2015050390A1 publication Critical patent/WO2015050390A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/349Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/349Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
    • H04N13/351Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking for displaying simultaneously
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/371Image reproducers using viewer tracking for tracking viewers with different interocular distances; for tracking rotational head movements around the vertical axis

Definitions

  • the following embodiments relate to image processing, and more particularly, to an image processing apparatus and an image processing method for generating a plurality of output images of a multi-view.
  • output images having different viewpoints generated by the imaging apparatus are respectively projected to the left and right eyes of the viewer of the imaging apparatus.
  • the output images may be separated into an image to be projected to the left of the viewer of the imaging device and an image to be projected to the right of the viewer by the 3D glasses worn by the viewer of the imaging device.
  • the output images may be separated into an image to be projected to the left of the viewer of the imaging device and an image to be projected to the right of the viewer by an optical lens which may be located in front of the display panel of the imaging device.
  • the viewer of the imaging device may recognize a 3D stereoscopic image without wearing 3D glasses.
  • the method may further include generating a plurality of multi-view output images based on a plurality of input images, and outputting the plurality of output images performed by the imaging apparatus.
  • the viewpoints of the plurality of output images are different from each other, and the order from the left to the right of the regions in which the plurality of output images are projected in the space where the plurality of output images are projected is from the left of the viewpoints of the plurality of output images.
  • An image processing method is provided, which is the reverse of the order to the right.
  • the plurality of output images may be projected in a continuous space.
  • the continuous space may be plural.
  • the plurality of output images may be projected into each of the plurality of consecutive spaces in the same order.
  • the plurality of input images may include a left input image and a right input image.
  • the plurality of output images may include a leftmost viewpoint output image corresponding to the left input image and a rightmost viewpoint output image corresponding to the right input image.
  • the rightmost viewpoint output image may be projected to the leftmost side of the plurality of output images.
  • the leftmost view output image may be projected to the rightmost side of the plurality of output images.
  • a right view output image of the plurality of output images may be projected to the left eye of the viewer.
  • a left view output image of the plurality of output images may be projected into the right eye of the viewer.
  • the left viewpoint output image and the right viewpoint output image may be images of viewpoints adjacent to each other among the plurality of output images.
  • the viewpoint of the left viewpoint output image may be a left viewpoint than the viewpoint of the right viewpoint output image.
  • the leftmost view output image may be projected to the left eye of the viewer.
  • the rightmost viewpoint output image may be projected into the right eye of the viewer.
  • a difference between viewpoints of two adjacent output images among the plurality of output images may be within one viewpoint.
  • the difference between the viewpoint of the leftmost output image and the viewpoint of the rightmost output image among the plurality of output images may be one viewpoint.
  • the plurality of output images may include at least three output images.
  • the plurality of input images may include a left input image and a right input image.
  • the plurality of output images may include a leftmost viewpoint output image corresponding to the left input image, a rightmost viewpoint output image corresponding to the right input image, and an interpolation image.
  • the interpolation image may be an image generated based on an interpolation between the left input image and the right input image.
  • the plurality of input images may include a left input image and a right input image.
  • the plurality of output images may include a leftmost viewpoint output image corresponding to the left input image, a rightmost viewpoint output image corresponding to the right input image, and an interpolation image.
  • the rightmost viewpoint output image may be projected to the leftmost side of the plurality of output images.
  • the leftmost view output image may be projected to the rightmost side of the plurality of output images.
  • the plurality of input images may include a left input image and a right input image.
  • the difference between the viewpoint of the left input image and the viewpoint of the right input image may be one viewpoint.
  • the first time point may be determined based on an interpupillary distance (IPD) of a viewer expected for the imaging device.
  • IPD interpupillary distance
  • the difference between the viewpoints of two adjacent output images may be constant.
  • the imaging device may include a plurality of pixels.
  • the corresponding pixels of the plurality of output images may be adjacent pixels among the plurality of pixels.
  • the imaging device may include a plurality of lenses.
  • Light emitted by the adjacent pixels may be projected through a lens located in front of the adjacent pixels of the plurality of lenses.
  • the lens may project the light of the adjacent pixels in a direction opposite to the order from the left to the right of the adjacent pixels.
  • the plurality of output images may be projected into each of a plurality of consecutive spaces in the same order.
  • the lens may project light of the adjacent pixels into each of the plurality of contiguous spaces.
  • an image processor and an image output unit the image processor generates a plurality of multi-view output images based on a plurality of input images
  • the image output unit is a plurality of The output images are output, and the viewpoints of the plurality of output images are different from each other, and the order from the left to the right of the areas where the plurality of output images are projected in the space where the plurality of output images are projected is the plurality of outputs.
  • An imaging apparatus is provided, which is in reverse order from the left to the right of the viewpoints of the images.
  • the plurality of output images may be projected in a continuous space.
  • the continuous space may be plural.
  • the plurality of output images may be projected into each of the plurality of consecutive spaces in the same order.
  • the plurality of input images may include a left input image and a right input image.
  • the plurality of output images may include a leftmost viewpoint output image corresponding to the left input image and a rightmost viewpoint output image corresponding to the right input image.
  • the rightmost viewpoint output image may be projected to the leftmost side of the plurality of output images.
  • the leftmost view output image may be projected to the rightmost side of the plurality of output images.
  • a right view output image of the plurality of output images may be projected to the left eye of the viewer.
  • a left view output image of the plurality of output images may be projected into the right eye of the viewer.
  • the left viewpoint output image and the right viewpoint output image may be images of viewpoints adjacent to each other among the plurality of output images.
  • the viewpoint of the left viewpoint output image may be a left viewpoint than the viewpoint of the right viewpoint output image.
  • the leftmost view output image may be projected to the left eye of the viewer.
  • the rightmost viewpoint output image may be projected into the right eye of the viewer.
  • the image output unit may include a plurality of pixels.
  • the corresponding pixels of the plurality of output images may be adjacent pixels among the plurality of pixels.
  • the image output unit may further include a plurality of lenses.
  • Light emitted by the adjacent pixels may be projected through a lens located in front of the adjacent pixels of the plurality of lenses.
  • the lens may project the light of the adjacent pixels in a direction opposite to the order from the left to the right of the adjacent pixels.
  • FIG. 1 illustrates an imaging device according to an exemplary embodiment.
  • FIG. 2 illustrates an image processing method according to an exemplary embodiment.
  • FIG. 3 illustrates a method of generating an output image, according to an exemplary embodiment.
  • FIG. 4 illustrates projection of a plurality of output images into a predetermined space, according to an embodiment.
  • FIG. 5 illustrates projection of a plurality of output images into a plurality of predetermined spaces according to an example.
  • FIG. 6 illustrates a relationship between a plurality of output images projected into a predetermined space and a viewer according to an example.
  • FIG. 7 illustrates projection of a plurality of output images into a plurality of predetermined spaces by a lens according to an example.
  • FIG. 8 illustrates a view difference between each of a plurality of output images projected into a predetermined space, according to an example.
  • FIG. 1 illustrates an imaging device according to an exemplary embodiment.
  • FIG. 1 an imaging apparatus 100 that performs image processing based on an input image is illustrated.
  • the imaging apparatus 100 may include a communicator 110, an image processor 120, an image outputter 130, and a storage 140.
  • the imaging apparatus 100 may be an apparatus that processes an input image and outputs an output image that may be recognized as a 3D stereoscopic image to a viewer of the imaging apparatus 100. As each of the output images having different viewpoints of the imaging apparatus 100 are projected to the left and right eyes of the viewer of the imaging apparatus 100, respectively, the viewer may display an image output from the imaging apparatus 100 without 3D glasses. It can be recognized as a stereoscopic image.
  • the imaging apparatus 100 may be an autostereoscopic 3D display apparatus, and may be a 3D television, a mobile phone and a 3D monitor, or a 3D stereoscopic image generating apparatus included in a 3D TV, a mobile phone and a 3D monitor. .
  • the imaging apparatus 100 may be a multi-view 3D display apparatus.
  • the multi-view 3D display device may have a wider viewing range in which a viewer of the imaging apparatus 100 may recognize a 3D stereoscopic image, as compared to the 2 view 3D display device.
  • the viewer of the multiview 3D display device may recognize a 3D stereoscopic image in a wider range than the viewer of the two view 3D display device.
  • the viewer of the imaging apparatus 100 may recognize a 3D stereoscopic image at a position away from the imaging apparatus 100 by a predetermined appropriate viewing distance.
  • the predetermined viewing distance may be a value that may be determined according to the performance and / or characteristics of the components included in the imaging apparatus 100.
  • the predetermined optimal viewing distance is the distance between the viewer of the imaging apparatus 100 and the viewer of the imaging apparatus 100, in which the output image of the imaging apparatus 100 can be most clearly recognized as a three-dimensional stereoscopic image by the viewer of the imaging apparatus 100. Can be.
  • each of the output images having different viewpoints of the imaging apparatus 100 is different from the left eye of the viewer of the imaging apparatus 100. And can be projected accurately into each of the right eye.
  • the communication unit 190 may be a device separate from the imaging device 100.
  • the communication unit 190 may be a device that transmits an input image to the imaging apparatus 100 through a wired and / or wireless communication line.
  • the input image input from the communication unit 190 may be processed and output by the imaging apparatus 100, the viewer of the imaging apparatus 100 may recognize a 3D stereoscopic image.
  • the input image input to the communication unit 190 may be an image processed by the imaging apparatus 100.
  • the input image may be an image used for generating an output image.
  • the communication unit 190 may be a device that transmits a two-view image captured by the stereo camera to the imaging device 100 as part of the stereo camera system.
  • the input image may be a two-view image captured by a stereo camera.
  • the input image may be data in which a two view image is compressed and / or encoded.
  • the communication unit 110 may receive an input image from the communication unit 190 through a wired and / or wireless communication line.
  • the communication unit 110 may transmit the received input image to the image processing unit 120.
  • the communication unit 110 may store the received input image in the storage 140.
  • the communicator 110 may be a hardware module such as a network interface card, a network interface chip, and a networking interface port.
  • the image processor 120 may be a device that processes operations required to generate a plurality of output images having different viewpoints based on the input image. For example, when the input image is encoded data, the image processor 120 may decode the input image.
  • the image processor 120 may include at least one processor for processing operations required to generate a plurality of output images.
  • the image processor 120 may include a graphics processing unit.
  • the image processor 120 may generate a plurality of output images of a multiview.
  • the input image may be an image received from the communication unit 190 or an image stored in the storage unit 140 to be described later.
  • the input image may be a two-view image or a two-dimensional image including depth information.
  • the storage unit 140 may store information related to the setting and operation of the imaging apparatus 100 and / or the input image.
  • the input image stored in the storage 140 may be an image transmitted from the communication unit 190 or an image transmitted from an external electronic device or an electronic medium other than the communication unit 190.
  • the input image stored in the storage 140 may include depth information.
  • the storage 140 may be a hardware module for storing information such as a hard disk drive (HDD), a solid state drive (SSD), a flash memory, and the like.
  • the image output unit 130 may be an apparatus that outputs an output image generated by the image processor 120 and projects the output image into a space where a viewer of the imaging apparatus 100 may recognize a 3D stereoscopic image. have.
  • the image output unit 130 may include a display panel.
  • the display panel of the image output unit 130 may include a plurality of pixels.
  • the image output unit 130 may be a liquid crystal display (LCD), a plasma display panel (PDP) device, or an organic light emitting diode (OLED) display device.
  • LCD liquid crystal display
  • PDP plasma display panel
  • OLED organic light emitting diode
  • the output image generated by the image processor 120 may be output by being assigned to the pixel of the image output unit 130.
  • the output image output by the image output unit 130 may be projected to the left and right eyes of the viewer of the imaging apparatus 100 located at a predetermined viewing distance from the image output unit 130.
  • FIGS. 2 to 8 For a method of outputting the output image generated by the image processor 120 on the image processor 130 and the output image generated by the image processor 120 to the space, see FIGS. 2 to 8 below. This is explained in more detail.
  • FIG. 2 illustrates an image processing method according to an exemplary embodiment.
  • the image processor 120 may generate a plurality of output images of a multiview based on an input image, and the image output unit 130 is generated by the image processor 120.
  • the plurality of output images may be output.
  • the communicator 110 may receive a plurality of input images.
  • the plurality of input images may be a plurality of images at different viewpoints.
  • the plurality of input images may include a left input image that is an image of a left view and a right input image that is an image of a right view as compared to a left input image.
  • the left input image may be an image further including leftmost information not included in the right input image.
  • the information included in the left input image may correspond to visual information that a person recognizes through the left eye.
  • the right input image may be an image further including the rightmost information not included in the left input image.
  • the information included in the right input image may correspond to visual information that a person recognizes through the right eye.
  • the left input image and the right input image may be images captured by each lens of the stereo camera.
  • the image processor 120 may generate a plurality of output images of a multiview based on the plurality of input images.
  • each of the plurality of output images may be generated from a plurality of input images including a left input image and a right input image.
  • the viewpoints of the plurality of output images generated by the image processor 120 may be different from each other.
  • the plurality of output images may be output to a left input view image corresponding to the left input image including the leftmost information among the plurality of input images and a right input image of the input image including the rightmost information among the input images. It may include a corresponding rightmost view output image.
  • the number of output images generated by the image processor 120 may be different from the number of input images.
  • the number of output images generated by the image processor 120 may be equal to or greater than the number of input images.
  • Each of the plurality of input images may be an image photographed through each lens of the stereo camera.
  • the plurality of output images may include one or more intermediate view output images of one or more different views in addition to the left view output image and the right view output image.
  • Each of the intermediate view output images may be an image further including information on the right side than the leftmost view output image, and further including information on the left side than the rightmost view output image.
  • the plurality of output images generated by the image processor 120 may include at least three output images. When there are three or more output images, two of the plurality of output images may be a leftmost viewpoint output image and a rightmost viewpoint output image.
  • a method of generating a plurality of output images of a multiview from a plurality of input images will be described in more detail with reference to FIG. 3 below.
  • the image outputter 130 may output a plurality of output images generated by the image processor 120.
  • the plurality of output images generated by the image processor 120 may be output at different positions on the display panel of the image output unit 130.
  • the position on the display panel where each of the plurality of output images generated by the image processor 120 is output may be a pixel of the display panel to which each output image is assigned.
  • Each of the plurality of output images generated by the image processor 120 may be output to each of adjacent pixels of the display panel.
  • the corresponding pixels of the plurality of output images generated by the image processor 120 may be adjacent pixels among the plurality of pixels of the display panel.
  • the corresponding pixels of the plurality of output images generated by the image processor 120 may be pixels from which each of the plurality of output images is output from among the plurality of pixels of the image output unit 130.
  • each output image generated by the image processor 120 may be output from each of adjacent pixels of the display panel of the image output unit 130 in the order of viewpoints from the leftmost viewpoint output image to the rightmost viewpoint output image. have.
  • Each output image output to each pixel of the image output unit 130 may be light including information related to each output image.
  • the information of each output image included in the light output from each pixel may be color information (eg, an RGB value) of each output image.
  • the plurality of output images generated by the image processor 120 may be projected in a continuous space.
  • An area in which the output image is not projected may not exist between regions in which each output image is projected in a predetermined space where a plurality of output images are projected.
  • each of the plurality of output images may be projected so as to have no gaps in the predetermined space or enough gaps that the viewer cannot feel.
  • Regions in a predetermined space where each of the plurality of output images generated by the image processor 120 are projected may be different from each other. In other words, an area in which two or more output images are repeatedly projected in a predetermined space where a plurality of output images are projected may not exist.
  • the plurality of output images generated by the image processing unit 120 are projected into a predetermined space existing on a plane spaced apart from the imaging apparatus 100 by a predetermined proper viewing distance, the plurality of output images are arranged in a continuous space.
  • the areas within a given space in which each of the plurality of output images are projected may be different from each other.
  • the viewer of the imaging apparatus 100 located in the predetermined space where the plurality of output images are projected may recognize the output image in all areas of the predetermined space, and the left and right eyes of the viewer of the imaging apparatus 100 may be Only one output image of each of the plurality of output images may be projected.
  • FIG. 3 illustrates a method of generating an output image, according to an exemplary embodiment.
  • FIG. 3 illustrates a case where a plurality of output images are generated from a plurality of input images including a left input image 310 and a right input image 320 described above with reference to FIG. 2.
  • the difference in the position of the circle displayed in each of the images 310 to 345 may represent a viewpoint difference between the images 310 to 345.
  • the left input image 310 and the right input image 320 are images captured by a stereo camera, input images stored in the storage 140 of FIG. 1, or inputs transmitted from the communication unit 190 to the imaging apparatus 100. May be images.
  • the input images 310 and 320 may include predetermined depth information representing a depth of an object expressed in the input images 310 and 320. For example, when only the left input image 310 is projected to the left eye and the right eye of the viewer of the imaging apparatus 100, the viewer of the imaging apparatus 100 may determine predetermined depth information of the left input image 310 based on empirical recognition. Through this, the user may feel a 3D effect on the object represented in the left input image 310.
  • the predetermined depth information representing the depth of the object represented in the input images 310 and 320 may include shape information, size information, perspective information, and occlusion of the object of the object represented in the images 310 and 320. The information may be one or more of occlusion information and lighting information.
  • the difference between the viewpoints of the left input image 310 and the right input image 320 may be one viewpoint.
  • the difference between the viewpoints of the left input image 310 and the right input image 320 may be determined based on an interpupillary distance (IPD) of a viewer of the imaging apparatus 100 that is expected with respect to the imaging apparatus 100.
  • IPD interpupillary distance
  • one viewpoint may be equal to one IPD.
  • the IPD may be a value determined based on a distance between pupils of a general person.
  • a viewpoint difference between visual information recognized through a left eye and visual information recognized through a right eye may be 1 IPD.
  • 1 IPD may be a value corresponding to a distance between two lenses of a stereo camera.
  • the viewer of the imaging apparatus 100 is that the left input image 310 is projected to the left eye, the right input image 320 is projected to the right eye, and the difference between the viewpoints of the left input image 310 and the right input image 320 is 1 IPD.
  • the images projected by both eyes of the viewer of the imaging apparatus 100 may be recognized as stereoscopic stereoscopic images.
  • the images 330 to 350 are output images generated from the left input image 310 and the right input image 320, and include the leftmost view output image 330, the first intermediate view output image 335, and the second intermediate view.
  • the output image 340 and the rightmost view output image 345 may be provided.
  • the leftmost view output image 330 may correspond to the left input image 310. In other words, the information included in the leftmost view output image 330 may correspond to visual information that a person recognizes through the left eye.
  • the rightmost view output image 345 may correspond to the right input image 320. In other words, the information included in the rightmost viewpoint output image 345 may correspond to visual information that a person recognizes through the right eye.
  • Each of the intermediate view output images may be an image further including information on the right side than the leftmost view output image, and further including information on the left side than the rightmost view output image.
  • each of the intermediate view output images may be an output image of a view existing between the leftmost view and the right view among the plurality of output images.
  • the plurality of output images 330 to 345 generated from the plurality of input images 310 and 320 may include the leftmost view output image corresponding to the left input image 310 of the plurality of input images 310 and 320. 330, the rightmost view output image 345 corresponding to the right input image 320 among the plurality of input images 310 and 320, and an interpolation image of the plurality of input images 310 and 320. .
  • the interpolation image of the plurality of input images 310 and 320 may be an image generated based on the interpolation between the left input image 310 and the right input image 320.
  • the interpolated image may be generated as one or more images of different viewpoints.
  • the first intermediate view output image 335 and the second intermediate view output image 340 may be interpolation images generated based on interpolation of the left input image 310 and the right input image 320.
  • the interpolation of the left input image 310 and the right input image 320 is performed by using the information included in the left input image 310 and the right input image 320, and the viewpoint and the right input image of the left input image 310 ( It may be a process of generating an image of an intermediate view existing between the viewpoints of 320.
  • the image processor 120 may generate an interpolated image by applying an image interpolation technique to the left input image 310 and the right input image 320.
  • One or more known algorithms that may be used for interpolation of an image may be used in an image interpolation technique applied by the image processor 120 to the left input image 310 and the right input image 320.
  • the plurality of output images 330 to 345 may include predetermined depth information included in the plurality of input images 310 and 320 described above.
  • Each of the plurality of output images 330 to 345 may be projected by the image output unit 130 to different regions of the predetermined space described above with reference to FIG. 2.
  • each of the plurality of output images 330 to 345 in the order of viewpoints from the rightmost viewpoint output image 340 to the leftmost viewpoint output image 330 is the leftmost of the regions where a predetermined space is divided into four sections. From the region of to the region of the rightmost side, the predetermined space can be projected into each of the regions which are divided into quarters.
  • the input image may include additional information (eg, depth information) for generating the plurality of output images.
  • the imaging apparatus 100 may be an N-view autostereoscopic 3D display apparatus.
  • the imaging apparatus 100 may be a four-view autostereoscopic 3D display apparatus.
  • FIG. 4 illustrates projection of a plurality of output images into a predetermined space, according to an embodiment.
  • each of the plurality of output images 330 to 345 output to the image output unit 130 is projected onto different areas of the continuous space 410 is illustrated.
  • the plurality of output images 330 to 345 may be projected in the continuous space 410.
  • the continuous space 410 may be a space that exists on a plane separated by a predetermined viewing distance from the imaging apparatus 100 described above with reference to FIG. 2.
  • Values 1 to 2 displayed in the plurality of output images 330 to 345 may be relative values displayed to distinguish a viewpoint difference between the plurality of output images 330 to 345.
  • a value 1 displayed in the leftmost view output image 330 may represent an image of the leftmost view.
  • the value displayed on the rightmost viewpoint output image 345 may be 2.
  • the difference in viewpoints between the leftmost viewpoint output image 330 and the rightmost viewpoint output image 345 is 1, indicating that the viewpoint difference between the leftmost viewpoint output image 330 and the rightmost viewpoint output image 345 is 1 IPD. have.
  • the difference between the viewpoint of the leftmost output image 330 and the viewpoint of the rightmost output image 345 among the plurality of output images 330 through 345 may be one viewpoint, and the plurality of output images 330 through 345.
  • the difference between the viewpoints of two adjacent output images may be within one viewpoint.
  • the difference between the viewpoints of two adjacent output images may be constant.
  • a difference in viewpoints of adjacent images among the plurality of output images 330 to 345 may be constant (however, in FIG. 4, values of two decimal places or less are discarded for convenience).
  • the image processor 120 may adjust a viewpoint difference between two adjacent output images among the plurality of output images 330 to 345.
  • the image processor 120 adjusts variables used in an image interpolation technique applied to the left input image 310 and the right input image 320 when generating the interpolated images, and thus the difference between the viewpoints of two adjacent output images. Can be adjusted.
  • each of the plurality of output images 330 to 345 is each of pixels adjacent to each other of the image output unit 130 in the order from the left to the right of the viewpoints of the plurality of output images 330 to 345.
  • each of the quadrant regions of the continuous space 410 may be the same size, and the width of each region may be 1 IPD or less. In other words, the width of each region in the continuous space 410 that each of the plurality of output images 330 to 345 reaches may be 1 IPD or less.
  • the rightmost viewpoint output image 345 may be projected to the leftmost region in the continuous space 410 of the plurality of output images 330 to 345.
  • the leftmost view output image 330 may be projected to the rightmost region in the continuous space 410 of the plurality of output images 330 to 345.
  • the second intermediate view output 340 which is the right image among the remaining first intermediate view output image 335 and the second intermediate view output 340 image, is the rightmost view output image (in the continuous space 410).
  • 345 may be projected in a region to the right adjacent to the projected area, and the first intermediate view output image 335 is adjacent to the left to the region where the leftmost view output image 330 in the continuous space 410 is projected. Can be projected onto the area.
  • FIG. 5 illustrates projection of a plurality of output images into a plurality of predetermined spaces according to an example.
  • the plurality of output images 330 to 345 may be projected into each of the plurality of continuous spaces in the same order as projected in the continuous space 410.
  • the set of pixels 510 which are adjacent pixels of the image output unit 130 from which the plurality of output images 330 to 345 are output, may be plural.
  • the plurality of output images 330 to 345 are sets of respective pixels of the plurality of sets of pixels 510, 510-1 and 510-2 in the same order as output from each pixel of the set of pixels 510. It can be output at each pixel of.
  • Each set of pixels may be in a continuous position on the image output unit 130.
  • the plurality of output images 330 to 345 output from each of the plurality of sets of pixels 510, 510-1, and 510-2 are projected onto the continuous space 410. Can be projected into each of a plurality of contiguous spaces in the same order.
  • the continuous space 410 may be a viewing range in which a viewer of the imaging apparatus 100 may recognize a 3D stereoscopic image.
  • a viewing range in which a viewer of the imaging apparatus 100 may recognize a 3D stereoscopic image may be widened.
  • the sets of pixels are shown only in the lateral direction of the image output unit 130, but the sets of pixels may also exist in the longitudinal direction of the image output unit 130.
  • FIG. 6 illustrates a relationship between a plurality of output images projected into a predetermined space and a viewer according to an example.
  • the left and right eyes of the viewer of the imaging apparatus 100 may be located in the plurality of continuous spaces described above with reference to FIG. 5.
  • the contiguous spaces 410 and 610 may correspond to the plurality of contiguous spaces described above with reference to FIG. 5.
  • the continuous space 610 is a space equivalent to the continuous space 410 and may be a space adjacent to the continuous space 410.
  • Each of the left and right eyes of the viewer of the imaging apparatus 100 is located in a plurality of spaces existing on a plane separated by a predetermined appropriate viewing distance from the imaging apparatus 100, respectively.
  • Different output images may be projected from among the plurality of output images 330 to 345, respectively.
  • the consecutive spaces 410 and 610 may be a viewing range of the viewer of the imaging apparatus 100.
  • a plurality of output images are respectively displayed as a whole to each pixel of the set of pixels 510, but information corresponding to only a part of the displayed image is output to each pixel of the set of pixels 510.
  • information corresponding to only a part of the displayed image is output to each pixel of the set of pixels 510.
  • the stereoscopic is displayed to the viewer.
  • An image is provided.
  • the viewer can recognize the stereoscopic output images projected by both eyes as a three-dimensional stereoscopic image.
  • Pseudoscopic images are provided.
  • the viewer of the imaging apparatus 100 may not recognize the output images of Pseudoscopic projected by both eyes as a 3D stereoscopic image.
  • a stereoscopic sense may be formed that is opposite to the empirical recognition of the viewer of the imaging apparatus 100.
  • the viewer of the imaging apparatus 100 may not recognize the output images of the pseudoscopic projections with both eyes as a 3D stereoscopic image, and may feel fatigue when viewing the output images of the pseudoscopic.
  • the view point of the left view output image projected to the right eye is The viewer is provided with a semi-pseudoscopic image when the viewpoint of the left view is more than the viewpoint of the right view output image projected by and the view difference between the left view output image and the left view output image is less than one view point.
  • the viewer can recognize the output image of the semi- pseudoscopic projected by both eyes as a three-dimensional stereoscopic image.
  • the viewer of the imaging apparatus 100 may recognize the semi-pseudoscopic output images projected by both eyes as three-dimensional stereoscopic images through predetermined depth information included in the output images described above with reference to FIG. 3.
  • the output images of the semi- pseudoscopic may be similar to the output images of the pseudoscopic. Since the viewpoint difference between the output images projected by both viewers is less than one viewpoint, the viewer of the imaging apparatus 100 outputs the images through predetermined depth information included in the semi- pseudoscopic output images based on empirical recognition. You can feel the three-dimensional effect on the object expressed inside. For example, a viewer of the imaging apparatus 100 protrudes a bright portion of a part of an object represented in output images projected by both eyes based on occlusion information and lighting information included in the output images. A dark portion of a part of the object expressed in the output images projected by both eyes may be recognized as a depressed portion.
  • the left eye and the right eye of the viewer of the imaging apparatus 100 of the imaging apparatus 100 have a continuous space (one of the plurality of consecutive spaces 410 and 610).
  • the right view output image of the plurality of output images 330 to 345 is projected to the left eye of the viewer of the imaging apparatus 100, and the plurality of the right eye to the viewer of the imaging apparatus 100.
  • the left view output image of the output images 330 to 345 may be projected.
  • the left viewpoint output image and the right viewpoint output image are images of viewpoints adjacent to each other among the plurality of output images 330 to 345, and the viewpoint of the left viewpoint output image may be a view on the left side more than the viewpoint of the right viewpoint output image. have.
  • the viewpoint difference between the left view output image and the right view output image projected by both eyes of the viewer of the imaging apparatus 100 may be less than one view point.
  • the viewpoint difference between the left view output image and the right view output image projected by the viewer's both eyes may be semi- pseudoscopic. That is, when the viewer is located in one continuous space 410 of the plurality of consecutive spaces 410 and 610, the viewer may be provided with a semi- pseudoscopic image.
  • the viewpoint difference between the left view output image and the left view output image projected by both eyes of the viewer of the imaging apparatus 100 may be constant.
  • the viewer of the imaging apparatus 100 when the viewer of the imaging apparatus 100 is located in two consecutive spaces 410 and 610 of the plurality of consecutive spaces, the viewer enters the left eye of the viewer of the imaging apparatus 100.
  • the leftmost viewpoint output image 330 is projected, and the rightmost viewpoint output image 345 is projected into the right eye of the viewer of the imaging apparatus 100.
  • the viewpoint difference between the leftmost viewpoint output image 330 and the rightmost viewpoint output image 345 may be one viewpoint.
  • the difference in viewpoint between the leftmost viewpoint output image 330 and the rightmost viewpoint output image 345 may be stereoscopic. In other words, when the viewer is located in two consecutive spaces of the plurality of consecutive spaces 410 and 610, the viewer may be provided with a stereoscopic image.
  • the viewer of the imaging apparatus 100 is a semi- pseudoscopic or stereoscopic because the viewpoint difference between the images projected into both eyes of the viewer of the imaging apparatus at all possible positions in the contiguous spaces 410 and 610 is semi- pseudoscopic or stereoscopic.
  • the output images projected by both eyes at all possible positions in the continuous spaces 410 and 610 may be recognized as three-dimensional stereoscopic images.
  • the stereoscopic image or the semi- pseudoscopic image of one point of view may be provided to the viewer in all viewing ranges of the imaging apparatus 100.
  • each three-dimensional stereoscopic image recognized by the viewer is an image based on two adjacent output images among the plurality of images 330 to 345, or the plurality of three-dimensional images.
  • the image is based on the leftmost view output image 330 and the right view output image 345 among the images 330 to 345. Therefore, the 3D stereoscopic images may be different images.
  • FIG. 7 illustrates projection of a plurality of output images into a plurality of predetermined spaces by a lens according to an example.
  • the imaging apparatus 100 may include a plurality of lenses 720, 720-1, and 720-2.
  • the plurality of lenses may be part of the image output unit 130.
  • the plurality of lenses may be a collection of lenses arranged in the lateral direction of the image output unit 130.
  • the plurality of lenses may be a lens array.
  • the lens array may also be disposed in the longitudinal direction of the image output unit 130.
  • FIG. 7 it is shown that the plurality of output images 330 to 345 output from the set of pixels 510 described above with reference to FIG. 5 are projected by the lens 720 into a plurality of contiguous spaces.
  • the plurality of output images 330 to 345 are shown to be emitted from the lens 720 and projected into the continuous space 410. Light is emitted from each pixel of the set 510, and the emitted light can be refracted by passing through the lens 720 to be projected into a plurality of contiguous spaces.
  • the number of the plurality of consecutive spaces is illustrated as four in FIG. 7, the number of the plurality of consecutive spaces may increase according to the number of sets of the plurality of pixels 510, 510-1 and 510-2. Can be.
  • the number of sets of pixels 510, 510-1, and 510-2 and the number of lenses of the plurality of pixels may be the same.
  • Each of the plurality of output images 330 through 345 output from the set of pixels 510 may be light including information associated with each output image 330, 335, 340 or 345.
  • the information of each output image 330, 335, 340, or 345 included in the light output from each pixel in the set of pixels 510 may include the color information of each output image 330, 335, 340, or 345. For example, an RGB value).
  • Light emitted by adjacent pixels of the set of pixels 510 may cause the lens 720 located in front of the adjacent pixels of the set of pixels 510 of the plurality of lenses 720, 720-1, and 720-2 to pass through the lens 720. Can be projected through.
  • each of the plurality of lenses 720, 720-1, and 720-2 can refract light emitted from a set of pixels corresponding to each lens, and light emitted from a set of pixels corresponding to each lens. Can be projected into each of a plurality of contiguous spaces.
  • Lens 720 may project light of adjacent pixels of set of pixels 510 in a direction opposite to the order from left to right of adjacent pixels of set of pixels 510. Lens 720 may project light of adjacent pixels of set of pixels 510 into each of a plurality of contiguous spaces.
  • Each of the plurality of lenses may be made of plastic.
  • each of the plurality of lenses 720, 720-1, and 720-2 may be a lenticular lens.
  • the lens 720 may have properties similar to those of the convex lens.
  • each of the plurality of lenses may correspond to each pixel of the image output unit 130.
  • the number of pixels of the image output unit 130 and the number of lenses may be the same.
  • each shape of the plurality of lenses may be hemispherical.
  • each of the plurality of lenses may have a semi-cylindrical shape extending in the longitudinal direction of the image output unit 130.
  • the number of the plurality of lenses is equal to the number of sets of pixels 510, 510-1 and 510-2 in the lateral direction of the image output unit 130 or the number of pixels in the lateral direction of the image output unit 130. May be the same.
  • the plurality of semi-cylindrical lenses may be disposed diagonally rather than in the longitudinal direction of the image output unit 130.
  • the plurality of lenses may be manufactured in the form of a sheet or film having a size corresponding to the size of the image output unit 130.
  • the sheet or film including the plurality of lenses may be attached to the front surface of the display panel of the image output unit 130.
  • Each of the plurality of lenses may be an electro-active lenticular lens.
  • the electronic active lenticular lens is an electronic liquid crystal lens, and may be a lens whose refractive index changes as a voltage is applied to molecules of the electronic liquid crystal of the electronic active lenticular lens.
  • a viewer of the imaging apparatus 100 may view a three-dimensional stereoscopic image and a voltage according to a voltage applied to molecules of an electronic liquid crystal of the electronic active lenticular lens. You can watch both two-dimensional images.
  • FIG. 8 illustrates a view difference between each of a plurality of output images projected into a predetermined space, according to an example.
  • values of 1 to 2 corresponding to the plurality of output images 330 to 345 may be relative values displayed to distinguish a viewpoint difference between the plurality of output images 330 to 345.
  • Each of the plurality of output images 330-345 output from the set of pixels 510 may be projected by the lens 720 into each of the quadrant regions of the contiguous space 410.
  • the order from the left to the right of the areas where the plurality of output images 330 to 345 are projected is a plurality of output images ( 330 to 345 may be in reverse order from left to right.
  • each of the plurality of output images 330 to 345 is a direction from the leftmost region to the right side of the quadrant regions of the continuous space 410, from the rightmost viewpoint output image 345 to the most.
  • Each of the views up to the left view output image 330 may be projected.
  • a viewpoint difference between adjacent output images among the plurality of output images 330 to 345 may be constant.
  • the viewpoint difference may be 1/3 IPD.
  • the viewpoint difference between the rightmost viewpoint output image 345 and the leftmost viewpoint output image 330 may be 1 IPD.
  • the method according to the embodiment may be embodied in the form of program instructions that can be executed by various computer means and recorded in a computer readable medium.
  • the computer readable medium may include program instructions, data files, data structures, etc. alone or in combination.
  • the program instructions recorded on the media may be those specially designed and constructed for the purposes of the embodiments, or they may be of the kind well-known and available to those having skill in the computer software arts.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks.
  • Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.
  • the hardware device described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

An image device generates a plurality of multi-view output images on the basis of an input image, and outputs the plurality of generated output images. The plurality of output images are outputted in a direction opposite to the views of the output images. The plurality of outputted output images are projected towards a left eye and a right eye of a viewer of the image device such that the viewer can recognize three-dimensional images.

Description

영상 처리 방법 및 장치Image processing method and device
아래의 실시예들은 영상 처리에 관한 것으로, 보다 상세하게는 다시점(multi-view)의 복수의 출력 영상들을 생성하는 영상 처리 장치 및 영상 처리 방법에 관한 것이다.The following embodiments relate to image processing, and more particularly, to an image processing apparatus and an image processing method for generating a plurality of output images of a multi-view.
영상 장치가 영상 장치의 시청자에게 3 차원의 입체 영상을 제공하는 방법으로서, 양안 시차에 기반한 스테레오 기법을 사용하는 방법, 공간 상에 입체 영상을 직접 형성하는 체적형 디스플레이를 사용하는 방법 및 광의 간섭에 기반한 홀로그래피 디스플레이를 사용하는 방법 등이 있다.A method of providing a 3D stereoscopic image to a viewer of an imaging apparatus by using a stereoscopic method based on binocular disparity, a method of using a volumetric display that directly forms a stereoscopic image in space, and interference of light. And a holographic display based method.
양안 시차에 기반한 스테레오 기법을 사용하여 영상 장치의 시청자에게 3 차원 입체 영상이 제공되는 경우, 영상 장치에 의해 생성된 서로 상이한 시점들을 갖는 출력 영상들은 영상 장치의 시청자의 좌안 및 우안으로 각각 투사된다. 이 때, 출력 영상들은 영상 장치의 시청자가 착용한 3D 안경에 의해 영상 장치의 시청자의 좌안에 투사될 영상 및 시청자의 우안에 투사될 영상으로 분리될 수 있다.When a 3D stereoscopic image is provided to a viewer of an imaging apparatus using a binocular parallax based stereo technique, output images having different viewpoints generated by the imaging apparatus are respectively projected to the left and right eyes of the viewer of the imaging apparatus. In this case, the output images may be separated into an image to be projected to the left of the viewer of the imaging device and an image to be projected to the right of the viewer by the 3D glasses worn by the viewer of the imaging device.
또는, 출력 영상들은 영상 장치의 디스플레이 패널의 전면에 위치될 수 있는 광학 렌즈에 의해 영상 장치의 시청자의 좌안에 투사될 영상 및 시청자의 우안에 투사될 영상으로 분리될 수 있다. 영상 장치의 시청자는 3D 안경을 착용하지 않고 3 차원 입체 영상을 인식할 수 있다.Alternatively, the output images may be separated into an image to be projected to the left of the viewer of the imaging device and an image to be projected to the right of the viewer by an optical lens which may be located in front of the display panel of the imaging device. The viewer of the imaging device may recognize a 3D stereoscopic image without wearing 3D glasses.
일 측면에 있어서, 영상 장치에 의해 수행되는, 복수의 입력 영상들에 기반하여 다시점(multi-view)의 복수의 출력 영상들을 생성하는 단계 및 상기 복수의 출력 영상들을 출력하는 단계를 포함하고, 상기 복수의 출력 영상들의 시점들은 서로 상이하고, 상기 복수의 출력 영상들이 투사되는 공간 내에서 상기 복수의 출력 영상들이 투사되는 영역들의 좌측으로부터 우측으로의 순서는 상기 복수의 출력 영상들의 시점들의 좌측으로부터 우측으로의 순서와 반대인, 영상 처리 방법이 제공된다.According to an aspect, the method may further include generating a plurality of multi-view output images based on a plurality of input images, and outputting the plurality of output images performed by the imaging apparatus. The viewpoints of the plurality of output images are different from each other, and the order from the left to the right of the regions in which the plurality of output images are projected in the space where the plurality of output images are projected is from the left of the viewpoints of the plurality of output images. An image processing method is provided, which is the reverse of the order to the right.
상기 복수의 출력 영상들은 연속된 공간 내에서 투사될 수 있다.The plurality of output images may be projected in a continuous space.
상기 연속된 공간은 복수일 수 있다.The continuous space may be plural.
상기 복수의 출력 영상들은 동일한 순서들로 상기 복수의 연속된 공간들의 각각으로 투사될 수 있다.The plurality of output images may be projected into each of the plurality of consecutive spaces in the same order.
상기 복수의 입력 영상들은 좌측 입력 영상 및 우측 입력 영상을 포함할 수 있다.The plurality of input images may include a left input image and a right input image.
상기 복수의 출력 영상들은 상기 좌측 입력 영상에 대응하는 최좌측 시점 출력 영상 및 상기 우측 입력 영상에 대응하는 최우측 시점 출력 영상을 포함할 수 있다.The plurality of output images may include a leftmost viewpoint output image corresponding to the left input image and a rightmost viewpoint output image corresponding to the right input image.
상기 최우측 시점 출력 영상은 상기 복수의 출력 영상들 중 최좌측으로 투사될 수 있다.The rightmost viewpoint output image may be projected to the leftmost side of the plurality of output images.
상기 최좌측 시점 출력 영상은 상기 복수의 출력 영상들 중 최우측으로 투사될 수 있다.The leftmost view output image may be projected to the rightmost side of the plurality of output images.
상기 영상 장치의 시청자가 상기 복수의 연속된 공간들 중 하나의 연속된 공간 내에 위치할 경우 상기 시청자의 좌안으로는 상기 복수의 출력 영상들 중 우측 시점 출력 영상이 투사될 수 있다.When the viewer of the imaging apparatus is located in one continuous space among the plurality of continuous spaces, a right view output image of the plurality of output images may be projected to the left eye of the viewer.
상기 영상 장치의 시청자가 상기 복수의 연속된 공간들 중 하나의 연속된 공간 내에 위치할 경우 상기 시청자의 우안으로는 상기 복수의 출력 영상들 중 좌측 시점 출력 영상이 투사될 수 있다.When the viewer of the imaging apparatus is located in one continuous space among the plurality of continuous spaces, a left view output image of the plurality of output images may be projected into the right eye of the viewer.
상기 좌측 시점 출력 영상 및 상기 우측 시점 출력 영상은 상기 복수의 출력 영상들 중 서로 인접한 시점들의 영상일 수 있다.The left viewpoint output image and the right viewpoint output image may be images of viewpoints adjacent to each other among the plurality of output images.
상기 좌측 시점 출력 영상의 시점은 상기 우측 시점 출력 영상의 시점에 비해 더 좌측의 시점일 수 있다.The viewpoint of the left viewpoint output image may be a left viewpoint than the viewpoint of the right viewpoint output image.
상기 시청자가 상기 복수의 연속된 공간들 중 2개의 연속된 공간들 내에 위치할 경우 상기 시청자의 좌안으로는 상기 최좌측 시점 출력 영상이 투사될 수 있다.When the viewer is located in two consecutive spaces of the plurality of consecutive spaces, the leftmost view output image may be projected to the left eye of the viewer.
상기 시청자가 상기 복수의 연속된 공간들 중 2개의 연속된 공간들 내에 위치할 경우 상기 시청자의 우안으로는 상기 최우측 시점 출력 영상이 투사될 수 있다.When the viewer is located in two consecutive spaces of the plurality of continuous spaces, the rightmost viewpoint output image may be projected into the right eye of the viewer.
상기 복수의 출력 영상들 중 인접한 2 개의 출력 영상들의 시점들 간의 차는 1 시점 이내일 수 있다.A difference between viewpoints of two adjacent output images among the plurality of output images may be within one viewpoint.
상기 복수의 출력 영상들 중 최좌측 출력 영상의 시점 및 최우측 출력 영상의 시점 간의 차는 1 시점일 수 있다.The difference between the viewpoint of the leftmost output image and the viewpoint of the rightmost output image among the plurality of output images may be one viewpoint.
상기 복수의 출력 영상들은 적어도 3 개의 출력 영상들을 포함할 수 있다.The plurality of output images may include at least three output images.
상기 복수의 입력 영상들은 좌측 입력 영상 및 우측 입력 영상을 포함할 수 있다.The plurality of input images may include a left input image and a right input image.
상기 복수의 출력 영상들은 상기 좌측 입력 영상에 대응하는 최좌측 시점 출력 영상, 상기 우측 입력 영상에 대응하는 최우측 시점 출력 영상 및 내삽 영상을 포함할 수 있다.The plurality of output images may include a leftmost viewpoint output image corresponding to the left input image, a rightmost viewpoint output image corresponding to the right input image, and an interpolation image.
상기 내삽 영상은 상기 좌측 입력 영상 및 상기 우측 입력 영상 간의 내삽에 기반하여 생성된 영상일 수 있다.The interpolation image may be an image generated based on an interpolation between the left input image and the right input image.
상기 복수의 입력 영상들은 좌측 입력 영상 및 우측 입력 영상을 포함할 수 있다.The plurality of input images may include a left input image and a right input image.
상기 복수의 출력 영상들은 상기 좌측 입력 영상에 대응하는 최좌측 시점 출력 영상, 상기 우측 입력 영상에 대응하는 최우측 시점 출력 영상 및 내삽 영상을 포함할 수 있다.The plurality of output images may include a leftmost viewpoint output image corresponding to the left input image, a rightmost viewpoint output image corresponding to the right input image, and an interpolation image.
상기 최우측 시점 출력 영상은 상기 복수의 출력 영상들 중 최좌측으로 투사될 수 있다.The rightmost viewpoint output image may be projected to the leftmost side of the plurality of output images.
상기 최좌측 시점 출력 영상은 상기 복수의 출력 영상들 중 최우측으로 투사될 수 있다.The leftmost view output image may be projected to the rightmost side of the plurality of output images.
상기 복수의 입력 영상들은 좌측 입력 영상 및 우측 입력 영상을 포함할 수 있다.The plurality of input images may include a left input image and a right input image.
상기 좌측 입력 영상의 시점 및 상기 우측 입력 영상의 시점 간의 차는 1 시점일 수 있다.The difference between the viewpoint of the left input image and the viewpoint of the right input image may be one viewpoint.
상기 1 시점은 상기 영상 장치에 대해 예상되는 시청자의 동공 간 거리(Interpupillary Distance; IPD)에 기반하여 결정될 수 있다.The first time point may be determined based on an interpupillary distance (IPD) of a viewer expected for the imaging device.
상기 복수의 출력 영상들의 시점들에 있어서, 서로 인접한 2개의 출력 영상들의 시점들 간의 차는 일정할 수 있다.In the viewpoints of the plurality of output images, the difference between the viewpoints of two adjacent output images may be constant.
상기 영상 장치는 복수의 픽셀들을 포함할 수 있다.The imaging device may include a plurality of pixels.
상기 복수의 출력 영상들의 대응하는 픽셀들은 상기 복수의 픽셀들 중 인접한 픽셀들일 수 있다.The corresponding pixels of the plurality of output images may be adjacent pixels among the plurality of pixels.
상기 영상 장치는 복수의 렌즈들을 포함할 수 있다.The imaging device may include a plurality of lenses.
상기 인접한 픽셀들에 의해 방출되는 광들은 상기 복수의 렌즈들 중 상기 인접한 픽셀들의 전면에 위치한 렌즈를 통해 투사될 수 있다.Light emitted by the adjacent pixels may be projected through a lens located in front of the adjacent pixels of the plurality of lenses.
상기 렌즈는 상기 인접한 픽셀들의 좌측으로부터 우측으로의 순서와 반대되는 방향으로 상기 인접한 픽셀들의 광들을 투사할 수 있다.The lens may project the light of the adjacent pixels in a direction opposite to the order from the left to the right of the adjacent pixels.
상기 복수의 출력 영상들은 동일한 순서들로 복수의 연속된 공간들의 각각으로 투사될 수 있다.The plurality of output images may be projected into each of a plurality of consecutive spaces in the same order.
상기 렌즈는 상기 인접한 픽셀들의 광들을 상기 복수의 연속된 공간들의 각각으로 투사할 수 있다.The lens may project light of the adjacent pixels into each of the plurality of contiguous spaces.
다른 일 측면에 있어서, 영상 처리부 및 영상 출력부를 포함하고, 상기 영상 처리부는 복수의 입력 영상들에 기반하여 다시점(multi-view)의 복수의 출력 영상들을 생성하고, 상기 영상 출력부는 상기 복수의 출력 영상들을 출력하고, 상기 복수의 출력 영상들의 시점들은 서로 상이하고, 상기 복수의 출력 영상들이 투사되는 공간 내에서 상기 복수의 출력 영상들이 투사되는 영역들의 좌측으로부터 우측으로의 순서는 상기 복수의 출력 영상들의 시점들의 좌측으로부터 우측으로의 순서와 반대인, 영상 장치가 제공된다.In another aspect, an image processor and an image output unit, the image processor generates a plurality of multi-view output images based on a plurality of input images, the image output unit is a plurality of The output images are output, and the viewpoints of the plurality of output images are different from each other, and the order from the left to the right of the areas where the plurality of output images are projected in the space where the plurality of output images are projected is the plurality of outputs. An imaging apparatus is provided, which is in reverse order from the left to the right of the viewpoints of the images.
상기 복수의 출력 영상들은 연속된 공간 내에서 투사될 수 있다.The plurality of output images may be projected in a continuous space.
상기 연속된 공간은 복수일 수 있다.The continuous space may be plural.
상기 복수의 출력 영상들은 동일한 순서들로 상기 복수의 연속된 공간들의 각각으로 투사될 수 있다.The plurality of output images may be projected into each of the plurality of consecutive spaces in the same order.
상기 복수의 입력 영상들은 좌측 입력 영상 및 우측 입력 영상을 포함할 수 있다.The plurality of input images may include a left input image and a right input image.
상기 복수의 출력 영상들은 상기 좌측 입력 영상에 대응하는 최좌측 시점 출력 영상 및 상기 우측 입력 영상에 대응하는 최우측 시점 출력 영상을 포함할 수 있다.The plurality of output images may include a leftmost viewpoint output image corresponding to the left input image and a rightmost viewpoint output image corresponding to the right input image.
상기 최우측 시점 출력 영상은 상기 복수의 출력 영상들 중 최좌측으로 투사될 수 있다.The rightmost viewpoint output image may be projected to the leftmost side of the plurality of output images.
상기 최좌측 시점 출력 영상은 상기 복수의 출력 영상들 중 최우측으로 투사될 수 있다.The leftmost view output image may be projected to the rightmost side of the plurality of output images.
상기 영상 장치의 시청자가 상기 복수의 연속된 공간들 중 하나의 연속된 공간 내에 위치할 경우 상기 시청자의 좌안으로는 상기 복수의 출력 영상들 중 우측 시점 출력 영상이 투사될 수 있다.When the viewer of the imaging apparatus is located in one continuous space among the plurality of continuous spaces, a right view output image of the plurality of output images may be projected to the left eye of the viewer.
상기 영상 장치의 시청자가 상기 복수의 연속된 공간들 중 하나의 연속된 공간 내에 위치할 경우 상기 시청자의 우안으로는 상기 복수의 출력 영상들 중 좌측 시점 출력 영상이 투사될 수 있다.When the viewer of the imaging apparatus is located in one continuous space among the plurality of continuous spaces, a left view output image of the plurality of output images may be projected into the right eye of the viewer.
상기 좌측 시점 출력 영상 및 상기 우측 시점 출력 영상은 상기 복수의 출력 영상들 중 서로 인접한 시점들의 영상일 수 있다.The left viewpoint output image and the right viewpoint output image may be images of viewpoints adjacent to each other among the plurality of output images.
상기 좌측 시점 출력 영상의 시점은 상기 우측 시점 출력 영상의 시점에 비해 더 좌측의 시점일 수 있다.The viewpoint of the left viewpoint output image may be a left viewpoint than the viewpoint of the right viewpoint output image.
상기 시청자가 상기 복수의 연속된 공간들 중 2개의 연속된 공간들 내에 위치할 경우 상기 시청자의 좌안으로는 상기 최좌측 시점 출력 영상이 투사될 수 있다.When the viewer is located in two consecutive spaces of the plurality of consecutive spaces, the leftmost view output image may be projected to the left eye of the viewer.
상기 시청자가 상기 복수의 연속된 공간들 중 2개의 연속된 공간들 내에 위치할 경우 상기 시청자의 우안으로는 상기 최우측 시점 출력 영상이 투사될 수 있다.When the viewer is located in two consecutive spaces of the plurality of continuous spaces, the rightmost viewpoint output image may be projected into the right eye of the viewer.
상기 영상 출력부는, 복수의 픽셀들을 포함할 수 있다.The image output unit may include a plurality of pixels.
상기 복수의 출력 영상들의 대응하는 픽셀들은 상기 복수의 픽셀들 중 인접한 픽셀들일 수 있다.The corresponding pixels of the plurality of output images may be adjacent pixels among the plurality of pixels.
상기 영상 출력부는, 복수의 렌즈들을 더 포함할 수 있다.The image output unit may further include a plurality of lenses.
상기 인접한 픽셀들에 의해 방출되는 광들은 상기 복수의 렌즈들 중 상기 인접한 픽셀들의 전면에 위치한 렌즈를 통해 투사될 수 있다.Light emitted by the adjacent pixels may be projected through a lens located in front of the adjacent pixels of the plurality of lenses.
상기 렌즈는 상기 인접한 픽셀들의 좌측으로부터 우측으로의 순서와 반대되는 방향으로 상기 인접한 픽셀들의 광들을 투사할 수 있다.The lens may project the light of the adjacent pixels in a direction opposite to the order from the left to the right of the adjacent pixels.
도 1은 일 실시예에 따른, 영상 장치를 나타낸다.1 illustrates an imaging device according to an exemplary embodiment.
도 2는 일 실시예에 따른, 영상 처리 방법을 나타낸다.2 illustrates an image processing method according to an exemplary embodiment.
도 3은 일 실시예에 따른, 출력 영상의 생성 방법을 나타낸다.3 illustrates a method of generating an output image, according to an exemplary embodiment.
도 4는 일 실시예에 따른, 소정의 공간으로의 복수의 출력 영상들의 투사를 나타낸다.4 illustrates projection of a plurality of output images into a predetermined space, according to an embodiment.
도 5는 일 예에 따른, 복수의 소정의 공간으로의 복수의 출력 영상들의 투사를 나타낸다.5 illustrates projection of a plurality of output images into a plurality of predetermined spaces according to an example.
도 6은 일 예에 따른, 소정의 공간으로 투사된 복수의 출력 영상들 및 시청자 간의 관계를 나타낸다.6 illustrates a relationship between a plurality of output images projected into a predetermined space and a viewer according to an example.
도 7은 일 예에 따른, 렌즈에 의한 복수의 소정의 공간으로의 복수의 출력 영상들의 투사를 나타낸다.7 illustrates projection of a plurality of output images into a plurality of predetermined spaces by a lens according to an example.
도 8은 일 예에 따른, 소정의 공간으로 투사된 복수의 출력 영상들의 각각 간의 시점 차를 나타낸다.8 illustrates a view difference between each of a plurality of output images projected into a predetermined space, according to an example.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, exemplary embodiments will be described in detail with reference to the accompanying drawings. Like reference numerals in the drawings denote like elements.
도 1은 일 실시예에 따른, 영상 장치를 나타낸다.1 illustrates an imaging device according to an exemplary embodiment.
도 1에서는, 입력 영상에 기반하여 영상 처리를 수행하는 영상 장치(100)가 도시되었다.In FIG. 1, an imaging apparatus 100 that performs image processing based on an input image is illustrated.
영상 장치(100)는 통신부(110), 영상 처리부(120), 영상 출력부(130) 및 저장부(140)를 포함할 수 있다.The imaging apparatus 100 may include a communicator 110, an image processor 120, an image outputter 130, and a storage 140.
영상 장치(100)는 입력 영상을 처리하고, 영상 장치(100)의 시청자에게 3 차원의 입체 영상으로서 인식될 수 있는 출력 영상을 출력하는 장치일 수 있다. 영상 장치(100)의 시점이 서로 상이한 출력 영상들의 각각이 영상 장치(100)의 시청자의 좌안 및 우안으로 각각 투사됨에 따라, 시청자는 3D 안경 없이 영상 장치(100)로부터 출력된 영상을 3 차원의 입체 영상으로서 인식할 수 있다. 예컨대, 영상 장치(100)는 무안경 방식의 3D 디스플레이 장치로서, 3D 텔레비젼(Television; TV), 휴대폰 및 3D 모니터 또는 3D TV, 휴대폰 및 3D 모니터에 포함된 3 차원의 입체 영상 생성 장치일 수 있다.The imaging apparatus 100 may be an apparatus that processes an input image and outputs an output image that may be recognized as a 3D stereoscopic image to a viewer of the imaging apparatus 100. As each of the output images having different viewpoints of the imaging apparatus 100 are projected to the left and right eyes of the viewer of the imaging apparatus 100, respectively, the viewer may display an image output from the imaging apparatus 100 without 3D glasses. It can be recognized as a stereoscopic image. For example, the imaging apparatus 100 may be an autostereoscopic 3D display apparatus, and may be a 3D television, a mobile phone and a 3D monitor, or a 3D stereoscopic image generating apparatus included in a 3D TV, a mobile phone and a 3D monitor. .
영상 장치(100)는 다시점(multi-view) 3D 디스플레이 장치일 수 있다. 다시점 3D 디스플레이 장치는 2 시점 3D 디스플레이 장치에 비해 영상 장치(100)의 시청자가 3 차원의 입체 영상을 인식할 수 있는 시청 범위가 넓을 수 있다. 말하자면, 다시점 3D 디스플레이 장치의 시청자는 2 시점 3D 디스플레이 장치의 시청자보다 더 넓은 범위에서 3 차원의 입체 영상을 인식할 수 있다.The imaging apparatus 100 may be a multi-view 3D display apparatus. The multi-view 3D display device may have a wider viewing range in which a viewer of the imaging apparatus 100 may recognize a 3D stereoscopic image, as compared to the 2 view 3D display device. In other words, the viewer of the multiview 3D display device may recognize a 3D stereoscopic image in a wider range than the viewer of the two view 3D display device.
영상 장치(100)의 시청자는 영상 장치(100)로부터 소정의 적정 시청 거리만큼 떨어진 위치에서 3 차원의 입체 영상을 인식할 수 있다. 소정의 적정 시청 거리는 영상 장치(100)가 포함하는 구성요소들의 성능 및/또는 특성에 따라 결정될 수 있는 값일 수 있다. 소정의 적정 시청 거리는 영상 장치(100)의 시청자에 의해 영상 장치(100)의 출력 영상이 3 차원의 입체 영상으로서 가장 뚜렷하게 인식될 수 있는 영상 장치(100) 및 영상 장치(100)의 시청자 간의 거리일 수 있다. 말하자면, 영상 장치(100) 및 영상 장치(100)의 시청자 간의 거리가 소정의 적정 시청 거리인 경우, 영상 장치(100)의 시점이 서로 상이한 출력 영상들의 각각은 영상 장치(100)의 시청자의 좌안 및 우안의 각각으로 정확하게 투사될 수 있다.The viewer of the imaging apparatus 100 may recognize a 3D stereoscopic image at a position away from the imaging apparatus 100 by a predetermined appropriate viewing distance. The predetermined viewing distance may be a value that may be determined according to the performance and / or characteristics of the components included in the imaging apparatus 100. The predetermined optimal viewing distance is the distance between the viewer of the imaging apparatus 100 and the viewer of the imaging apparatus 100, in which the output image of the imaging apparatus 100 can be most clearly recognized as a three-dimensional stereoscopic image by the viewer of the imaging apparatus 100. Can be. In other words, when the distance between the imaging apparatus 100 and the viewers of the imaging apparatus 100 is a predetermined proper viewing distance, each of the output images having different viewpoints of the imaging apparatus 100 is different from the left eye of the viewer of the imaging apparatus 100. And can be projected accurately into each of the right eye.
통신부(190)는 영상 장치(100)와는 별개의 장치일 수도 있다. 통신부(190)는 유선 및/또는 무선의 통신 회선을 통해 입력 영상을 영상 장치(100)로 전달하는 장치일 수 있다.The communication unit 190 may be a device separate from the imaging device 100. The communication unit 190 may be a device that transmits an input image to the imaging apparatus 100 through a wired and / or wireless communication line.
통신부(190)로부터 입력된 입력 영상이 영상 장치(100)에 의해 처리 및 출력됨에 따라, 영상 장치(100)의 시청자는 3 차원의 입체 영상을 인식할 수 있다. 통신부(190)로 입력되는 입력 영상은, 영상 장치(100)에 의해 처리되는 영상일 수 있다. 입력 영상은 출력 영상의 생성을 위해 사용되는 영상일 수 있다. 통신부(190)는 스테레오 카메라 시스템의 일부로서 스테레오 카메라에 의해 촬영된 2 시점 영상을 영상 장치(100)로 전달하는 장치일 수 있다.As the input image input from the communication unit 190 is processed and output by the imaging apparatus 100, the viewer of the imaging apparatus 100 may recognize a 3D stereoscopic image. The input image input to the communication unit 190 may be an image processed by the imaging apparatus 100. The input image may be an image used for generating an output image. The communication unit 190 may be a device that transmits a two-view image captured by the stereo camera to the imaging device 100 as part of the stereo camera system.
입력 영상은 스테레오 카메라에 의해 촬영된 2 시점 영상일 수 있다. 입력 영상은 2 시점 영상이 압축 및/또는 인코딩된 데이터일 수 있다.The input image may be a two-view image captured by a stereo camera. The input image may be data in which a two view image is compressed and / or encoded.
통신부(110)는 유선 및/또는 무선의 통신 회선을 통해 통신부(190)로부터 입력 영상을 수신할 수 있다. 통신부(110)는 수신된 입력 영상을 영상 처리부(120)로 전달할 수 있다. 또는, 통신부(110)는 수신된 입력 영상을 저장부(140)에 저장할 수 있다.The communication unit 110 may receive an input image from the communication unit 190 through a wired and / or wireless communication line. The communication unit 110 may transmit the received input image to the image processing unit 120. Alternatively, the communication unit 110 may store the received input image in the storage 140.
통신부(110)는 네트워크 인터페이스 카드, 네트워크 인터페이스 칩 및 네트워킹 인터페이스 포트 등과 같은 하드웨어 모듈일 수 있다.The communicator 110 may be a hardware module such as a network interface card, a network interface chip, and a networking interface port.
영상 처리부(120)는 입력된 입력 영상에 기반하여 시점이 서로 상이한 복수의 출력 영상들을 생성하기 위해 필요한 연산을 처리하는 장치일 수 있다. 예컨대, 입력 영상이 인코딩된 데이터인 경우, 영상 처리부(120)는 입력 영상의 디코딩을 수행할 수 있다. 영상 처리부(120)는 복수의 출력 영상들을 생성하기 위해 필요한 연산을 처리하기 위한 적어도 하나의 프로세서(processor)를 포함할 수 있다. 예컨대, 영상 처리부(120)는 그래픽 처리 장치(graphics processing unit)를 포함할 수 있다.The image processor 120 may be a device that processes operations required to generate a plurality of output images having different viewpoints based on the input image. For example, when the input image is encoded data, the image processor 120 may decode the input image. The image processor 120 may include at least one processor for processing operations required to generate a plurality of output images. For example, the image processor 120 may include a graphics processing unit.
영상 처리부(120)는 다시점의 복수의 출력 영상들을 생성할 수 있다. 입력 영상은 전술된 통신부(190)로부터 수신된 영상 또는 후술될 저장부(140)에 저장된 영상일 수 있다. 입력 영상은 2 시점 영상 또는 깊이 정보를 포함하는 2 차원의 영상일 수 있다.The image processor 120 may generate a plurality of output images of a multiview. The input image may be an image received from the communication unit 190 or an image stored in the storage unit 140 to be described later. The input image may be a two-view image or a two-dimensional image including depth information.
입력 영상으로부터 시점이 서로 상이한 출력 영상들이 생성되는 방법에 대해서는, 하기에서 도 2 및 도 3을 참조하여 더 자세하게 설명된다.A method of generating output images having different viewpoints from the input image will be described in more detail with reference to FIGS. 2 and 3 below.
저장부(140)는 영상 장치(100)의 설정 및 동작에 관련된 정보 및/또는 입력 영상을 저장할 수 있다. 저장부(140)에 저장된 입력 영상은 통신부(190)로부터 전송된 영상 또는 통신부(190)가 아닌 다른 외부 전자 장치 또는 전자 매체로부터 전송된 영상일 수 있다. 예컨대, 저장부(140)에 저장된 입력 영상은 깊이 정보를 포함할 수 있다.The storage unit 140 may store information related to the setting and operation of the imaging apparatus 100 and / or the input image. The input image stored in the storage 140 may be an image transmitted from the communication unit 190 or an image transmitted from an external electronic device or an electronic medium other than the communication unit 190. For example, the input image stored in the storage 140 may include depth information.
저장부(140)는 하드 디스크 드라이브(Hard Disk Drive; HDD), 솔리드 스테이트 드라이브(Solid State Drive; SSD) 및 플래시 메모리(flash) 등과 같은 정보 저장을 위한 하드웨어 모듈일 수 있다.The storage 140 may be a hardware module for storing information such as a hard disk drive (HDD), a solid state drive (SSD), a flash memory, and the like.
영상 출력부(130)는 영상 처리부(120)에 의해 생성된 출력 영상을 출력하고, 출력 영상을 영상 장치(100)의 시청자가 3 차원의 입체 영상을 인식할 수 있는 공간으로 투사시키는 장치일 수 있다.The image output unit 130 may be an apparatus that outputs an output image generated by the image processor 120 and projects the output image into a space where a viewer of the imaging apparatus 100 may recognize a 3D stereoscopic image. have.
도시되지는 않았으나, 영상 출력부(130)는 디스플레이 패널을 포함할 수 있다. 영상 출력부(130)의 디스플레이 패널은 복수의 픽셀들을 포함할 수 있다. 예컨대, 영상 출력부(130)는 액정 디스플레이(Liquid Crystal Display; LCD), 플라즈마 디스플레이 패널(Plasma Display Panel; PDP) 장치 또는 유기 발광 다이오드(Organic Light Emitting Diodes; OLED) 디스플레이 장치일 수 있다.Although not shown, the image output unit 130 may include a display panel. The display panel of the image output unit 130 may include a plurality of pixels. For example, the image output unit 130 may be a liquid crystal display (LCD), a plasma display panel (PDP) device, or an organic light emitting diode (OLED) display device.
영상 처리부(120)에 의해 생성된 출력 영상은 영상 출력부(130)의 픽셀로 할당됨으로써 출력될 수 있다. 영상 출력부(130)에 의해 출력된 출력 영상은 영상 출력부(130)로부터 소정의 적정 시청 거리만큼 떨어진 곳에 위치한 영상 장치(100)의 시청자의 좌안 및 우안으로 투사될 수 있다.The output image generated by the image processor 120 may be output by being assigned to the pixel of the image output unit 130. The output image output by the image output unit 130 may be projected to the left and right eyes of the viewer of the imaging apparatus 100 located at a predetermined viewing distance from the image output unit 130.
영상 처리부(120)에 의해 생성된 출력 영상의 영상 처리부(130) 상에서의 출력 및 영상 처리부(120)에 의해 생성된 출력 영상이 공간으로 투사되는 방법에 대해서는, 하기에서 도 2 내지 도 8을 참조하여 더 자세하게 설명된다.For a method of outputting the output image generated by the image processor 120 on the image processor 130 and the output image generated by the image processor 120 to the space, see FIGS. 2 to 8 below. This is explained in more detail.
도 2는 일 실시예에 따른, 영상 처리 방법을 나타낸다.2 illustrates an image processing method according to an exemplary embodiment.
도 1을 참조하여 전술된 설명에 따르면, 영상 처리부(120)는 입력 영상에 기반하여 다시점의 복수의 출력 영상들을 생성할 수 있고, 영상 출력부(130)는 영상 처리부(120)에 의해 생성된 복수의 출력 영상들을 출력할 수 있다.According to the description above with reference to FIG. 1, the image processor 120 may generate a plurality of output images of a multiview based on an input image, and the image output unit 130 is generated by the image processor 120. The plurality of output images may be output.
단계(210)에서, 통신부(110)는 복수의 입력 영상들을 수신할 수 있다. 복수의 입력 영상들은 서로 상이한 시점의 복수의 영상들일 수 있다. 복수의 입력 영상들은 좌측 시점의 영상인 좌측 입력 영상 및 좌측 입력 영상에 비해 우측 시점의 영상인 우측 입력 영상을 포함할 수 있다.In operation 210, the communicator 110 may receive a plurality of input images. The plurality of input images may be a plurality of images at different viewpoints. The plurality of input images may include a left input image that is an image of a left view and a right input image that is an image of a right view as compared to a left input image.
좌측 입력 영상은 우측 입력 영상이 포함하지 않는 최좌측의 정보를 더 포함하는 영상일 수 있다. 말하자면, 좌측 입력 영상이 포함하는 정보는 사람이 좌안을 통해 인식하는 시각 정보에 대응할 수 있다. 우측 입력 영상은 좌측 입력 영상이 포함하지 않는 최우측의 정보를 더 포함하는 영상일 수 있다. 말하자면, 우측 입력 영상이 포함하는 정보는 사람이 우안을 통해 인식하는 시각 정보에 대응할 수 있다. 예컨대, 좌측 입력 영상 및 우측 입력 영상은 스테레오 카메라의 각 렌즈를 통해 촬영된 영상일 수 있다.The left input image may be an image further including leftmost information not included in the right input image. In other words, the information included in the left input image may correspond to visual information that a person recognizes through the left eye. The right input image may be an image further including the rightmost information not included in the left input image. In other words, the information included in the right input image may correspond to visual information that a person recognizes through the right eye. For example, the left input image and the right input image may be images captured by each lens of the stereo camera.
단계(220)에서, 영상 처리부(120)는 복수의 입력 영상들에 기반하여 다시점의 복수의 출력 영상들을 생성할 수 있다. 말하자면, 복수의 출력 영상들의 각각은 좌측 입력 영상 및 우측 입력 영상을 포함하는 복수의 입력 영상들로부터 생성될 수 있다.In operation 220, the image processor 120 may generate a plurality of output images of a multiview based on the plurality of input images. In other words, each of the plurality of output images may be generated from a plurality of input images including a left input image and a right input image.
영상 처리부(120)에 의해 생성된 복수의 출력 영상들의 시점들은 서로 상이할 수 있다. 예컨대, 복수의 출력 영상들은 복수의 입력 영상들 중 최좌측의 정보를 포함하는 좌측 입력 영상에 대응하는 최좌측 시점 출력 영상 및 입력 영상들 중 최우측의 정보를 포함하는 입력 영상의 우측 입력 영상에 대응하는 최우측 시점 출력 영상을 포함할 수 있다.The viewpoints of the plurality of output images generated by the image processor 120 may be different from each other. For example, the plurality of output images may be output to a left input view image corresponding to the left input image including the leftmost information among the plurality of input images and a right input image of the input image including the rightmost information among the input images. It may include a corresponding rightmost view output image.
영상 처리부(120)에 의해 생성된 복수의 출력 영상들의 개수는 복수의 입력 영상들의 개수와 상이할 수 있다. 예컨대, 영상 처리부(120)에 의해 생성된 복수의 출력 영상들의 개수는 복수의 입력 영상들의 개수 이상일 수 있다. 복수의 입력 영상들의 각각은 스테레오 카메라의 각 렌즈를 통해 촬영된 영상일 수 있다. 복수의 입력 영상들이 2개 인 경우, 복수의 출력 영상들은 최좌측 시점 출력 영상 및 최우측 시점 출력 영상 외에 하나 이상의 서로 상이한 시점의 중간 시점 출력 영상들을 포함할 수 있다.The number of output images generated by the image processor 120 may be different from the number of input images. For example, the number of output images generated by the image processor 120 may be equal to or greater than the number of input images. Each of the plurality of input images may be an image photographed through each lens of the stereo camera. When the plurality of input images are two, the plurality of output images may include one or more intermediate view output images of one or more different views in addition to the left view output image and the right view output image.
중간 시점 출력 영상들의 각각은 최좌측 시점 출력 영상보다는 우측의 정보를 더 포함하고, 최우측 시점 출력 영상보다는 좌측의 정보를 더 포함하는 영상일 수 있다. 예컨대, 영상 처리부(120)에 의해 생성된 복수의 출력 영상들은 적어도 3개의 출력 영상들을 포함할 수 있다. 복수의 출력 영상들이 3개 이상인 경우, 복수의 출력 영상들 중 2개는 최좌측 시점 출력 영상 및 최우측 시점 출력 영상일 수 있다.Each of the intermediate view output images may be an image further including information on the right side than the leftmost view output image, and further including information on the left side than the rightmost view output image. For example, the plurality of output images generated by the image processor 120 may include at least three output images. When there are three or more output images, two of the plurality of output images may be a leftmost viewpoint output image and a rightmost viewpoint output image.
복수의 입력 영상들으로부터 다시점의 복수의 출력 영상들이 생성되는 방법에 대해서는, 하기에서 도 3을 참조하여 더 자세하게 설명된다.A method of generating a plurality of output images of a multiview from a plurality of input images will be described in more detail with reference to FIG. 3 below.
단계(230)에서, 영상 출력부(130)는 영상 처리부(120)에 의해 생성된 복수의 출력 영상들을 출력할 수 있다. 영상 처리부(120)에 의해 생성된 복수의 출력 영상들은 영상 출력부(130)의 디스플레이 패널 상의 서로 상이한 위치에서 출력될 수 있다. 영상 처리부(120)에 의해 생성된 복수의 출력 영상들의 각각이 출력되는 디스플레이 패널 상의 위치는 각 출력 영상이 할당된 디스플레이 패널의 픽셀일 수 있다. 영상 처리부(120)에 의해 생성된 복수의 출력 영상들의 각각은 디스플레이 패널의 인접한 픽셀들의 각각에 출력될 수 있다. 영상 처리부(120)에 의해 생성된 복수의 출력 영상들의 대응하는 픽셀들은 디스플레이 패널의 복수의 픽셀들 중 인접한 픽셀들일 수 있다. 영상 처리부(120)에 의해 생성된 복수의 출력 영상들의 대응하는 픽셀들은 영상 출력부(130)의 복수의 픽셀들 중 복수의 출력 영상들의 각각이 출력되는 픽셀들일 수 있다. 예컨대, 영상 처리부(120)에 의해 생성된 각 출력 영상은 최좌측 시점 출력 영상으로부터 최우측 시점 출력 영상까지의 시점들의 순서대로 영상 출력부(130)의 디스플레이 패널의 인접한 픽셀들의 각각에서 출력될 수 있다.In operation 230, the image outputter 130 may output a plurality of output images generated by the image processor 120. The plurality of output images generated by the image processor 120 may be output at different positions on the display panel of the image output unit 130. The position on the display panel where each of the plurality of output images generated by the image processor 120 is output may be a pixel of the display panel to which each output image is assigned. Each of the plurality of output images generated by the image processor 120 may be output to each of adjacent pixels of the display panel. The corresponding pixels of the plurality of output images generated by the image processor 120 may be adjacent pixels among the plurality of pixels of the display panel. The corresponding pixels of the plurality of output images generated by the image processor 120 may be pixels from which each of the plurality of output images is output from among the plurality of pixels of the image output unit 130. For example, each output image generated by the image processor 120 may be output from each of adjacent pixels of the display panel of the image output unit 130 in the order of viewpoints from the leftmost viewpoint output image to the rightmost viewpoint output image. have.
영상 출력부(130)의 각 픽셀에 출력되는 각 출력 영상은 각 출력 영상과 관련된 정보를 포함하는 광일 수 있다. 예컨대, 각 픽셀에서 출력된 광이 포함하는 각 출력 영상의 정보는 각 출력 영상의 색상 정보(예컨대, RGB 값)일 수 있다.Each output image output to each pixel of the image output unit 130 may be light including information related to each output image. For example, the information of each output image included in the light output from each pixel may be color information (eg, an RGB value) of each output image.
영상 처리부(120)에 의해 생성된 복수의 출력 영상들은 연속된 공간 내에서 투사될 수 있다. 복수의 출력 영상들이 투사된 소정의 공간 내의 각 출력 영상이 투사된 영역 간에는 출력 영상이 투사되지 않은 영역이 존재하지 않을 수 있다. 말하자면, 복수의 출력 영상들의 각각은 소정의 공간 내에서 빈틈 없이 또는 시청자가 느낄 수 없을 정도의 빈틈만을 가지도록 투사될 수 있다.The plurality of output images generated by the image processor 120 may be projected in a continuous space. An area in which the output image is not projected may not exist between regions in which each output image is projected in a predetermined space where a plurality of output images are projected. In other words, each of the plurality of output images may be projected so as to have no gaps in the predetermined space or enough gaps that the viewer cannot feel.
영상 처리부(120)에 의해 생성된 복수의 출력 영상들의 각각이 투사되는 소정의 공간 내의 영역들은 서로 상이할 수 있다. 말하자면, 복수의 출력 영상들이 투사된 소정의 공간 내에서 2개 이상의 출력 영상이 중복으로 투사된 영역은 존재하지 않을 수 있다.Regions in a predetermined space where each of the plurality of output images generated by the image processor 120 are projected may be different from each other. In other words, an area in which two or more output images are repeatedly projected in a predetermined space where a plurality of output images are projected may not exist.
영상 장치(100)와 소정의 적정 시청 거리만큼 떨어진 평면 상에 존재하는 소정의 공간으로 영상 처리부(120)에 의해 생성된 복수의 출력 영상들이 투사되는 경우, 복수의 출력 영상들은 연속된 공간 내에서 투사될 수 있고, 복수의 출력 영상들의 각각이 투사되는 소정의 공간 내의 영역들은 서로 상이할 수 있다. 이러한 경우, 복수의 출력 영상들이 투사된 소정의 공간 내에 위치한 영상 장치(100)의 시청자는 소정의 공간의 전 영역에서 출력 영상을 인식할 수 있고, 영상 장치(100)의 시청자의 좌안 및 우안에는 각각 복수의 출력 영상들 중 하나의 출력 영상만 투사될 수 있다.When a plurality of output images generated by the image processing unit 120 are projected into a predetermined space existing on a plane spaced apart from the imaging apparatus 100 by a predetermined proper viewing distance, the plurality of output images are arranged in a continuous space. The areas within a given space in which each of the plurality of output images are projected may be different from each other. In this case, the viewer of the imaging apparatus 100 located in the predetermined space where the plurality of output images are projected may recognize the output image in all areas of the predetermined space, and the left and right eyes of the viewer of the imaging apparatus 100 may be Only one output image of each of the plurality of output images may be projected.
영상 처리부(120)에 의해 생성된 복수의 출력 영상들의 각각이 공간으로 투사되는 방법에 대해서는, 하기에서 도 4 내지 도 8을 참조하여 더 자세하게 설명된다.A method of projecting each of the plurality of output images generated by the image processor 120 into the space will be described in more detail with reference to FIGS. 4 to 8 below.
앞서 도 1 및 도 2를 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.Since the technical contents described above with reference to FIGS. 1 and 2 may be applied as it is, a more detailed description will be omitted below.
도 3은 일 실시예에 따른, 출력 영상의 생성 방법을 나타낸다.3 illustrates a method of generating an output image, according to an exemplary embodiment.
도 3은 도 2를 참조하여 전술된, 좌측 입력 영상(310) 및 우측 입력 영상(320)을 포함하는 복수의 입력 영상들로부터 복수의 출력 영상들이 생성되는 경우가 도시되었다. 영상들(310 내지 345)의 각각 내에 표시된 원의 위치의 차이는 영상들(310 내지 345) 간의 시점 차를 나타낼 수 있다.3 illustrates a case where a plurality of output images are generated from a plurality of input images including a left input image 310 and a right input image 320 described above with reference to FIG. 2. The difference in the position of the circle displayed in each of the images 310 to 345 may represent a viewpoint difference between the images 310 to 345.
좌측 입력 영상(310) 및 우측 입력 영상(320)은 스테레오 카메라에 의해 촬영된 영상으로서 도 1의 저장부(140)에 저장된 입력 영상들 또는 통신부(190)로부터 영상 장치(100)로 전송된 입력 영상들일 수 있다.The left input image 310 and the right input image 320 are images captured by a stereo camera, input images stored in the storage 140 of FIG. 1, or inputs transmitted from the communication unit 190 to the imaging apparatus 100. May be images.
입력 영상들(310 및 320)은 입력 영상들(310 및 320) 내에 표현된 대상(object)의 깊이감을 나타내는 소정의 깊이 정보들을 포함할 수 있다. 예컨대, 영상 장치(100)의 시청자의 좌안 및 우안에 좌측 입력 영상(310)만 투사되는 경우, 영상 장치(100)의 시청자는 경험적 인식에 기반하여, 좌측 입력 영상(310)의 소정의 깊이 정보들을 통해 좌측 입력 영상(310) 내에 표현된 대상에 대해 입체감을 느낄 수 있다. 입력 영상들(310 및 320) 내에 표현된 대상의 깊이감을 나타내는 소정의 깊이 정보는 영상들(310 및 320) 내에 표현된 대상의 대상(object)의 모양 정보, 크기 정보, 원근 정보, 오클루젼(occlusion) 정보 및 라이팅(lighting) 정보 중 하나 이상의 정보일 수 있다.The input images 310 and 320 may include predetermined depth information representing a depth of an object expressed in the input images 310 and 320. For example, when only the left input image 310 is projected to the left eye and the right eye of the viewer of the imaging apparatus 100, the viewer of the imaging apparatus 100 may determine predetermined depth information of the left input image 310 based on empirical recognition. Through this, the user may feel a 3D effect on the object represented in the left input image 310. The predetermined depth information representing the depth of the object represented in the input images 310 and 320 may include shape information, size information, perspective information, and occlusion of the object of the object represented in the images 310 and 320. The information may be one or more of occlusion information and lighting information.
좌측 입력 영상(310) 및 우측 입력 영상(320)의 시점 간의 차는 1 시점일 수 있다. 좌측 입력 영상(310) 및 우측 입력 영상(320)의 시점 간의 차는 영상 장치(100)에 대해 예상되는 영상 장치(100)의 시청자의 동공 간 거리(Interpupillary Distance; IPD)에 기반하여 결정될 수 있다. 예컨대, 영상들의 시점들 간의 차가 1 시점인 경우, 1 시점은 1 IPD와 동일할 수 있다. 1 IPD는 일반적인 사람의 동공 간 거리에 기반하여 결정된 값일 수 있다. 말하자면, 일반적으로 사람이 좌안을 통해 인식하는 시각 정보 및 우안을 통해 인식하는 시각 정보의 시점 차이는 1 IPD일 수 있다. 1 IPD는 스테레오 카메라의 두 렌즈 간의 거리에 대응하는 값일 수 있다.The difference between the viewpoints of the left input image 310 and the right input image 320 may be one viewpoint. The difference between the viewpoints of the left input image 310 and the right input image 320 may be determined based on an interpupillary distance (IPD) of a viewer of the imaging apparatus 100 that is expected with respect to the imaging apparatus 100. For example, when the difference between the viewpoints of the images is one viewpoint, one viewpoint may be equal to one IPD. 1 The IPD may be a value determined based on a distance between pupils of a general person. In other words, in general, a viewpoint difference between visual information recognized through a left eye and visual information recognized through a right eye may be 1 IPD. 1 IPD may be a value corresponding to a distance between two lenses of a stereo camera.
영상 장치(100)의 시청자는 좌측 입력 영상(310)이 좌안으로 투사되고 우측 입력 영상(320)이 우안으로 투사되고 좌측 입력 영상(310) 및 우측 입력 영상(320)의 시점 간의 차가 1 IPD일 때 영상 장치(100)의 시청자의 양안으로 투사된 영상들을 스테레오스코픽(stereoscopic)의 입체 영상으로서 인식할 있다.The viewer of the imaging apparatus 100 is that the left input image 310 is projected to the left eye, the right input image 320 is projected to the right eye, and the difference between the viewpoints of the left input image 310 and the right input image 320 is 1 IPD. In this case, the images projected by both eyes of the viewer of the imaging apparatus 100 may be recognized as stereoscopic stereoscopic images.
영상들(330 내지 350)은 좌측 입력 영상(310) 및 우측 입력 영상(320)로부터 생성된 출력 영상들로서 최좌측 시점 출력 영상(330), 제1 중간 시점 출력 영상(335), 제2 중간 시점 출력 영상(340) 및 최우측 시점 출력 영상(345)일 수 있다.The images 330 to 350 are output images generated from the left input image 310 and the right input image 320, and include the leftmost view output image 330, the first intermediate view output image 335, and the second intermediate view. The output image 340 and the rightmost view output image 345 may be provided.
최좌측 시점 출력 영상(330)은 좌측 입력 영상(310)에 대응할 수 있다. 말하자면, 최좌측 시점 출력 영상(330)이 포함하는 정보는 사람이 좌안을 통해 인식하는 시각 정보에 대응할 수 있다. 최우측 시점 출력 영상(345)은 우측 입력 영상(320)에 대응할 수 있다. 말하자면, 최우측 시점 출력 영상(345)이 포함하는 정보는 사람이 우안을 통해 인식하는 시각 정보에 대응할 수 있다.The leftmost view output image 330 may correspond to the left input image 310. In other words, the information included in the leftmost view output image 330 may correspond to visual information that a person recognizes through the left eye. The rightmost view output image 345 may correspond to the right input image 320. In other words, the information included in the rightmost viewpoint output image 345 may correspond to visual information that a person recognizes through the right eye.
중간 시점 출력 영상들의 각각은 최좌측 시점 출력 영상보다는 우측의 정보를 더 포함하고, 최우측 시점 출력 영상보다는 좌측의 정보를 더 포함하는 영상일 수 있다. 말하자면, 중간 시점 출력 영상들의 각각은 복수의 출력 영상들 중 최좌측 시점 및 최우측 시점 간에 존재하는 시점의 출력 영상일 수 있다.Each of the intermediate view output images may be an image further including information on the right side than the leftmost view output image, and further including information on the left side than the rightmost view output image. In other words, each of the intermediate view output images may be an output image of a view existing between the leftmost view and the right view among the plurality of output images.
복수의 입력 영상들(310 및 320)로부터 생성된 복수의 출력 영상들(330 내지 345)은 복수의 입력 영상들(310 및 320) 중 좌측 입력 영상(310)에 대응하는 최좌측 시점 출력 영상(330), 복수의 입력 영상들(310 및 320) 중 우측 입력 영상(320)에 대응하는 최우측 시점 출력 영상(345) 및 복수의 입력 영상들(310 및 320)의 내삽 영상을 포함할 수 있다. 복수의 입력 영상들(310 및 320)의 내삽 영상은 좌측 입력 영상(310) 및 우측 입력 영상(320) 간의 내삽에 기반하여 생성된 영상일 수 있다. 내삽 영상은 서로 상이한 시점의 하나 이상의 영상들로서 생성될 수 있다. 예컨대, 제1 중간 시점 출력 영상(335) 및 제2 중간 시점 출력 영상(340)은 좌측 입력 영상(310) 및 우측 입력 영상(320)의 내삽에 기반하여 생성된 내삽 영상일 수 있다.The plurality of output images 330 to 345 generated from the plurality of input images 310 and 320 may include the leftmost view output image corresponding to the left input image 310 of the plurality of input images 310 and 320. 330, the rightmost view output image 345 corresponding to the right input image 320 among the plurality of input images 310 and 320, and an interpolation image of the plurality of input images 310 and 320. . The interpolation image of the plurality of input images 310 and 320 may be an image generated based on the interpolation between the left input image 310 and the right input image 320. The interpolated image may be generated as one or more images of different viewpoints. For example, the first intermediate view output image 335 and the second intermediate view output image 340 may be interpolation images generated based on interpolation of the left input image 310 and the right input image 320.
좌측 입력 영상(310) 및 우측 입력 영상(320)의 내삽은 좌측 입력 영상(310) 및 우측 입력 영상(320)이 포함하는 정보를 사용하여, 좌측 입력 영상(310)의 시점 및 우측 입력 영상(320)의 시점 간에 존재하는 중간 시점의 영상을 생성하는 과정일 수 있다. 영상 처리부(120)는 좌측 입력 영상(310) 및 우측 입력 영상(320)에 영상 보간 기법을 적용함으로써 내삽 영상을 생성할 수 있다. 영상 처리부(120)가 좌측 입력 영상(310) 및 우측 입력 영상(320)에 적용하는 영상 보간 기법에는 영상의 보간을 위해 사용될 수 있는 알려진 하나 이상의 알고리즘들이 사용될 수 있다.The interpolation of the left input image 310 and the right input image 320 is performed by using the information included in the left input image 310 and the right input image 320, and the viewpoint and the right input image of the left input image 310 ( It may be a process of generating an image of an intermediate view existing between the viewpoints of 320. The image processor 120 may generate an interpolated image by applying an image interpolation technique to the left input image 310 and the right input image 320. One or more known algorithms that may be used for interpolation of an image may be used in an image interpolation technique applied by the image processor 120 to the left input image 310 and the right input image 320.
복수의 출력 영상들(330 내지 345)은 전술된 복수의 입력 영상들(310 및 320)이 포함하는 소정의 깊이 정보들을 포함할 수 있다.The plurality of output images 330 to 345 may include predetermined depth information included in the plurality of input images 310 and 320 described above.
복수의 출력 영상들(330 내지 345)의 각각은 영상 출력부(130)에 의해 도 2를 참조하여 전술된 소정의 공간의 서로 상이한 영역으로 투사될 수 있다. 예컨대, 최우측 시점 출력 영상(340)으로부터 최좌측 시점 출력 영상(330)까지의 시점들의 순서대로 복수의 출력 영상들(330 내지 345)의 각각은 소정의 공간이 4등분된 영역들 중 최좌측의 영역부터 최우측의 영역까지 소정의 공간을 4등분한 영역들의 각각으로 투사될 수 있다.Each of the plurality of output images 330 to 345 may be projected by the image output unit 130 to different regions of the predetermined space described above with reference to FIG. 2. For example, each of the plurality of output images 330 to 345 in the order of viewpoints from the rightmost viewpoint output image 340 to the leftmost viewpoint output image 330 is the leftmost of the regions where a predetermined space is divided into four sections. From the region of to the region of the rightmost side, the predetermined space can be projected into each of the regions which are divided into quarters.
복수의 출력 영상들(330 내지 345)의 각각이 공간으로 투사되는 방법에 대해서는, 하기에서 도 4 내지 도 8을 참조하여 더 자세하게 설명된다.A method in which each of the plurality of output images 330 to 345 is projected into a space will be described in more detail with reference to FIGS. 4 to 8 below.
도 4에서는 2개의 입력 영상들로부터 4개의 출력 영상들이 생성되는 경우만 도시되었으나, 전술된 설명은 도시된 것과는 달리, 하나 이상의 입력 영상들로부터 5개 이상의 출력 영상들이 생성되는 경우에도 적용될 수 있다. 하나의 입력 영상으로부터 복수의 출력 영상이 생성되는 경우, 입력 영상은 복수의 출력 영상들의 생성을 위한 추가적인 정보(예컨대, 깊이 정보)를 포함할 수 있다.In FIG. 4, only four output images are generated from two input images, but the above description may be applied to a case in which five or more output images are generated from one or more input images. When a plurality of output images are generated from one input image, the input image may include additional information (eg, depth information) for generating the plurality of output images.
영상 처리부(120)에 의해 생성되는 복수의 출력 영상들이 N개인 경우, 영상 장치(100)는 N 시점 무안경 방식의 3D 디스플레이 장치일 수 있다. 예컨대, 영상 처리부(120)에 의해 4개의 출력 영상들(330 내지 345)이 생성되는 경우 영상 장치(100)는 4 시점 무안경 방식의 3D 디스플레이 장치일 수 있다.When there are N output images generated by the image processor 120, the imaging apparatus 100 may be an N-view autostereoscopic 3D display apparatus. For example, when four output images 330 to 345 are generated by the image processor 120, the imaging apparatus 100 may be a four-view autostereoscopic 3D display apparatus.
앞서 도 1 및 도 2를 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.Since the technical contents described above with reference to FIGS. 1 and 2 may be applied as it is, a more detailed description will be omitted below.
도 4는 일 실시예에 따른, 소정의 공간으로의 복수의 출력 영상들의 투사를 나타낸다.4 illustrates projection of a plurality of output images into a predetermined space, according to an embodiment.
도 4에서는 영상 출력부(130)에 출력된 복수의 출력 영상들(330 내지 345)의 각각이 연속된 공간(410)의 서로 상이한 영역으로 투사되는 경우가 도시되었다. 복수의 출력 영상들(330 내지 345)은 연속된 공간(410) 내에서 투사될 수 있다.In FIG. 4, a case in which each of the plurality of output images 330 to 345 output to the image output unit 130 is projected onto different areas of the continuous space 410 is illustrated. The plurality of output images 330 to 345 may be projected in the continuous space 410.
연속된 공간(410)은 도 2를 참조하여 전술된 영상 장치(100)로부터 소정의 적정 시청 거리만큼 떨어진 평면 상에 존재하는 공간일 수 있다.The continuous space 410 may be a space that exists on a plane separated by a predetermined viewing distance from the imaging apparatus 100 described above with reference to FIG. 2.
복수의 출력 영상들(330 내지 345) 내에 표시된 1 내지 2의 값들은 복수의 출력 영상들(330 내지 345) 간의 시점 차를 구분하기 위해 표시된 상대적인 값일 수 있다. 예컨대, 최좌측 시점 출력 영상(330)에 표시된 값 1은 최좌측 시점의 영상임을 나타낼 수 있다. 각 출력 영상에 표시된 숫자가 큰 출력 영상일수록 우측 시점의 출력 영상일 수 있다. 최우측 시점 출력 영상(345)에 표시된 값은 2일 수 있다. 최좌측 시점 출력 영상(330) 및 최우측 시점 출력 영상(345) 간의 시점 차이는 1로서, 최좌측 시점 출력 영상(330) 및 최우측 시점 출력 영상(345) 간의 시점 차이가 1 IPD임을 나타낼 수 있다. Values 1 to 2 displayed in the plurality of output images 330 to 345 may be relative values displayed to distinguish a viewpoint difference between the plurality of output images 330 to 345. For example, a value 1 displayed in the leftmost view output image 330 may represent an image of the leftmost view. The larger the number displayed on each output image, the more the output image may be an output image of the right view. The value displayed on the rightmost viewpoint output image 345 may be 2. The difference in viewpoints between the leftmost viewpoint output image 330 and the rightmost viewpoint output image 345 is 1, indicating that the viewpoint difference between the leftmost viewpoint output image 330 and the rightmost viewpoint output image 345 is 1 IPD. have.
따라서, 복수의 출력 영상들(330 내지 345) 중 최좌측 출력 영상(330)의 시점 및 최우측 출력 영상(345)의 시점 간의 차는 1 시점일 수 있고, 복수의 출력 영상들(330 내지 345) 중 인접한 2 개의 출력 영상들의 시점들 간의 차는 1 시점 이내일 수 있다.복수의 출력 영상들(330 내지 345)의 시점들에 있어서, 서로 인접한 2개의 출력 영상들의 시점들 간의 차는 일정할 수 있다. 예컨대, 도시된 것처럼 복수의 출력 영상들(330 내지 345) 중 인접한 영상들의 시점 차는 일정할 수 있다(다만, 도 4에서는, 편의 상 소수점 2 자리 이하의 값은 버려짐). 또는, 영상 처리부(120)는 복수의 출력 영상들(330 내지 345) 중 서로 인접한 2개의 출력 영상들의 간의 시점 차를 조절할 수 있다. 예컨대, 영상 처리부(120)는 내삽 영상들의 생성 시 좌측 입력 영상(310) 및 우측 입력 영상(320)에 적용되는 영상 보간 기법에 사용되는 변수들을 조정함으로써 서로 인접한 2개의 출력 영상들의 시점들 간의 차를 조절할 수 있다.Accordingly, the difference between the viewpoint of the leftmost output image 330 and the viewpoint of the rightmost output image 345 among the plurality of output images 330 through 345 may be one viewpoint, and the plurality of output images 330 through 345. The difference between the viewpoints of two adjacent output images may be within one viewpoint. In the viewpoints of the plurality of output images 330 to 345, the difference between the viewpoints of two adjacent output images may be constant. For example, as illustrated, a difference in viewpoints of adjacent images among the plurality of output images 330 to 345 may be constant (however, in FIG. 4, values of two decimal places or less are discarded for convenience). Alternatively, the image processor 120 may adjust a viewpoint difference between two adjacent output images among the plurality of output images 330 to 345. For example, the image processor 120 adjusts variables used in an image interpolation technique applied to the left input image 310 and the right input image 320 when generating the interpolated images, and thus the difference between the viewpoints of two adjacent output images. Can be adjusted.
복수의 출력 영상들(330 내지 345)이 투사되는 연속된 공간(410) 내에서 복수의 출력 영상들(330 내지 345)이 투사되는 영역들의 좌측으로부터 우측으로의 순서는 복수의 출력 영상(330 내지 345)들의 시점들의 좌측으로부터 우측으로의 순서와 반대일 수 있다. 예컨대, 도시된 것처럼 복수의 출력 영상들(330 내지 345)의 각각은 복수의 출력 영상들(330 내지 345)의 시점들의 좌측으로부터 우측으로의 순서로 영상 출력부(130)의 서로 인접한 픽셀들의 각각에 좌측으로부터 우측으로의 순서로 출력될 수 있고, 출력된 복수의 출력 영상들(330 내지 345)의 각각은 연속된 공간(410) 내에서 복수의 출력 영상들(330 내지 345)의 시점들의 우측으로부터 좌측으로의 순서로 연속된 공간(410)의 4등분된 영역들 중 최좌측의 영역에서부터 우측 방향으로 각각 투사될 수 있다. 연속된 공간(410)의 4등분된 영역들 각각의 크기는 동일한 크기일 수 있고, 각 영역의 폭은 1 IPD 이하일 수 있다. 말하자면, 복수의 출력 영상들(330 내지 345)의 각각이 도달하는 연속된 공간(410) 내의 각 영역의 폭은 1 IPD 이하일 수 있다.The order from the left to the right of the areas in which the plurality of output images 330 to 345 are projected in the continuous space 410 in which the plurality of output images 330 to 345 are projected is the plurality of output images 330 to 345. The order from the left to the right of the time points of the 345 may be reversed. For example, as illustrated, each of the plurality of output images 330 to 345 is each of pixels adjacent to each other of the image output unit 130 in the order from the left to the right of the viewpoints of the plurality of output images 330 to 345. Can be output in order from left to right, and each of the outputted output images 330 to 345 is the right side of the viewpoints of the plurality of output images 330 to 345 in the continuous space 410. From the leftmost region among the quadrant regions of the continuous space 410 in the order from the left to the left may be projected in the right direction. The size of each of the quadrant regions of the continuous space 410 may be the same size, and the width of each region may be 1 IPD or less. In other words, the width of each region in the continuous space 410 that each of the plurality of output images 330 to 345 reaches may be 1 IPD or less.
예컨대, 최우측 시점 출력 영상(345)은 복수의 출력 영상들(330 내지 345) 중 연속된 공간(410) 내에서 최좌측의 영역으로 투사될 수 있다. 또한, 최좌측 시점 출력 영상(330)은 복수의 출력 영상들(330 내지 345) 중 연속된 공간(410) 내에서 최우측의 영역으로 투사될 수 있다. 도시된 것처럼, 나머지 제1 중간 시점 출력 영상(335) 및 제2 중간 시점 출력(340) 영상 중 우측 영상인 제2 중간 시점 출력(340)은 연속된 공간(410) 내의 최우측 시점 출력 영상(345)이 투사된 영역과 우측으로 인접한 영역에 투사될 수 있고, 제1 중간 시점 출력 영상(335)은 연속된 공간(410) 내의 최좌측 시점 출력 영상(330)이 투사된 영역과 좌측으로 인접한 영역에 투사될 수 있다.For example, the rightmost viewpoint output image 345 may be projected to the leftmost region in the continuous space 410 of the plurality of output images 330 to 345. In addition, the leftmost view output image 330 may be projected to the rightmost region in the continuous space 410 of the plurality of output images 330 to 345. As illustrated, the second intermediate view output 340, which is the right image among the remaining first intermediate view output image 335 and the second intermediate view output 340 image, is the rightmost view output image (in the continuous space 410). 345 may be projected in a region to the right adjacent to the projected area, and the first intermediate view output image 335 is adjacent to the left to the region where the leftmost view output image 330 in the continuous space 410 is projected. Can be projected onto the area.
앞서 도 1 내지 도 3를 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.Since the technical contents described above with reference to FIGS. 1 to 3 may be applied as it is, a more detailed description will be omitted below.
도 5는 일 예에 따른, 복수의 소정의 공간으로의 복수의 출력 영상들의 투사를 나타낸다.5 illustrates projection of a plurality of output images into a plurality of predetermined spaces according to an example.
복수의 출력 영상들(330 내지 345)이 투사되는 연속된 공간(410)은 복수일 수 있다. 복수의 출력 영상들(330 내지 345)은 연속된 공간(410)에 투사된 것과 동일한 순서들로 복수의 연속된 공간들의 각각으로 투사될 수 있다.There may be a plurality of continuous spaces 410 in which the plurality of output images 330 to 345 are projected. The plurality of output images 330 to 345 may be projected into each of the plurality of continuous spaces in the same order as projected in the continuous space 410.
복수의 출력 영상들(330 내지 345)이 출력된 영상 출력부(130)의 인접한 픽셀들인 픽셀들의 세트(510)는 복수일 수 있다. 복수의 출력 영상들(330 내지 345)은 픽셀들의 세트(510)의 각 픽셀에서 출력된 순서와 동일한 순서로 복수의 픽셀들의 세트들(510, 510-1 및 510-2)의 각 픽셀들의 세트의 각 픽셀에서 출력될 수 있다. 각 픽셀들의 세트는 영상 출력부(130) 상에서의 연속된 위치에 존재할 수 있다.The set of pixels 510, which are adjacent pixels of the image output unit 130 from which the plurality of output images 330 to 345 are output, may be plural. The plurality of output images 330 to 345 are sets of respective pixels of the plurality of sets of pixels 510, 510-1 and 510-2 in the same order as output from each pixel of the set of pixels 510. It can be output at each pixel of. Each set of pixels may be in a continuous position on the image output unit 130.
도 5에서는 편의상 기재가 생략되었으나, 복수의 픽셀들의 세트들(510, 510-1 및 510-2)의 각각에서 출력된 복수의 출력 영상들(330 내지 345)은 연속된 공간(410)에 투사된 것과 동일한 순서들로 복수의 연속된 공간들의 각각으로 투사될 수 있다.Although not described in FIG. 5 for convenience, the plurality of output images 330 to 345 output from each of the plurality of sets of pixels 510, 510-1, and 510-2 are projected onto the continuous space 410. Can be projected into each of a plurality of contiguous spaces in the same order.
픽셀들의 세트(510)의 개수가 증가함에 따라, 연속된 공간(410)의 개수도 증가될 수 있다. 연속된 공간(410)은 영상 장치(100)의 시청자가 3 차원의 입체 영상을 인식할 수 있는 시청 범위일 수 있다. 말하자면, 픽셀들의 세트(510)의 개수가 증가함에 따라 영상 장치(100)의 시청자가 3 차원의 입체 영상을 인식할 수 있는 시청 범위가 더 넓어질 수 있다.As the number of sets of pixels 510 increases, the number of consecutive spaces 410 may also increase. The continuous space 410 may be a viewing range in which a viewer of the imaging apparatus 100 may recognize a 3D stereoscopic image. In other words, as the number of sets of pixels 510 increases, a viewing range in which a viewer of the imaging apparatus 100 may recognize a 3D stereoscopic image may be widened.
도 5에서는 편의상 픽셀들의 세트들이 영상 출력부(130)의 횡방향으로만 도시되었으나, 픽셀들의 세트는 영상 출력부(130)의 종방향으로도 존재할 수 있다.In FIG. 5, for convenience, the sets of pixels are shown only in the lateral direction of the image output unit 130, but the sets of pixels may also exist in the longitudinal direction of the image output unit 130.
연속된 공간(410) 내에서 복수의 연속된 공간들로 투사된 복수의 출력 영상들(330 내지 345)에 대한 영상 장치(100)의 시청자의 3 차원의 입체 영상의 인식에 대해서는, 하기에서 도 6을 참조하여 더 자세하게 설명된다.Recognition of the viewer's three-dimensional stereoscopic image of the plurality of output images 330 to 345 projected into a plurality of consecutive spaces in the continuous space 410 is described below. This is described in more detail with reference to 6.
앞서 도 1 내지 도 4를 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.Since the technical contents described above with reference to FIGS. 1 to 4 may be applied as it is, a more detailed description will be omitted below.
도 6은 일 예에 따른, 소정의 공간으로 투사된 복수의 출력 영상들 및 시청자 간의 관계를 나타낸다.6 illustrates a relationship between a plurality of output images projected into a predetermined space and a viewer according to an example.
영상 장치(100)의 시청자의 좌안 및 우안은 도 5를 참조하여 전술된 복수의 연속된 공간들 내에 위치할 수 있다. 예컨대, 연속된 공간들(410 및 610)은 도 5를 참조하여 전술된 복수의 연속된 공간들에 대응할 수 있다. 연속된 공간(610)은 연속된 공간(410)과 동등한 공간으로서 연속된 공간(410)에 인접한 공간일 수 있다.The left and right eyes of the viewer of the imaging apparatus 100 may be located in the plurality of continuous spaces described above with reference to FIG. 5. For example, the contiguous spaces 410 and 610 may correspond to the plurality of contiguous spaces described above with reference to FIG. 5. The continuous space 610 is a space equivalent to the continuous space 410 and may be a space adjacent to the continuous space 410.
영상 장치(100)의 시청자의 좌안 및 우안이 영상 장치(100)로부터 소정의 적정 시청 거리만큼 떨어진 평면 상에 존재하는 복수의 공간들 내에 위치함으로써 영상 장치(100)의 시청자의 좌안 및 우안의 각각에는 복수의 출력 영상들(330 내지 345) 중 서로 상이한 출력 영상이 각각 투사될 수 있다. 말하자면, 연속된 공간들(410 및 610)은 영상 장치(100)의 시청자의 시청 범위일 수 있다.Each of the left and right eyes of the viewer of the imaging apparatus 100 is located in a plurality of spaces existing on a plane separated by a predetermined appropriate viewing distance from the imaging apparatus 100, respectively. Different output images may be projected from among the plurality of output images 330 to 345, respectively. In other words, the consecutive spaces 410 and 610 may be a viewing range of the viewer of the imaging apparatus 100.
도 6에서는 편의 상 픽셀들의 세트(510)의 각 픽셀에 복수의 출력 영상들이 각각 전체로서 출력된 것처럼 도시되었으나, 픽셀들의 세트(510)의 각 픽셀에는 표시된 영상의 극히 일부에 해당하는 정보가 출력될 수 있다.In FIG. 6, for convenience, a plurality of output images are respectively displayed as a whole to each pixel of the set of pixels 510, but information corresponding to only a part of the displayed image is output to each pixel of the set of pixels 510. Can be.
영상 장치(100)의 시청자의 좌안으로는 최좌측 시점 출력 영상(330)이 투사되고 영상 장치(100)의 시청자의 우안으로는 최우측 시점 출력 영상(345)이 투사되는 경우, 시청자에게 스테레오스코픽 영상이 제공된다. 시청자는 양안으로 투사된 스테레오스코픽의 출력 영상들을 3 차원의 입체 영상으로서 인식할 수 있다. 반대로, 영상 장치(100)의 시청자의 좌안으로는 최우측 시점 출력 영상(345)이 투사되고 영상 장치(100)의 시청자의 우안으로는 최좌측 시점 출력 영상(345)이 투사되는 경우, 시청자에게 슈도스코픽(pseudoscopic) 영상이 제공된다. 영상 장치(100)의 시청자는 양안으로 투사된 슈도스코픽의 출력 영상들을 3 차원의 입체 영상으로서 인식하지 못할 수 있다. 슈도스코픽의 경우, 스테레오스코픽에 비해 시청자의 양안으로 투사된 출력 영상들 간의 시점 차가 완전히 역전된다. 따라서, 영상 장치(100)의 시청자의 경험적 인식과는 반대의 입체감이 형성될 수 있다. 영상 장치(100)의 시청자는 양안으로 투사된 슈도스코픽의 출력 영상들을 3 차원의 입체 영상으로 인식하지 못할 수 있고, 슈도스코픽의 출력 영상들의 시청 시 피로감을 느낄 수 있다.When the leftmost viewpoint output image 330 is projected to the left eye of the viewer of the imaging apparatus 100 and the rightmost viewpoint output image 345 is projected to the right eye of the viewer of the imaging apparatus 100, the stereoscopic is displayed to the viewer. An image is provided. The viewer can recognize the stereoscopic output images projected by both eyes as a three-dimensional stereoscopic image. On the contrary, when the rightmost viewpoint output image 345 is projected to the left eye of the viewer of the imaging apparatus 100 and the leftmost viewpoint output image 345 is projected to the right eye of the viewer of the imaging apparatus 100, Pseudoscopic images are provided. The viewer of the imaging apparatus 100 may not recognize the output images of Pseudoscopic projected by both eyes as a 3D stereoscopic image. In the case of pseudoscopic, the difference in viewpoint between the output images projected by both eyes of the viewer is completely reversed compared to stereoscopic. Accordingly, a stereoscopic sense may be formed that is opposite to the empirical recognition of the viewer of the imaging apparatus 100. The viewer of the imaging apparatus 100 may not recognize the output images of the pseudoscopic projections with both eyes as a 3D stereoscopic image, and may feel fatigue when viewing the output images of the pseudoscopic.
영상 장치(100)의 시청자의 좌안으로는 우측 시점 출력 영상이 투사되고 영상 장치(100)의 시청자의 우안으로는 좌측 시점 출력 영상이 투사될 때, 우안으로 투사된 좌측 시점 출력 영상의 시점이 좌안으로 투사된 우측 시점 출력 영상의 시점에 비해 더 좌측의 시점이고, 좌측 시점 출력 영상 및 좌측 시점 출력 영상 간의 시점 차가 1 시점 미만인 경우 시청자에게 세미(semi)-슈도스코픽 영상이 제공된다. 시청자는 양안으로 투사된 세미-슈도스코픽의 출력 영상을 3 차원의 입체 영상으로서 인식할 수 있다. 영상 장치(100)의 시청자는 도 3을 참조하여 전술된 출력 영상들이 포함하는 소정의 깊이 정보를 통해 양안으로 투사된 세미-슈도스코픽의 출력 영상들을 3 차원의 입체 영상으로서 인식할 수 있다. 세미-슈도스코픽의 출력 영상들은 슈도스코픽의 출력 영상들과 유사할 수 있다. 시청자의 양안으로 투사된 출력 영상들 간의 시점 차가 1 시점 미만이기 때문에, 영상 장치(100)의 시청자는 경험적 인식에 기반하여 세미-슈도스코픽의 출력 영상들이 포함하는 소정의 깊이 정보를 통해 출력 영상들 내에 표현된 대상에 대해 입체감을 느낄 수 있다. 예컨대, 영상 장치(100)의 시청자는 출력 영상들이 포함하는 오클루젼(occlusion) 정보 및 라이팅(lighting) 정보에 기반하여, 양안으로 투사된 출력 영상들 내에 표현된 대상의 일부 중 밝은 부분을 돌출된 부분으로 인식할 수 있고, 양안으로 투사된 출력 영상들 내에 표현된 대상의 일부 중 어두운 부분을 함몰된 부분으로 인식할 수 있다.When the right view output image is projected to the left eye of the viewer of the imaging device 100 and the left view output image is projected to the right eye of the viewer of the imaging device 100, the view point of the left view output image projected to the right eye is The viewer is provided with a semi-pseudoscopic image when the viewpoint of the left view is more than the viewpoint of the right view output image projected by and the view difference between the left view output image and the left view output image is less than one view point. The viewer can recognize the output image of the semi- pseudoscopic projected by both eyes as a three-dimensional stereoscopic image. The viewer of the imaging apparatus 100 may recognize the semi-pseudoscopic output images projected by both eyes as three-dimensional stereoscopic images through predetermined depth information included in the output images described above with reference to FIG. 3. The output images of the semi- pseudoscopic may be similar to the output images of the pseudoscopic. Since the viewpoint difference between the output images projected by both viewers is less than one viewpoint, the viewer of the imaging apparatus 100 outputs the images through predetermined depth information included in the semi- pseudoscopic output images based on empirical recognition. You can feel the three-dimensional effect on the object expressed inside. For example, a viewer of the imaging apparatus 100 protrudes a bright portion of a part of an object represented in output images projected by both eyes based on occlusion information and lighting information included in the output images. A dark portion of a part of the object expressed in the output images projected by both eyes may be recognized as a depressed portion.
도시된 (1) 내지 (3)의 경우와 같이, 영상 장치(100)의 영상 장치(100)의 시청자의 좌안 및 우안이 복수의 연속된 공간들(410 및 610) 중 하나의 연속된 공간(410) 내에 위치할 경우, 영상 장치(100)의 시청자의 좌안으로는 복수의 출력 영상들(330 내지 345) 중 우측 시점 출력 영상이 투사되고, 영상 장치(100)의 시청자의 우안으로는 상기 복수의 출력 영상들(330 내지 345) 중 좌측 시점 출력 영상이 투사될 수 있다. 좌측 시점 출력 영상 및 우측 시점 출력 영상은 상기 복수의 출력 영상들(330 내지 345) 중 서로 인접한 시점들의 영상이고, 좌측 시점 출력 영상의 시점은 우측 시점 출력 영상의 시점에 비해 더 좌측의 시점일 수 있다. 영상 장치(100)의 시청자의 양안으로 투사된 좌측 시점 출력 영상 및 우측 시점 출력 영상 간의 시점 차는 1 시점 미만일 수 있다. 시청자의 양안으로 투사된 좌측 시점 출력 영상 및 우측 시점 출력 영상 간의 시점 차는 세미-슈도스코픽일 수 있다. 말하자면, 시청자가 복수의 연속된 공간들(410 및 610) 중 하나의 연속된 공간(410) 내에 위치할 경우 시청자에게는 세미(semi)-슈도스코픽 영상이 제공될 수 있다. 영상 장치(100)의 시청자의 양안으로 투사되는 좌측 시점 출력 영상 및 좌측 시점 출력 영상 간의 시점 차는 일정할 수 있다.As shown in the case of (1) to (3), the left eye and the right eye of the viewer of the imaging apparatus 100 of the imaging apparatus 100 have a continuous space (one of the plurality of consecutive spaces 410 and 610). 410, the right view output image of the plurality of output images 330 to 345 is projected to the left eye of the viewer of the imaging apparatus 100, and the plurality of the right eye to the viewer of the imaging apparatus 100. The left view output image of the output images 330 to 345 may be projected. The left viewpoint output image and the right viewpoint output image are images of viewpoints adjacent to each other among the plurality of output images 330 to 345, and the viewpoint of the left viewpoint output image may be a view on the left side more than the viewpoint of the right viewpoint output image. have. The viewpoint difference between the left view output image and the right view output image projected by both eyes of the viewer of the imaging apparatus 100 may be less than one view point. The viewpoint difference between the left view output image and the right view output image projected by the viewer's both eyes may be semi- pseudoscopic. That is, when the viewer is located in one continuous space 410 of the plurality of consecutive spaces 410 and 610, the viewer may be provided with a semi- pseudoscopic image. The viewpoint difference between the left view output image and the left view output image projected by both eyes of the viewer of the imaging apparatus 100 may be constant.
도시된 (4)의 경우와 같이, 영상 장치(100)의 시청자가 복수의 연속된 공간들 중 2개의 연속된 공간들(410 및 610) 내에 위치할 경우 영상 장치(100)의 시청자의 좌안으로는 최좌측 시점 출력 영상(330)이 투사되고, 영상 장치(100)의 시청자의 우안으로는 최우측 시점 출력 영상(345)이 투사될 수 있다. 최좌측 시점 출력 영상(330) 및 최우측 시점 출력 영상(345) 간의 시점 차는 1 시점일 수 있다. 최좌측 시점 출력 영상(330) 및 최우측 시점 출력 영상(345) 간의 시점 차는 스테레오스코픽일 수 있다. 말하자면, 시청자가 상기 복수의 연속된 공간들(410 및 610) 중 2개의 연속된 공간들 내에 위치할 경우 시청자에게는 스테레오스코픽 영상이 제공될 수 있다.As shown in the case of (4), when the viewer of the imaging apparatus 100 is located in two consecutive spaces 410 and 610 of the plurality of consecutive spaces, the viewer enters the left eye of the viewer of the imaging apparatus 100. The leftmost viewpoint output image 330 is projected, and the rightmost viewpoint output image 345 is projected into the right eye of the viewer of the imaging apparatus 100. The viewpoint difference between the leftmost viewpoint output image 330 and the rightmost viewpoint output image 345 may be one viewpoint. The difference in viewpoint between the leftmost viewpoint output image 330 and the rightmost viewpoint output image 345 may be stereoscopic. In other words, when the viewer is located in two consecutive spaces of the plurality of consecutive spaces 410 and 610, the viewer may be provided with a stereoscopic image.
연속된 공간들(410 및 610) 내의 가능한 모든 위치들에서 영상 장치(100)의 시청자의 양안으로 투사되는 영상들 간의 시점 차가 세미-슈도스코픽 또는 스테레오스코픽이기 때문에, 영상 장치(100)의 시청자는 연속된 공간들(410 및 610) 내의 가능한 모든 위치에서 양안으로 투사된 출력 영상들을 3 차원의 입체 영상으로서 인식할 수 있다. 말하자면, 영상 장치(100)의 모든 시청 범위에서 시청자에게 1시점 차이의 스테레오스코픽 영상 또는 세미-슈도스코픽 영상이 제공될 수 있다.The viewer of the imaging apparatus 100 is a semi- pseudoscopic or stereoscopic because the viewpoint difference between the images projected into both eyes of the viewer of the imaging apparatus at all possible positions in the contiguous spaces 410 and 610 is semi- pseudoscopic or stereoscopic. The output images projected by both eyes at all possible positions in the continuous spaces 410 and 610 may be recognized as three-dimensional stereoscopic images. In other words, the stereoscopic image or the semi- pseudoscopic image of one point of view may be provided to the viewer in all viewing ranges of the imaging apparatus 100.
도시된 (1) 내지 (4)의 경우에서, 시청자가 인식하는 각 3 차원의 입체 영상은, 복수의 영상들(330 내지 345) 중 인접한 2개의 출력 영상들에 기반한 영상이거나, 상기의 복수의 영상들(330 내지 345) 중 최좌측 시점 출력 영상(330) 및 최우측 시점 출력 영상(345)에 기반한 영상이다. 따라서, 3 차원의 입체 영상들은 서로 상이한 영상일 수 있다.In the case of (1) to (4) illustrated, each three-dimensional stereoscopic image recognized by the viewer is an image based on two adjacent output images among the plurality of images 330 to 345, or the plurality of three-dimensional images. The image is based on the leftmost view output image 330 and the right view output image 345 among the images 330 to 345. Therefore, the 3D stereoscopic images may be different images.
앞서 도 1 내지 도 4를 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.Since the technical contents described above with reference to FIGS. 1 to 4 may be applied as it is, a more detailed description will be omitted below.
도 7은 일 예에 따른, 렌즈에 의한 복수의 소정의 공간으로의 복수의 출력 영상들의 투사를 나타낸다.7 illustrates projection of a plurality of output images into a plurality of predetermined spaces by a lens according to an example.
영상 장치(100)는 복수의 렌즈들(720, 720-1 및 720-2)을 포함할 수 있다. 복수의 렌즈들은 영상 출력부(130)의 일부일 수 있다. 복수의 렌즈들은 영상 출력부(130)의 횡방향으로 배치된 렌즈들의 집합일 수 있다. 말하자면, 복수의 렌즈들은 렌즈 어레이일 수 있다. 렌즈 어레이는 영상 출력부(130)의 종방향으로도 배치될 수 있다.The imaging apparatus 100 may include a plurality of lenses 720, 720-1, and 720-2. The plurality of lenses may be part of the image output unit 130. The plurality of lenses may be a collection of lenses arranged in the lateral direction of the image output unit 130. In other words, the plurality of lenses may be a lens array. The lens array may also be disposed in the longitudinal direction of the image output unit 130.
도 7에서는, 도 5를 참조하여 전술된 픽셀들의 세트(510)에서 출력된 복수의 출력 영상들(330 내지 345)이 렌즈(720)에 의해 복수의 연속된 공간들로 투사되는 것이 도시되었다. 도 7에서는 편의 상 복수의 출력 영상들(330 내지 345) 렌즈(720)로부터 방출되어 연속된 공간(410)으로 투사되는 것처럼 도시되었으나, 복수의 출력 영상들(330 내지 345)의 각각은 픽셀들의 세트(510)의 각 픽셀로부터 광이 방출되고, 방출된 광이 렌즈(720)를 통과함으로써 굴절됨으로써 복수의 연속된 공간들로 투사될 수 있다.In FIG. 7, it is shown that the plurality of output images 330 to 345 output from the set of pixels 510 described above with reference to FIG. 5 are projected by the lens 720 into a plurality of contiguous spaces. In FIG. 7, for convenience, the plurality of output images 330 to 345 are shown to be emitted from the lens 720 and projected into the continuous space 410. Light is emitted from each pixel of the set 510, and the emitted light can be refracted by passing through the lens 720 to be projected into a plurality of contiguous spaces.
또한, 도 7에서는 복수의 연속된 공간들의 개수는 4개로 도시되었으나, 복수의 픽셀들의 세트들(510, 510-1 및 510-2)의 개수에 따라 복수의 연속된 공간들의 개수는 더 증가할 수 있다.In addition, although the number of the plurality of consecutive spaces is illustrated as four in FIG. 7, the number of the plurality of consecutive spaces may increase according to the number of sets of the plurality of pixels 510, 510-1 and 510-2. Can be.
복수의 픽셀들의 세트들(510, 510-1 및 510-2)의 개수 및 복수의 렌즈들의 개수는 서로 동일할 수 있다.The number of sets of pixels 510, 510-1, and 510-2 and the number of lenses of the plurality of pixels may be the same.
픽셀들의 세트(510)에서 출력된 복수의 출력 영상들(330 내지 345)의 각각은 각 출력 영상(330, 335, 340 또는 345)과 관련된 정보를 포함하는 광일 수 있다. 예컨대, 픽셀들의 세트(510)에서의 각 픽셀에서 출력된 광이 포함하는 각 출력 영상(330, 335, 340 또는 345)의 정보는 각 출력 영상(330, 335, 340 또는 345)의 색상 정보(예컨대, RGB 값)일 수 있다.Each of the plurality of output images 330 through 345 output from the set of pixels 510 may be light including information associated with each output image 330, 335, 340 or 345. For example, the information of each output image 330, 335, 340, or 345 included in the light output from each pixel in the set of pixels 510 may include the color information of each output image 330, 335, 340, or 345. For example, an RGB value).
픽셀들의 세트(510)의 인접한 픽셀들에 의해 방출되는 광들은 복수의 렌즈들(720, 720-1 및 720-2) 중 픽셀들의 세트(510)의 인접한 픽셀들의 전면에 위치한 렌즈(720)를 통해 투사될 수 있다. 말하자면, 복수의 렌즈들(720, 720-1 및 720-2)의 각각은 각 렌즈에 대응하는 픽셀들의 세트로부터 방출되는 광들을 굴절시킬 수 있고, 각 렌즈에 대응하는 픽셀들의 세트로부터 방출되는 광들을 복수의 연속된 공간들의 각각으로 투사할 수 있다.Light emitted by adjacent pixels of the set of pixels 510 may cause the lens 720 located in front of the adjacent pixels of the set of pixels 510 of the plurality of lenses 720, 720-1, and 720-2 to pass through the lens 720. Can be projected through. In other words, each of the plurality of lenses 720, 720-1, and 720-2 can refract light emitted from a set of pixels corresponding to each lens, and light emitted from a set of pixels corresponding to each lens. Can be projected into each of a plurality of contiguous spaces.
렌즈(720)는 픽셀들의 세트(510)의 인접한 픽셀들의 좌측으로부터 우측으로의 순서와 반대되는 방향으로 픽셀들의 세트(510)의 인접한 픽셀들의 광들을 투사할 수 있다. 렌즈(720)는 픽셀들의 세트(510)의 인접한 픽셀들의 광들을 복수의 연속된 공간들의 각각으로 투사할 수 있다. Lens 720 may project light of adjacent pixels of set of pixels 510 in a direction opposite to the order from left to right of adjacent pixels of set of pixels 510. Lens 720 may project light of adjacent pixels of set of pixels 510 into each of a plurality of contiguous spaces.
복수의 렌즈들의 각각은 플라스틱으로 제작될 수 있다.Each of the plurality of lenses may be made of plastic.
예컨대, 복수의 렌즈들(720, 720-1 및 720-2))의 각각은 렌티큘러 렌즈(lenticular lens)일 수 있다. 렌즈(720)는 볼록렌즈와 유사한 성질을 가질 수 있다.For example, each of the plurality of lenses 720, 720-1, and 720-2 may be a lenticular lens. The lens 720 may have properties similar to those of the convex lens.
도시된 것과는 달리, 복수의 렌즈들의 각각은 영상 출력부(130)의 각 픽셀에 대응할 수 있다. 말하자면, 영상 출력부(130)의 픽셀들의 개수와 복수의 렌즈의 개수는 동일할 수 있다. 복수의 렌즈들의 각각이 영상 출력부(130)의 각 픽셀에 대응될 때, 복수의 렌즈들의 각각의 형태는 반구형일 수 있다.Unlike the illustrated example, each of the plurality of lenses may correspond to each pixel of the image output unit 130. In other words, the number of pixels of the image output unit 130 and the number of lenses may be the same. When each of the plurality of lenses corresponds to each pixel of the image output unit 130, each shape of the plurality of lenses may be hemispherical.
또는, 복수의 렌즈들의 각각의 형태는 영상 출력부(130)의 종방향으로 뻗은 반 원통형일 수 있다. 복수의 렌즈들의 개수는 영상 출력부(130)의 횡방향으로의 픽셀들의 세트들(510, 510-1 및 510-2)의 개수 또는 영상 출력부(130)의 횡방향으로의 픽셀들의 개수와 동일할 수 있다. 복수의 반 원통형 형태의 렌즈들은 영상 출력부(130)의 정 종방향이 아닌 사선으로 배치될 수도 있다.Alternatively, each of the plurality of lenses may have a semi-cylindrical shape extending in the longitudinal direction of the image output unit 130. The number of the plurality of lenses is equal to the number of sets of pixels 510, 510-1 and 510-2 in the lateral direction of the image output unit 130 or the number of pixels in the lateral direction of the image output unit 130. May be the same. The plurality of semi-cylindrical lenses may be disposed diagonally rather than in the longitudinal direction of the image output unit 130.
복수의 렌즈들은 영상 출력부(130)의 크기에 대응할 수 있는 크기의 시트 또는 필름 형태로 제작될 수 있다. 복수의 렌즈들이 포함된 시트 또는 필름은 영상 출력부(130)의 디스플레이 패널의 전면에 부착될 수 있다.The plurality of lenses may be manufactured in the form of a sheet or film having a size corresponding to the size of the image output unit 130. The sheet or film including the plurality of lenses may be attached to the front surface of the display panel of the image output unit 130.
복수의 렌즈들의 각각은 전자식 능동형 렌티큘러(Electro-Active Lenticular) 렌즈일 수 있다. 전자식 능동형 렌티큘러 렌즈는 전자 액정 렌즈로서, 전자식 능동형 렌티큘러 렌즈의 전자 액정의 분자에 전압이 인가됨에 따라 굴절률이 변화되는 렌즈일 수 있다. 영상 장치(100)가 포함하는 복수의 렌즈들의 각각이 전자식 능동형 렌티큘러 렌즈인 경우, 전자식 능동형 렌티큘러 렌즈의 전자 액정의 분자에 인가되는 전압에 따라 영상 장치(100)의 시청자는 3 차원의 입체 영상 및 2 차원 영상을 모두 시청할 수 있다.Each of the plurality of lenses may be an electro-active lenticular lens. The electronic active lenticular lens is an electronic liquid crystal lens, and may be a lens whose refractive index changes as a voltage is applied to molecules of the electronic liquid crystal of the electronic active lenticular lens. When each of the plurality of lenses included in the imaging apparatus 100 is an electronic active lenticular lens, a viewer of the imaging apparatus 100 may view a three-dimensional stereoscopic image and a voltage according to a voltage applied to molecules of an electronic liquid crystal of the electronic active lenticular lens. You can watch both two-dimensional images.
앞서 도 1 내지 도 6을 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.Since the technical contents described above with reference to FIGS. 1 to 6 may be applied as they are, a detailed description thereof will be omitted below.
도 8은 일 예에 따른, 소정의 공간으로 투사된 복수의 출력 영상들의 각각 간의 시점 차를 나타낸다.8 illustrates a view difference between each of a plurality of output images projected into a predetermined space, according to an example.
도 4를 참조하여 전술된 것처럼, 복수의 출력 영상들(330 내지 345)에 대응하는 1 내지 2의 값들은 복수의 출력 영상들(330 내지 345) 간의 시점 차를 구분하기 위해 표시된 상대적인 값일 수 있다.As described above with reference to FIG. 4, values of 1 to 2 corresponding to the plurality of output images 330 to 345 may be relative values displayed to distinguish a viewpoint difference between the plurality of output images 330 to 345. .
픽셀들의 세트(510)에서 출력된 복수의 출력 영상들(330 내지 345)의 각각은 렌즈(720)에 의해 연속된 공간(410)의 4등분된 영역들의 각각으로 투사될 수 있다. Each of the plurality of output images 330-345 output from the set of pixels 510 may be projected by the lens 720 into each of the quadrant regions of the contiguous space 410.
복수의 출력 영상들(330 내지 345)이 투사되는 연속된 공간(410) 내에서, 복수의 출력 영상들(330 내지 345)이 투사되는 영역들의 좌측으로부터 우측으로의 순서는 복수의 출력 영상들(330 내지 345)의 시점들의 좌측으로부터 우측으로의 순서와 반대일 수 있다.In the continuous space 410 in which the plurality of output images 330 to 345 are projected, the order from the left to the right of the areas where the plurality of output images 330 to 345 are projected is a plurality of output images ( 330 to 345 may be in reverse order from left to right.
도시된 것처럼, 복수의 출력 영상들(330 내지 345)의 각각은 연속된 공간(410)의 4등분된 영역들 중 최좌측의 영역부터 우측의 방향으로, 최우측 시점 출력 영상(345)부터 최좌측 시점 출력 영상(330)까지의 시점들의 순서대로 각각 투사될 수 있다.As shown, each of the plurality of output images 330 to 345 is a direction from the leftmost region to the right side of the quadrant regions of the continuous space 410, from the rightmost viewpoint output image 345 to the most. Each of the views up to the left view output image 330 may be projected.
복수의 출력 영상들(330 내지 345) 중 인접한 출력 영상들의 시점 차는 일정할 수 있다. 예컨대, 시점 차는 1/3 IPD일 수 있다. 최우측 시점 출력 영상(345) 및 최좌측 시점 출력 영상(330) 간의 시점 차는 1 IPD일 수 있다.A viewpoint difference between adjacent output images among the plurality of output images 330 to 345 may be constant. For example, the viewpoint difference may be 1/3 IPD. The viewpoint difference between the rightmost viewpoint output image 345 and the leftmost viewpoint output image 330 may be 1 IPD.
앞서 도 1 내지 도 7을 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.Since the technical contents described above with reference to FIGS. 1 to 7 may be applied as it is, a more detailed description will be omitted below.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be embodied in the form of program instructions that can be executed by various computer means and recorded in a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the media may be those specially designed and constructed for the purposes of the embodiments, or they may be of the kind well-known and available to those having skill in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks. Magneto-optical media, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described by the limited embodiments and the drawings as described above, various modifications and variations are possible to those skilled in the art from the above description. For example, the described techniques may be performed in a different order than the described method, and / or components of the described systems, structures, devices, circuits, etc. may be combined or combined in a different form than the described method, or other components. Or even if replaced or substituted by equivalents, an appropriate result can be achieved.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are within the scope of the claims that follow.

Claims (20)

  1. 영상 장치에 의해 수행되는,Performed by the imaging device,
    복수의 입력 영상들에 기반하여 다시점(multi-view)의 복수의 출력 영상들을 생성하는 단계; 및Generating a plurality of multi-view output images based on the plurality of input images; And
    상기 복수의 출력 영상들을 출력하는 단계Outputting the plurality of output images
    를 포함하고,Including,
    상기 복수의 출력 영상들의 시점들은 서로 상이하고,The viewpoints of the plurality of output images are different from each other,
    상기 복수의 출력 영상들이 투사되는 공간 내에서 상기 복수의 출력 영상들이 투사되는 영역들의 좌측으로부터 우측으로의 순서는 상기 복수의 출력 영상들의 시점들의 좌측으로부터 우측으로의 순서와 반대인, 영상 처리 방법.The order from the left to the right of the areas in which the plurality of output images are projected in the space in which the plurality of output images are projected is opposite to the order from the left to the right of the viewpoints of the plurality of output images.
  2. 제1항에 있어서,The method of claim 1,
    상기 복수의 출력 영상들은 연속된 공간 내에서 투사되는, 영상 처리 방법.And the plurality of output images are projected in a continuous space.
  3. 제2항에 있어서,The method of claim 2,
    상기 연속된 공간은 복수이고,The continuous space is plural,
    상기 복수의 출력 영상들은 동일한 순서들로 상기 복수의 연속된 공간들의 각각으로 투사되는, 영상 처리 방법.And the plurality of output images are projected into each of the plurality of contiguous spaces in the same order.
  4. 제3항에 있어서,The method of claim 3,
    상기 복수의 입력 영상들은 좌측 입력 영상 및 우측 입력 영상을 포함하고,The plurality of input images include a left input image and a right input image,
    상기 복수의 출력 영상들은 상기 좌측 입력 영상에 대응하는 최좌측 시점 출력 영상 및 상기 우측 입력 영상에 대응하는 최우측 시점 출력 영상을 포함하고,The plurality of output images includes a leftmost viewpoint output image corresponding to the left input image and a rightmost viewpoint output image corresponding to the right input image,
    상기 최우측 시점 출력 영상은 상기 복수의 출력 영상들 중 최좌측으로 투사되고, 상기 최좌측 시점 출력 영상은 상기 복수의 출력 영상들 중 최우측으로 투사되고,The rightmost viewpoint output image is projected to the leftmost of the plurality of output images, the leftmost viewpoint output image is projected to the rightmost of the plurality of output images,
    상기 영상 장치의 시청자가 상기 복수의 연속된 공간들 중 하나의 연속된 공간 내에 위치할 경우 상기 시청자의 좌안으로는 상기 복수의 출력 영상들 중 우측 시점 출력 영상이 투사되고, 상기 시청자의 우안으로는 상기 복수의 출력 영상들 중 좌측 시점 출력 영상이 투사되고, 상기 좌측 시점 출력 영상 및 상기 우측 시점 출력 영상은 상기 복수의 출력 영상들 중 서로 인접한 시점들의 영상이고, 상기 좌측 시점 출력 영상의 시점은 상기 우측 시점 출력 영상의 시점에 비해 더 좌측의 시점이고,When the viewer of the imaging apparatus is located in one continuous space of the plurality of continuous spaces, the right view output image of the plurality of output images is projected to the left eye of the viewer, and to the right eye of the viewer. A left viewpoint output image is projected from among the plurality of output images, and the left viewpoint output image and the right viewpoint output image are images of viewpoints adjacent to each other among the plurality of output images, and the viewpoint of the left viewpoint output image is Right view is more left view than the view of the output image,
    상기 시청자가 상기 복수의 연속된 공간들 중 2개의 연속된 공간들 내에 위치할 경우 상기 시청자의 좌안으로는 상기 최좌측 시점 출력 영상이 투사되고, 상기 시청자의 우안으로는 상기 최우측 시점 출력 영상이 투사되는, 영상 처리 방법.When the viewer is located in two consecutive spaces of the plurality of consecutive spaces, the leftmost view output image is projected to the left eye of the viewer, and the rightmost view output image is to the right eye of the viewer. Projected image processing method.
  5. 제1항에 있어서,The method of claim 1,
    상기 복수의 출력 영상들 중 인접한 2 개의 출력 영상들의 시점들 간의 차는 1 시점 이내이고,The difference between viewpoints of two adjacent output images among the plurality of output images is within 1 viewpoint,
    상기 복수의 출력 영상들 중 최좌측 출력 영상의 시점 및 최우측 출력 영상의 시점 간의 차는 1 시점인, 영상 처리 방법.The difference between the viewpoint of the leftmost output image and the viewpoint of the rightmost output image among the plurality of output images is one viewpoint.
  6. 제1항에 있어서,The method of claim 1,
    상기 복수의 출력 영상들은 적어도 3개의 출력 영상들을 포함하는, 영상 처리 방법.And the plurality of output images comprises at least three output images.
  7. 제1항에 있어서,The method of claim 1,
    상기 복수의 입력 영상들은 좌측 입력 영상 및 우측 입력 영상을 포함하고,The plurality of input images include a left input image and a right input image,
    상기 복수의 출력 영상들은 상기 좌측 입력 영상에 대응하는 최좌측 시점 출력 영상, 상기 우측 입력 영상에 대응하는 최우측 시점 출력 영상 및 내삽 영상을 포함하고,The plurality of output images includes a leftmost viewpoint output image corresponding to the left input image, a rightmost viewpoint output image and an interpolated image corresponding to the right input image,
    상기 내삽 영상은 상기 좌측 입력 영상 및 상기 우측 입력 영상 간의 내삽에 기반하여 생성된 영상인, 영상 처리 방법.The interpolation image is an image generated based on an interpolation between the left input image and the right input image.
  8. 제1항에 있어서,The method of claim 1,
    상기 복수의 입력 영상들은 좌측 입력 영상 및 우측 입력 영상을 포함하고,The plurality of input images include a left input image and a right input image,
    상기 복수의 출력 영상들은 상기 좌측 입력 영상에 대응하는 최좌측 시점 출력 영상, 상기 우측 입력 영상에 대응하는 최우측 시점 출력 영상 및 내삽 영상을 포함하고,The plurality of output images includes a leftmost viewpoint output image corresponding to the left input image, a rightmost viewpoint output image and an interpolated image corresponding to the right input image,
    상기 최우측 시점 출력 영상은 상기 복수의 출력 영상들 중 최좌측으로 투사되고, 상기 최좌측 시점 출력 영상은 상기 복수의 출력 영상들 중 최우측으로 투사되는, 영상 처리 방법.And the rightmost viewpoint output image is projected to the leftmost side of the plurality of output images, and the leftmost viewpoint output image is projected to the rightmost side of the plurality of output images.
  9. 제1항에 있어서,The method of claim 1,
    상기 복수의 입력 영상들은 좌측 입력 영상 및 우측 입력 영상을 포함하고,The plurality of input images include a left input image and a right input image,
    상기 좌측 입력 영상의 시점 및 상기 우측 입력 영상의 시점 간의 차는 1 시점인, 영상 처리 방법.And a difference between a viewpoint of the left input image and a viewpoint of the right input image is one viewpoint.
  10. 제9항에 있어서,The method of claim 9,
    상기 1 시점은 상기 영상 장치에 대해 예상되는 시청자의 동공 간 거리(Interpupillary Distance; IPD)에 기반하여 결정된, 영상 처리 방법.And the first time point is determined based on an interpupillary distance (IPD) of a viewer expected for the imaging device.
  11. 제1항에 있어서,The method of claim 1,
    상기 복수의 출력 영상들의 시점들에 있어서, 서로 인접한 2개의 출력 영상들의 시점들 간의 차는 일정한, 영상 처리 방법.And a difference between viewpoints of two adjacent output images in the viewpoints of the plurality of output images is constant.
  12. 제1항에 있어서,The method of claim 1,
    상기 영상 장치는 복수의 픽셀들을 포함하고,The imaging device includes a plurality of pixels,
    상기 복수의 출력 영상들의 대응하는 픽셀들은 상기 복수의 픽셀들 중 인접한 픽셀들인, 영상 처리 방법.Corresponding pixels of the plurality of output images are adjacent pixels of the plurality of pixels.
  13. 제12항에 있어서,The method of claim 12,
    상기 영상 장치는 복수의 렌즈들을 포함하고,The imaging device includes a plurality of lenses,
    상기 인접한 픽셀들에 의해 방출되는 광들은 상기 복수의 렌즈들 중 상기 인접한 픽셀들의 전면에 위치한 렌즈를 통해 투사되고,The light emitted by the adjacent pixels is projected through a lens located in front of the adjacent pixels of the plurality of lenses,
    상기 렌즈는 상기 인접한 픽셀들의 좌측으로부터 우측으로의 순서와 반대되는 방향으로 상기 인접한 픽셀들의 광들을 투사하는, 영상 처리 방법.And the lens projects the light of the adjacent pixels in a direction opposite to the order from the left to the right of the adjacent pixels.
  14. 제13항에 있어서,The method of claim 13,
    상기 복수의 출력 영상들은 동일한 순서들로 복수의 연속된 공간들의 각각으로 투사되고,The plurality of output images are projected into each of the plurality of consecutive spaces in the same order,
    상기 렌즈는 상기 인접한 픽셀들의 광들을 상기 복수의 연속된 공간들의 각각으로 투사하는, 영상 처리 방법.And the lens projects the light of the adjacent pixels into each of the plurality of contiguous spaces.
  15. 제1항 내지 제14항 중 어느 한 항의 방법을 수행하는 프로그램을 수록한 컴퓨터 판독 가능 기록 매체.A computer-readable recording medium containing a program for performing the method of any one of claims 1 to 14.
  16. 영상 처리부; 및An image processor; And
    영상 출력부Video output section
    를 포함하고,Including,
    상기 영상 처리부는 복수의 입력 영상들에 기반하여 다시점(multi-view)의 복수의 출력 영상들을 생성하고,The image processor generates a plurality of multi-view output images based on a plurality of input images,
    상기 영상 출력부는 상기 복수의 출력 영상들을 출력하고,The image output unit outputs the plurality of output images,
    상기 복수의 출력 영상들의 시점들은 서로 상이하고,The viewpoints of the plurality of output images are different from each other,
    상기 복수의 출력 영상들이 투사되는 공간 내에서 상기 복수의 출력 영상들 이 투사되는 영역들의 좌측으로부터 우측으로의 순서는 상기 복수의 출력 영상들의 시점들의 좌측으로부터 우측으로의 순서와 반대인, 영상 장치.The order from the left to the right of the areas in which the plurality of output images are projected in the space in which the plurality of output images are projected is opposite to the order from the left to the right of the viewpoints of the plurality of output images.
  17. 제16항에 있어서,The method of claim 16,
    상기 복수의 출력 영상들은 연속된 공간 내에서 투사되고,The plurality of output images are projected in a continuous space,
    상기 연속된 공간은 복수이고,The continuous space is plural,
    상기 복수의 출력 영상들은 동일한 순서들로 상기 복수의 연속된 공간들의 각각으로 투사되는, 영상 장치.And the plurality of output images are projected into each of the plurality of contiguous spaces in the same order.
  18. 제17항에 있어서,The method of claim 17,
    상기 복수의 입력 영상들은 좌측 입력 영상 및 우측 입력 영상을 포함하고,The plurality of input images include a left input image and a right input image,
    상기 복수의 출력 영상들은 상기 좌측 입력 영상에 대응하는 최좌측 시점 출력 영상 및 상기 우측 입력 영상에 대응하는 최우측 시점 출력 영상을 포함하고,The plurality of output images includes a leftmost viewpoint output image corresponding to the left input image and a rightmost viewpoint output image corresponding to the right input image,
    상기 최우측 시점 출력 영상은 상기 복수의 출력 영상들 중 최좌측으로 투사되고, 상기 최좌측 시점 출력 영상은 상기 복수의 출력 영상들 중 최우측으로 투사되고,The rightmost viewpoint output image is projected to the leftmost of the plurality of output images, the leftmost viewpoint output image is projected to the rightmost of the plurality of output images,
    상기 영상 장치의 시청자가 상기 복수의 연속된 공간들 중 하나의 연속된 공간 내에 위치할 경우 상기 시청자의 좌안으로는 상기 복수의 출력 영상들 중 우측 시점 출력 영상이 투사되고, 상기 시청자의 우안으로는 상기 복수의 출력 영상들 중 좌측 시점 출력 영상이 투사되고, 상기 좌측 시점 출력 영상 및 상기 우측 시점 출력 영상은 상기 복수의 출력 영상들 중 서로 인접한 시점들의 영상이고, 상기 좌측 시점 출력 영상의 시점은 상기 우측 시점 출력 영상의 시점에 비해 더 좌측의 시점이고,When the viewer of the imaging apparatus is located in one continuous space of the plurality of continuous spaces, the right view output image of the plurality of output images is projected to the left eye of the viewer, and to the right eye of the viewer. A left viewpoint output image is projected from among the plurality of output images, and the left viewpoint output image and the right viewpoint output image are images of viewpoints adjacent to each other among the plurality of output images, and the viewpoint of the left viewpoint output image is Right view is more left view than the view of the output image,
    상기 시청자가 상기 복수의 연속된 공간들 중 2개의 연속된 공간들 내에 위치할 경우 상기 시청자의 좌안으로는 상기 최좌측 시점 출력 영상이 투사되고, 상기 시청자의 우안으로는 상기 최우측 시점 출력 영상이 투사되는, 영상 장치.When the viewer is located in two consecutive spaces of the plurality of consecutive spaces, the leftmost view output image is projected to the left eye of the viewer, and the rightmost view output image is to the right eye of the viewer. Projected image device.
  19. 제16항에 있어서,The method of claim 16,
    상기 영상 출력부는,The image output unit,
    복수의 픽셀들Multiple pixels
    을 포함하고,Including,
    상기 복수의 출력 영상들의 대응하는 픽셀들은 상기 복수의 픽셀들 중 인접한 픽셀들인, 영상 장치.And corresponding pixels of the plurality of output images are adjacent pixels of the plurality of pixels.
  20. 제19항에 있어서,The method of claim 19,
    상기 영상 출력부는,The image output unit,
    복수의 렌즈들Multiple lenses
    을 더 포함하고,More,
    상기 인접한 픽셀들에 의해 방출되는 광들은 상기 복수의 렌즈들 중 상기 인접한 픽셀들의 전면에 위치한 렌즈를 통해 투사되고,The light emitted by the adjacent pixels is projected through a lens located in front of the adjacent pixels of the plurality of lenses,
    상기 렌즈는 상기 인접한 픽셀들의 좌측으로부터 우측으로의 순서와 반대되는 방향으로 상기 인접한 픽셀들의 광들을 투사하는, 영상 장치.And the lens projects the light of the adjacent pixels in a direction opposite to the order from the left to the right of the adjacent pixels.
PCT/KR2014/009305 2013-10-04 2014-10-02 Method and device for processing image WO2015050390A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/027,195 US20160241846A1 (en) 2013-10-04 2014-10-02 Method and device for processing image

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20130118814A KR20150041225A (en) 2013-10-04 2013-10-04 Method and apparatus for image processing
KR10-2013-0118814 2013-10-04

Publications (1)

Publication Number Publication Date
WO2015050390A1 true WO2015050390A1 (en) 2015-04-09

Family

ID=52778931

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2014/009305 WO2015050390A1 (en) 2013-10-04 2014-10-02 Method and device for processing image

Country Status (3)

Country Link
US (1) US20160241846A1 (en)
KR (1) KR20150041225A (en)
WO (1) WO2015050390A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014082541A (en) * 2012-10-12 2014-05-08 National Institute Of Information & Communication Technology Method, program and apparatus for reducing data size of multiple images including information similar to each other

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090107748A (en) * 2008-04-10 2009-10-14 포항공과대학교 산학협력단 Apparatus of multiview three-dimensional image synthesis for autostereoscopic 3d-tv displays and method thereof
KR20120019044A (en) * 2010-08-24 2012-03-06 엘지전자 주식회사 Image display apparatus and method for operating the same
KR20120056127A (en) * 2010-11-24 2012-06-01 엘지디스플레이 주식회사 Method of driving stereoscopic 3d display device
KR20120070363A (en) * 2010-12-21 2012-06-29 엘지디스플레이 주식회사 Stereoscopic 3d display device and method of driving the same
JP2012194642A (en) * 2011-03-15 2012-10-11 Fujifilm Corp Image processing device, image processing method, and image processing system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090107748A (en) * 2008-04-10 2009-10-14 포항공과대학교 산학협력단 Apparatus of multiview three-dimensional image synthesis for autostereoscopic 3d-tv displays and method thereof
KR20120019044A (en) * 2010-08-24 2012-03-06 엘지전자 주식회사 Image display apparatus and method for operating the same
KR20120056127A (en) * 2010-11-24 2012-06-01 엘지디스플레이 주식회사 Method of driving stereoscopic 3d display device
KR20120070363A (en) * 2010-12-21 2012-06-29 엘지디스플레이 주식회사 Stereoscopic 3d display device and method of driving the same
JP2012194642A (en) * 2011-03-15 2012-10-11 Fujifilm Corp Image processing device, image processing method, and image processing system

Also Published As

Publication number Publication date
US20160241846A1 (en) 2016-08-18
KR20150041225A (en) 2015-04-16

Similar Documents

Publication Publication Date Title
WO2016010234A1 (en) Curved multi-view image display apparatus and control method thereof
WO2015037796A1 (en) Display device and method of controlling the same
EP3350989A1 (en) 3d display apparatus and control method thereof
WO2016021925A1 (en) Multiview image display apparatus and control method thereof
WO2013081429A1 (en) Image processing apparatus and method for subpixel rendering
WO2015053449A1 (en) Glass-type image display device and method for controlling same
WO2009125988A2 (en) Fast multi-view three-dimensinonal image synthesis apparatus and method
WO2017164573A1 (en) Near-eye display apparatus and near-eye display method
WO2012074328A2 (en) Receiving device and method for receiving multiview three-dimensional broadcast signal
WO2012050366A2 (en) 3d image display apparatus and display method thereof
WO2022102954A1 (en) Wearable electronic device including display
WO2012128399A1 (en) Display device and method of controlling the same
WO2011155766A2 (en) Image processing method and image display device according to the method
WO2018066962A1 (en) Smart eyeglasses
EP3225025A1 (en) Display device and method of controlling the same
WO2016056735A1 (en) Multiview image display device and control method therefor
WO2018182159A1 (en) Smart glasses capable of processing virtual object
WO2014204228A1 (en) 2d/3d switching lens for 3d image display device
WO2016163783A1 (en) Display device and method of controlling the same
WO2019035600A1 (en) System and method for displaying real or virtual scene
EP3615988A1 (en) System and method for displaying real or virtual scene
WO2015050390A1 (en) Method and device for processing image
WO2013015466A1 (en) Electronic device for displaying three-dimensional image and method of using the same
WO2019059635A1 (en) Electronic device for providing function by using rgb image and ir image acquired through one image sensor
WO2016140415A1 (en) Laminated hologram implementation system using glasses-free 3d image

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14850343

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 15027195

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 14850343

Country of ref document: EP

Kind code of ref document: A1