WO2022245194A1 - 이미지를 처리하기 위한 방법 및 장치 - Google Patents

이미지를 처리하기 위한 방법 및 장치 Download PDF

Info

Publication number
WO2022245194A1
WO2022245194A1 PCT/KR2022/095094 KR2022095094W WO2022245194A1 WO 2022245194 A1 WO2022245194 A1 WO 2022245194A1 KR 2022095094 W KR2022095094 W KR 2022095094W WO 2022245194 A1 WO2022245194 A1 WO 2022245194A1
Authority
WO
WIPO (PCT)
Prior art keywords
view area
view
sub
area
degree
Prior art date
Application number
PCT/KR2022/095094
Other languages
English (en)
French (fr)
Inventor
전강원
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020210112468A external-priority patent/KR20220157270A/ko
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to CN202280036007.1A priority Critical patent/CN117337562A/zh
Priority to EP22805047.2A priority patent/EP4311233A1/en
Priority to US17/743,019 priority patent/US11961428B2/en
Publication of WO2022245194A1 publication Critical patent/WO2022245194A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses

Definitions

  • the present disclosure relates to a method for processing an image and an electronic device thereof.
  • the present disclosure provides a method for processing an image and an electronic device thereof.
  • One aspect of the present disclosure includes obtaining a plurality of images corresponding to a plurality of views; identifying at least one view region overlapping a sub-pixel from among a plurality of view regions corresponding to the plurality of views; identifying a data value corresponding to the sub-pixel for each of at least one image corresponding to the at least one view area; The degree of reflection of the data value for each of the at least one image is determined based on the degree of overlap between the subpixel and the at least one view area, and the degree of reflection of the data value is adjusted according to the determined degree of reflection, and the subpixel is adjusted according to the degree of reflection. determining the output value of; and outputting an image based on output values determined for each of a plurality of subpixels including the subpixel.
  • a method may be provided in which the degree of reflection of the data value increases as the degree of overlap between the sub-pixel and the at least one view region increases.
  • the degree of overlap between the subpixel and the at least one view region is determined based on an overlapping area between the subpixel and the at least one view region.
  • the degree of overlap between the sub-pixel and the at least one view area may increase.
  • the degree of overlap between the subpixel and the at least one view area is determined based on an overlapping length between the subpixel and the center line of the at least one view area. , can provide a method.
  • the method may provide a method characterized in that the degree of overlap between the sub-pixel and the at least one view region increases as the length of the overlap increases.
  • the at least one view area may be a view area in which an area overlapping the sub-pixel is greater than or equal to a predetermined value.
  • the at least one view area is a view area in which a value generated by dividing an area overlapping the sub-pixel by an area of the sub-pixel is equal to or greater than a predetermined value. can do.
  • the at least one view area may be a view area in which a center line overlapping the sub-pixel is equal to or greater than a predetermined value.
  • FIG. 1 Another aspect of the present disclosure is a viewing area separation unit; a memory storing at least one instruction; and at least one processor, wherein the at least one processor executes the at least one instruction to acquire a plurality of images corresponding to a plurality of views, and to display the plurality of views based on the characteristics of the viewing area separator.
  • the at least one processor executes the at least one instruction to acquire a plurality of images corresponding to a plurality of views, and to display the plurality of views based on the characteristics of the viewing area separator.
  • a plurality of view regions determined to correspond to each other at least one view region overlapping with a sub-pixel is identified, and data corresponding to the sub-pixel is identified for each of at least one image corresponding to the at least one view region.
  • a value is identified, a degree of reflection of the data value is determined for each of the at least one image based on an overlapping degree between the sub-pixel and the at least one view region, and a data value adjusted according to the determined degree of reflection is determined. It is possible to provide an electronic device that determines an output value of the subpixel based on the subpixel and outputs an image based on the determined output value for each of a plurality of subpixels including the subpixel.
  • the electronic device may provide an electronic device characterized in that the degree of reflection of the data value increases as the degree of overlap between the sub-pixel and the at least one view area increases.
  • the degree of overlap between the sub-pixel and the at least one view area is determined based on an area where the sub-pixel and the at least one view area overlap. can provide.
  • the electronic device may provide an electronic device characterized in that the degree of overlap between the sub-pixel and the at least one view area increases as the overlapping area increases.
  • the degree of overlap between the subpixel and the at least one view area is determined based on an overlapping length between the subpixel and the center line of the at least one view area.
  • an electronic device may be provided.
  • the electronic device may provide an electronic device characterized in that the degree of overlap between the sub-pixel and the at least one view area increases as the length of the overlap increases.
  • the electronic device may be characterized in that the at least one view area is a view area in which an area overlapping the sub-pixel is greater than or equal to a predetermined value.
  • the at least one view area is a view area in which a value generated by dividing an area overlapping the subpixel by the area of the subpixel is equal to or greater than a predetermined value, characterized in that, the electronic device can provide
  • the electronic device may be characterized in that the at least one view area is a view area in which a length where a center line overlaps with the sub-pixel is equal to or greater than a predetermined value.
  • an electronic device characterized in that the viewing area separation unit includes a lenticular lens or a parallax barrier may be provided.
  • Another aspect of the present disclosure may provide a computer-readable recording medium on which a program for implementing a method performed by the electronic device is recorded.
  • FIG. 1 is a block diagram of an electronic device according to an embodiment of the present disclosure.
  • 2A is a diagram for explaining a process of determining an output value of a subpixel in an existing display device.
  • 2B is a diagram for explaining a process of determining an output value of a subpixel in an existing display device.
  • 2C is a diagram for explaining a process of determining an output value of a sub-pixel in an existing display device.
  • 3A is a diagram for explaining a process of determining an output value of a subpixel in an existing display device.
  • 3B is a diagram for explaining a process of determining an output value of a subpixel in an existing display device.
  • 3C is a diagram for explaining a process of determining an output value of a subpixel in an existing display device.
  • 4A is a diagram for explaining a process of determining an output value of a subpixel by an electronic device according to an embodiment of the present disclosure.
  • 4B is a diagram for explaining a process of determining an output value of a subpixel by an electronic device according to an embodiment of the present disclosure.
  • 4C is a diagram for explaining a process of determining an output value of a subpixel by an electronic device according to an embodiment of the present disclosure.
  • 5A is a diagram for explaining a process of determining an output value of a subpixel by an electronic device according to an embodiment of the present disclosure.
  • 5B is a diagram for explaining a process of determining an output value of a sub-pixel by an electronic device according to an embodiment of the present disclosure.
  • 6A is a diagram for explaining a process of determining an output value of a subpixel by an electronic device according to an embodiment of the present disclosure.
  • 6B is a diagram for explaining a process of determining an output value of a subpixel by an electronic device according to an embodiment of the present disclosure.
  • 6C is a diagram for explaining a process of determining an output value of a sub-pixel by an electronic device according to an embodiment of the present disclosure.
  • FIG. 7A is a diagram for explaining a process of determining an output value of a sub-pixel by an electronic device according to an embodiment of the present disclosure.
  • 7B is a diagram for explaining a process of determining an output value of a sub-pixel by an electronic device according to an embodiment of the present disclosure.
  • 7C is a diagram for explaining a process of determining an output value of a subpixel by an electronic device according to an embodiment of the present disclosure.
  • FIG. 8A is a diagram for explaining a process of determining, by an electronic device, an output value of a subpixel except for a view area in which an overlapping area or ratio with a subpixel is equal to or less than a predetermined value, according to an embodiment of the present disclosure.
  • FIG. 8B is a diagram for explaining a process of determining, by an electronic device, an output value of a subpixel except for a view area in which an overlapping area or ratio with a subpixel is equal to or less than a predetermined value, according to an embodiment of the present disclosure.
  • FIG. 8C is a diagram for explaining a process of determining, by an electronic device, an output value of a subpixel except for a view area in which an overlapping area or ratio with a subpixel is equal to or less than a predetermined value, according to an embodiment of the present disclosure.
  • 9A is a diagram for explaining a process of identifying, by an electronic device, at least one view area overlapping a sub-pixel based on the number of views, according to an embodiment of the present disclosure.
  • 9B is a diagram for explaining a process of identifying, by an electronic device, at least one view area overlapping a sub-pixel based on the number of views, according to an embodiment of the present disclosure.
  • 9C is a diagram for explaining a process of identifying, by an electronic device, at least one view region overlapping a sub-pixel based on the number of views, according to an embodiment of the present disclosure.
  • 10A is a diagram for explaining a process of identifying, by an electronic device, at least one view area overlapping a sub-pixel based on a pixel per inch (PPI) of a display according to an embodiment of the present disclosure.
  • PPI pixel per inch
  • 10B is a diagram for explaining a process of identifying, by an electronic device, at least one view area overlapping a sub-pixel based on a PPI of a display according to an embodiment of the present disclosure.
  • 11A is a diagram for explaining a process of identifying, by an electronic device, at least one view area overlapping a sub-pixel based on a slant angle of a lenticular lens, according to an embodiment of the present disclosure.
  • 11B is a diagram for explaining a process of identifying, by an electronic device, at least one view area overlapping a sub-pixel based on an inclination angle of a lenticular lens according to an embodiment of the present disclosure.
  • FIG. 12 is a flowchart illustrating a process of outputting an image by an electronic device according to an embodiment of the present disclosure.
  • FIG. 13 is a block diagram of an electronic device according to an embodiment of the present disclosure.
  • each block of the process flow chart diagrams and combinations of the flow chart diagrams can be performed by computer program instructions.
  • These computer program instructions may be embodied in a processor of a general purpose computer, special purpose computer, or other programmable data processing equipment, so that the instructions executed by the processor of the computer or other programmable data processing equipment are described in the flowchart block(s). It creates means to perform functions.
  • These computer program instructions may also be stored in a computer usable or computer readable memory that can be directed to a computer or other programmable data processing equipment to implement functionality in a particular way, such that the computer usable or computer readable memory
  • the instructions stored in are also capable of producing an article of manufacture containing instruction means that perform the functions described in the flowchart block(s).
  • the computer program instructions can also be loaded on a computer or other programmable data processing equipment, so that a series of operational steps are performed on the computer or other programmable data processing equipment to create a computer-executed process to generate computer or other programmable data processing equipment. Instructions for performing processing equipment may also provide steps for performing the functions described in the flowchart block(s).
  • each block may represent a module, segment or portion of code including at least one executable instruction for executing specified logical function(s). It should also be noted that in some alternative implementation examples it is possible for the functions mentioned in the blocks to occur out of order. For example, two blocks shown in succession may in fact be executed substantially concurrently, or the blocks may sometimes be executed in reverse order depending on their function.
  • a device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • 'non-temporary storage medium' only means that it is a tangible device and does not contain signals (e.g., electromagnetic waves), and this term refers to the case where data is stored semi-permanently in the storage medium and temporary It does not discriminate if it is saved as .
  • a 'non-temporary storage medium' may include a buffer in which data is temporarily stored.
  • the method according to various embodiments disclosed in this document may be provided by being included in a computer program product.
  • Computer program products may be traded between sellers and buyers as commodities.
  • a computer program product is distributed in the form of a device-readable storage medium (eg compact disc read only memory (CD-ROM)), or through an application store (eg Play Store TM ) or between two user devices ( It can be distributed (eg downloaded or uploaded) online, directly between smartphones.
  • a portion of a computer program product eg, a downloadable app
  • a machine-readable storage medium such as a memory of a manufacturer's server, an application store's server, or a relay server. It can be stored or created temporarily.
  • a view area may mean a virtual area corresponding to a view.
  • an image corresponding to a view may be rendered by one or more sub-pixels overlapping a virtual view area corresponding to the view.
  • a sub-pixel constituting one pixel means a sub-pixel of any one color component among R, G, and B color components constituting the corresponding pixel, or a sub-pixel constituting the corresponding pixel. It may mean a sub-pixel of any one color component among Y, U, and V color components.
  • subpixels at a predetermined location in a plurality of images mean subpixels of any one color component among R, G, and B constituting pixels at the same location among a plurality of images, or pixels at the same location. It may refer to a sub-pixel of any one color component among Y, U, and V color components.
  • the above definition assumes that the embodiment of the present disclosure follows an RGB color format or a YUV color format, and even when other color formats are followed, a sub-pixel may mean a sub-pixel of any one color component.
  • FIG. 1 is a block diagram of an electronic device 100 according to an embodiment of the present disclosure.
  • the electronic device 100 may include a display 110 , a processor 120 and a memory 130 .
  • the configuration of the electronic device 100 is not limited to the above, and may include more or less configurations.
  • the display 110 may display various contents such as text, images, videos, icons, or symbols.
  • the display 110 may be a liquid crystal display (LCD), a light emitting diode (LED) display, an organic light emitting diode (OLED) display, a quantum dot light emitting diode (QLED) display, a microelectromechanical systems (MEMS) display, and an electronic paper display. It may include at least one of, but is not limited thereto.
  • the display 110 may mean an autostereoscopic display.
  • the display 110 may refer to a display that allows a user to view different images according to viewing positions using a viewing area separator such as a lenticular lens or a parallax barrier. , but not limited thereto.
  • the processor 120 may control the overall operation of the electronic device 100 by executing at least one instruction stored in the memory 130 .
  • the processor 120 may obtain a plurality of images corresponding to a plurality of views.
  • the processor 120 may identify at least one view area overlapping a sub-pixel from among view areas determined to correspond to a plurality of views.
  • the processor 120 may identify data values corresponding to sub-pixels for each of at least one image corresponding to at least one view area.
  • the processor 120 determines the degree of reflection of data values for each of at least one image based on the degree of overlap between the subpixels and at least one view region, and uses the data values adjusted according to the determined degree of reflection to determine the degree of reflection of the subpixels. output value can be determined.
  • the processor 120 may output an image using output values determined for each sub-pixel including the sub-pixel.
  • the memory 130 may include a view area determination module 140 , a view area identification module 150 , a data value reflection degree determination module 160 and a subpixel output value determination module 170 .
  • the view region determination module 140 may store instructions for determining a plurality of view regions corresponding to each of the plurality of views, based on the number of views and characteristics of a viewing area separator such as a lenticular lens or a parallax barrier. .
  • the view area identification module 150 may store instructions for identifying at least one view area overlapping a sub-pixel among a plurality of view areas.
  • the data value reflection degree determining module 160 identifies data values corresponding to sub-pixels for each of at least one image corresponding to at least one view area, and based on the overlapping degree between the sub-pixel and at least one view area, at least one Instructions for determining the degree of reflection of data values for each image may be stored.
  • the sub-pixel output value determination module 170 may store instructions for determining the output value of the sub-pixel using the data value adjusted according to the determined reflection degree.
  • 2A to 2C are diagrams for explaining a process of determining an output value of a subpixel in an existing display device.
  • an existing display device may identify at least one view area overlapping a subpixel 200 among a plurality of view areas according to an exemplary embodiment.
  • an existing display device includes a 10th view area 210, a first view area 220, a second view area 230, and a third view overlapping the sub-pixel 200 among 10 view areas.
  • Region 240 can be identified.
  • the tenth view area 210, the first view area 220, the second view area 230, and the third view area 240 are the tenth view (or tenth image), the first view (or first image), a second view (or second image), and a third view (or third image).
  • an existing display device may determine a dominant view area from among at least one view area overlapping the subpixel 200 .
  • a dominant view area For example, in an existing display device, subpixels among the tenth view area 210, the first view area 220, the second view area 230, and the third view area 240 overlap with the subpixel 200.
  • the second view area 230 having the largest overlapping area with 200 may be determined as the dominant view area.
  • an existing display device may determine a data value corresponding to a subpixel 200 in an image corresponding to a dominant view area as an output value of the subpixel 200 .
  • a data value corresponding to the subpixel 200 may mean a data value at the first position in the image.
  • the existing display device may determine the data value of the first position in the second image corresponding to the second view area 230 as the output value of the subpixel 200 by using the relational expression (1) below. have.
  • Output means the output value of the subpixel 200, denotes a data value of a first position in the image corresponding to the dominant view area.
  • the number of views in the stereo-view mode may be two.
  • the existing display device may determine a dominant view area for each subpixel from among at least one view area overlapping the subpixel. For example, an existing display device determines a first view area overlapping the center of the subpixel 250 among the first view area and the second view area overlapping the subpixel 250 at the first position as the dominant view area. can Alternatively, the existing display device may determine the second view area overlapping the center of the subpixel 260 among the first view area and the second view area overlapping the subpixel 260 at the second position as the dominant view area. .
  • an existing display device may determine a data value in an image corresponding to each of the dominant view regions as an output value of each subpixel. For example, the existing display device may determine the data value of the first position in the first image corresponding to the first view area as the output value of the subpixel 250 . Alternatively, the existing display device may determine the data value of the second position in the second image corresponding to the second view area as the output value of the subpixel 260 .
  • 2C illustrates a process of determining an output value of a sub-pixel in a multi-view mode by an existing display device according to an embodiment of the present disclosure.
  • the number of views in the multi-view mode may be plural.
  • the existing display device may determine a dominant view area for each subpixel from among at least one view area overlapping the subpixel. For example, the existing display device determines a sixth view area overlapping the center of the subpixel 270 among the sixth view area and the seventh view area overlapping the subpixel 270 at the third position as the dominant view area.
  • the 15th view area overlapping the center of the subpixel 280 among the 14th view area, the 15th view area, and the 16th view area overlapping the subpixel 280 in the fourth position is the dominant view. area can be determined.
  • an existing display device may determine a data value within an image corresponding to each dominant view area as an output value of each sub-pixel. For example, the existing display device may determine the data value of the third position in the sixth image corresponding to the sixth view area as the output value of the subpixel 270 . Alternatively, the existing display device may determine the data value of the fourth position in the 15th image corresponding to the 15th view area as the output value of the sub-pixel 280 .
  • 3A to 3C are diagrams for explaining a process of determining an output value of a sub-pixel in an existing display device.
  • an existing display device may identify at least one view area overlapping a sub-pixel 300 among a plurality of view areas according to an exemplary embodiment.
  • an existing display device includes a 10th view area 310, a first view area 320, a second view area 330, and a third view overlapping the sub-pixel 300 among 10 view areas.
  • Region 340 can be identified.
  • the tenth view area 310, the first view area 320, the second view area 330, and the third view area 340 are the tenth view (or tenth image), the first view (or first image), a second view (or second image), and a third view (or third image).
  • an existing display device may determine a dominant view area and a sub view area from among at least one view area overlapping the subpixel 300 . For example, in an existing display device, subpixels among the tenth view area 310, the first view area 320, the second view area 330, and the third view area 340 overlap with the subpixel 300. The second view area 330 having the largest overlapping area with 300 may be determined as the dominant view area. Also, the existing display device may determine the first view area 320 as a sub view area based on the distance from the center of the sub pixel 300 . However, this is only an example, and an existing display device may not determine a sub-view area or may determine two or more view areas as a sub-view area.
  • the conventional display device determines the degree of reflection of each data value corresponding to the sub-pixel 300 in the image corresponding to the dominant view area and the sub-view area, and outputs the adjusted data value according to the determined degree of reflection.
  • An output value of the sub-pixel 300 may be determined using this.
  • a data value corresponding to the subpixel 300 may mean a data value at the first position in the image.
  • the existing display device adjusts each of the data value of the first position in the second image and the data value of the first position in the first image according to the determined degree of reflection using the relational expression (2) below, An output value of the pixel 300 may be determined.
  • the degree of reflection of data values in each image may have the same value or may be determined in inverse proportion to the distance from the center of the subpixel 300, but is not limited thereto.
  • Output means the output value of the sub-pixel 300, Means a data value of a first position in the image corresponding to the dominant view area, denotes a data value of a first position in the image corresponding to the sub-view area.
  • Is and each level of reflection when the existing display device does not determine the sub-view area or determines two or more view areas as the sub-view area, relational expression (2) may be changed.
  • an existing display device maps data values of images corresponding to each of the dominant view area and the sub view area to the output value of the subpixel 300
  • the existing display device displays an image representing a smooth change at the boundary of the view area.
  • gear-shaped artifacts occur at a boundary in a specific direction or stripe-shaped artifacts occur in a direction perpendicular to the lens grain in a homogeneous region.
  • 3B illustrates a process of determining an output value of a sub-pixel in a stereo-view mode by an existing display device according to an embodiment of the present disclosure.
  • the number of views in the stereo-view mode may be two.
  • the existing display device may determine a dominant view area and a sub view area from among at least one view area overlapping the subpixel for each subpixel. For example, the existing display device determines a first view area overlapping the center of the subpixel 350 among the first view area and the second view area overlapping the subpixel 350 at the first position as the dominant view area. and determine the second view area as the sub view area. Alternatively, the existing display device determines a second view area overlapping the center of the subpixel 360 among the first view area and the second view area overlapping the subpixel 360 at the second position as the dominant view area, The first view area may be determined as a sub view area.
  • an existing display device may determine an output value of a subpixel by adjusting each data value in an image corresponding to a dominant view area and a subview area according to a degree of reflection. For example, the existing display device may determine the output value of the sub-pixel 350 by adjusting each data value of the first position in the first image and the second image according to the degree of reflection. Alternatively, the existing display device may determine the output value of the sub-pixel 360 by adjusting each data value of the second position in the first image and the second image according to the degree of reflection.
  • 3C illustrates a process of determining an output value of a sub-pixel in a multi-view mode by an existing display device according to an embodiment of the present disclosure.
  • the number of views in the multi-view mode may be plural.
  • the existing display device may determine a dominant view area and a sub view area from among at least one view area overlapping the subpixel for each subpixel. For example, the existing display device determines a sixth view area overlapping the center of the subpixel 370 among the sixth and seventh view areas overlapping the subpixel 370 at the third position as the dominant view area. And the seventh view area may be determined as the sub view area.
  • the 15th view area overlapping the center of the subpixel 380 among the 14th view area, the 15th view area, and the 16th view area overlapping the subpixel 380 in the fourth position is the dominant view. area can be determined.
  • the existing display device may not determine the sub-view area based on the overlapping area between the sub-pixel 380 and the 14th and 16th view areas.
  • an existing display device may determine an output value of a subpixel by adjusting each data value in an image corresponding to a dominant view area and a subview area according to a degree of reflection. For example, the existing display device may determine the output value of the sub-pixel 370 by adjusting each data value of the third position in the sixth image and the seventh image according to the degree of reflection. Alternatively, the existing display device may determine the data value of the fourth position in the 15th image as the output value of the subpixel 380 .
  • 4A to 4C are diagrams for explaining a process in which the electronic device 100 determines an output value of a sub-pixel according to an embodiment of the present disclosure.
  • the electronic device 100 may identify at least one view area overlapping a sub-pixel 400 from among a plurality of view areas according to an embodiment.
  • the electronic device 100 includes a tenth view area 410 overlapping the subpixel 400, a first view area 420, a second view area 430, and a second view area 430 among ten view areas.
  • 3 view areas 440 can be identified.
  • the tenth view area 410, the first view area 420, the second view area 430, and the third view area 440 are the tenth view (or tenth image), the first view (or first image), a second view (or second image), and a third view (or third image).
  • the electronic device 100 may identify a data value corresponding to a sub-pixel for each of at least one image corresponding to at least one view area.
  • a data value corresponding to the subpixel 400 may mean a data value at the first position in the image.
  • the electronic device 100 identifies the data value of the first position for each of the tenth view area 410, the first view area 420, the second view area 430, and the third view area 440. can do. That is, the electronic device 100 includes the data value of the first position in the tenth image, the data value of the first position in the first image, the data value of the first position in the second image, and the data of the first position in the third image. Each value can be identified.
  • the electronic device 100 determines the degree of reflection of data values corresponding to the subpixels 400 for each image, based on the degree of overlap between the subpixels 400 and at least one view area. can decide In this case, the degree of reflection of the data value may mean a weight applied to each data value. For example, in the electronic device 100, the subpixel 400 overlaps the tenth view area 410, the first view area 420, the second view area 430, and the third view area 440. Based on the degree, the reflection degree of the data value of the first position may be determined for each of the tenth image, the first image, the second image, and the third image.
  • the electronic device 100 may determine an overlapping degree between the subpixel 400 and at least one view area based on an area where the subpixel 400 and at least one view area overlap. .
  • the subpixel 400 overlaps each of the tenth view area 410, the first view area 420, the second view area 430, and the third view area 440. Based on the area of the sub-pixel 400 and the tenth view area 410, the first view area 420, the second view area 430, and the third view area 440 overlapping degree can be determined. have. This will be described later with reference to FIGS. 5A to 5C .
  • the electronic device 100 determines the degree of overlap between the subpixel 400 and the at least one view area based on the overlap length between the center line of the subpixel 400 and the at least one view area. can decide For example, in the electronic device 100, the sub-pixel 400 and the tenth view area 410, the first view area 420, the second view area 430, and the third view area 440 are respectively centered.
  • the degree to which the sub-pixel 400 overlaps the tenth view area 410, the first view area 420, the second view area 430, and the third view area 440 based on the overlapping length of the lines. can decide This will be described later with reference to FIGS. 6A to 6C.
  • the electronic device 100 includes the subpixel 400, the tenth view area 410, and the first view area based on a distance from at least one view area to the center of the subpixel 400. 420 , the degree to which the second view area 430 and the third view area 440 overlap may be determined.
  • the electronic device 100 includes the sub-pixel 400 and the tenth view area 410, the first view area 420, the second view area 430, and the third view area 440, respectively.
  • the degree of overlap can be determined. This will be described later with reference to FIGS. 7A to 7C .
  • the electronic device 100 may determine an output value of the sub-pixel 400 using a data value adjusted according to the degree of reflection determined for each image. For example, the electronic device 100 adjusts each of the data values of the first position in the tenth image, the first image, the second image, and the third image according to the determined degree of reflection using relational expression (3) below. By doing so, the output value of the sub-pixel 400 can be determined.
  • Output means the output value of the sub-pixel 400, Means the data value of the first position in the image corresponding to each view area, silver each level of reflection.
  • the electronic device 100 determines the output value of the subpixel 400 in consideration of all view areas overlapping with the subpixel 400, thereby effectively reducing and outputting artifacts.
  • the technical effect of improving the image quality can be obtained.
  • the pixel per inch (PPI) decreases, or the slant angle of the lenticular lens decreases, as more view areas are overlapped with sub-pixels, these technical effects can be increased. This will be described later with reference to FIGS. 9A to 11B .
  • the electronic device 100 may determine the weight of at least one view area overlapping the sub-pixel 400 except for some view areas based on a predetermined rule, according to an embodiment. For example, the electronic device 100 may determine the weight except for a view area in which the overlapping area is equal to or less than a predetermined value among at least one view area overlapping the subpixel 400 . This will be described later with reference to FIGS. 8A to 8C .
  • the 4B illustrates a process in which the electronic device 100 determines an output value of a sub-pixel in a stereo-view mode according to an embodiment of the present disclosure.
  • the number of views in the stereo-view mode may be two.
  • the electronic device 100 may identify at least one view area overlapping the sub-pixel for each sub-pixel. For example, the electronic device 100 may identify a first view area and a second view area overlapping the subpixel 450 at the first location. Alternatively, the electronic device 100 may identify the first view area and the second view area overlapping the subpixel 460 at the second location.
  • the electronic device 100 may identify a data value corresponding to a sub-pixel for each of at least one image corresponding to at least one view area. For example, the electronic device 100 may identify the data value of the first position for each of the first image and the second image. Alternatively, the electronic device 100 may identify the data value of the second position for each of the first image and the second image.
  • the electronic device 100 may determine the degree of reflection of data values corresponding to sub-pixels for each of at least one image, based on the degree to which each sub-pixel overlaps with at least one view area. For example, the electronic device 100 determines the degree of reflection of the data value of the first position in the first image based on the overlapping degree of the subpixel 450 with the first view area and the second view area, respectively. 2 It is possible to determine the degree of reflection of the data value of the first position in the image. Alternatively, the electronic device 100 determines the degree of reflection of the data value of the second position in the first image and the second image based on the overlapping degree of the subpixel 460 with the first view area and the second view area, respectively. The reflection degree of the data value of my second position may be determined.
  • the electronic device 100 may determine an output value of a subpixel by adjusting each data value according to the degree of reflection determined for each image. For example, the electronic device 100 may determine the output value of the sub-pixel 450 by adjusting each data value of the first position for each of the first image and the second image according to the determined degree of reflection. Alternatively, the electronic device 100 may determine the output value of the sub-pixel 460 by adjusting each data value of the second position for each of the first image and the second image according to the determined degree of reflection.
  • 4C illustrates a process in which the electronic device 100 determines an output value of a sub-pixel in a multi-view mode according to an embodiment of the present disclosure.
  • the number of views in the multi-view mode may be plural.
  • the electronic device 100 may identify at least one view area overlapping the sub-pixel for each sub-pixel. For example, the electronic device 100 may identify a sixth view area and a seventh view area overlapping the subpixel 470 at the third location. Alternatively, the electronic device 100 may identify the fourteenth view area, the fifteenth view area, and the sixteenth view area overlapping the subpixel 480 at the fourth position.
  • the electronic device 100 may identify a data value corresponding to a sub-pixel for each of at least one image corresponding to at least one view area. For example, the electronic device 100 may identify the data value of the third position for each of the sixth image and the seventh image. Alternatively, the electronic device 100 may identify the data value of the fourth position for each of the 14th, 15th, and 16th images.
  • the electronic device 100 may determine the reflection degree of data values corresponding to sub-pixels for each of at least one image, based on the degree to which each sub-pixel overlaps with at least one view area. For example, the electronic device 100 determines the degree of reflection of the data value of the third position in the sixth image based on the overlapping degree of the subpixel 470 with the sixth and seventh view regions, respectively. 7 It is possible to determine the degree of reflection of the data value of the third position in the image. Alternatively, the electronic device 100 determines the sub-pixel 480 for each of the 14th, 15th, and 16th images based on the degree of overlap with each of the 14th, 15th, and 16th view regions. The degree of reflection of data values at 4 positions can be determined.
  • the electronic device 100 may determine an output value of a subpixel by adjusting each data value according to the degree of reflection determined for each image. For example, the electronic device 100 may determine the output value of the sub-pixel 470 by adjusting each data value of the third position for the sixth image and the seventh image according to the determined degree of reflection. Alternatively, the electronic device 100 may determine the output value of the sub-pixel 480 by adjusting each of the data values of the fourth position for each of the 14th, 15th, and 16th images according to the determined degree of reflection.
  • 5A and 5B are diagrams for explaining a process in which the electronic device 100 determines an output value of a subpixel according to an embodiment of the present disclosure.
  • the electronic device 100 may identify at least one view area overlapping the subpixel 500 at the first position among a plurality of view areas according to an embodiment.
  • the electronic device 100 includes a 10th view area 510, a first view area 520, a second view area 530, and a 10th view area 510 overlapping the sub-pixel 500 among 10 view areas.
  • a third view area 540 and a fourth view area 550 may be identified.
  • the tenth view area 510, the first view area 520, the second view area 530, the third view area 540, and the fourth view area 550 each have a tenth view (or tenth view area).
  • image a first view (or first image), a second view (or second image), a third view (or third image), and a virtual region corresponding to a fourth view (or fourth image). can do.
  • the electronic device 100 may identify a data value corresponding to the sub-pixel 500 for each of at least one image corresponding to at least one view area. For example, the electronic device 100 may identify the data value of the first position for each of the tenth image, the first image, the second image, the third image, and the fourth image.
  • the electronic device 100 determines the degree of reflection of data values corresponding to the subpixels 500 for each image, based on the degree of overlap between the subpixels 500 and at least one view area. can decide In this case, the electronic device 100 may determine an overlapping degree between the subpixel 500 and at least one view area based on an area where the subpixel 500 and at least one view area overlap.
  • the electronic device 100 identifies an area where each subpixel 500 and at least one view area overlap, and based on the identified area, data of a first position in at least one image The degree of reflection of the value can be determined.
  • a second column 560 of FIG. 5B represents an overlapping area between each view area and the sub-pixel 500, and a third column 570 represents the degree of reflection of data values at a first position in each image.
  • the electronic device 100 may identify an overlapping area between the sub-pixel 500 and each of the at least one view area, assuming that each view area has a parallelogram shape having the same horizontal length. have.
  • the electronic device 100 includes the sub-pixel 500, the tenth view area 510, the first view area 520, and the second view area by using the following relational expressions (4) to (9). Areas in which each of the area 530 , the third view area 540 and the fourth view area 550 overlap may be identified.
  • the upper coordinate value and the lower coordinate value of the subpixel 500 are the inclination angles. It can be set to have a difference according to. in other words, The coordinate values of the upper end and the lower end of the sub-pixel 500 where the straight line having a slope of 500 intersect may have the same value. Accordingly, the four corners of the subpixel 500 may have coordinate values of (5.74, 3.25), (8.63, 3.25), (6.94, 8.46), and (9.83, 8.46), respectively.
  • the coordinate axis value of the subpixel 500 is only an example and may vary according to the coordinate axis setting method, unit, etc., and accordingly , , , and Values may also vary.
  • the electronic device 100 may determine the degree of reflection of the data value of the first position for each of the at least one image based on the overlapping area of the subpixel 500 and each of the at least one view region.
  • the electronic device 100 includes a subpixel 500, a tenth view area 510, a first view area 520, a second view area 530, a third view area 540, and a fourth view area.
  • the tenth, first, second, third, and fourth images are divided.
  • a degree of reflection of the data value of the first position may be determined.
  • the degree of overlap between the subpixel 500 and the view area may increase, and accordingly, the degree of reflection of data values in the image may increase.
  • the electronic device 100 may determine the output value of the sub-pixel 500 by adjusting each data value of at least one image according to the determined degree of reflection. For example, the electronic device 100 determines the degree of reflection of each of the data values of the first position in the tenth image, the first image, the second image, the third image, and the fourth image as shown in relational expression (10) below.
  • An output value of the subpixel 500 may be determined by adjusting according to .
  • Output means the output value of the sub-pixel 500, Means a data value of a first position in an image corresponding to each view area.
  • 6A to 6C are diagrams for explaining a process in which the electronic device 100 determines an output value of a subpixel according to an embodiment of the present disclosure. Operations overlapping those of FIGS. 5A and 5B will be briefly described or omitted.
  • the electronic device 100 may identify at least one view area overlapping the subpixel 600 at the first position among a plurality of view areas according to an embodiment.
  • the electronic device 100 includes a 10th view area 610, a first view area 620, a second view area 630, and a 10th view area 610 overlapping the sub-pixel 600 among 10 view areas.
  • a third view area 640 and a fourth view area 650 may be identified.
  • the tenth view area 610, the first view area 620, the second view area 630, the third view area 640, and the fourth view area 650 each have a tenth view (or tenth view area).
  • image a first view (or first image), a second view (or second image), a third view (or third image), and a virtual region corresponding to a fourth view (or fourth image). can do.
  • the electronic device 100 may identify a data value corresponding to the sub-pixel 600 for each of at least one image corresponding to at least one view area. For example, the electronic device 100 may identify the data value of the first position for each of the tenth image, the first image, the second image, the third image, and the fourth image.
  • the electronic device 100 determines the degree of reflection of data values corresponding to the subpixels 600 for each image, based on the degree of overlap between the subpixels 600 and at least one view area. can decide In this case, the electronic device 100 may determine the degree to which the subpixel 600 and at least one view area overlap based on the overlapping length of the center line of the subpixel 600 and the at least one view area.
  • the electronic device 100 may identify a coordinate value of a center line of each of the at least one view area, assuming that each view area has a parallelogram shape having the same horizontal length. For example, the electronic device 100 sets 6.5, which is the coordinate value of a point where a diagonal line connecting the lower left corner and upper right corner of the subpixel 600 and the center line 625 of the first view area meet, to the center line of the first view area. It can be identified by the coordinate value of (625). In the same way, the electronic device 100 sets the coordinate values of the center line 635 of the second view area, the center line 645 of the third view area, and the center line 655 of the fourth view area to 7.5 and 8.5, respectively. and 9.5.
  • the center line 610 of the tenth view area is located outside the sub-pixel 600 but may have a coordinate value of 5.5.
  • the electronic device 100 may determine the degree of reflection of data values in proportion to the overlapping length between the sub-pixel 600 and the center line of each view area. For example, when the length of the center line of the view area overlapping the sub-pixel 600 is maximum, the electronic device 100 may map the reflection degree 1 value to the corresponding view area. That is, a value of reflection degree 1 may be mapped to a view area in which the coordinate value of the center line is between 6.94 and 8.63. Also, when the center line of the view area does not overlap the sub-pixel 600, the electronic device 100 may map a reflection degree value of 0 to the corresponding view area.
  • a reflection degree value of 0 may be mapped to a view area in which the coordinate value of the center line has a value of 5.74 or less or 9.83 or more. Accordingly, even in a view area in which an area overlapping with the sub-pixel 600 exists, when the center line does not overlap with the sub-pixel 600, a reflection degree value of 0 may be mapped.
  • the electronic device 100 may map a reflection degree proportional to the overlapping length to the corresponding view area. That is, a reflection degree proportional to the length of the overlapping center line may be mapped to a view area in which the coordinate value of the center line has a value between 5.74 and 6.94 or between 8.63 and 9.83.
  • the electronic device 100 may determine the degree of reflection of data values for each image based on the coordinate value of the center line of each view area according to an embodiment.
  • a second column 660 of FIG. 6C represents the coordinate values of the center line of each view area
  • a third column 670 represents the degree of reflection of the data value of the first position in each image
  • a fourth column 680 represents a value obtained by normalizing the degree of reflection of the third column 670 .
  • the electronic device 100 may map a reflection degree to each view area based on a coordinate value of a center line of each view area. For example, the electronic device 100 may map the reflection degree 1 value to the second view area 630 and the third view area 640 having coordinate values of the center line between 6.94 and 8.63. Also, the electronic device 100 may map a reflection degree value of 0 to the tenth view area 610 having a center line coordinate value of 5.74 or less. In the electronic device 100, the coordinate value of the center line is proportional to the length of the overlapping center line in the first view area 620 and the fourth view area 650 having a value between 5.74 and 6.94 or between 8.63 and 9.83. The degree of reflection can be mapped.
  • a reflection degree value of 0.7652 may be mapped to the first view area 620
  • a reflection degree value of 0.3472 may be mapped to the fourth view area 650 .
  • the electronic device 100 may normalize the reflection degrees so that the sum of the values of the determined reflection degrees becomes 1.
  • the electronic device 100 may determine the output value of the sub-pixel 600 by adjusting each data value of at least one image according to the normalized reflection degree. For example, the electronic device 100 adjusts each of the data values of the first position in the first image, the second image, the third image, and the fourth image according to the normalized reflection degree, as shown in relational expression (11) below. Thus, an output value of the subpixel 600 may be determined.
  • Output means the output value of the sub-pixel 600, , , and Means a data value of a first position in an image corresponding to each view area.
  • the electronic device 100 determines the degree of reflection of data values based on the length of the center line overlapping the sub-pixel 600, thereby determining the area of the view area overlapping the sub-pixel 600.
  • the amount of computation required to calculate can be reduced.
  • FIGS. 6A to 6C are views for explaining a process in which the electronic device 100 determines an output value of a sub-pixel according to an embodiment of the present disclosure. Operations overlapping with those of FIGS. 6A to 6C will be briefly described or omitted.
  • the electronic device 100 may identify at least one view area overlapping a sub-pixel 700 at a first position among a plurality of view areas according to an embodiment.
  • the electronic device 100 includes a 10th view area 710, a first view area 720, a second view area 730, and a 10th view area 710 overlapping the sub-pixel 700 among 10 view areas.
  • a third view area 740 and a fourth view area 750 may be identified.
  • the tenth view area 710, the first view area 720, the second view area 730, the third view area 740, and the fourth view area 750 each have a tenth view (or tenth view area).
  • image a first view (or first image), a second view (or second image), a third view (or third image), and a virtual region corresponding to a fourth view (or fourth image). can do.
  • the electronic device 100 may identify a data value corresponding to the sub-pixel 700 for each of at least one image corresponding to at least one view area. For example, the electronic device 100 may identify the data value of the first position for each of the tenth image, the first image, the second image, the third image, and the fourth image.
  • the electronic device 100 determines the degree of reflection of data values corresponding to the sub-pixels 700 for each image, based on the degree of overlap between the sub-pixels 700 and at least one view area. can decide In this case, the electronic device 100 may determine the degree to which the subpixel 700 overlaps with the at least one view area based on the distance from the center line of the at least one view area to the center of the subpixel 700 . .
  • the electronic device 100 may identify a coordinate value of the center of a subpixel 700 according to an embodiment. For example, the electronic device 100 identifies 7.785, which is an intermediate value between the coordinate value (5.74) of the lower left corner and the coordinate value (9.83) of the upper right corner of the subpixel 700, as the coordinate value of the center of the subpixel 700. can do. Alternatively, the electronic device 100 may identify 7.785, which is an intermediate value between the upper left coordinate value (6.94) and the lower right coordinate value (8.63) of the subpixel 700, as the coordinate value of the center of the subpixel 700. have. However, this is only an example, and the electronic device 100 may identify the coordinate value of the center of the sub-pixel 700 in a different way.
  • the electronic device 100 may identify a distance from the center line of each of the at least one view area to the center of the sub-pixel 700 .
  • the electronic device 100 sets 1.285, which is a difference between the coordinate value (6.5) of the center line 725 of the first view area and the coordinate value (7.785) of the center of the sub-pixel 700, to the first view area. It can be identified as the distance from the center line 725 to the center of the sub-pixel 700 .
  • the electronic device 100 determines the center line of the subpixel 700 from the center line 735 of the second view area, the center line 745 of the third view area, and the center line 755 of the fourth view area.
  • the distances to can be identified as 0.285, 0.715, and 1.715, respectively.
  • the electronic device 100 may determine the degree of reflection of data values for each image based on the distance from the center line of each view area to the center of the subpixel 700 according to an embodiment.
  • a second column 760 of FIG. 7C represents coordinate values of the center line of each view area
  • a third column 770 represents the distance from the center line of each view area to the center of the subpixel 700 .
  • a fourth column 780 of FIG. 7C represents the degree of reflection of data values at the first position in each image
  • a fifth column 790 represents a normalized value of the degree of reflection of the fourth column 780 .
  • the electronic device 100 may map a reciprocal number of a distance from the center line of each view area to the center of the sub-pixel 700 to a degree of reflection of data values in each image. For example, the electronic device 100 may determine 0.77821, which is a reciprocal number of 1.285, which is the distance from the center line 725 of the first view area to the center of the subpixel 700, to the degree of reflection of data values in the first image. . In the same way, the electronic device 100 may determine the degree of reflection of each of the data values in the second image, the third image, and the fourth image as 3.50877, 1.3986, and 0.58309. However, this is only one embodiment, and the method for determining the degree of reflection of the data value based on the distance from the view area to the center of the sub-pixel 700 is not limited to the above-described embodiment.
  • the electronic device 100 may normalize the reflection degrees so that the sum of the values of the determined reflection degrees becomes 1.
  • the electronic device 100 may determine the output value of the sub-pixel 700 by adjusting each data value of at least one image according to the normalized reflection degree. For example, the electronic device 100 adjusts each of the data values of the first position in the first image, the second image, the third image, and the fourth image according to the normalized reflection degree, as shown in relational expression (12) below.
  • relational expression (12) shown in relational expression (12) below.
  • Output means the output value of the sub-pixel 700, , , and Means a data value of a first position in an image corresponding to each view area.
  • 8A to 8C illustrate a process in which the electronic device 100 determines an output value of a sub-pixel except for a view area in which an overlapping area or ratio with a sub-pixel is equal to or less than a predetermined value, according to an embodiment of the present disclosure. It is a drawing for Operations overlapping with those of FIGS. 5A to 5C will be briefly described or omitted.
  • the electronic device 100 may identify at least one view area overlapping a subpixel 800 at a first position among a plurality of view areas according to an embodiment.
  • the electronic device 100 includes a 10th view area 810, a first view area 820, a second view area 830, and a 10th view area 810 overlapping the sub-pixel 800 among 10 view areas.
  • a third view area 840 and a fourth view area 850 may be identified.
  • the tenth view area 810, the first view area 820, the second view area 830, the third view area 840, and the fourth view area 850 each have a tenth view (or tenth view area).
  • image a first view (or first image), a second view (or second image), a third view (or third image), and a virtual region corresponding to a fourth view (or fourth image). can do.
  • the electronic device 100 may identify a data value corresponding to the sub-pixel 800 for each of at least one image corresponding to at least one view area. For example, the electronic device 100 may identify the data value of the first position for each of the tenth image, the first image, the second image, the third image, and the fourth image.
  • the electronic device 100 determines the degree of reflection of data values corresponding to the subpixels 800 for each image, based on the degree of overlap between the subpixels 800 and at least one view area. can decide In this case, the electronic device 100 may determine an overlapping degree between the subpixel 800 and at least one view area based on an area where the subpixel 800 and at least one view area overlap.
  • the electronic device 100 may determine the reflection degree of data values excluding some view areas among at least one view area overlapping the sub-pixel 800 based on a predetermined rule. For example, the electronic device 100 may determine the degree of reflection of data values except for a view area in which an area overlapping the sub-pixel 800 is equal to or less than a predetermined value. Alternatively, the electronic device 100 may determine the degree of reflection of data values except for a view area in which a value generated by dividing the area overlapping the subpixel 800 by the area of the subpixel 800 is equal to or less than a predetermined value.
  • the predetermined rule is not limited to the above.
  • the electronic device 100 may determine the reflection degree of data values only for a view area in which an area overlapping a subpixel 800 is greater than or equal to a predetermined value.
  • a second column 860 of FIG. 8B represents an overlapping area between each view region and the sub-pixel 800
  • a third column 865 represents an overlapping area equal to or greater than a predetermined value
  • a fourth column 870 represents the degree of reflection of the data value of the first position in each image.
  • the electronic device 100 may exclude a view area in which an area overlapping the subpixel 800 is less than a predetermined value.
  • a predetermined value For example, when the predetermined value is 1, the electronic device 100 may exclude the tenth view area 810 having an overlapping area of 0.146748 with the subpixel 800 .
  • the predetermined value is only an example, and may be predefined differently or changed based on user input.
  • the electronic device 100 may determine the output value of the sub-pixel 800 by adjusting each data value of at least one image according to the determined degree of reflection. For example, the electronic device 100 adjusts each of the data values of the first position in the first image, the second image, the third image, and the fourth image according to the determined degree of reflection, as shown in relational expression (13) below. , an output value of the sub-pixel 800 may be determined.
  • Output means the output value of the sub-pixel 800, , , and Means a data value of a first position in an image corresponding to each view area.
  • the electronic device 100 divides the area overlapping the subpixel 800 by the area of the subpixel, and the reflection degree of the data value only for a view area in which a value generated by dividing the area is equal to or greater than a predetermined value. can decide
  • a second column 880 of FIG. 8C represents the overlapping area between each view region and the subpixel 800
  • a third column 885 represents the overlapping area between each view region and the subpixel 800. It represents a value generated by dividing by the area of the pixel 800 or an area ratio.
  • a fourth column 890 of FIG. 8C represents an area ratio equal to or greater than a predetermined value
  • a fifth column 895 represents the degree of reflection of the data value of the first position in each image.
  • the electronic device 100 may exclude a value generated by dividing the area overlapping the subpixel 800 by the area of the subpixel 800 or a view area in which the area ratio is equal to or less than a predetermined value.
  • a predetermined value is 0.1
  • the electronic device 100 excludes the tenth view area 810 having an area ratio of 0.009746 overlapping the subpixel 800 and the fourth view area 850 having an overlapping area ratio of 0.099322. can do.
  • the predetermined value is only an example, and may be predefined differently or changed based on user input.
  • the electronic device 100 may determine the output value of the sub-pixel 800 by adjusting each data value of at least one image according to the determined degree of reflection. For example, the electronic device 100 adjusts each of the data values of the first position in the first image, the second image, and the third image according to the determined degree of reflection, as shown in relational expression (14) below, so that the subpixel ( 800) can determine the output value.
  • Output means the output value of the sub-pixel 800, , and Means a data value of a first position in an image corresponding to each view area.
  • the electronic device 100 may determine the degree of reflection of data values only for a view area in which the length of the center line overlapping the sub-pixel 800 is greater than or equal to a predetermined value (not shown). For example, the electronic device 100 excludes view areas in which the length of the center line overlapping the sub-pixel 800 is less than 1, and the electronic device 100 has a data value only for view areas in which the length of the center line overlapping the sub-pixel 800 is 1 or more. degree of reflection can be determined.
  • the predetermined value is only an example, and may be predefined differently or changed based on user input.
  • 9A to 9C are diagrams for explaining a process of identifying, by the electronic device 100, at least one view region overlapping with a sub-pixel based on the number of views, according to an embodiment of the present disclosure.
  • the electronic device 100 may determine a plurality of view regions corresponding to a plurality of views based on the number of views. For example, the electronic device 100 may equally divide one pitch of the lenticular lens by the number of views in a parallelogram shape having the same horizontal length. The electronic device 100 may map a plurality of view areas to each of the equally divided lenticular lens areas so as to correspond to the order of the plurality of views.
  • the electronic device 100 divides one pitch of the lenticular lens into 5 parts and divides the plurality of view areas into 5 parts of the lenticular lens according to an embodiment. Each can be mapped to.
  • the electronic device 100 may identify a first view area 910 overlapping the sub-pixel 900 from among a plurality of view areas. In this case, the first view area 910 may mean a virtual area corresponding to the first view.
  • the electronic device 100 divides one pitch of the lenticular lens into 10 equal parts and divides the plurality of view areas into 10 equal parts of the lenticular lens according to an embodiment. Each can be mapped to.
  • the electronic device 100 may identify a second view area 920 and a third view area 930 overlapping the subpixel 900 from among a plurality of view areas.
  • the second view area 920 and the third view area 930 may mean virtual areas corresponding to the second view and the third view, respectively.
  • the electronic device 100 divides one pitch of the lenticular lens into 20 equal parts and divides the plurality of view areas into 20 equal parts of the lenticular lens according to an embodiment. Each can be mapped to.
  • the electronic device 100 may identify a fourth view area 940 , a fifth view area 950 , and a sixth view area 960 overlapping the subpixel 900 among a plurality of view areas.
  • the fourth view area 940 , the fifth view area 950 , and the sixth view area 960 may mean virtual areas corresponding to the fourth view, the fifth view, and the sixth view, respectively.
  • the electronic device 100 can increase a technical effect of reducing artifacts by considering all overlapping view areas.
  • PPI pixel per inch
  • the electronic device 100 may identify a first view area 1010 and a second view area 1020 overlapping the subpixel 1000 among a plurality of view areas.
  • the first view area 1010 and the second view area 1020 may mean virtual areas corresponding to the first view and the second view, respectively.
  • the electronic device 100 includes a third view area 1030, a first view area 1040, a second view area 1050, and a sub-pixel 1070 overlapping among a plurality of view areas.
  • a fourth view area 1060 can be identified.
  • the third view area 1030, the first view area 1040, the second view area 1050, and the fourth view area 1060 are the third view, the first view, the second view, and the fourth view, respectively. It may mean a virtual area corresponding to .
  • the number of view regions overlapping the sub-pixel 1000 may increase.
  • the electronic device 100 may increase a technical effect of reducing artifacts by considering all overlapping view areas.
  • 11A and 11B are diagrams for explaining a process of identifying, by the electronic device 100, at least one view area overlapping a sub-pixel based on a slant angle of a lenticular lens, according to an embodiment of the present disclosure; to be.
  • the electronic device 100 may identify a first view area 1110 and a second view area 1120 overlapping the subpixel 1100 among a plurality of view areas.
  • the first view area 1110 and the second view area 1120 may mean virtual areas corresponding to the first view and the second view, respectively.
  • the electronic device 100 includes a third view area 1140, a fourth view area 1150, and a first view area 1160 overlapping the sub-pixel 1100 among a plurality of view areas. can be identified.
  • the third view area 1140, the fourth view area 1150, and the first view area 1160 may mean virtual areas corresponding to the third view, the fourth view, and the first view, respectively.
  • the number of view regions overlapping the sub-pixel 1100 may increase.
  • the electronic device 100 can increase the technical effect of reducing artifacts by considering all overlapping view areas.
  • the inclination angle shown in FIGS. 11A and 11B and As an example, the inclination angle of the lenticular lens may be expressed in a different way. (For example, the inclination angle of a lenticular lens is or In this case, the inclination angle of the lenticular lens and the number of view regions overlapping the sub-pixel 1100 may have a tendency opposite to that described above.
  • FIG. 12 is a flowchart illustrating a process of outputting an image by an electronic device according to an embodiment of the present disclosure.
  • step S1210 the electronic device may acquire a plurality of images corresponding to a plurality of views.
  • the electronic device may identify at least one view region overlapping a sub-pixel from among view regions determined to correspond to a plurality of views. According to an embodiment, the electronic device may determine a plurality of view regions corresponding to the plurality of views, based on the number of views and the characteristics of the viewing area separator.
  • the number of at least one view area overlapping with the sub-pixel may increase as the PPI of the display decreases.
  • the number of at least one view area overlapping the sub-pixel may increase as the number of views increases.
  • the number of at least one view area overlapping with the sub-pixel may increase as the inclination angle of the lenticular lens decreases.
  • the electronic device may identify a data value corresponding to a sub-pixel for each of at least one image corresponding to at least one view area.
  • a data value corresponding to the subpixel may mean a data value at a first position in the image.
  • step S1240 the electronic device determines the degree of reflection of data values for each of at least one image based on the degree of overlap between the sub-pixels and at least one view region, and uses the data values adjusted according to the determined degree of reflection to determine the degree of reflection of the data values for each image.
  • the output value of the pixel can be determined.
  • the greater the degree of overlap between the sub-pixel and the at least one view region the greater the degree of reflection of data values.
  • the electronic device may determine an overlapping degree between a subpixel and at least one view area based on an area where the subpixel and at least one view area overlap. In this case, the larger the area where the subpixel overlaps with the at least one view area, the greater the degree of overlap between the subpixel and the at least one view area.
  • the electronic device may determine the degree of overlap between the subpixel and the at least one view area based on the length of the overlap between the center line of the subpixel and the at least one view area. In this case, the longer the overlapping length of the center line between the subpixel and the at least one view area, the greater the degree of overlap between the subpixel and the at least one view area.
  • the electronic device may determine an overlapping degree between the subpixel and the at least one view area based on a distance from the at least one view area to the center of the subpixel. In this case, the shorter the distance from the at least one view area to the center of the subpixel, the greater the degree of overlap between the subpixel and the at least one view area.
  • the electronic device may determine the reflection degree of data values except for some view areas among at least one view area overlapping the sub-pixel based on a predetermined rule. For example, the electronic device may determine the degree of reflection of data values only for a view area in which an area overlapping a subpixel is greater than or equal to a predetermined value. Alternatively, the electronic device may determine the reflection degree of the data value only for a view area in which a value generated by dividing an area overlapping a subpixel by an area of the subpixel is greater than or equal to a predetermined value. The electronic device may determine the degree of reflection of data values only for a view area in which the length of a center line overlapping a subpixel is greater than or equal to a predetermined value.
  • the electronic device may output an image using output values determined for each of a plurality of sub-pixels including sub-pixels.
  • the output image may mean a multi-view image.
  • FIG. 13 is a block diagram of an electronic device 100 according to an embodiment of the present disclosure.
  • the electronic device 100 may include a processor 1320, a memory 1340, and a viewing area separator 1360.
  • the processor 1320 may correspond to the processor 120 of FIG. 1
  • the memory 1340 may correspond to the memory 130 of FIG. 1 .
  • the viewing area separator 1360 may be included in the display 110 of FIG. 1 and may include a lenticular lens or a parallax barrier.
  • the configuration of the electronic device 100 is not limited to the above, and may include more or less configurations.
  • the processor 1320 acquires a plurality of images corresponding to a plurality of views by executing at least one instruction stored in the memory 1340, and determines the view region corresponding to the plurality of views. ), at least one view region overlapping with the sub-pixel may be identified. Also, the processor 1320 may execute at least one instruction stored in the memory 1340 to identify a data value corresponding to a subpixel for each of at least one image corresponding to at least one view area.
  • the processor 1320 executes at least one instruction stored in the memory 1340 to determine the degree of reflection of data values for each of the at least one image based on the overlapping degree between the sub-pixel and the at least one view region, and An output value of a subpixel may be determined using a data value adjusted according to a degree of reflection.
  • the processor 1320 may execute at least one instruction stored in the memory 1340 to output an image by using an output value determined for each subpixel including the subpixel.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

복수의 뷰들에 대응하는 복수의 영상들을 획득하는 단계; 복수의 뷰들에 대응하는 복수의 뷰 영역(view region)들 중에서, 서브 픽셀과 중첩되는 적어도 하나의 뷰 영역을 식별하는 단계; 적어도 하나의 뷰 영역에 대응하는 적어도 하나의 영상 별로 서브 픽셀에 대응하는 데이터 값을 식별하는 단계; 서브 픽셀과 적어도 하나의 뷰 영역이 중첩되는 정도에 기초하여, 적어도 하나의 영상 별로 데이터 값의 반영 정도를 결정하고, 결정된 반영 정도에 따라 조절된 데이터 값에 기초하여 상기 서브 픽셀의 출력 값을 결정하는 단계; 및 서브 픽셀을 포함하는 다수의 서브 픽셀 별로 결정된 출력 값에 기초하여 영상을 출력하는 단계를 포함하는, 방법이 개시된다.

Description

이미지를 처리하기 위한 방법 및 장치
본 개시는 이미지를 처리하기 위한 방법 및 그 전자 장치에 관한 것이다.
최근 사용자가 시청 위치에 따라 서로 다른 영상을 볼 수 있도록 하는 디스플레이가 도입되면서, 아티팩트(artifact)를 효과적으로 저감할 수 있는 방안에 대한 관심이 높아지고 있다.
현재의 기술은 하나의 서브 픽셀에 하나 또는 둘의 뷰 영역을 매핑하여, 서브 픽셀의 출력 값을 결정하고 있다. 이 경우, 뷰 영역의 경계에서 부드러운 변화를 나타내는 영상을 출력할 수 있으나, 특정 방향의 경계에서 톱니바퀴 모양의 아티팩트가 발생하거나, homogeneous 영역에서 렌즈 결에 수직방향으로 줄무늬 모양의 아티팩트가 발생하는 문제점이 존재한다.
본 개시는 이미지를 처리하기 위한 방법 및 그 전자 장치를 제공한다.
본 개시의 일 측면은 복수의 뷰들에 대응하는 복수의 영상들을 획득하는 단계; 상기 복수의 뷰들에 대응하는 복수의 뷰 영역(view region)들 중에서, 서브 픽셀과 중첩되는 적어도 하나의 뷰 영역을 식별하는 단계; 상기 적어도 하나의 뷰 영역에 대응하는 적어도 하나의 영상 별로 상기 서브 픽셀에 대응하는 데이터 값을 식별하는 단계; 상기 서브 픽셀과 상기 적어도 하나의 뷰 영역이 중첩되는 정도에 기초하여, 상기 적어도 하나의 영상 별로 상기 데이터 값의 반영 정도를 결정하고, 상기 결정된 반영 정도에 따라 조절된 데이터 값에 기초하여 상기 서브 픽셀의 출력 값을 결정하는 단계; 및 상기 서브 픽셀을 포함하는 다수의 서브 픽셀 별로 결정된 출력 값에 기초하여 영상을 출력하는 단계를 포함하는, 방법을 제공할 수 있다.
또한, 본 개시의 일 실시예에서 상기 서브 픽셀과 상기 적어도 하나의 뷰 영역이 중첩되는 정도가 클수록, 상기 데이터 값의 반영 정도가 커지는 것을 특징으로 하는, 방법을 제공할 수 있다.
또한, 본 개시의 일 실시예에서 상기 서브 픽셀과 상기 적어도 하나의 뷰 영역이 중첩되는 정도는 상기 서브 픽셀과 상기 적어도 하나의 뷰 영역이 중첩되는 면적에 기초하여 결정되는 것을 특징으로 하는, 방법을 제공할 수 있다.
또한, 본 개시의 일 실시예에서 상기 중첩되는 면적이 클수록 상기 서브 픽셀과 상기 적어도 하나의 뷰 영역이 중첩되는 정도가 커지는 것을 특징으로 하는, 방법을 제공할 수 있다.
또한, 본 개시의 일 실시예에서 상기 서브 픽셀과 상기 적어도 하나의 뷰 영역이 중첩되는 정도는 상기 서브 픽셀과 상기 적어도 하나의 뷰 영역의 중심 선이 중첩되는 길이에 기초하여 결정되는 것을 특징으로 하는, 방법을 제공할 수 있다.
또한, 본 개시의 일 실시예에서 상기 중첩되는 길이가 길수록 상기 서브 픽셀과 상기 적어도 하나의 뷰 영역이 중첩되는 정도가 커지는 것을 특징으로 하는, 방법을 제공할 수 있다.
또한, 본 개시의 일 실시예에서 상기 적어도 하나의 뷰 영역은 상기 서브 픽셀과 중첩되는 면적이 기 결정된 값 이상인 뷰 영역인 것을 특징으로 하는, 방법을 제공할 수 있다.
또한, 본 개시의 일 실시예에서 상기 적어도 하나의 뷰 영역은 상기 서브 픽셀과 중첩되는 면적을 상기 서브 픽셀의 면적으로 나누어서 생성된 값이 기 결정된 값 이상인 뷰 영역인 것을 특징으로 하는, 방법을 제공할 수 있다.
또한, 본 개시의 일 실시예에서 상기 적어도 하나의 뷰 영역은 중심 선이 상기 서브 픽셀과 중첩되는 길이가 기 결정된 값 이상인 뷰 영역인 것을 특징으로 하는, 방법을 제공할 수 있다.
본 개시의 다른 측면은 시역 분리부; 적어도 하나의 인스트럭션을 저장하는 메모리; 및 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는 상기 적어도 하나의 인스트럭션을 실행하여, 복수의 뷰들에 대응하는 복수의 영상들을 획득하고, 상기 시역 분리부의 특성에 기초하여 상기 복수의 뷰들에 대응하도록 결정되는 복수의 뷰 영역(view region)들 중에서, 서브 픽셀과 중첩되는 적어도 하나의 뷰 영역을 식별하고, 상기 적어도 하나의 뷰 영역에 대응하는 적어도 하나의 영상 별로 상기 서브 픽셀에 대응하는 데이터 값을 식별하고, 상기 서브 픽셀과 상기 적어도 하나의 뷰 영역이 중첩되는 정도에 기초하여, 상기 적어도 하나의 영상 별로 상기 데이터 값의 반영 정도를 결정하고, 상기 결정된 반영 정도에 따라 조절된 데이터 값에 기초하여 상기 서브 픽셀의 출력 값을 결정하고, 상기 서브 픽셀을 포함하는 다수의 서브 픽셀 별로 결정된 출력 값에 기초하여 영상을 출력하는, 전자 장치를 제공할 수 있다.
또한, 본 개시의 일 실시예에서 상기 서브 픽셀과 상기 적어도 하나의 뷰 영역이 중첩되는 정도가 클수록, 상기 데이터 값의 반영 정도가 커지는 것을 특징으로 하는, 전자 장치를 제공할 수 있다.
또한, 본 개시의 일 실시예에서 상기 서브 픽셀과 상기 적어도 하나의 뷰 영역이 중첩되는 정도는 상기 서브 픽셀과 상기 적어도 하나의 뷰 영역이 중첩되는 면적에 기초하여 결정되는 것을 특징으로 하는, 전자 장치를 제공할 수 있다.
또한, 본 개시의 일 실시예에서 상기 중첩되는 면적이 클수록 상기 서브 픽셀과 상기 적어도 하나의 뷰 영역이 중첩되는 정도가 커지는 것을 특징으로 하는, 전자 장치를 제공할 수 있다.
또한, 본 개시의 일 실시예에서 상기 서브 픽셀과 상기 적어도 하나의 뷰 영역이 중첩되는 정도는 상기 서브 픽셀과 상기 적어도 하나의 뷰 영역의 중심 선이 중첩되는 길이에 기초하여 결정되는 것을 특징으로 하는, 전자 장치를 제공할 수 있다.
또한, 본 개시의 일 실시예에서 상기 중첩되는 길이가 길수록 상기 서브 픽셀과 상기 적어도 하나의 뷰 영역이 중첩되는 정도가 커지는 것을 특징으로 하는, 전자 장치를 제공할 수 있다.
또한, 본 개시의 일 실시예에서 상기 적어도 하나의 뷰 영역은 상기 서브 픽셀과 중첩되는 면적이 기 결정된 값 이상인 뷰 영역인 것을 특징으로 하는, 전자 장치를 제공할 수 있다.
또한, 본 개시의 일 실시예에서 상기 적어도 하나의 뷰 영역은 상기 서브 픽셀과 중첩되는 면적을 상기 서브 픽셀의 면적으로 나누어서 생성된 값이 기 결정된 값 이상인 뷰 영역인 것을 특징으로 하는, 전자 장치를 제공할 수 있다.
또한, 본 개시의 일 실시예에서 상기 적어도 하나의 뷰 영역은 중심 선이 상기 서브 픽셀과 중첩되는 길이가 기 결정된 값 이상인 뷰 영역인 것을 특징으로 하는, 전자 장치를 제공할 수 있다.
또한, 본 개시의 일 실시예에서 상기 시역 분리부는 렌티큘러 렌트(lenticular lens) 또는 패럴랙스 배리어(parallax barrier)을 포함하는 것을 특징으로 하는, 전자 장치를 제공할 수 있다.
본 개시의 또 다른 측면은 상기 전자 장치에 의해 수행되는 방법을 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체를 제공할 수 있다.
도 1은 본 개시의 일 실시예에 따른 전자 장치의 블록도이다.
도 2a는 기존 디스플레이 장치가 서브 픽셀의 출력 값을 결정하는 과정을 설명하기 위한 도면이다.
도 2b는 기존 디스플레이 장치가 서브 픽셀의 출력 값을 결정하는 과정을 설명하기 위한 도면이다.
도 2c는 기존 디스플레이 장치가 서브 픽셀의 출력 값을 결정하는 과정을 설명하기 위한 도면이다.
도 3a는 기존 디스플레이 장치가 서브 픽셀의 출력 값을 결정하는 과정을 설명하기 위한 도면이다.
도 3b는 기존 디스플레이 장치가 서브 픽셀의 출력 값을 결정하는 과정을 설명하기 위한 도면이다.
도 3c는 기존 디스플레이 장치가 서브 픽셀의 출력 값을 결정하는 과정을 설명하기 위한 도면이다.
도 4a는 본 개시의 일 실시예에 따라 전자 장치가 서브 픽셀의 출력 값을 결정하는 과정을 설명하기 위한 도면이다.
도 4b는 본 개시의 일 실시예에 따라 전자 장치가 서브 픽셀의 출력 값을 결정하는 과정을 설명하기 위한 도면이다.
도 4c는 본 개시의 일 실시예에 따라 전자 장치가 서브 픽셀의 출력 값을 결정하는 과정을 설명하기 위한 도면이다.
도 5a는 본 개시의 일 실시예에 따라 전자 장치가 서브 픽셀의 출력 값을 결정하는 과정을 설명하기 위한 도면이다.
도 5b는 본 개시의 일 실시예에 따라 전자 장치가 서브 픽셀의 출력 값을 결정하는 과정을 설명하기 위한 도면이다.
도 6a는 본 개시의 일 실시예에 따라 전자 장치가 서브 픽셀의 출력 값을 결정하는 과정을 설명하기 위한 도면이다.
도 6b는 본 개시의 일 실시예에 따라 전자 장치가 서브 픽셀의 출력 값을 결정하는 과정을 설명하기 위한 도면이다.
도 6c는 본 개시의 일 실시예에 따라 전자 장치가 서브 픽셀의 출력 값을 결정하는 과정을 설명하기 위한 도면이다.
도 7a는 본 개시의 일 실시예에 따라 전자 장치가 서브 픽셀의 출력 값을 결정하는 과정을 설명하기 위한 도면이다.
도 7b는 본 개시의 일 실시예에 따라 전자 장치가 서브 픽셀의 출력 값을 결정하는 과정을 설명하기 위한 도면이다.
도 7c는 본 개시의 일 실시예에 따라 전자 장치가 서브 픽셀의 출력 값을 결정하는 과정을 설명하기 위한 도면이다.
도 8a는 본 개시의 일 실시예에 따라 전자 장치가 서브 픽셀과 중첩되는 면적 또는 비율이 기 결정된 값 이하인 뷰 영역을 제외하고 서브 픽셀의 출력 값을 결정하는 과정을 설명하기 위한 도면이다.
도 8b는 본 개시의 일 실시예에 따라 전자 장치가 서브 픽셀과 중첩되는 면적 또는 비율이 기 결정된 값 이하인 뷰 영역을 제외하고 서브 픽셀의 출력 값을 결정하는 과정을 설명하기 위한 도면이다.
도 8c는 본 개시의 일 실시예에 따라 전자 장치가 서브 픽셀과 중첩되는 면적 또는 비율이 기 결정된 값 이하인 뷰 영역을 제외하고 서브 픽셀의 출력 값을 결정하는 과정을 설명하기 위한 도면이다.
도 9a는 본 개시의 일 실시예에 따라 전자 장치가 뷰들의 수의 기초하여 서브 픽셀과 중첩되는 적어도 하나의 뷰 영역을 식별하는 과정을 설명하기 위한 도면이다.
도 9b는 본 개시의 일 실시예에 따라 전자 장치가 뷰들의 수의 기초하여 서브 픽셀과 중첩되는 적어도 하나의 뷰 영역을 식별하는 과정을 설명하기 위한 도면이다.
도 9c는 본 개시의 일 실시예에 따라 전자 장치가 뷰들의 수의 기초하여 서브 픽셀과 중첩되는 적어도 하나의 뷰 영역을 식별하는 과정을 설명하기 위한 도면이다.
도 10a는 본 개시의 일 실시예에 따라 전자 장치가 디스플레이의 PPI(pixel per inch)에 기초하여 서브 픽셀과 중첩되는 적어도 하나의 뷰 영역을 식별하는 과정을 설명하기 위한 도면이다.
도 10b는 본 개시의 일 실시예에 따라 전자 장치가 디스플레이의 PPI에 기초하여 서브 픽셀과 중첩되는 적어도 하나의 뷰 영역을 식별하는 과정을 설명하기 위한 도면이다.
도 11a는 본 개시의 일 실시예에 따라 전자 장치가 렌티큘러 렌즈의 경사각(slant angle)에 기초하여 서브 픽셀과 중첩되는 적어도 하나의 뷰 영역을 식별하는 과정을 설명하기 위한 도면이다.
도 11b는 본 개시의 일 실시예에 따라 전자 장치가 렌티큘러 렌즈의 경사각에 기초하여 서브 픽셀과 중첩되는 적어도 하나의 뷰 영역을 식별하는 과정을 설명하기 위한 도면이다.
도 12는 본 개시의 일 실시예에 따라 전자 장치가 영상을 출력하는 과정을 나타내는 흐름도이다.
도 13은 본 개시의 일 실시예에 따른 전자 장치의 블록도이다.
이하, 본 개시의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
아래에서는 실시예를 설명함에 있어서 본 개시가 속하는 기술 분야에 익히 알려져 있고 본 개시와 직접적으로 관련이 없는 기술 내용에 대해서는 설명을 생략한다. 이는 불필요한 설명을 생략함으로써 본 개시의 요지를 흐리지 않고 더욱 명확히 전달하기 위함이다.
마찬가지 이유로 첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 개략적으로 도시하였다. 또한, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다. 각 도면에서 동일한 또는 대응하는 구성요소에는 동일한 참조 번호를 부여하였다.
본 개시의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술될 실시예들을 참조하면 명확해질 것이다. 그러나 본 개시는 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 개시를 완전하게 하고, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 본 개시의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 개시는 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
이때, 처리 흐름도 도면들의 각 블록과 흐름도 도면들의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도 블록(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 흐름도 블록(들)에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도 블록(들)에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.
또한, 각 블록은 특정된 논리적 기능(들)을 실행하기 위한 적어도 하나의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또한, 몇 가지 대체 실행 예시들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.
본 개시에서, 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적 저장매체'는 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다. 일 예로, '비일시적 저장매체'는 데이터가 임시적으로 저장되는 버퍼를 포함할 수 있다.
일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품(예: 다운로드 가능한 앱(downloadable app))의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
본 개시에서, 뷰 영역은 뷰에 대응하는 가상의 영역을 의미할 수 있다. 본 개시에서 뷰에 대응하는 영상은, 뷰에 대응하는 가상의 뷰 영역과 중첩되는 하나 이상의 서브 픽셀들에 의해 렌더링될 수 있다.
본 개시에서, 하나의 픽셀을 구성하는 서브 픽셀(sub-pixel)은, 해당 픽셀을 구성하는 R, G 및 B 컬러 성분들 중 어느 하나의 컬러 성분의 서브 픽셀을 의미하거나, 해당 픽셀을 구성하는 Y, U 및 V 컬러 성분들 중 어느 하나의 컬러 성분의 서브 픽셀을 의미할 수 있다. 본 개시에서 복수의 영상들 내의 소정 위치의 서브 픽셀들은, 복수의 영상들 중 동일한 위치의 픽셀들을 구성하는 R, G 및 B 중 어느 하나의 컬러 성분의 서브 픽셀들을 의미하거나, 동일한 위치의 픽셀들을 구성하는 Y, U 및 V 컬러 성분들 중 어느 하나의 컬러 성분의 서브 픽셀을 의미할 수 있다. 상기 정의는 본 개시의 실시예가 RGB 컬러 포맷 또는 YUV 컬러 포맷을 따를 경우를 가정한 것으로, 다른 컬러 포맷을 따르는 경우에도 서브 픽셀은 어느 하나의 컬러 성분의 서브 픽셀을 의미할 수 있다.
도 1은 본 개시의 일 실시예에 따른 전자 장치(100)의 블록도이다.
일 실시예에 따르면, 전자 장치(100)는 디스플레이(110), 프로세서(120) 및 메모리(130)를 포함할 수 있다. 그러나, 전자 장치(100)의 구성은 전술한 바에 한정되지 않고, 더 많은 구성을 포함하거나 적은 구성을 포함할 수 있다.
디스플레이(110)는 텍스트, 이미지, 동영상, 아이콘 또는 기호와 같은 다양한 콘텐츠를 표시할 수 있다. 일 실시예에 따르면, 디스플레이(110)는 액정 디스플레이 (LCD), 발광 다이오드(LED) 디스플레이, 유기 발광 다이오드(OLED) 디스플레이, 양자점 발광 다이오드(QLED) 디스플레이, MEMS(microelectromechanical systems) 디스플레이 및 전자 종이 디스플레이 중 적어도 하나를 포함할 수 있으나, 이에 한정되지 않는다.
일 실시예에 따르면, 디스플레이(110)는 입체 영상(autostereoscopic) 디스플레이를 의미할 수 있다. 예를 들어, 디스플레이(110)는 렌티큘러 렌즈(lenticular lens) 또는 패럴랙스 배리어(parallax barrier) 등과 같은 시역 분리부를 이용하여 사용자가 시청 위치에 따라 서로 다른 영상을 볼 수 있도록 하는 디스플레이를 의미할 수 있으나, 이에 한정되지 않는다.
프로세서(120)는 메모리(130) 내에 저장된 적어도 하나의 인스트럭션을 실행함으로써 전자 장치(100)의 전반적인 동작을 제어할 수 있다.
예를 들어, 프로세서(120)는 복수의 뷰들에 대응하는 복수의 영상들을 획득할 수 있다.
프로세서(120)는 복수의 뷰들에 대응하도록 결정된 뷰 영역들 중에서, 서브 픽셀과 중첩되는 적어도 하나의 뷰 영역을 식별할 수 있다.
프로세서(120)는 적어도 하나의 뷰 영역에 대응하는 적어도 하나의 영상 별로 서브 픽셀에 대응하는 데이터 값을 식별할 수 있다.
프로세서(120)는 서브 픽셀과 적어도 하나의 뷰 영역이 중첩되는 정도에 기초하여, 적어도 하나의 영상 별로 데이터 값의 반영 정도를 결정하고, 결정된 반영 정도에 따라 조절된 데이터 값을 이용하여 서브 픽셀의 출력 값을 결정할 수 있다.
프로세서(120)는 서브 픽셀을 포함하는 다수의 서브 픽셀 별로 결정된 출력 값을 이용하여 영상을 출력할 수 있다.
메모리(130)는 뷰 영역 결정 모듈(140), 뷰 영역 식별 모듈(150), 데이터 값 반영 정도 결정 모듈(160) 및 서브 픽셀 출력 값 결정 모듈(170)을 포함할 수 있다.
뷰 영역 결정 모듈(140)은 복수의 뷰들의 수와 렌티큘러 렌즈 또는 패럴랙스 배리어 등과 같은 시역 분리부의 특성에 기초하여, 복수의 뷰들 각각에 대응하는 복수의 뷰 영역들을 결정하기 위한 인스트럭션들을 저장할 수 있다.
뷰 영역 식별 모듈(150)은 복수의 뷰 영역들 중에서 서브 픽셀과 중첩되는 적어도 하나의 뷰 영역을 식별하기 위한 인스트럭션들을 저장할 수 있다.
데이터 값 반영 정도 결정 모듈(160)은 적어도 하나의 뷰 영역에 대응하는 적어도 하나의 영상 별로 서브 픽셀에 대응하는 데이터 값을 식별하고, 서브 픽셀과 적어도 하나의 뷰 영역이 중첩되는 정도에 기초하여 적어도 하나의 영상 별로 데이터 값의 반영 정도를 결정하기 위한 인스트럭션들을 저장할 수 있다.
서브 픽셀 출력 값 결정 모듈(170)은 결정된 반영 정도에 따라 조절된 데이터 값을 이용하여 서브 픽셀의 출력 값을 결정하기 위한 인스트럭션들을 저장할 수 있다.
도 2a 내지 도 2c는 기존 디스플레이 장치가 서브 픽셀의 출력 값을 결정하는 과정을 설명하기 위한 도면이다.
도 2a를 참조하면, 기존 디스플레이 장치는 일 실시예에 따라 복수의 뷰 영역들 중에서, 서브 픽셀(200)과 중첩되는 적어도 하나의 뷰 영역을 식별할 수 있다. 예를 들어, 기존 디스플레이 장치는 10개의 뷰 영역들 중에서, 서브 픽셀(200)과 중첩되는 제10 뷰 영역(210), 제1 뷰 영역(220), 제2 뷰 영역(230) 및 제3 뷰 영역(240)을 식별할 수 있다. 이때, 제10 뷰 영역(210), 제1 뷰 영역(220), 제2 뷰 영역(230) 및 제3 뷰 영역(240)은 각각 제10 뷰 (또는 제 10 영상), 제1 뷰 (또는 제1 영상), 제2 뷰 (또는 제2 영상) 및 제3 뷰 (또는 제3 영상)에 대응하는 가상의 영역을 의미할 수 있다.
일 실시예에 따르면, 기존 디스플레이 장치는 서브 픽셀(200)과 중첩되는 적어도 하나의 뷰 영역 중에서 도미넌트(dominant) 뷰 영역을 결정할 수 있다. 예를 들어, 기존 디스플레이 장치는 서브 픽셀(200)과 중첩되는 제10 뷰 영역(210), 제1 뷰 영역(220), 제2 뷰 영역(230) 및 제3 뷰 영역(240) 중 서브 픽셀(200)과 중첩되는 면적이 가장 큰 제2 뷰 영역(230)을 도미넌트 뷰 영역으로 결정할 수 있다.
일 실시예에 따르면, 기존 디스플레이 장치는 도미넌트 뷰 영역에 대응하는 영상 내 서브 픽셀(200)에 대응하는 데이터 값을 서브 픽셀(200)의 출력 값으로 결정할 수 있다. 이때, 서브 픽셀(200)이 제1 위치에 위치하는 경우, 서브 픽셀(200)에 대응하는 데이터 값은 영상 내 제1 위치의 데이터 값을 의미할 수 있다. 예를 들어, 기존 디스플레이 장치는 아래의 관계식 (1)을 이용하여, 제2 뷰 영역(230)에 대응하는 제2 영상 내 제1 위치의 데이터 값을 서브 픽셀(200)의 출력 값으로 결정할 수 있다.
Figure PCTKR2022095094-appb-img-000001
(1)
Output은 서브 픽셀(200)의 출력 값을 의미하며,
Figure PCTKR2022095094-appb-img-000002
는 도미넌트 뷰 영역에 대응하는 영상 내 제1 위치의 데이터 값을 의미한다.
이와 같이 기존 디스플레이 장치가 도미넌트 뷰 영역에 대응하는 영상의 데이터 값을 서브 픽셀(200)의 출력 값으로 매핑하는 경우, 뷰 영역의 경계가 서브 픽셀(200)의 경계와 일치하지 않을 때마다 아티팩트(artifact)가 발생하여, 낮은 화질의 영상이 출력되는 문제점이 존재한다.
도 2b는 본 개시의 일 실시예에 따라 기존 디스플레이 장치가 스테레오(stereo)-뷰 모드에서의 서브 픽셀의 출력 값을 결정하는 과정을 도시한다. 이때, 스테레오-뷰 모드에서의 뷰의 수는 2일 수 있다.
일 실시예에 따르면, 기존 디스플레이 장치는 서브 픽셀 각각에 대하여 서브 픽셀과 중첩되는 적어도 하나의 뷰 영역 중에서 도미넌트 뷰 영역을 결정할 수 있다. 예를 들어, 기존 디스플레이 장치는 제1 위치의 서브 픽셀(250)과 중첩되는 제1 뷰 영역 및 제2 뷰 영역 중 서브 픽셀(250)의 중심과 중첩되는 제1 뷰 영역을 도미넌트 뷰 영역으로 결정할 수 있다. 또는, 기존 디스플레이 장치는 제2 위치의 서브 픽셀(260)과 중첩되는 제1 뷰 영역 및 제2 뷰 영역 중 서브 픽셀(260)의 중심과 중첩되는 제2 뷰 영역을 도미넌트 뷰 영역으로 결정할 수 있다.
일 실시예에 따르면, 기존 디스플레이 장치는 도미넌트 뷰 영역들 각각에 대응하는 영상 내 데이터 값을 서브 픽셀 각각의 출력 값으로 결정할 수 있다. 예를 들어, 기존 디스플레이 장치는 제1 뷰 영역에 대응하는 제1 영상 내 제1 위치의 데이터 값을 서브 픽셀(250)의 출력 값으로 결정할 수 있다. 또는, 기존 디스플레이 장치는 제2 뷰 영역에 대응하는 제2 영상 내 제2 위치의 데이터 값을 서브 픽셀(260)의 출력 값으로 결정할 수 있다.
도 2c는 본 개시의 일 실시예에 따라 기존 디스플레이 장치가 멀티(multi)-뷰 모드에서의 서브 픽셀의 출력 값을 결정하는 과정을 도시한다. 이때, 멀티-뷰 모드에서의 뷰의 수는 복수일 수 있다.
일 실시예에 따르면, 기존 디스플레이 장치는 서브 픽셀 각각에 대하여 서브 픽셀과 중첩되는 적어도 하나의 뷰 영역 중에서 도미넌트 뷰 영역을 결정할 수 있다. 예를 들어, 기존 디스플레이 장치는 제3 위치의 서브 픽셀(270)과 중첩되는 제6 뷰 영역 및 제7 뷰 영역 중 서브 픽셀(270)의 중심과 중첩되는 제6 뷰 영역을 도미넌트 뷰 영역으로 결정할 수 있다. 또는, 기존 디스플레이 장치는 제4 위치의 서브 픽셀(280)과 중첩되는 제14 뷰 영역, 제15 뷰 영역 및 제16 뷰 영역 중 서브 픽셀(280)의 중심과 중첩되는 제15 뷰 영역을 도미넌트 뷰 영역으로 결정할 수 있다.
일 실시예에 따르면, 기존 디스플레이 장치는 각각의 도미넌트 뷰 영역에 대응하는 영상 내 데이터 값을 서브 픽셀 각각의 출력 값으로 결정할 수 있다. 예를 들어, 기존 디스플레이 장치는 제6 뷰 영역에 대응하는 제6 영상 내 제3 위치의 데이터 값을 서브 픽셀(270)의 출력 값으로 결정할 수 있다. 또는, 기존 디스플레이 장치는 제15 뷰 영역에 대응하는 제15 영상 내 제4 위치의 데이터 값을 서브 픽셀(280)의 출력 값으로 결정할 수 있다.
도 3a 내지 도 3c는 기존 디스플레이 장치가 서브 픽셀의 출력 값을 결정하는 과정을 설명하기 위한 도면이다.
도 3a를 참조하면, 기존 디스플레이 장치는 일 실시예에 따라 복수의 뷰 영역들 중에서, 서브 픽셀(300)과 중첩되는 적어도 하나의 뷰 영역을 식별할 수 있다. 예를 들어, 기존 디스플레이 장치는 10개의 뷰 영역들 중에서, 서브 픽셀(300)과 중첩되는 제10 뷰 영역(310), 제1 뷰 영역(320), 제2 뷰 영역(330) 및 제3 뷰 영역(340)을 식별할 수 있다. 이때, 제10 뷰 영역(310), 제1 뷰 영역(320), 제2 뷰 영역(330) 및 제3 뷰 영역(340)은 각각 제10 뷰 (또는 제 10 영상), 제1 뷰 (또는 제1 영상), 제2 뷰 (또는 제2 영상) 및 제3 뷰 (또는 제3 영상)에 대응하는 가상의 영역을 의미할 수 있다.
일 실시예에 따르면, 기존 디스플레이 장치는 서브 픽셀(300)과 중첩되는 적어도 하나의 뷰 영역 중에서 도미넌트(dominant) 뷰 영역 및 서브(sub) 뷰 영역을 결정할 수 있다. 예를 들어, 기존 디스플레이 장치는 서브 픽셀(300)과 중첩되는 제10 뷰 영역(310), 제1 뷰 영역(320), 제2 뷰 영역(330) 및 제3 뷰 영역(340) 중 서브 픽셀(300)과 중첩되는 면적이 가장 큰 제2 뷰 영역(330)을 도미넌트 뷰 영역으로 결정할 수 있다. 또한, 기존 디스플레이 장치는 서브 픽셀(300)의 중심과의 거리에 기초하여 제1 뷰 영역(320)을 서브 뷰 영역으로 결정할 수 있다. 다만, 이는 일 실시예에 불과하며, 기존 디스플레이 장치는 서브 뷰 영역을 결정하지 않거나, 2 이상의 뷰 영역들을 서브 뷰 영역으로 결정할 수 있다.
일 실시예에 따르면, 기존 디스플레이 장치는 도미넌트 뷰 영역 및 서브 뷰 영역에 대응하는 영상 내 서브 픽셀(300)에 대응하는 데이터 값 각각의 반영 정도를 결정하고, 결정된 반영 정도에 따라 조절된 데이터 값을 이용하여 서브 픽셀(300)의 출력 값을 결정할 수 있다. 이때, 서브 픽셀(300)이 제1 위치에 위치하는 경우, 서브 픽셀(300)에 대응하는 데이터 값은 영상 내 제1 위치의 데이터 값을 의미할 수 있다. 예를 들어, 기존 디스플레이 장치는 아래의 관계식 (2)를 이용하여, 제2 영상 내 제1 위치의 데이터 값과 제1 영상 내 제1 위치의 데이터 값 각각을 결정된 반영 정도에 따라 조절하여, 서브 픽셀(300)의 출력 값을 결정할 수 있다. 이때, 각각의 영상 내 데이터 값의 반영 정도는 동일한 값을 가지거나, 서브 픽셀(300)의 중심으로부터의 거리에 반비례하도록 결정될 수 있으나, 이에 한정되지 않는다.
Figure PCTKR2022095094-appb-img-000003
(2)
Output은 서브 픽셀(300)의 출력 값을 의미하고,
Figure PCTKR2022095094-appb-img-000004
은 도미넌트 뷰 영역에 대응하는 영상 내 제1 위치의 데이터 값을 의미하며,
Figure PCTKR2022095094-appb-img-000005
은 서브 뷰 영역에 대응하는 영상 내 제1 위치의 데이터 값을 의미한다. 또한,
Figure PCTKR2022095094-appb-img-000006
Figure PCTKR2022095094-appb-img-000007
Figure PCTKR2022095094-appb-img-000008
Figure PCTKR2022095094-appb-img-000009
각각의 반영 정도를 의미한다. 다만, 기존 디스플레이 장치가 서브 뷰 영역을 결정하지 않거나, 2 이상의 뷰 영역들을 서브 뷰 영역으로 결정하는 경우, 관계식 (2)는 변경될 수 있다.
이와 같이 기존 디스플레이 장치가 도미넌트 뷰 영역 및 서브 뷰 영역 각각에 대응하는 영상의 데이터 값을 서브 픽셀(300)의 출력 값으로 매핑하는 경우, 기존 디스플레이 장치는 뷰 영역의 경계에서 부드러운 변화를 나타내는 영상을 출력할 수 있다. 다만, 특정 방향의 경계에서 톱니바퀴 모양의 아티팩트(artifact)가 발생하거나, homogeneous 영역에서 렌즈 결에 수직방향으로 줄무늬 모양의 아티팩트(artifact)가 발생하는 문제점이 존재한다.
도 3b는 본 개시의 일 실시예에 따라 기존 디스플레이 장치가 스테레오(stereo)-뷰 모드에서의 서브 픽셀의 출력 값을 결정하는 과정을 도시한다. 이때, 스테레오-뷰 모드에서의 뷰의 수는 2일 수 있다.
일 실시예에 따르면, 기존 디스플레이 장치는 서브 픽셀 각각에 대하여 서브 픽셀과 중첩되는 적어도 하나의 뷰 영역 중에서 도미넌트 뷰 영역 및 서브 뷰 영역을 결정할 수 있다. 예를 들어, 기존 디스플레이 장치는 제1 위치의 서브 픽셀(350)과 중첩되는 제1 뷰 영역 및 제2 뷰 영역 중 서브 픽셀(350)의 중심과 중첩되는 제1 뷰 영역을 도미넌트 뷰 영역으로 결정하고, 제2 뷰 영역을 서브 뷰 영역으로 결정할 수 있다. 또는, 기존 디스플레이 장치는 제2 위치의 서브 픽셀(360)과 중첩되는 제1 뷰 영역 및 제2 뷰 영역 중 서브 픽셀(360)의 중심과 중첩되는 제2 뷰 영역을 도미넌트 뷰 영역으로 결정하고, 제1 뷰 영역을 서브 뷰 영역으로 결정할 수 있다.
일 실시예에 따르면, 기존 디스플레이 장치는 도미넌트 뷰 영역 및 서브 뷰 영역에 대응하는 영상 내 데이터 값 각각을 반영 정도에 따라 조절하여, 서브 픽셀의 출력 값을 결정할 수 있다. 예를 들어, 기존 디스플레이 장치는 제1 영상 및 제2 영상 내 제1 위치의 데이터 값 각각을 반영 정도에 따라 조절하여, 서브 픽셀(350)의 출력 값을 결정할 수 있다. 또는, 기존 디스플레이 장치는 제1 영상 및 제2 영상 내 제2 위치의 데이터 값 각각을 반영 정도에 따라 조절하여, 서브 픽셀(360)의 출력 값을 결정할 수 있다.
도 3c는 본 개시의 일 실시예에 따라 기존 디스플레이 장치가 멀티(multi)-뷰 모드에서의 서브 픽셀의 출력 값을 결정하는 과정을 도시한다. 이때, 멀티-뷰 모드에서의 뷰의 수는 복수일 수 있다.
일 실시예에 따르면, 기존 디스플레이 장치는 서브 픽셀 각각에 대하여 서브 픽셀과 중첩되는 적어도 하나의 뷰 영역 중에서 도미넌트 뷰 영역 및 서브 뷰 영역을 결정할 수 있다. 예를 들어, 기존 디스플레이 장치는 제3 위치의 서브 픽셀(370)과 중첩되는 제6 뷰 영역 및 제7 뷰 영역 중 서브 픽셀(370)의 중심과 중첩되는 제6 뷰 영역을 도미넌트 뷰 영역으로 결정하고 제7 뷰 영역을 서브 뷰 영역으로 결정할 수 있다. 또는, 기존 디스플레이 장치는 제4 위치의 서브 픽셀(380)과 중첩되는 제14 뷰 영역, 제15 뷰 영역 및 제16 뷰 영역 중 서브 픽셀(380)의 중심과 중첩되는 제15 뷰 영역을 도미넌트 뷰 영역으로 결정할 수 있다. 기존 디스플레이 장치는 서브 픽셀(380)과 제14 뷰 영역 및 제16 뷰 영역 간의 중첩되는 면적에 기초하여, 서브 뷰 영역을 결정하지 않을 수 있다.
일 실시예에 따르면, 기존 디스플레이 장치는 도미넌트 뷰 영역 및 서브 뷰 영역에 대응하는 영상 내 데이터 값 각각을 반영 정도에 따라 조절하여, 서브 픽셀의 출력 값을 결정할 수 있다. 예를 들어, 기존 디스플레이 장치는 제6 영상 및 제7 영상 내 제3 위치의 데이터 값 각각을 반영 정도에 따라 조절하여, 서브 픽셀(370)의 출력 값을 결정할 수 있다. 또는, 기존 디스플레이 장치는 제15 영상 내 제4 위치의 데이터 값을 서브 픽셀(380)의 출력 값으로 결정할 수 있다.
도 4a 내지 도 4c는 본 개시의 일 실시예에 따라 전자 장치(100)가 서브 픽셀의 출력 값을 결정하는 과정을 설명하기 위한 도면이다.
도 4a를 참조하면, 전자 장치(100)는 일 실시예에 따라 복수의 뷰 영역들 중에서, 서브 픽셀(400)과 중첩되는 적어도 하나의 뷰 영역을 식별할 수 있다. 예를 들어, 전자 장치(100)는 10개의 뷰 영역들 중에서, 서브 픽셀(400)과 중첩되는 제10 뷰 영역(410), 제1 뷰 영역(420), 제2 뷰 영역(430) 및 제3 뷰 영역(440)을 식별할 수 있다. 이때, 제10 뷰 영역(410), 제1 뷰 영역(420), 제2 뷰 영역(430) 및 제3 뷰 영역(440)은 각각 제10 뷰 (또는 제 10 영상), 제1 뷰 (또는 제1 영상), 제2 뷰 (또는 제2 영상) 및 제3 뷰 (또는 제3 영상)에 대응하는 가상의 영역을 의미할 수 있다.
일 실시예에 따르면, 전자 장치(100)는 적어도 하나의 뷰 영역에 대응하는 적어도 하나의 영상 별로 서브 픽셀에 대응하는 데이터 값을 식별할 수 있다. 이때, 서브 픽셀(400)이 제1 위치에 위치하는 경우, 서브 픽셀(400)에 대응하는 데이터 값은 영상 내 제1 위치의 데이터 값을 의미할 수 있다. 예를 들어, 전자 장치(100)는 제10 뷰 영역(410), 제1 뷰 영역(420), 제2 뷰 영역(430) 및 제3 뷰 영역(440) 별로 제1 위치의 데이터 값을 식별할 수 있다. 즉, 전자 장치(100)는 제10 영상 내 제1 위치의 데이터 값, 제1 영상 내 제1 위치의 데이터 값, 제2 영상 내 제1 위치의 데이터 값 및 제3 영상 내 제1 위치의 데이터 값 각각을 식별할 수 있다.
일 실시예에 따르면, 전자 장치(100)는 서브 픽셀(400)과 적어도 하나의 뷰 영역이 중첩되는 정도에 기초하여, 적어도 하나의 영상 별로 서브 픽셀(400)에 대응하는 데이터 값의 반영 정도를 결정할 수 있다. 이때, 데이터 값의 반영 정도는 데이터 값 각각에 적용될 가중치를 의미할 수 있다. 예를 들어, 전자 장치(100)는 서브 픽셀(400)이 제10 뷰 영역(410), 제1 뷰 영역(420), 제2 뷰 영역(430) 및 제3 뷰 영역(440)과 중첩되는 정도에 기초하여, 제10 영상, 제1 영상, 제2 영상 및 제3 영상 별로 제1 위치의 데이터 값의 반영 정도를 결정할 수 있다.
일 실시예에 따르면, 전자 장치(100)는 서브 픽셀(400)과 적어도 하나의 뷰 영역이 중첩되는 면적에 기초하여, 서브 픽셀(400)과 적어도 하나의 뷰 영역이 중첩되는 정도를 결정할 수 있다. 예를 들어, 전자 장치(100)는 서브 픽셀(400)과 제10 뷰 영역(410), 제1 뷰 영역(420), 제2 뷰 영역(430) 및 제3 뷰 영역(440) 각각이 중첩되는 면적에 기초하여, 서브 픽셀(400)과 제10 뷰 영역(410), 제1 뷰 영역(420), 제2 뷰 영역(430) 및 제3 뷰 영역(440)이 중첩되는 정도를 결정할 수 있다. 이와 관련해서는 도 5a 내지 도 5c를 참조하여 후술하기로 한다.
일 실시예에 따르면, 전자 장치(100)는 서브 픽셀(400)과 적어도 하나의 뷰 영역의 중심 선이 중첩되는 길이에 기초하여, 서브 픽셀(400)과 적어도 하나의 뷰 영역이 중첩되는 정도를 결정할 수 있다. 예를 들어, 전자 장치(100)는 서브 픽셀(400)과 제10 뷰 영역(410), 제1 뷰 영역(420), 제2 뷰 영역(430) 및 제3 뷰 영역(440) 각각의 중심 선이 중첩되는 길이에 기초하여, 서브 픽셀(400)과 제10 뷰 영역(410), 제1 뷰 영역(420), 제2 뷰 영역(430) 및 제3 뷰 영역(440)이 중첩되는 정도를 결정할 수 있다. 이와 관련해서는 도 6a 내지 도 6c를 참조하여 후술하기로 한다.
일 실시예에 따르면, 전자 장치(100)는 적어도 하나의 뷰 영역으로부터 서브 픽셀(400)의 중심까지의 거리에 기초하여, 서브 픽셀(400)과 제10 뷰 영역(410), 제1 뷰 영역(420), 제2 뷰 영역(430) 및 제3 뷰 영역(440)이 중첩되는 정도를 결정할 수 있다. 예를 들어, 전자 장치(100)는 서브 픽셀(400)과 제10 뷰 영역(410), 제1 뷰 영역(420), 제2 뷰 영역(430) 및 제3 뷰 영역(440) 각각으로부터 서브 픽셀(400)의 중심까지의 거리에 기초하여, 서브 픽셀(400)과 제10 뷰 영역(410), 제1 뷰 영역(420), 제2 뷰 영역(430) 및 제3 뷰 영역(440)이 중첩되는 정도를 결정할 수 있다. 이와 관련해서는 도 7a 내지 도 7c를 참조하여 후술하기로 한다.
일 실시예에 따르면, 전자 장치(100)는 적어도 하나의 영상 별로 결정된 반영 정도에 따라 조절된 데이터 값을 이용하여 서브 픽셀(400)의 출력 값을 결정할 수 있다. 예를 들어, 전자 장치(100)는 아래의 관계식 (3)을 이용하여, 제10 영상, 제1 영상, 제2 영상 및 제3 영상 내 제1 위치의 데이터 값 각각을 결정된 반영 정도에 따라 조절함으로써 서브 픽셀(400)의 출력 값을 결정할 수 있다.
Figure PCTKR2022095094-appb-img-000010
(3)
Output은 서브 픽셀(400)의 출력 값을 의미하고,
Figure PCTKR2022095094-appb-img-000011
은 각각의 뷰 영역에 대응하는 영상 내 제1 위치의 데이터 값을 의미하며,
Figure PCTKR2022095094-appb-img-000012
Figure PCTKR2022095094-appb-img-000013
각각의 반영 정도를 의미한다.
도 2a 및 도 3a와 비교하여, 전자 장치(100)는 서브 픽셀(400)과 중첩되는 모든 뷰 영역을 고려하여 서브 픽셀(400)의 출력 값을 결정함으로써, 아티팩트(artifact)를 효과적으로 저감하여 출력 영상의 화질을 향상시키는 기술적 효과를 얻을 수 있다. 뷰들의 수가 많을수록, PPI(pixel per inch)가 낮을수록, 또는 렌티큘러 렌즈의 경사각(slant angle)이 작을수록, 서브 픽셀에 보다 많은 뷰 영역이 중첩됨에 따라 이러한 기술적 효과는 증대될 수 있다. 이와 관련해서는 도 9a 내지 도 11b를 참조하여 후술하기로 한다.
한편, 전자 장치(100)는 일 실시예에 따라 서브 픽셀(400)과 중첩되는 적어도 하나의 뷰 영역 중 기 결정된 규칙에 기초하여 일부의 뷰 영역을 제외하고 가중치를 결정할 수 있다. 예를 들어, 전자 장치(100)는 서브 픽셀(400)과 중첩되는 적어도 하나의 뷰 영역 중 중첩되는 면적이 기 결정된 값 이하인 뷰 영역을 제외하고 가중치를 결정할 수 있다. 이와 관련해서는 도 8a 내지 도 8c를 참조하여 후술하기로 한다.
도 4b는 본 개시의 일 실시예에 따라 전자 장치(100)가 스테레오(stereo)-뷰 모드에서의 서브 픽셀의 출력 값을 결정하는 과정을 도시한다. 이때, 스테레오-뷰 모드에서의 뷰의 수는 2일 수 있다.
일 실시예에 따르면, 전자 장치(100)는 서브 픽셀 각각에 대하여 서브 픽셀과 중첩되는 적어도 하나의 뷰 영역을 식별할 수 있다. 예를 들어, 전자 장치(100)는 제1 위치의 서브 픽셀(450)과 중첩되는 제1 뷰 영역 및 제2 뷰 영역을 식별할 수 있다. 또는, 전자 장치(100)는 제2 위치의 서브 픽셀(460)과 중첩되는 제1 뷰 영역 및 제2 뷰 영역을 식별할 수 있다.
일 실시예에 따르면, 전자 장치(100)는 적어도 하나의 뷰 영역에 대응하는 적어도 하나의 영상 별로 서브 픽셀에 대응하는 데이터 값을 식별할 수 있다. 예를 들어, 전자 장치(100)는 제1 영상 및 제2 영상 별로 제1 위치의 데이터 값을 식별할 수 있다. 또는, 전자 장치(100)는 제1 영상 및 제2 영상 별로 제2 위치의 데이터 값을 식별할 수 있다.
일 실시예에 따르면, 전자 장치(100)는 서브 픽셀 각각이 적어도 하나의 뷰 영역과 중첩되는 정도에 기초하여, 적어도 하나의 영상 별로 서브 픽셀에 대응하는 데이터 값의 반영 정도를 결정할 수 있다. 예를 들어, 전자 장치(100)는 서브 픽셀(450)이 제1 뷰 영역 및 제2 뷰 영역 각각과 중첩되는 정도에 기초하여, 제1 영상 내 제1 위치의 데이터 값의 반영 정도, 및 제2 영상 내 제1 위치의 데이터 값의 반영 정도를 결정할 수 있다. 또는, 전자 장치(100)는 서브 픽셀(460)이 제1 뷰 영역 및 제2 뷰 영역 각각과 중첩되는 정도에 기초하여, 제1 영상 내 제2 위치의 데이터 값의 반영 정도, 및 제2 영상 내 제2 위치의 데이터 값의 반영 정도를 결정할 수 있다.
일 실시예에 따르면, 전자 장치(100)는 적어도 하나의 영상 별로 결정된 반영 정도에 따라 데이터 값 각각을 조절하여, 서브 픽셀의 출력 값을 결정할 수 있다. 예를 들어, 전자 장치(100)는 제1 영상 및 제2 영상 별로 제1 위치의 데이터 값 각각을 결정된 반영 정도에 따라 조절하여, 서브 픽셀(450)의 출력 값을 결정할 수 있다. 또는, 전자 장치(100)는 제1 영상 및 제2 영상 별로 제2 위치의 데이터 값 각각을 결정된 반영 정도에 따라 조절하여, 서브 픽셀(460)의 출력 값을 결정할 수 있다.
도 4c는 본 개시의 일 실시예에 따라 전자 장치(100)가 멀티(multi)-뷰 모드에서의 서브 픽셀의 출력 값을 결정하는 과정을 도시한다. 이때, 멀티-뷰 모드에서의 뷰의 수는 복수일 수 있다.
일 실시예에 따르면, 전자 장치(100)는 서브 픽셀 각각에 대하여 서브 픽셀과 중첩되는 적어도 하나의 뷰 영역을 식별할 수 있다. 예를 들어, 전자 장치(100)는 제3 위치의 서브 픽셀(470)과 중첩되는 제6 뷰 영역 및 제7 뷰 영역을 식별할 수 있다. 또는, 전자 장치(100)는 제4 위치의 서브 픽셀(480)과 중첩되는 제14 뷰 영역, 제15 뷰 영역 및 제16 뷰 영역을 식별할 수 있다.
일 실시예에 따르면, 전자 장치(100)는 적어도 하나의 뷰 영역에 대응하는 적어도 하나의 영상 별로 서브 픽셀에 대응하는 데이터 값을 식별할 수 있다. 예를 들어, 전자 장치(100)는 제6 영상 및 제7 영상 별로 제3 위치의 데이터 값을 식별할 수 있다. 또는, 전자 장치(100)는 제14 영상, 제15 영상 및 제16 영상 별로 제4 위치의 데이터 값을 식별할 수 있다.
일 실시예에 따르면, 전자 장치(100)는 서브 픽셀 각각이 적어도 하나의 뷰 영역과 중첩되는 정도에 기초하여, 적어도 하나의 영상 별로 서브 픽셀에 대응하는 데이터 값의 반영 정도를 결정할 수 있다. 예를 들어, 전자 장치(100)는 서브 픽셀(470)이 제6 뷰 영역 및 제7 뷰 영역 각각과 중첩되는 정도에 기초하여, 제6 영상 내 제3 위치의 데이터 값의 반영 정도, 및 제7 영상 내 제3 위치의 데이터 값의 반영 정도를 결정할 수 있다. 또는, 전자 장치(100)는 서브 픽셀(480)이 제14 뷰 영역, 제15 뷰 영역 및 제16 뷰 영역 각각과 중첩되는 정도에 기초하여, 제14 영상, 제15 영상 및 제16 영상 별로 제4 위치의 데이터 값의 반영 정도를 결정할 수 있다.
일 실시예에 따르면, 전자 장치(100)는 적어도 하나의 영상 별로 결정된 반영 정도에 따라 데이터 값 각각을 조절하여, 서브 픽셀의 출력 값을 결정할 수 있다. 예를 들어, 전자 장치(100)는 제6 영상 및 제7 영상 별로 제3 위치의 데이터 값 각각을 결정된 반영 정도에 따라 조절하여, 서브 픽셀(470)의 출력 값을 결정할 수 있다. 또는, 전자 장치(100)는 제14 영상, 제15 영상 및 제16 영상 별로 제4 위치의 데이터 값 각각을 결정된 반영 정도에 따라 조절하여, 서브 픽셀(480)의 출력 값을 결정할 수 있다.
도 5a 및 도 5b는 본 개시의 일 실시예에 따라 전자 장치(100)가 서브 픽셀의 출력 값을 결정하는 과정을 설명하기 위한 도면이다.
도 5a를 참조하면, 전자 장치(100)는 일 실시예에 따라 복수의 뷰 영역들 중에서, 제1 위치의 서브 픽셀(500)과 중첩되는 적어도 하나의 뷰 영역을 식별할 수 있다. 예를 들어, 전자 장치(100)는 10개의 뷰 영역들 중에서, 서브 픽셀(500)과 중첩되는 제10 뷰 영역(510), 제1 뷰 영역(520), 제2 뷰 영역(530), 제3 뷰 영역(540) 및 제4 뷰 영역(550)을 식별할 수 있다. 이때, 제10 뷰 영역(510), 제1 뷰 영역(520), 제2 뷰 영역(530), 제3 뷰 영역(540) 및 제4 뷰 영역(550)은 각각 제10 뷰 (또는 제 10 영상), 제1 뷰 (또는 제1 영상), 제2 뷰 (또는 제2 영상), 제3 뷰 (또는 제3 영상) 및 제4 뷰 (또는 제4 영상)에 대응하는 가상의 영역을 의미할 수 있다.
일 실시예에 따르면, 전자 장치(100)는 적어도 하나의 뷰 영역에 대응하는 적어도 하나의 영상 별로 서브 픽셀(500)에 대응하는 데이터 값을 식별할 수 있다. 예를 들어, 전자 장치(100)는 제10 영상, 제1 영상, 제2 영상, 제3 영상 및 제4 영상 별로 제1 위치의 데이터 값을 식별할 수 있다.
일 실시예에 따르면, 전자 장치(100)는 서브 픽셀(500)과 적어도 하나의 뷰 영역이 중첩되는 정도에 기초하여, 적어도 하나의 영상 별로 서브 픽셀(500)에 대응하는 데이터 값의 반영 정도를 결정할 수 있다. 이때, 전자 장치(100)는 서브 픽셀(500)과 적어도 하나의 뷰 영역이 중첩되는 면적에 기초하여, 서브 픽셀(500)과 적어도 하나의 뷰 영역이 중첩되는 정도를 결정할 수 있다.
도 5b를 참조하면, 전자 장치(100)는 일 실시예에 따라 서브 픽셀(500)과 적어도 하나의 뷰 영역 각각이 중첩되는 면적을 식별하고, 그에 기초하여 적어도 하나의 영상 내 제1 위치의 데이터 값의 반영 정도를 결정할 수 있다. 도 5b의 제2 열(560)은 각각의 뷰 영역과 서브 픽셀(500)이 중첩되는 면적을 나타내고, 제3 열(570)은 각각의 영상 내 제1 위치의 데이터 값의 반영 정도를 나타낸다.
일 실시예에 따르면, 전자 장치(100)는 각각의 뷰 영역이 동일한 가로 길이를 갖는 평행사변형 모양인 것을 가정하여, 서브 픽셀(500)과 적어도 하나의 뷰 영역 각각이 중첩되는 면적을 식별할 수 있다. 예를 들어, 전자 장치(100)는 아래의 관계식 (4) 내지 (9)를 이용하여, 서브 픽셀(500)과 제10 뷰 영역(510), 제1 뷰 영역(520), 제2 뷰 영역(530), 제3 뷰 영역(540) 및 제4 뷰 영역(550) 각각이 중첩되는 면적을 식별할 수 있다.
Figure PCTKR2022095094-appb-img-000014
(4)
Figure PCTKR2022095094-appb-img-000015
(5)
Figure PCTKR2022095094-appb-img-000016
(6)
Figure PCTKR2022095094-appb-img-000017
(7)
Figure PCTKR2022095094-appb-img-000018
(8)
Figure PCTKR2022095094-appb-img-000019
(9)
Figure PCTKR2022095094-appb-img-000020
는 렌티큘러 렌즈의 경사각(slant angle)을 의미하며,
Figure PCTKR2022095094-appb-img-000021
,
Figure PCTKR2022095094-appb-img-000022
,
Figure PCTKR2022095094-appb-img-000023
,
Figure PCTKR2022095094-appb-img-000024
Figure PCTKR2022095094-appb-img-000025
는 서브 픽셀(500)과 제10 뷰 영역(510), 제1 뷰 영역(520), 제2 뷰 영역(530), 제3 뷰 영역(540) 및 제4 뷰 영역(550) 각각이 중첩되는 면적을 의미한다.
이때, 서브 픽셀(500)의 상단의 좌표 값과 하단의 좌표 값은 경사각
Figure PCTKR2022095094-appb-img-000026
에 따른 차이를 갖도록 설정될 수 있다. 즉,
Figure PCTKR2022095094-appb-img-000027
의 기울기를 가지는 직선이 만나는 서브 픽셀(500)의 상단의 좌표 값 및 하단의 좌표 값은 동일한 값을 가질 수 있다. 그에 따라, 서브 픽셀(500)의 네 모서리는 각각 (5.74, 3.25), (8.63, 3.25), (6.94. 8.46) 및 (9.83, 8.46)의 좌표 값을 가질 수 있다. 다만, 서브 픽셀(500)의 좌표 축 값은 일 실시예에 불과하며, 좌표 축 설정 방법, 단위 등에 따라 달라질 수 있고, 그에 따라
Figure PCTKR2022095094-appb-img-000028
,
Figure PCTKR2022095094-appb-img-000029
,
Figure PCTKR2022095094-appb-img-000030
,
Figure PCTKR2022095094-appb-img-000031
Figure PCTKR2022095094-appb-img-000032
값도 달라질 수 있다.
일 실시예에 따르면, 전자 장치(100)는 서브 픽셀(500)과 적어도 하나의 뷰 영역 각각이 중첩되는 면적에 기초하여 적어도 하나의 영상 별로 제1 위치의 데이터 값의 반영 정도를 결정할 수 있다. 예를 들어, 전자 장치(100)는 서브 픽셀(500)과 제10 뷰 영역(510), 제1 뷰 영역(520), 제2 뷰 영역(530), 제3 뷰 영역(540) 및 제4 뷰 영역(550) 각각이 중첩되는 면적을 서브 픽셀(500)의 면적(=15.0569=5.21*2.89)으로 나눔으로써, 제10 영상, 제1 영상, 제2 영상, 제3 영상 및 제4 영상 별로 제1 위치의 데이터 값의 반영 정도를 결정할 수 있다. 즉, 서브 픽셀(500)과 뷰 영역이 중첩되는 면적이 클수록 서브 픽셀(500)과 뷰 영역이 중첩되는 정도가 커질 수 있으며, 그에 따라 영상 내 데이터 값의 반영 정도가 커질 수 있다. 다만, 이는 일 실시예에 불과하며 전자 장치(100)가 중첩되는 면적에 기초하여 데이터 값의 반영 정도를 결정하는 방법은 전술한 실시예에 한정되지 않는다.
일 실시예에 따르면, 전자 장치(100)는 적어도 하나의 영상 별로 데이터 값 각각을 결정된 반영 정도에 따라 조절하여, 서브 픽셀(500)의 출력 값을 결정할 수 있다. 예를 들어, 전자 장치(100)는 아래의 관계식 (10)과 같이, 제10 영상, 제1 영상, 제2 영상, 제3 영상 및 제4 영상 내 제1 위치의 데이터 값 각각을 결정된 반영 정도에 따라 조절하여, 서브 픽셀(500)의 출력 값을 결정할 수 있다.
Figure PCTKR2022095094-appb-img-000033
(10)
Output은 서브 픽셀(500)의 출력 값을 의미하고,
Figure PCTKR2022095094-appb-img-000034
은 각각의 뷰 영역에 대응하는 영상 내 제1 위치의 데이터 값을 의미한다.
도 6a 내지 도 6c는 본 개시의 일 실시예에 따라 전자 장치(100)가 서브 픽셀의 출력 값을 결정하는 과정을 설명하기 위한 도면이다. 도 5a 및 도 5b와 중복되는 동작은 간략히 설명하거나 생략하기로 한다.
도 6a를 참조하면, 전자 장치(100)는 일 실시예에 따라 복수의 뷰 영역들 중에서, 제1 위치의 서브 픽셀(600)과 중첩되는 적어도 하나의 뷰 영역을 식별할 수 있다. 예를 들어, 전자 장치(100)는 10개의 뷰 영역들 중에서, 서브 픽셀(600)과 중첩되는 제10 뷰 영역(610), 제1 뷰 영역(620), 제2 뷰 영역(630), 제3 뷰 영역(640) 및 제4 뷰 영역(650)을 식별할 수 있다. 이때, 제10 뷰 영역(610), 제1 뷰 영역(620), 제2 뷰 영역(630), 제3 뷰 영역(640) 및 제4 뷰 영역(650)은 각각 제10 뷰 (또는 제 10 영상), 제1 뷰 (또는 제1 영상), 제2 뷰 (또는 제2 영상), 제3 뷰 (또는 제3 영상) 및 제4 뷰 (또는 제4 영상)에 대응하는 가상의 영역을 의미할 수 있다.
일 실시예에 따르면, 전자 장치(100)는 적어도 하나의 뷰 영역에 대응하는 적어도 하나의 영상 별로 서브 픽셀(600)에 대응하는 데이터 값을 식별할 수 있다. 예를 들어, 전자 장치(100)는 제10 영상, 제1 영상, 제2 영상, 제3 영상 및 제4 영상 별로 제1 위치의 데이터 값을 식별할 수 있다.
일 실시예에 따르면, 전자 장치(100)는 서브 픽셀(600)과 적어도 하나의 뷰 영역이 중첩되는 정도에 기초하여, 적어도 하나의 영상 별로 서브 픽셀(600)에 대응하는 데이터 값의 반영 정도를 결정할 수 있다. 이때, 전자 장치(100)는 서브 픽셀(600)과 적어도 하나의 뷰 영역의 중심 선이 중첩되는 길이에 기초하여, 서브 픽셀(600)과 적어도 하나의 뷰 영역이 중첩되는 정도를 결정할 수 있다.
일 실시예에 따르면, 전자 장치(100)는 각각의 뷰 영역이 동일한 가로 길이를 갖는 평행사변형 모양인 것을 가정하여, 적어도 하나의 뷰 영역 각각의 중심 선의 좌표 값을 식별할 수 있다. 예를 들어, 전자 장치(100)는 서브 픽셀(600)의 좌측 하단과 우측 상단을 잇는 대각선과 제1 뷰 영역의 중심 선(625)이 만나는 점의 좌표 값인 6.5를 제1 뷰 영역의 중심 선(625)의 좌표 값으로 식별할 수 있다. 동일한 방식으로, 전자 장치(100)는 제2 뷰 영역의 중심 선(635), 제3 뷰 영역의 중심 선(645) 및 제4 뷰 영역의 중심 선(655)의 좌표 값을 각각 7.5, 8.5 및 9.5로 식별할 수 있다. 한편, 제10 뷰 영역의 중심 선(610)은 서브 픽셀(600)의 밖에 위치하지만, 5.5의 좌표 값을 가질 수 있다. 다만, 이는 일 실시예일뿐, 전자 장치(100)는 이와 상이한 방식으로 뷰 영역 각각의 중심 선의 좌표 값을 식별할 수 있다.
도 6b를 참조하면, 전자 장치(100)는 일 실시예에 따라 데이터 값의 반영 정도가 서브 픽셀(600)과 각각의 뷰 영역의 중심 선이 중첩되는 길이에 비례하도록 결정할 수 있다. 예를 들어, 서브 픽셀(600)과 중첩되는 뷰 영역의 중심 선의 길이가 최대인 경우, 전자 장치(100)는 반영 정도 1 값을 해당 뷰 영역에 매핑할 수 있다. 즉, 중심 선의 좌표 값이 6.94 및 8.63 사이의 값을 갖는 뷰 영역에 반영 정도 1 값이 매핑될 수 있다. 또한, 뷰 영역의 중심 선이 서브 픽셀(600)과 중첩되지 않는 경우, 전자 장치(100)는 반영 정도 0 값을 해당 뷰 영역에 매핑할 수 있다. 즉, 중심 선의 좌표 값이 5.74 이하의 값을 갖거나, 9.83 이상의 값을 갖는 뷰 영역에 반영 정도 0 값이 매핑될 수 있다. 이에 따라, 서브 픽셀(600)과 중첩되는 면적이 존재하는 뷰 영역이더라도, 중심 선이 서브 픽셀(600)과 중첩되지 않는 경우, 반영 정도 0 값이 매핑될 수 있다. 서브 픽셀(600)과 중첩되는 뷰 영역의 중심 선의 길이가 최대 값 이하의 값을 갖는 경우, 전자 장치(100)는 중첩되는 길이에 비례하는 반영 정도를 해당 뷰 영역에 매핑할 수 있다. 즉, 중심 선의 좌표 값이 5.74와 6.94 사이의 값 또는 8.63과 9.83 사이의 값을 갖는 뷰 영역에, 중첩되는 중심 선의 길이에 비례하는 반영 정도가 매핑될 수 있다.
도 6c를 참조하면, 전자 장치(100)는 일 실시예에 따라 뷰 영역 각각의 중심 선의 좌표 값에 기초하여, 영상 별로 데이터 값의 반영 정도를 결정할 수 있다. 도 6c의 제2 열(660)은 각각의 뷰 영역의 중심 선의 좌표 값을 나타내고, 제3 열(670)은 각각의 영상 내 제1 위치의 데이터 값의 반영 정도를 나타내며, 제4 열(680)은 제3 열(670)의 반영 정도를 정규화한 값을 나타낸다.
일 실시예에 따르면, 전자 장치(100)는 뷰 영역 각각의 중심 선의 좌표 값에 기초하여, 뷰 영역 각각에 반영 정도를 매핑할 수 있다. 예를 들어, 전자 장치(100)는 중심 선의 좌표 값이 6.94 및 8.63 사이의 값을 갖는 제2 뷰 영역(630) 및 제3 뷰 영역(640)에 반영 정도 1 값을 매핑할 수 있다. 또한, 전자 장치(100)는 중심 선의 좌표 값이 5.74 이하의 값을 갖는 제10 뷰 영역(610)에 반영 정도 0 값을 매핑할 수 있다. 전자 장치(100)는 중심 선의 좌표 값이 5.74와 6.94 사이의 값 또는 8.63과 9.83 사이의 값을 갖는 제1 뷰 영역(620) 및 제4 뷰 영역(650)에는 중첩되는 중심 선의 길이에 비례하는 반영 정도를 매핑할 수 있다. 그에 따라, 제1 뷰 영역(620)에 반영 정도 0.7652 값이 매핑되고, 제4 뷰 영역(650)에 반영 정도 0.3472 값이 매핑될 수 있다. 다만, 이는 일 실시예에 불과하며 전자 장치(100)가 중첩되는 중심 선의 길이에 기초하여 반영 정도를 결정하는 방법은 전술한 실시예에 한정되지 않는다.
일 실시예에 따르면, 전자 장치(100)는 결정된 반영 정도의 값들의 합이 1이 되도록 반영 정도들을 정규화 할 수 있다. 전자 장치(100)는 적어도 하나의 영상 별로 데이터 값 각각을 정규화된 반영 정도에 따라 조절하여, 서브 픽셀(600)의 출력 값을 결정할 수 있다. 예를 들어, 전자 장치(100)는 아래의 관계식 (11)과 같이, 제1 영상, 제2 영상, 제3 영상 및 제4 영상 내 제1 위치의 데이터 값 각각을 정규화된 반영 정도에 따라 조절하여, 서브 픽셀(600)의 출력 값을 결정할 수 있다.
Figure PCTKR2022095094-appb-img-000035
(11)
Output은 서브 픽셀(600)의 출력 값을 의미하고,
Figure PCTKR2022095094-appb-img-000036
,
Figure PCTKR2022095094-appb-img-000037
,
Figure PCTKR2022095094-appb-img-000038
Figure PCTKR2022095094-appb-img-000039
는 각각의 뷰 영역에 대응하는 영상 내 제1 위치의 데이터 값을 의미한다.
도 5a 및 도 5b와 비교하여, 전자 장치(100)는 서브 픽셀(600)과 중첩되는 중심 선의 길이의 기초하여 데이터 값의 반영 정도를 결정함으로써, 서브 픽셀(600)과 중첩되는 뷰 영역의 면적을 계산하는데 필요한 연산량을 저감할 수 있다.
도 7a 내지 도 7c는 본 개시의 일 실시예에 따라 전자 장치(100)가 서브 픽셀의 출력 값을 결정하는 과정을 설명하기 위한 도면이다. 도 6a 내지 도 6c와 중복되는 동작은 간략히 설명하거나 생략하기로 한다.
도 7a를 참조하면, 전자 장치(100)는 일 실시예에 따라 복수의 뷰 영역들 중에서, 제1 위치의 서브 픽셀(700)과 중첩되는 적어도 하나의 뷰 영역을 식별할 수 있다. 예를 들어, 전자 장치(100)는 10개의 뷰 영역들 중에서, 서브 픽셀(700)과 중첩되는 제10 뷰 영역(710), 제1 뷰 영역(720), 제2 뷰 영역(730), 제3 뷰 영역(740) 및 제4 뷰 영역(750)을 식별할 수 있다. 이때, 제10 뷰 영역(710), 제1 뷰 영역(720), 제2 뷰 영역(730), 제3 뷰 영역(740) 및 제4 뷰 영역(750)은 각각 제10 뷰 (또는 제 10 영상), 제1 뷰 (또는 제1 영상), 제2 뷰 (또는 제2 영상), 제3 뷰 (또는 제3 영상) 및 제4 뷰 (또는 제4 영상)에 대응하는 가상의 영역을 의미할 수 있다.
일 실시예에 따르면, 전자 장치(100)는 적어도 하나의 뷰 영역에 대응하는 적어도 하나의 영상 별로 서브 픽셀(700)에 대응하는 데이터 값을 식별할 수 있다. 예를 들어, 전자 장치(100)는 제10 영상, 제1 영상, 제2 영상, 제3 영상 및 제4 영상 별로 제1 위치의 데이터 값을 식별할 수 있다.
일 실시예에 따르면, 전자 장치(100)는 서브 픽셀(700)과 적어도 하나의 뷰 영역이 중첩되는 정도에 기초하여, 적어도 하나의 영상 별로 서브 픽셀(700)에 대응하는 데이터 값의 반영 정도를 결정할 수 있다. 이때, 전자 장치(100)는 적어도 하나의 뷰 영역의 중심 선으로부터 서브 픽셀(700)의 중심까지의 거리에 기초하여, 서브 픽셀(700)과 적어도 하나의 뷰 영역이 중첩되는 정도를 결정할 수 있다.
도 7b를 참조하면, 전자 장치(100)는 일 실시예에 따라 서브 픽셀(700)의 중심의 좌표 값을 식별할 수 있다. 예를 들어, 전자 장치(100)는 서브 픽셀(700)의 좌측 하단의 좌표 값(5.74)과 우측 상단의 좌표 값(9.83)의 중간 값인 7.785를 서브 픽셀(700)의 중심의 좌표 값으로 식별할 수 있다. 또는, 전자 장치(100)는 서브 픽셀(700)의 좌측 상단의 좌표 값(6.94)과 우측 하단의 좌표 값(8.63)의 중간 값인 7.785를 서브 픽셀(700)의 중심의 좌표 값으로 식별할 수 있다. 다만, 이는 일 실시예에 불과하며, 전자 장치(100)는 상이한 방식으로 서브 픽셀(700)의 중심의 좌표 값을 식별할 수 있다.
일 실시예에 따르면, 전자 장치(100)는 적어도 하나의 뷰 영역 각각의 중심 선으로부터 서브 픽셀(700)의 중심까지의 거리를 식별할 수 있다. 예를 들어, 전자 장치(100)는 제1 뷰 영역의 중심 선(725)의 좌표 값(6.5)과 서브 픽셀(700)의 중심의 좌표 값(7.785)의 차이 값인 1.285를 제1 뷰 영역의 중심 선(725)으로부터 서브 픽셀(700)의 중심까지의 거리로 식별할 수 있다. 동일한 방식으로, 전자 장치(100)는 제2 뷰 영역의 중심 선(735), 제3 뷰 영역의 중심 선(745) 및 제4 뷰 영역의 중심 선(755)으로부터 서브 픽셀(700)의 중심까지의 거리를 각각 0.285, 0.715 및 1.715로 식별할 수 있다. 다만, 이는 일 실시예일뿐, 전자 장치(100)는 이와 상이한 방식으로 뷰 영역 각각의 중심 선으로부터 서브 픽셀(700)의 중심까지의 거리를 식별할 수 있다.
도 7c를 참조하면, 전자 장치(100)는 일 실시예에 따라 뷰 영역 각각의 중심 선으로부터 서브 픽셀(700)의 중심까지의 거리에 기초하여, 영상 별로 데이터 값의 반영 정도를 결정할 수 있다. 도 7c의 제2 열(760)은 각각의 뷰 영역의 중심 선의 좌표 값을 나타내고, 제3 열(770)은 각각의 뷰 영역의 중심 선으로부터 서브 픽셀(700)의 중심까지의 거리를 나타낸다. 도 7c의 제4 열(780)은 각각의 영상 내 제1 위치의 데이터 값의 반영 정도를 나타내며, 제5 열(790)은 제4 열(780)의 반영 정도를 정규화한 값을 나타낸다.
일 실시예에 따르면, 전자 장치(100)는 뷰 영역 각각의 중심 선으로부터 서브 픽셀(700)의 중심까지의 거리의 역수를 각각의 영상 내 데이터 값의 반영 정도로 매핑할 수 있다. 예를 들어, 전자 장치(100)는 제1 뷰 영역의 중심 선(725)으로부터 서브 픽셀(700)의 중심까지의 거리인 1.285의 역수인 0.77821를 제1 영상 내 데이터 값의 반영 정도로 결정할 수 있다. 동일한 방식으로, 전자 장치(100)는 제2 영상, 제3 영상 및 제4 영상 내 데이터 값 각각의 반영 정도를 3.50877, 1.3986 및 0.58309로 결정할 수 있다. 다만, 이는 일 실시예에 불과하며 전자 장치(100)가 뷰 영역으로부터 서브 픽셀(700)의 중심까지의 거리에 기초하여 데이터 값의 반영 정도를 결정하는 방법은 전술한 실시예에 한정되지 않는다.
일 실시예에 따르면, 전자 장치(100)는 결정된 반영 정도의 값들의 합이 1이 되도록 반영 정도들을 정규화 할 수 있다. 전자 장치(100)는 적어도 하나의 영상 별로 데이터 값 각각을 정규화된 반영 정도에 따라 조절하여, 서브 픽셀(700)의 출력 값을 결정할 수 있다. 예를 들어, 전자 장치(100)는 아래의 관계식 (12)와 같이, 제1 영상, 제2 영상, 제3 영상 및 제4 영상 내 제1 위치의 데이터 값 각각을 정규화된 반영 정도에 따라 조절하여, 서브 픽셀(700)의 출력 값을 결정할 수 있다.
Figure PCTKR2022095094-appb-img-000040
(12)
Output은 서브 픽셀(700)의 출력 값을 의미하고,
Figure PCTKR2022095094-appb-img-000041
,
Figure PCTKR2022095094-appb-img-000042
,
Figure PCTKR2022095094-appb-img-000043
Figure PCTKR2022095094-appb-img-000044
는 각각의 뷰 영역에 대응하는 영상 내 제1 위치의 데이터 값을 의미한다.
도 8a 내지 도 8c는 본 개시의 일 실시예에 따라 전자 장치(100)가 서브 픽셀과 중첩되는 면적 또는 비율이 기 결정된 값 이하인 뷰 영역을 제외하고 서브 픽셀의 출력 값을 결정하는 과정을 설명하기 위한 도면이다. 도 5a 내지 도 5c와 중복되는 동작은 간략하게 설명하거나 생략하기로 한다.
도 8a를 참조하면, 전자 장치(100)는 일 실시예에 따라 복수의 뷰 영역들 중에서, 제1 위치의 서브 픽셀(800)과 중첩되는 적어도 하나의 뷰 영역을 식별할 수 있다. 예를 들어, 전자 장치(100)는 10개의 뷰 영역들 중에서, 서브 픽셀(800)과 중첩되는 제10 뷰 영역(810), 제1 뷰 영역(820), 제2 뷰 영역(830), 제3 뷰 영역(840) 및 제4 뷰 영역(850)을 식별할 수 있다. 이때, 제10 뷰 영역(810), 제1 뷰 영역(820), 제2 뷰 영역(830), 제3 뷰 영역(840) 및 제4 뷰 영역(850)은 각각 제10 뷰 (또는 제 10 영상), 제1 뷰 (또는 제1 영상), 제2 뷰 (또는 제2 영상), 제3 뷰 (또는 제3 영상) 및 제4 뷰 (또는 제4 영상)에 대응하는 가상의 영역을 의미할 수 있다.
일 실시예에 따르면, 전자 장치(100)는 적어도 하나의 뷰 영역에 대응하는 적어도 하나의 영상 별로 서브 픽셀(800)에 대응하는 데이터 값을 식별할 수 있다. 예를 들어, 전자 장치(100)는 제10 영상, 제1 영상, 제2 영상, 제3 영상 및 제4 영상 별로 제1 위치의 데이터 값을 식별할 수 있다.
일 실시예에 따르면, 전자 장치(100)는 서브 픽셀(800)과 적어도 하나의 뷰 영역이 중첩되는 정도에 기초하여, 적어도 하나의 영상 별로 서브 픽셀(800)에 대응하는 데이터 값의 반영 정도를 결정할 수 있다. 이때, 전자 장치(100)는 서브 픽셀(800)과 적어도 하나의 뷰 영역이 중첩되는 면적에 기초하여, 서브 픽셀(800)과 적어도 하나의 뷰 영역이 중첩되는 정도를 결정할 수 있다.
일 실시예에 따르면, 전자 장치(100)는 기 결정된 규칙에 기초하여 서브 픽셀(800)과 중첩되는 적어도 하나의 뷰 영역 중에서 일부 뷰 영역을 제외하고 데이터 값의 반영 정도를 결정할 수 있다. 예를 들어, 전자 장치(100)는 서브 픽셀(800)과 중첩되는 면적이 기 결정된 값 이하인 뷰 영역을 제외하고 데이터 값의 반영 정도를 결정할 수 있다. 또는, 전자 장치(100)는 서브 픽셀(800)과 중첩되는 면적을 서브 픽셀(800)의 면적으로 나누어서 생성된 값이 기 결정된 값 이하인 뷰 영역을 제외하고 데이터 값의 반영 정도를 결정할 수 있다. 다만, 이는 일 실시예에 불과하며, 기 결정된 규칙은 전술한 바에 한정되지 않는다.
도 8b를 참조하면, 전자 장치(100)는 일 실시예에 따라 서브 픽셀(800)과 중첩되는 면적이 기 결정된 값 이상인 뷰 영역에 대해서만 데이터 값의 반영 정도를 결정할 수 있다. 도 8b의 제2 열(860)은 각각의 뷰 영역과 서브 픽셀(800)이 중첩되는 면적을 나타내고, 제3 열(865)은 기 결정된 값 이상의 중첩되는 면적을 나타내며, 제4 열(870)은 각각의 영상 내 제1 위치의 데이터 값의 반영 정도를 나타낸다.
일 실시예에 따르면, 전자 장치(100)는 서브 픽셀(800)과 중첩되는 면적이 기 결정된 값 미만인 뷰 영역을 제외할 수 있다. 예를 들어, 기 결정된 값이 1인 경우, 전자 장치(100)는 서브 픽셀(800)과 중첩되는 면적이 0.146748인 제10 뷰 영역(810)을 제외할 수 있다. 다만, 기 결정된 값은 일 실시예에 불과하며, 이와 다르게 사전 정의되거나 사용자 입력에 기초하여 변경될 수 있다.
일 실시예에 따르면, 전자 장치(100)는 서브 픽셀(800)과 중첩되는 면적이 기 결정된 값 이상인 뷰 영역들에 대하여 각각의 영상 내 제1 위치의 데이터 값의 반영 정도를 결정할 수 있다. 예를 들어, 전자 장치(100)는 제1 뷰 영역(820), 제2 뷰 영역(830), 제3 뷰 영역(840) 및 제4 뷰 영역(850) 각각이 서브 픽셀(800)과 중첩되는 면적을 서브 픽셀(800)의 면적에서 제10 뷰 영역(810)과 서브 픽셀(800)이 중첩되는 면적을 빼서 생성된 값(=14.9102=15.0569-0.146748)으로 나눔으로써, 제1 영상, 제2 영상, 제3 영상 및 제4 영상 내 제1 위치의 데이터 값 각각의 반영 정도를 결정할 수 있다.
일 실시예에 따르면, 전자 장치(100)는 적어도 하나의 영상 별로 데이터 값 각각을 결정된 반영 정도에 따라 조절하여, 서브 픽셀(800)의 출력 값을 결정할 수 있다. 예를 들어, 전자 장치(100)는 아래의 관계식 (13)과 같이, 제1 영상, 제2 영상, 제3 영상 및 제4 영상 내 제1 위치의 데이터 값 각각을 결정된 반영 정도에 따라 조절하여, 서브 픽셀(800)의 출력 값을 결정할 수 있다.
Figure PCTKR2022095094-appb-img-000045
(13)
Output은 서브 픽셀(800)의 출력 값을 의미하고,
Figure PCTKR2022095094-appb-img-000046
,
Figure PCTKR2022095094-appb-img-000047
,
Figure PCTKR2022095094-appb-img-000048
Figure PCTKR2022095094-appb-img-000049
는 각각의 뷰 영역에 대응하는 영상 내 제1 위치의 데이터 값을 의미한다.
도 8c를 참조하면, 전자 장치(100)는 일 실시예에 따라 서브 픽셀(800)과 중첩되는 면적을 서브 픽셀의 면적으로 나누어서 생성된 값이 기 결정된 값 이상인 뷰 영역에 대해서만 데이터 값의 반영 정도를 결정할 수 있다. 도 8c의 제2 열(880)은 각각의 뷰 영역과 서브 픽셀(800)이 중첩되는 면적을 나타내고, 제3 열(885)은 각각의 뷰 영역과 서브 픽셀(800)이 중첩되는 면적을 서브 픽셀(800)의 면적으로 나누어서 생성된 값 또는 면적 비율을 나타낸다. 도 8c의 제4 열(890)은 기 결정된 값 이상의 면적 비율을 나타내며, 제5 열(895)은 각각의 영상 내 제1 위치의 데이터 값의 반영 정도를 나타낸다.
일 실시예에 따르면, 전자 장치(100)는 서브 픽셀(800)과 중첩되는 면적을 서브 픽셀(800)의 면적으로 나누어서 생성된 값 또는 면적 비율이 기 결정된 값 이하인 뷰 영역을 제외할 수 있다. 예를 들어, 기 결정된 값이 0.1인 경우, 전자 장치(100)는 서브 픽셀(800)과 중첩되는 면적 비율이 0.009746인 제10 뷰 영역(810)과 0.099322인 제4 뷰 영역(850)을 제외할 수 있다. 다만, 기 결정된 값은 일 실시예에 불과하며, 이와 다르게 사전 정의되거나 사용자 입력에 기초하여 변경될 수 있다.
일 실시예에 따르면, 전자 장치(100)는 서브 픽셀(800)과 중첩되는 면적 비율이 기 결정된 값 이상인 뷰 영역들에 대하여 각각의 영상 내 제1 위치의 데이터 값의 반영 정도를 결정할 수 있다. 예를 들어, 전자 장치(100)는 제1 뷰 영역(820), 제2 뷰 영역(830) 및 제3 뷰 영역(840) 각각이 서브 픽셀(800)과 중첩되는 면적 비율을 1에서 제10 뷰 영역(810) 및 제4 뷰 영역(850) 각각이 서브 픽셀(800)과 중첩되는 면적 비율을 빼서 생성된 값(=0.891478=1-0.009746-0.099322)으로 나눔으로써, 제1 영상, 제2 영상 및 제3 영상 내 제1 위치의 데이터 값 각각의 반영 정도를 결정할 수 있다.
일 실시예에 따르면, 전자 장치(100)는 적어도 하나의 영상 별로 데이터 값 각각을 결정된 반영 정도에 따라 조절하여, 서브 픽셀(800)의 출력 값을 결정할 수 있다. 예를 들어, 전자 장치(100)는 아래의 관계식 (14)와 같이, 제1 영상, 제2 영상 및 제3 영상 내 제1 위치의 데이터 값 각각을 결정된 반영 정도에 따라 조절하여, 서브 픽셀(800)의 출력 값을 결정할 수 있다.
Figure PCTKR2022095094-appb-img-000050
(14)
Output은 서브 픽셀(800)의 출력 값을 의미하고,
Figure PCTKR2022095094-appb-img-000051
,
Figure PCTKR2022095094-appb-img-000052
Figure PCTKR2022095094-appb-img-000053
는 각각의 뷰 영역에 대응하는 영상 내 제1 위치의 데이터 값을 의미한다.
한편, 전자 장치(100)는 서브 픽셀(800)과 중첩되는 중심 선의 길이가 기 결정된 값 이상인 뷰 영역에 대해서만 데이터 값의 반영 정도를 결정할 수 있다 (미도시). 예를 들어, 전자 장치(100)는 서브 픽셀(800)과 중첩되는 중심 선의 길이가 1 미만인 뷰 영역들을 제외하고, 서브 픽셀(800)과 중첩되는 중심 선의 길이가 1 이상인 뷰 영역에 대해서만 데이터 값의 반영 정도를 결정할 수 있다. 다만, 기 결정된 값은 일 실시예에 불과하며, 이와 다르게 사전 정의되거나 사용자 입력에 기초하여 변경될 수 있다.
도 9a 내지 도 9c는 본 개시의 일 실시예에 따라 전자 장치(100)가 뷰들의 수의 기초하여 서브 픽셀과 중첩되는 적어도 하나의 뷰 영역을 식별하는 과정을 설명하기 위한 도면이다.
일 실시예에 따르면, 전자 장치(100)는 복수의 뷰들의 수에 기초하여 복수의 뷰들에 대응하는 복수의 뷰 영역들을 결정할 수 있다. 예를 들어, 전자 장치(100)는 렌티큘러 렌즈의 하나의 피치를 동일한 가로 길이를 갖는 평행사변형 모양으로 뷰들의 수만큼 등분할 수 있다. 전자 장치(100)는 복수의 뷰들의 순서에 대응되도록 복수의 뷰 영역들을 등분된 렌티큘러 렌즈 영역들 각각에 매핑할 수 있다.
도 9a를 참조하면, 복수의 뷰들의 수가 5인 경우, 전자 장치(100)는 일 실시예에 따라 렌티큘러 렌즈의 하나의 피치를 5등분하고, 복수의 뷰 영역들을 5등분된 렌티큘러 렌즈의 영역들 각각에 매핑할 수 있다. 전자 장치(100)는 복수의 뷰 영역들 중에서 서브 픽셀(900)과 중첩되는 제1 뷰 영역(910)을 식별할 수 있다. 이때, 제1 뷰 영역(910)은 제1 뷰에 대응하는 가상의 영역을 의미할 수 있다.
도 9b를 참조하면, 복수의 뷰들의 수가 10인 경우, 전자 장치(100)는 일 실시예에 따라 렌티큘러 렌즈의 하나의 피치를 10등분하고, 복수의 뷰 영역들을 10등분된 렌티큘러 렌즈의 영역들 각각에 매핑할 수 있다. 전자 장치(100)는 복수의 뷰 영역들 중에서 서브 픽셀(900)과 중첩되는 제2 뷰 영역(920) 및 제3 뷰 영역(930)을 식별할 수 있다. 이때, 제2 뷰 영역(920) 및 제3 뷰 영역(930)은 각각 제2 뷰 및 제3 뷰에 대응하는 가상의 영역을 의미할 수 있다.
도 9c를 참조하면, 복수의 뷰들의 수가 20인 경우, 전자 장치(100)는 일 실시예에 따라 렌티큘러 렌즈의 하나의 피치를 20등분하고, 복수의 뷰 영역들을 20등분된 렌티큘러 렌즈의 영역들 각각에 매핑할 수 있다. 전자 장치(100)는 복수의 뷰 영역들 중에서 서브 픽셀(900)과 중첩되는 제4 뷰 영역(940), 제5 뷰 영역(950) 및 제6 뷰 영역(960)을 식별할 수 있다. 이때, 제4 뷰 영역(940), 제5 뷰 영역(950) 및 제6 뷰 영역(960)은 각각 제4 뷰, 제5 뷰 및 제6 뷰에 대응하는 가상의 영역을 의미할 수 있다.
도 9a 내지 도 9c를 참조하면, 디스플레이(110)의 PPI 및 렌티큘러 렌즈의 경사각이 동일하더라도, 복수의 뷰들의 수가 증가할수록 서브 픽셀(900)과 중첩되는 뷰 영역의 수가 증가할 수 있다. 서브 픽셀(900)과 중첩되는 뷰 영역의 수가 증가함에 따라, 전자 장치(100)는 중첩되는 모든 뷰 영역을 고려함으로써 아티팩트(artifact)를 저감하는 기술적 효과가 증대될 수 있다.
도 10a 및 도 10b는 본 개시의 일 실시예에 따라 전자 장치(100)가 디스플레이(110)의 PPI(pixel per inch)에 기초하여 서브 픽셀과 중첩되는 적어도 하나의 뷰 영역을 식별하는 과정을 설명하기 위한 도면이다. PPI는 디스플레이 1인치당 픽셀 수를 의미하며, 디스플레이(110)의 구성에 따라 상이한 값을 가질 수 있다.
도 10a는 디스플레이(110)가 상대적으로 높은 PPI를 가지는 실시예를 도시한다. 일 실시예에 따르면, 전자 장치(100)는 복수의 뷰 영역들 중에서 서브 픽셀(1000)과 중첩되는 제1 뷰 영역(1010) 및 제2 뷰 영역(1020)을 식별할 수 있다. 이때, 제1 뷰 영역(1010) 및 제2 뷰 영역(1020)은 각각 제1 뷰 및 제2 뷰에 대응하는 가상의 영역을 의미할 수 있다.
도 10b는 디스플레이(110)가 상대적으로 낮은 PPI를 가지는 실시예를 도시한다. 일 실시예에 따르면, 전자 장치(100)는 복수의 뷰 영역들 중에서 서브 픽셀(1070)과 중첩되는 제3 뷰 영역(1030), 제1 뷰 영역(1040), 제2 뷰 영역(1050) 및 제4 뷰 영역(1060)을 식별할 수 있다. 이때, 제3 뷰 영역(1030), 제1 뷰 영역(1040), 제2 뷰 영역(1050) 및 제4 뷰 영역(1060)은 각각 제3 뷰, 제1 뷰, 제2 뷰 및 제4 뷰에 대응하는 가상의 영역을 의미할 수 있다.
도 10a 및 도 10b를 참조하면, 복수의 뷰들의 수 및 렌티큘러 렌즈의 경사각이 동일하더라도, 디스플레이(110)의 PPI가 낮을수록 서브 픽셀(1000)과 중첩되는 뷰 영역의 수가 증가할 수 있다. 서브 픽셀(1000, 1070)과 중첩되는 뷰 영역의 수가 증가함에 따라, 전자 장치(100)는 중첩되는 모든 뷰 영역을 고려함으로써 아티팩트(artifact)를 저감하는 기술적 효과가 증대될 수 있다.
도 11a 및 도 11b는 본 개시의 일 실시예에 따라 전자 장치(100)가 렌티큘러 렌즈의 경사각(slant angle)에 기초하여 서브 픽셀과 중첩되는 적어도 하나의 뷰 영역을 식별하는 과정을 설명하기 위한 도면이다.
도 11a는 렌티큘러 렌즈가 상대적으로 큰 제1 경사각(1130)을 가지는 실시예를 도시한다. 일 실시예에 따르면, 전자 장치(100)는 복수의 뷰 영역들 중에서 서브 픽셀(1100)과 중첩되는 제1 뷰 영역(1110) 및 제2 뷰 영역(1120)을 식별할 수 있다. 이때, 제1 뷰 영역(1110) 및 제2 뷰 영역(1120)은 각각 제1 뷰 및 제2 뷰에 대응하는 가상의 영역을 의미할 수 있다.
도 11b는 렌티큘러 렌즈가 상대적으로 작은 제2 경사각(1170)을 가지는 실시예를 도시한다. 일 실시예에 따르면, 전자 장치(100)는 복수의 뷰 영역들 중에서 서브 픽셀(1100)과 중첩되는 제3 뷰 영역(1140), 제4 뷰 영역(1150) 및 제1 뷰 영역(1160)을 식별할 수 있다. 이때, 제3 뷰 영역(1140), 제4 뷰 영역(1150) 및 제1 뷰 영역(1160)은 각각 제3 뷰, 제4 뷰 및 제1 뷰에 대응하는 가상의 영역을 의미할 수 있다.
도 11a 및 도 11b를 참조하면, 복수의 뷰들의 수 및 디스플레이(110)이 PPI가 동일하더라도, 렌티큘러 렌즈의 경사각이 작을수록 서브 픽셀(1100)과 중첩되는 뷰 영역의 수가 증가할 수 있다. 서브 픽셀(1100)과 중첩되는 뷰 영역의 수가 증가함에 따라, 전자 장치(100)는 중첩되는 모든 뷰 영역을 고려함으로써 아티팩트(artifact)를 저감하는 기술적 효과가 증대될 수 있다. 다만, 도 11a 및 도 11b에 도시된 경사각
Figure PCTKR2022095094-appb-img-000054
Figure PCTKR2022095094-appb-img-000055
는 일 실시예로서, 렌티큘러 렌즈의 경사각은 이와 상이한 방식으로 표현될 수 있다. (예를 들어, 렌티큘러 렌즈의 경사각은
Figure PCTKR2022095094-appb-img-000056
또는
Figure PCTKR2022095094-appb-img-000057
의 값을 갖는 각으로 표현될 수 있다.) 이 경우, 렌티큘러 렌즈의 경사각 및 서브 픽셀(1100)과 중첩되는 뷰 영역의 수는 전술한 바와 반대의 경향성을 가질 수 있다.
도 12은 본 개시의 일 실시예에 따라 전자 장치가 영상을 출력하는 과정을 나타내는 흐름도이다.
S1210 단계에서, 전자 장치는 복수의 뷰들에 대응하는 복수의 영상들을 획득할 수 있다.
S1220 단계에서, 전자 장치는 복수의 뷰들에 대응하도록 결정된 뷰 영역(view region)들 중에서, 서브 픽셀과 중첩되는 적어도 하나의 뷰 영역을 식별할 수 있다. 일 실시예에 따르면, 전자 장치는 복수의 뷰들의 수 및 시역 분리부의 특성에 기초하여, 복수의 뷰들에 대응하는 복수의 뷰 영역들을 결정할 수 있다.
일 실시예에 따르면, 서브 픽셀과 중첩되는 적어도 하나의 뷰 영역의 수는 디스플레이의 PPI가 낮을수록 증가할 수 있다. 또는, 서브 픽셀과 중첩되는 적어도 하나의 뷰 영역의 수는 복수의 뷰들의 수가 증가할수록 증가할 수 있다. 서브 픽셀과 중첩되는 적어도 하나의 뷰 영역의 수는 렌티큘러 렌즈의 경사각이 작을수록 증가할 수 있다.
S1230 단계에서, 전자 장치는 적어도 하나의 뷰 영역에 대응하는 적어도 하나의 영상 별로 서브 픽셀에 대응하는 데이터 값을 식별할 수 있다. 일 실시예에 따르면, 서브 픽셀이 제1 위치에 위치하는 경우, 서브 픽셀에 대응하는 데이터 값은 영상 내 제1 위치의 데이터 값을 의미할 수 있다.
S1240 단계에서, 전자 장치는 서브 픽셀과 적어도 하나의 뷰 영역이 중첩되는 정도에 기초하여, 적어도 하나의 영상 별로 데이터 값의 반영 정도를 결정하고, 결정된 반영 정도에 따라 조절된 데이터 값을 이용하여 서브 픽셀의 출력 값을 결정할 수 있다.
일 실시예에 따르면, 서브 픽셀과 적어도 하나의 뷰 영역이 중첩되는 정도가 클수록, 데이터 값의 반영 정도가 커질 수 있다.
일 실시예에 따르면, 전자 장치는 서브 픽셀과 적어도 하나의 뷰 영역이 중첩되는 면적에 기초하여, 서브 픽셀과 적어도 하나의 뷰 영역이 중첩되는 정도를 결정할 수 있다. 이때, 서브 픽셀과 적어도 하나의 뷰 영역이 중첩되는 면적이 클수록, 서브 픽셀과 적어도 하나의 뷰 영역이 중첩되는 정도가 커질 수 있다.
일 실시예에 따르면, 전자 장치는 서브 픽셀과 적어도 하나의 뷰 영역의 중심 선이 중첩되는 길이에 기초하여, 서브 픽셀과 적어도 하나의 뷰 영역이 중첩되는 정도를 결정할 수 있다. 이때, 서브 픽셀과 적어도 하나의 뷰 영역의 중심 선이 중첩되는 길이가 길수록, 서브 픽셀과 적어도 하나의 뷰 영역이 중첩되는 정도가 커질 수 있다.
일 실시예에 따르면, 전자 장치는 적어도 하나의 뷰 영역으로부터 서브 픽셀의 중심까지의 거리에 기초하여, 서브 픽셀과 적어도 하나의 뷰 영역이 중첩되는 정도를 결정할 수 있다. 이때, 적어도 하나의 뷰 영역으로부터 서브 픽셀의 중심까지의 거리가 짧을수록, 서브 픽셀과 적어도 하나의 뷰 영역이 중첩되는 정도가 커질 수 있다.
일 실시예에 따르면, 전자 장치는 서브 픽셀과 중첩되는 적어도 하나의 뷰 영역 중 기 결정된 규칙에 기초하여 일부의 뷰 영역을 제외하고 데이터 값의 반영 정도를 결정할 수 있다. 예를 들어, 전자 장치는 서브 픽셀과 중첩되는 면적이 기 결정된 값 이상인 뷰 영역에 대해서만 데이터 값의 반영 정도를 결정할 수 있다. 또는, 전자 장치는 서브 픽셀과 중첩되는 면적을 서브 픽셀의 면적으로 나누어서 생성된 값이 기 결정된 값 이상인 뷰 영역에 대해서만 데이터 값의 반영 정도를 결정할 수 있다. 전자 장치는 서브 픽셀과 중첩되는 중심 선의 길이가 기 결정된 값 이상인 뷰 영역에 대해서만 데이터 값의 반영 정도를 결정할 수 있다.
S1250 단계에서, 전자 장치는 서브 픽셀을 포함하는 다수의 서브 픽셀 별로 결정된 출력 값을 이용하여 영상을 출력할 수 있다. 일 실시예에 따르면, 출력된 영상은 다시점 영상을 의미할 수 있다.
도 13은 본 개시의 일 실시예에 따른 전자 장치(100)의 블록도이다.
일 실시예에 따르면, 전자 장치(100)는 프로세서(1320), 메모리(1340) 및 시역 분리부(1360)를 포함할 수 있다. 프로세서(1320)는 도 1의 프로세서(120)에 대응될 수 있고, 메모리(1340)는 도 1의 메모리(130)에 대응될 수 있다. 또한, 시역 분리부(1360)는 도 1의 디스플레이(110)에 포함될 수 있고, 렌티큘러 렌즈 또는 패럴랙스 배리어를 포함할 수 있다. 그러나, 전자 장치(100)의 구성은 전술한 바에 한정되지 않고, 더 많은 구성을 포함하거나 적은 구성을 포함할 수 있다.
일 실시예에 따르면, 프로세서(1320)는 메모리(1340)에 저장된 적어도 하나의 인스트럭션을 실행하여, 복수의 뷰들에 대응하는 복수의 영상들을 획득하고, 복수의 뷰들에 대응하도록 결정된 뷰 영역(view region)들 중에서, 서브 픽셀과 중첩되는 적어도 하나의 뷰 영역을 식별할 수 있다. 또한, 프로세서(1320)는 메모리(1340)에 저장된 적어도 하나의 인스트럭션을 실행하여, 적어도 하나의 뷰 영역에 대응하는 적어도 하나의 영상 별로 서브 픽셀에 대응하는 데이터 값을 식별할 수 있다. 프로세서(1320)는 메모리(1340)에 저장된 적어도 하나의 인스트럭션을 실행하여, 서브 픽셀과 적어도 하나의 뷰 영역이 중첩되는 정도에 기초하여, 적어도 하나의 영상 별로 데이터 값의 반영 정도를 결정하고, 결정된 반영 정도에 따라 조절된 데이터 값을 이용하여 서브 픽셀의 출력 값을 결정할 수 있다. 프로세서(1320)는 메모리(1340)에 저장된 적어도 하나의 인스트럭션을 실행하여, 서브 픽셀을 포함하는 다수의 서브 픽셀 별로 결정된 출력 값을 이용하여 영상을 출력할 수 있다.

Claims (15)

  1. 복수의 뷰들에 대응하는 복수의 영상들을 획득하는 단계;
    상기 복수의 뷰들에 대응하는 복수의 뷰 영역(view region)들 중에서, 서브 픽셀과 중첩되는 적어도 하나의 뷰 영역을 식별하는 단계;
    상기 적어도 하나의 뷰 영역에 대응하는 적어도 하나의 영상 별로 상기 서브 픽셀에 대응하는 데이터 값을 식별하는 단계;
    상기 서브 픽셀과 상기 적어도 하나의 뷰 영역이 중첩되는 정도에 기초하여, 상기 적어도 하나의 영상 별로 상기 데이터 값의 반영 정도를 결정하고, 상기 결정된 반영 정도에 따라 조절된 데이터 값에 기초하여 상기 서브 픽셀의 출력 값을 결정하는 단계; 및
    상기 서브 픽셀을 포함하는 다수의 서브 픽셀 별로 결정된 출력 값에 기초하여 영상을 출력하는 단계를 포함하는, 방법.
  2. 제1 항에 있어서, 상기 서브 픽셀과 상기 적어도 하나의 뷰 영역이 중첩되는 정도가 클수록, 상기 데이터 값의 반영 정도가 커지는 것을 특징으로 하는, 방법.
  3. 제1 항에 있어서, 상기 서브 픽셀과 상기 적어도 하나의 뷰 영역이 중첩되는 정도는 상기 서브 픽셀과 상기 적어도 하나의 뷰 영역이 중첩되는 면적에 기초하여 결정되는 것을 특징으로 하는, 방법.
  4. 제3 항에 있어서, 상기 중첩되는 면적이 클수록 상기 서브 픽셀과 상기 적어도 하나의 뷰 영역이 중첩되는 정도가 커지는 것을 특징으로 하는, 방법.
  5. 제1 항에 있어서, 상기 서브 픽셀과 상기 적어도 하나의 뷰 영역이 중첩되는 정도는 상기 서브 픽셀과 상기 적어도 하나의 뷰 영역의 중심 선이 중첩되는 길이에 기초하여 결정되는 것을 특징으로 하는, 방법.
  6. 제5 항에 있어서, 상기 중첩되는 길이가 길수록 상기 서브 픽셀과 상기 적어도 하나의 뷰 영역이 중첩되는 정도가 커지는 것을 특징으로 하는, 방법.
  7. 제1 항에 있어서, 상기 적어도 하나의 뷰 영역은 상기 서브 픽셀과 중첩되는 면적이 기 결정된 값 이상인 뷰 영역인 것을 특징으로 하는, 방법.
  8. 제1 항에 있어서, 상기 적어도 하나의 뷰 영역은 상기 서브 픽셀과 중첩되는 면적을 상기 서브 픽셀의 면적으로 나누어서 생성된 값이 기 결정된 값 이상인 뷰 영역인 것을 특징으로 하는, 방법.
  9. 제1 항에 있어서, 상기 적어도 하나의 뷰 영역은 중심 선이 상기 서브 픽셀과 중첩되는 길이가 기 결정된 값 이상인 뷰 영역인 것을 특징으로 하는, 방법.
  10. 시역 분리부;
    적어도 하나의 인스트럭션을 저장하는 메모리; 및
    적어도 하나의 프로세서를 포함하고,
    상기 적어도 하나의 프로세서는 상기 적어도 하나의 인스트럭션을 실행하여,
    복수의 뷰들에 대응하는 복수의 영상들을 획득하고,
    상기 시역 분리부의 특성에 기초하여 상기 복수의 뷰들에 대응하도록 결정되는 복수의 뷰 영역(view region)들 중에서, 서브 픽셀과 중첩되는 적어도 하나의 뷰 영역을 식별하고,
    상기 적어도 하나의 뷰 영역에 대응하는 적어도 하나의 영상 별로 상기 서브 픽셀에 대응하는 데이터 값을 식별하고,
    상기 서브 픽셀과 상기 적어도 하나의 뷰 영역이 중첩되는 정도에 기초하여, 상기 적어도 하나의 영상 별로 상기 데이터 값의 반영 정도를 결정하고, 상기 결정된 반영 정도에 따라 조절된 데이터 값에 기초하여 상기 서브 픽셀의 출력 값을 결정하고,
    상기 서브 픽셀을 포함하는 다수의 서브 픽셀 별로 결정된 출력 값에 기초하여 영상을 출력하는, 전자 장치.
  11. 제10 항에 있어서, 상기 서브 픽셀과 상기 적어도 하나의 뷰 영역이 중첩되는 정도가 클수록, 상기 데이터 값의 반영 정도가 커지는 것을 특징으로 하는, 전자 장치.
  12. 제10 항에 있어서 상기 서브 픽셀과 상기 적어도 하나의 뷰 영역이 중첩되는 정도는 상기 서브 픽셀과 상기 적어도 하나의 뷰 영역이 중첩되는 면적에 기초하여 결정되는 것을 특징으로 하는, 전자 장치.
  13. 제12 항에 있어서, 상기 중첩되는 면적이 클수록 상기 서브 픽셀과 상기 적어도 하나의 뷰 영역이 중첩되는 정도가 커지는 것을 특징으로 하는, 전자 장치.
  14. 제10 항에 있어서, 상기 서브 픽셀과 상기 적어도 하나의 뷰 영역이 중첩되는 정도는 상기 서브 픽셀과 상기 적어도 하나의 뷰 영역의 중심 선이 중첩되는 길이에 기초하여 결정되는 것을 특징으로 하는, 전자 장치.
  15. 제1 항 내지 제9 항 중 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
PCT/KR2022/095094 2021-05-20 2022-05-03 이미지를 처리하기 위한 방법 및 장치 WO2022245194A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202280036007.1A CN117337562A (zh) 2021-05-20 2022-05-03 用于处理图像的方法和装置
EP22805047.2A EP4311233A1 (en) 2021-05-20 2022-05-03 Method and apparatus for processing images
US17/743,019 US11961428B2 (en) 2021-05-20 2022-05-12 Method and device for processing image

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2021-0064977 2021-05-20
KR20210064977 2021-05-20
KR1020210112468A KR20220157270A (ko) 2021-05-20 2021-08-25 이미지를 처리하기 위한 방법 및 장치
KR10-2021-0112468 2021-08-25

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/743,019 Continuation US11961428B2 (en) 2021-05-20 2022-05-12 Method and device for processing image

Publications (1)

Publication Number Publication Date
WO2022245194A1 true WO2022245194A1 (ko) 2022-11-24

Family

ID=84140706

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/095094 WO2022245194A1 (ko) 2021-05-20 2022-05-03 이미지를 처리하기 위한 방법 및 장치

Country Status (1)

Country Link
WO (1) WO2022245194A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070019644A (ko) * 2003-09-27 2007-02-15 코닌클리케 필립스 일렉트로닉스 엔.브이. 다중 시야 디스플레이
KR20120010363A (ko) * 2010-07-26 2012-02-03 삼성전자주식회사 부화소 영역 가중치에 기반한 렌더링 시스템 및 방법
KR20140137971A (ko) * 2013-05-24 2014-12-03 삼성전자주식회사 디스플레이 장치 및 그의 다시점 영상 디스플레이 방법
KR20150002159A (ko) * 2013-06-28 2015-01-07 엘지디스플레이 주식회사 입체 영상 디스플레이 장치의 구동방법
KR20160136831A (ko) * 2015-05-21 2016-11-30 삼성전자주식회사 다시점 영상 디스플레이 장치 및 그 제어 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070019644A (ko) * 2003-09-27 2007-02-15 코닌클리케 필립스 일렉트로닉스 엔.브이. 다중 시야 디스플레이
KR20120010363A (ko) * 2010-07-26 2012-02-03 삼성전자주식회사 부화소 영역 가중치에 기반한 렌더링 시스템 및 방법
KR20140137971A (ko) * 2013-05-24 2014-12-03 삼성전자주식회사 디스플레이 장치 및 그의 다시점 영상 디스플레이 방법
KR20150002159A (ko) * 2013-06-28 2015-01-07 엘지디스플레이 주식회사 입체 영상 디스플레이 장치의 구동방법
KR20160136831A (ko) * 2015-05-21 2016-11-30 삼성전자주식회사 다시점 영상 디스플레이 장치 및 그 제어 방법

Similar Documents

Publication Publication Date Title
WO2020226316A1 (en) Transfer apparatus and method of manufacturing micro led display using the same
WO2020101420A1 (ko) 증강현실 기기의 광학 특성 측정 방법 및 장치
WO2016143983A1 (en) Method and device for radiating light used to capture iris
EP3850612A1 (en) Display apparatus and control method thereof
WO2022108321A1 (ko) 디스플레이 장치 및 그의 제어 방법
WO2019135475A1 (en) Electronic apparatus and control method thereof
WO2019035582A1 (en) DISPLAY APPARATUS AND SERVER, AND METHODS OF CONTROLLING THE SAME
WO2019066594A1 (ko) 디스플레이 장치 및 그 제어 방법
WO2020246859A1 (en) Method for compensating for screen movement of display and electronic device for supporting the same
WO2019226025A1 (ko) 디스플레이를 통해 어플리케이션의 콘텐트를 표시하는 방법 및 전자 장치
WO2016080653A1 (en) Method and apparatus for image processing
WO2019088481A1 (ko) 전자 장치 및 그의 영상 보정 방법
WO2022245194A1 (ko) 이미지를 처리하기 위한 방법 및 장치
WO2023146326A1 (ko) 개용 표시 장치
WO2022108114A1 (ko) 적층형 디스플레이 장치 및 이의 제어 방법
WO2022245045A1 (ko) 이미지를 처리하기 위한 방법 및 장치
WO2016186442A1 (en) Display panel, display apparatus and controlling method thereof
WO2021133139A1 (en) Electronic apparatus and control method thereof
WO2019209013A1 (ko) 확장현실 영상처리 방법 및 이를 위한 장치
EP3259752A1 (en) Display panel, display apparatus and controlling method thereof
WO2018113342A1 (zh) 显示装置的驱动方法、装置及显示装置
WO2020004941A1 (ko) 디스플레이에서 출력된 광을 렌즈로 전달할 수 있는 반사 부재 및 반투명 반사 부재를 포함하는 전자 장치
WO2017146314A1 (ko) 디스플레이 패널과 무안경 다시점 렌티큘러시트를 통한 홀로그램 출력방법과 렌티큘러시트가 부착된 두 개의 디스플레이 패널을 통한 3차원 영상 생성방법 및 출력방법
WO2019194588A1 (en) Method for driving plurality of pixel lines and electronic device thereof
WO2020130737A1 (en) Display apparatus and method of controlling the same

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22805047

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2022805047

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2022805047

Country of ref document: EP

Effective date: 20231017

WWE Wipo information: entry into national phase

Ref document number: 202280036007.1

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE