WO2020149619A1 - 비디오 월 - Google Patents

비디오 월 Download PDF

Info

Publication number
WO2020149619A1
WO2020149619A1 PCT/KR2020/000692 KR2020000692W WO2020149619A1 WO 2020149619 A1 WO2020149619 A1 WO 2020149619A1 KR 2020000692 W KR2020000692 W KR 2020000692W WO 2020149619 A1 WO2020149619 A1 WO 2020149619A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
image
display device
video display
displayed
Prior art date
Application number
PCT/KR2020/000692
Other languages
English (en)
French (fr)
Inventor
노현철
전상엽
김상열
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to US17/422,627 priority Critical patent/US11468823B2/en
Publication of WO2020149619A1 publication Critical patent/WO2020149619A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/22Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources
    • G09G3/30Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using electroluminescent panels
    • G09G3/32Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using electroluminescent panels semiconductive, e.g. using light-emitting diodes [LED]
    • G09G3/3208Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using electroluminescent panels semiconductive, e.g. using light-emitting diodes [LED] organic, e.g. using organic light-emitting diodes [OLED]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2624Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of whole input images, e.g. splitscreen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • G06F3/1446Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display display composed of modules, e.g. video walls
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2092Details of a display terminals using a flat panel, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G3/2096Details of the interface to the display terminal specific for a flat panel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41415Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance involving a public display, viewable by several users in a public space outside their home, e.g. movie theatre, information kiosk
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2300/00Aspects of the constitution of display devices
    • G09G2300/02Composition of display devices
    • G09G2300/026Video wall, i.e. juxtaposition of a plurality of screens to create a display screen of bigger dimensions
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2310/00Command of the display device
    • G09G2310/02Addressing, scanning or driving the display screen or processing steps related thereto
    • G09G2310/0232Special driving of display border areas
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0233Improving the luminance or brightness uniformity across the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0257Reduction of after-image effects
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0271Adjustment of the gradation levels within the range of the gradation scale, e.g. by redistribution or clipping
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/04Maintaining the quality of display appearance
    • G09G2320/043Preventing or counteracting the effects of ageing
    • G09G2320/046Dealing with screen burn-in prevention or compensation of the effects thereof
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/02Handling of images in compressed format, e.g. JPEG, MPEG
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image

Definitions

  • the present invention relates to a video wall, and more particularly, to a video wall capable of reducing generation of black areas while reducing afterimages in a video wall having a plurality of displays.
  • a video wall is a device having a plurality of displays and displaying images.
  • video walls are used for commercial purposes, such as outside or inside buildings, for commercial purposes.
  • various methods such as a liquid crystal display panel and an organic light emitting panel are used as a display used for a video wall.
  • An object of the present invention is to provide a video wall capable of reducing generation of black areas while reducing afterimages in a video wall having a plurality of displays.
  • Another object of the present invention is to provide a video wall capable of reducing generation of black areas while reducing afterimages in a video wall in which a video is repeatedly displayed.
  • Another object of the present invention is to provide a video wall capable of improving the life of a video wall having a plurality of displays.
  • Another object of the present invention is to provide a video wall capable of receiving and processing a black area generated by a shift of an output position from an adjacent video display device and displaying it.
  • a video wall for achieving the above object, a plurality of displays arranged adjacent to each other, an image distribution unit for distributing an input image into a plurality of images for display on a plurality of displays, a plurality It includes at least one control unit for controlling a plurality of video display devices corresponding to the display, and when the video displayed on the plurality of video display devices are repeatedly played, stores the boundary area displayed on the plurality of video display devices and , Transmitted to an adjacent video display device, and each video display device synthesizes the received boundary area and the video area to be displayed, and displays each area of the synthesized image by each video display device.
  • control unit of the first video display device among the plurality of video display devices determines whether or not the video displayed on the plurality of video display devices is repeatedly played, and if so, stores a boundary area and generates a composite image. Can be controlled.
  • the control unit of the first video display device among the plurality of video display devices may transmit pixel shift direction information to the plurality of video display devices. It can be controlled to be transmitted.
  • the controller of the first video display device among the plurality of video display devices may control the pixel shift to be commonly performed in the plurality of video display devices while the video displayed on the video display devices is repeatedly played.
  • a first video display device among the plurality of video display devices is disposed adjacent to the first direction.
  • a second image display device which transmits a first boundary area in a first direction displayed on the first image display device, and the second image display device synthesizes the input image and the first boundary area to obtain the synthesized image. Generated, it is possible to display an image excluding the boundary region in the first direction among the synthesized images.
  • the first image display device is disposed adjacent to the second direction.
  • the third image display device transmits a second boundary area in the second direction displayed on the first image display device, and the third image display device synthesizes the input image and the third boundary area to generate a synthesized image.
  • an image excluding a boundary region in a third direction among the synthesized images may be displayed.
  • each of the plurality of video display devices performs different pixel shifts, and each of the plurality of video display devices includes a boundary area of an adjacent video display device, A composite region is generated based on the input image, and an image excluding a border region in a pixel shift direction can be displayed in the synthesized region.
  • a second video display device is disposed in a first direction of a first video display device
  • a third video display device is disposed in a second direction, and displayed on a plurality of video display devices While the video is being repeatedly played, when the first direction shift is performed in the second image display device and the third direction shift is performed in the third image display device at the first time point, the second image display device is input.
  • the image and the first boundary area in the first direction displayed on the first image display device are synthesized to generate a synthesized image, and an image excluding the boundary area in the first direction is displayed among the synthesized images, and the third image display device A may generate a synthesized image by synthesizing the input image and the second boundary region in the second direction displayed on the first image display device, and display an image of the synthesized image excluding the boundary region in the second direction.
  • a pixel shift shift amount may be varied each time a scene is switched.
  • the size of the border area may be varied and transmitted according to a variable amount of pixel shift movement at every scene change.
  • an image of a boundary area may be sequentially transmitted to an adjacent video display device.
  • the plurality of image display devices may include an organic light emitting panel.
  • a video wall for achieving the above object, a plurality of displays disposed adjacent to each other, an image distribution unit for distributing an input image into a plurality of images for display on a plurality of displays, a plurality It includes at least one control unit for controlling a plurality of video display devices corresponding to the display, and when the video displayed on the plurality of video display devices are repeatedly played, input to the first video display device of the plurality of video display devices
  • the first boundary image in the first image and the second image input to the second image display device adjacent to the first image display device may be synthesized to display some areas of the synthesized image on the second image display device.
  • control unit of the first video display device determines whether or not the video displayed on the plurality of video display devices is repeatedly played, and if applicable, the first input to the first video display device among the plurality of video display devices.
  • the first boundary image in the image may be controlled to be transmitted to the second image display device.
  • the controller of the second video display device synthesizes the first boundary image received from the first video display device and the input second image, and displays some of the synthesized image on the display of the second video display device. Can be controlled.
  • a video wall includes a plurality of displays disposed adjacent to each other, an image distribution unit for distributing an input image into a plurality of images for display on a plurality of displays, and a plurality of images corresponding to a plurality of displays It includes at least one control unit for controlling the video display device, and when a video displayed on a plurality of video display devices are repeatedly played, stores a boundary area displayed on the plurality of video display devices, adjacent video display device Each video display device combines the received boundary area with the video area to be displayed, and each video display device displays some areas of the synthesized image. Accordingly, it is possible to reduce the occurrence of black areas while reducing the afterimage in the video wall. In particular, it is possible to reduce the occurrence of black areas while reducing afterimages in a video wall where a video is repeatedly displayed.
  • control unit of the first video display device among the plurality of video display devices determines whether or not the video displayed on the plurality of video display devices is repeatedly played, and if so, stores a boundary area and generates a composite image. Can be controlled. Accordingly, it is possible to reduce the occurrence of black areas while reducing afterimages in a video wall in which a video is repeatedly displayed.
  • the control unit of the first video display device among the plurality of video display devices may transmit pixel shift direction information to the plurality of video display devices. It can be controlled to be transmitted. Accordingly, it is possible to reduce the occurrence of black areas while reducing afterimages in a video wall in which a video is repeatedly displayed.
  • the controller of the first video display device among the plurality of video display devices may control the pixel shift to be commonly performed in the plurality of video display devices while the video displayed on the video display devices is repeatedly played. Accordingly, it is possible to reduce the occurrence of black areas while reducing afterimages in a video wall in which a video is repeatedly displayed.
  • a first video display device among the plurality of video display devices is disposed adjacent to the first direction.
  • a second image display device which transmits a first boundary area in a first direction displayed on the first image display device, and the second image display device synthesizes the input image and the first boundary area to obtain the synthesized image.
  • the first image display device is disposed adjacent to the second direction.
  • the third image display device transmits a second boundary area in the second direction displayed on the first image display device, and the third image display device synthesizes the input image and the third boundary area to generate a synthesized image.
  • an image excluding a boundary region in a third direction among the synthesized images may be displayed. Accordingly, it is possible to reduce the occurrence of black areas while reducing afterimages in a video wall in which a video is repeatedly displayed.
  • each of the plurality of video display devices performs different pixel shifts, and each of the plurality of video display devices includes a boundary area of an adjacent video display device, A composite region is generated based on the input image, and an image excluding a border region in a pixel shift direction can be displayed in the synthesized region. Accordingly, it is possible to reduce the occurrence of black areas while reducing afterimages in a video wall in which a video is repeatedly displayed.
  • a second video display device is disposed in a first direction of a first video display device
  • a third video display device is disposed in a second direction, and displayed on a plurality of video display devices While the video is being repeatedly played, when the first direction shift is performed in the second image display device and the third direction shift is performed in the third image display device at the first time point, the second image display device is input.
  • the image and the first boundary area in the first direction displayed on the first image display device are synthesized to generate a synthesized image, and an image excluding the boundary area in the first direction is displayed among the synthesized images, and the third image display device A may generate a synthesized image by synthesizing the input image and the second boundary region in the second direction displayed on the first image display device, and display an image of the synthesized image excluding the boundary region in the second direction. . Accordingly, it is possible to reduce the occurrence of black areas while reducing afterimages in a video wall in which a video is repeatedly displayed.
  • a pixel shift shift amount may be varied each time a scene is switched. Accordingly, it is possible to reduce the occurrence of black areas while reducing afterimages in a video wall in which a video is repeatedly displayed.
  • the size of the border area may be varied and transmitted according to a variable amount of pixel shift movement at every scene change. Accordingly, it is possible to reduce the occurrence of black areas while reducing afterimages in a video wall in which a video is repeatedly displayed.
  • an image of a boundary area may be sequentially transmitted to an adjacent video display device. Accordingly, it is possible to reduce the occurrence of black areas while reducing afterimages in a video wall in which a video is repeatedly displayed.
  • the video wall according to another embodiment of the present invention, a plurality of displays disposed adjacent to each other, the image distribution unit for distributing the input image into a plurality of images for display on a plurality of displays, and supports a plurality of displays It includes at least one control unit for controlling a plurality of video display device, and when the video displayed on the plurality of video display device is repeatedly played, the first video input to the first video display device of the plurality of video display device.
  • the first boundary image within and the second image input to the second image display device adjacent to the first image display device may be synthesized to display some areas of the synthesized image on the second image display device. Accordingly, it is possible to reduce the occurrence of black areas while reducing the afterimage in the video wall. In particular, it is possible to reduce the occurrence of black areas while reducing afterimages in a video wall where a video is repeatedly displayed.
  • control unit of the first video display device determines whether or not the video displayed on the plurality of video display devices is repeatedly played, and if applicable, the first input to the first video display device among the plurality of video display devices.
  • the first boundary image in the image may be controlled to be transmitted to the second image display device. Accordingly, it is possible to reduce the occurrence of black areas while reducing afterimages in a video wall in which a video is repeatedly displayed.
  • the controller of the second video display device synthesizes the first boundary image received from the first video display device and the input second image, and displays some of the synthesized image on the display of the second video display device. Can be controlled. Accordingly, it is possible to reduce the occurrence of black areas while reducing afterimages in a video wall in which a video is repeatedly displayed.
  • FIG. 1 is a view showing an image display system according to an embodiment of the present invention.
  • FIG. 2 is an example of an internal block diagram of the video wall of FIG. 1.
  • FIG. 3 is an example of an internal block diagram of the image display device of FIG. 1.
  • FIG. 4 is an example of an internal block diagram of the control unit of FIG. 3.
  • FIG. 5 is an internal block diagram of the display of FIG. 3.
  • 6A to 6B are views referred to for explanation of the organic light emitting panel of FIG. 5.
  • FIG. 7 is an example of an internal block diagram of a control unit according to an embodiment of the present invention.
  • FIG. 8 to 9B are views referred to for explaining the operation of the control unit of FIG. 7.
  • 10A to 10B are diagrams referenced in the description of pixel shift in a video wall.
  • FIG. 11 is a flowchart illustrating a method of operating a video wall according to an embodiment of the present invention.
  • modules and “parts” for components used in the following description are given simply by considering the ease of writing the present specification, and do not give meanings or roles that are particularly important in themselves. Therefore, the “module” and the “unit” may be used interchangeably.
  • FIG. 1 is a view showing an image display system according to an embodiment of the present invention.
  • the video display system 5 includes a video wall 10, a set top box 300, and a server 600 having a plurality of video display devices 100a to 100d. ).
  • the video wall 10 may receive an image from the set-top box 300 or the server 600 or an internal memory.
  • the video wall 10 may receive an image signal from the set-top box 300 through an HDMI terminal.
  • the video wall 10 may receive a video signal from the server 600 through a network terminal.
  • the video wall 10 may be installed in a public place inside or outside the building.
  • the video wall 10 can be installed in public facilities such as a terminal, a train station, and an airport in order to provide information such as advertisements, news, and announcements.
  • advertisement of a specific item it may be arranged around a show window in a store such as a department store, a shopping mall, a large mart, or the like.
  • the video wall 10 may include a plurality of displays 180a to 180d disposed adjacent to each other.
  • the plurality of displays 180a to 180d may be implemented as any one of various panels.
  • the plurality of displays 180a to 180d may be any one of a liquid crystal display panel (LCD panel), an organic light emitting panel (OLED panel), and an inorganic light emitting panel (LED panel).
  • LCD panel liquid crystal display panel
  • OLED panel organic light emitting panel
  • LED panel inorganic light emitting panel
  • the plurality of displays 180a to 180d include an organic light emitting panel (OLED panel).
  • OLED panel organic light emitting panel
  • the organic light emitting panel (OLED panel)
  • the panel response speed is faster than the liquid crystal display panel, excellent color reproduction effect, has the advantage of excellent color reproduction.
  • the plurality of displays 180a to 180d may include a plurality of panels 210a to 210d and bezels Ba to Bd surrounding the panels 210a to 210d.
  • the video wall 10 includes a plurality of image display devices 100a to 100d, which include a plurality of displays 180a to 180d. Meanwhile, the plurality of image display devices 100a to 100d may further include a plurality of control units 170a to 170d in addition to the plurality of displays 180a to 180d.
  • images distributed from the image distribution unit 160 are input to the control units 170a to 170d provided in each of the plurality of image display devices 100a to 100d, and each control unit ( In 170a to 170d), the image signal-processed image is input to each display 180a to 180d, and each display 180a to 180d can display the corresponding image.
  • the viewer 50 can watch the image displayed on the video wall 10, as shown in the drawing.
  • the video wall 10 may include a single control unit for controlling a plurality of image display devices 100a to 100d in common. Accordingly, the common control unit can perform signal processing on the display image. Then, the video signal processed image is input to each display (180a ⁇ 180d), each display (180a ⁇ 180d), can display the corresponding image.
  • the technology of preventing the same position from being continuously shifted while shifting the output position is widely used as a very useful afterimage reduction technology in a single image display device, but its application is not easy in a video wall.
  • the present invention proposes a method capable of reducing generation of black areas while reducing afterimages.
  • Video wall 10 a plurality of displays (180a ⁇ 180d) disposed adjacent to, and the input image is distributed to a plurality of images for display on a plurality of displays (180a ⁇ 180d) It includes a video distribution unit 160 and at least one control unit 170 for controlling a plurality of image display devices (100a ⁇ 100d) corresponding to the plurality of displays (180a ⁇ 180d), a plurality of video display device
  • the videos displayed on (100a to 100d) are played repeatedly, the boundary areas displayed on the plurality of video display devices (100a to 100d) are stored, transmitted to adjacent video display devices, and each video display device receives
  • the boundary area and the image area to be displayed are synthesized, and each area of the synthesized image is displayed by each image display device. Accordingly, it is possible to reduce the occurrence of black areas while reducing the afterimage in the video wall 10. In particular, it is possible to reduce the occurrence of black areas while reducing afterimages in the video wall 10 in which
  • control unit 170a of the first video display device 100a among the plurality of video display devices 100a to 100d determines whether or not the video displayed on the plurality of video display devices 100a to 100d is repeatedly played. And, if applicable, it is possible to control the storage of the boundary region and generation of the composite image. Accordingly, it is possible to reduce the occurrence of black areas while reducing afterimages in the video wall 10 in which a video is repeatedly displayed.
  • the video wall 10 a plurality of displays (180a ⁇ 180d) disposed adjacent to, and a plurality of images for displaying the input image on the plurality of displays (180a ⁇ 180d) It includes an image distribution unit 160 for distributing, and at least one control unit 170 for controlling a plurality of image display devices (100a ⁇ 100d) corresponding to the plurality of displays (180a ⁇ 180d), a plurality of images
  • a second image input to the second image display device 100b adjacent to the image display device 100a may be synthesized and a partial region of the synthesized image may be displayed on the second image display device 100b. Accordingly, it is possible to reduce the occurrence of black areas while reducing the afterimage in the video wall 10. In particular, it is possible to
  • FIG. 2 is an example of an internal block diagram of the video wall of FIG. 1.
  • the video wall 10 may include first to fourth image display devices 100a to 100d.
  • the second to fourth image display devices 100b to 100d are illustrated as having second to fourth displays 180b to 180d and second to fourth control units 170b to 170d, respectively.
  • an external device interface unit a network interface unit, a memory, an image distribution unit, a power supply unit, and an audio output unit may be provided.
  • the first image display device 100a includes an external device interface unit 130, a network interface unit 135, a memory 140, a user input interface unit 150, an image distribution unit 160, and a first control unit
  • a first display 180a, a power supply unit 190, an audio output unit 194, and the like may be provided.
  • the external device interface unit 130 may transmit and receive data with a connected external device (not shown).
  • the external device interface unit 130 may include an A/V input/output unit (not shown) or a data input/output unit (not shown).
  • the external device interface unit 130 may include an HDMI terminal, an RGB terminal, a component terminal, a USB terminal, and a micro SD terminal.
  • the network interface unit 135 provides an interface for connecting the video display device 100 to a wired/wireless network including an Internet network.
  • the network interface unit 135 may transmit and receive content or data provided by the Internet or a content provider or a network operator through a network.
  • the memory 140 may store a program for processing and controlling each signal in the control unit 170a, or may store a signal-processed image, audio, or data signal.
  • the memory 140 may perform a function for temporarily storing an image, audio, or data signal input to the external device interface unit 130.
  • the plurality of displays 180a to 180d may be disposed adjacent to each other, may include various display panels such as LCD, OLED, and PDP, and may display a predetermined image through the display panel.
  • the user input interface unit 150 transmits a signal input by the user to the control unit 170a or a signal from the control unit 170a to the user.
  • the user input interface unit 150 may include a local key including a power key, a touch panel for inputting user information, and the like.
  • the image distribution unit 160 may display an input image stored in the memory 140, an input image received from an external device through the external device interface unit 130, or a network interface unit 135. 180d) may be distributed as a plurality of images.
  • the image distribution unit 160 may crop an input image into a plurality of images and perform scaling.
  • the image distribution unit 160 may perform cropping, scaling, etc. in consideration of resolution and size of the plurality of displays 180a to 180d.
  • the image distribution unit 160 may perform an overall control operation of the video wall 10. Specifically, the operation of each unit in the video wall 10 may be controlled.
  • At least one control unit may be provided to control the plurality of displays 180a to 180d.
  • control units 170a to 170d corresponding to the number of the plurality of displays 180a to 180d are illustrated to control the plurality of displays 180a to 180d.
  • the plurality of control units 170a to 170d may perform control operations for displaying images on the plurality of displays 180a to 180d, respectively.
  • each of the plurality of control units 170a to 170d stores a boundary area displayed on the plurality of image display devices 100a to 100d when a video displayed on the plurality of image display devices 100a to 100d is repeatedly played. And transmits it to adjacent video display devices, and each video display device 100a to 100d synthesizes the received boundary area and the video area to be displayed, and part of the synthesized image to each video display device 100a to 100d. ) To be displayed. Accordingly, it is possible to reduce the occurrence of black areas while reducing the afterimage in the video wall 10. In particular, it is possible to reduce the occurrence of black areas while reducing afterimages in the video wall 10 in which a video is repeatedly displayed.
  • control unit 170a of the first video display device 100a among the plurality of video display devices 100a to 100d determines whether or not the video displayed on the plurality of video display devices 100a to 100d is repeatedly played. And, if applicable, it is possible to control the storage of the boundary region and generation of the composite image. Accordingly, it is possible to reduce the occurrence of black areas while reducing afterimages in the video wall 10 in which a video is repeatedly displayed.
  • the control unit 170a of the first video display device 100a among the plurality of video display devices 100a to 100d shifts pixels while the video displayed on the plurality of video display devices 100a to 100d is repeatedly played.
  • the pixel shift direction information may be controlled to be transmitted to the plurality of image display devices 100a to 100d. Accordingly, it is possible to reduce the occurrence of black areas while reducing afterimages in the video wall 10 in which a video is repeatedly displayed.
  • control unit 170a of the first video display device 100a among the plurality of video display devices 100a to 100d shifts pixels while the video displayed on the plurality of video display devices 100a to 100d is repeatedly played. It can be controlled to be performed in common in a plurality of image display devices (100a ⁇ 100d). Accordingly, it is possible to reduce the occurrence of black areas while reducing afterimages in the video wall 10 in which a video is repeatedly displayed.
  • each of the plurality of control units 170a to 170d may control the plurality of displays 180a to 180d to output a predetermined image.
  • R, G, and B signals corresponding to a video image to be displayed may be output to a plurality of displays 180a to 180d. Accordingly, the plurality of displays 180a to 180d can display each image.
  • the power supply unit 190 may receive external power or internal power to supply power required for the operation of each component.
  • the power supply unit 190 supplies corresponding power throughout the video display device 100.
  • a plurality of control units 170a to 170d that may be implemented in the form of a system on chip (SOC), a plurality of displays 180a to 180d for image display, and an audio output unit for audio output Power can be supplied to 194.
  • SOC system on chip
  • the temperature sensing unit (not shown) may detect the temperature of the video wall 10.
  • the temperature sensed by the temperature sensing unit may be input to the plurality of control units 170a to 170d or the filter distribution unit 160, based on the sensed temperature, to reduce internal heat, a fan
  • the operation of the driving unit can be controlled.
  • FIG. 3 is an example of an internal block diagram of the image display device of FIG. 1.
  • the image display apparatus 100 includes an image receiving unit 105, a memory 140, a user input interface unit 150, a sensor unit (not shown), and a control unit ( 170), a display 180, an audio output unit 185.
  • the image receiving unit 105 may include a tuner unit 110, a demodulator 120, a network interface unit 130, and an external device interface unit 130.
  • the image receiving unit 105 unlike the drawing, it is also possible to include only the tuner unit 110, the demodulator 120 and the external device interface unit 130. That is, the network interface unit 130 may not be included.
  • the tuner unit 110 selects an RF broadcast signal corresponding to a channel selected by a user or all pre-stored channels from a radio frequency (RF) broadcast signal received through an antenna (not shown).
  • RF radio frequency
  • the selected RF broadcast signal is converted into an intermediate frequency signal or a baseband video or audio signal.
  • the selected RF broadcast signal is a digital broadcast signal
  • it is converted to a digital IF signal (DIF)
  • it is converted to an analog baseband video or audio signal (CVBS/SIF).
  • the tuner 110 may process a digital broadcast signal or an analog broadcast signal.
  • the analog baseband video or audio signal (CVBS/SIF) output from the tuner 110 may be directly input to the controller 170.
  • the tuner unit 110 may be provided with a plurality of tuners in order to receive a broadcast signal of a plurality of channels.
  • a single tuner that simultaneously receives broadcast signals of multiple channels is possible.
  • the demodulator 120 receives the digital IF signal DIF converted by the tuner 110 and performs a demodulation operation.
  • the demodulator 120 may output a stream signal TS after demodulation and channel decoding.
  • the stream signal may be a video signal, an audio signal or a data signal multiplexed.
  • the stream signal output from the demodulator 120 may be input to the controller 170.
  • the controller 170 After performing demultiplexing, video/audio signal processing, and the like, the controller 170 outputs an image to the display 180 and outputs an audio to the audio output unit 185.
  • the external device interface unit 130 may transmit or receive data with a connected external device (not shown), for example, the set-top box 50. To this end, the external device interface unit 130 may include an A/V input/output unit (not shown).
  • the external device interface unit 130 may be connected to an external device, such as a DVD (Digital Versatile Disk), a Blu-ray, a game device, a camera, a camcorder, a computer (laptop), or a set-top box, by wire/wireless. , It can also perform input/output operations with external devices.
  • an external device such as a DVD (Digital Versatile Disk), a Blu-ray, a game device, a camera, a camcorder, a computer (laptop), or a set-top box, by wire/wireless. , It can also perform input/output operations with external devices.
  • the A/V input/output unit may receive video and audio signals from an external device. Meanwhile, the wireless communication unit (not shown) may perform short-range wireless communication with other electronic devices.
  • the external device interface unit 130 may exchange data with an adjacent mobile terminal 600. Particularly, in the mirroring mode, the external device interface unit 130 may receive device information, application information being executed, and application images from the mobile terminal 600.
  • the network interface unit 135 provides an interface for connecting the video display device 100 to a wired/wireless network including an Internet network.
  • the network interface unit 135 may receive content or data provided by the Internet or a content provider or a network operator through a network.
  • the network interface unit 135 may include a wireless communication unit (not shown).
  • the memory 140 may store a program for processing and controlling each signal in the control unit 170, or may store a signal-processed image, audio, or data signal.
  • the memory 140 may perform a function for temporarily storing an image, audio, or data signal input to the external device interface unit 130. Further, the memory 140 may store information regarding a predetermined broadcast channel through a channel storage function such as a channel map.
  • memory 140 of FIG. 3 illustrates an embodiment provided separately from the controller 170, the scope of the present invention is not limited thereto.
  • the memory 140 may be included in the control unit 170.
  • the user input interface unit 150 transmits a signal input by the user to the control unit 170 or a signal from the control unit 170 to the user.
  • a user input signal such as power on/off, channel selection, screen setting, etc. is transmitted/received from the remote control device 200, or a local key (not shown) such as a power key, channel key, volume key, set value, etc.
  • a local key such as a power key, channel key, volume key, set value, etc.
  • Transfer the user input signal input from the control unit 170 or transmit the user input signal input from the sensor unit (not shown) to sense the user's gesture to the control unit 170, or a signal from the control unit 170 It can be transmitted to a sensor unit (not shown).
  • the control unit 170 through the tuner unit 110 or the demodulator 120 or the network interface unit 135 or the external device interface unit 130, demultiplexes the input stream or processes the demultiplexed signals , It can generate and output signals for video or audio output.
  • control unit 170 receives a broadcast signal or an HDMI signal received from the image receiving unit 105, performs signal processing based on the received broadcast signal or HDMI signal, and outputs a signal-processed video signal can do.
  • the image signal processed by the control unit 170 may be input to the display 180 and displayed as an image corresponding to the corresponding image signal. Also, the image signal processed by the control unit 170 may be input to the external output device through the external device interface unit 130.
  • the audio signal processed by the control unit 170 may be sound output to the audio output unit 185. Also, the audio signal processed by the control unit 170 may be input to the external output device through the external device interface unit 130.
  • control unit 170 may include a demultiplexing unit, an image processing unit, and the like. That is, the control unit 170 may perform various signal processing, and accordingly, may be implemented in the form of a System On Chip (SOC). This will be described later with reference to FIG. 4.
  • SOC System On Chip
  • control unit 170 may control the overall operation in the image display device 100.
  • the controller 170 may control the tuner 110 to control the user to select (Tuning) an RF broadcast corresponding to a channel selected by a user or a pre-stored channel.
  • control unit 170 may control the image display device 100 by a user command input through the user input interface unit 150 or an internal program.
  • the controller 170 may control the display 180 to display an image.
  • the image displayed on the display 180 may be a still image or a video, and may be a 2D video or a 3D video.
  • control unit 170 may cause a predetermined object to be displayed in an image displayed on the display 180.
  • the object may be at least one of a connected web screen (newspaper, magazine, etc.), EPG (Electronic Program Guide), various menus, widgets, icons, still images, videos, and text.
  • EPG Electronic Program Guide
  • control unit 170 may recognize the user's location based on the image photographed from the photographing unit (not shown). For example, a distance (z-axis coordinate) between the user and the image display device 100 may be grasped. In addition, the x-axis coordinates and the y-axis coordinates in the display 180 corresponding to the user's location can be grasped.
  • the display 180 converts a video signal, a data signal, an OSD signal, a control signal processed by the controller 170, or a video signal received from the external device interface unit 130, a data signal, a control signal, and converts the driving signal. To create.
  • the display 180 may be configured as a touch screen and used as an input device in addition to an output device.
  • the audio output unit 185 receives a signal processed by the control unit 170 and outputs it as voice.
  • the photographing unit (not shown) photographs the user.
  • the photographing unit (not shown) may be implemented with one camera, but is not limited thereto, and may be implemented with a plurality of cameras. Image information photographed by the photographing unit (not shown) may be input to the controller 170.
  • the control unit 170 may detect a user's gesture based on an image captured from the photographing unit (not shown) or each of the detected signals from the sensor unit (not illustrated) or a combination thereof.
  • the power supply unit 190 supplies corresponding power throughout the video display device 100.
  • the power supply unit 190 includes a control unit 170 that can be implemented in the form of a system on chip (SOC), a display 180 for image display, and an audio output unit for audio output ( 185) Power can be supplied to the back.
  • SOC system on chip
  • the power supply unit 190 may include a converter that converts AC power into DC power, and a dc/dc converter that converts the level of DC power.
  • the remote control device 200 transmits a user input to the user input interface unit 150.
  • the remote control device 200 may use Bluetooth, radio frequency (RF) communication, infrared (IR) communication, ultra wideband (UWB), ZigBee, or the like.
  • the remote control device 200 may receive an image, audio, or data signal output from the user input interface unit 150, and display or output the sound from the remote control device 200.
  • the above-described image display apparatus 100 may be a digital broadcast receiver capable of receiving a fixed or mobile digital broadcast.
  • the block diagram of the video display device 100 shown in FIG. 3 is a block diagram for an embodiment of the present invention.
  • Each component of the block diagram may be integrated, added, or omitted depending on the specification of the image display device 100 that is actually implemented. That is, two or more components may be combined into one component, or one component may be divided into two or more components as necessary.
  • the function performed in each block is for explaining an embodiment of the present invention, the specific operation or device does not limit the scope of the present invention.
  • FIG. 4 is an example of an internal block diagram of the control unit of FIG. 3.
  • control unit 170 may include a demultiplexing unit 310, an image processing unit 320, a processor 330, and an audio processing unit 370.
  • a data processing unit (not shown) may be further included.
  • the demultiplexing unit 310 demultiplexes the input stream. For example, when MPEG-2 TS is input, it can be demultiplexed to separate video, audio, and data signals.
  • the stream signal input to the demultiplexer 310 may be a stream signal output from the tuner 110 or demodulator 120 or the external device interface 130.
  • the image processing unit 320 may perform signal processing on the input image.
  • the image processing unit 320 may perform image processing of the demultiplexed image signal from the demultiplexing unit 310.
  • the image processing unit 320 an image decoder 325, a scaler 335, an image quality processing unit 635, an image encoder (not shown), an OSD generation unit 340, a frame image rate conversion unit 350, And a formatter 360.
  • the video decoder 325 decodes the demultiplexed video signal, and the scaler 335 performs scaling so that the resolution of the decoded video signal can be output from the display 180.
  • the video decoder 325 may be provided with decoders of various standards. For example, an MPEG-2, H,264 decoder, a 3D image decoder for color and depth images, and a decoder for multi-view images may be provided.
  • the scaler 335 may scale the input video signal, which has been decoded by the video decoder 325 or the like.
  • the scaler 335 may scale up when the size or resolution of the input video signal is small, and down scale when the size or resolution of the input video signal is large.
  • the image quality processing unit 635 may perform image quality processing on the input image signal, which has been image decoded by the image decoder 325 or the like.
  • the image quality processing unit 635 performs noise reduction processing of the input video signal, expands the resolution of the grayscale of the input video signal, performs image resolution enhancement, or performs high dynamic range (HDR)-based signal processing.
  • the frame image rate may be varied, or panel characteristics, in particular, image quality processing corresponding to an organic light emitting panel may be performed.
  • the OSD generating unit 340 generates an OSD signal according to a user input or by itself. For example, based on a user input signal, a signal for displaying various information on a screen of the display 180 in a graphic or text may be generated.
  • the generated OSD signal may include various data such as a user interface screen of the video display device 100, various menu screens, widgets, and icons.
  • the generated OSD signal may include a 2D object or a 3D object.
  • the OSD generating unit 340 may generate a pointer, which can be displayed on the display, based on the pointing signal input from the remote control device 200.
  • a pointer may be generated by the pointing control unit, and the OSD generating unit 240 may include such a pointing control unit (not shown).
  • a pointing control unit (not shown) is not provided in the OSD generating unit 240, but may be separately provided.
  • the frame rate converter (FRC) 350 may convert the frame rate of the input image.
  • the frame image rate conversion unit 350 it is possible to output as it is, without a separate frame image rate conversion.
  • the formatter (Formatter) 360 the format of the input video signal can be output by changing to a video signal for display on the display.
  • the formatter 360 may change the format of the video signal to correspond to the display panel.
  • the processor 330 may control the overall operation in the image display device 100 or in the control unit 170.
  • the processor 330 may control the tuner 110 so as to select (Tuning) an RF broadcast corresponding to a channel selected by a user or a pre-stored channel.
  • the processor 330 may control the video display device 100 by a user command input through the user input interface unit 150 or an internal program.
  • the processor 330 may perform data transmission control with the network interface unit 135 or the external device interface unit 130.
  • the processor 330 may control operations such as the demultiplexing unit 310 and the image processing unit 320 in the control unit 170.
  • the audio processing unit 370 in the control unit 170 may perform audio processing of the demultiplexed audio signal.
  • the audio processing unit 370 may include various decoders.
  • the audio processing unit 370 in the control unit 170 may process a base, treble, volume control, and the like.
  • the data processing unit (not shown) in the control unit 170 may perform data processing of the demultiplexed data signal.
  • the demultiplexed data signal is an encoded data signal, it can be decoded.
  • the encoded data signal may be electronic program guide information including broadcast information such as start time and end time of a broadcast program broadcast on each channel.
  • the block diagram of the control unit 170 shown in Figure 4 is a block diagram for an embodiment of the present invention. Each component of the block diagram may be integrated, added, or omitted depending on the specification of the control unit 170 that is actually implemented.
  • the frame image rate converter 350 and the formatter 360 may be provided separately from the image processor 320.
  • FIG. 5 is an internal block diagram of the display of FIG. 3.
  • the organic light emitting panel-based display 180 includes an organic light emitting panel 210, a first interface unit 230, a second interface unit 231, a timing controller 232, and a gate driver 234. , A data driver 236, a memory 240, a processor 270, a power supply 290, a current detector 510, and the like.
  • the display 180 may receive the video signal Vd, the first DC power supply V1 and the second DC power supply V2, and display a predetermined video based on the video signal Vd.
  • the first interface unit 230 in the display 180 may receive the image signal Vd and the first DC power supply V1 from the control unit 170.
  • the first DC power supply V1 may be used for the operation of the power supply unit 290 in the display 180 and the timing controller 232.
  • the second interface unit 231 may receive the second DC power supply V2 from the external power supply unit 190. Meanwhile, the second DC power supply V2 may be input to the data driver 236 in the display 180.
  • the timing controller 232 may output the data driving signal Sda and the gate driving signal Sga based on the image signal Vd.
  • the timing controller 232 is based on the converted video signal va1.
  • the data driving signal Sda and the gate driving signal Sga can be output.
  • the timing controller 232 may further receive a control signal, a vertical synchronization signal Vsync, and the like, in addition to the video signal Vd from the controller 170.
  • timing controller 232 in addition to the video signal Vd, a gate driving signal Sga and data for the operation of the gate driving unit 234 based on a control signal, a vertical synchronization signal Vsync, and the like.
  • the data driving signal Sda for the operation of the driving unit 236 may be output.
  • the data driving signal Sda may be a data driving signal for driving the RGBW subpixel when the panel 210 includes subpixels of RGBW.
  • the timing controller 232 may further output a control signal Cs to the gate driver 234.
  • the gate driving unit 234 and the data driving unit 236 are through the gate line GL and the data line DL, respectively, according to the gate driving signal Sga and the data driving signal Sda from the timing controller 232. , The scan signal and the image signal are supplied to the organic light emitting panel 210. Accordingly, the organic light emitting panel 210 displays a predetermined image.
  • the organic light emitting panel 210 may include an organic light emitting layer, and in order to display an image, a plurality of gate lines GL and data lines DL are in a matrix form in each pixel corresponding to the organic light emitting layer. It can be arranged crossing.
  • the data driver 236 may output a data signal to the organic light emitting panel 210 based on the second DC power supply V2 from the second interface unit 231.
  • the power supply unit 290 may supply various power sources to the gate driver 234, the data driver 236, the timing controller 232 and the like.
  • the current detection unit 510 may detect a current flowing through the subpixel of the organic light emitting panel 210.
  • the detected current may be input to the processor 270 or the like to calculate the cumulative current.
  • the processor 270 may perform various controls in the display 180.
  • the gate driver 234, the data driver 236, and the timing controller 232 may be controlled.
  • the processor 270 may receive current information flowing from the current detection unit 510 to the subpixel of the organic light emitting panel 210.
  • the processor 270 may calculate the cumulative current of the subpixels of each organic light emitting panel 210 based on the current information flowing through the subpixels of the organic light emitting panel 210.
  • the calculated cumulative current may be stored in the memory 240.
  • the processor 270 if the accumulated current of the sub-pixel of each organic light-emitting panel 210 is more than the allowable value, it can be determined as burn-in (burn in).
  • the processor 270 may determine the burned subpixels.
  • the processor 270 may determine the sub-pixel as a sub-pixel for which burn-in is predicted.
  • the processor 270 may determine a subpixel having the largest accumulated current as a burn-in prediction subpixel based on the current detected by the current detector 510.
  • 6A to 6B are views referred to for explanation of the organic light emitting panel of FIG. 5.
  • FIG. 6A is a diagram showing a pixel in the organic light emitting panel 210.
  • the organic light emitting panel 210 includes a plurality of scan lines (Scan 1 to Scan n) and a plurality of data lines (R1, G1, B1, W1 to Rm, Gm, Bm, Wm) intersecting them. It may be provided.
  • a subpixel is defined at an intersection region between the scan line and the data line in the organic light emitting panel 210.
  • a pixel Pixel having subpixels SR1, SG1, SB1, and SW1 of RGBW is shown.
  • FIG. 6B illustrates a circuit of any one sub pixel in a pixel of the organic light emitting panel of FIG. 6A.
  • the organic light emitting sub-pixel (sub pixell) circuit (CRTm) is active, and includes a scan switching element (SW1), a storage capacitor (Cst), a driving switching element (SW2), an organic light emitting layer (OLED) Can.
  • SW1 scan switching element
  • SW2 storage capacitor
  • SW2 driving switching element
  • OLED organic light emitting layer
  • the scan switching element SW1 is connected to a gate terminal with a scan line, and turns on according to the input scan signal Vdscan. When turned on, the input data signal Vdata is transferred to the gate terminal of the driving switching element SW2 or one end of the storage capacitor Cst.
  • the storage capacitor Cst is formed between the gate terminal and the source terminal of the driving switching element SW2, and the data signal level transmitted to one end of the storage capacitor Cst and the direct current transferred to the other end of the storage capacitor Cst.
  • the predetermined difference of the power supply (VDD) level is stored.
  • the power level stored in the storage capacitor Cst varies according to the level difference of the data signal Vdata.
  • the power level stored in the storage capacitor Cst varies according to a difference in the pulse width of the data signal Vdata.
  • the driving switching element SW2 is turned on according to the power level stored in the storage capacitor Cst.
  • a driving current IOLED which is proportional to the stored power level, flows in the organic light emitting layer OLED. Accordingly, the organic light emitting layer OLED performs a light emitting operation.
  • the organic emission layer includes a light emitting layer (EML) of RGBW corresponding to a subpixel, and at least one of a hole injection layer (HIL), a hole transport layer (HTL), an electron transport layer (ETL), and an electron injection layer (EIL) It may include, in addition, may also include a hole blocking layer.
  • EML light emitting layer
  • HIL hole injection layer
  • HTL hole transport layer
  • ETL electron transport layer
  • EIL electron injection layer
  • It may include, in addition, may also include a hole blocking layer.
  • sub-pixels sub pixell
  • all of the white light output from the organic light emitting layer (OLED) in the case of green, red, and blue sub-pixels, to implement the color, a separate color filter is provided. That is, in the case of green, red, and blue subpixels, green, red, and blue color filters are further provided, respectively. Meanwhile, in the case of a white sub-pixel, since white light is output, a separate color filter is unnecessary.
  • the scan switching element SW1 and the driving switching element SW2 are illustrated as p-type MOSFETs, but n-type MOSFETs or other switching elements such as JFETs, IGBTs, or SICs. It is also possible to be used.
  • the pixel is a hold type device that continuously emits light in the organic light emitting layer OLED after a scan signal is applied during a unit display period, specifically during a unit frame image.
  • FIG. 7 is an example of an internal block diagram of a control unit according to an embodiment of the present invention
  • FIGS. 8 to 9B are diagrams referred to for explaining the operation of the control unit of FIG. 7.
  • an image display system 5 may include an image display device 100, a server 600, and a set-top box 300.
  • the server 600 uses a learning DB 640 that receives and stores learning images, a learning image from the learning DB 640, and a deep neural network to calculate the image source quality.
  • a parameter update unit 675 that updates parameters for a deep neural network based on the operation unit 670, the learning DB 640, and the quality operation unit 670 may be provided.
  • the parameter update unit 675 may transmit the updated parameter to the quality calculation unit 632 in the video display device 100.
  • the set-top box 300 may receive an input signal provided by the video provider and transmit the video signal to the HDMI terminal of the video display device 100.
  • the image display device 100 includes an external set-top box 300 or an image receiving unit 105 that receives an image signal through a network, and a control unit that performs signal processing on the image signal received from the image receiving unit 105 ( 170) and a display 180 displaying an image processed by the controller 170.
  • the video display device 100 may apply optimal tuning according to the image quality of the input image.
  • the image display device 100 may analyze the input image in real time and determine the original resolution, noise level, compression level, and enhancement level.
  • the image display device 100 may change the image quality setting without discomfort, based on the calculated image information data.
  • An image quality setting unit 634 and an image quality processing unit 635 that performs image quality processing of the video signal according to the set image quality may be included.
  • the image quality setting unit 634 if the original quality of the received video signal is variable at the first time point, the image quality setting is sequentially changed from the first setting to the second setting, and the image quality processing unit 635 is the first Picture quality processing is performed according to the picture quality setting that is sequentially varied from the setting to the second setting. Accordingly, flicker can be reduced when the image quality is changed according to the original quality of the received video signal. Particularly, when the original quality of the video signal is changed, a rapid image quality change is not performed, so that a smooth image quality change is possible.
  • the image quality setting unit 634 may sequentially change the image quality setting from the first setting to the second setting. Accordingly, it is possible to change the quality setting in real time when the original quality of the received video signal is varied. Particularly, when the original quality of the video signal is changed, a rapid image quality change is not performed, so that a smooth image quality change is possible.
  • the image quality setting unit 634 when the video signal is received from the set-top box 300, the original quality of the received video signal according to a channel change or input change, the first time point, if the image quality
  • the setting may be sequentially changed from the first setting to the second setting. Accordingly, flicker can be reduced when the image quality is changed according to the original quality of the received video signal. Particularly, when the original quality of the video signal is changed, a rapid image quality change is not performed, so that a smooth image quality change is possible.
  • the quality calculating unit 632 may classify the input image into UHD (3840x2160 or more), FHD (1920x1080), HD (1280x720), SD (720x480 or less), and the like.
  • the quality calculating unit 632 obtains a probability for each resolution of the input image, selects the resolution having the highest predicted probability as the final resolution, and excludes judgment when the final predicted probability is too low.
  • the quality calculating unit 632 may predict a noise level and a compression level in addition to the resolution.
  • the quality calculating unit 632 may determine the compression level based on the acquired learning data while lowering the compression bit-rate based on the original state.
  • the quality calculating unit 632 may evaluate the current digital TV broadcasting standard to a level of 1.0, and calculate that it is 0.0 as data is lost due to a lot of compression.
  • the quality calculator 632 may measure the level of flicker in the input image and calculate the noise level.
  • the quality calculating unit 632 may calculate the noise level in the input image in four stages: strong, medium, weak, and no noise.
  • the quality calculator 632 may calculate a resolution and a noise level of the received video signal using a deep neural network. Accordingly, it is possible to accurately perform the original quality calculation of the received video signal.
  • the quality calculator 632 may update parameters for the deep neural network from the server 600 and calculate the resolution and noise level of the received video signal based on the updated parameters. Accordingly, it is possible to accurately perform the original quality calculation of the video signal on a learning basis.
  • the quality calculating unit 632 extracts the first region and the second region of the image signal, calculates the resolution of the original image signal based on the first region, and, based on the second region, calculates the image signal. Noise level can be calculated. Accordingly, it is possible to accurately perform the original quality calculation of the video signal based on the video extraction suitable for the quality calculation.
  • the quality calculator 632 may extract a region having the most edge components in the image signal as a first region, and a region having the least edge components in the image signal as a second region. Accordingly, it is possible to accurately perform the original quality calculation of the video signal based on the video extraction suitable for the quality calculation.
  • the image quality processing unit 635 may control the higher the calculated noise level, the greater the noise reduction processing intensity of the video signal. Accordingly, it is possible to perform image quality processing suitable for the noise level of the received video signal.
  • the quality calculating unit 632 may calculate a resolution, a noise level, and a compression level of the original of the received video signal, and may calculate a compression level based on learning data obtained while lowering the compression bit rate.
  • the image quality processing unit 635 may control the higher the calculated compression level, the smaller the enhancement processing intensity of the video signal. Accordingly, it is possible to accurately perform the compression level calculation.
  • the image quality processing unit 635 may control the enhancement of the intensity of the enhancement of the image signal as the resolution of the original image signal increases. Accordingly, it is possible to perform image quality processing suitable for the resolution of the original of the received video signal.
  • the image quality processor 635 may control the higher the calculated compression level, the greater the blur processing intensity of the video signal. Accordingly, it is possible to perform image quality processing suitable for the compression level of the received video signal.
  • the image quality processing unit 635 may control the size of the filter for filtering the motion signal to decrease as the resolution of the original image signal increases. Accordingly, it is possible to perform image quality processing suitable for the resolution of the original of the received video signal.
  • the image quality processing unit 635 after downscaling the image signal according to the resolution of the original image signal, performs image quality processing on the downscaled image signal, and upscales the image signal on which the image quality processing is performed, An up-scaled video signal can be output. Accordingly, it is possible to perform image quality processing suitable for the resolution of the original of the received video signal.
  • FIG. 8 is an example of an internal block diagram of the control unit 170 of FIG. 7.
  • control unit 170 of FIG. 8 may correspond to the control unit 170 of FIG. 3.
  • control unit 170 may include an image analysis unit 610 and an image quality processing unit 635.
  • the image analysis unit 610 may include a quality calculation unit 632 of FIG. 7 and a quality setting unit 634.
  • the image analysis unit 610 may analyze the input image signal and output information related to the analyzed input image signal.
  • the image analysis unit 610 may distinguish the object region and the background region of the input first input image signal. Alternatively, the image analysis unit 610 may calculate the probability or ratio of the object region and the background region of the input first input image signal.
  • the input video signal may be an input video signal from the video receiver 105 or an image decoded by the video decoder 320 of FIG. 4.
  • the image analysis unit 610 may analyze the input image signal using artificial intelligence (AI) and output the analyzed input image signal information.
  • AI artificial intelligence
  • the image analysis unit 610 analyzes the resolution, gradation, noise level, pattern, etc. of the input image signal, and analyzes information related to the analyzed input image signal, in particular, image quality setting information. 635).
  • the image quality processing unit 635 may include an HDR processing unit 705, a first reduction unit 710, an enhancement unit 750, and a second reduction unit 790.
  • the HDR processing unit 705 may receive an image signal and perform a high dynamic range (HDR) process on the input image signal.
  • HDR high dynamic range
  • the HDR processing unit 705 may convert a standard dynamic range (SDR) video signal into an HDR video signal.
  • SDR standard dynamic range
  • the HDR processing unit 705 may receive a video signal and perform grayscale processing for a high dynamic range on the input video signal.
  • the HDR processing unit 705 may bypass grayscale conversion when the input video signal is an SDR video signal, and perform grayscale conversion when the input video signal is an HDR video signal. Accordingly, it is possible to increase the high gradation expression power for the input image.
  • the HDR processing unit 705 emphasizes the low gray level among the low gray level and the high gray level, and the first gray level conversion mode that causes the high gray level to be saturated, or the second gray level which is somewhat uniformly converted between the low gray level and the high gray level Based on the conversion mode, gradation conversion processing can be performed.
  • the HDR processing unit 705 may perform grayscale conversion processing based on data corresponding to the first grayscale conversion mode in the lookup table.
  • the HDR processing unit 705 is based on a calculation expression for input data and data corresponding to the first grayscale conversion mode in a lookup table determined according to the calculation expression.
  • the input data may include video data and metadata.
  • the HDR processing unit 705 may perform grayscale conversion processing based on data corresponding to the second grayscale conversion mode in the lookup table.
  • the HDR processing unit 705 is based on a calculation expression for input data and data corresponding to the second grayscale conversion mode in a lookup table determined according to the calculation expression.
  • the input data may include video data and metadata.
  • the HDR processing unit 705, the first grayscale conversion mode or the second grayscale according to the third grayscale conversion mode or the fourth grayscale conversion mode in the high grayscale amplification unit 851 in the second reduction unit 790 You can also choose a conversion mode.
  • the high grayscale amplification unit 851 in the second reduction unit 790 performs grayscale conversion processing based on data corresponding to the third grayscale conversion mode in the lookup table.
  • the high grayscale amplification unit 851 in the second reduction unit 790 when the third grayscale conversion mode is performed, a calculation expression for input data, and a third in a lookup table determined according to the calculation expression Based on the data corresponding to the gradation conversion mode, gradation conversion processing can be performed.
  • the input data may include video data and metadata.
  • the high grayscale amplification unit 851 in the second reduction unit 790 performs grayscale conversion processing based on data corresponding to the fourth grayscale conversion mode in the lookup table. Can.
  • the high grayscale amplification unit 851 in the second reduction unit 790 when the fourth grayscale conversion mode is performed, a calculation expression for input data and a fourth in a lookup table determined according to the calculation expression Based on the data corresponding to the gradation conversion mode, gradation conversion processing can be performed.
  • the input data may include video data and metadata.
  • the HDR processing unit 705 may perform the second grayscale conversion mode when the fourth grayscale conversion mode is performed by the high grayscale amplification unit 851 in the second reduction unit 790.
  • the HDR processing unit 705 may perform the first grayscale conversion mode when the third grayscale conversion mode is performed by the high grayscale amplification unit 851 in the second reduction unit 790.
  • the high grayscale amplification unit 851 in the second reduction unit 790 may vary the grayscale conversion mode to be performed according to the grayscale conversion mode in the HDR processing unit 705.
  • the high grayscale amplification unit 851 in the second reduction unit 790 may perform the fourth grayscale conversion mode when the second grayscale conversion mode is performed by the HDR processing unit 705.
  • the high grayscale amplification unit 851 in the second reduction unit 790 may perform the third grayscale conversion mode.
  • the HDR processing unit 705 may perform a grayscale conversion mode so that low grayscale and high grayscale are uniformly converted.
  • the second reduction unit 790 in the HDR processing unit 705, performs a fourth grayscale conversion mode according to the second grayscale conversion mode, and amplifies an upper limit level of grayscale of the video signal input thereto. have. Accordingly, it is possible to increase the high gradation expression power for the input image.
  • the first reduction unit (710) 710 may perform noise removal on the input image signal or the image signal processed by the HDR processing unit 705.
  • the first reduction unit (710) 710 may perform the multi-level noise removal processing and the first-level grayscale expansion processing on the input video signal or the HDR image from the HDR processing unit 705. .
  • the first reduction unit 710 may include a plurality of noise removal units 715 and 720 for noise reduction in multiple stages and a gradation expansion unit 725 for gradation expansion.
  • the enhancement unit 750 may perform multi-step image resolution enhancement processing on the image from the first reduction unit 710.
  • the enhancement unit 750 may perform object stereoscopic effect enhancement processing.
  • the enhancement unit 750 can perform color or contrast enhancement processing.
  • the enhancement unit 750 includes a plurality of resolution enhancement units 735,738,742 for improving image resolution in multiple stages, an object stereoscopic enhancement unit 745 for enhancing the stereoscopic effect of an object, and a color contrast enhancement unit for enhancing color or contrast. (749).
  • the second reduction unit 790 may perform the second step gray scale expansion processing based on the noise-removed image signal input from the first reduction unit 710.
  • the second reduction unit 790 may amplify the upper limit level of the gradation of the input signal and expand the resolution of the gradation of the input signal. Accordingly, it is possible to increase the high gradation expression power for the input image.
  • gray scale expansion may be uniformly performed on all gray scale regions of an input signal. Accordingly, while uniform gray scale expansion is performed on a region of the input image, it is possible to increase a high gray scale expression power.
  • the second reduction unit 790 may perform grayscale amplification and expansion based on an input signal from the first grayscale expansion unit 725. Accordingly, it is possible to increase the high gradation expression power for the input image.
  • the second reduction unit 790 may vary the degree of amplification. Accordingly, it is possible to increase the high gradation expression power in response to the user setting.
  • the second reduction unit 790 may perform amplification according to a set value. Accordingly, it is possible to increase the high gradation expression power for the input image.
  • the second reduction unit 790 may vary the degree of amplification. Accordingly, it is possible to increase the high gradation expression power in response to the user setting.
  • the second reduction unit 790 may vary the degree of gradation expansion when the gradation is expanded based on the user input signal. Accordingly, it is possible to increase the high gradation expression power in response to the user setting.
  • the second reduction unit 790 in the HDR processing unit 705, can amplify the upper limit level of the gradation according to the gradation conversion mode. Accordingly, it is possible to increase the high gradation expression power for the input image.
  • the controller 170 receives an image signal, amplifies the luminance of the image signal from the HDR processor 705 and the HDR processor 705 for adjusting the luminance of the input image signal, and increases the grayscale resolution of the image signal
  • the enhanced video signal includes a reduction unit 790 that generates an enhanced video signal, and the enhanced video signal maintains an increased luminance and grayscale resolution of the video signal while maintaining the dynamic range in the displayed HDR image. to provide.
  • the luminance range of the video signal is adjusted according to the control signal received by the control unit 170.
  • it further includes an image analysis unit for determining whether the input video signal is an HDR signal or an SDR signal, and generating a control signal to be provided to the HDR processing unit 705, wherein the control signal, the input video signal is an HDR signal It is adjusted only when it indicates that it is.
  • control signal is received from the control unit of the video display device associated with signal processing, and corresponds to the setting of the video display device.
  • the gradation resolution is increased based on the amplification of the adjusted luminance of the video signal.
  • the resolution of gradation is increased based on the control signal input to the control unit 170.
  • control signal is received from the control unit of the video display device associated with signal processing, and corresponds to the setting of the video display device.
  • the reduction unit 790 includes a high gradation amplification unit 851 that amplifies the upper limit level of the gradation of the input signal, and a decontour unit that expands the resolution of the amplified gradation from the high gradation amplification unit 851 ( 842,844).
  • the second reduction unit 790 may include a second gradation expansion unit 729 for expanding the second gradation level.
  • the image quality processing unit 635 in the control unit 170 of the present invention is characterized in that it performs a four-step reduction process and a four-step image enhancement process.
  • the four-step reduction process may include a two-step noise removal process and a two-step gradation expansion process.
  • the noise removal processing in the second stage is performed by the first and second noise removal units 715 and 720 in the first reduction unit 710, and the gradation expansion processing in the second stage is performed by the first reduction unit 710.
  • the first gradation expansion unit 725 and the second gradation expansion unit 729 in the second reduction unit 790 may be performed.
  • the four-step image enhancement process may include three-step image resolution enhancement processing and object stereoscopic enhancement processing.
  • the three-step image resolution enhancement processing is processed by the first to third resolution enhancement units 735,738,742, and the object stereoscopic enhancement processing can be processed by the object stereoscopic enhancement unit 745.
  • control unit 170 of the present invention as a multi-level image quality processing, the same or similar algorithms may be applied multiple times to gradually improve the image quality.
  • the image quality processing unit 635 in the control unit 170 of the present invention may apply the same or similar algorithm two or more times to proceed with image quality processing.
  • the same or similar algorithms performed by the image quality processing unit 635 have different goals to be achieved in each step, and gradually perform multi-level image quality processing, in contrast to processing all image quality in the first stage, resulting in artifacts of the image ( Artifact) has the advantage of less occurrence, and has the advantage of obtaining a more natural and clearer image processing result.
  • control unit 170 of the present invention may perform noise removal processing in multiple stages.
  • the noise removal processing at each step may include temporal processing and spatial processing.
  • the latest technology such as artificial intelligence is used.
  • a deep neural network can be used.
  • the quality calculating unit 632 calculates the resolution and noise level of the received video signal using a deep neural network.
  • the quality calculating unit 632 or the quality calculating unit 670 may acquire a learning image for each original resolution and compression level to train the network to improve accuracy.
  • the image used for learning is a general image that can be encountered in everyday broadcasting, and is provided in various images to cover the entire input environment.
  • the quality calculating unit 632 may perform learning by using a convolutional neural network or mobile-net having a small number of layers for the purpose of reducing time or cost required for detection.
  • the quality calculating unit 632 may analyze only a partial region (eg, 224x224, 128x128, 64x64) of the entire image.
  • the quality calculating unit 632 can select an appropriate detection area suitable for the detection purpose.
  • the quality calculator 632 may select a first region having the most edge components when detecting the original resolution and a second region having the least edge components when detecting the noise.
  • the quality calculating unit 632 may apply an algorithm for quickly selecting a detection area for the purpose of improving processing speed.
  • the quality calculating unit 632 may perform a pre-processing operation such as a Fast Fourier Transform (FFT) in the detection area for the purpose of improving detection accuracy.
  • FFT Fast Fourier Transform
  • 9A is a diagram illustrating an operation based on a convolutional neural network.
  • a convolutional neural network is used for some regions 1015 in the acquired image 1010.
  • a convolutional network and a deconvolutional network may be performed.
  • information of the region 1015 may be used to determine the type of a pixel in the region 1015.
  • 9B is a diagram showing an operation based on Mobile-Net.
  • control unit 170 of the present invention the original quality is changed so that the quality setting corresponding to the quality in real time is applied.
  • the controller 170 allows the setting to be changed during image playback without conditions such as a channel change or an input change.
  • the real-time means using Temporal processing technology including IIR method and Step moving method.
  • 10A to 10B are diagrams referred to in the pixel shift description in the video wall 10.
  • an input image Imgor for display on the video wall 10 is distributed by the image distribution unit 160.
  • the video distribution unit 160 divides into 2*2 4 areas.
  • a pixel shift method is used in the case of a still image to prevent afterimages due to burn-in.
  • the pixel shifts do not coincide between the image display devices 100a to 100d, such that regions (Ara and Arb) in which the image is distorted may occur as shown in FIG. 10A.
  • the pixel shift does not match between the image display device (100a ⁇ 100d), as shown in Figure 10b, black area (black area) or black bar (balck bar) It occurs in the central part (Arc).
  • the present invention proposes a method in which image distortion or generation of a black region can be reduced while using a pixel shift method in the image display devices 100a to 100d having an organic light emitting panel.
  • FIG. 11 is a flowchart illustrating a method of operating a video wall according to an embodiment of the present invention
  • FIGS. 12A to 19 are diagrams referred to for describing the operation of FIG. 11.
  • the plurality of video display devices 100a to 100d in the video wall 10 may display the input video on the plurality of displays 180a to 180d (S1110).
  • the image distribution unit 160 may distribute the input video, and transmit the distributed plurality of videos to each of the video display devices 100a to 100d.
  • the first control unit 170a in the first video display device 100a determines whether or not the displayed video is played repeatedly (S1120).
  • the first control unit 170a in the first image display device 100a stores and stores a boundary image of an image displayed on each display 180a to 180d when the displayed moving image is played repeatedly. It can be controlled to transmit to the adjacent video display device (100a ⁇ 100d) (S11300)
  • each of the video display devices 100a to 100d may transmit pixel shift information to adjacent video display devices 100a to 100d (S1135).
  • each of the video display devices 100a to 100d generates a composite image based on pixel shift information, a received boundary image, and an input image that is an input and display image, and selects a partial region of the composite image
  • the selected image may be displayed (S1140).
  • each video display device 100a to 100d stores a boundary area displayed on the plurality of video display devices 100a to 100d.
  • a boundary area stored in adjacent video display devices 100a to 100d may be transmitted.
  • each of the image display devices 100a to 100d may synthesize the received boundary region and the image region to be displayed, and display some regions of the synthesized image. Accordingly, it is possible to reduce the occurrence of black areas while reducing the afterimage in the video wall 10. In particular, it is possible to reduce the occurrence of black areas while reducing afterimages in the video wall 10 in which a video is repeatedly displayed.
  • the controller 170a of the first video display device 100a determines whether or not the video displayed on the plurality of video display devices 100a to 100d is repeatedly played. If it is determined, and if applicable, it can be controlled to store the boundary area and generate a composite image. Accordingly, it is possible to reduce the occurrence of black areas while reducing afterimages in the video wall 10 in which a video is repeatedly displayed.
  • the control unit 170a of the first video display device 100a among the plurality of video display devices 100a to 100d shifts pixels while the video displayed on the plurality of video display devices 100a to 100d is repeatedly played.
  • the pixel shift direction information may be controlled to be transmitted to the plurality of image display devices 100a to 100d. Accordingly, it is possible to reduce the occurrence of black areas while reducing afterimages in the video wall 10 in which a video is repeatedly displayed.
  • control unit 170a of the first video display device 100a among the plurality of video display devices 100a to 100d shifts pixels while the video displayed on the plurality of video display devices 100a to 100d is repeatedly played. It can be controlled to be performed in common in a plurality of image display devices (100a ⁇ 100d). Accordingly, it is possible to reduce the occurrence of black areas while reducing afterimages in the video wall 10 in which a video is repeatedly displayed.
  • the first video display among the plurality of video display devices 100a to 100d is displayed.
  • the device 100a may transmit the first boundary area in the first direction displayed on the first image display device 100a to the second image display device 100b disposed adjacent to the first direction.
  • the second image display apparatus 100b may synthesize the input image and the first boundary region, generate a synthesized image, and display an image of the synthesized image excluding the boundary region in the first direction. have. Accordingly, it is possible to reduce the occurrence of black areas while reducing the afterimage in the video wall 10.
  • the first image display device 100a may The second boundary area in the second direction displayed on the first image display device 100a may be transmitted to the third image display device 100c disposed adjacent to the second direction.
  • the third image display apparatus 100c synthesizes the input image and the third boundary region to generate a synthesized image, and can display an image excluding the boundary region in the third direction among the synthesized images. Accordingly, it is possible to reduce the occurrence of black areas while reducing afterimages in the video wall 10 in which a video is repeatedly displayed.
  • each of the plurality of image display devices 100a to 100d performs different pixel shifts, and the plurality of image display devices 100a to Each of the 100d) generates a composite region based on the boundary regions of the adjacent image display apparatuses 100a to 100d and the input image, and in the synthesized region, images other than the boundary region in the pixel shift direction can be displayed. have. Accordingly, it is possible to reduce the occurrence of black areas while reducing afterimages in the video wall 10 in which a video is repeatedly displayed.
  • a second image display device 100b is disposed in a first direction of the first image display device 100a among the plurality of image display devices 100a to 100d, and a third image display device 100c in the second direction. While arranged, while a video displayed on a plurality of video display devices 100a to 100d is repeatedly played, a first direction shift is performed in the second video display device 100b at a first time point, and a third A third direction shift may be performed in the image display device 100c.
  • the second image display device 100b synthesizes the input image and the first boundary area in the first direction displayed by the first image display device 100a to generate a synthesized image.
  • An image may be displayed except for the boundary region in the first direction.
  • the third image display apparatus 100c synthesizes the input image and the second boundary region in the second direction displayed on the first image display apparatus 100a, generates a synthesized image, and generates the synthesized image.
  • an image excluding the boundary region in the second direction may be displayed. Accordingly, it is possible to reduce the occurrence of black areas while reducing afterimages in the video wall 10 in which a video is repeatedly displayed.
  • a pixel shift shift amount may be varied each time a scene is switched. Accordingly, it is possible to reduce the occurrence of black areas while reducing afterimages in the video wall 10 in which a video is repeatedly displayed.
  • the size of the border area may be varied and transmitted according to a variable amount of pixel shift movement at every scene change. Accordingly, it is possible to reduce the occurrence of black areas while reducing afterimages in the video wall 10 in which a video is repeatedly displayed.
  • images of the boundary area may be sequentially transmitted to the adjacent video display devices 100a to 100d. Accordingly, it is possible to reduce the occurrence of black areas while reducing afterimages in the video wall 10 in which a video is repeatedly displayed.
  • the first in the first image input to the first video display device (100a) of the plurality of video display devices (100a ⁇ 100d) are synthesized and a partial region of the synthesized image is displayed on the second image display device 100b. can do. Accordingly, it is possible to reduce the occurrence of black areas while reducing the afterimage in the video wall 10. In particular, it is possible to reduce the occurrence of black areas while reducing afterimages in the video wall 10 in which a video is repeatedly displayed.
  • At least one control unit among the plurality of video display devices 100a to 100d in the case of a replayed video, extracts a unique value of each input frame and compares it to compare whether or not the currently input frame is repeated and where it is repeated Can judge.
  • the image applied to the video wall 10 is the same as the characteristic in which the frames are repeated by inputting each separated image into the entire video wall 10 and the location where the frames are repeated.
  • the boundary image of a repeated frame is stored and transferred to an adjacent video display device, so that it is possible to simultaneously output to the corresponding repeat position, so the same effect as shifting an image in one system Can make.
  • 12A is a diagram illustrating a case where a video is repeatedly played.
  • the first content CTa, the second content CTb, and the third content CTc are sequentially played and repeated.
  • the determination of the video repetition it may be determined that the first to third content is repeated as the video repetition, as shown in FIG. 12A, but is not limited thereto, and various modifications are possible.
  • one single image (Imgoa) is divided into 2*2, and four images (Imgaa to Imgad) are displayed on the first to fourth image display devices 100a to 100d in the video wall 10, respectively.
  • Imgoa one single image
  • Imgaa to Imgad four images
  • 13A illustrates one single image (Imgob).
  • the single image Imgob of FIG. 13A is divided into 2*2, and at the first time point, the four images Imgba to Imgbd are respectively the first to fourth image display devices in the video wall 10. What is displayed in (100a-100d) is illustrated.
  • pixel shift may be performed.
  • pixel shift may be performed in the right direction in the drawing.
  • the right boundary area Boa which is a part of the image displayed on the first image display device 100a and the right boundary area Bob that is a part of the image displayed on the third image display device 100c are stored, respectively It is preferable that the second video display device 100b and the fourth video display device 100d are adjacent video display devices.
  • the images displayed on the second image display device 100b and the fourth image display device 100d are composite images of the right boundary regions Boa and Bob and input images, as shown in the figure.
  • the left regions BDaa and BDba a complete image with the black region removed can be displayed. Accordingly, it is possible to reduce a residual image due to burn-in that may occur according to the repeated display of a video and a possibility of generating a black area.
  • 15A illustrates that the lower border area CTgcb of the content CTgca that is repeatedly played is separated and transmitted to an adjacent video display device.
  • the lower boundary region and the input image may be synthesized without matching.
  • 15B illustrates that the lower boundary area CTgeb of the content CTgea that is repeatedly played is separated and transmitted to an adjacent video display device.
  • 16 is a view referred to for describing border region storage, transmission, and image synthesis.
  • the interface unit ( The right border area BDa of the first image Imgba input and displayed through 130a) is stored in the memory 140a.
  • the stored right border area BDa is transmitted to the second image display device 100b and stored in the memory 104b of the second image display device 100b.
  • the second image display apparatus 100b receives an image imgbb to be displayed at a second time point through the interface unit 130b.
  • the control unit 170b synthesizes the right border area BDa stored in the memory 104b and the input image imgbb.
  • control unit 170b may add the right boundary area BDa to the left side of the input image imgbb.
  • the horizontal region may be an enlarged image.
  • control unit 170b may select a partial region imgcb of the synthesized image Imgx and transmit the selected region Imgcb to the display 180b0 for display on the display 180b.
  • an image Imgcb corresponding to the selected region from which the right region is removed may be displayed on the second viewpoint and the second display 180b.
  • a black region is not generated in each boundary region of the video wall 10. Therefore, the viewer can watch the natural video, and the visibility can be improved.
  • a pixel shift shift amount may be varied each time a scene is switched.
  • 17 is a diagram illustrating a case in which a scene change occurs while content A is played repeatedly.
  • the pixel shift When switching the first scene, the pixel shift may be performed at the first level, and when switching the second scene, the pixel shift may be performed at the second level, more than the first level, and at the third scene switching, the pixel shift May be performed at a third level less than the first level.
  • FIG. 10A to 17 illustrate a video wall 10 having a 2*2 video display device, but on the other hand, it is possible to construct a video wall having various number of video display devices.
  • a video display device of 1*4 it is possible to have a video display device of 1*4, a video display device of 4*1, or a video display device of 3*3.
  • FIG. 17 illustrates that the video wall 20 having a 3*3 video display device includes 9 video display devices 100a to 100i of 3*3.
  • FIG. 18(a) illustrates a single image (Imhob)
  • FIG. 18(b) illustrates that a single image (Imhob) is divided into 9 images of 3*3.
  • the image displayed on the central video display device that is, the fifth video display device 100e
  • the image displayed on the image display device is an image displayed on the image display device to transmit a boundary area to an adjacent video display device.
  • the boundary area BDua, the right boundary area BDra, the left boundary area BDla, and the lower boundary area BDda may be stored and transmitted, respectively.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

본 발명은 비디오 월에 관한 것이다. 본 발명의 일 실시예에 따른 비디오 월은, 인접하여 배치되는 복수의 디스플레이와, 입력 영상을 복수의 디스플레이에서의 표시를 위해 복수의 영상으로 분배하는 영상 분배부와, 복수의 디스플레이에 대응하는 복수의 영상표시장치를 제어하기 위한 적어도 하나의 제어부를 포함하고, 복수의 영상표시장치에 표시되는 동영상이 반복 재생되는 경우, 복수의 영상표시장치에 표시되는 경계 영역을 저장하고, 인접하는 영상표시장치에 전송하며, 각 영상표시장치는, 수신되는 경계 영역과 표시할 영상 영역을 합성하고, 합성된 영상 중 일부 영역을 각 영상표시장치가 표시한다. 이에 따라, 복수의 디스플레이를 구비하는 비디오 월에서 잔상을 저감하면서 블랙 영역 발생을 저감할 수 있게 된다.

Description

비디오 월
본 발명은 비디오 월에 관한 것이며, 더욱 상세하게는 복수의 디스플레이를 구비하는 비디오 월에서 잔상을 저감하면서 블랙 영역 발생을 저감할 수 있는 비디오 월에 관한 것이다.
비디오 월은 복수의 디스플레이를 구비하여, 영상을 표시하는 장치이다.
통상, 비디오 월은, 상업용으로서, 건물 외부 또는 건물 내부의 광고 목적 등으로 사용되고 있다.
한편, 비디오 월에 사용되는 디스플레이는 액정 표시 패널, 유기발광패널 등 다양한 방식이 사용된다.
한편, 유기발광패널을 이용하여 비디오 월을 구성하는 경우, 유기발광패널 각각의 유기 발광체에 의한 번인 현상이 문제가 될 수 있다.
본 발명의 목적은, 복수의 디스플레이를 구비하는 비디오 월에서 잔상을 저감하면서 블랙 영역 발생을 저감할 수 있는 비디오 월을 제공함에 있다.
본 발명의 다른 목적은, 동영상이 반복되어 표시되는 비디오 월에서 잔상을 저감하면서 블랙 영역 발생을 저감할 수 있는 비디오 월을 제공함에 있다.
본 발명의 또 다른 목적은, 복수의 디스플레이를 구비하는 비디오 월의 수명을 향상시킬 수 있는 비디오 월을 제공함에 있다.
본 발명의 또 다른 목적은, 출력 위치의 시프트에 따라 발생하는 블랙 영역을 인접하는 영상표시장치로부터 전달받아 처리하여 표시할 수 있는 비디오 월을 제공함에 있다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 비디오 월은, 인접하여 배치되는 복수의 디스플레이와, 입력 영상을 복수의 디스플레이에서의 표시를 위해 복수의 영상으로 분배하는 영상 분배부와, 복수의 디스플레이에 대응하는 복수의 영상표시장치를 제어하기 위한 적어도 하나의 제어부를 포함하고, 복수의 영상표시장치에 표시되는 동영상이 반복 재생되는 경우, 복수의 영상표시장치에 표시되는 경계 영역을 저장하고, 인접하는 영상표시장치에 전송하며, 각 영상표시장치는, 수신되는 경계 영역과 표시할 영상 영역을 합성하고, 합성된 영상 중 일부 영역을 각 영상표시장치가 표시한다.
한편, 복수의 영상표시장치 중 제1 영상표시장치의 제어부는, 복수의 영상표시장치에 표시되는 동영상이 반복 재생되는 지 여부를 판단하고, 해당하는 경우, 경계 영역 저장 및 합성 영상 생성이 수행되도록 제어할 수 있다.
한편, 복수의 영상표시장치 중 제1 영상표시장치의 제어부는, 복수의 영상표시장치에 표시되는 동영상이 반복 재생되는 동안, 픽셀 시프트가 수행되는 경우, 픽셀 시프트 방향 정보가 복수의 영상표시장치로 전송되도록 제어할 수 있다.
한편, 복수의 영상표시장치 중 제1 영상표시장치의 제어부는, 복수의 영상표시장치에 표시되는 동영상이 반복 재생되는 동안, 픽셀 시프트가 복수의 영상표시장치에서 공통으로 수행되도록 제어할 수 있다.
한편, 복수의 영상표시장치에 표시되는 동영상이 반복 재생되는 동안, 제1 시점에 제1 방향 시프트가 수행되는 경우, 복수의 영상표시장치 중 제1 영상표시장치는, 제1 방향에 인접하여 배치되는 제2 영상표시장치로, 제1 영상표시장치에 표시된 제1 방향의 제1 경계 영역을 전송하며, 제2 영상표시장치는, 입력되는 영상과 제1 경계 영역을 합성하여, 합성된 영상을 생성하며, 합성된 영상 중 제1 방향의 경계 영역을 제외한 영상을 표시할 수 있다.
한편, 복수의 영상표시장치에 표시되는 동영상이 반복 재생되는 동안, 제1 시점 이후의 제2 시점에 제2 방향 시프트가 수행되는 경우, 제1 영상표시장치는, 제2 방향에 인접하여 배치되는 제3 영상표시장치로, 제1 영상표시장치에 표시된 제2 방향의 제2 경계 영역을 전송하며, 제3 영상표시장치는, 입력되는 영상과 제3 경계 영역을 합성하여, 합성된 영상을 생성하며, 합성된 영상 중 제3 방향의 경계 영역을 제외한 영상을 표시할 수 있다.
한편, 복수의 영상표시장치에 표시되는 동영상이 반복 재생되는 동안, 복수의 영상표시장치 각각은 서로 다른 픽셀 시프트를 수행하며, 복수의 영상표시장치 각각은, 인접하는 영상표시장치의 경계 영역과, 입력되는 영상에 기초하여 합성 영역을 생성하며, 합성된 영역에서, 픽셀 시프트 방향의 경계 영역을 제외한 영상을 표시할 수 있다.
한편, 복수의 영상표시장치 중 제1 영상표시장치의 제1 방향에 제2 영상표시장치가 배치되고, 제2 방향에 제3 영상표시장치가 배치된 상태에서, 복수의 영상표시장치에 표시되는 동영상이 반복 재생되는 동안, 제1 시점에, 제2 영상표시장치에서 제1 방향 시프트가 수행되고, 제3 영상표시장치에서 제3 방향 시프트가 수행되는 경우, 제2 영상표시장치는, 입력되는 영상과 제1 영상표시장치에서 표시된 제1 방향의 제1 경계 영역을 합성하여, 합성된 영상을 생성하며, 합성된 영상 중 제1 방향의 경계 영역을 제외한 영상을 표시하며, 제3 영상표시장치는, 입력되는 영상과 제1 영상표시장치에서 표시된 제2 방향의 제2 경계 영역을 합성하여, 합성된 영상을 생성하며, 합성된 영상 중 제2 방향의 경계 영역을 제외한 영상을 표시할 수 있다.
한편, 복수의 영상표시장치에 표시되는 동영상이 반복 재생되는 동안, 장면 전환시 마다 픽셀 시프트 이동량이 가변될 수 있다.
한편, 장면 전환시 마다 픽셀 시프트 이동량 가변에 따라, 경계 영역의 사이즈가 가변되어, 전송될 수 있다.
한편, 복수의 영상표시장치에 표시되는 동영상이 반복 재생되는 동안, 순차적으로, 경계 영역의 이미지가 인접하는 영상표시장치로 전송될 수 있다.
한편, 복수의 영상표시장치는, 유기발광패널을 구비할 수 있다.
상기 목적을 달성하기 위한 본 발명의 다른 실시예에 따른 비디오 월은, 인접하여 배치되는 복수의 디스플레이와, 입력 영상을 복수의 디스플레이에서의 표시를 위해 복수의 영상으로 분배하는 영상 분배부와, 복수의 디스플레이에 대응하는 복수의 영상표시장치를 제어하기 위한 적어도 하나의 제어부를 포함하고, 복수의 영상표시장치에 표시되는 동영상이 반복 재생되는 경우, 복수의 영상표시장치 중 제1 영상표시장치에 입력되는 제1 영상 내의 제1 경계 영상과, 제1 영상표시장치에 인접한 제2 영상표시장치에 입력되는 제2 영상을, 합성하여, 합성된 영상 중 일부 영역을 제2 영상표시장치에 표시할 수 있다.
한편, 제1 영상표시장치의 제어부는, 복수의 영상표시장치에 표시되는 동영상이 반복 재생되는 지 여부를 판단하고, 해당하는 경우, 복수의 영상표시장치 중 제1 영상표시장치에 입력되는 제1 영상 내의 제1 경계 영상을 제2 영상표시장치로 전송하도록 제어할 수 있다.
한편, 제2 영상표시장치의 제어부는, 제1 영상표시장치로부터 수신되는 제1 경계 영상과 입력되는 제2 영상을, 합성하여, 합성된 영상 중 일부 영역을 제2 영상표시장치의 디스플레이에 표시하도록 제어할 수 있다.
본 발명의 일 실시예에 따른 비디오 월은, 인접하여 배치되는 복수의 디스플레이와, 입력 영상을 복수의 디스플레이에서의 표시를 위해 복수의 영상으로 분배하는 영상 분배부와, 복수의 디스플레이에 대응하는 복수의 영상표시장치를 제어하기 위한 적어도 하나의 제어부를 포함하고, 복수의 영상표시장치에 표시되는 동영상이 반복 재생되는 경우, 복수의 영상표시장치에 표시되는 경계 영역을 저장하고, 인접하는 영상표시장치에 전송하며, 각 영상표시장치는, 수신되는 경계 영역과 표시할 영상 영역을 합성하고, 합성된 영상 중 일부 영역을 각 영상표시장치가 표시한다. 이에 따라, 비디오 월에서 잔상을 저감하면서 블랙 영역 발생을 저감할 수 있게 된다. 특히, 동영상이 반복되어 표시되는 비디오 월에서 잔상을 저감하면서 블랙 영역 발생을 저감할 수 있게 된다.
한편, 복수의 영상표시장치 중 제1 영상표시장치의 제어부는, 복수의 영상표시장치에 표시되는 동영상이 반복 재생되는 지 여부를 판단하고, 해당하는 경우, 경계 영역 저장 및 합성 영상 생성이 수행되도록 제어할 수 있다. 이에 따라, 동영상이 반복되어 표시되는 비디오 월에서 잔상을 저감하면서 블랙 영역 발생을 저감할 수 있게 된다.
한편, 복수의 영상표시장치 중 제1 영상표시장치의 제어부는, 복수의 영상표시장치에 표시되는 동영상이 반복 재생되는 동안, 픽셀 시프트가 수행되는 경우, 픽셀 시프트 방향 정보가 복수의 영상표시장치로 전송되도록 제어할 수 있다. 이에 따라, 동영상이 반복되어 표시되는 비디오 월에서 잔상을 저감하면서 블랙 영역 발생을 저감할 수 있게 된다.
한편, 복수의 영상표시장치 중 제1 영상표시장치의 제어부는, 복수의 영상표시장치에 표시되는 동영상이 반복 재생되는 동안, 픽셀 시프트가 복수의 영상표시장치에서 공통으로 수행되도록 제어할 수 있다. 이에 따라, 동영상이 반복되어 표시되는 비디오 월에서 잔상을 저감하면서 블랙 영역 발생을 저감할 수 있게 된다.
한편, 복수의 영상표시장치에 표시되는 동영상이 반복 재생되는 동안, 제1 시점에 제1 방향 시프트가 수행되는 경우, 복수의 영상표시장치 중 제1 영상표시장치는, 제1 방향에 인접하여 배치되는 제2 영상표시장치로, 제1 영상표시장치에 표시된 제1 방향의 제1 경계 영역을 전송하며, 제2 영상표시장치는, 입력되는 영상과 제1 경계 영역을 합성하여, 합성된 영상을 생성하며, 합성된 영상 중 제1 방향의 경계 영역을 제외한 영상을 표시할 수 있다. 이에 따라, 비디오 월에서 잔상을 저감하면서 블랙 영역 발생을 저감할 수 있게 된다.
한편, 복수의 영상표시장치에 표시되는 동영상이 반복 재생되는 동안, 제1 시점 이후의 제2 시점에 제2 방향 시프트가 수행되는 경우, 제1 영상표시장치는, 제2 방향에 인접하여 배치되는 제3 영상표시장치로, 제1 영상표시장치에 표시된 제2 방향의 제2 경계 영역을 전송하며, 제3 영상표시장치는, 입력되는 영상과 제3 경계 영역을 합성하여, 합성된 영상을 생성하며, 합성된 영상 중 제3 방향의 경계 영역을 제외한 영상을 표시할 수 있다. 이에 따라, 동영상이 반복되어 표시되는 비디오 월에서 잔상을 저감하면서 블랙 영역 발생을 저감할 수 있게 된다.
한편, 복수의 영상표시장치에 표시되는 동영상이 반복 재생되는 동안, 복수의 영상표시장치 각각은 서로 다른 픽셀 시프트를 수행하며, 복수의 영상표시장치 각각은, 인접하는 영상표시장치의 경계 영역과, 입력되는 영상에 기초하여 합성 영역을 생성하며, 합성된 영역에서, 픽셀 시프트 방향의 경계 영역을 제외한 영상을 표시할 수 있다. 이에 따라, 동영상이 반복되어 표시되는 비디오 월에서 잔상을 저감하면서 블랙 영역 발생을 저감할 수 있게 된다.
한편, 복수의 영상표시장치 중 제1 영상표시장치의 제1 방향에 제2 영상표시장치가 배치되고, 제2 방향에 제3 영상표시장치가 배치된 상태에서, 복수의 영상표시장치에 표시되는 동영상이 반복 재생되는 동안, 제1 시점에, 제2 영상표시장치에서 제1 방향 시프트가 수행되고, 제3 영상표시장치에서 제3 방향 시프트가 수행되는 경우, 제2 영상표시장치는, 입력되는 영상과 제1 영상표시장치에서 표시된 제1 방향의 제1 경계 영역을 합성하여, 합성된 영상을 생성하며, 합성된 영상 중 제1 방향의 경계 영역을 제외한 영상을 표시하며, 제3 영상표시장치는, 입력되는 영상과 제1 영상표시장치에서 표시된 제2 방향의 제2 경계 영역을 합성하여, 합성된 영상을 생성하며, 합성된 영상 중 제2 방향의 경계 영역을 제외한 영상을 표시할 수 있다. 이에 따라, 동영상이 반복되어 표시되는 비디오 월에서 잔상을 저감하면서 블랙 영역 발생을 저감할 수 있게 된다.
한편, 복수의 영상표시장치에 표시되는 동영상이 반복 재생되는 동안, 장면 전환시 마다 픽셀 시프트 이동량이 가변될 수 있다. 이에 따라, 동영상이 반복되어 표시되는 비디오 월에서 잔상을 저감하면서 블랙 영역 발생을 저감할 수 있게 된다.
한편, 장면 전환시 마다 픽셀 시프트 이동량 가변에 따라, 경계 영역의 사이즈가 가변되어, 전송될 수 있다. 이에 따라, 동영상이 반복되어 표시되는 비디오 월에서 잔상을 저감하면서 블랙 영역 발생을 저감할 수 있게 된다.
한편, 복수의 영상표시장치에 표시되는 동영상이 반복 재생되는 동안, 순차적으로, 경계 영역의 이미지가 인접하는 영상표시장치로 전송될 수 있다. 이에 따라, 동영상이 반복되어 표시되는 비디오 월에서 잔상을 저감하면서 블랙 영역 발생을 저감할 수 있게 된다.
한편, 본 발명의 다른 실시예에 따른 비디오 월은, 인접하여 배치되는 복수의 디스플레이와, 입력 영상을 복수의 디스플레이에서의 표시를 위해 복수의 영상으로 분배하는 영상 분배부와, 복수의 디스플레이에 대응하는 복수의 영상표시장치를 제어하기 위한 적어도 하나의 제어부를 포함하고, 복수의 영상표시장치에 표시되는 동영상이 반복 재생되는 경우, 복수의 영상표시장치 중 제1 영상표시장치에 입력되는 제1 영상 내의 제1 경계 영상과, 제1 영상표시장치에 인접한 제2 영상표시장치에 입력되는 제2 영상을, 합성하여, 합성된 영상 중 일부 영역을 제2 영상표시장치에 표시할 수 있다. 이에 따라, 비디오 월에서 잔상을 저감하면서 블랙 영역 발생을 저감할 수 있게 된다. 특히, 동영상이 반복되어 표시되는 비디오 월에서 잔상을 저감하면서 블랙 영역 발생을 저감할 수 있게 된다.
한편, 제1 영상표시장치의 제어부는, 복수의 영상표시장치에 표시되는 동영상이 반복 재생되는 지 여부를 판단하고, 해당하는 경우, 복수의 영상표시장치 중 제1 영상표시장치에 입력되는 제1 영상 내의 제1 경계 영상을 제2 영상표시장치로 전송하도록 제어할 수 있다. 이에 따라, 동영상이 반복되어 표시되는 비디오 월에서 잔상을 저감하면서 블랙 영역 발생을 저감할 수 있게 된다.
한편, 제2 영상표시장치의 제어부는, 제1 영상표시장치로부터 수신되는 제1 경계 영상과 입력되는 제2 영상을, 합성하여, 합성된 영상 중 일부 영역을 제2 영상표시장치의 디스플레이에 표시하도록 제어할 수 있다. 이에 따라, 동영상이 반복되어 표시되는 비디오 월에서 잔상을 저감하면서 블랙 영역 발생을 저감할 수 있게 된다.
도 1은 본 발명의 일 실시예에 따른 영상표시 시스템을 도시한 도면이다.
도 2는 도 1의 비디오 월의 내부 블록도의 일예이다.
도 3은 도 1의 영상표시장치의 내부 블록도의 일예이다.
도 4는 도 3의 제어부의 내부 블록도의 일예이다.
도 5는 도 3의 디스플레이의 내부 블록도이다.
도 6a 내지 도 6b는 도 5의 유기발광패널의 설명에 참조되는 도면이다.
도 7은 본 발명의 실시예에 따른 제어부의 내부 블록도의 일예이다.
도 8 내지 도 9b는 도 7의 제어부의 동작 설명에 참조되는 도면이다.
도 10a 내지 도 10b는 비디오 월에서의 픽셀 시프트 설명에 참조되는 도면이다.
도 11은 본 발명의 일 실시예에 따른 비디오 월의 동작방법을 나타내는 순서도이다.
도 12a 내지 도 19는 도 11의 동작 설명에 참조되는 도면이다.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.
이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 단순히 본 명세서 작성의 용이함만이 고려되어 부여되는 것으로서, 그 자체로 특별히 중요한 의미 또는 역할을 부여하는 것은 아니다. 따라서, 상기 "모듈" 및 "부"는 서로 혼용되어 사용될 수도 있다.
도 1은 본 발명의 일 실시예에 따른 영상표시 시스템을 도시한 도면이다.
도면을 참조하면, 본 발명의 일 실시예에 따른 영상표시 시스템(5)은, 복수의 영상표시장치(100a~100d)를 구비하는 비디오 월(10), 셋탑 박스(300), 및 서버(600)를 포함할 수 있다.
본 발명의 일 실시예에 따른 비디오 월(10)은, 셋탑 박스(300), 또는 서버(600) 또는 내부의 메모리 등으로부터 영상을 수신할 수 있다.
예를 들어, 비디오 월(10)은, 셋탑 박스(300)로부터의 영상 신호를 HDMI 단자를 통해 수신할 수 있다.
다른 예로, 비디오 월(10)은, 서버(600)로부터 영상 신호를 네트워크 단자를 통해 수신할 수 있다.
한편, 비디오 월(10)은, 건물 내부 또는 외부의 공공 장소 등에 설치될 수 있다.
예를 들어, 비디오 월(10)은, 광고, 뉴스, 공지 사항 등의 정보 제공을 위해, 차량 내, 터미널, 기차역, 공항 등의 공공 시설에 설치 가능하다. 또한, 특정 물품의 광고를 위해, 백화점, 쇼핑몰, 대형 마트 등의 매장 내의 쇼 윈도우 주변에 배치되는 것도 가능하다.
이러한 비디오 월(10)은, 인접하여 배치되는, 복수의 디스플레이(180a~180d)를 구비할 수 있다.
한편, 복수의 디스플레이(180a~180d)는 다양한 패널 중 어느 하나로 구현될 수 있다. 예를 들어, 복수의 디스플레이(180a~180d)는, 액정표시패널(LCD 패널), 유기발광패널(OLED 패널), 무기발광패널(LED 패널) 등 중 어느 하나일 수 있다.
본 발명에서는, 복수의 디스플레이(180a~180d)가 유기발광패널(OLED 패널)을 구비하는 것을 중심으로 기술한다.
한편, 유기발광패널(OLED 패널)은, 액정표시패널 보다 패널 응답 속도가 빠르며, 색재현 효과가 뛰어나며, 색재현성이 뛰어나다는 장점이 있다.
한편, 복수의 디스플레이(180a~180d)는, 복수의 패널(210a~210d)과, 패널(210a~210d)을 둘러싸는 베젤(Ba~Bd)을 구비할 수 있다.
도면에서는, 비디오 월(10)이, 복수의 디스플레이(180a~180d)를 구비하는, 복수의 영상표시장치(100a~100d)를 포함하는 것을 도시한다. 한편, 복수의 영상표시장치(100a~100d)는, 복수의 디스플레이(180a~180d) 외에, 복수의 제어부(170a~170d)를 더 구비할 수도 있다.
예를 들어, 비디오 월(10)은, 영상 분배부(160)에서 분배된 영상이, 복수의 영상표시장치(100a~100d) 각각에 구비되는 제어부(170a~170d)로 입력되고, 각 제어부(170a~170d)에서, 각각 영상 신호 처리된 영상이, 각 디스플레이(180a~180d)에 입력되고, 각 디스플레이(180a~180d)는, 해당 영상을 표시할 수 있다.
이에 따라, 시청자(50)는, 도면과 같이, 비디오 월(10)에서 표시되는 영상을 시청할 수 있다. 특히, 복수의 디스플레이(180a~180d)에서 표시되는 영상을, 시청할 수 있게 된다.
다른 예로, 비디오 월(10)은, 복수의 영상표시장치(100a~100d)를 공통으로 제어하는 하나의 제어부를 구비할 수도 있다. 이에 따라, 공통의 제어부는, 표시 영상에 대한 신호 처리를 수행할 수 있다. 그리고, 영상 신호 처리된 영상이, 각 디스플레이(180a~180d)에 입력되고, 각 디스플레이(180a~180d)는, 해당 영상을 표시할 수 있다.
한편, 복수의 디스플레이(180a~180d)가, 유기발광패널을 구비하는 경우, 유기발광패널의 특성상, 번인 현상에 의한 잔상이 나타날 수 있다.
특히, 동일한 위치에 지속적으로 높은 밝기의 영상이 나타나게 되면 해당 위치의 소자 수명이 줄어들게 된다.
번인 현상에 의한 잔상 방지를 위한 기술로, 출력 위치를 Shift 하여 같은 자리가 계속 타지 않도록 막는 기술과, 정지 영상에서 화면 전체의 밝기를 점진적으로 어둡게 하여 Burn-in을 막는 기술 등이 있다.
출력 위치를 Shift를 하면서 같은 자리를 계속 타지 않도록 막는 기술은, 단일의 영상표시장치에서 매우 유용한 잔상 저감 기술로 널리 사용되고 있으나, 비디오 월에서는 그 적용이 용이하지 않다.
구체적으로, 한 개의 영상을 여러 개의 영상에 나누어서 출력하는 비디오 월에서, 출력 위치를 시프트(Shift) 하는 경우, 영상의 중간에 Black Bar가 발생하는 문제로 인하여, 이 방식의 적용이 용이하지 않았다.
이에 따라 본 발명에서는 잔상을 저감하면서 블랙 영역 발생을 저감할 수 있는 방안을 제시한다.
본 발명의 일 실시예에 따른 비디오 월(10)은, 인접하여 배치되는 복수의 디스플레이(180a~180d)와, 입력 영상을 복수의 디스플레이(180a~180d)에서의 표시를 위해 복수의 영상으로 분배하는 영상 분배부(160)와, 복수의 디스플레이(180a~180d)에 대응하는 복수의 영상표시장치(100a~100d)를 제어하기 위한 적어도 하나의 제어부(170)를 포함하고, 복수의 영상표시장치(100a~100d)에 표시되는 동영상이 반복 재생되는 경우, 복수의 영상표시장치(100a~100d)에 표시되는 경계 영역을 저장하고, 인접하는 영상표시장치에 전송하며, 각 영상표시장치는, 수신되는 경계 영역과 표시할 영상 영역을 합성하고, 합성된 영상 중 일부 영역을 각 영상표시장치가 표시한다. 이에 따라, 비디오 월(10)에서 잔상을 저감하면서 블랙 영역 발생을 저감할 수 있게 된다. 특히, 동영상이 반복되어 표시되는 비디오 월(10)에서 잔상을 저감하면서 블랙 영역 발생을 저감할 수 있게 된다.
한편, 복수의 영상표시장치(100a~100d) 중 제1 영상표시장치(100a)의 제어부(170a)는, 복수의 영상표시장치(100a~100d)에 표시되는 동영상이 반복 재생되는 지 여부를 판단하고, 해당하는 경우, 경계 영역 저장 및 합성 영상 생성이 수행되도록 제어할 수 있다. 이에 따라, 동영상이 반복되어 표시되는 비디오 월(10)에서 잔상을 저감하면서 블랙 영역 발생을 저감할 수 있게 된다.
한편, 본 발명의 다른 실시예에 따른 비디오 월(10)은, 인접하여 배치되는 복수의 디스플레이(180a~180d)와, 입력 영상을 복수의 디스플레이(180a~180d)에서의 표시를 위해 복수의 영상으로 분배하는 영상 분배부(160)와, 복수의 디스플레이(180a~180d)에 대응하는 복수의 영상표시장치(100a~100d)를 제어하기 위한 적어도 하나의 제어부(170)를 포함하고, 복수의 영상표시장치(100a~100d)에 표시되는 동영상이 반복 재생되는 경우, 복수의 영상표시장치(100a~100d) 중 제1 영상표시장치(100a)에 입력되는 제1 영상 내의 제1 경계 영상과, 제1 영상표시장치(100a)에 인접한 제2 영상표시장치(100b)에 입력되는 제2 영상을, 합성하여, 합성된 영상 중 일부 영역을 제2 영상표시장치(100b)에 표시할 수 있다. 이에 따라, 비디오 월(10)에서 잔상을 저감하면서 블랙 영역 발생을 저감할 수 있게 된다. 특히, 동영상이 반복되어 표시되는 비디오 월(10)에서 잔상을 저감하면서 블랙 영역 발생을 저감할 수 있게 된다.
한편, 비디오 월(10)의 내부 구조 및 동작 등에 대해서는, 도 2 내지 도 3을 참조하여 보다 상세히 기술한다.
도 2는 도 1의 비디오 월의 내부 블록도의 일예이다.
도면을 참조하면, 비디오 월(10)은, 제1 내지 제4 영상표시장치(100a~100d)를 구비할 수 있다.
도면에서는, 편의상, 제2 내지 제4 영상표시장치(100b~100d)가, 각각 제2 내지 제4 디스플레이(180b~180d)와 제2 내지 제4 제어부(170b~170d)를 구비하는 것으로 도시하였으나, 이와 달리, 외부장치 인터페이스부, 네트워크 인터페이스부, 메모리, 영상 분배부, 전원 공급부, 오디오 출력부 등을 구비할 수 있다.
한편, 제1 영상표시장치(100a)는, 외부장치 인터페이스부(130), 네트워크 인터페이스부(135), 메모리(140), 사용자 입력 인터페이스부(150), 영상 분배부(160), 제1 제어부(170a), 제1 디스플레이(180a), 전원 공급부(190), 오디오 출력부(194) 등을 구비할 수 있다.
외부장치 인터페이스부(130)는, 접속된 외부 장치(미도시)와 데이터를 송수신할 수 있다. 이를 위해, 외부장치 인터페이스부(130)는, A/V 입출력부(미도시) 또는 데이터 입출력부(미도시)를 포함할 수 있다.
예를 들어, 외부장치 인터페이스부(130)는, HDMI 단자, RGB 단자, 컴포넌트 단자, USB 단자, 마이크로 SD 단자 등을 포함할 수 있다.
네트워크 인터페이스부(135)는, 영상표시장치(100)를 인터넷망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공한다. 예를 들어, 네트워크 인터페이스부(135)는, 네트워크를 통해, 인터넷 또는 컨텐츠 제공자 또는 네트워크 운영자가 제공하는 컨텐츠 또는 데이터들을 송수신할 수 있다.
메모리(140)는, 제어부(170a) 내의 각 신호 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 신호 처리된 영상, 음성 또는 데이터 신호를 저장할 수도 있다.
또한, 메모리(140)는 외부장치 인터페이스부(130)로 입력되는 영상, 음성 또는 데이터 신호의 임시 저장을 위한 기능을 수행할 수도 있다.
한편, 복수의 디스플레이(180a~180d)는, 서로 인접하여 배치될 수 있으며, LCD, OLED, PDP 등의 다양한 디스플레이 패널을 구비할 수 있으며, 디스플레이 패널을 통해, 소정 영상을 표시할 수 있다.
사용자입력 인터페이스부(150)는, 사용자가 입력한 신호를 제어부(170a)로 전달하거나, 제어부(170a)로부터의 신호를 사용자에게 전달한다.
이를 위해, 사용자입력 인터페이스부(150)는, 전원키 등을 포함하는 로컬키, 사용자의 정보를 입력할 수 있는 터치 패널 등을 구비할 수 있다.
영상 분배부(160)는, 메모리(140)에 저장되는 입력 영상, 외부장치 인터페이스부(130), 또는 네트워크 인터페이스부(135)를 통해 외부 장치로부터 수신되는 입력 영상을, 복수의 디스플레이(180a~180d)에서의 표시를 위해 복수의 영상으로 분배할 수 있다.
예를 들어, 영상 분배부(160)는, 입력 영상을 복수의 영상으로 자르고(crop), 스케일링(scaling)을 수행할 수 있다.
특히, 영상 분배부(160)는, 복수의 디스플레이(180a~180d)의 해상도, 크기 등을 고려하여, 자르고(crop), 스케일링(scaling) 등을 수행할 수 있다.
한편, 영상 분배부(160)는, 비디오 월(10)의 전반적인 제어 동작을 수행할 수도 있다. 구체적으로, 비디오 월(10) 내의 각 유닛의 동작을 제어할 수도 있다.
한편, 복수의 디스플레이(180a~180d)를 제어하기 위해, 위한 적어도 하나의 제어부를 구비할 수 있다.
한편, 도면에서는, 복수의 디스플레이(180a~180d)를 제어하기 위해, 복수의 디스플레이(180a~180d)의 개수에 대응하는, 복수의 제어부(170a~170d)를 예시한다.
복수의 제어부(170a~170d)는, 복수의 디스플레이(180a~180d)에, 각각 영상 표시를 위한 제어 동작을 수행할 수 있다.
한편, 복수의 제어부(170a~170d) 각각은, 복수의 영상표시장치(100a~100d)에 표시되는 동영상이 반복 재생되는 경우, 복수의 영상표시장치(100a~100d)에 표시되는 경계 영역을 저장하고, 인접하는 영상표시장치에 전송하며, 각 영상표시장치(100a~100d)는, 수신되는 경계 영역과 표시할 영상 영역을 합성하고, 합성된 영상 중 일부 영역을 각 영상표시장치(100a~100d)가 표시하도록 제어할 수 있다. 이에 따라, 비디오 월(10)에서 잔상을 저감하면서 블랙 영역 발생을 저감할 수 있게 된다. 특히, 동영상이 반복되어 표시되는 비디오 월(10)에서 잔상을 저감하면서 블랙 영역 발생을 저감할 수 있게 된다.
한편, 복수의 영상표시장치(100a~100d) 중 제1 영상표시장치(100a)의 제어부(170a)는, 복수의 영상표시장치(100a~100d)에 표시되는 동영상이 반복 재생되는 지 여부를 판단하고, 해당하는 경우, 경계 영역 저장 및 합성 영상 생성이 수행되도록 제어할 수 있다. 이에 따라, 동영상이 반복되어 표시되는 비디오 월(10)에서 잔상을 저감하면서 블랙 영역 발생을 저감할 수 있게 된다.
한편, 복수의 영상표시장치(100a~100d) 중 제1 영상표시장치(100a)의 제어부(170a)는, 복수의 영상표시장치(100a~100d)에 표시되는 동영상이 반복 재생되는 동안, 픽셀 시프트가 수행되는 경우, 픽셀 시프트 방향 정보가 복수의 영상표시장치(100a~100d)로 전송되도록 제어할 수 있다. 이에 따라, 동영상이 반복되어 표시되는 비디오 월(10)에서 잔상을 저감하면서 블랙 영역 발생을 저감할 수 있게 된다.
한편, 복수의 영상표시장치(100a~100d) 중 제1 영상표시장치(100a)의 제어부(170a)는, 복수의 영상표시장치(100a~100d)에 표시되는 동영상이 반복 재생되는 동안, 픽셀 시프트가 복수의 영상표시장치(100a~100d)에서 공통으로 수행되도록 제어할 수 있다. 이에 따라, 동영상이 반복되어 표시되는 비디오 월(10)에서 잔상을 저감하면서 블랙 영역 발생을 저감할 수 있게 된다.
한편, 복수의 제어부(170a~170d) 각각은, 소정 영상을 출력하도록 복수의 디스플레이(180a~180d)를 제어할 수 있다. 구체적으로, 표시할 비디오 영상에 대응하는 R,G,B 신호를, 복수의 디스플레이(180a~180d)에 출력할 수 있다. 이에 따라, 복수의 디스플레이(180a~180d)는 각 영상을 표시할 수 있게 된다.
전원 공급부(190)는, 외부의 전원 또는 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다.
전원 공급부(190)는, 영상표시장치(100) 전반에 걸쳐 해당 전원을 공급한다. 특히, 시스템 온 칩(System On Chip,SOC)의 형태로 구현될 수 있는 복수의 제어부(170a~170d)와, 영상 표시를 위한 복수의 디스플레이(180a~180d), 및 오디오 출력을 위한 오디오 출력부(194)에 전원을 공급할 수 있다.
온도 감지부(미도시)는, 비디오 월(10)의 온도를 감지할 수 있다.
온도 감지부(미도시)에서 감지된 온도는, 복수의 제어부(170a~170d) 또는 여상 분배부(160)로 입력될 수 있으며, 감지된 온도에 기초하여, 내부의 열을 저감하기 위해, 팬 구동부(미도시)의 동작을 제어할 수 있다.
도 3은 도 1의 영상표시장치의 내부 블록도의 일예이다.
도 3을 참조하면, 본 발명의 일실시예에 의한 영상표시장치(100)는, 영상 수신부(105), 메모리(140), 사용자입력 인터페이스부(150), 센서부(미도시), 제어부(170), 디스플레이(180), 오디오 출력부(185)를 포함할 수 있다.
영상 수신부(105)는, 튜너부(110), 복조부(120), 네트워크 인터페이스부(130), 외부장치 인터페이스부(130)를 포함할 수 있다.
한편, 영상 수신부(105)는, 도면과 달리, 튜너부(110), 복조부(120)와, 외부장치 인터페이스부(130)만을 포함하는 것도 가능하다. 즉, 네트워크 인터페이스부(130)를 포함하지 않을 수도 있다.
튜너부(110)는, 안테나(미도시)를 통해 수신되는 RF(Radio Frequency) 방송 신호 중 사용자에 의해 선택된 채널 또는 기저장된 모든 채널에 해당하는 RF 방송 신호를 선택한다. 또한, 선택된 RF 방송 신호를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성신호로 변환한다.
예를 들어, 선택된 RF 방송 신호가 디지털 방송 신호이면 디지털 IF 신호(DIF)로 변환하고, 아날로그 방송 신호이면 아날로그 베이스 밴드 영상 또는 음성 신호(CVBS/SIF)로 변환한다. 즉, 튜너부(110)는 디지털 방송 신호 또는 아날로그 방송 신호를 처리할 수 있다. 튜너부(110)에서 출력되는 아날로그 베이스 밴드 영상 또는 음성 신호(CVBS/SIF)는 제어부(170)로 직접 입력될 수 있다.
한편, 튜너부(110)는, 복수 채널의 방송 신호를 수신하기 위해, 복수의 튜너를 구비하는 것이 가능하다. 또는, 복수 채널의 방송 신호를 동시에 수신하는 단일 튜너도 가능하다.
복조부(120)는 튜너부(110)에서 변환된 디지털 IF 신호(DIF)를 수신하여 복조 동작을 수행한다.
복조부(120)는 복조 및 채널 복호화를 수행한 후 스트림 신호(TS)를 출력할 수 있다. 이때 스트림 신호는 영상 신호, 음성 신호 또는 데이터 신호가 다중화된 신호일 수 있다.
복조부(120)에서 출력한 스트림 신호는 제어부(170)로 입력될 수 있다. 제어부(170)는 역다중화, 영상/음성 신호 처리 등을 수행한 후, 디스플레이(180)에 영상을 출력하고, 오디오 출력부(185)로 음성을 출력한다.
외부장치 인터페이스부(130)는, 접속된 외부 장치(미도시), 예를 들어, 셋탑 박스(50)와 데이터를 송신 또는 수신할 수 있다. 이를 위해, 외부장치 인터페이스부(130)는, A/V 입출력부(미도시)를 포함할 수 있다.
외부장치 인터페이스부(130)는, DVD(Digital Versatile Disk), 블루레이(Blu ray), 게임기기, 카메라, 캠코더, 컴퓨터(노트북), 셋탑 박스 등과 같은 외부 장치와 유/무선으로 접속될 수 있으며, 외부 장치와 입력/출력 동작을 수행할 수도 있다.
A/V 입출력부는, 외부 장치의 영상 및 음성 신호를 입력받을 수 있다. 한편, 무선 통신부(미도시)는, 다른 전자기기와 근거리 무선 통신을 수행할 수 있다.
이러한 무선 통신부(미도시)를 통해, 외부장치 인터페이스부(130)는, 인접하는 이동 단말기(600)와 데이터를 교환할 수 있다. 특히, 외부장치 인터페이스부(130)는, 미러링 모드에서, 이동 단말기(600)로부터 디바이스 정보, 실행되는 애플리케이션 정보, 애플리케이션 이미지 등을 수신할 수 있다.
네트워크 인터페이스부(135)는, 영상표시장치(100)를 인터넷망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공한다. 예를 들어, 네트워크 인터페이스부(135)는, 네트워크를 통해, 인터넷 또는 컨텐츠 제공자 또는 네트워크 운영자가 제공하는 컨텐츠 또는 데이터들을 수신할 수 있다.
한편, 네트워크 인터페이스부(135)는, 무선 통신부(미도시)를 포함할 수 있다.
메모리(140)는, 제어부(170) 내의 각 신호 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 신호 처리된 영상, 음성 또는 데이터 신호를 저장할 수도 있다.
또한, 메모리(140)는 외부장치 인터페이스부(130)로 입력되는 영상, 음성 또는 데이터 신호의 임시 저장을 위한 기능을 수행할 수도 있다. 또한, 메모리(140)는, 채널 맵 등의 채널 기억 기능을 통하여 소정 방송 채널에 관한 정보를 저장할 수 있다.
도 3의 메모리(140)가 제어부(170)와 별도로 구비된 실시예를 도시하고 있으나, 본 발명의 범위는 이에 한정되지 않는다. 메모리(140)는 제어부(170) 내에 포함될 수 있다.
사용자입력 인터페이스부(150)는, 사용자가 입력한 신호를 제어부(170)로 전달하거나, 제어부(170)로부터의 신호를 사용자에게 전달한다.
예를 들어, 원격제어장치(200)로부터 전원 온/오프, 채널 선택, 화면 설정 등의 사용자 입력 신호를 송신/수신하거나, 전원키, 채널키, 볼륨키, 설정치 등의 로컬키(미도시)에서 입력되는 사용자 입력 신호를 제어부(170)에 전달하거나, 사용자의 제스처를 센싱하는 센서부(미도시)로부터 입력되는 사용자 입력 신호를 제어부(170)에 전달하거나, 제어부(170)로부터의 신호를 센서부(미도시)로 송신할 수 있다.
제어부(170)는, 튜너부(110) 또는 복조부(120) 또는 네트워크 인터페이스부(135) 또는 외부장치 인터페이스부(130)를 통하여, 입력되는 스트림을 역다중화하거나, 역다중화된 신호들을 처리하여, 영상 또는 음성 출력을 위한 신호를 생성 및 출력할 수 있다.
예를 들어, 제어부(170)는, 영상 수신부(105)에서 수신된 방송 신호 또는 HDMI 신호 등을 수신하고, 수신되는 방송 신호 또는 HDMI 신호에 기초한 신호 처리를 수행하여, 신호 처리된 영상 신호를 출력할 수 있다.
제어부(170)에서 영상 처리된 영상 신호는 디스플레이(180)로 입력되어, 해당 영상 신호에 대응하는 영상으로 표시될 수 있다. 또한, 제어부(170)에서 영상 처리된 영상 신호는 외부장치 인터페이스부(130)를 통하여 외부 출력장치로 입력될 수 있다.
제어부(170)에서 처리된 음성 신호는 오디오 출력부(185)로 음향 출력될 수 있다. 또한, 제어부(170)에서 처리된 음성 신호는 외부장치 인터페이스부(130)를 통하여 외부 출력장치로 입력될 수 있다.
도 3에는 도시되어 있지 않으나, 제어부(170)는 역다중화부, 영상처리부 등을 포함할 수 있다. 즉, 제어부(170)는, 다양한 신호 처리를 수행할 수 있으며, 이에 따라, 시스템 온 칩(System On Chip,SOC)의 형태로 구현될 수 있다. 이에 대해서는 도 4을 참조하여 후술한다.
그 외, 제어부(170)는, 영상표시장치(100) 내의 전반적인 동작을 제어할 수 있다. 예를 들어, 제어부(170)는 튜너부(110)를 제어하여, 사용자가 선택한 채널 또는 기저장된 채널에 해당하는 RF 방송을 선택(Tuning)하도록 제어할 수 있다.
또한, 제어부(170)는 사용자입력 인터페이스부(150)를 통하여 입력된 사용자 명령 또는 내부 프로그램에 의하여 영상표시장치(100)를 제어할 수 있다.
한편, 제어부(170)는, 영상을 표시하도록 디스플레이(180)를 제어할 수 있다. 이때, 디스플레이(180)에 표시되는 영상은, 정지 영상 또는 동영상일 수 있으며, 2D 영상 또는 3D 영상일 수 있다.
한편, 제어부(170)는 디스플레이(180)에 표시되는 영상 내에, 소정 오브젝트가 표시되도록 할 수 있다. 예를 들어, 오브젝트는, 접속된 웹 화면(신문, 잡지 등), EPG(Electronic Program Guide), 다양한 메뉴, 위젯, 아이콘, 정지 영상, 동영상, 텍스트 중 적어도 하나일 수 있다.
한편, 제어부(170)는, 촬영부(미도시)로부터 촬영된 영상에 기초하여, 사용자의 위치를 인식할 수 있다. 예를 들어, 사용자와 영상표시장치(100) 간의 거리(z축 좌표)를 파악할 수 있다. 그 외, 사용자 위치에 대응하는 디스플레이(180) 내의 x축 좌표, 및 y축 좌표를 파악할 수 있다.
디스플레이(180)는, 제어부(170)에서 처리된 영상 신호, 데이터 신호, OSD 신호, 제어 신호 또는 외부장치 인터페이스부(130)에서 수신되는 영상 신호, 데이터 신호, 제어 신호 등을 변환하여 구동 신호를 생성한다.
한편, 디스플레이(180)는, 터치 스크린으로 구성되어 출력 장치 이외에 입력 장치로 사용되는 것도 가능하다.
오디오 출력부(185)는, 제어부(170)에서 음성 처리된 신호를 입력 받아 음성으로 출력한다.
촬영부(미도시)는 사용자를 촬영한다. 촬영부(미도시)는 1 개의 카메라로 구현되는 것이 가능하나, 이에 한정되지 않으며, 복수 개의 카메라로 구현되는 것도 가능하다. 촬영부(미도시)에서 촬영된 영상 정보는 제어부(170)에 입력될 수 있다.
제어부(170)는, 촬영부(미도시)로부터 촬영된 영상, 또는 센서부(미도시)로부터의 감지된 신호 각각 또는 그 조합에 기초하여 사용자의 제스처를 감지할 수 있다.
전원 공급부(190)는, 영상표시장치(100) 전반에 걸쳐 해당 전원을 공급한다. 특히, 전원 공급부(190)는, 시스템 온 칩(System On Chip,SOC)의 형태로 구현될 수 있는 제어부(170)와, 영상 표시를 위한 디스플레이(180), 및 오디오 출력을 위한 오디오 출력부(185) 등에 전원을 공급할 수 있다.
구체적으로, 전원 공급부(190)는, 교류 전원을 직류 전원으로 변환하는 컨버터와, 직류 전원의 레벨을 변환하는 dc/dc 컨버터를 구비할 수 있다.
원격제어장치(200)는, 사용자 입력을 사용자입력 인터페이스부(150)로 송신한다. 이를 위해, 원격제어장치(200)는, 블루투스(Bluetooth), RF(Radio Frequency) 통신, 적외선(IR) 통신, UWB(Ultra Wideband), 지그비(ZigBee) 방식 등을 사용할 수 있다. 또한, 원격제어장치(200)는, 사용자입력 인터페이스부(150)에서 출력한 영상, 음성 또는 데이터 신호 등을 수신하여, 이를 원격제어장치(200)에서 표시하거나 음성 출력할 수 있다.
한편, 상술한 영상표시장치(100)는, 고정형 또는 이동형 디지털 방송 수신 가능한 디지털 방송 수신기일 수 있다.
한편, 도 3에 도시된 영상표시장치(100)의 블록도는 본 발명의 일실시예를 위한 블록도이다. 블록도의 각 구성요소는 실제 구현되는 영상표시장치(100)의 사양에 따라 통합, 추가, 또는 생략될 수 있다. 즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 본 발명의 실시예를 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.
도 4는 도 3의 제어부의 내부 블록도의 일예이다.
도면을 참조하여 설명하면, 본 발명의 일실시예에 의한 제어부(170)는, 역다중화부(310), 영상 처리부(320), 프로세서(330), 오디오 처리부(370)를 포함할 수 있다. 그 외 , 데이터 처리부(미도시)를 더 포함할 수 있다.
역다중화부(310)는, 입력되는 스트림을 역다중화한다. 예를 들어, MPEG-2 TS가 입력되는 경우 이를 역다중화하여, 각각 영상, 음성 및 데이터 신호로 분리할 수 있다. 여기서, 역다중화부(310)에 입력되는 스트림 신호는, 튜너부(110) 또는 복조부(120) 또는 외부장치 인터페이스부(130)에서 출력되는 스트림 신호일 수 있다.
영상 처리부(320)는, 입력되는 영상에 대한 신호 처리를 수행할 수 있다. 예를 들어, 영상 처리부(320)는, 역다중화부(310)로부터 역다중화된 영상 신호의 영상 처리를 수행할 수 있다.
이를 위해, 영상 처리부(320)는, 영상 디코더(325), 스케일러(335), 화질 처리부(635), 영상 인코더(미도시), OSD 생성부(340), 프레임 영상 레이트 변환부(350), 및 포맷터(360) 등을 포함할 수 있다.
영상 디코더(325)는, 역다중화된 영상신호를 복호화하며, 스케일러(335)는, 복호화된 영상신호의 해상도를 디스플레이(180)에서 출력 가능하도록 스케일링(scaling)을 수행한다.
영상 디코더(325)는 다양한 규격의 디코더를 구비하는 것이 가능하다. 예를 들어, MPEG-2, H,264 디코더, 색차 영상(color image) 및 깊이 영상(depth image)에 대한 3D 영상 디코더, 복수 시점 영상에 대한 디코더 등을 구비할 수 있다.
스케일러(335)는, 영상 디코더(325) 등에서 영상 복호 완료된, 입력 영상 신호를 스케일링할 수 있다.
예를 들어, 스케일러(335)는, 입력 영상 신호의 크기 또는 해상도가 작은 경우, 업 스케일링하고, 입력 영상 신호의 크기 또는 해상도가 큰 경우, 다운 스케일링할 수 있다.
화질 처리부(635)는, 영상 디코더(325) 등에서 영상 복호 완료된, 입력 영상 신호에 대한 화질 처리를 수행할 수 있다.
예를 들어, 화질 처리부(635)는, 입력 영상 신호의 노이즈 제거 처리를 하거나, 입력 영상 신호의 도계조의 해상를 확장하거나, 영상 해상도 향상을 수행하거나, 하이 다이나믹 레인지(HDR) 기반의 신호 처리를 하거나, 프레임 영상 레이트를 가변하거나, 패널 특성, 특히 유기발광패널에 대응하는 화질 처리 등을 할 수 있다.
OSD 생성부(340)는, 사용자 입력에 따라 또는 자체적으로 OSD 신호를 생성한다. 예를 들어, 사용자 입력 신호에 기초하여, 디스플레이(180)의 화면에 각종 정보를 그래픽(Graphic)이나 텍스트(Text)로 표시하기 위한 신호를 생성할 수 있다. 생성되는 OSD 신호는, 영상표시장치(100)의 사용자 인터페이스 화면, 다양한 메뉴 화면, 위젯, 아이콘 등의 다양한 데이터를 포함할 수 있다. 또한, 생성되는 OSD 신호는, 2D 오브젝트 또는 3D 오브젝트를 포함할 수 있다.
또한, OSD 생성부(340)는, 원격제어장치(200)로부터 입력되는 포인팅 신호에 기초하여, 디스플레이에 표시 가능한, 포인터를 생성할 수 있다. 특히, 이러한 포인터는, 포인팅 제어부에서 생성될 수 있으며, OSD 생성부(240)는, 이러한 포인팅 제어부(미도시)를 포함할 수 있다. 물론, 포인팅 제어부(미도시)가 OSD 생성부(240) 내에 구비되지 않고 별도로 마련되는 것도 가능하다.
프레임 영상 레이트 변환부(Frame Rate Conveter, FRC)(350)는, 입력되는 영상의 프레임 영상 레이트를 변환할 수 있다. 한편, 프레임 영상 레이트 변환부(350)는, 별도의 프레임 영상 레이트 변환 없이, 그대로 출력하는 것도 가능하다.
한편, 포맷터(Formatter)(360)는, 입력되는 영상 신호의 포맷을, 디스플레이에 표시하기 위한 영상 신호로 변화시켜 출력할 수 있다.
특히, 포맷터(Formatter)(360)는, 디스플레이 패널에 대응하도록 영상 신호의 포맷을 변화시킬 수 있다.
프로세서(330)는, 영상표시장치(100) 내 또는 제어부(170) 내의 전반적인 동작을 제어할 수 있다.
예를 들어, 프로세서(330)는 튜너(110)를 제어하여, 사용자가 선택한 채널 또는 기저장된 채널에 해당하는 RF 방송을 선택(Tuning)하도록 제어할 수 있다.
또한, 프로세서(330)는, 사용자입력 인터페이스부(150)를 통하여 입력된 사용자 명령 또는 내부 프로그램에 의하여 영상표시장치(100)를 제어할 수 있다.
또한, 프로세서(330)는, 네트워크 인터페이스부(135) 또는 외부장치 인터페이스부(130)와의 데이터 전송 제어를 수행할 수 있다.
또한, 프로세서(330)는, 제어부(170) 내의 역다중화부(310), 영상 처리부(320) 등의 동작을 제어할 수 있다.
한편, 제어부(170) 내의 오디오 처리부(370)는, 역다중화된 음성 신호의 음성 처리를 수행할 수 있다. 이를 위해 오디오 처리부(370)는 다양한 디코더를 구비할 수 있다.
또한, 제어부(170) 내의 오디오 처리부(370)는, 베이스(Base), 트레블(Treble), 음량 조절 등을 처리할 수 있다.
제어부(170) 내의 데이터 처리부(미도시)는, 역다중화된 데이터 신호의 데이터 처리를 수행할 수 있다. 예를 들어, 역다중화된 데이터 신호가 부호화된 데이터 신호인 경우, 이를 복호화할 수 있다. 부호화된 데이터 신호는, 각 채널에서 방영되는 방송프로그램의 시작시간, 종료시간 등의 방송정보를 포함하는 전자 프로그램 가이드 정보(Electronic Program Guide) 정보일 수 있다.
한편, 도 4에 도시된 제어부(170)의 블록도는 본 발명의 일실시예를 위한 블록도이다. 블록도의 각 구성요소는 실제 구현되는 제어부(170)의 사양에 따라 통합, 추가, 또는 생략될 수 있다.
특히, 프레임 영상 레이트 변환부(350), 및 포맷터(360)는 영상 처리부(320) 외에 별도로 마련될 수도 있다.
도 5는 도 3의 디스플레이의 내부 블록도이다.
도면을 참조하면, 유기발광패널 기반의 디스플레이(180)는, 유기발광패널(210), 제1 인터페이스부(230), 제2 인터페이스부(231), 타이밍 컨트롤러(232), 게이트 구동부(234), 데이터 구동부(236), 메모리(240), 프로세서(270), 전원 공급부(290), 전류 검출부(510) 등을 포함할 수 있다.
디스플레이(180)는, 영상 신호(Vd)와, 제1 직류 전원(V1) 및 제2 직류 전원(V2)을 수신하고, 영상 신호(Vd)에 기초하여, 소정 영상을 표시할 수 있다.
한편, 디스플레이(180) 내의 제1 인터페이스부(230)는, 제어부(170)로부터 영상 신호(Vd)와, 제1 직류 전원(V1)을 수신할 수 있다.
여기서, 제1 직류 전원(V1)은, 디스플레이(180) 내의 전원 공급부(290), 및 타이밍 컨트롤러(232)의 동작을 위해 사용될 수 있다.
다음, 제2 인터페이스부(231)는, 외부의 전원 공급부(190)로부터 제2 직류 전원(V2)을 수신할 수 있다. 한편, 제2 직류 전원(V2)은, 디스플레이(180) 내의 데이터 구동부(236)에 입력될 수 있다.
타이밍 컨트롤러(232)는, 영상 신호(Vd)에 기초하여, 데이터 구동 신호(Sda) 및 게이트 구동 신호(Sga)를 출력할 수 있다.
예를 들어, 제1 인터페이스부(230)가 입력되는 영상 신호(Vd)를 변환하여 변환된 영상 신호(va1)를 출력하는 경우, 타이밍 컨트롤러(232)는, 변환된 영상 신호(va1)에 기초하여, 데이터 구동 신호(Sda) 및 게이트 구동 신호(Sga)를 출력할 수 있다.
타이밍 컨트롤러(timing controller)(232)는, 제어부(170)로부터의 비디오 신호(Vd) 외에, 제어 신호, 수직동기신호(Vsync) 등을 더 수신할 수 있다.
그리고, 타이밍 컨트롤러(timing controller)(232)는, 비디오 신호(Vd) 외에, 제어 신호, 수직동기신호(Vsync) 등에 기초하여, 게이트 구동부(234)의 동작을 위한 게이트 구동 신호(Sga), 데이터 구동부(236)의 동작을 위한 데이터 구동 신호(Sda)를 출력할 수 있다.
이때의 데이터 구동 신호(Sda)는, 패널(210)이 RGBW의 서브픽셀을 구비하는 경우, RGBW 서브픽셀 구동용 데이터 구동 신호일 수 있다.
한편, 타이밍 컨트롤러(232)는, 게이트 구동부(234)에 제어 신호(Cs)를 더 출력할 수 있다.
게이트 구동부(234)와 데이터 구동부(236)는, 타이밍 컨트롤러(232)로부터의 게이트 구동 신호(Sga), 데이터 구동 신호(Sda)에 따라, 각각 게이트 라인(GL) 및 데이터 라인(DL)을 통해, 주사 신호 및 영상 신호를 유기발광패널(210)에 공급한다. 이에 따라, 유기발광패널(210)은 소정 영상을 표시하게 된다.
한편, 유기발광패널(210)은, 유기 발광층을 포함할 수 있으며, 영상을 표시하기 위해, 유기 발광층에 대응하는 각 화소에, 다수개의 게이트 라인(GL) 및 데이터 라인(DL)이 매트릭스 형태로 교차하여 배치될 수 있다.
한편, 데이터 구동부(236)는, 제2 인터페이스부(231)로부터의 제2 직류 전원(V2)에 기초하여, 유기발광패널(210)에 데이터 신호를 출력할 수 있다.
전원 공급부(290)는, 각종 전원을, 게이트 구동부(234)와 데이터 구동부(236), 타이밍 컨트롤러(232) 등에 공급할 수 있다.
전류 검출부(510)는, 유기발광패널(210)의 서브픽셀에 흐르는 전류를 검출할 수 있다. 검출되는 전류는, 누적 전류 연산을 위해, 프로세서(270) 등에 입력될 수 있다.
프로세서(270)는, 디스플레이(180) 내의 각종 제어를 수행할 수 있다. 예를 들어, 게이트 구동부(234)와 데이터 구동부(236), 타이밍 컨트롤러(232) 등을 제어할 수 있다.
한편, 프로세서(270)는, 전류 검출부(510)로부터, 유기발광패널(210)의 서브픽셀에 흐르는 전류 정보를 수신할 수 있다.
그리고, 프로세서(270)는, 유기발광패널(210)의 서브픽셀에 흐르는 전류 정보에 기초하여, 각 유기발광패널(210)의 서브픽셀의 누적 전류를 연산할 수 있다. 연산되는 누적 전류는, 메모리(240)에 저장될 수 있다.
한편, 프로세서(270)는, 각 유기발광패널(210)의 서브픽셀의 누적 전류가, 허용치 이상인 경우, 번인(burn in)으로 판단할 수 있다.
예를 들어, 프로세서(270)는, 각 유기발광패널(210)의 서브픽셀의 누적 전류가, 300000 A 이상인 경우, 번인된 서브픽셀로 판단할 수 있다.
한편, 프로세서(270)는, 각 유기발광패널(210)의 서브픽셀 중 일부 서브픽셀의 누적 전류가, 허용치에 근접하는 경우, 해당 서브픽셀을, 번인이 예측되는 서브픽셀로 판단할 수 있다.
한편, 프로세서(270)는, 전류 검출부(510)에서 검출된 전류에 기초하여, 가장 누적 전류가 큰 서브픽셀을, 번인 예측 서브픽셀로 판단할 수 있다.
도 6a 내지 도 6b는 도 5의 유기발광패널의 설명에 참조되는 도면이다.
먼저, 도 6a는, 유기발광패널(210) 내의 픽셀(Pixel)을 도시하는 도면이다.
도면을 참조하면, 유기발광패널(210)은, 복수의 스캔 라인(Scan 1 ~ Scan n)과, 이에 교차하는 복수의 데이터 라인(R1,G1,B1,W1 ~ Rm,Gm,Bm,Wm)을 구비할 수 있다.
한편, 유기발광패널(210) 내의 스캔 라인과, 데이터 라인의 교차 영역에, 픽셀(subpixel)이 정의된다. 도면에서는, RGBW의 서브픽셀(SR1,SG1,SB1,SW1)을 구비하는 픽셀(Pixel)을 도시한다.
도 6b는, 도 6a의 유기발광패널의 픽셀(Pixel) 내의 어느 하나의 서브픽셀(sub pixel)의 회로를 예시한다.
도면을 참조하면, 유기발광 서브픽셀(sub pixell) 회로(CRTm)는, 능동형으로서, 스캔 스위칭 소자(SW1), 저장 커패시터(Cst), 구동 스위칭 소자(SW2), 유기발광층(OLED)을 구비할 수 있다.
스캔 스위칭 소자(SW1)는, 게이트 단자에 스캔 라인(Scan line)이 접속되어, 입력되는 스캔 신호(Vdscan)에 따라 턴 온하게 된다. 턴 온되는 경우, 입력되는 데이터 신호(Vdata)를 구동 스위칭 소자(SW2)의 게이트 단자 또는 저장 커패시터(Cst)의 일단으로 전달하게 된다.
저장 커패시터(Cst)는, 구동 스위칭 소자(SW2)의 게이트 단자와 소스 단자 사이에 형성되며, 저장 커패시터(Cst)의 일단에 전달되는 데이터 신호 레벨과, 저장 커패시터(Cst)의 타단에 전달되는 직류 전원(VDD) 레벨의 소정 차이를 저장한다.
예를 들어, 데이터 신호가, PAM(Pluse Amplitude Modulation) 방식에 따라 서로 다른 레벨을 갖는 경우, 데이터 신호(Vdata)의 레벨 차이에 따라, 저장 커패시터(Cst)에 저장되는 전원 레벨이 달라지게 된다.
다른 예로, 데이터 신호가 PWM(Pluse Width Modulation) 방식에 따라 서로 다른 펄스폭을 갖는 경우, 데이터 신호(Vdata)의 펄스폭 차이에 따라, 저장 커패시터(Cst)에 저장되는 전원 레벨이 달라지게 된다.
구동 스위칭 소자(SW2)는, 저장 커패시터(Cst)에 저장된 전원 레벨에 따라 턴 온된다. 구동 스위칭 소자(SW2)가 턴 온하는 경우, 저장된 전원 레벨에 비례하는, 구동 전류(IOLED)가 유기발광층(OLED)에 흐르게 된다. 이에 따라, 유기발광층(OLED)은 발광동작을 수행하게 된다.
유기발광층(OLED)은, 서브픽셀에 대응하는 RGBW의 발광층(EML)을 포함하며, 정공주입층(HIL), 정공 수송층(HTL), 전자 수송층(ETL), 전자 주입층(EIL) 중 적어도 하나를 포함할 수 있으며, 그 외에 정공 저지층 등도 포함할 수 있다.
한편, 서브픽셀(sub pixell)은, 유기발광층(OLED)에서 모두 백색의 광을 출력하나, 녹색,적색,청색 서브픽셀의 경우, 색상 구현을 위해, 별도의 컬러필터가 구비된다. 즉, 녹색,적색,청색 서브픽셀의 경우, 각각 녹색,적색,청색 컬러필터를 더 구비한다. 한편, 백색 서브픽셀의 경우, 백색광을 출력하므로, 별도의 컬러필터가 필요 없게 된다.
한편, 도면에서는, 스캔 스위칭 소자(SW1)와 구동 스위칭 소자(SW2)로서, p타입의 MOSFET인 경우를 예시하나, n타입의 MOSFET이거나, 그 외, JFET, IGBT, 또는 SIC 등의 스위칭 소자가 사용되는 것도 가능하다.
한편, 픽셀(Pixel)은, 단위 표시 기간 동안, 구체적으로 단위 프레임 영상 동안, 스캔 신호가 인가된 이후, 유기발광층(OLED)에서 계속 발광하는 홀드 타입의 소자이다.
도 7은 본 발명의 실시예에 따른 제어부의 내부 블록도의 일예이고, 도 8 내지 도 9b는 도 7의 제어부의 동작 설명에 참조되는 도면이다.
먼저, 도 7을 참조하면, 본 발명의 실시예에 따른 영상표시 시스템(5)은, 영상표시장치(100), 서버(600), 셋탑 박스(300)를 구비할 수 있다.
서버(600)는, 학습 영상을 수신하고 이를 저장하는 학습 DB(640)와, 학습 DB(640)로부터의 학습 영상, 및 심층 신경망(Deep Neural Network)을 이용하여, 영상 소스 퀄리티를 연산하는 퀄리티 연산부(670), 학습 DB(640)와 퀄리티 연산부(670)에 기초하여 심층 신경망에 대한 파라미터를 업데이트하는 파라미터 업데이트부(675)를 구비할 수 있다.
파라미터 업데이트부(675)는, 업데이트된 파라미터를 영상표시장치(100) 내의 퀄리티 연산부(632)로 전송할 수 있다.
셋탑 박스(300)는, 영상 제공자가 제공하는 입력 신호를 수신하고, 영상표시장치(100)의 HDMI 단자로 영상 신호를 전송할 수 있다.
영상표시장치(100)는, 외부의 셋탑 박스(300) 또는 네트워크를 통해 영상 신호를 수신하는 영상 수신부(105)와, 영상 수신부(105)에서 수신되는 영상 신호에 대한 신호 처리를 수행하는 제어부(170)와, 제어부(170)에서 처리된 영상을 표시하는 디스플레이(180)를 포함할 수 있다.
한편, 영상표시장치(100)는, 입력 영상의 화질에 따라 최적의 튜닝을 적용할 수 있다.
한편, 영상표시장치(100)는, 실시간으로 입력 영상을 분석하여, 원본 해상도, Noise 수준, 압축 수준, Enhancement 수준을 판별할 수 있다.
한편, 영상표시장치(100)는, 연산된 영상 정보 데이터에 기초하여, 위화감 없이 화질 세팅을 변경할 수 있다.
한편, 제어부(170)는, 외부의 셋탑 박스(300) 또는 네트워크를 통해 수신되는 영상 신호의 원본 퀄리티를 연산하는 퀄리티 연산부(632)와, 연산된 원본 퀄리티에 따라, 영상 신호의 화질을 설정하는 화질 설정부(634)와, 설정된 화질에 따라, 영상 신호의 화질 처리를 수행하는 화질 처리부(635)를 포함할 수 있다.
화질 설정부(634)는, 수신되는 영상 신호의 원본 퀄리티가, 제1 시점에 가변되는 경우, 화질 설정을 제1 설정에서 제2 설정으로 순차적으로 가변하며, 화질 처리부(635)는, 제1 설정에서 제2 설정으로 순차 가변되는 화질 설정에 따라, 화질 처리를 수행한다. 이에 따라, 수신되는 영상 신호의 원본 퀄리티 가변에 따른 화질 변경시 깜박거림을 저감할 수 있게 된다. 특히, 영상 신호의 원본 퀄리티 가변시 급격한 화질 변경이 수행되지 않으므로, 부드러운 화질 변경이 가능하게 된다.
한편, 화질 설정부(634)는, 영상 재생 중에, 수신되는 영상 신호의 원본 퀄리티가, 제1 시점에 가변되는 경우, 화질 설정을 제1 설정에서 제2 설정으로 순차적으로 가변할 수 있다. 이에 따라, 수신되는 영상 신호의 원본 퀄리티의 가변시 실시간으로 화질 설정을 변경할 수 있게 된다. 특히, 영상 신호의 원본 퀄리티 가변시 급격한 화질 변경이 수행되지 않으므로, 부드러운 화질 변경이 가능하게 된다.
한편, 화질 설정부(634)는, 셋탑 박스(300)로부터 영상 신호가 수신되는 상태에서, 채널 변경 또는 입력 변경에 따라, 수신되는 영상 신호의 원본 퀄리티가, 제1 시점에 가변되는 경우, 화질 설정을 제1 설정에서 제2 설정으로 순차적으로 가변할 수 있다. 이에 따라, 수신되는 영상 신호의 원본 퀄리티 가변에 따른 화질 변경시 깜박거림을 저감할 수 있게 된다. 특히, 영상 신호의 원본 퀄리티 가변시 급격한 화질 변경이 수행되지 않으므로, 부드러운 화질 변경이 가능하게 된다.
퀄리티 연산부(632)는, 입력 영상을 UHD (3840x2160 이상), FHD (1920x1080), HD (1280x720), SD ( 720x480 이하) 등으로 분류할 수 있다.
퀄리티 연산부(632)는, 입력 영상에 대해, 각각의 해상도별 확률을 구하고, 최종 예측한 확률이 가장 높은 해상도를 최종 해상도로 선정하며, 최종 예측 확률이 너무 낮은 경우는 판단에서 제외한다.
퀄리티 연산부(632)는, 해상도 이외에도 Noise 수준 및 압축 수준을 예상할 수 있다.
한편, 퀄리티 연산부(632)는, 압축 수준 연산시, 원본 상태를 기준으로 압축 bit-rate를 낮추어 가면서 취득한 학습 DATA를 기반으로 하여 압축 수준을 판단할 수 있다.
예를 들어, 퀄리티 연산부(632)는, FHD의 경우 현재 Digital TV 방송 표준을 1.0 수준으로 평가하고, 압축을 많이 하여 DATA가 소실 될 수록 0.0인 것으로 연산할 수 있다.
한편, 퀄리티 연산부(632)는, 입력 영상 내의 Flicker의 수준을 측정하여, Noise 수준을 연산할 수 있다.
예를 들어, 퀄리티 연산부(632)는, 입력 영상 내의 노이즈 수준을, 강,중,약,노이즈없음의 4단계로 연산할 수 있다.
한편, 퀄리티 연산부(632)는, 심층 신경망(Deep Neural Network)을 이용하여, 수신되는 영상 신호의 해상도와, 노이즈 수준을 연산할 수 있다. 이에 따라, 수신되는 영상 신호의 원본 퀄리티 연산을 정확하게 수행할 수 있게 된다.
한편, 퀄리티 연산부(632)는, 서버(600)로부터 심층 신경망에 대한 파라미터를 업데이트하고, 업데이트된 파라미터에 기초하여, 수신되는 영상 신호의 해상도와, 노이즈 수준을 연산할 수 있다. 이에 따라, 학습 기반하에 영상 신호의 원본 퀄리티 연산을 정확하게 수행할 수 있게 된다.
한편, 퀄리티 연산부(632)는, 영상 신호의 제1 영역 및 제2 영역을 추출하고, 제1 영역에 기초하여, 영상 신호의 원본의 해상도를 연산하며, 제2 영역에 기초하여, 영상 신호의 노이즈 수준을 연산할 수 있다. 이에 따라, 퀄리티 연산에 적합한 영상 추출에 기초하여, 영상 신호의 원본 퀄리티 연산을 정확하게 수행할 수 있게 된다.
한편, 퀄리티 연산부(632)는, 영상 신호 내에 에지 성분이 가장 많은 영역을 제1 영역으로 추출하고, 영상 신호 내에 에지 성분이 가장 적은 영역을 제2 영역으로 추출할 수 있다. 이에 따라, 퀄리티 연산에 적합한 영상 추출에 기초하여, 영상 신호의 원본 퀄리티 연산을 정확하게 수행할 수 있게 된다.
한편, 화질 처리부(635)는, 연산된 노이즈 수준이 높을수록, 영상 신호의 노이즈 리덕션 처리 강도가 커지도록 제어할 수 있다. 이에 따라, 수신되는 영상 신호의 노이즈 수준에 적합한 화질 처리를 수행할 수 있게 된다.
한편, 퀄리티 연산부(632)는, 수신되는 영상 신호의 원본의 해상도, 노이즈 수준 및 압축 수준을 연산하며, 압축 비트 레이트를 낮추어 가면서 취득한 학습 데이터에 기초하여, 압축 수준을 연산할 수 있다.
한편, 화질 처리부(635)는, 연산된 압축 수준이 높을수록, 영상 신호의 인핸스 처리 강도가 작아지도록 제어할 수 있다. 이에 따라, 압축 수준 연산을 정확하게 수행할 수 있게 된다.
한편, 화질 처리부(635)는, 영상 신호의 원본의 해상도가 커질수록, 영상 신호의 인핸스 처리 강도가 커지도록 제어할 수 있다. 이에 따라, 수신되는 영상 신호의 원본의 해상도에 적합한 화질 처리를 수행할 수 있게 된다.
한편, 화질 처리부(635)는, 연산된 압축 수준이 높을수록, 영상 신호의 블러 처리 강도가 커지도록 제어할 수 있다. 이에 따라, 수신되는 영상 신호의 압축 수준에 적합한 화질 처리를 수행할 수 있게 된다.
한편, 화질 처리부(635)는, 영상 신호의 원본의 해상도가 커질수록 영산 신호의 필터링을 위한 필터의 사이즈가 작아지도록 제어할 수 있다. 이에 따라, 수신되는 영상 신호의 원본의 해상도에 적합한 화질 처리를 수행할 수 있게 된다.
한편, 화질 처리부(635)는, 영상 신호의 원본의 해상도에 따라, 영상 신호를 다운 스케일링 한 이후, 다운 스케일링된 영상 신호에 대해 화질 처리를 수행하고, 화질 처리 수행된 영상 신호를 업 스케일링하고, 업 스케일링된 영상 신호를 출력할 수 있다. 이에 따라, 수신되는 영상 신호의 원본의 해상도에 적합한 화질 처리를 수행할 수 있게 된다
도 8은 도 7의 제어부(170)의 내부 블록도의 일예이다.
한편, 도 8의 제어부(170)는, 도 3의 제어부(170)에 대응할 수 있다.
먼저, 도 8을 참조하면, 본 발명의 실시예에 따른 제어부(170)는, 영상 분석부(610), 및 화질 처리부(635)를 구비할 수 있다.
영상 분석부(610)는, 도 7의 퀄리티 연산부(632)와, 화질 세팅부(634)를 구비할 수 있다.
영상 분석부(610)는, 입력 영상 신호를 분석하고, 분석된 입력 영상 신호와 관련된 정보를 출력할 수 있다.
한편, 영상 분석부(610)는, 입력되는 제1 입력 영상 신호의 오브젝트 영역과 배경 영역을 구분할 수 있다. 또는, 영상 분석부(610)는, 입력되는 제1 입력 영상 신호의 오브젝트 영역과 배경 영역의 확률 또는 비율을 연산할 수 있다.
입력 영상 신호는, 영상 수신부(105)로부터의 입력 영상 신호이거나, 도 4의 영상 디코더(320)에서 복호화된 영상일 수 있다.
특히, 영상 분석부(610)는, 인공 지능(artificial intelligence;AI)을 이용하여, 입력 영상 신호를 분석하고, 분석된 입력 영상 신호 정보를 출력할 수 있다.
구체적으로, 영상 분석부(610)는, 입력 영상 신호의 해상도, 계조(resolution), 잡음 수준, 패턴 여부 등을 분석하고, 분석된 입력 영상 신호와 관련된 정보, 특히 화질 설정 정보를, 화질 처리부(635)로 출력할 수 있다.
화질 처리부(635)는, HDR 처리부(705), 제1 리덕션부(710), 인핸스부(750), 제2 리덕션부(790)를 구비할 수 있다.
HDR 처리부(705)는, 영상 신호를 입력받고, 입력되는 영상 신호에 대해, 하이 다이내믹 레인지(HDR) 처리를 할 수 있다.
예를 들어, HDR 처리부(705)는, 스탠다드 다이내믹 레인지(Standard Dynamic Range; SDR) 영상 신호를 HDR 영상 신호로 변환할 수 있다.
다른 예로, HDR 처리부(705)는, 영상 신호를 입력받고, 입력되는 영상 신호에 대해, 하이 다이내믹 레인지를 위한, 계조 처리를 할 수 있다.
한편, HDR 처리부(705)는, 입력되는 영상 신호가 SDR 영상 신호인 경우, 계조 변환을 바이패스하고, 입력되는 영상 신호가 HDR 영상 신호인 경우, 계조 변환을 수행할 수 있다. 이에 따라, 입력 영상에 대해, 고계조 표현력을 증대시킬 수 있게 된다.
한편, HDR 처리부(705)는, 저계조와 고계조 중 저계조를 강조하고 고계조가 포화되도록 하는 제1 계조 변환 모드, 또는 저계조와 고계조 전반에 대해 다소 균일하게 변환되도록 하는 제2 계조 변환 모드에 기초하여, 계조 변환 처리를 할 수 있다.
구체적으로, HDR 처리부(705)는, 제1 계조 변환 모드가 수행되는 경우, 룩업 테이블 내의 제1 계조 변환 모드에 대응하는 데이터에 기초하여, 계조 변환 처리를 할 수 있다.
더 구체적으로, HDR 처리부(705)는, 제1 계조 변환 모드가 수행되는 경우, 입력 데이터에 관한 연산식, 및 상기 연산식에 따라 결정되는 룩업 테이블 내의 제1 계조 변환 모드에 대응하는 데이터에 기초하여, 계조 변환 처리를 할 수 있다. 여기서 입력 데이터는, 비디오 데이터와 메타 데이터를 포함할 수 있다.
한편, HDR 처리부(705)는, 제2 계조 변환 모드가 수행되는 경우, 룩업 테이블 내의 제2 계조 변환 모드에 대응하는 데이터에 기초하여, 계조 변환 처리를 할 수 있다.
더 구체적으로, HDR 처리부(705)는, 제2 계조 변환 모드가 수행되는 경우, 입력 데이터에 관한 연산식, 및 상기 연산식에 따라 결정되는 룩업 테이블 내의 제2 계조 변환 모드에 대응하는 데이터에 기초하여, 계조 변환 처리를 할 수 있다. 여기서 입력 데이터는, 비디오 데이터와 메타 데이터를 포함할 수 있다.
한편, HDR 처리부(705)는, 제2 리덕션부(790) 내의 고계조 증폭부(851)에서의 제3 계조 변환 모드 또는 제4 계조 변환 모드에 따라, 제1 계조 변환 모드, 또는 제2 계조 변환 모드를 선택할 수도 있다.
예를 들어, 제2 리덕션부(790) 내의 고계조 증폭부(851)는, 제3 계조 변환 모드가 수행되는 경우, 룩업 테이블 내의 제3 계조 변환 모드에 대응하는 데이터에 기초하여, 계조 변환 처리를 할 수 있다.
구체적으로, 제2 리덕션부(790) 내의 고계조 증폭부(851)는, 제3 계조 변환 모드가 수행되는 경우, 입력 데이터에 관한 연산식, 및 상기 연산식에 따라 결정되는 룩업 테이블 내의 제3 계조 변환 모드에 대응하는 데이터에 기초하여, 계조 변환 처리를 할 수 있다. 여기서 입력 데이터는, 비디오 데이터와 메타 데이터를 포함할 수 있다.
한편, 제2 리덕션부(790) 내의 고계조 증폭부(851)는, 제4 계조 변환 모드가 수행되는 경우, 룩업 테이블 내의 제4 계조 변환 모드에 대응하는 데이터에 기초하여, 계조 변환 처리를 할 수 있다.
구체적으로, 제2 리덕션부(790) 내의 고계조 증폭부(851)는, 제4 계조 변환 모드가 수행되는 경우, 입력 데이터에 관한 연산식, 및 상기 연산식에 따라 결정되는 룩업 테이블 내의 제4 계조 변환 모드에 대응하는 데이터에 기초하여, 계조 변환 처리를 할 수 있다. 여기서 입력 데이터는, 비디오 데이터와 메타 데이터를 포함할 수 있다.
예를 들어, HDR 처리부(705)는, 제2 리덕션부(790) 내의 고계조 증폭부(851)에서, 제4 계조 변환 모드가 수행되는 경우, 제2 계조 변환 모드를 수행할 수 있다.
다른 예로, HDR 처리부(705)는, 제2 리덕션부(790) 내의 고계조 증폭부(851)에서, 제3 계조 변환 모드가 수행되는 경우, 제1 계조 변환 모드를 수행할 수 있다.
또는, 제2 리덕션부(790) 내의 고계조 증폭부(851)는, HDR 처리부(705)에서의 계조 변환 모드에 따라, 수행되는 계조 변환 모드를 가변할 수도 있다.
예를 들어, 제2 리덕션부(790) 내의 고계조 증폭부(851)는, HDR 처리부(705)에서 제2 계조 변환 모드가 수행되는 경우, 제4 계조 변환 모드를 수행할 수 있다.
다른 예로, 제2 리덕션부(790) 내의 고계조 증폭부(851)는, HDR 처리부(705)에서 제1 계조 변환 모드가 수행되는 경우, 제3 계조 변환 모드를 수행할 수 있다.
한편, 본 발명의 일 실시예에 따른 HDR 처리부(705)는, 저계조와 고계조가 균일하게 변환되도록 계조 변환 모드를 수행할 수 있다.
한편, 제2 리덕션부(790)는, HDR 처리부(705)에서의, 제2 계조 변환 모드에 따라, 제4 계조 변환 모드를 수행하며, 이에 입력되는 영상 신호의 계조의 상한 레벨을 증폭할 수 있다. 이에 따라, 입력 영상에 대해, 고계조 표현력을 증대시킬 수 있게 된다.
다음, 제1 리덕션부(reduction unit))(710)는, 입력 영상 신호 또는 HDR 처리부(705)에서 처리된 영상 신호에 대해, 노이즈 제거를 수행할 수 있다.
구체적으로, 제1 리덕션부(reduction unit))(710)는, 입력 영상 신호 또는 HDR 처리부(705)로부터의 HDR 영상에 대해, 상기 다단계 노이즈 제거 처리, 및 제1 단계 계조 확장 처리를 할 수 있다.
이를 위해, 제1 리덕션부(710)는, 다단계로 노이즈 제거를 위한 복수의 노이즈 제거부(715,720)와, 계조 확장을 위한 계조 확장부(725)를 구비할 수 있다.
다음, 인핸스부(enhancement unit)(750)는, 제1 리덕션부(710)로부터의 영상에 대해, 다단계 영상 해상도 향상 처리를 할 수 있다.
또한, 인핸스부(750)는, 오브젝트 입체감 향상 처리를 할 수 있다. 또한, 인핸스부(750)는, 컬러 또는 컨트라스트 향상 처리를 할 수 있다.
이를 위해, 인핸스부(750)는, 다단계로 영상 해상도 향상을 위한 복수의 해상도 향상부(735,738,742), 오브젝트의 입체감 향상을 위한 오브젝트 입체감 향상부(745), 컬러 또는 컨트라스트 향상을 위한 컬러 컨트라스트 향상부(749)를 구비할 수 있다.
다음, 제2 리덕션부(790)는, 제1 리덕션부(710)로부터 입력된 노이즈 제거된 영상 신호에 기초하여, 제2 단계 계조 확장 처리를 수행할 수 있다.
한편, 제2 리덕션부(790)는, 입력되는 신호의 계조의 상한 레벨을 증폭하고, 입력 신호의 도계조의 해상를 확장할 수 있다. 이에 따라, 입력 영상에 대해, 고계조 표현력을 증대시킬 수 있게 된다.
예를 들어, 입력되는 신호의 전 계조 영역에 대해 균일하게 계조 확장을 수행할 수 있다. 이에 따라, 입력 영상의 영역에 대해 균일한 계조 확장이 수행되면서, 고계조 표현력을 증대시킬 수 있게 된다.
한편, 제2 리덕션부(790)는, 제1 계조 확장부(725)로부터의 입력 신호에 기초하여, 계조 증폭 및 확장을 수행할 수 있다. 이에 따라, 입력 영상에 대해, 고계조 표현력을 증대시킬 수 있게 된다.
한편, 제2 리덕션부(790)는, 사용자 입력 신호에 기초하여, 입력되는 영상 신호가 SDR 영상 신호인 경우, 증폭의 정도를 가변할 수 있다. 이에 따라, 사용자 설정에 대응하여, 고계조 표현력을 증대시킬 수 있게 된다.
한편, 제2 리덕션부(790)는, 입력되는 영상 신호가 HDR 영상 신호인 경우, 설정된 값에 따라, 증폭을 수행할 수 있다. 이에 따라, 입력 영상에 대해, 고계조 표현력을 증대시킬 수 있게 된다.
한편, 제2 리덕션부(790)는, 사용자 입력 신호에 기초하여, 입력되는 영상 신호가 HDR 영상 신호인 경우, 증폭의 정도를 가변할 수 있다. 이에 따라, 사용자 설정에 대응하여, 고계조 표현력을 증대시킬 수 있게 된다.
한편, 제2 리덕션부(790)는, 사용자 입력 신호에 기초하여, 계조 확장시, 계조 확장의 정도를 가변할 수 있다. 이에 따라, 사용자 설정에 대응하여, 고계조 표현력을 증대시킬 수 있게 된다.
한편, 제2 리덕션부(790)는, HDR 처리부(705)에서의, 계조 변환 모드에 따라, 계조의 상한 레벨을 증폭시킬 수 있다. 이에 따라, 입력 영상에 대해, 고계조 표현력을 증대시킬 수 있게 된다.
제어부(170)는, 영상 신호를 입력받고, 입력되는 영상 신호의 휘도를 조절하는 HDR 처리부(705)와, HDR 처리부(705)로부터의 영상 신호의 휘도를 증폭하고, 영상 신호의 계조 해상도를 증가시켜, 인핸스드(enhanced) 영상 신호를 생성하는 리덕션부(790)를 포함하고, 앤핸스드 영상 신호는, 표시되는 HDR 이미지 내의 하이다이나믹 레인지를 유지하는 동안, 영상 신호의 증가된 휘도와 계조 해상도를 제공한다.
한편, 영상 신호의 휘도 범위는, 제어부(170)에 수신되는 제어 신호에 따라 조절된다.
한편, 입력되는 영상 신호가 HDR 신호인지 SDR 신호인지 여부를 결정하고, HDR 처리부(705)로 제공하기 위한 제어 신호를 생성하는 영상 분석부를 더 포함하고, 제어 신호가, 입력되는 영상 신호가 HDR 신호인 것을 나타내는 경우에만 조절된다.
한편, 제어 신호는, 신호 처리와 연관된 영상 표시 장치의 제어부로부터 수신되고, 영상 표시 장치의 설정에 대응한다.
한편, 계조의 해상도는, 영상 신호의 조정된 휘도의 증폭에 기초하여 증가된다.
한편, 계조의 해상도는, 제어부(170)에 입력되는 제어 신호에 기초하여 증가된다.
한편, 제어 신호는, 신호 처리와 연관된 영상 표시 장치의 제어부로부터 수신되고, 영상 표시 장치의 설정에 대응한다.
한편, 리덕션부(790)는, 입력되는 신호의 계조의 상한 레벨을 증폭하는 고계조 증폭부(851)와, 고계조 증폭부(851)로부터의 증폭된 계조의 해상도를 확장하는 디컨투어부(842,844)를 포함할 수 있다.
제2 리덕션부(790)는, 제2 단계 계조 확장을 위한 제2 계조 확장부(729)를 구비할 수 있다.
한편, 본 발명의 제어부(170) 내의 화질 처리부(635)는, 도 8과 같이, 4단계의 리덕션 처리와, 4단계의 영상 향상 처리를 수행하는 것을 특징으로 한다.
여기서, 4단계 리덕션 처리는, 2단계의 노이즈 제거 처리와, 2단계의 계조 확장 처리를 포함할 수 있다.
여기서, 2단계의 노이즈 제거 처리는, 제1 리덕션부(710) 내의 제1 및 제2 노이즈 제거부(715,720)가 수행하며, 2단계의 계조 확장 처리는, 제1 리덕션부(710) 내의 제1 계조 확장부(725)와, 제2 리덕션부(790) 내의 제2 계조 확장부(729)가 수행할 수 있다.
한편, 4단계 영상 향상 처리는, 3단계의 영상 해상도 향상 처리(bit resolution enhancement)와, 오브젝트 입체감 향상 처리를 구비할 수 있다.
여기서, 3단계의 영상 해상도 향상 처리는, 제1 내지 제3 해상도 향상부(735,738,742)가 처리하며, 오브젝트 입체감 향상 처리는, 오브젝트 입체감 향상부(745)가 처리할 수 있다.
한편, 본 발명의 제어부(170)는, 다단계 화질 처리로서 동일 또는 유사한 알고리즘을 다중 적용하여 점진적으로 화질을 향상시킬 수 있다.
이를 위해, 본 발명의 제어부(170) 내의 화질 처리부(635)는, 동일 또는 유사 알고리즘을 2회 이상 적용하여, 화질 처리를 진행할 수 있다.
한편, 화질 처리부(635)에서 수행되는 동일 또는 유사 알고리즘은, 각 단계별로 달성하고자 하는 목표가 다르며, 점진적으로 다단계 화질 처리를 수행함으로써, 1 단계에 모든 화질을 처리하는 것 대비하여, 영상의 아티팩트(Artifact)가 적게 발생하는 장점이 있으며, 보다 자연스럽고 보다 선명한 영상 처리 결과물을 얻을 수 있다는 장점이 있다.
한편, 동일 또는 유사 알고리즘을, 다른 화질처리 알고리즘과 교차하면서 다중으로 적용함으로써, 단순 연속 처리 이상의 효과를 얻을 수 있게 된다.
한편, 본 발명의 제어부(170)는, 다단계로 노이즈 제거 처리를 수행할 수 있다. 각 단계의 노이즈 제거 처리는, 시간(Temporal) 처리와, 공간(Spatial) 처리를 포함할 수 있다.
한편, 영상 신호의 원본 퀄리티를 연산하기 위해, 본 발명에서는, 인공지능과 같은 최신의 기술을 사용한다. 이를 위해, 심층 신경망(Deep Neural Network)을 이용할 수 있다.
퀄리티 연산부(632)는, 심층 신경망(Deep Neural Network)을 이용하여, 수신되는 영상 신호의 해상도와, 노이즈 수준을 연산한다.
퀄리티 연산부(632) 또는 퀄리티 연산부(670)는, 원본 해상도 및 압축 수준 별 학습 영상을 취득하여 정확도가 향상되도록 Network를 학습시킬 수 있다.
학습에 사용한 영상은 일상의 방송에서 접할 수 있는 일반적인 영상으로 다양한 영상으로 구비되어 전체 입력 환경을 커버할 수 있다.
한편, 퀄리티 연산부(632)는, 검출시 필요한 시간 또는 비용 감축을 목적으로 계층수가 적은 Convolutional Neural Network, Mobile-Net 등을 활용하여 학습을 진행할 수 있다.
예를 들어, 퀄리티 연산부(632)는, 전체 영상 중 일부 영역(예: 224x224, 128x128, 64x64)만을 분석할 수 있다.
한편, 퀄리티 연산부(632)는, 검출 목적에 맞는 적절한 검출 영역을 선택할 수 있다.
예를 들어, 퀄리티 연산부(632)는, 원본 해상도 검출시, Edge 성분이 가장 많은 제1 영역을 선택하고, 노이즈 검출시, Edge 성분이 가장 적은 제2 영역을 선택할 수 있다.
특히, 퀄리티 연산부(632)는, 처리 속도 향상을 목적으로 검출 영역을 빠르게 선정하는 알고리즘 적용할 수 있다.
예를 들어, 퀄리티 연산부(632)는, 검출 정확도 향상을 목적으로 검출 영역에, FFT(Fast Fourier Transform)과 같은 전처리 작업을 수행할 수 있다.
도 9a는 Convolutional Neural Network에 기반한 연산을 도시하는 도면이다.
도면을 참조하면, 획득된 이미지(1010) 내의 일부 영역(1015)에 대해, 컨벌루션 뉴럴 네트워크(convolutional Neural Network)를 사용한다.
컨벌루션 뉴럴 네트워크는, 컨벌루션 네트워크(Convolution network)와, 디컨벌루션 네트워크(Deconvolution network)가 수행될 수 있다.
이러한 컨벌루션 뉴럴 네트워크에 의하면, 컨벌루션(convolution), 풀링(pooling)이 반복적으로 수행된다.
한편, 도 9a의 CNN 기법에 의하면, 일부 영역(1015) 내의 픽셀(pixel)의 종류를 판단하기 위해, 영역(1015)의 정보가 사용될 수 있다.
도 9b는 Mobile-Net에 기반한 연산을 도시하는 도면이다.
도면과 같은 방식에 의해, 퀄리티 연산이 수행되게 된다.
한편, 본 발명의 제어부(170)는, 원본 Quality 가 변함에 따라 실시간으로 Quality에 상응하는 화질 세팅이 적용되도록 한다.
특히, 제어부(170)는, 화질 세팅 변경시, 채널 변경 또는 입력 변경 등의 조건없이 영상 재생 중에 세팅이 변경되도록 한다.
여기서 실시간이라 하는 것은 IIR 방식 , Step 이동 방식을 포함한 Temporal 처리 기술을 사용하는 것을 의미한다.
도 10a 내지 도 10b는 비디오 월(10)에서의 픽셀 시프트 설명에 참조되는 도면이다.
먼저, 도 10a를 참조하면, 비디오 월(10)에 표시하기 위한 입력 영상(Imgor)은, 영상 분배부(160)에 의해 분배된다.
도면과 같이, 비디오 월(10)이 2*2의 영상표시장치(100a~100d)를 구비하는 경우, 영상 분배부(160)에서, 2*2의 4개의 영역으로 분리한다.
한편, 유기발광패널을 구비하는 영상표시장치(100a~100d)의 경우, 번인에 의한 잔상 방지를 위해, 정지 영상의 경우, 픽셀 시프트 방식을 사용한다.
그러나, 비디오 월(10)에서 픽셀 시프트를 사용하는 경우, 영상표시장치(100a~100d) 간에 픽셀 시프트가 일치하지 않아, 도 10a와 같이 영상이 틀어진 영역(Ara,Arb)이 발생할 수 있다.
한편, 비디오 월(10)에서 픽셀 시프트를 사용하는 경우, 영상표시장치(100a~100d) 간에 픽셀 시프트가 일치하지 않아, 도 10b와 같이, 블랙 영역(black area) 또는 블랙 바(balck bar)가 중앙 부분(Arc)에 발생하게 된다.
이에 따라, 본 발명에서는, 유기발광패널을 구비하는 영상표시장치(100a~100d)에서, 픽셀 시프트 방식을 사용하면서, 영상 틀어짐 또는 블랙 영역의 발생이 저감될 수 있는 방안을 제시한다.
아울러, 본 발명에서는, 정지 영상에만 적용되던 픽셀 시프트 방식을, 반복되는 동영상에도 적용하여, 반복되는 동영상에 의해 발생할 수 있는 번인에 의한 잔상 방지 저감 및 영상 틀어짐 또는 블랙 영역의 발생이 저감될 수 있는 방안을 제시한다. 이에 대해서는, 도 11 이하를 참조하여 기술한다.
도 11은 본 발명의 일 실시예에 따른 비디오 월의 동작방법을 나타내는 순서도이고, 도 12a 내지 도 19는 도 11의 동작 설명에 참조되는 도면이다.
먼저, 도 11을 참조하면, 비디오 월(10) 내의 복수의 영상표시장치(100a~100d)는, 입력되는 동영상을 복수의 디스플레이(180a~180d)에 표시할 수 있다(S1110).
이를 위해, 영상 분배부(160)가, 입력 동영상을 분배하여, 분배된 복수의 동영상을 각 영상표시장치(100a~100d)로 전송할 수 있다.
다음, 제1 영상표시장치(100a) 내의 제1 제어부(170a)는, 표시되는 동영상이 반복되어 재생되는 지 여부를 판단한다(S1120).
제1 영상표시장치(100a) 내의 제1 제어부(170a)는, 표시되는 동영상이 반복되어 재생되는 경우, 각 디스플레이(180a~180d)에 표시되는 영상의 경계 영상을 저장하도록 저장하고, 저장된 경계 영상을 인접하는 영상표시장치(100a~100d)로 전송하도록 제어할 수 있다(S11300
한편, 각 영상표시장치(100a~100d)는, 픽셀 시프트 정보를 인접하는 영상표시장치(100a~100d)로 전송할 수 있다(S1135).
이에 따라, 각 영상표시장치(100a~100d)는, 픽셀 시프트 정보와, 수신되는 경계 영상과, 입력되어 표시할 영상인 입력 영상에 기초하여, 합성 영상을 생성하고, 합성 영상의 일부 영역을 선택하여 선택된 영상을 표시할 수 있다(S1140).
한편, 복수의 영상표시장치(100a~100d)에 표시되는 동영상이 반복 재생되는 경우, 각 영상표시장치(100a~100d)는, 복수의 영상표시장치(100a~100d)에 표시되는 경계 영역을 저장하며, 인접하는 영상표시장치(100a~100d)로 저장된 경계 영역을 전송할 수 있다.
이에, 각 영상표시장치(100a~100d)는, 수신되는 경계 영역과 표시할 영상 영역을 합성하고, 합성된 영상 중 일부 영역을 표시할 수 있다. 이에 따라, 비디오 월(10)에서 잔상을 저감하면서 블랙 영역 발생을 저감할 수 있게 된다. 특히, 동영상이 반복되어 표시되는 비디오 월(10)에서 잔상을 저감하면서 블랙 영역 발생을 저감할 수 있게 된다.
예를 들어, 복수의 영상표시장치(100a~100d) 중 제1 영상표시장치(100a)의 제어부(170a)는, 복수의 영상표시장치(100a~100d)에 표시되는 동영상이 반복 재생되는 지 여부를 판단하고, 해당하는 경우, 경계 영역 저장 및 합성 영상 생성이 수행되도록 제어할 수 있다. 이에 따라, 동영상이 반복되어 표시되는 비디오 월(10)에서 잔상을 저감하면서 블랙 영역 발생을 저감할 수 있게 된다.
한편, 복수의 영상표시장치(100a~100d) 중 제1 영상표시장치(100a)의 제어부(170a)는, 복수의 영상표시장치(100a~100d)에 표시되는 동영상이 반복 재생되는 동안, 픽셀 시프트가 수행되는 경우, 픽셀 시프트 방향 정보가 복수의 영상표시장치(100a~100d)로 전송되도록 제어할 수 있다. 이에 따라, 동영상이 반복되어 표시되는 비디오 월(10)에서 잔상을 저감하면서 블랙 영역 발생을 저감할 수 있게 된다.
한편, 복수의 영상표시장치(100a~100d) 중 제1 영상표시장치(100a)의 제어부(170a)는, 복수의 영상표시장치(100a~100d)에 표시되는 동영상이 반복 재생되는 동안, 픽셀 시프트가 복수의 영상표시장치(100a~100d)에서 공통으로 수행되도록 제어할 수 있다. 이에 따라, 동영상이 반복되어 표시되는 비디오 월(10)에서 잔상을 저감하면서 블랙 영역 발생을 저감할 수 있게 된다.
한편, 복수의 영상표시장치(100a~100d)에 표시되는 동영상이 반복 재생되는 동안, 제1 시점에 제1 방향 시프트가 수행되는 경우, 복수의 영상표시장치(100a~100d) 중 제1 영상표시장치(100a)는, 제1 방향에 인접하여 배치되는 제2 영상표시장치(100b)로, 제1 영상표시장치(100a)에 표시된 제1 방향의 제1 경계 영역을 전송할 수 있다.
이에 대응하여, 제2 영상표시장치(100b)는, 입력되는 영상과 제1 경계 영역을 합성하여, 합성된 영상을 생성하며, 합성된 영상 중 제1 방향의 경계 영역을 제외한 영상을 표시할 수 있다. 이에 따라, 비디오 월(10)에서 잔상을 저감하면서 블랙 영역 발생을 저감할 수 있게 된다.
한편, 복수의 영상표시장치(100a~100d)에 표시되는 동영상이 반복 재생되는 동안, 제1 시점 이후의 제2 시점에 제2 방향 시프트가 수행되는 경우, 제1 영상표시장치(100a)는, 제2 방향에 인접하여 배치되는 제3 영상표시장치(100c)로, 제1 영상표시장치(100a)에 표시된 제2 방향의 제2 경계 영역을 전송할 수 있다.
이에 대응하여, 제3 영상표시장치(100c)는, 입력되는 영상과 제3 경계 영역을 합성하여, 합성된 영상을 생성하며, 합성된 영상 중 제3 방향의 경계 영역을 제외한 영상을 표시할 수 있다. 이에 따라, 동영상이 반복되어 표시되는 비디오 월(10)에서 잔상을 저감하면서 블랙 영역 발생을 저감할 수 있게 된다.
한편, 복수의 영상표시장치(100a~100d)에 표시되는 동영상이 반복 재생되는 동안, 복수의 영상표시장치(100a~100d) 각각은 서로 다른 픽셀 시프트를 수행하며, 복수의 영상표시장치(100a~100d) 각각은, 인접하는 영상표시장치(100a~100d)의 경계 영역과, 입력되는 영상에 기초하여 합성 영역을 생성하며, 합성된 영역에서, 픽셀 시프트 방향의 경계 영역을 제외한 영상을 표시할 수 있다. 이에 따라, 동영상이 반복되어 표시되는 비디오 월(10)에서 잔상을 저감하면서 블랙 영역 발생을 저감할 수 있게 된다.
한편, 복수의 영상표시장치(100a~100d) 중 제1 영상표시장치(100a)의 제1 방향에 제2 영상표시장치(100b)가 배치되고, 제2 방향에 제3 영상표시장치(100c)가 배치된 상태에서, 복수의 영상표시장치(100a~100d)에 표시되는 동영상이 반복 재생되는 동안, 제1 시점에, 제2 영상표시장치(100b)에서 제1 방향 시프트가 수행되고, 제3 영상표시장치(100c)에서 제3 방향 시프트가 수행될 수 있다.
이러한 경우, 제2 영상표시장치(100b)는, 입력되는 영상과 제1 영상표시장치(100a)에서 표시된 제1 방향의 제1 경계 영역을 합성하여, 합성된 영상을 생성하며, 합성된 영상 중 제1 방향의 경계 영역을 제외한 영상을 표시할 수 있다.
이에 대응하여, 제3 영상표시장치(100c)는, 입력되는 영상과 제1 영상표시장치(100a)에서 표시된 제2 방향의 제2 경계 영역을 합성하여, 합성된 영상을 생성하며, 합성된 영상 중 제2 방향의 경계 영역을 제외한 영상을 표시할 수 있다. 이에 따라, 동영상이 반복되어 표시되는 비디오 월(10)에서 잔상을 저감하면서 블랙 영역 발생을 저감할 수 있게 된다.
한편, 복수의 영상표시장치(100a~100d)에 표시되는 동영상이 반복 재생되는 동안, 장면 전환시 마다 픽셀 시프트 이동량이 가변될 수 있다. 이에 따라, 동영상이 반복되어 표시되는 비디오 월(10)에서 잔상을 저감하면서 블랙 영역 발생을 저감할 수 있게 된다.
한편, 장면 전환시 마다 픽셀 시프트 이동량 가변에 따라, 경계 영역의 사이즈가 가변되어, 전송될 수 있다. 이에 따라, 동영상이 반복되어 표시되는 비디오 월(10)에서 잔상을 저감하면서 블랙 영역 발생을 저감할 수 있게 된다.
한편, 복수의 영상표시장치(100a~100d)에 표시되는 동영상이 반복 재생되는 동안, 순차적으로, 경계 영역의 이미지가 인접하는 영상표시장치(100a~100d)로 전송될 수 있다. 이에 따라, 동영상이 반복되어 표시되는 비디오 월(10)에서 잔상을 저감하면서 블랙 영역 발생을 저감할 수 있게 된다.
한편, 복수의 영상표시장치(100a~100d)에 표시되는 동영상이 반복 재생되는 경우, 복수의 영상표시장치(100a~100d) 중 제1 영상표시장치(100a)에 입력되는 제1 영상 내의 제1 경계 영상과, 제1 영상표시장치(100a)에 인접한 제2 영상표시장치(100b)에 입력되는 제2 영상을, 합성하여, 합성된 영상 중 일부 영역을 제2 영상표시장치(100b)에 표시할 수 있다. 이에 따라, 비디오 월(10)에서 잔상을 저감하면서 블랙 영역 발생을 저감할 수 있게 된다. 특히, 동영상이 반복되어 표시되는 비디오 월(10)에서 잔상을 저감하면서 블랙 영역 발생을 저감할 수 있게 된다.
한편, 복수의 영상표시장치(100a~100d) 중 적어도 하나의 제어부는, 반복 재생되는 동영상인 경우, 각 입력되는 프레임의 고유값을 추출하여 이를 비교하여 현재 입력되는 프레임의 반복 여부 및 반복되는 위치를 판단할 수 있다.
한편, 비디오 월(10)에 인가되는 영상은, 비디오 월(10) 전체에 각각의 분리된 영상을 입력하여 프레임이 반복되는 특성과 프레임이 반복되는 위치가 동일하다.
이와 같은 특성을 이용하여, 반복되는 프레임의 경계 이미지를 저장해서 인접하는 영상표시장치에 전달함으로써, 해당하는 반복 위치에 동시 출력이 가능하므로, 하나의 시스템에서 영상을 시프트(Shift) 하는 것과 동일한 효과를 만들어 낼 수 있다.
도 12a는 동영상이 반복 재생 되는 경우를 예시하는 도면이다.
도면에서는, 제1 컨텐츠(CTa), 제2 컨텐츠(CTb), 제3 컨텐츠(CTc)가 순차적으로 재생되며, 반복되는 것을 예시힌다.
동영상 반복의 판단의 경우, 도 12a와 같이, 제1 내지 제3 컨텐츠가 반복되는 것도 동영상 반복으로 판단할 수 있으나, 이에 한정되지 않고 다양한 변형이 가능하다.
예를 들어, 하나의 컨텐츠인 제1 컨텐츠(CTa)만 반복되는 것도, 동영상 반복으로 판단할 수 있다.
도 12b는 하나의 단일 영상(Imgoa)이 2*2로 분할되어, 4개의 영상(Imgaa~Imgad)이, 각각 비디오 월(10) 내의 제1 내지 제4 영상표시장치(100a~100d)에 표시되는 것을 예시한다.
도 13a는 하나의 단일 영상(Imgob)을 예시한다.
도 13b는, 도 13a의 단일 영상(Imgob)이 2*2로 분할되어, 제1 시점에, 4개의 영상(Imgba~Imgbd)이, 각각 비디오 월(10) 내의 제1 내지 제4 영상표시장치(100a~100d)에 표시되는 것을 예시한다.
이때, 번인에 의한 잔상 방지를 위해, 픽셀 시프트가 수행될 수 있다. 예를 들어, 도면에서의 우측 방향으로 픽셀 시프트가 수행될 수 있다.
이러한 경우, 제1 영상표시장치(100a)에 표시되는 영상의 일부인 우측 경계 영역(Boa)과, 제3 영상표시장치(100c)에 표시되는 영상의 일부인 우측 경계 영역(Bob)은 저장되고, 각각 인접하는 영상표시장치인 제2 영상표시장치(100b)와 제4 영상표시장치(100d)에 전송되는 것이 바람직하다.
이에 따라, 도 13c와 같이, 제1 시점 이후의 제2 시점에, 4개의 영상(Imgca~Imgcd)이, 각각 비디오 월(10) 내의 제1 내지 제4 영상표시장치(100a~100d)에 표시될 수 있다.
특히, 제2 영상표시장치(100b)와 제4 영상표시장치(100d)에 표시되는 영상은, 우측 경계 영역(Boa,Bob)과 입력되는 입력 영상의 합성 영상으로서, 도면과 같이, 표시되는 영상의 좌측 영역(BDaa,BDba)에, 블랙 영역이 제거된 완전한 영상이 표시될 수 있게 된다. 따라서, 동영상 반복 표시에 따라 발생할 수 있는 번인에 의한 잔상 저감 및 블랙 영역 발생 가능성을 저감할 수 있게 된다.
한편, 비디오 월(10)에서 하측 방향의 픽셀 이동이 있는 경우, 하측 경계 영역의 저장 및 전송이 가능하다. 이때, 복수의 영상 프레임 별로 동기되어 전송되는 것으 중요하다.
도 15a는 반복되어 재생되는 컨텐츠(CTgca)의 하측 경계 영역(CTgcb)이 분리되어, 인접하는 영상표시장치에 전송되는 것을 예시한다.
이때, 도면과 같이, 영상 프레임 별로 동기되어 전송되지 않는 경우, 도 15a의 우측에 첫 프레임과 같이, 하부 경계 영역과 입력 영상이 매칭되지 않은 채 합성될 수 있다.
이러한 점을 방지하기 위해, 영상 프레임 별로 동기되어 경계 영역이 순차적으로 전송되는 것이 중요하다.
도 15b는 반복되어 재생되는 컨텐츠(CTgea)의 하측 경계 영역(CTgeb)이 분리되어, 인접하는 영상표시장치에 전송되는 것을 예시한다.
이때, 도면과 같이, 영상 프레임 별로 동기되어 전송되는 경우, 모든 프레임에서, 하부 경계 영역과 입력 영상이 매칭되어 합성되게 된다. 따라서, 자연스러운 영상 합성 및 표시가 가능하게 된다.
도 16은 경계 영역 저장, 전송 및 영상 합성을 설명하기 위해 참조되는 도면이다.
도면을 참조하면, 제1 시점에 제1 영상표시장치(100a)에 제1 영상(Imgba)이 표시되는 상태에서, 제2 영상표시장치(100b)에서 우측 픽셀 시프트가 수행되는 경우, 인터페이스부(130a)를 통해 입력되어 표시되는 제1 영상(Imgba)의 우측 경계 영역(BDa)을 메모리(140a)에 저장한다.
다음, 저장된 우측 경계 영역(BDa)은, 제2 영상표시장치(100b)로 전송되어 제2 영상표시장치(100b)의 메모리(104b)에 저장된다.
다음, 제2 영상표시장치(100b)는, 인터페이스부(130b)를 통해, 제2 시점에 표시할 영상(imgbb)를 수신한다.
제어부(170b)는, 메모리(104b)에 저장된 우측 경계 영역(BDa)과, 입력되는 영상(imgbb)을 합성한다.
제어부(170b)는, 합성시, 우측 경계 영역(BDa)을 입력되는 영상(imgbb)의 좌측에 부가할 수 있다. 합성된 영상(Imgx)와 같이, 가로 영역이 더 확대된 영상일 수 있다.
이에, 제어부(170b)는, 디스플레이(180b)에서의 표시를 위해, 합성된 영상(Imgx)의 일부 영역(imgcb)을 선택하여, 선택된 영역(Imgcb)을 디스플레이(180b0)로 전송할 수 있다.
이에 따라, 우측 영역이 제거된 선택된 영역에 대응하는 영상(Imgcb)이, 제2 시점, 제2 디스플레이(180b)에 표시될 수 있다.
이에 따라, 번인에 의한 잔상 저감을 위한 픽셀 시프트 수행하면서, 블랙 영역이 발생하지 않는 영상을, 비디오 월(10)의 전 영역에 걸쳐 표시할 수 있게 된다.
특히, 비디오 월(10)의 각 경계 영역에, 블랙 영역이 발생하지 않게 된다. 따라서, 시청자는 자연스러운 동영상을 시청할 수 있어, 시인성이 향상될 수 있게 된다.
한편, 복수의 영상표시장치(100a~100d)에 표시되는 동영상이 반복 재생되는 동안, 장면 전환시 마다 픽셀 시프트 이동량이 가변될 수 있다.
도 17은 컨텐츠 A가 반복되어 재생되면서, 장면 전환이 발생하는 경우를 예시하는 도면이다.
도면을 참조하면, 컨텐츠 A가 재생시, 복수의 장면 전환이 발생할 수 있다. 도면에서는, 3개의 장면 전환이 발생하는 것을 예시한다.
제1 장면 전환시, 픽셀 시프트는 제1 레벨로 수행될 수 있으며, 제2 장면 전환시, 픽셀 시프트는 제1 레벨 보다 많은, 제2 레벨로 수행될 수 있으며, 제3 장면 전환시, 픽셀 시프트는 제1 레벨 보다 적은 제3 레벨로 수행될 수 있다.
제3 레벨과 같은 픽셀 시프트로 인하여, 이동 최소화가 되어, 시인성에 영향이 없을 수 있으며, 제2 레벨과 같은 픽셀 시프트로 인하여, 이동 최대화에 따른 번인 저감 효과가 크게 될 수 있다.
이와 같이, 동영상 반복 재생시, 장면 전환에 따라, 픽셀 시프트 양을 가변함으로써, 번인에 의한 잔상 저감을 위한 픽셀 시프트 수행하면서, 블랙 영역이 저감되는 영상을 표시할 수 있게 된다.
도 10a 내지 도 17은 2*2의 영상표시장치를 구비하는 비디오 월(10)을 예시하나, 이와 달리 다양한 개수의 영상표시장치를 구비하는 비디오 월의 구성이 가능하다.
예를 들어, 1*4의 영상표시장치를 구비하거나, 4*1의 영상표시장치를 구비하거나, 3*3의 영상표시장치를 구비하는 것도 가능하다.
도 17은 3*3의 영상표시장치를 구비하는 비디오 월(20)이, 3*3의 9개의 영상표시장치(100a~100i)를 구비하는 것을 예시한다.
도 18의 (a)는, 단일의 영상(Imhob)을 예시하며, 도 18의 (b)는, 단일의 영상(Imhob)이, 3*3의 9개의 영상으로 분리되는 것을 예시한다.
상술한 설명에서와 같이, 9개의 영상표시장치 중 중앙의 영상표시장치, 즉 제5 영상표시장치(100e)에 표시되는 영상(imgen)은, 인접하는 영상표시장치로 경계 영역 전송을 위해, 상측 경계 영역(BDua), 우측 경계 영역(BDra), 좌측 경계 영역(BDla), 하측 경계 영역(BDda)을 각각 저장하고 전송할 수 있다.
이에 따라, 동영상이 반복되어 표시되는 비디오 월(20)에서 잔상을 저감하면서 블랙 영역 발생을 저감할 수 있게 된다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.

Claims (15)

  1. 인접하여 배치되는 복수의 디스플레이;
    입력 영상을 상기 복수의 디스플레이에서의 표시를 위해 복수의 영상으로 분배하는 영상 분배부;
    상기 복수의 디스플레이에 대응하는 복수의 영상표시장치를 제어하기 위한 적어도 하나의 제어부;를 포함하고,
    상기 복수의 영상표시장치에 표시되는 동영상이 반복 재생되는 경우, 상기 복수의 영상표시장치에 표시되는 경계 영역을 저장하고, 인접하는 영상표시장치에 전송하며, 각 영상표시장치는, 수신되는 경계 영역과 표시할 영상 영역을 합성하고, 합성된 영상 중 일부 영역을 각 영상표시장치에 표시하는 것을 특징으로 하는 비디오 월.
  2. 제1항에 있어서,
    상기 복수의 영상표시장치 중 제1 영상표시장치의 제어부는,
    상기 복수의 영상표시장치에 표시되는 동영상이 반복 재생되는 지 여부를 판단하고, 해당하는 경우, 상기 경계 영역 저장 및 합성 영상 생성이 수행되도록 제어하는 것을 특징으로 하는 비디오 월.
  3. 제1항에 있어서,
    상기 복수의 영상표시장치 중 제1 영상표시장치의 제어부는,
    상기 복수의 영상표시장치에 표시되는 동영상이 반복 재생되는 동안, 픽셀 시프트가 수행되는 경우, 상기 픽셀 시프트 방향 정보가 상기 복수의 영상표시장치로 전송되도록 제어하는 것을 특징으로 하는 비디오 월.
  4. 제1항에 있어서,
    상기 복수의 영상표시장치 중 제1 영상표시장치의 제어부는,
    상기 복수의 영상표시장치에 표시되는 동영상이 반복 재생되는 동안, 픽셀 시프트가 상기 복수의 영상표시장치에서 공통으로 수행되도록 제어하는 것을 특징으로 하는 비디오 월.
  5. 제1항에 있어서,
    상기 복수의 영상표시장치에 표시되는 동영상이 반복 재생되는 동안, 제1 시점에 제1 방향 시프트가 수행되는 경우,
    상기 복수의 영상표시장치 중 제1 영상표시장치는, 상기 제1 방향에 인접하여 배치되는 제2 영상표시장치로, 상기 제1 영상표시장치에 표시된 상기 제1 방향의 제1 경계 영역을 전송하며,
    상기 제2 영상표시장치는, 입력되는 영상과 상기 제1 경계 영역을 합성하여, 합성된 영상을 생성하며, 상기 합성된 영상 중 상기 제1 방향의 경계 영역을 제외한 영상을 표시하는 것을 특징으로 하는 비디오 월.
  6. 제5항에 있어서,
    상기 복수의 영상표시장치에 표시되는 동영상이 반복 재생되는 동안, 상기 제1 시점 이후의 제2 시점에 제2 방향 시프트가 수행되는 경우,
    상기 제1 영상표시장치는, 상기 제2 방향에 인접하여 배치되는 제3 영상표시장치로, 상기 제1 영상표시장치에 표시된 상기 제2 방향의 제2 경계 영역을 전송하며,
    상기 제3 영상표시장치는, 입력되는 영상과 상기 제3 경계 영역을 합성하여, 합성된 영상을 생성하며, 상기 합성된 영상 중 상기 제3 방향의 경계 영역을 제외한 영상을 표시하는 것을 특징으로 하는 비디오 월.
  7. 제1항에 있어서,
    상기 복수의 영상표시장치에 표시되는 동영상이 반복 재생되는 동안, 상기 복수의 영상표시장치 각각은 서로 다른 픽셀 시프트를 수행하며,
    상기 복수의 영상표시장치 각각은, 인접하는 영상표시장치의 경계 영역과, 입력되는 영상에 기초하여 합성 영역을 생성하며, 합성된 영역에서, 픽셀 시프트 방향의 경계 영역을 제외한 영상을 표시하는 것을 특징으로 하는 비디오 월.
  8. 제1항에 있어서,
    상기 복수의 영상표시장치 중 제1 영상표시장치의 제1 방향에 제2 영상표시장치가 배치되고, 제2 방향에 제3 영상표시장치가 배치된 상태에서,
    상기 복수의 영상표시장치에 표시되는 동영상이 반복 재생되는 동안,
    제1 시점에, 상기 제2 영상표시장치에서 제1 방향 시프트가 수행되고, 상기 제3 영상표시장치에서 제3 방향 시프트가 수행되는 경우,
    상기 제2 영상표시장치는, 입력되는 영상과 상기 제1 영상표시장치에서 표시된 제1 방향의 제1 경계 영역을 합성하여, 합성된 영상을 생성하며, 상기 합성된 영상 중 상기 제1 방향의 경계 영역을 제외한 영상을 표시하며,
    제3 영상표시장치는, 입력되는 영상과 상기 제1 영상표시장치에서 표시된 제2 방향의 제2 경계 영역을 합성하여, 합성된 영상을 생성하며, 상기 합성된 영상 중 상기 제2 방향의 경계 영역을 제외한 영상을 표시하는 것을 특징으로 하는 비디오 월.
  9. 제1항에 있어서,
    상기 복수의 영상표시장치에 표시되는 동영상이 반복 재생되는 동안, 장면 전환시 마다 픽셀 시프트 이동량이 가변되는 것을 특징으로 하는 비디오 월.
  10. 제9항에 있어서,
    상기 장면 전환시 마다 픽셀 시프트 이동량 가변에 따라, 상기 경계 영역의 사이즈가 가변되어, 전송되는 것을 특징으로 하는 비디오 월.
  11. 제1항에 있어서,
    상기 복수의 영상표시장치에 표시되는 동영상이 반복 재생되는 동안, 순차적으로, 상기 경계 영역의 이미지가 인접하는 영상표시장치로 전송되는 것을 특징으로 하는 비디오 월.
  12. 제1항에 있어서,
    상기 복수의 영상표시장치는, 유기발광패널을 구비하는 것을 특징으로 하는 비디오 월.
  13. 인접하여 배치되는 복수의 디스플레이;
    입력 영상을 상기 복수의 디스플레이에서의 표시를 위해 복수의 영상으로 분배하는 영상 분배부;
    상기 복수의 디스플레이에 대응하는 복수의 영상표시장치를 제어하기 위한 적어도 하나의 제어부;를 포함하고,
    상기 복수의 영상표시장치에 표시되는 동영상이 반복 재생되는 경우, 상기 복수의 영상표시장치 중 제1 영상표시장치에 입력되는 제1 영상 내의 제1 경계 영상과, 상기 제1 영상표시장치에 인접한 제2 영상표시장치에 입력되는 제2 영상을, 합성하여, 합성된 영상 중 일부 영역을 상기 제2 영상표시장치에 표시하는 것을 특징으로 하는 비디오 월.
  14. 제13항에 있어서,
    상기 제1 영상표시장치의 제어부는,
    상기 복수의 영상표시장치에 표시되는 동영상이 반복 재생되는 지 여부를 판단하고, 해당하는 경우, 상기 복수의 영상표시장치 중 제1 영상표시장치에 입력되는 제1 영상 내의 제1 경계 영상을 상기 제2 영상표시장치로 전송하도록 제어하는 것을 특징으로 하는 비디오 월.
  15. 제13항에 있어서,
    상기 제2 영상표시장치의 제어부는,
    상기 제1 영상표시장치로부터 수신되는 상기 제1 경계 영상과 입력되는 제2 영상을, 합성하여, 합성된 영상 중 일부 영역을 상기 제2 영상표시장치의 디스플레이에 표시하도록 제어하는 것을 특징으로 하는 비디오 월.
PCT/KR2020/000692 2019-01-14 2020-01-14 비디오 월 WO2020149619A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/422,627 US11468823B2 (en) 2019-01-14 2020-01-14 Video wall including multiple displays with reduced afterimage

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2019-0004400 2019-01-14
KR1020190004400A KR102617820B1 (ko) 2019-01-14 2019-01-14 비디오 월

Publications (1)

Publication Number Publication Date
WO2020149619A1 true WO2020149619A1 (ko) 2020-07-23

Family

ID=71613165

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/000692 WO2020149619A1 (ko) 2019-01-14 2020-01-14 비디오 월

Country Status (3)

Country Link
US (1) US11468823B2 (ko)
KR (1) KR102617820B1 (ko)
WO (1) WO2020149619A1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7209653B2 (ja) * 2020-02-05 2023-01-20 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理方法、及びプログラム
KR20220021229A (ko) * 2020-08-13 2022-02-22 삼성전자주식회사 디스플레이 장치
KR102229317B1 (ko) * 2020-09-25 2021-03-18 포스텍네트웍스(주) 무압축 10k uhd 입력을 지원하는 초고해상도 led 전광판
DE102022108569A1 (de) * 2022-04-08 2023-10-12 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Hintergrund-Wiedergabeeinrichtung
US11914858B1 (en) * 2022-12-09 2024-02-27 Helen Hyun-Min Song Window replacement display device and control method thereof

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150220300A1 (en) * 2014-02-03 2015-08-06 Tv One Limited Systems and methods for configuring a video wall
KR101557027B1 (ko) * 2014-06-17 2015-10-02 주식회사 리드텍 멀티 비전 시스템에서 영상 소스의 디스플레이 방법 및 장치
KR20160132170A (ko) * 2015-05-06 2016-11-17 삼성디스플레이 주식회사 영상 보정부, 이를 포함하는 표시 장치, 및 표시 장치의 영상 표시 방법
KR20170026878A (ko) * 2015-08-31 2017-03-09 엘지디스플레이 주식회사 멀티비전 및 그의 구동방법
KR20180020830A (ko) * 2016-08-19 2018-02-28 삼성전자주식회사 비디오월 시스템 및 그 제어방법과, 디스플레이장치

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5982951A (en) * 1996-05-28 1999-11-09 Canon Kabushiki Kaisha Apparatus and method for combining a plurality of images
JP5121978B2 (ja) * 2010-08-30 2013-01-16 キヤノン株式会社 画像処理装置及びその制御方法
US11037525B2 (en) * 2017-06-27 2021-06-15 Semiconductor Energy Laboratory Co., Ltd. Display system and data processing method
US10600377B2 (en) * 2017-12-27 2020-03-24 Wuhan China Star Optoelectronics Technology Co., Ltd. Image display method and device of determining backlight coefficient according to grayscale eigenvalues corresponding to pixels in different partition

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150220300A1 (en) * 2014-02-03 2015-08-06 Tv One Limited Systems and methods for configuring a video wall
KR101557027B1 (ko) * 2014-06-17 2015-10-02 주식회사 리드텍 멀티 비전 시스템에서 영상 소스의 디스플레이 방법 및 장치
KR20160132170A (ko) * 2015-05-06 2016-11-17 삼성디스플레이 주식회사 영상 보정부, 이를 포함하는 표시 장치, 및 표시 장치의 영상 표시 방법
KR20170026878A (ko) * 2015-08-31 2017-03-09 엘지디스플레이 주식회사 멀티비전 및 그의 구동방법
KR20180020830A (ko) * 2016-08-19 2018-02-28 삼성전자주식회사 비디오월 시스템 및 그 제어방법과, 디스플레이장치

Also Published As

Publication number Publication date
KR102617820B1 (ko) 2023-12-22
KR20200087979A (ko) 2020-07-22
US11468823B2 (en) 2022-10-11
US20220093034A1 (en) 2022-03-24

Similar Documents

Publication Publication Date Title
WO2020149619A1 (ko) 비디오 월
WO2020085781A1 (ko) 신호 처리 장치 및 이를 구비하는 영상표시장치
WO2016056787A1 (en) Display device and method of controlling the same
WO2020139018A2 (en) Signal processing device and image display apparatus including the same
WO2019168332A1 (ko) 신호 처리 장치 및 이를 구비하는 영상표시장치
WO2016182307A1 (ko) 메타데이터에 기초한 영상 처리 장치 및 영상 처리 방법
WO2020145659A1 (en) Signal processing device and image display apparatus including the same
WO2019035657A1 (en) IMAGE DISPLAY APPARATUS
WO2010039005A2 (ko) 화질 조정 방법 및 그를 이용한 영상 표시 장치.
WO2020139017A1 (en) Image display apparatus
WO2022177043A1 (ko) 디스플레이 장치
WO2019231235A1 (ko) 신호 처리 장치 및 이를 구비하는 영상표시장치
WO2021040445A1 (en) Image display apparatus
WO2020204472A1 (ko) 영상표시장치
WO2021040447A1 (en) Image display apparatus
WO2020060186A1 (ko) 영상표시장치
WO2020185035A1 (ko) 비디오 월
EP3552087A1 (en) Electronic apparatus and method for displaying contents thereof
WO2019078542A1 (en) IMAGE DISPLAY APPARATUS
WO2021060808A1 (en) Signal processing device and image display apparatus including same
WO2021085679A1 (ko) 신호 처리 장치 및 이를 구비하는 영상표시장치
WO2021137630A1 (en) Display apparatus and method of controlling the same
WO2020138962A1 (ko) 영상표시장치
WO2021221192A1 (ko) 디스플레이 장치, 및 이를 구비하는 영상표시장치
WO2019078541A1 (en) IMAGE DISPLAY APPARATUS

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20740909

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20740909

Country of ref document: EP

Kind code of ref document: A1