WO2019059633A1 - 영상 표시 방법 - Google Patents

영상 표시 방법 Download PDF

Info

Publication number
WO2019059633A1
WO2019059633A1 PCT/KR2018/011044 KR2018011044W WO2019059633A1 WO 2019059633 A1 WO2019059633 A1 WO 2019059633A1 KR 2018011044 W KR2018011044 W KR 2018011044W WO 2019059633 A1 WO2019059633 A1 WO 2019059633A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
display
boundary region
boundary
change
Prior art date
Application number
PCT/KR2018/011044
Other languages
English (en)
French (fr)
Inventor
임국찬
신승민
배용우
신동엽
신승호
이학순
전진수
Original Assignee
에스케이텔레콤 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이텔레콤 주식회사 filed Critical 에스케이텔레콤 주식회사
Priority to EP18857905.6A priority Critical patent/EP3672265B1/en
Priority to US16/649,101 priority patent/US11175874B2/en
Priority to CN201880060792.8A priority patent/CN111133766B/zh
Publication of WO2019059633A1 publication Critical patent/WO2019059633A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440245Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display the reformatting operation being performed only on part of the stream, e.g. a region of the image or a time segment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • G06F3/1446Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display display composed of modules, e.g. video walls
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G5/005Adapting incoming signals to the display format of the display terminal
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/39Control of the bit-mapped memory
    • G09G5/391Resolution modifying circuits, e.g. variable screen formats
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23605Creation or processing of packetized elementary streams [PES]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2300/00Aspects of the constitution of display devices
    • G09G2300/02Composition of display devices
    • G09G2300/026Video wall, i.e. juxtaposition of a plurality of screens to create a display screen of bigger dimensions
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2310/00Command of the display device
    • G09G2310/06Details of flat display driving waveforms
    • G09G2310/061Details of flat display driving waveforms for resetting or blanking
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2356/00Detection of the display position w.r.t. other display screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41415Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance involving a public display, viewable by several users in a public space outside their home, e.g. movie theatre, information kiosk

Definitions

  • the present invention relates to an image display method, and more particularly, to a method of displaying an image in a multi-display device including a plurality of displays.
  • the multi-display device not only displays various images on each of a plurality of displays, but also displays a single whole image by displaying the divided images on a plurality of displays.
  • the multi-display device includes a divider that divides the entire image into a plurality of partial images and distributes the divided images to a plurality of displays.
  • the divider divides the entire image into a set number of divided images, and provides the divided images to a designated display so that the entire image is displayed on the multi-display device.
  • the present invention provides an image display method in which a multi-display device selectively displays image data to be displayed over a boundary area of adjacent displays disposed adjacent to each other.
  • a method of displaying an image in a multi-display device having two or more displays comprising: displaying a boundary region image including a boundary region between a first display and a second display, And generating and inserting dummy data at a position corresponding to the border area in the border area image to reproduce the border area image so that the border area image is displayed in an increased size.
  • a change-necessary image that needs to be changed by analyzing image data to be displayed across a boundary area of adjacent displays disposed in a multi-display device is selected.
  • Dummy data is additionally displayed for the selected change-requiring image so that the readability of the object included in the image data is improved.
  • FIG. 1 is a configuration diagram of a multi-display device capable of performing an image display method according to an embodiment of the present invention.
  • FIG. 2 is a flowchart illustrating an image display method according to an embodiment of the present invention.
  • FIG. 3 illustrates an example in which a boundary area image is displayed on a multi-display device according to an exemplary embodiment of the present invention.
  • FIG. 4 illustrates an example in which dummy data is embedded in a boundary region image according to an embodiment of the present invention.
  • FIG. 5 illustrates an example of a boundary area image stored in a rendering buffer and a display buffer, and an example of a boundary area image displayed on a multi-display device according to an embodiment of the present invention.
  • FIG. 1 is a configuration diagram of a multi-display device capable of performing an image display method according to an embodiment of the present invention.
  • a multi-display device 100 includes a display unit 110, a multi-touch sensing unit 120, a central control unit 130, and an image processing unit 140.
  • the display unit 110 includes a multi-touch frame 111, a tempered glass 112, a display module 113 including a plurality of displays, and a wall fixing bracket 114.
  • a plurality of light emitting elements and a plurality of light receiving elements are alternately disposed along the periphery of the multi-touch frame 111. When light is emitted from the light emitting element, the light receiving elements disposed at opposite positions receive the multi- do.
  • the tempered glass 112 protects the display module 113 from being damaged by an external force.
  • the display module 113 outputs image data transmitted from the image processing unit 140 corresponding to each display to each display.
  • the wall fixing bracket 114 fixes and supports the multi-touch frame 111, the tempered glass 112, and the display module 113 on the wall surface.
  • the display module 113 may be a seamless display device in which a display bar in the form of a flexible film is separately installed at the boundary of the displays.
  • the multi-touch sensing unit 120 receives a signal corresponding to a multi-touch operation from the multi-touch frame 111, and transmits the received multi-touch signal to the central control unit 130.
  • the central control unit 130 determines the multi-touch position and various interactions based on the multi-touch signal transmitted from the multi-touch sensing unit 120, and controls the image processing process by the image processing unit 140, So that the image is displayed.
  • the central control unit 130 controls the display module 113 of the display unit 110 to display at least one application program window corresponding to at least one application program running on the multi-display device 100.
  • the central control unit 130 monitors whether an interaction event related to the movement of the application program window occurs.
  • the central control unit 130 should include a boundary region between a plurality of displays included in the display module 113 among the images to be displayed on the display unit 110 when an interaction event occurs over the boundary region It is determined whether there is a border area image.
  • the boundary region includes boundary lines between each other, and includes a right-side display partial surface of the left display and / or a left-side display partial surface of the right display.
  • the boundary area includes boundary lines between each other, and includes a lower-side display partial surface of the upper display and / or an upper display partial surface of the lower display.
  • the object includes text, characters, and the like having a predetermined shape.
  • the display coordinates are changed, at least one of the distances from the upper end, the lower end, the left end, and the right end of the image in which the object is included is at least one of And has a characteristic to be changed.
  • the central control unit 130 creates and inserts dummy data at a position corresponding to the border area in the border area image, thereby increasing the size of the border area image so that the object in the border area image is displayed at a position not including the border area So that the image processing unit 140 is controlled.
  • boundary region image to be displayed including a boundary region between a plurality of displays included in the display module 113 among the images to be displayed on the display unit 110, It is possible to determine whether or not the change-necessary image needs to change an object in the boundary-region image based on the amount of change of the image data in the image.
  • Dummy data may be generated and inserted.
  • the central control unit 130 outputs color similar to the color of the image displayed in the border area to the display bar To perform seamless display control.
  • the image processing unit 140 processes an image to be displayed on the display unit 110 according to a control signal of the central control unit 130 and distributes image data to be displayed to each of a plurality of displays constituting the display unit 110 And provides it to the display module 113.
  • the boundary region image stored in the rendering buffer 142 of the image processing unit 140 includes pixel information and dummy data for a boundary region between a plurality of displays included in the display module 113.
  • the boundary region image stored in the display buffer 141 of the image processing unit 140 does not include the pixel information of the boundary region between the plurality of displays included in the display module 113 but includes only the dummy data.
  • the distributor 143 transmits the boundary area image stored in the display buffer 141 to the display module 113 of the display unit 110.
  • steps S209 and S211 are performed according to one embodiment. According to another embodiment of the present invention, steps S209 and S211 may be omitted, but the following example will be described first.
  • an image display method includes displaying (S201) at least one application program window corresponding to at least one application program running in a multi-display device through a display module do.
  • the image display method may further include monitoring (S203) whether an interaction event related to movement of an application program window is generated.
  • the method of displaying an image may include determining whether a boundary region image to be displayed is included, including a boundary region of displays included in the display module when an interaction event occurs over a boundary region And further includes steps S205 and S207.
  • steps S205 and S207 if the coordinates of the boundary area are included in the image display range according to the entire coordinate information of the single image to be displayed on the multi-display device, it can be determined that the boundary area image exists.
  • the boundary region image when the boundary region image exists, it is determined whether the boundary region image needs to be changed based on the variation amount of the image data in the boundary region image (S209, S211 ).
  • the boundary region image the data change amount between pixels between arbitrary pixels and surrounding pixels is repeatedly calculated while changing arbitrary pixels, and the data change rate of the boundary region image is calculated by using the sum or average of repeated pixel- And it is possible to determine whether the boundary region image is a change-requiring image based on a result of comparing the calculated data change ratio and a predetermined first threshold change ratio.
  • Step S213 if the boundary region image is a change-requiring image, dummy data is generated and inserted at a position corresponding to the boundary region in the boundary region image, (Step S213).
  • the steps S213 and S215 as the dummy data is inserted, the size of the boundary area image is increased and the display position of the object in the boundary area image is shifted.
  • the rate of change of the image data is calculated for each pixel line parallel to the boundary area based on the variation amount of the image data, and based on the comparison result of the rate of change of the image data calculated for each pixel line and the predetermined second threshold change rate, Can be determined and inserted.
  • the dummy data can be inserted so that the application program window is extended in the direction corresponding to the direction of movement of the interaction event with reference to the boundary area.
  • steps S209 and S211 are performed according to one embodiment, and according to another embodiment, steps S209 and S211 may be omitted.
  • steps S209 and S211 may be omitted.
  • dummy data can be generated and inserted at a position corresponding to the border area in the border area image.
  • FIG. 1 An image display method performed by the multi-display device 100 according to an exemplary embodiment of the present invention will be described in detail with reference to FIGS. 1 to 5.
  • FIG. 1 An image display method performed by the multi-display device 100 according to an exemplary embodiment of the present invention will be described in detail with reference to FIGS. 1 to 5.
  • FIG. 1 An image display method performed by the multi-display device 100 according to an exemplary embodiment of the present invention will be described in detail with reference to FIGS. 1 to 5.
  • the user can touch the predetermined position of the multi-touch frame 111 of the multi-display device 100 to command the application program to be driven.
  • the driving command is transmitted to the central controller 130 .
  • the central control unit 130 drives an application program corresponding to the driving command input through the multi-touch sensing unit 120, controls the image processing unit 140 to display an application program window according to the application program, And the image distributed by the image processing unit 140 is displayed on a display included in the display unit 110 (S201).
  • the application program window 301 corresponding to the application program A is displayed on the display unit 110 as shown in FIG. 3A.
  • the initial position at which the application screen window 301 is displayed is arbitrarily indicated.
  • the central control unit 130 monitors whether an interaction event related to the movement of the application program window occurs (S203).
  • the user when the user wants to change the display position of the application program window 301 displayed on the multi-touch frame 111 of the multi-display device 100, the user may drag the application program window 301
  • An interaction event related to the movement of the application screen window 301 can be generated by inputting a predetermined signal. Then, a signal for the interaction event is transmitted to the central control unit 130 through the multi-touch sensing unit 120.
  • the central control unit 130 confirms whether an interaction event has occurred over the boundary area of the displays included in the display module 113. [ For example, based on the result of comparing the coordinate information of the drag operation 302 and the coordinate information of the boundary region, it can be confirmed whether an interaction event occurs across the boundary region of the displays (S205).
  • the central control unit 130 determines whether the boundary between the boundaries of the displays included in the display module 113 It is determined whether there is a region image.
  • the central control unit 130 can determine that the boundary area image exists. For example, if the application program window 301 is to be displayed as illustrated in FIG. 3 (b) by the drag operation 302 in FIG. 3A, it can be determined that there is a border area image .
  • the current display mode of the multi-display device 100 is a mode for reproducing an image on the entire screen, if it is known that an image is being reproduced on a plurality of displays, It may not grasp separately whether the region image exists.
  • the central control unit 130 may determine whether there is a border area image while displaying an image on the displays in step S201 regardless of steps S203 and S205 (S207).
  • the central control unit 130 determines whether the border region image needs to be changed based on the change amount of the image data in the border region image, .
  • the amount of change of the image data may include a change amount of the saturation or a change amount of the color frequency.
  • the process of determining whether the boundary region image is a change-requiring image in the central control unit 130 will be described in more detail.
  • the pixel variation between arbitrary pixels and surrounding pixels is repeatedly calculated while changing an arbitrary pixel .
  • the amount of data change with eight pixels surrounding arbitrary pixels is calculated, and the process of calculating the amount of data change between pixels is repeated by the number of pixels included in the boundary area image,
  • the data change rate of the boundary area image is calculated using the sum or average of the data change amounts (S209). Then, it is determined whether the boundary region image is a change-requiring image based on a result of comparison between the calculated data change ratio and a predetermined first threshold change ratio.
  • the central control unit 130 can recognize that the character is included as an object, and can determine the boundary area image as the change necessary image. As shown in FIG. 3B, when the application program window 301 is displayed, the readability of the characters inside the application program window 301 is determined (S211).
  • the central control unit 130 generates dummy data at a position corresponding to the boundary area and inserts the dummy data into the boundary area image determined as the change-requiring image (S213).
  • the process of inserting the dummy data in the central controller 130 will be described in more detail.
  • the rate of change of the image data is calculated for each pixel line parallel to the boundary area based on the amount of change in the inter-
  • the insertion position of the dummy data is determined on the basis of the comparison result of the rate of change of the image data calculated every time and the predetermined second threshold change rate.
  • the rate of change of the image data per pixel line of the application program window 301 illustrated in FIG. 3 (b) is such that the pixel lines including the " application program A " Which is larger than the value obtained by the above equation.
  • the central control unit 130 can recognize the beginning and end of the pixel line including the character object, inserts the dummy data 301a into the pixel lines including the character object as illustrated in FIG. 4,
  • the application screen window 303 can be created.
  • steps S209 and S211 are performed according to one embodiment, and according to another embodiment, steps S209 and S211 may be omitted. According to another embodiment, if it is determined in step S207 that there is a border area image, the central control unit 130 may generate and insert dummy data at a position corresponding to the border area with respect to the border area image (S213).
  • the central control unit 130 displays the object in the boundary area image where the dummy data is inserted and the size is increased, at a position not including the boundary area of the displays included in the display module 113 So that the image processing unit 140 is controlled.
  • the image processing unit 140 distributes the images so that the objects in the boundary region images can be displayed at positions that do not include the boundary regions of the displays included in the display module 113.
  • the display unit 110 displays the objects in the boundary area image at positions that do not include the boundary areas of the displays included in the display module 113.
  • the application screen window 303 extends in the direction corresponding to the direction of movement of the interaction event with reference to the boundary area in step S213,
  • the application screen window 303 extending in the direction of the application screen window 302 is displayed (S215).
  • FIG 5 illustrates an example of a boundary region image stored in the rendering buffer 142 and the display buffer 141 according to an embodiment of the present invention and an example of a boundary region image displayed on the display module 113 of the multi- For example.
  • the rendering buffer 142 has physical resolution information including a boundary region (e.g., a bezel) between displays that the display unit 110 has.
  • a boundary region e.g., a bezel
  • the display buffer 141 has physical resolution information of 1920 x 2160
  • the rendering buffer 142 has a physical resolution of 1920 x (2160 + border area) Information. That is, as shown in FIG. 5A, the rendering buffer 142 has position information on the border area 142a. Therefore, when the dummy data is inserted into the boundary region image in step S213, the application program window 303 shown in FIG. 5A is stored in the rendering buffer 142 of the image processing unit 140.
  • the border area 142a is discarded and the application screen window 303 shown in FIG. 5B is stored.
  • an application program window 303 stored in the display buffer 141 is displayed in step S215, an object in the application program window 303 is displayed on the display screen of the displays included in the display module 113, And is displayed at a position not including the border area.
  • the application screen window 303 is divided into two and displayed on the first display and the second display included in the display module 113, respectively, but the character objects are displayed on one display to ensure readability.
  • the multi-display device analyzes the image data to be displayed over the boundary area of the displays disposed adjacent to each other, and selects a change-necessary image that needs to be changed. Dummy data is added to the selected change-requiring image so as to increase the size, thereby improving the readability of the object included in the image data.
  • the central control unit 130 displays Description of the well-known seamless display control process for outputting colors to the display bar has been omitted. Even if the seamless display control technology known in the art of changing the boundary area image according to the embodiment of the present invention is applied, the readability of the boundary area is not deteriorated unlike the prior art. For example, according to the embodiment of the present invention, when it is required to ensure readability, such as when a character object is included in an image boundary region, the display is shifted and displayed without the image boundary region, Because the flexible bar-shaped display bar does not include character objects.
  • a boundary region image including a boundary region between two vertically adjacent displays among the plurality of displays has been described as an embodiment.
  • the boundary region including two boundary regions between two adjacent left and right displays It will be obvious that the image can also be applied to the same or similar.
  • Combinations of the steps of each flowchart attached to the present invention may be performed by computer program instructions.
  • These computer program instructions may be loaded into a processor of a general purpose computer, special purpose computer, or other programmable data processing apparatus so that the instructions, which are executed via a processor of a computer or other programmable data processing apparatus, Lt; / RTI >
  • These computer program instructions may also be stored in a computer usable or computer readable memory capable of directing a computer or other programmable data processing apparatus to implement the functionality in a particular manner so that the computer usable or computer readable memory It is also possible to produce manufacturing items that contain instruction means for performing the functions described in each step of the flowchart.
  • Computer program instructions may also be stored on a computer or other programmable data processing equipment so that a series of operating steps may be performed on a computer or other programmable data processing equipment to create a computer- It is also possible for the instructions to perform the processing equipment to provide steps for executing the functions described in each step of the flowchart.
  • each step may represent a module, segment, or portion of code that includes one or more executable instructions for executing the specified logical function (s).
  • the functions mentioned in the steps may occur out of order.
  • the two steps shown in succession may in fact be performed substantially concurrently, or the steps may sometimes be performed in reverse order according to the corresponding function.
  • the present invention varies image data to be displayed across a boundary area of displays arranged adjacent to each other in a multi-display device. This improves the readability of the objects included in the image data.
  • the present invention can be applied to a wall-mounted computing device or a tabletop computing device in which a multi-display device including a plurality of displays is employed.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

본 발명에 개시된 2개 이상의 디스플레이를 구비한 멀티 디스플레이 장치에서 영상을 표시하는 방법은, 영상 중에서 제 1 디스플레이 장치와 제 2 디스플레이 장치의 경계 영역을 포함하여 표시하여야 하는 경계 영역 영상이 있는지를 판단하는 단계와, 경계 영역 영상 내의 경계 영역에 대응하는 위치에 더미 데이터를 생성하여 삽입함으로써, 경계 영역 영상이 크기가 증가되어 표시되도록 재생하는 단계를 포함한다.

Description

영상 표시 방법
본 발명은 영상 표시 방법에 관한 것으로, 복수의 디스플레이를 포함하는 멀티 디스플레이 장치에서 영상을 표시하는 방법에 관한 것이다.
멀티 디스플레이 장치는 다양한 영상들을 복수의 디스플레이 각각에 표시할 수 있을 뿐만 아니라, 분할된 영상들을 복수의 디스플레이에 표시하여 단일의 전체 영상을 표시할 수도 있다.
멀티 디스플레이 장치는 전체 영상을 복수의 부분 영상으로 분할하여 복수의 디스플레이에 분배하는 분배기를 포함한다. 분배기는 전체 영상을 설정된 개수의 분할 영상들로 나누고, 분할 영상들을 지정된 디스플레이에 제공하여, 멀티 디스플레이 장치에 전체 영상이 표시되도록 한다.
그런데, 복수의 디스플레이를 최대한 서로 인접하게 배치하더라도 디스플레이의 베젤(bezel)로 인해 베젤을 포함하는 경계 영역에서는 필연적으로 화면 왜곡이 발생한다.
본 발명은 멀티 디스플레이 장치에서 상호 인접하게 배치된 디스플레이들의 경계 영역을 걸쳐서 표시하여야 하는 영상 데이터에 대해 선별적으로 변화시켜 표시하는 영상 표시 방법을 제공한다.
본 발명의 일 관점에 따르면, 2개 이상의 디스플레이를 구비한 멀티 디스플레이 장치에서 영상을 표시하는 방법은, 상기 영상 중에서 서로 인접한 제 1 디스플레이와 제 2 디스플레이의 경계 영역을 포함하여 표시하여야 하는 경계 영역 영상이 있는지를 판단하는 단계와, 상기 경계 영역 영상 내의 상기 경계 영역에 대응하는 위치에 더미(dummy) 데이터를 생성하여 삽입함으로써, 상기 경계 영역 영상이 크기가 증가되어 표시되도록 재생하는 단계를 포함한다.
본 발명의 실시예에 의하면, 멀티 디스플레이 장치에서 상호 인접하게 배치된 디스플레이들의 경계 영역을 걸쳐서 표시하여야 하는 영상 데이터를 분석하여 변화시킬 필요가 있는 변화 필요 영상을 선정한다. 선정된 변화 필요 영상에 대해서는 더미 데이터를 추가하여 표시함으로써, 영상 데이터에 포함된 오브젝트(object)에 대한 가독성이 향상되도록 한다.
예를 들어, 컴퓨터에서 실행 중인 응용프로그램에 대응하여 멀티 디스플레이 장치에 표시되는 응용프로그램 화면창에 문서가 포함된 경우를 고려한다. 원래의 영상을 그대로 표시한다고 가정할 때에 글자가 디스플레이들의 경계 영역을 걸쳐서 표시되어야 한다면 이를 변화 필요 영상으로 선정한다. 그리고, 디스플레이들의 경계 영역을 비켜서 변화 필요 영상의 글자를 표시함으로써, 글자에 대한 가독성을 향상시킨다.
도 1은 본 발명의 일 실시예에 따른 영상 표시 방법을 수행할 수 있는 멀티 디스플레이 장치의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 영상 표시 방법을 설명하기 위한 흐름도이다.
도 3은 본 발명의 일 실시예에 따라 멀티 디스플레이 장치에 경계 영역 영상이 표시되는 예를 나타낸 것이다.
도 4는 본 발명의 일 실시예에 따라 경계 영역 영상에 더미 데이터가 삽입되는 예를 나타낸 것이다.
도 5는 본 발명의 일 실시예에 따라 렌더링 버퍼와 디스플레이 버퍼에 저장되는 경계 영역 영상의 예와 멀티 디스플레이 장치에 표시되는 경계 영역 영상의 예를 나타낸 것이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명의 범주는 청구항에 의해 정의될 뿐이다.
본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명은 본 발명의 실시예들을 설명함에 있어 실제로 필요한 경우 외에는 생략될 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
도 1은 본 발명의 일 실시예에 따른 영상 표시 방법을 수행할 수 있는 멀티 디스플레이 장치의 구성도이다.
도 1을 참조하면, 일 실시예에 따른 멀티 디스플레이 장치(100)는 디스플레이부(110), 멀티 터치 감지부(120), 중앙 제어부(130) 및 영상 처리부(140)를 포함한다.
디스플레이부(110)는 멀티 터치 프레임(111), 강화유리(112), 복수의 디스플레이를 포함하는 디스플레이 모듈(113), 벽면 고정 브라켓(114)을 포함한다. 멀티 터치 프레임(111)에는 주연부를 따라 복수의 발광소자와 수광소자가 교번하여 배치되며, 발광소자에서 광이 조사되면 대향하는 위치에 배치된 수광소자가 수광하여 멀티 터치 감지부(120)에 제공한다. 강화유리(112)는 디스플레이 모듈(113)이 외력에 의해 손상되지 않도록 보호한다. 디스플레이 모듈(113)은 영상 처리부(140)로부터 각 디스플레이에 대응하여 전송되는 영상 데이터를 각 디스플레이에 출력한다. 벽면 고정 브라켓(114)은 멀티 터치 프레임(111), 강화유리(112) 및 디스플레이 모듈(113)을 벽면에 고정시켜 지지하는 역할을 한다. 여기서, 디스플레이 모듈(113)은 디스플레이들의 경계선에 가요성 필름 형태의 디스플레이 바(bar)를 별도로 설치한 심리스 디스플레이 장치일 수 있다.
멀티 터치 감지부(120)는 멀티 터치 프레임(111)으로부터 멀티 터치 동작에 따른 신호를 수신하며, 수신된 멀티 터치 신호를 중앙 제어부(130)에 전달한다.
중앙 제어부(130)는 멀티 터치 감지부(120)로부터 전달되는 멀티 터치 신호에 기초하여 멀티 터치 위치 및 각종 인터랙션을 판별하며, 영상 처리부(140)에 의한 영상 처리 과정을 제어하여, 디스플레이부(110)에 의해 영상이 표시되도록 한다.
이러한 중앙 제어부(130)는 멀티 디스플레이 장치(100)에서 구동 중인 적어도 하나 이상의 응용프로그램에 대응하는 적어도 하나 이상의 응용프로그램 화면창이 디스플레이부(110)의 디스플레이 모듈(113)에 표시되도록 제어한다.
그리고, 중앙 제어부(130)는 응용프로그램 화면창의 이동에 관련한 인터랙션 이벤트가 발생하는지를 모니터링한다. 중앙 제어부(130)는 인터랙션 이벤트가 경계 영역을 걸쳐서 발생하는 경우에 디스플레이부(110)에 표시하여야 하는 영상 중에서 디스플레이 모듈(113)에 포함된 복수의 디스플레이 사이에 있는 경계 영역을 포함하여 표시하여야 하는 경계 영역 영상이 있는지를 판단한다. 여기서, 복수의 디스플레이가 좌우로 인접한 경우에, 경계 영역이라 함은 상호 간의 경계선을 포함하고, 좌측 디스플레이의 우측 가장자리 디스플레이 일부면 및/또는 우측 디스플레이의 좌측 가장자리 디스플레이 일부면을 포함한다. 또는, 복수의 디스플레이가 상하로 인접한 경우에, 경계 영역이라 함은 상호 간의 경계선을 포함하고, 상측 디스플레이의 하측 가장자리 디스플레이 일부면 및/또는 하측 디스플레이의 상측 디스플레이 일부면을 포함한다. 또한, 오브젝트라 함은 소정의 형상을 갖는 텍스트, 캐릭터 등을 포함한다. 오브젝트는 오브젝트가 포함되어 있는 영상의 중심좌표와 별도의 표시좌표를 가짐으로써, 표시 좌표를 변경시킬 경우, 오브젝트가 포함되어 있는 영상의 상단, 하단, 좌단, 우단으로부터 오브젝트까지의 거리 중 적어도 하나가 변경되는 특징을 갖는다.
아울러, 중앙 제어부(130)는 경계 영역 영상 내의 경계 영역에 대응하는 위치에 더미 데이터를 생성하여 삽입함으로써, 경계 영역 영상의 크기가 증가되어 경계 영역 영상 내의 오브젝트가 경계 영역을 포함하지 않는 위치에 표시되도록 영상 처리부(140)를 제어한다.
한편, 중앙 제어부(130)는 디스플레이부(110)에 표시하여야 하는 영상 중에서 디스플레이 모듈(113)에 포함된 복수의 디스플레이 사이에 있는 경계 영역을 포함하여 표시하여야 하는 경계 영역 영상이 있는 경우, 경계 영역 영상 내의 영상데이터의 변화량을 기초로 경계 영역 영상 내의 오브젝트를 변화시킬 필요가 있는 변화 필요 영상인지를 결정할 수 있고, 경계 영역 영상이 변화 필요 영상일 경우에 경계 영역 영상 내의 경계 영역에 대응하는 위치에 더미 데이터를 생성하여 삽입할 수도 있다.
한편, 디스플레이 모듈(113)이 디스플레이들의 경계선에 가요성 필름 형태의 디스플레이 바를 별도로 설치한 심리스 디스플레이 장치일 경우에, 중앙 제어부(130)는 경계 영역에 표시되는 영상의 색상과 유사한 색상을 디스플레이 바에 출력하는 심리스 디스플레이 제어를 수행할 수도 있다.
영상 처리부(140)는 중앙 제어부(130)의 제어 신호에 따라 디스플레이부(110)에 표시하여야 하는 영상을 처리하며, 디스플레이부(110)를 구성하는 복수의 디스플레이에 각각 표시하고자 하는 영상 데이터를 분배하여 디스플레이 모듈(113)에 제공한다. 영상 처리부(140)의 렌더링 버퍼(142)에 저장되는 경계 영역 영상에는 디스플레이 모듈(113)에 포함된 복수의 디스플레이 사이에 있는 경계 영역에 대한 화소 정보 및 더미 데이터가 포함된다. 영상 처리부(140)의 디스플레이 버퍼(141)에 저장되는 경계 영역 영상에는 디스플레이 모듈(113)에 포함된 복수의 디스플레이 사이에 있는 경계 영역에 대한 화소 정보는 포함되지 않고 더미 데이터만 포함된다. 분배기(143)는 디스플레이 버퍼(141)에 저장된 경계 영역 영상을 디스플레이부(110)의 디스플레이 모듈(113)에 전송한다.
도 2는 본 발명의 일 실시예에 따른 영상 표시 방법을 설명하기 위한 흐름도이다. 이하의 설명에 있어서, 단계 S209 및 S211은 일 실시예에 따라 수행하는 것이며, 본 발명의 다른 실시예에 의하면 단계 S209 및 S211은 생략될 수 있으나 아래에서는 포함하는 예에 대해 우선 설명하기로 한다.
도 2를 참조하면, 일 실시예에 따른 영상 표시 방법은, 멀티 디스플레이 장치에서 구동 중인 적어도 하나 이상의 응용프로그램에 대응하는 적어도 하나 이상의 응용프로그램 화면창을 디스플레이 모듈을 통해 표시하는 단계(S201)를 포함한다.
그리고, 일 실시예에 따른 영상 표시 방법은, 응용프로그램 화면창의 이동에 관련한 인터랙션 이벤트가 발생하는지를 모니터링하는 단계(S203)를 더 포함한다.
이어서, 일 실시예에 따른 영상 표시 방법은 모니터링하는 단계에서, 인터랙션 이벤트가 경계 영역을 걸쳐서 발생하는 경우에 디스플레이 모듈에 포함된 디스플레이들의 경계 영역을 포함하여 표시하여야 하는 경계 영역 영상이 있는지를 판단하는 단계(S205 및 S207)를 더 포함한다. 여기서, 멀티 디스플레이 장치에 표시될 단일 영상의 전체 좌표 정보에 따른 영상 표시 범위 내에 경계 영역의 좌표가 포함되면 경계 영역 영상이 있는 것으로 판단할 수 있다.
아울러, 일 실시예에 따른 영상 표시 방법은 경계 영역 영상이 있는 경우, 경계 영역 영상 내의 영상데이터의 변화량을 기초로 경계 영역 영상이 변화시킬 필요가 있는 변화 필요 영상인지를 결정하는 단계(S209, S211)를 더 포함한다. 여기서, 경계 영역 영상 중에서, 임의 화소와 주위 화소들 사이의 화소 간 데이터 변화량을 임의 화소를 변경하면서 반복 산출하고, 반복 산출된 화소 간 데이터 변화량들의 합계 또는 평균을 이용하여 경계 영역 영상의 데이터 변화율을 산출하며, 산출된 데이터 변화율과 기 설정된 제 1 임계 변화율을 비교한 결과에 기초하여 경계 영역 영상이 변화 필요 영상인지를 판정할 수 있다.
다음으로, 일 실시예에 따른 영상 표시 방법은 경계 영역 영상이 변화 필요 영상이면, 경계 영역 영상 내의 경계 영역에 대응하는 위치에 더미 데이터를 생성하여 삽입함으로써, 경계 영역 영상 내의 오브젝트가 경계 영역을 포함하지 않는 위치에 표시되도록 하는 단계(S213, S215)를 더 포함한다. 이러한 단계 S213 및 S215에서, 더미 데이터가 삽입됨에 따라 경계 영역 영상의 크기가 증가되어 경계 영역 영상 내의 오브젝트의 표시 위치가 쉬프트된다. 여기서, 영상데이터의 변화량에 기초하여 경계 영역에 평행하는 화소 라인별로 영상데이터의 변화율을 산출하고, 화소 라인별로 산출된 영상데이터의 변화율과 기 설정된 제 2 임계 변화율을 비교한 결과에 기초하여 더미 데이터의 삽입 위치를 결정해 삽입할 수 있다. 또, 경계 영역을 기준으로 하여 인터랙션 이벤트의 이동 방향에 대응하는 방향으로 응용프로그램 화면창이 늘어나도록 더미 데이터를 삽입할 수 있다.
앞서 언급한 바와 같이, 단계 S209 및 S211은 일 실시예에 따라 수행하는 것이며, 다른 실시예에 의하면 단계 S209 및 S211은 생략될 수 있다. 이 경우에는, 단계 S207에서 복수의 디스플레이 사이에 있는 경계 영역을 포함하여 표시하여야 하는 경계 영역 영상이 있으면, 경계 영역 영상 내의 경계 영역에 대응하는 위치에 더미 데이터를 생성하여 삽입할 수 있다.
이하, 도 1 내지 도 5를 참조하여 본 발명의 일 실시예에 따른 멀티 디스플레이 장치(100)에서 수행하는 영상 표시 방법에 대해 더 자세히 살펴보기로 한다.
먼저, 사용자가 멀티 디스플레이 장치(100)의 멀티 터치 프레임(111)의 소정 위치를 터치하여 응용프로그램의 구동을 명령할 수 있으며, 이러한 구동 명령은 멀티 터치 감지부(120)를 통해 중앙 제어부(130)에 전달된다.
그러면, 중앙 제어부(130)는 멀티 터치 감지부(120)를 통해 입력되는 구동 명령에 대응하는 응용프로그램을 구동하며, 응용프로그램의 구동에 따른 응용프로그램 화면창을 표시하도록 영상 처리부(140)를 제어하고, 영상 처리부(140)에 의해 분배된 영상이 디스플레이부(110)에 포함된 디스플레이에 표시된다(S201). 예를 들어, 사용자가 응용프로그램A의 구동을 명령한 경우라면 도 3의 (a)와 같이 디스플레이부(110)에 응용프로그램A에 대응하는 응용프로그램 화면창(301)이 표시된다. 여기서, 응용프로그램 화면창(301)이 표시되는 초기 위치는 임의로 나타낸 것이다.
이렇게, 멀티 디스플레이 장치(100)의 디스플레이부(110)에 영상이 표시된 상황에서, 중앙 제어부(130)는 응용프로그램 화면창의 이동에 관련한 인터랙션 이벤트가 발생하는지를 모니터링한다(S203).
여기서, 사용자는 멀티 디스플레이 장치(100)의 멀티 터치 프레임(111)에 표시된 응용프로그램 화면창(301)의 표시 위치를 변경시키고자 할 경우에 응용프로그램 화면창(301)을 드래그 조작(302)하거나 사전에 약속된 신호를 입력하여 응용프로그램 화면창(301)의 이동에 관련한 인터랙션 이벤트를 발생시킬 수 있다. 그러면, 이러한 인터랙션 이벤트에 대한 신호가 멀티 터치 감지부(120)를 통해 중앙 제어부(130)에 전달된다.
그러면, 중앙 제어부(130)는 인터랙션 이벤트가 디스플레이 모듈(113)에 포함된 디스플레이들의 경계 영역을 걸쳐서 발생하였는지를 확인한다. 예를 들어, 드래그 조작(302)의 좌표 정보와 경계 영역의 좌표 정보를 비교한 결과에 기초하여 인터랙션 이벤트가 디스플레이들의 경계 영역을 걸쳐서 발생하였는지를 확인할 수 있다(S205).
다음으로, 중앙 제어부(130)는 인터랙션 이벤트가 디스플레이 모듈(113)에 포함된 디스플레이들의 경계 영역을 걸쳐서 발생하였다고 판단되면, 디스플레이 모듈(113)에 포함된 디스플레이들의 경계 영역을 포함하여 표시하여야 하는 경계 영역 영상이 있는지를 판단한다. 여기서, 중앙 제어부(130)는 멀티 디스플레이 장치(100)에 표시될 단일 영상의 전체 좌표 정보에 따른 영상 표시 범위 내에 경계 영역의 좌표가 포함되면 경계 영역 영상이 있는 것으로 판단할 수 있다. 예를 들어, 도 3의 (a)에서 드래그 조작(302)에 의해 도 3의 (b)에 예시한 바와 같이 응용프로그램 화면창(301)을 표시하여야 한다면 경계 영역 영상이 있는 것으로 판단할 수 있다. 아울러, 멀티 디스플레이 장치(100)의 현재의 디스플레이 모드가 전체 화면에 영상을 재생하는 모드인 경우처럼 이미 복수의 디스플레이에 영상이 재생되는 중인 것을 알 수 있는 경우라면 반드시 경계 영역 영상이 존재하기 때문에 경계 영역 영상이 존재하는지를 별도로 파악하지 않을 수도 있다. 한편, 도 2를 참조하여 설명하고 있는 실시예에서는 중앙 제어부(130)가 인터랙션 이벤트가 디스플레이 모듈(113)에 포함된 디스플레이들의 경계 영역을 걸쳐서 발생하였다고 판단되는 경우에 경계 영역 영상이 있는지를 판단하는 실시예를 설명하였으나, 중앙 제어부(130)는 단계 S203 및 단계 S205와는 무관하게, 단계 S201에서 디스플레이들에 영상을 표시하면서 경계 영역 영상이 있는지를 판단할 수도 있다(S207).
이후, 중앙 제어부(130)는 단계 S207에서 경계 영역 영상이 있다고 판단되면, 일 실시예에 따라, 경계 영역 영상 내의 영상데이터의 변화량을 기초로 경계 영역 영상이 변화시킬 필요가 있는 변화 필요 영상인지를 결정한다. 예를 들어, 영상데이터의 변화량은 채도의 변화량 또는 색상 주파수의 변화량 등을 포함할 수 있다.
중앙 제어부(130)에서 경계 영역 영상이 변화 필요 영상인지를 결정하는 과정을 좀 더 자세히 살펴보면, 경계 영역 영상 중에서, 임의 화소와 주위 화소들 사이의 화소 간 데이터 변화량을 임의 화소를 변경하면서 반복 산출한다. 예를 들어, 임의 화소를 둘러싸고 있는 8개의 화소와의 데이터 변화량을 산출하며, 이러한 화소 간 데이터 변화량을 산출하는 과정을 경계 영역 영상에 포함된 화소의 개수만큼 반복하여 수행하고, 반복 산출된 화소 간 데이터 변화량들의 합계 또는 평균을 이용하여 경계 영역 영상의 데이터 변화율을 산출한다(S209). 그리고, 산출된 데이터 변화율과 기 설정된 제 1 임계 변화율을 비교한 결과에 기초하여 경계 영역 영상이 변화 필요 영상인지를 판정한다. 예를 들어, 경계 영역 영상 중에 오브젝트로서 글자가 포함되어 있는 경우에는 오브젝트로서 그림만 포함되는 경우와 비교할 때에 상대적으로 데이터 변화율이 더 높다. 그림은 인접한 화소들이 유사한 채도와 색상을 가질 확률이 높지만 글자는 흑과 백처럼 인접한 화소들의 채도와 색상이 큰 차이를 가질 확률이 높기 때문이다. 그러므로, 중앙 제어부(130)는 경계 영역 영상의 데이터 변화율이 기 설정된 제 1 임계 변화율보다 크면 오브젝트로서 글자가 포함되어 있는 경우라고 인지하여 경계 영역 영상을 변화 필요 영상으로 결정할 수 있다. 이처럼, 글자가 포함된 경우에 변화 필요 영상으로 결정하는 이유는 도 3의 (b)와 같이 응용프로그램 화면창(301)이 표시되면 응용프로그램 화면창(301)의 내부에 있는 글자에 대한 가독성이 매우 낮아지기 때문이다(S211).
다음으로, 중앙 제어부(130)는 변화 필요 영상으로 판정된 경계 영역 영상에 대해, 경계 영역에 대응하는 위치에 더미 데이터를 생성하여 삽입한다(S213).
중앙 제어부(130)에서 더미 데이터를 삽입하는 과정을 좀 더 자세히 살펴보면, 단계 S209에서 산출된 화소 간 영상데이터의 변화량에 기초하여 경계 영역에 평행하는 화소 라인별로 영상데이터의 변화율을 산출하고, 화소 라인별로 산출된 영상데이터의 변화율과 기 설정된 제 2 임계 변화율을 비교한 결과에 기초하여 더미 데이터의 삽입 위치를 결정한다. 예를 들어, 도 3의 (b)에 예시된 응용프로그램 화면창(301)의 화소 라인별 영상데이터의 변화율은 『응용프로그램A』를 포함하는 화소 라인들이 『응용프로그램A』를 포함하는 화소 라인들보다 더 큰 값을 나타낸다. 그러면, 중앙 제어부(130)는 글자 오브젝트를 포함하는 화소 라인의 처음과 끝을 알 수 있으며, 도 4에 예시한 바와 같이 글자 오브젝트를 포함하는 화소 라인들에 더미 데이터(301a)를 삽입하여 새롭게 변형된 응용프로그램 화면창(303)을 생성할 수 있다.
앞서 언급한 바와 같이, 단계 S209 및 S211은 일 실시예에 따라 수행하는 것이며, 다른 실시예에 의하면 단계 S209 및 S211은 생략될 수 있다. 다른 실시예에 의하면, 중앙 제어부(130)는 단계 S207에서 경계 영역 영상이 있다고 판단되면, 경계 영역 영상에 대해, 경계 영역에 대응하는 위치에 더미 데이터를 생성하여 삽입할 수 있다(S213).
이어서, 중앙 제어부(130)는 단계 S213에서 더미 데이터가 삽입되어 크기가 증가된 경계 영역 영상에 대해 경계 영역 영상 내의 오브젝트가 디스플레이 모듈(113)에 포함된 디스플레이들의 경계 영역을 포함하지 않는 위치에 표시되도록 영상 처리부(140)를 제어한다. 그리고, 영상 처리부(140)는 디스플레이 모듈(113)에 포함되는 디스플레이들의 경계 영역을 포함하지 않는 위치에 경계 영역 영상 내의 오브젝트가 표시될 수 있도록 영상을 분배한다. 이로써, 디스플레이부(110)에는 경계 영역 영상 내의 오브젝트가 디스플레이 모듈(113)에 포함된 디스플레이들의 경계 영역을 포함하지 않는 위치에 표시된다. 예를 들어, 단계 S213에서 경계 영역을 기준으로 하여 인터랙션 이벤트의 이동 방향에 대응하는 방향으로 응용프로그램 화면창(303)이 늘어나도록 더미 데이터가 삽입되면, 도 3의 (c)와 같이 드래그 조작(302)의 방향으로 늘어난 응용프로그램 화면창(303)이 표시된다(S215).
도 5는 본 발명의 일 실시예에 따라 렌더링 버퍼(142)와 디스플레이 버퍼(141)에 저장되는 경계 영역 영상의 예와 멀티 디스플레이 장치(100)의 디스플레이 모듈(113)에 표시되는 경계 영역 영상의 예를 나타낸 것이다.
도 5를 참조하면, 렌더링 버퍼(142)는 디스플레이부(110)가 가지고 있는 디스플레이들 사이의 경계 영역(예컨대, 베젤)을 포함한 물리적 해상도 정보를 가진다. 예를 들어, 2개의 Full HD 해상도를 갖는 디스플레이 장치의 경우에, 디스플레이 버퍼(141)는 1920 X 2160의 물리적 해상도 정보를 가지며, 렌더링 버퍼(142)는 1920 X (2160+경계 영역)의 물리적 해상도 정보를 가진다. 즉, 도 5의 (a)에 나타낸 바와 같이 렌더링 버퍼(142)는 경계 영역(142a)에 대한 위치 정보를 가지고 있다. 따라서, 단계 S213에서 경계 영역 영상에 더미 데이터가 삽입되면 영상 처리부(140)의 렌더링 버퍼(142)에는 도 5의 (a)와 같은 응용프로그램 화면창(303)이 저장된다. 그리고, 렌더링 버퍼(142)에 저장되어 있던 데이터가 디스플레이 버퍼(141)로 이동할 때에는 경계 영역(142a)이 버려지고 도 5의 (b)와 같은 응용프로그램 화면창(303)이 저장된다. 이러한 디스플레이 버퍼(141)에 저장된 응용프로그램 화면창(303)이 단계 S215에서 표시될 때에는 도 5의 (c)와 같이 응용프로그램 화면창(303) 내의 오브젝트가 디스플레이 모듈(113)에 포함된 디스플레이들의 경계 영역을 포함하지 않는 위치에 표시된다. 예를 들어, 응용프로그램 화면창(303)이 2개로 나뉘어서 디스플레이 모듈(113)에 포함된 제 1 디스플레이와 제 2 디스플레이에 각각 표시되지만 글자 오브젝트는 하나의 디스플레이에 표시되어, 가독성을 보장하게 된다.
지금까지 설명한 바와 같이 실시예에 의하면, 멀티 디스플레이 장치에서 상호 인접하게 배치된 디스플레이들의 경계 영역을 걸쳐서 표시하여야 하는 영상 데이터를 분석하여 변화시킬 필요가 있는 변화 필요 영상을 선정한다. 선정된 변화 필요 영상에 대해서는 더미 데이터를 추가하여 크기를 증가시켜 표시함으로써, 영상 데이터에 포함된 오브젝트에 대한 가독성이 향상되도록 한다.
예를 들어, 컴퓨터에서 실행 중인 응용프로그램에 대응하여 멀티 디스플레이 장치에 표시되는 응용프로그램 화면창에 문서가 포함된 경우, 원래의 영상을 그대로 표시한다고 가정할 때에 글자가 디스플레이들의 경계 영역을 걸쳐서 표시되어야 한다면 변화 필요 영상으로 선정한다. 그리고, 선정된 변화 필요 영상에 대하여, 디스플레이들의 경계 영역을 비켜서 글자를 표시함으로써, 글자에 대한 가독성을 향상시킨다.
한편, 전술한 실시예에서는 디스플레이 모듈(113)이 디스플레이들의 경계선에 가요성 필름 형태의 디스플레이 바를 별도로 설치한 심리스 디스플레이 장치일 경우에, 중앙 제어부(130)가 경계 영역에 표시되는 영상의 색상과 유사한 색상을 디스플레이 바에 출력하는 공지의 심리스 디스플레이 제어 과정에 대해서는 설명을 생략하였다. 이렇게 본 발명의 실시예에 따른 경계 영역 영상에 대한 변화 기술에 공지의 심리스 디스플레이 제어 기술을 접목하더라도 종래 기술과 달리 경계 영역의 가독성이 저하되지 않는다. 예를 들어, 본 발명의 실시예에 의하면 영상 경계 영역에 글자 오브젝트가 포함되는 경우처럼 가독성의 보장이 요구되는 때에는 쉬프트되어 영상 경계 영역을 피해서 표시되기 때문에, 영상 경계 영역에 대한 심리스 디스플레이 제어가 적용되더라도 가요성 필름 형태의 디스플레이 바에는 글자 오브젝트가 포함되지 않기 때문이다.
앞서 도 3을 참조하여 복수의 디스플레이 중 상하로 인접한 두 개의 디스플레이의 경계 영역을 포함하는 경계 영역 영상을 실시예로서 설명하였으나, 복수의 디스플레이 중 좌우로 인접한 두 개의 디스플레이의 경계 영역을 포함하는 경계 영역 영상 또한 동일 또는 유사한 적용될 수 있음은 자명하다 할 것이다.
본 발명에 첨부된 각 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 흐름도의 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.
또한, 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시예들에서는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
본 발명은 멀티 디스플레이 장치에서 상호 인접하게 배치된 디스플레이들의 경계 영역을 걸쳐서 표시하여야 하는 영상 데이터를 변화시켜 표시한다. 이로써, 영상 데이터에 포함된 오브젝트에 대한 가독성이 향상되도록 한다. 이러한 본 발명은 복수의 디스플레이를 포함하는 멀티 디스플레이 장치가 채용된 벽면 고정형 컴퓨팅 장치나 테이블 탑 컴퓨팅 장치 등에 이용할 수 있다.

Claims (8)

  1. 2개 이상의 디스플레이를 구비한 멀티 디스플레이 장치에서 영상을 표시하는 방법으로서,
    상기 영상 중에서 서로 인접한 제 1 디스플레이와 제 2 디스플레이의 경계 영역을 포함하여 표시하여야 하는 경계 영역 영상이 있는지를 판단하는 단계와,
    상기 경계 영역 영상 내의 상기 경계 영역에 대응하는 위치에 더미 데이터를 생성하여 삽입함으로써, 상기 경계 영역 영상이 크기가 증가되어 표시되도록 재생하는 단계를 포함하는,
    영상 표시 방법.
  2. 제 1 항에 있어서,
    상기 경계 영역 영상이 있는 경우, 상기 경계 영역 영상 내의 영상데이터의 변화량을 기초로 상기 경계 영역 영상이 변화시킬 필요가 있는 변화 필요 영상인지를 결정하는 단계,
    를 더 포함하고, 상기 재생하는 단계는 상기 경계 영역 영상이 상기 변화 필요 영상으로 결정될 때 수행되는 것인
    영상 표시 방법.
  3. 제 1 항에 있어서,
    상기 경계 영역 영상이 있는지를 판단하는 단계는, 상기 멀티 디스플레이 장치에 표시될 단일 영상의 전체 좌표 정보에 따른 영상 표시 범위 내에 상기 경계 영역의 좌표가 포함되면 상기 경계 영역 영상이 있는 것으로 판단하는
    영상 표시 방법.
  4. 제 2 항에 있어서,
    상기 변화 필요 영상인지를 결정하는 단계는,
    상기 경계 영역 영상 중에서, 임의 화소와 주위 화소들 사이의 화소 간 데이터 변화량을 상기 임의 화소를 변경하면서 반복 산출하는 단계와,
    상기 반복 산출된 화소 간 데이터 변화량들의 합계 또는 평균을 이용하여 상기 경계 영역 영상의 데이터 변화율을 산출하는 단계와,
    상기 산출된 데이터 변화율과 기 설정된 제 1 임계 변화율을 비교한 결과에 기초하여 상기 경계 영역 영상이 상기 변화 필요 영상인지를 판정하는 단계를 포함하는
    영상 표시 방법.
  5. 제 2 항에 있어서,
    상기 재생하는 단계는,
    상기 영상데이터의 변화량에 기초하여 상기 경계 영역에 평행하는 화소 라인별로 영상데이터의 변화율을 산출하는 단계와,
    상기 화소 라인별로 산출된 영상데이터의 변화율과 기 설정된 제 2 임계 변화율을 비교한 결과에 기초하여 상기 더미 데이터의 삽입 위치를 결정하는 단계를 더 포함하는
    영상 표시 방법.
  6. 제 1 항에 있어서,
    상기 멀티 디스플레이 장치에서 구동 중인 적어도 하나 이상의 응용프로그램에 대응하는 적어도 하나 이상의 응용프로그램 화면창을 상기 제 1 디스플레이 또는 상기 제 2 디스플레이에 표시하는 단계와,
    상기 응용프로그램 화면창의 이동에 관련한 인터랙션 이벤트가 발생하는지를 모니터링하는 단계를 더 포함하며,
    상기 모니터링하는 단계에서, 상기 인터랙션 이벤트가 상기 경계 영역을 걸쳐서 발생하는 경우에 상기 경계 영역 영상이 있는지를 판단하는 단계를 수행하는
    영상 표시 방법.
  7. 제 6 항에 있어서,
    상기 재생하는 단계는, 상기 경계 영역을 기준으로 하여 상기 인터랙션 이벤트의 이동 방향에 대응하는 방향으로 상기 응용프로그램 화면창이 늘어나도록 상기 더미 데이터를 삽입하는
    영상 표시 방법.
  8. 제 1 항 내지 제 7 항 중에서 어느 한 항에 기재된 영상 표시 방법에 따른 각각의 단계를 수행하는 명령어를 포함하는
    컴퓨터 프로그램이 기록된 컴퓨터 판독 가능한 기록매체.
PCT/KR2018/011044 2017-09-19 2018-09-19 영상 표시 방법 WO2019059633A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP18857905.6A EP3672265B1 (en) 2017-09-19 2018-09-19 Image display method
US16/649,101 US11175874B2 (en) 2017-09-19 2018-09-19 Image display method
CN201880060792.8A CN111133766B (zh) 2017-09-19 2018-09-19 图像显示方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020170120636A KR101979410B1 (ko) 2017-09-19 2017-09-19 영상 표시 방법
KR10-2017-0120636 2017-09-19

Publications (1)

Publication Number Publication Date
WO2019059633A1 true WO2019059633A1 (ko) 2019-03-28

Family

ID=65811466

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/011044 WO2019059633A1 (ko) 2017-09-19 2018-09-19 영상 표시 방법

Country Status (5)

Country Link
US (1) US11175874B2 (ko)
EP (1) EP3672265B1 (ko)
KR (1) KR101979410B1 (ko)
CN (1) CN111133766B (ko)
WO (1) WO2019059633A1 (ko)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109658427B (zh) * 2017-10-11 2023-04-07 中兴通讯股份有限公司 图像处理方法及装置
KR20210085299A (ko) * 2019-12-30 2021-07-08 엘지디스플레이 주식회사 디스플레이 장치 및 그의 렌더링 방법
US11594192B2 (en) * 2020-05-21 2023-02-28 Dell Products, L.P. Generating multi-monitor recommendations
US20220230575A1 (en) * 2021-01-19 2022-07-21 Dell Products L.P. Transforming background color of displayed documents to increase lifetime of oled display
JP7563287B2 (ja) * 2021-04-23 2024-10-08 株式会社デンソー 車両用表示システム、表示システム、表示方法、及び表示プログラム
CN113467736A (zh) * 2021-06-29 2021-10-01 杭州海康威视数字技术股份有限公司 一种显示窗口的创建方法、装置及电子设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002365718A (ja) * 2001-06-04 2002-12-18 Hitachi Ltd マルチディスプレイ装置およびその調整方法
JP2014010169A (ja) * 2012-06-27 2014-01-20 Sharp Corp マルチディスプレイ装置及びマルチディスプレイ装置の製造方法
JP2016095378A (ja) * 2014-11-13 2016-05-26 シャープ株式会社 マルチディスプレイ装置、ディスプレイ及び画像表示方法
US20160350052A1 (en) * 2015-05-29 2016-12-01 Hon Hai Precision Industry Co., Ltd. Borderless display device
JP2017003905A (ja) * 2015-06-15 2017-01-05 株式会社エクサ マルチディスプレイ装置
KR20170120636A (ko) 2015-03-31 2017-10-31 신닛테츠스미킨 카부시키카이샤 용융 아연계 도금 강판

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3579061B2 (ja) * 1992-08-31 2004-10-20 株式会社東芝 表示装置
US9261723B1 (en) * 2008-02-01 2016-02-16 Prysm, Inc. Reducing visibility of inter-screen gap in tiled display systems
KR101483455B1 (ko) * 2008-07-01 2015-01-16 삼성전자 주식회사 멀티 디스플레이 시스템 및 멀티 디스플레이 방법
US8330733B2 (en) 2009-01-21 2012-12-11 Microsoft Corporation Bi-modal multiscreen interactivity
US20110164065A1 (en) 2010-01-06 2011-07-07 Ati Technologies Ulc Method And Apparatus For Configuring Display Bezel Compensation For A Single Large Surface Display Formed By A Plurality Of Displays
KR101843197B1 (ko) * 2011-12-01 2018-03-29 엘지디스플레이 주식회사 멀티뷰 영상 생성방법과 이를 이용한 입체영상 표시장치
KR20140021893A (ko) * 2012-08-13 2014-02-21 삼성전자주식회사 터치 영역을 볼 수 있도록 디스플레이하는 전자 장치 및 방법
CN106409206A (zh) * 2016-09-21 2017-02-15 北京京东方专用显示科技有限公司 一种显示画面的亮度补偿方法及补偿装置
US10146746B2 (en) * 2016-11-29 2018-12-04 Kukudocs Inc. Method and system for converting a document
CN107067447B (zh) * 2017-01-26 2020-10-16 安徽天盛智能科技有限公司 一种大空间区域的整体化视频监控方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002365718A (ja) * 2001-06-04 2002-12-18 Hitachi Ltd マルチディスプレイ装置およびその調整方法
JP2014010169A (ja) * 2012-06-27 2014-01-20 Sharp Corp マルチディスプレイ装置及びマルチディスプレイ装置の製造方法
JP2016095378A (ja) * 2014-11-13 2016-05-26 シャープ株式会社 マルチディスプレイ装置、ディスプレイ及び画像表示方法
KR20170120636A (ko) 2015-03-31 2017-10-31 신닛테츠스미킨 카부시키카이샤 용융 아연계 도금 강판
US20160350052A1 (en) * 2015-05-29 2016-12-01 Hon Hai Precision Industry Co., Ltd. Borderless display device
JP2017003905A (ja) * 2015-06-15 2017-01-05 株式会社エクサ マルチディスプレイ装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3672265A4

Also Published As

Publication number Publication date
EP3672265B1 (en) 2023-02-01
KR101979410B1 (ko) 2019-05-16
US20200225899A1 (en) 2020-07-16
CN111133766B (zh) 2022-05-10
CN111133766A (zh) 2020-05-08
KR20190032109A (ko) 2019-03-27
EP3672265A1 (en) 2020-06-24
US11175874B2 (en) 2021-11-16
EP3672265A4 (en) 2021-01-13

Similar Documents

Publication Publication Date Title
WO2019059633A1 (ko) 영상 표시 방법
US6862005B2 (en) Apparatus, method and program for causing a plurality of display units to display images
CN108733296B (zh) 书写笔迹的擦除方法、装置和设备
CN104951129A (zh) 将覆盖数据与视频图像相组合的方法和系统及显示系统
CN103680470A (zh) 大屏控制的图像显示方法及系统
WO2016099186A1 (en) Display apparatus and controlling method
JP3037161B2 (ja) 図形画像表示装置及び図形画像表示方法
US20160063917A1 (en) Image display control apparatus, image display system, image display control method and program
WO2020122358A1 (ko) 사이니지 장치 및 그 제어 방법
US5943036A (en) Flicker reduction system for computer graphical interlaced display
WO2015016474A1 (en) Display apparatus and control method thereof
CN100405458C (zh) 活动补偿
CN104603732A (zh) 显示控制方法、计算机程序、显示控制装置及图像显示系统
WO2012148132A2 (ko) 메모리성 디스플레이 장치 및 그 구동 방법
KR102100409B1 (ko) 영상 표시 방법
EP3723366A1 (en) Image display device, image display method, and image display system
CN103777743A (zh) 一种信息处理的方法及电子设备
EP0691638A2 (en) Changed line detecting apparatus and method
EP0486090B1 (en) Display method and apparatus
KR101183397B1 (ko) 시야각 제어 가능한 액정 표시 장치 및 그 구동 방법
JP2001228818A (ja) 表示装置
WO2018012704A2 (ko) 영상 처리 장치 및 영상 처리 방법
JP2000050315A (ja) 立体画像の階調表示制御方法および装置
JP2600904B2 (ja) 画像合成方法およびその装置
CN110673740B (zh) 一种驱动方法、驱动系统、显示装置及可读存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18857905

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018857905

Country of ref document: EP

Effective date: 20200319