WO2022169124A1 - 복수의 디스플레이를 포함하는 디스플레이 시스템 및 그 영상 출력 방법 - Google Patents

복수의 디스플레이를 포함하는 디스플레이 시스템 및 그 영상 출력 방법 Download PDF

Info

Publication number
WO2022169124A1
WO2022169124A1 PCT/KR2022/000456 KR2022000456W WO2022169124A1 WO 2022169124 A1 WO2022169124 A1 WO 2022169124A1 KR 2022000456 W KR2022000456 W KR 2022000456W WO 2022169124 A1 WO2022169124 A1 WO 2022169124A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
displays
image data
refresh rate
image
Prior art date
Application number
PCT/KR2022/000456
Other languages
English (en)
French (fr)
Inventor
최원섭
이주홍
채상원
박찬민
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to US17/665,371 priority Critical patent/US11948533B2/en
Publication of WO2022169124A1 publication Critical patent/WO2022169124A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43076Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of the same content streams on multiple devices, e.g. when family members are watching the same movie on different devices
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/12Synchronisation between the display unit and other units, e.g. other display units, video-disc players
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/43615Interfacing a Home Network, e.g. for connecting the client to a plurality of peripherals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • H04N5/06Generation of synchronising signals

Definitions

  • Embodiments disclosed in this document relate to a display system and an image output method thereof.
  • electronic devices may provide various functions. Since the electronic device (eg, source device) can communicate with other electronic devices (eg, sink device), it can operate in conjunction with other electronic devices (eg, sink device). For example, one or more contents generated by an electronic device (eg, a source device) may be output through a plurality of displays (eg, a sink device).
  • Any one of the plurality of displays connected to the electronic device that is the source device may have different specifications from the other displays.
  • content is output on the basis of a display having a low specification among a plurality of displays, the quality of the content displayed on a display having a high specification is deteriorated, thereby causing a performance issue for the user.
  • Various embodiments of the present document provide a display system capable of displaying an image in synchronization with each refresh rate of a plurality of displays connected to an electronic device, which is a source device, and an image output method thereof.
  • a display system includes a sink device including a plurality of displays; a source device operatively coupled to the plurality of displays included in the sink device, the plurality of displays including a display having a higher refresh rate than at least one other display having a lower refresh rate among the plurality of displays and the source device renders image data based on a display having a high refresh rate among the plurality of displays, and transmits at least a portion of the rendered image data to the plurality of displays in synchronization with each of the refresh rates of the at least one other display.
  • An image output method of a display system includes an operation of checking a refresh rate of each of a plurality of displays, wherein the plurality of displays are higher than at least one other display having a low refresh rate among the plurality of displays.
  • a display having a refresh rate rendering image data to be transmitted to the plurality of displays based on a display having a high refresh rate among the plurality of displays; and transmitting at least a portion of the rendered image data to the plurality of displays in synchronization with each of the refresh rates of the at least one other display having the low refresh rate.
  • an image may be displayed in synchronization with the respective refresh rates of the plurality of displays. Accordingly, since it is possible to display an image corresponding to the specifications of each of the plurality of displays, it is possible to prevent image quality from being deteriorated.
  • the terms “include” and “comprise” as well as derivatives thereof. are meant to include without limitation; the term “or” is inclusive and means 'and/or';
  • the term “controller” means to control at least one action.
  • a device such as a control unit may be implemented in hardware, firmware or software, or some combination of at least two of the above hardware, firmware or software. Functions related to any specific control unit can be centralized or distributed, whether local or remote.
  • various functions described below may be implemented or supported by one or more computer programs, each computer program being formed from computer readable program code, and a computer readable medium ) is implemented in
  • application and “program” refer to one or more computer programs, software components, sets of instructions, procedures adapted for implementation in suitable computer readable program code. , refers to a function, an object, a class, an instance, related data, or a part thereof.
  • computer readable program code includes any type of computer code including source code, object code and executable code.
  • Non-transitory computer-readable media excludes wired, wireless, optical, or other communication links that transmit transitory electrical or other signals.
  • Non-transitory computer-readable media includes media in which data can be permanently stored, and media in which data can be stored and later overwritten, such as a rewritable optical disk or erasable memory device.
  • FIG. 1 is a block diagram illustrating an electronic device in a network environment according to various embodiments of the present disclosure
  • FIG. 2 is a block diagram illustrating a display system according to an exemplary embodiment.
  • FIG. 3 is a detailed block diagram illustrating a display system according to an exemplary embodiment.
  • FIG. 4A is a diagram illustrating frames transmitted on first and second displays according to an exemplary embodiment
  • FIG. 4B is a diagram illustrating frames displayed on the first and second displays according to an exemplary embodiment.
  • FIG. 5 is a diagram illustrating vertical synchronization signals of first and second displays driven at different refresh rates according to an exemplary embodiment.
  • FIG. 6 is a diagram illustrating vertical synchronization signals of first and second displays driven at different refresh rates according to an exemplary embodiment.
  • FIG. 7 is a flowchart illustrating an image output operation of a display system according to an exemplary embodiment.
  • FIG. 8 is a flowchart illustrating an operation of controlling the arrangement of drop frames and normal frames in an image output operation of a display system according to an exemplary embodiment.
  • FIG. 9 is a flowchart illustrating an operation of determining a screen output in an image output operation of a display system according to an exemplary embodiment.
  • FIG. 1 is a block diagram of an electronic device 101 in a network environment 100 according to various embodiments of the present disclosure.
  • an electronic device 101 communicates with an electronic device 102 through a first network 198 (eg, a short-range wireless communication network) or a second network 199 . It may communicate with the electronic device 104 or the server 108 through (eg, a long-distance wireless communication network). According to an embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108 .
  • a first network 198 eg, a short-range wireless communication network
  • a second network 199 e.g., a second network 199
  • the electronic device 101 may communicate with the electronic device 104 through the server 108 .
  • the electronic device 101 includes a processor 120 , a memory 130 , an input device 150 , a sound output device 155 , a display device 160 , an audio module 170 , and a sensor module ( 176 , interface 177 , haptic module 179 , camera module 180 , power management module 188 , battery 189 , communication module 190 , subscriber identification module 196 , or antenna module 197 . ) may be included. In some embodiments, at least one of these components (eg, the display device 160 or the camera module 180 ) may be omitted or one or more other components may be added to the electronic device 101 . In some embodiments, some of these components may be implemented as one integrated circuit. For example, the sensor module 176 (eg, a fingerprint sensor, an iris sensor, or an illuminance sensor) may be implemented while being embedded in the display device 160 (eg, a display).
  • the sensor module 176 eg, a fingerprint sensor, an iris sensor, or an illuminance sensor
  • the processor 120 for example, executes software (eg, a program 140) to execute at least one other component (eg, a hardware or software component) of the electronic device 101 connected to the processor 120. It can control and perform various data processing or operations. According to an embodiment, as at least part of data processing or operation, the processor 120 stores a command or data received from another component (eg, the sensor module 176 or the communication module 190 ) into the volatile memory 132 . may be loaded into the volatile memory 132 , process commands or data stored in the volatile memory 132 , and store the resulting data in the non-volatile memory 134 .
  • software eg, a program 140
  • the processor 120 stores a command or data received from another component (eg, the sensor module 176 or the communication module 190 ) into the volatile memory 132 .
  • the processor 120 stores a command or data received from another component (eg, the sensor module 176 or the communication module 190 ) into the volatile memory 132 .
  • the processor 120 includes a main processor 121 (eg, a central processing unit or an application processor), and a secondary processor 123 (eg, a graphic processing unit or an image signal processor) that can be operated independently or together with the main processor 121 . , a sensor hub processor, or a communication processor). Additionally or alternatively, the auxiliary processor 123 may be configured to use less power than the main processor 121 or to be specialized for a specified function. The auxiliary processor 123 may be implemented separately from or as a part of the main processor 121 .
  • a main processor 121 eg, a central processing unit or an application processor
  • a secondary processor 123 eg, a graphic processing unit or an image signal processor
  • the auxiliary processor 123 may be configured to use less power than the main processor 121 or to be specialized for a specified function.
  • the auxiliary processor 123 may be implemented separately from or as a part of the main processor 121 .
  • the secondary processor 123 may, for example, act on behalf of the main processor 121 while the main processor 121 is in an inactive (eg, sleep) state, or when the main processor 121 is active (eg, executing an application). ), together with the main processor 121, at least one of the components of the electronic device 101 (eg, the display device 160, the sensor module 176, or the communication module 190) It is possible to control at least some of the related functions or states.
  • the auxiliary processor 123 eg, an image signal processor or a communication processor
  • the memory 130 may store various data used by at least one component (eg, the processor 120 or the sensor module 176 ) of the electronic device 101 .
  • the data may include, for example, input data or output data for software (eg, the program 140 ) and instructions related thereto.
  • the memory 130 may include a volatile memory 132 or a non-volatile memory 134 .
  • the program 140 may be stored as software in the memory 130 , and may include, for example, an operating system 142 , middleware 144 , or an application 146 .
  • the input device 150 may receive a command or data to be used by a component (eg, the processor 120 ) of the electronic device 101 from the outside (eg, a user) of the electronic device 101 .
  • the input device 150 may include, for example, a microphone, a mouse, a keyboard, or a digital pen (eg, a stylus pen).
  • the sound output device 155 may output a sound signal to the outside of the electronic device 101 .
  • the sound output device 155 may include, for example, a speaker or a receiver.
  • the speaker can be used for general purposes such as multimedia playback or recording playback, and the receiver can be used to receive incoming calls. According to an embodiment, the receiver may be implemented separately from or as a part of the speaker.
  • the display device 160 may visually provide information to the outside (eg, a user) of the electronic device 101 .
  • the display device 160 may include, for example, a display, a hologram device, or a projector and a control circuit for controlling the corresponding device.
  • the display device 160 may include a touch circuitry configured to sense a touch or a sensor circuit (eg, a pressure sensor) configured to measure the intensity of a force generated by the touch. have.
  • the audio module 170 may convert a sound into an electric signal or, conversely, convert an electric signal into a sound. According to an embodiment, the audio module 170 acquires a sound through the input device 150 or an external electronic device (eg, a sound output device 155 ) directly or wirelessly connected to the electronic device 101 .
  • the electronic device 102) eg, a speaker or headphones
  • the sensor module 176 detects an operating state (eg, power or temperature) of the electronic device 101 or an external environmental state (eg, a user state), and generates an electrical signal or data value corresponding to the sensed state. can do.
  • the sensor module 176 may include, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, a humidity sensor, or an illuminance sensor.
  • the interface 177 may support one or more specified protocols that may be used by the electronic device 101 to directly or wirelessly connect with an external electronic device (eg, the electronic device 102 ).
  • the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • the connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102 ).
  • the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 179 may convert an electrical signal into a mechanical stimulus (eg, vibration or movement) or an electrical stimulus that the user can perceive through tactile or kinesthetic sense.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 may capture still images and moving images. According to an embodiment, the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 188 may manage power supplied to the electronic device 101 .
  • the power management module 188 may be implemented as, for example, at least a part of a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 189 may supply power to at least one component of the electronic device 101 .
  • the battery 189 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.
  • the communication module 190 is a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 101 and an external electronic device (eg, the electronic device 102, the electronic device 104, or the server 108). It can support establishment and communication performance through the established communication channel.
  • the communication module 190 may include one or more communication processors that operate independently of the processor 120 (eg, an application processor) and support direct (eg, wired) communication or wireless communication.
  • the communication module 190 is a wireless communication module 192 (eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (eg, : It may include a local area network (LAN) communication module, or a power line communication module).
  • a wireless communication module 192 eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module
  • GNSS global navigation satellite system
  • wired communication module 194 eg, : It may include a local area network (LAN) communication module, or a power line communication module.
  • the corresponding communication module is a first network 198 (eg, a short-range communication network such as Bluetooth, WiFi direct or IrDA (infrared data association)) or a second network 199 (eg, a cellular network, the Internet, Alternatively, it may communicate with the external electronic device 104 through a computer network (eg, a telecommunication network such as a LAN or WAN).
  • a computer network eg, a telecommunication network such as a LAN or WAN.
  • These various types of communication modules may be integrated into one component (eg, a single chip) or may be implemented as a plurality of components (eg, multiple chips) separate from each other.
  • the wireless communication module 192 uses subscriber information (eg, International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199 .
  • subscriber information eg, International Mobile Subscriber Identifier (IMSI)
  • IMSI International Mobile Subscriber Identifier
  • the antenna module 197 may transmit or receive a signal or power to the outside (eg, an external electronic device).
  • the antenna module 197 may include one antenna including a conductor formed on a substrate (eg, a PCB) or a radiator formed of a conductive pattern.
  • the antenna module 197 may include a plurality of antennas. In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is connected from the plurality of antennas by, for example, the communication module 190 . can be selected. A signal or power may be transmitted or received between the communication module 190 and an external electronic device through the selected at least one antenna.
  • other components eg, RFIC
  • other than the radiator may be additionally formed as a part of the antenna module 197 .
  • peripheral devices eg, a bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
  • signal eg commands or data
  • the command or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199 .
  • Each of the external electronic devices 102 and 104 may be the same as or different from the electronic device 101 .
  • all or a part of operations performed by the electronic device 101 may be performed by one or more of the external electronic devices 102 , 104 , or 108 .
  • the electronic device 101 may perform the function or service itself instead of executing the function or service itself.
  • one or more external electronic devices may be requested to perform at least a part of the function or the service.
  • the one or more external electronic devices that have received the request may execute at least a part of the requested function or service, or an additional function or service related to the request, and transmit a result of the execution to the electronic device 101 .
  • the electronic device 101 may process the result as it is or additionally and provide it as at least a part of a response to the request.
  • cloud computing, distributed computing, or client-server computing technology may be used.
  • the electronic devices 101 , 102 , and 104 shown in FIG. 1 may be applied to the display system 200 shown in FIG. 2 .
  • FIG. 2 is a diagram for explaining the display system 200 according to an embodiment.
  • the display system 200 may include a source device 210 and a plurality of sink devices 220 .
  • the display system 200 may output the image generated by the source device 210 to the plurality of sink devices 220 in response to a user command.
  • the source device 210 may transmit image information generated or stored in the source device 210 to the sink device 220 .
  • the source device 210 may be a control unit (eg, the processor 120 of FIG. 1 ) of various electronic devices.
  • the source device 210 may be a processor of a smart phone.
  • the sink device 220 may receive image information transmitted from the source device 210 .
  • the sink device 220 may be a plurality of displays capable of displaying image information received from the source device 210 .
  • the sink device 220 may be a display embedded in an electronic device such as a computer, a laptop computer, a tablet, a digital camera, a camcorder, a PDA, a smart phone, or a TV, or a display connected to the electronic device by wire or wirelessly.
  • the plurality of sink devices 220 may output the image information transmitted from the source device 210 to display the same image or different images.
  • the plurality of sink devices 220 include a plurality of displays, and at least one display may have a different specification from the other displays.
  • the plurality of sink devices 220 may be a plurality of displays having different refresh rates.
  • the scan rate may be defined as each of a frame frequency, a vertical sync signal, and a frame rate for image display.
  • the vertical sync signal is a signal that determines the period of one frame of the display. That is, the period of the pulse of the vertical synchronization signal may be set to be one frame period.
  • FIG. 3 is a block diagram illustrating a display system 300 according to various embodiments of the present disclosure.
  • the sink device 330 may receive image data output from the source device 390 and display an image corresponding to its refresh rate.
  • the sink device 330 may include two or more displays having different refresh rates.
  • the sink device 330 may include first and second displays 310 and 320 .
  • the first display 310 may display an image at a higher refresh rate (or frame frequency) than the second display 320 .
  • the first display 310 may be driven at a refresh rate N (where N is a positive integer greater than 1) times higher than that of the second display 320 .
  • any one of the first and second displays 310 and 320 may display an image with a frame frequency of 120 Hz, and the other one of the first and second displays 320 may display an image with a frame frequency of 60 Hz.
  • the first display 310 is a display having a high refresh rate
  • the second display 320 is a display having a low refresh rate will be described as an example. This is only one embodiment and does not limit the invention to the embodiment.
  • the source device 390 may include first and second control units 340 and 350 , a data processing unit 370 , a graphic processing unit 360 , and a memory 380 .
  • the data processing unit 370 may check the number of displays 310 and 320 connected to the source device 390 through at least one of a wired connection and a wireless connection.
  • the data processing unit 370 may obtain identification information such as configuration information and supportable functions of each display 310 and 320 connected to the source device 390 and transmit it to the first control unit 340 .
  • the data processing unit 370 may obtain information on the refresh rate of each of the displays 310 and 320 and transmit it to the first control unit 340 .
  • the first control unit 340 may check the display of the high refresh rate based on the information on the refresh rate of each of the displays 310 and 320 transmitted from the data processing unit 370 and transmit it to the second control unit 350 .
  • the second control unit 350 may control the graphic processing unit 360 so that the graphic processing unit can render image data based on the high scan rate obtained from the first control unit 340 .
  • the graphic processing unit 360 generates rendered graphic data by performing a rendering operation based on a high-frequency vertical synchronization signal under the control of the second control unit 350 , and transmits the rendered graphic data to the memory 380 .
  • the memory 380 may include a plurality of buffers that the first control unit 340 can access. Graphic data rendered by the graphic processing unit 360 may be drawn in the memory 380 . Here, drawing may be an operation in which graphic data is transferred to a buffer in the memory 380 , and the graphic data may be an image displayed on the sink device 330 .
  • the first control unit 340 may generate image data by synthesizing the rendered graphic data in units of frames.
  • the first control unit 340 may control the data processing unit 370 so that image data synthesized in units of frames may be output corresponding to the refresh rates of the first and second displays 310 and 320 .
  • the first control unit 340 may determine a drop rate of a frame to be transmitted to the low refresh rate display based on the high scan rate among the scan rate information of the plurality of displays transmitted from the data processing unit 370 .
  • the first control unit 340 may generate an output drop signal according to the determined frame drop ratio and apply it to the data processing unit 370 .
  • the first control unit 340 may control the positions of the normal frame and the drop frame according to the refresh rate-frame drop rate.
  • a normal frame may mean a frame in which image data is transmitted to the first and second displays 310 and 320
  • a drop frame may mean a frame in which image data transmission to the second display 320 is stopped.
  • the first control unit 340 may process and obtain the ratio and position of the drop frame according to the difference in the refresh rates of the first and second displays 310 and 320 in real time.
  • the ratio of the drop frame may vary according to the ratio of the refresh rates of the first and second displays 310 and 320 .
  • the number (ratio) of drop frames increases (higher), and the difference between the refresh rates of the first and second displays 310 and 320 is smaller, The number (ratio) of the drop frames may be reduced (lower).
  • the first control unit 340 may store the refresh rate-drop frame rate in advance in the form of a lookup table. Accordingly, the first control unit 340 may map the refresh rates of the first and second displays 310 and 320 to the lookup table to determine frame drop rates and positions suitable for the first and second displays 310 and 320 .
  • the refresh rate-drop frame rate conversion table As the refresh rate ratio of the first and second displays 310 and 320 increases, the number (ratio) of drop frames increases (higher), and the refresh rate of the first and second displays 310 and 320 increases. The smaller the difference between , the smaller (or lower) the number (ratio) of the drop frames.
  • the first control unit 340 may control the output of the data processing unit 370 so that a drop frame is not disposed between normal frames to be displayed on the first display 310 .
  • the first control unit 340 may control the output of the data processing unit 370 such that at least one drop frame is disposed between the plurality of normal frames to be displayed on the second display 320 .
  • transmission of image data to the first and second displays 310 and 320 may be activated.
  • transmission of image data to the second display 320 may be deactivated and transmission of image data to the first display 310 may be selectively activated in response to an output drop signal.
  • the image data of the previous normal frame is maintained on the second display 320 , and in the normal frames, the images displayed on the first and second displays 310 and 320 may be updated.
  • the image displayed on the first display 310 may be equally displayed on the second display 320 .
  • the image data output from the data processing unit 370 may be transmitted to the first and second displays 310 and 320 .
  • the first and second displays 310 and 320 may receive image data of the data processing unit 370 and display the received image data on the screen.
  • the first display 310 may display image data on the screen in synchronization with the horizontal synchronization signal and the high frequency vertical synchronization signal.
  • the second display 320 may display image data on the screen in synchronization with the horizontal synchronization signal and the low frequency vertical synchronization signal.
  • the same number of normal frames as the number of image frames input to the data processing unit 370 may be transmitted to the first display 310 .
  • a smaller number of normal frames than the number of image frames input to the data processing unit 370 may be transmitted to the second display 320 .
  • the memory 380 may be freed to a storable state. Also, the memory 380 does not transmit image data corresponding to the drop frame to the second display 320 through the data processing unit 370 , but transmits image data to the first display 310 in response to the normal frame. After that, it can be freed in a state where new data can be stored. After the memory 380 is freed, graphic data of a next frame rendered by the graphic processing unit 360 may be stored. Here, freeing may mean initializing the memory 380 in a state in which information stored in the memory 380 is deleted and new data can be stored.
  • the normal frame output from the source device 390 may be output to the plurality of displays 310 and 320 having different refresh rates. Due to the difference in the refresh rates of the plurality of displays 310 and 320 , it may be difficult to properly output without degrading the image quality of at least one of the plurality of displays 310 and 320 . Accordingly, according to an embodiment, synchronization of images displayed on the plurality of displays 310 and 320 may be achieved by adjusting the number of frames transmitted to the low refresh rate display based on the high refresh rate display among the plurality of displays. The same number of normal frames as the number of image frames generated by the first control unit 340 may be transmitted through the data processing unit 370 to the display having a high refresh rate. A smaller number of normal frames than the number of image frames generated by the first control unit 340 may be transmitted through the data processing unit 370 to the display of the low refresh rate.
  • FIG. 4A is a diagram illustrating frames transmitted on first and second displays according to an exemplary embodiment
  • FIG. 4B is a diagram illustrating frames displayed on the first and second displays according to an exemplary embodiment.
  • the first and second displays 410 and 420 included in the electronic device 400 may display images at different refresh rates.
  • the first display 410 may be driven by a high frequency vertical synchronization signal and the second display 420 may be driven by a low frequency vertical synchronization signal.
  • the first display 410 may display an image according to a frame frequency of 120 Hz
  • the second display 420 may display an image according to a frame frequency of 60 Hz.
  • Image data of the normal frame NF may be input to the first display 410 through the source device 430 .
  • the first display may display an image during a normal frame using image data transmitted from the source device 430 .
  • the first display 410 may display i (here, i is a natural number greater than 1) frames for 1 second.
  • the first display 410 may display 120 frames for 1 second.
  • Image data of the normal frame NF except for the drop frame DF may be transmitted to the second display 420 through the source device 430 .
  • the second display 420 may display an image during the normal frame NF by using the image data transmitted from the source device 430 and display the image using the image data of the previous normal frame NF during the drop frame. have. Accordingly, the second display 420 can display j frames less than i (here, j is a natural number equal to or greater than 1) for 1 second. For example, the second display 420 may display 60 frames for 1 second.
  • FIG. 5 and 6 are waveform diagrams illustrating a high frequency first vertical synchronization signal HVsync and a low frequency second vertical synchronization signal LVsync of a first display according to an exemplary embodiment.
  • each of the first and second vertical synchronization signals HVsync and LVsync may be a signal indicating the start of one frame.
  • the first display may display an image in synchronization with the high frequency first vertical synchronization signal HVsync
  • the second display may display the image in synchronization with the low frequency second vertical synchronization signal LVsync.
  • the first vertical synchronization signal HVsync may be a 120Hz vertical synchronization signal
  • the second vertical synchronization signal LVstnc may be a 60Hz vertical synchronization signal.
  • the refresh rate of the first display may be N (where N is a positive integer greater than 1) times the refresh rate of the second display.
  • the period of the first vertical synchronization signal HVsync may be N times the period of the second vertical synchronization signal LVsync.
  • the high logic period H2 (or the third period) of the second vertical synchronization signal LVsync is N times longer than the high logic period H1 (or the first period) of the first vertical synchronization signal HVsync, and
  • the row logic period L2 (or the fourth period) of the second vertical synchronization signal LVsync may be N times longer than the low logic period L1 (or the second period) of the first vertical synchronization signal HVsync.
  • the second vertical synchronization signal LVsync may be displayed on the second display instead of the image of the corresponding frame. Accordingly, when the image of the corresponding frame is displayed on the first display, the image of the previous frame may be dropped based on the first display and the image of the corresponding frame may be displayed on the second display.
  • the image frame input to the data processing unit is transmitted to the first display as a normal frame NF, and the drop frame DF is transmitted to the second display. ) can be transmitted.
  • the image frame input to the data processing unit is displayed on the first and second displays. It may be transmitted as a normal frame (NF) to be transmitted.
  • NF normal frame
  • the refresh rate of the first display may be N (here, N is a natural number greater than 1) times higher than the refresh rate of the second display.
  • the image frames input to the data processing unit may be transmitted to the first display as normal frames NF.
  • the second image frame is transmitted to the second display as a normal frame NF, and image frames overlapping the high logic period H2 of the second vertical sync signal LVsync are not transmitted to the second display as a drop frame DF.
  • i here, i is a natural number greater than 1
  • normal frames may be displayed on the first display for 1 second
  • 1/N normal frames may be displayed on the second display for 1 second.
  • the refresh rate of the first display may be twice as high as that of the second display.
  • the image frames input to the data processing unit may be transmitted to the first display as normal frames NF1, NF2, NF3, NF4, ...
  • first and second 2 The even-numbered image frame overlapping the row logic section of the vertical sync signals (HVsync, LVsync) may be transmitted to the second display as normal frames NF2, NF4, NF6, NF8, ...
  • the odd-numbered image frame overlapping the high logic section of the second vertical sync signal LVsync may not be transmitted to the second display as the drop frames DF1, DF3, DF5, DF7, ....
  • normal frames may be displayed on the first display for 1 second, and 1/2 normal frames may be displayed on the second display for 1 second. That is, an image may be displayed on the first display at a refresh rate twice that of the second display, and an image may be displayed on the second display at a refresh rate twice that of the first display.
  • the refresh rate of the first display may be higher than the refresh rate of the second display by a positive integer multiple excluding natural numbers greater than 1.
  • the image frames input to the data processing unit may be transmitted to the first display as normal frames NF.
  • At least one of the image frames overlapping the row logic section of the first and second vertical synchronization signals HVsync and LVsync may be transmitted to the second display as the normal frame NF. have.
  • one of the plurality of row logic sections of the first vertical sync signal HVsync overlapping the row logic section L2 of the second vertical sync signal LVsync may be selected.
  • the normal frame NF displayed on the first display during the low logic period L1 of the selected first vertical sync signal may be displayed as the normal frame NF on the second display.
  • the row logic section L1 of the first vertical sync signal HVsync having a long section overlapping the row logic section L2 of the second vertical sync signal LVsync may be selected.
  • the low logic period of the first vertical synchronization signal with a small difference between the falling time of the low logic period L2 of the second vertical synchronization signal LVsync and the falling time of the low logic period L1 of the first vertical synchronization signal is small. (L1) may be selected.
  • the normal frame NF of the first display overlapping the high logic period H2 of the second vertical synchronization signal LVsync may be rendered as a drop frame DF of the second display.
  • the refresh rate of the first display is not N (where N is a positive integer greater than 1) times the refresh rate of the second display
  • the refresh rate of the first display is the refresh rate of the second display. It may be x.y (here, x and y are natural numbers) times higher than the scan rate.
  • the image frames input to the data processing unit may be transmitted to the first display as normal frames NF1, NF2, NF3, NF4, ...
  • first and second At least one of the image frames overlapping the row logic sections L1 and L2 of the 2 vertical sync signals HVsync is transmitted to the second display as normal frames NF2, NF3, NF5, ...
  • the second vertical sync Image frames overlapping the high logic period H2 of the signal LVsync may not be transmitted to the second display as drop frames DF1, DF4, DF6, ....
  • FIG. 7 is a flowchart illustrating an image output method of a display system according to an exemplary embodiment. An image output method of a display system according to an exemplary embodiment will be described in connection with the electronic device illustrated in FIG. 3 .
  • the data processing unit 370 may determine whether there are a plurality of displays 310 and 320 connected to the source device 390 . When there are a plurality of displays 310 and 320 connected to the source device 390 , operation S12 may be performed. When there is only one display 310 , 320 connected to the source device 390 , operation S14 may be performed.
  • the data processing unit 370 checks the refresh rate of each display 310 and 320 to the first control unit ( 340) can be forwarded.
  • the first control unit 340 may check the transmitted scan rates of the respective displays 310 and 320 , and check whether the scan rates of the respective displays 310 and 320 are identical to each other and the size thereof.
  • the graphic processing unit 360 may render image data to be transmitted to the displays 310 and 320 based on the displays having the high refresh rate. For example, when the refresh rate of the first display 310 is higher than that of the second display 320 , the graphic processing unit 360 may render image data based on the refresh rate of the first display 310 . Alternatively, when the refresh rate of the second display 320 is higher than that of the first display 310 , the graphic processing unit 360 may render image data based on the refresh rate of the second display 320 .
  • image data rendered by the graphic processing unit 360 may be stored in the memory 380 .
  • the image data stored in the memory 380 is transmitted to the first and second displays 310 and 320 so that the memory 380 may be freed to store the next image data.
  • the image data rendered in operation S13 may be transmitted as image data of a normal frame to the first display 310 having a high refresh rate through the data processing unit 370 .
  • the data processing unit 370 may drop at least one normal frame among the normal frames transmitted to the first display 310 having a high refresh rate and transmit the remaining normal frames to the second display 320 . Accordingly, images may be displayed on the first and second displays 310 and 320 in synchronization with the refresh rates of the respective displays 310 and 320 .
  • FIG. 8 is a flowchart illustrating an operation of controlling the arrangement of drop frames and normal frames in an image output operation of a display system according to an exemplary embodiment. The operation of controlling the arrangement of the drop frame and the normal frame according to an embodiment will be described in conjunction with the electronic device illustrated in FIG. 3 .
  • the data processing unit 370 may check the identification information of each display 310 and 320 and transmit it to the first control unit 340 .
  • the first control unit 340 may check the frame frequency (or refresh rate) of each display through the transmitted identification information of each display 310 and 320 .
  • the graphic processing unit 360 may render image data to be transmitted to each display based on a display having a high refresh rate and store the image data in the memory 380 .
  • the image data stored in the memory 380 may be synthesized on a frame-by-frame basis by the first control unit 340 and transmitted to the data processing unit 370 .
  • the first control unit 340 may identify a vertical synchronization signal of a display having a low frequency among a plurality of displays. That is, the first control unit 340 may determine whether the low-frequency vertical synchronization signal is a low logic period. When the low-frequency vertical sync signal corresponds to the low logic section, operation S25 may be performed. When the low-frequency vertical sync signal corresponds to the high logic section, operation S24 may be performed.
  • the data processing unit 370 may process the image frame as a drop frame. Accordingly, image data may not be transmitted to the display driven by the low-frequency vertical synchronization signal.
  • the data processing unit 370 may process the image frame as a normal frame. Accordingly, image data may be transmitted to the display driven by the low-frequency vertical synchronization signal. Meanwhile, a display driven by a high-frequency vertical synchronization signal may display an image regardless of a low-frequency vertical synchronization signal. A display driven by a high-frequency vertical synchronization signal may display an image in synchronization with the high-frequency vertical synchronization signal.
  • FIG. 9 is a flowchart illustrating an operation of determining a screen output between displays having different refresh rates, according to an exemplary embodiment. An operation of determining a screen output according to an exemplary embodiment will be described in conjunction with the display system illustrated in FIG. 3 .
  • the data processing unit 370 may check the identification information of each display 310 and 320 and transmit it to the first control unit 340 .
  • the first control unit 340 may check the frame frequency (or refresh rate) of each display through the transmitted identification information of each display 310 and 320 .
  • the first control unit 340 may check the identification information of the display having the highest refresh rate among the plurality of displays by comparing the respective refresh rates of the plurality of displays.
  • the first control unit 340 may set the refresh rate to fit the screen of each of the plurality of displays.
  • the clock counter of each of the plurality of displays may be set to zero.
  • the graphic processing unit 360 may render image data to be transmitted to each display based on a display having a high refresh rate.
  • image data rendered by the graphic processing unit 360 may be stored in the memory 380 .
  • the image data stored in the memory 380 may be synthesized on a frame-by-frame basis by the first control unit 340 and transmitted to the data processing unit 370 .
  • the image data is stored in the memory 380, it may be determined whether the mirroring operation setting has been completed. If the mirroring operation setting is completed, operation S36 may be performed. If the mirroring operation setting is not completed, operation S35 may be returned.
  • the first control unit 340 may determine the positions of the normal frame and the drop frame and the number (ratio) of the drop frames according to the ratios of the refresh rates of the plurality of displays. Accordingly, if the first control unit 340 determines that the image of the current frame is the image corresponding to the normal frame, operation 37 may be performed. If the first control unit 340 determines that the image of the current frame does not correspond to the normal frame, operation S38 may be performed.
  • the first control unit 340 may set the clock counter to 1.
  • the first control unit 340 controls the refresh rate ratio (Higher/ Current) and a clock counter (count) can be calculated. If the sum exceeds 1, the process proceeds to operation S39, and if the sum is less than 1, the process may proceed to operation S41.
  • the first control unit 340 may reset the clock counter (Count) to 0. Accordingly, the first control unit 340 may determine that image data of the current frame should be transmitted to the first and second displays 310 and 320 .
  • the first control unit 340 may control the data processing unit 370 to transmit image data of the current frame to the first and second displays 310 and 320 .
  • the data processing unit 370 may transmit image data of the current frame to the first and second displays 310 and 320 as image data of a normal frame.
  • the first control unit 340 selectively transmits the image data of the current frame to the first display 310 .
  • the data processing unit 370 may transmit the image data of the current frame to the first display 310 as the image data of the normal frame, but may not transmit the image data to the second display 320 .
  • the image data stored in the memory 380 is transmitted to the first and second displays 310 and 320 , so that the memory 380 may be freed to store the next image data.
  • the first control unit 340 may determine whether the image data of the current frame is the last image data. When the image data of the current frame is not the last image data, operation S36 may be returned. When the image data of the current frame is the last image data, the mirroring operation may be terminated.
  • the plurality of displays included in the sink device is not limited to the display device included in each of the plurality of electronic devices.
  • the plurality of displays may be a plurality of display devices included in one electronic device, or a display area in which one screen of the display device is divided into a plurality of pieces.
  • a sink device including a plurality of displays may be a single terminal having a multi-screen or a tethered augmented reality (AR)/virtual reality (VR) display device.
  • AR augmented reality
  • VR virtual reality
  • the same content may be mirrored and output to the plurality of displays, or content different from the other displays may be output to at least one display.
  • a display system includes a sink device including a plurality of displays; a source device operatively coupled to the plurality of displays included in the sink device, the plurality of displays including a display having a higher refresh rate than at least one other display having a lower refresh rate among the plurality of displays and the source device renders image data based on a display having a high refresh rate among the plurality of displays, and transmits at least a portion of the rendered image data to the plurality of displays in synchronization with each of the refresh rates of the at least one other display.
  • the source device transmits image data of a plurality of normal frames to the display having a high refresh rate, and the image data of at least one normal frame among the plurality of normal frames is the at least one of the at least one normal frame having the low refresh rate. You can set the drop to not be sent to one other display.
  • an image of the corresponding normal frame is updated in the display having the high refresh rate, and when the normal frame is dropped An image of a previous normal frame may be displayed on the at least one other display having a low refresh rate.
  • the source device may include a control unit configured to check the scan rates of the plurality of displays and control drop rates of the plurality of normal frames according to the scan rates of the plurality of displays.
  • the drop ratio may increase as the ratio of the high scan rate and the low scan rate of the plurality of displays increases.
  • the source device further includes a data processing unit operating under the control of the control unit, wherein the data processing unit includes the display having the high refresh rate and the display having the low refresh rate during a first normal frame.
  • the image data may be output to at least one other display, and when the drop is set, the image data may not be output to the at least one other display having the low refresh rate.
  • a first image is displayed on the display having a high scan rate in synchronization with a first vertical sync signal having different first and second sections, and the at least one other display having the low scan rate is displayed.
  • the data processing unit is configured to include the first and second sections arranging the normal frame to transmit the image data of the normal frame to the display having the high refresh rate, setting the drop of the normal frame in the third section, and disposing the normal frame in the fourth section,
  • the image data of the normal frame may be transmitted to at least one other display having the low refresh rate .
  • image data of a normal frame displayed on the display having the high refresh rate in the second section and the at least one other display having the low refresh rate in the fourth section overlapping the second section may be the same.
  • the source device may further include a graphic processing unit that renders image data to be transmitted to the plurality of displays based on a display having a high refresh rate among the plurality of displays.
  • the source device further includes a memory for storing image data rendered by the graphic processing unit, wherein the memory includes the display having the high refresh rate and the low refresh rate through the data processing unit.
  • the memory includes the display having the high refresh rate and the low refresh rate through the data processing unit.
  • the method for outputting an image of a system of a display includes checking a refresh rate of each of a plurality of displays, wherein the plurality of displays have a higher refresh rate than at least one other display having a lower refresh rate among the plurality of displays.
  • a display rendering image data to be transmitted to the plurality of displays based on a display having a high refresh rate among the plurality of displays; and transmitting at least a portion of the rendered image data to the plurality of displays in synchronization with each of the refresh rates of the at least one other display having the low refresh rate.
  • the transmitting of image data to the plurality of displays includes transmitting image data of a plurality of normal frames to the display having a high scan rate, and at least one normal frame among the plurality of normal frames.
  • a drop setting may be made so that the image data of the .
  • the method of outputting an image of a system of a display may further include checking the refresh rates of the plurality of displays, and controlling the drop rates of the plurality of normal frames according to the ratios of the refresh rates of the plurality of displays.
  • the drop ratio may increase as the ratio of the high scan rate and the low scan rate of the plurality of displays increases.
  • the method for outputting an image of a system of a display includes an operation of pre-freezing a memory to a storable state after image data is transmitted to the display having the high refresh rate and the at least one other display having the low refresh rate class;
  • the method may further include the operation of freeing the memory to a storable state after the image data is transmitted to the display having the high refresh rate without transmitting image data to the at least one other display having the low refresh rate.
  • a display system may include at least one first display having a high scan rate; at least one second display having a low rate of fire; a source device operatively connected to the first and second displays, wherein the source device renders image data based on a refresh rate of the first display, and transmits the rendered image data to the first display.
  • the image data of the normal frame may be transmitted, and the image data of at least one of the plurality of normal frames may be set to drop so that the image data of the normal frame is not transmitted to the second display.
  • an image of a corresponding normal frame is updated on the first display while a normal frame is not transmitted to the second display, and a previous normal frame is displayed on the second display having a low refresh rate when the normal frame is dropped. may be displayed.
  • the source device may include a control unit configured to check the scan rates of the plurality of displays and control drop rates of the plurality of normal frames according to the scan rates of the plurality of displays.
  • the drop rate may increase.
  • the source device further includes a memory configured to store the rendered image data, and the memory may be stored in a storable state after the image data of the normal frame is output to the first and second displays. After the image data of the normal frame is output to the first display without outputting the image data of the normal frame to the second display, the image data may be freed in a storable state.
  • an (eg, first) component is referred to as being “connected (functionally or communicatively)” or “connected” to another (eg, second) component, that component is It may be directly connected to the component or may be connected through another component (eg, a third component).
  • a device configured to may mean that the device is “capable of” with other devices or components.
  • a processor configured (or configured to perform) A, B, and C refers to a dedicated processor (eg, an embedded processor) or one or more stored in a memory device (eg, memory) for performing the operations.
  • a general-purpose processor eg, CPU or AP capable of performing corresponding operations.
  • module includes a unit composed of hardware, software, or firmware, and may be used interchangeably with terms such as, for example, logic, logic block, component, or circuit.
  • a “module” may be an integrally formed component or a minimum unit or a part of performing one or more functions.
  • a “module” may be implemented mechanically or electronically, for example, known or to be developed, application-specific integrated circuit (ASIC) chips, field-programmable gate arrays (FPGAs), or It may include a programmable logic device.
  • ASIC application-specific integrated circuit
  • FPGAs field-programmable gate arrays
  • an apparatus eg, modules or functions thereof
  • a method eg, operations
  • a computer-readable storage medium eg, memory
  • the instruction When the instruction is executed by a processor (eg, a processor), the processor may perform a function corresponding to the instruction.
  • Computer-readable recording media include hard disks, floppy disks, magnetic media (eg, magnetic tape), optical recording media (eg, CD-ROM, DVD, magneto-optical media (eg, floppy disks), built-in memory, etc.)
  • An instruction may include code generated by a compiler or code that can be executed by an interpreter.
  • Each of the components may be composed of a singular or a plurality of entities, and some sub-components of the aforementioned sub-components may be omitted, or other sub-components may be included. may include more. Alternatively or additionally, some components (eg, a module or a program module) may be integrated into one entity to perform the same or similar functions performed by each corresponding component before being integrated. Operations performed by modules, program modules, or other components according to various embodiments are sequentially, parallelly, repetitively or heuristically executed, or at least some operations are executed in a different order, omitted, or other operations This can be added.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

본 문서에 개시되는 일 실시 예에 따른 디스플레이 시스템은 복수개의 디스플레이를 포함하는 싱크 장치와; 상기 싱크 장치에 포함되는 상기 복수개의 디스플레이에 동작 가능하게 결합된 소스 장치를 포함하며, 상기 복수개의 디스플레이는 상기 복수개의 디스플레이 중 저주사율을 가지는 적어도 하나의 다른 디스플레이보다 높은 고주사율을 가지는 디스플레이를 포함하며, 상기 소스 장치는 상기 복수개의 디스플레이 중 고주사율의 디스플레이를 기준으로 영상 데이터를 렌더링하고, 상기 렌더링된 영상 데이터의 적어도 일부를 상기 적어도 하나의 다른 디스플레이 각각의 주사율에 동기하여 상기 복수개의 디스플레이에 전송할 수 있다.

Description

복수의 디스플레이를 포함하는 디스플레이 시스템 및 그 영상 출력 방법
본 문서에서 개시되는 실시예들은 디스플레이 시스템 및 그 영상 출력 방법에 관한 것이다.
최근 전자 장치에 관한 기술 발달로, 전자 장치는 다양한 기능을 제공할 수 있다. 전자 장치(예, 소스 장치)는 다른 전자 장치들(예, 싱크 장치)과 통신할 수 있으므로, 다른 전자 장치들(예, 싱크 장치)과 연동되어 동작할 수 있다. 예를 들어, 전자 장치(예, 소스 장치)에서 생성된 하나 또는 여러 개의 컨텐츠가 복수개의 디스플레이(예, 싱크 장치)를 통해 출력될 수 있다.
소스 장치인 전자 장치에 연결된 복수개의 디스플레이 중 어느 하나의 디스플레이가 나머지 디스플레이와 사양이 다를 수 있다. 복수개의 디스플레이 중 사양이 낮은 디스플레이를 기준으로 컨텐츠를 출력하게 되면 고사양의 디스플레이에 표시되는 컨텐츠의 품질은 저하되어 사용자로 하여금 성능 이슈를 야기할 수 있게 된다.
본 문서의 다양한 실시예는 소스 장치인 전자 장치에 연결된 다수의 디스플레이 각각의 주사율에 동기하여 영상을 표시할 수 있는 디스플레이 시스템 및 그 영상 출력 방법을 제공하는 것이다.
본 문서에 개시되는 일 실시 예에 따른 디스플레이 시스템은 복수개의 디스플레이를 포함하는 싱크 장치와; 상기 싱크 장치에 포함되는 상기 복수개의 디스플레이에 동작 가능하게 결합된 소스 장치를 포함하며, 상기 복수개의 디스플레이는 상기 복수개의 디스플레이 중 저주사율을 가지는 적어도 하나의 다른 디스플레이보다 높은 고주사율을 가지는 디스플레이를 포함하며, 상기 소스 장치는 상기 복수개의 디스플레이 중 고주사율의 디스플레이를 기준으로 영상 데이터를 렌더링하고, 상기 렌더링된 영상 데이터의 적어도 일부를 상기 적어도 하나의 다른 디스플레이 각각의 주사율에 동기하여 상기 복수개의 디스플레이에 전송할 수 있다.
본 문서에 개시되는 일 실시 예에 따른 디스플레이 시스템의 영상 출력 방법은 복수개의 디스플레이 각각의 주사율을 확인하는 동작, 상기 복수개의 디스플레이는 상기 복수개의 디스플레이 중 저주사율을 가지는 적어도 하나의 다른 디스플레이보다 높은 고주사율을 가지는 디스플레이를 포함하며; 상기 복수개의 디스플레이 중 고주사율을 가지는 디스플레이를 기준으로 상기 복수개의 디스플레이에 전송될 영상 데이터를 렌더링하는 동작; 상기 저주사율을 가지는 상기 적어도 하나의 다른 디스플레이 각각의 주사율에 동기하여 상기 복수개의 디스플레이에 상기 렌더링된 영상 데이터의 적어도 일부를 전송하는 동작을 포함할 수 있다.
본 문서에 개시되는 실시 예들에 따르면, 전자 장치에서 생성된 하나 또는 복수개의 컨텐츠가 서로 다른 주사율을 가지는 복수개의 디스플레이를 통해 출력시, 복수개 디스플레이 각각의 주사율에 동기하여 영상을 표시할 수 있다. 이에 따라, 복수개의 디스플레이 각각의 사양에 해당하는 영상을 표시할 수 있으므로, 영상 품질이 저하되는 것을 방지할 수 있다.
이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.
본 개시의 구체적인 설명을 하기 전에, 본 문서 전체에 걸쳐 사용되는 특정 단어들 및 문구들을 정의하는 것이 유리할 수 있다: "포함하다(include)" 및 "구성한다(comprise)"라는 용어뿐만 아니라 그 파생어들은 제한 없이 포함을 의미하며; "또는(or)"이라는 용어는 포괄적이며, '및/또는(and/or)'을 의미하며; "~와 관련된(associated with)" 및 ""~와 연관된(associated therewith)"라는 용어뿐만 아니라 그 파성어들은 “~를 포함하고(include)”, "~내에 포함되고(included within)", "~와 상호 연결하고(interconnect with)", "~을 함유하고(contain)", "~내에 함유되고(be contained within)", "~에 또는, ~와 연결하고(connect to or with)", "~에 또는, ~와 결합하고(couple to or with)", "~와 통신 가능하고(be communicable with)", "~와 협력하고(cooperate with)", "~를 인터리브하고(interleave)", "~와 병치하고(juxtapose)", "~에 가까이 있고(be proximate to)", "~에 또는, ~와 묶이고(be bound to or with)", "가지고(have)", "소유하고 있고 (have a property of)", "~에 또는, ~와 관계를 가지고(have a relationship to or with)" 등인 것을 의미하 고; "제어부(controller)"라는 용어는 적어도 하나의 동작을 제어하는 임의의 디바이스, 시스템, 또는 그의 일부를 의미한다. 제어부와 같은 디바이스는 하드웨어, 펌웨어 혹은 소프트웨어, 혹은 상기 하드웨어, 펌웨어 혹은 소프트웨어 중 적어도 2개의 몇몇 조합에서 구현될 수 있다. 임의의 특정 제어부와 관련된 기능은 로컬이든 원격이든, 중앙 집중하되거나 분산될 수 있다.
또한, 하기에서 설명되는 다양한 기능은 하나 이상의 컴퓨터 프로그램에 의해 구현되거나 지원될 수 있으며, 각각의 컴퓨터 프로그램은 컴퓨터 판독 가능 프로그램 코드(computer readable program code)로부터 형성되고, 컴퓨터 판독 가능 매체(computer readable medium)에서 구현된다. "애플리케이션(application)" 및 "프로그램(program)"이라는 용어는 적절한 컴퓨터 판독 가능 프로그램 코드에서 구현을 위해 적응된 하나 이상의 컴퓨터 프로그램, 소프트웨어 구성 요소(software components), 명령어 세트(sets of instructions), 절차, 기능, 객체(object), 클래스, 인스턴스(instance), 관련된 데이터 또는 이의 일부를 지칭한다. "컴퓨터 판독 가능 프로그램 코드"이라는 문구는 소스 코드(source code), 객체 코드(object code) 및 실행 가능 코드(executable code)를 포함하는 임의의 타입(Type)의 컴퓨터 코드를 포함한다. "컴퓨터 판독 가능 매체"라는 문구는 판독 전용 메모리(read only memory; ROM), 랜덤 액세 스 메모리(random access memory; RAM), 하드 디스크 드라이브, 콤팩트 디스크(compact disc; CD), 디지털 비 디오 디스크(digital video disc; DVD), 또는 임의의 다른 타입(Type)의 메모리와 같이 컴퓨터에 의해 액세스될 수 있는 임의의 타입(Type)의 매체를 포함한다. "비일시적(non-transitory)" 컴퓨터 판독 가능 매체는 일시적 전기적 또는 다른 신호를 송신하는 유선, 무선, 광학 또는 다른 통신 링크를 배제한다. 비일시적 컴퓨터 판독 가능 매체는 데이터가 영구적으로 저장될 수 있는 매체, 및 재기록 가능 광 디스크 또는 소거 가능 메모리 디바이스와 같이 데이터가 저장되고 나중에 중복 기록(overwriting)될 수 있는 매체를 포함한다.
특정 단어들 및 문구들에 대한 정의는 본 문서에 걸쳐 제공되고, 통상의 기술자는 대부분의 경우는 아니지만, 이러한 정의가 그 정의된 단어 및 문구의 이전(종래)뿐만 아니라 이후(미래)의 사용에 적용된다는 것을 이해해야 한다.
본 개시 및 그 이점에 대한 더욱 완전한 이해를 위해, 동일한 도면 부호가 동일한 부분을 나타내는 첨부된 도면과 연관하여 취해진 다음의 설명에 대한 참조가 이제 이루어진다.
도 1는 다양한 실시예에 따른 네트워크 환경 내의 전자 장치를 나타내는 블럭도이다.
도 2는 일 실시 예에 따른 디스플레이 시스템을 나타내는 블록도이다.
도 3은 일 실시 예에 따른 디스플레이 시스템을 상세히 나타내는 블록도이다.
도 4a는 일 실시 예에 따른 제1 및 제2 디스플레이에 전송되는 프레임을 나타내는 도면이며, 도 4b는 일 실시 예에 따른 제1 및 제2 디스플레이에 표시되는 프레임을 나타내는 도면이다.
도 5는 일 실시 예에 따른 서로 다른 주사율로 구동되는 제1 및 제2 디스플레이의 수직 동기 신호를 나타내는 도면이다.
도 6은 일 실시 예에 따른 서로 다른 주사율로 구동되는 제1 및 제2 디스플레이의 수직 동기 신호를 나타내는 도면이다.
도 7은 일 실시 예에 따른 디스플레이 시스템의 영상 출력 동작을 설명하기 위한 흐름도이다.
도 8은 일 실시 예에 따른 디스플레이 시스템의 영상 출력 동작에서 드롭 프레임 및 노멀 프레임의 배치를 제어하는 동작을 설명하기 위한 흐름도이다.
도 9는 일 실시 예에 따른 디스플레이 시스템의 영상 출력 동작에서 화면 출력을 결정하는 동작을 설명하기 위한 흐름도이다.
도면의 설명과 관련하여, 동일 또는 유사한 구성요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.
아래에서 논의되는 도 1 내지 도 9, 및 본 문서에서 본 개시의 원리를 설명하기 위해 사용된 다양한 실시 예는 예시만을 위한 것이고, 어떤 식으로든 본 개시의 범위를 제한하는 것으로 해석되지 않아야 한다. 통상의 기술자는 본 개시의 원리가 적절히 배치된 임의의 시스템 또는 디바이스에서 구현될 수 있다는 것을 이해할 수 있다.
이하, 본 발명의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 실시 예의 다양한 변경(modification), 균등물(equivalent), 및/또는 대체물(alternative)을 포함하는 것으로 이해되어야 한다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블럭도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 장치(150), 음향 출력 장치(155), 표시 장치(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 표시 장치(160) 또는 카메라 모듈(180))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들은 하나의 통합된 회로로 구현될 수 있다. 예를 들면, 센서 모듈(176)(예: 지문 센서, 홍채 센서, 또는 조도 센서)은 표시 장치(160)(예: 디스플레이)에 임베디드된 채 구현될 수 있다
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일 실시 예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 로드하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 추가적으로 또는 대체적으로, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 또는 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일 실시 예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 장치(150)는, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 장치(150)는, 예를 들면, 마이크, 마우스, 키보드, 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 장치(155)는 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 장치(155)는, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있고, 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일 실시 예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
표시 장치(160)는 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 표시 장치(160)는, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시 예에 따르면, 표시 장치(160)는 터치를 감지하도록 설정된 터치 회로(touch circuitry), 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 센서 회로(예: 압력 센서)를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일 실시 예에 따르면, 오디오 모듈(170)은, 입력 장치(150)를 통해 소리를 획득하거나, 음향 출력 장치(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일 실시 예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일 실시 예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일 실시 예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일 실시 예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시 예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일 실시 예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일 실시 예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108))간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시 예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 및 인증할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일 실시 예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 하나의 안테나를 포함할 수 있다. 일 실시 예에 따르면, 안테나 모듈(197)은 복수의 안테나들을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시 예에 따르면, 방사체 이외에 다른 부품(예: RFIC)이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들 간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일 실시 예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일 실시 예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
일 실시 예에서는 도 1에 도시된 전자 장치(101,102,104)는 도 2에 도시된 디스플레이 시스템(200)에 적용할 수 있다.
도 2는 일 실시 예에 따른 디스플레이 시스템(200)을 설명하기 위한 도면이다.
도 2를 참조하면, 일 실시 예에 따른 디스플레이 시스템(200)은 소스 장치(210) 및 다수의 싱크 장치(220)를 포함할 수 있다. 디스플레이 시스템(200)은 사용자 명령에 대응하여 소스 장치(210)에서 생성된 영상을 다수의 싱크 장치(220)로 출력할 수 있다.
소스 장치(210)는 그 소스 장치(210) 내에서 생성 또는 저장된 영상 정보를 싱크 장치(220)로 전송할 수 있다. 소스 장치(210)는 다양한 전자 장치의 제어 유닛(예: 도 1의 프로세서(120))일 수 있다. 예를 들어, 소스 장치(210)는 스마트 폰의 프로세서일 수 있다.
싱크 장치(220)는 소스 장치(210)로부터 전송된 영상 정보를 수신할 수 있다. 싱크 장치(220)는 소스 장치(210)로부터 수신된 영상 정보를 표시할 수 있는 다수의 디스플레이일 수 있다. 예를 들어, 싱크 장치(220)는 컴퓨터, 노트북, 태블릿, 디지털 카메라, 캠코더, PDA, 스마트 폰, TV 등과 같은 전자 장치에 내장된 디스플레이이거나, 전자 장치에 유선 또는 무선으로 연결된 디스플레이일 수 있다. 다수의 싱크 장치(220)는 소스 장치(210)로부터 전송된 영상 정보를 출력하여 서로 동일한 영상 또는 서로 다른 영상을 표시할 수 있다. 일 실시 예에 따르면, 다수의 싱크 장치(220)는 다수의 디스플레이를 포함하며, 적어도 하나의 디스플레이가 나머지 디스플레이와 사양이 다를 수 있다. 예를 들어, 다수의 싱크 장치(220)는 주사율이 서로 다른 다수의 디스플레이일 수 있다. 여기서, 주사율은 영상 표시를 위한 프레임 주파수, 수직 동기 신호 및 프레임 레이트 각각으로 정의될 수 있다. 수직 동기 신호는 디스플레이의 1 프레임(frame) 기간을 정하게 되는 신호이다. 즉, 수직 동기 신호의 펄스의 주기는 1 프레임 기간이 되도록 설정될 수 있다.
도 3은 다양한 실시 예들에 따른 디스플레이 시스템(300)을 나타내는 블럭도이다.
도 3을 참조하면, 싱크 장치(330)는 소스 장치(390)로부터 출력된 영상 데이터를 수신하여, 자신의 주사율에 대응하는 영상을 표시할 수 있게 된다. 싱크 장치(330)는 주사율이 서로 다른 2개 이상의 디스플레이를 포함할 수 있다. 예를 들어, 싱크 장치(330)는 제1 및 제2 디스플레이(310,320)를 포함할 수 있다. 제1 디스플레이(310)는 제2 디스플레이(320)보다 높은 주사율(또는 프레임 주파수)로 영상을 표시할 수 있다. 제1 디스플레이(310)는 제2 디스플레이(320)보다 N(여기서, N은 1보다 큰 양의 정수)배 높은 주사율로 구동될 수 있다. 예를 들어, 제1 및 제2 디스플레이(310,320) 중 어느 하나는 120Hz의 프레임 주파수로 영상을 표시하고, 제1 및 제2 디스플레이(320) 중 나머지 하나는 60Hz의 프레임 주파수로 영상을 표시할 수 있다. 이하에서는, 제1 디스플레이(310)가 고주사율의 디스플레이이고, 제2 디스플레이(320)가 저주사율의 디스플레이인 경우를 예로 들어 설명하기로 한다. 이는 하나의 실시 예일 뿐 그 실시 예로 발명을 한정하는 것은 아니다.
소스 장치(390)는 제1 및 제2 제어 유닛(340,350), 데이터 처리 유닛(370), 그래픽 처리 유닛(360) 및 메모리(380)를 포함할 수 있다.
데이터 처리 유닛(370)은 소스 장치(390)에 유선 연결 및 무선 연결 중 적어도 어느 하나로 연결된 디스플레이(310,320)의 개수를 확인할 수 있다. 데이터 처리 유닛(370)은 소스 장치(390)에 연결된 각 디스플레이(310,320)의 구성 정보, 지원 가능한 기능 등의 식별 정보를 획득하여 제1 제어 유닛(340)에 전달할 수 있다. 예를 들어, 데이터 처리 유닛(370)은 각 디스플레이(310,320)의 화면 주사율의 정보를 획득하여 제1 제어 유닛(340)에 전달할 수 있다.
제1 제어 유닛(340)은 데이터 처리 유닛(370)으로부터 전송된 각 디스플레이(310,320)의 화면 주사율의 정보를 기초로 고주사율의 디스플레이를 확인하여 제2 제어 유닛(350)에 전달할 수 있다.
제2 제어 유닛(350)은 제1 제어 유닛(340)으로부터의 획득한 고주사율을 기초로 그래픽 처리 유닛이 영상 데이터를 렌더링할 수 있도록, 그래픽 처리 유닛(360)을 제어할 수 있다.
그래픽 처리 유닛(360)은 제2 제어 유닛(350)의 제어하에서, 고주파수의 수직 동기 신호를 기준으로 렌더링 동작을 수행하여 렌더링된 그래픽 데이터를 생성하고, 그 렌더링 그래픽 데이터를 메모리(380)로 전송할 수 있다.
메모리(380)는 제1 제어 유닛(340)이 액세스할 수 있는 다수의 버퍼를 포함할 수 있다. 메모리(380)에는 그래픽 처리 유닛(360)에서 렌더링된 그래픽 데이터가 드로잉(drawing)될 수 있다. 여기서, 드로잉은 메모리(380) 내의 버퍼에 그래픽 데이터가 전달되는 동작일 수 있으며, 그래픽 데이터는 싱크 장치(330)에 표시되는 이미지일 수 있다.
제1 제어 유닛(340)은 렌더링된 그래픽 데이터를 프레임단위로 합성하여 영상 데이터를 생성할 수 있다. 제1 제어 유닛(340)은 프레임 단위로 합성된 영상 데이터가 제1 및 제2 디스플레이(310,320)의 주사율에 대응하여 출력될 수 있도록 데이터 처리 유닛(370)을 제어할 수 있다.
제1 제어 유닛(340)은 데이터 처리 유닛(370)으로부터 전달된 복수의 디스플레이의 주사율 정보 중 고주사율을 기반으로 저주사율의 디스플레이에 전송될 프레임의 드롭 비율을 결정할 수 있다. 제1 제어 유닛(340)은 결정된 프레임 드롭 비율에 따라 출력 드롭 신호를 생성하여 데이터 처리 유닛(370)에 인가할 수 있다.
제1 제어 유닛(340)은 주사율-프레임 드롭 비율에 따라 노멀 프레임과 드롭 프레임의 위치를 제어할 수 있다. 노멀 프레임은 제1 및 제2 디스플레이(310,320)로 영상 데이터의 전송이 이루어지는 프레임을 의미하며, 드롭 프레임은 제2 디스플레이(320)로 영상 데이터의 전송이 중지되는 프레임을 의미할 수 있다.
일 실시 예에 따르면, 제1 제어 유닛(340)은 제1 및 제2 디스플레이(310,320)의 주사율 차이에 따른 드롭 프레임의 비율 및 위치를 실시간으로 프로세싱하여 획득할 수 있다. 제1 및 제2 디스플레이(310,320)의 주사율의 비율에 따라서 드롭 프레임의 비율은 달라질 수 있다. 이 때, 제1 및 제2 디스플레이(310,320)의 주사율의 비율이 클수록, 드롭 프레임의 개수(비율)는 많아지고(높아지고), 제1 및 제2 디스플레이(310,320)의 주사율의 차이가 작을수록, 드롭 프레임의 개수(비율)는 적어질 수 있다(낮아질 수 있다).
일 실시 예에 따르면, 제1 제어 유닛(340)은 주사율-드롭 프레임 비율이 룩업 테이블 형태로 미리 저장되어 있을 수 있다. 이에 따라, 제1 제어 유닛(340)은 룩업 테이블에 제1 및 제2 디스플레이(310,320)의 주사율을 맵핑하여, 제1 및 제2 디스플레이(310,320)에 맞는 프레임 드롭 비율 및 위치를 결정할 수 있다. 주사율-드롭 프레임 비율 변환 테이블에서, 제1 및 제2 디스플레이(310,320)의 주사율의 비율이 클수록, 드롭 프레임의 개수(비율)는 많아지고(높아지고), 제1 및 제2 디스플레이(310,320)의 주사율의 차이가 작을수록, 드롭 프레임의 개수(비율)는 적어질 수 있다(낮아질 수 있다).
제1 제어 유닛(340)은 제1 디스플레이(310)에 표시될 노멀 프레임들 사이에 드롭 프레임이 배치되지 않도록 데이터 처리 유닛(370)의 출력을 제어할 수 있다. 제1 제어 유닛(340)은 제2 디스플레이(320)에 표시될 다수의 노멀 프레임들 사이에 적어도 하나 이상의 드롭 프레임이 배치되도록 데이터 처리 유닛(370)의 출력을 제어할 수 있다.
노멀 프레임에서는 제1 및 제2 디스플레이(310,320)로 영상 데이터의 전송이 활성화될 수 있다. 드롭 프레임에서는 출력 드롭 신호에 응답하여 제2 디스플레이(320)로 영상 데이터의 전송이 비활성화되고 제1 디스플레이(310)로 영상 데이터의 전송이 선택적으로 활성화될 수 있다. 이에 따라, 드롭 프레임들에서는 이전 노멀 프레임의 영상 데이터가 제2 디스플레이(320)에 유지되고, 노멀 프레임들에서는 제1 및 제2 디스플레이(310,320)에 표시되는 영상이 업데이트될 수 있다. 제1 디스플레이(310)에 표시되는 영상이 제2 디스플레이(320)에 동일하게 표시될 수 있다.
데이터 처리 유닛(370)으로부터 출력된 영상 데이터는 제1 및 제2 디스플레이(310,320)로 전송될 수 있다. 제1 및 제2 디스플레이(310,320)는 데이터 처리 유닛(370)의 영상 데이터를 수신하여 화면에 표시할 수 있다. 제1 디스플레이(310)는 수평 동기 신호 및 고주파수의 수직 동기 신호에 동기하여 영상 데이터를 화면에 표시할 수 있다. 제2 디스플레이(320)는 수평 동기 신호 및 저주파수의 수직 동기 신호에 동기하여 영상 데이터를 화면에 표시할 수 있다.
제1 디스플레이(310)에는 데이터 처리 유닛(370)에 입력된 영상 프레임의 개수와 동일한 개수의 노멀 프레임이 전송될 수 있다. 제2 디스플레이(320)에는 데이터 처리 유닛(370)에 입력된 영상 프레임의 개수보다 적은 개수의 노멀 프레임이 전송될 수 있다.
메모리(380)는 데이터 처리 유닛(370)을 통해 제1 및 제2 디스플레이(310,320)에 노멀 프레임에 대응하는 영상 데이터가 전송된 후, 저장 가능한 상태로 프리화될 수 있다. 또한, 메모리(380)는 데이터 처리 유닛(370)을 통해 제2 디스플레이(320)에 드롭 프레임에 대응하여 영상 데이터가 전송되지 않고, 노멀 프레임에 대응하여 제1 디스플레이(310)에 영상 데이터가 전송된 후 새로운 데이터를 저장 가능한 상태로 프리화될 수 있다. 메모리(380)는 프리화된 이후, 그래픽 처리 유닛(360)에서 렌더링된 다음 프레임의 그래픽 데이터가 저장될 수 있다. 여기서, 프리화는 메모리(380)에 저장된 정보가 삭제되어 새로운 데이터를 저장 가능한 상태로 메모리(380)를 초기화하는 것을 의미할 수 있다.
이와 같이, 소스 장치(390)에서 출력된 노멀 프레임은 주사율이 서로 다른 복수의 디스플레이(310,320)에 출력될 수 있다. 복수의 디스플레이(310,320)의 주사율 차이로 인해, 복수의 디스플레이(310,320) 중 적어도 어느 하나의 화질 저하없이 출력이 제대로 이루어지는 것은 어려울 수 있다. 따라서, 일 실시 예에 따르면, 복수의 디스플레이 중 고주사율의 디스플레이를 기준으로 저주사율의 디스플레이에 전달되는 프레임의 개수를 조절하여 복수의 디스플레이(310,320)에 표시되는 영상의 동기화를 이룰 수 있다. 고주사율의 디스플레이에는 제1 제어 유닛(340)에서 생성된 영상 프레임의 개수와 동일한 개수의 노멀 프레임이 데이터 처리 유닛(370)을 통해 전송될 수 있다. 저주사율의 디스플레이에는 제1 제어 유닛(340)에서 생성된 영상 프레임의 개수보다 적은 개수의 노멀 프레임이 데이터 처리 유닛(370)을 통해 전송될 수 있다.
도 4a는 일 실시 예에 따른 제1 및 제2 디스플레이에 전송되는 프레임을 나타내는 도면이며, 도 4b는 일 실시 예에 따른 제1 및 제2 디스플레이에 표시되는 프레임을 나타내는 도면이다.
도 4a 및 도 4b를 참조하면, 전자 장치(400)에 포함되는 제1 및 제2 디스플레이(410,420)는 서로 다른 주사율로 영상을 표시할 수 있다. 제1 디스플레이(410)는 고주파수의 수직 동기 신호로 구동되고 제2 디스플레이(420)는 저주파수의 수직 동기 신호로 구동될 수 있다. 예를 들어, 제1 디스플레이(410)는 120Hz의 프레임 주파수에 맞춰 영상이 표시되고, 제2 디스플레이(420)는 60Hz의 프레임 주파수에 맞춰 영상이 표시될 수 있다.
제1 디스플레이(410)에는 노멀 프레임(NF)의 영상 데이터가 소스 장치(430)를 통해 입력될 수 있다. 소스 장치(430)로부터 전송되는 영상 데이터를 이용하여 제1 디스플레이는 노멀 프레임 동안 영상을 표시할 수 있다. 이 때, 제1 디스플레이(410)는 1초 동안 i(여기서, i는 1보다 큰 자연수)개의 프레임을 표시할 수 있다. 예를 들어, 제1 디스플레이(410)는 1초 동안 120개의 프레임을 표시할 수 있다.
제2 디스플레이(420)에는 드롭 프레임(DF)을 제외한 노멀 프레임(NF)의 영상 데이터가 소스 장치(430)를 통해 전송될 수 있다. 소스 장치(430)로부터 전송되는 영상 데이터를 이용하여 제2 디스플레이(420)는 노멀 프레임(NF) 동안 영상을 표시하고 드롭 프레임 동안 이전 노멀 프레임(NF)의 영상 데이터를 이용하여 영상을 표시할 수 있다. 이에 따라, 제2 디스플레이(420)는 1초동안 i보다 적은 j(여기서, j는 1 이상의 자연수)개의 프레임을 표시할 수 있게 된다. 예를 들어, 제2 디스플레이(420)는 1초 동안 60개의 프레임을 표시할 수 있다.
도 5 및 도 6은 일 실시 예에 따른 제1 디스플레이의 고주파수의 제1 수직 동기 신호(HVsync)와, 저주파수의 제2 수직 동기 신호(LVsync)를 나타내는 파형도이다.
도 5를 참조하면, 제1 및 제2 수직 동기 신호(HVsync,LVsync) 각각은 한 프레임의 시작을 나타내는 신호일 수 있다. 제1 디스플레이는 고주파수의 제1 수직 동기 신호(HVsync)에 동기하여 영상을 표시하며, 제2 디스플레이는 저주파수의 제2 수직 동기 신호(LVsync)에 동기하여 영상을 표시할 수 있다. 예를 들어, 제1 수직 동기 신호(HVsync)는 120Hz의 수직 동기 신호이며, 제2 수직 동기 신호(LVstnc)는 60Hz의 수직 동기 신호일 수 있다.
제1 디스플레이의 주사율은 제2 디스플레이의 주사율의 N(여기서, N은 1보다 큰 양의 정수)배일 수 있다. 제1 수직 동기 신호(HVsync)의 주기는 제2 수직 동기 신호(LVsync)의 주기의 N배일 수 있다. 제2 수직 동기 신호(LVsync)의 하이 논리 구간(H2)(또는 제3 구간)은 제1 수직 동기 신호(HVsync)의 하이 논리 구간(H1)(또는, 제1 구간)보다 N배 길며, 제2 수직 동기 신호(LVsync)의 로우 논리 구간(L2)(또는 제4 구간)은 제1 수직 동기 신호(HVsync)의 로우 논리 구간(L1)(또는 제2 구간)보다 N배 길 수 있다.
이러한 제1 및 제2 디스플레이의 주사율 차이로 인해, 제2 수직 동기 신호(LVsync)의 하이 논리 구간(H2) 동안 제1 디스플레이에는 해당 프레임의 영상이 표시될 때, 제2 수직 동기 신호(LVsync)의 하이 논리 구간(H2) 동안 제2 디스플레이에는 해당 프레임의 영상이 아닌 이전 프레임의 영상이 표시될 수 있다. 이에 따라, 제1 디스플레이에는 해당 프레임의 영상이 표시될 때, 제2 디스플레이에는 제1 디스플레이를 기준으로 이전 프레임의 영상이 드롭되고 해당 프레임의 영상이 표시될 수 있다.
이와 관련하여, 제2 수직 동기 신호(LVsync)의 하이 논리 구간(H2)에서는 데이터 처리 유닛에 입력된 영상 프레임은 제1 디스플레이에 노멀 프레임(NF)으로 전송되고, 제2 디스플레이에 드롭 프레임(DF)으로 전송될 수 있다.
제1 수직 동기 신호(HVsync)의 로우 논리 구간(L1)과 중첩되는 제2 수직 동기 신호(LVsync)의 로우 논리 구간(L2)에서는 데이터 처리 유닛에 입력된 영상 프레임은 제1 및 제2 디스플레이에 전송될 노멀 프레임(NF)으로 전송될 수 있다.
일 실시 예에 따르면, 제1 디스플레이의 주사율이 제2 디스플레이의 주사율보다 N(여기서, N은 1보다 큰 자연수)배 높을 수 있다. 이 경우, 데이터 처리 유닛에 입력된 영상 프레임들은 제1 디스플레이에 노멀 프레임(NF)으로 전송될 수 있다. 그리고, 데이터 처리 유닛에 입력된 영상 프레임들 중 제1 및 제2 수직 동기 신호(HVsync,LVsync)의 로우 논리 구간(L1,L2)과 중첩되는 N, 2N, 3N, 4N,…번째 영상 프레임은 노멀 프레임(NF)으로 제2 디스플레이에 전송되고, 제2 수직 동기 신호(LVsync)의 하이 논리 구간(H2)과 중첩되는 영상 프레임들은 드롭 프레임(DF)으로 제2 디스플레이에 전송되지 않을 수 있다. 이에 따라, 제1 디스플레이에는 1초 동안 i(여기서, i는 1보다 큰 자연수)개의 노멀 프레임이 표시될 수 있으며, 제2 디스플레이에는 1초동안 1/N개의 노멀 프레임이 표시될 수 있다.
예를 들어, 도 5에 도시된 바와 같이 제1 디스플레이의 주사율이 제2 디스플레이의 주사율보다 2배 높을 수 있다. 이 경우, 데이터 처리 유닛에 입력된 영상 프레임들은 노멀 프레임(NF1,NF2,NF3,NF4,…으로 제1 디스플레이에 전송될 수 있다. 그리고, 데이터 처리 유닛에 입력된 영상 프레임들 중 제1 및 제2 수직 동기 신호(HVsync,LVsync)의 로우 논리 구간과 중첩되는 짝수번째 영상 프레임은 노멀 프레임(NF2,NF4,NF6,NF8,…으로 제2 디스플레이에 전송될 수 있다. 데이터 처리 유닛에 입력된 영상 프레임들 중 제2 수직 동기 신호(LVsync)의 하이 논리 구간과 중첩되는 홀수번째 영상 프레임은 드롭 프레임(DF1,DF3,DF5,DF7,…으로 제 디스플레이에 전송되지 않을 수 있다.
이에 따라, 제1 디스플레이에는 1초 동안 i(여기서, i는 1보다 큰 자연수)개의 노멀 프레임이 표시될 수 있으며, 제2 디스플레이에는 1초동안 1/2개의 노멀 프레임이 표시될 수 있다. 즉, 제1 디스플레이는 제2 디스플레이보다 2배 높은 주사율로 영상이 표시될 수 있으며, 제2 디스플레이는 제1 디스플레이보다 2배 낮은 주사율로 영상이 표시될 수 있다.
일 실시 예에 따르면, 제1 디스플레이의 주사율이 1보다 큰 자연수들을 제외한 양의 정수배로 제2 디스플레이의 주사율보다 높을 수 있다. 이 경우, 데이터 처리 유닛에 입력된 영상 프레임들은 노멀 프레임(NF)으로 제1 디스플레이에 전송될 수 있다.
데이터 처리 유닛에 입력된 영상 프레임들 중 제1 및 제2 수직 동기 신호(HVsync,LVsync)의 로우 논리 구간과 중첩되는 영상 프레임 중 적어도 어느 하나는 노멀 프레임(NF)으로 제2 디스플레이에 전송될 수 있다.
제2 수직 동기 신호(LVsync)의 로우 논리 구간(L2)과 중첩되는 제1 수직 동기 신호(HVsync)의 로우 논리 구간(L1)은 복수개일 수 있다. 이 경우, 제2 수직 동기 신호(LVsync)의 로우 논리 구간(L2)과 중첩되는 다수의 제1 수직 동기 신호(HVsync)의 로우 논리 구간 중 하나를 선택할 수 있다. 그리고, 선택된 제1 1 수직 동기 신호의 로우 논리 구간(L1) 동안 제1 디스플레이에 표시되는 노멀 프레임(NF)은 제2 디스플레이에 노멀 프레임(NF)으로 표시될 수 있다.
예를 들어, 제2 수직 동기 신호(LVsync)의 로우 논리 구간(L2)과 중첩되는 구간이 긴 제1 수직 동기 신호(HVsync)의 로우 논리 구간(L1)이 선택될 수 있다. 또는, 제2 수직 동기 신호(LVsync)의 로우 논리 구간(L2)의 폴링 시점과, 제1 수직 동기 신호의 로우 논리 구간(L1)의 폴링 시점 간의 차이가 적은 제1 수직 동기 신호의 로우 논리 구간(L1)이 선택될 수 있다.
제2 수직 동기 신호(LVsync)의 하이 논리 구간(H2)과 중첩되는 제1 디스플레이의 노멀 프레임(NF)은 제2 디스플레이의 드롭 프레임(DF)으로 렌더링될 수 있다.
예를 들어, 도 6에 도시된 바와 같이 제1 디스플레이의 주사율이 제2 디스플레이의 주사율보다 N(여기서, N은 1보다 큰 양의 정수)배가 아닌 경우, 제1 디스플레이의 주사율은 제2 디스플레이의 주사율보다 x.y(여기서, x 및 y는 자연수)배 높을 수 있다. 이 때, 데이터 처리 유닛에 입력된 영상 프레임들은 노멀 프레임(NF1,NF2,NF3,NF4,…으로 제1 디스플레이에 전송될 수 있다. 그리고, 데이터 처리 유닛에 입력된 영상 프레임들 중 제1 및 제2 수직 동기 신호(HVsync,LVsync)의 로우 논리 구간(L1,L2)과 중첩되는 영상 프레임 중 적어도 어느 하나는 노멀 프레임(NF2,NF3,NF5,…으로 제2 디스플레이에 전송되고, 제2 수직 동기 신호(LVsync)의 하이 논리 구간(H2)과 중첩되는 영상 프레임들은 드롭 프레임(DF1,DF4,DF6,…으로 제2 디스플레이에 전송되지 않을 수 있다.
도 7은 일 실시 예에 따른 디스플레이 시스템의 영상 출력 방법을 설명하기 위한 흐름도이다. 일 실시 예에 따른 디스플레이 시스템의 영상 출력 방법은 도 3에 도시된 전자 장치를 결부하여 설명하기로 한다.
동작 S11에서, 데이터 처리 유닛(370)은 소스 장치(390)에 연결된 디스플레이(310,320)가 복수개인지를 판단할 수 있다. 소스 장치(390)에 연결된 디스플레이(310,320)가 복수개인 경우, 동작 S12로 진행될 수 있다. 소스 장치(390)에 연결된 디스플레이(310,320)가 한 개인 경우, 동작 S14로 진행될 수 있다.
동작 S12에서, 싱크 장치(330)에 포함된 복수개의 디스플레이(310,320)가 소스 장치(390)에 연결되었다면, 데이터 처리 유닛(370)은 각 디스플레이(310,320)의 주사율을 확인하여 제1 제어 유닛(340)에 전달할 수 있다. 제1 제어 유닛(340)은 전달된 각 디스플레이(310,320)의 주사율을 확인하고, 각 디스플레이(310,320)의 주사율 간의 동일 유무 및 크기를 확인할 수 있다.
동작 S13에서, 각 디스플레이(310,320)의 주사율이 다른 경우, 그래픽 처리 유닛(360)은 고주사율의 디스플레이를 기준으로 각 디스플레이(310,320)에 전송될 영상 데이터를 렌더링할 수 있다. 예를 들어, 제1 디스플레이(310)의 주사율이 제2 디스플레이(320)보다 높은 경우, 그래픽 처리 유닛(360)은 제1 디스플레이(310)의 주사율을 기준으로 영상 데이터를 렌더링할 수 있다. 또는, 제2 디스플레이(320)의 주사율이 제1 디스플레이(310)보다 높은 경우, 그래픽 처리 유닛(360)은 제2 디스플레이(320)의 주사율을 기준으로 영상 데이터를 렌더링할 수 있다.
동작 S14에서, 소스 장치(390)에 연결된 디스플레이가 단일 또는 복수개인 경우, 그래픽 처리 유닛(360)에서 렌더링된 영상 데이터는 메모리(380)에 저장될 수 있다.
동작 S15에서, 메모리(380)에 저장된 영상 데이터는 제1 및 제2 디스플레이(310,320)로 전송됨으로써 메모리(380)는 다음 영상 데이터를 저장할 수 있도록 프리(free)화될 수 있다.
한편, 동작 S13에서 렌더링된 영상 데이터는 데이터 처리 유닛(370)을 통해 고주사율의 제1 디스플레이(310)에 노멀 프레임의 영상 데이터로 전송할 수 있다. 그리고, 데이터 처리 유닛(370)은 고주사율의 제1 디스플레이(310)에 전송된 노멀 프레임 중 적어도 하나의 노멀 프레임을 드롭하고 나머지 노멀 프레임을 제2 디스플레이(320)에 전송할 수 있다. 이에 따라, 제1 및 제2 디스플레이(310,320)에는 각 디스플레이(310,320)의 주사율에 동기하여 영상이 표시될 수 있다.
도 8은 일 실시 예에 따른 디스플레이 시스템의 영상 출력 동작에서 드롭 프레임 및 노멀 프레임의 배치를 제어하는 동작을 설명하기 위한 흐름도이다. 일 실시 예에 따른 드롭 프레임 및 노멀 프레임의 배치를 제어하는 동작은 도 3에 도시된 전자 장치를 결부하여 설명하기로 한다.
동작 S21에서, 데이터 처리 유닛(370)은 각 디스플레이(310,320)의 식별 정보를 확인하여 제1 제어 유닛(340)에 전달할 수 있다. 제1 제어 유닛(340)은 전달된 각 디스플레이(310,320)의 식별 정보를 통해 각 디스플레이의 프레임 주파수(또는 주사율)를 확인할 수 있다.
동작 S22에서, 그래픽 처리 유닛(360)은 고주사율의 디스플레이를 기준으로 각 디스플레이에 전송될 영상 데이터를 렌더링하고, 메모리(380)에 저장할 수 있다. 메모리(380)에 저장된 영상 데이터는 제1 제어 유닛(340)에서 프레임 단위로 합성되어 데이터 처리 유닛(370)으로 전송될 수 있다.
동작 S23에서, 제1 제어 유닛(340)은 복수의 디스플레이 중 저주파수의 디스플레이의 수직 동기 신호를 확인할 수 있다. 즉, 제1 제어 유닛(340)은 저주파수의 수직 동기 신호가 로우 논리 구간인지의 여부를 판단할 수 있다. 저주파수의 수직 동기 신호가 로우 논리 구간에 해당하는 경우, 동작 S25로 진행할 수 있다. 저주파수의 수직 동기 신호가 하이 논리 구간에 해당하는 경우, 동작 S24로 진행할 수 있다.
동작 S24에서, 저주파수의 수직 동기 신호가 하이 논리 구간에 해당하는 경우, 데이터 처리 유닛(370)은 영상 프레임을 드롭 프레임으로 처리할 수 있다. 이에 따라, 저주파수의 수직 동기 신호로 구동되는 디스플레이에는 영상 데이터가 전송되지 않을 수 있다.
동작 S25에서, 저주파수의 수직 동기 신호가 로우 논리 구간에 해당하는 경우, 데이터 처리 유닛(370)은 영상 프레임을 노멀 프레임으로 처리할 수 있다. 이에 따라, 저주파수의 수직 동기 신호로 구동되는 디스플레이에는 영상 데이터가 전송될 수 있다. 한편, 고주파수의 수직 동기 신호로 구동되는 디스플레이는 저주파수의 수직 동기 신호에 무관하게 영상을 표시할 수 있다. 고주파수의 수직 동기 신호로 구동되는 디스플레이는 고주파수의 수직 동기 신호에 동기하여 영상을 표시할 수 있다.
도 9는 일 실시 예에 따른 서로 다른 주사율을 가지는 디스플레이 간에 화면 출력을 결정하는 동작을 설명하기 위한 흐름도이다. 일 실시 예에 따른 화면 출력을 결정하는 동작은 도 3에 도시된 디스플레이 시스템을 결부하여 설명하기로 한다.
동작 S31에서, 데이터 처리 유닛(370)은 각 디스플레이(310,320)의 식별 정보를 확인하여 제1 제어 유닛(340)에 전달할 수 있다. 제1 제어 유닛(340)은 전달된 각 디스플레이(310,320)의 식별 정보를 통해 각 디스플레이의 프레임 주파수(또는 주사율)를 확인할 수 있다.
동작 S32에서, 제1 제어 유닛(340)은 복수개의 디스플레이 각각의 주사율을 비교하여 복수개의 디스플레이 중 가장 높은 주사율의 디스플레이의 식별 정보를 확인할 수 있다.
동작 S33에서, 제1 제어 유닛(340)은 복수개의 디스플레이 각각의 화면에 맞도록 주사율을 세팅할 수 있다. 이 때, 복수개의 디스플레이 각각의 클락 카운터는 0으로 셋팅될 수 있다.
동작 S34에서, 그래픽 처리 유닛(360)은 고주사율의 디스플레이를 기준으로 각 디스플레이에 전송될 영상 데이터를 렌더링할 수 있다.
동작 S35에서, 메모리(380)에는 그래픽 처리 유닛(360)에서 렌더링된 영상 데이터가 저장될 수 있다. 메모리(380)에 저장된 영상 데이터는 제1 제어 유닛(340)에서 프레임 단위로 합성되어 데이터 처리 유닛(370)으로 전송될 수 있다.
영상 데이터가 메모리(380)에 저장되면 미러링 동작 셋팅이 완료되었는지를 판단할 수 있다. 미러링 동작 셋팅이 완료되었다면, 동작 S36으로 진행할 수 있다. 미러링 동작 셋팅이 완료되지 않았다면, 동작 S35로 회귀할 수 있다.
동작 S36에서, 제1 제어 유닛(340)은 복수의 디스플레이의 주사율의 비율을 따라서 노멀 프레임 및 드롭 프레임의 위치와 드롭 프레임의 개수(비율)를 결정할 수 있다. 따라서, 제1 제어 유닛(340)에 의해 현재 프레임의 영상이 노멀 프레임에 해당하는 영상으로 판단되면, 동작 37로 진행될 수 있다. 제1 제어 유닛(340)에 의해 현재 프레임의 영상이 노멀 프레임에 해당하지 않는 영상으로 판단되면, 동작 S38로 진행될 수 있다.
동작 S37에서, 현재 프레임의 영상이 노멀 프레임에 해당하는 영상인 경우, 제1 제어 유닛(340)은 클락 카운터를 1로 세팅할 수 있다.
동작 S38에서, 제1 제어 유닛(340)은 소스 장치에 연결된 다수의 디스플레이 중 가장 높은 주사율로 구동되는 디스플레이(Higher)에 대한 현재 프레임의 영상이 수신될 디스플레이(Current)간의 주사율의 비율(Higher/Current)과, 클락 카운터(count)와의 합을 계산할 수 있다. 그 합이 1을 초과하면 동작 S39로 진행하고, 그 합이 1 미만이면 동작 S41로 진행할 수 있다.
동작 S39에서, 주사율의 비율(Higher/Current)과, 클락 카운터(count)와의 합이 1을 초과하면, 제1 제어 유닛(340)은 클락 카운터(Count)를 0으로 재설정할 수 있다. 따라서, 제1 제어 유닛(340)은 제1 및 제2 디스플레이(310,320)에 현재 프레임의 영상 데이터가 전송되어야 하는 것으로 판단할 수 있다. 제1 제어 유닛(340)은 현재 프레임의 영상 데이터가 제1 및 제2 디스플레이(310,320)에 전송될 수 있도록 데이터 처리 유닛(370)을 제어할 수 있다.
동작 S40에서, 데이터 처리 유닛(370)은 현재 프레임의 영상 데이터를 제1 및 제2 디스플레이(310,320)에 노멀 프레임의 영상데이터로 전송할 수 있다.
동작 S41에서, 주사율의 비율(Higher/Current)과, 클락 카운터(count)와의 합이 1 미만이면, 제1 제어 유닛(340)은 제1 디스플레이(310)에 선택적으로 현재 프레임의 영상 데이터를 전송해야 하는 것으로 판단할 수 있다. 따라서, 데이터 처리 유닛(370)은 현재 프레임의 영상 데이터를 제1 디스플레이(310)에 노멀 프레임의 영상 데이터로 전송하고, 제2 디스플레이(320)에 영상 데이터를 전송하지 않을 수 있다.
동작 S42에서, 메모리(380)에 저장된 영상 데이터는 제1 및 제2 디스플레이(310,320)로 전송됨으로써 메모리(380)는 다음 영상 데이터를 저장할 수 있도록 프리(free)화될 수 있다.
동작 S43에서, 제1 제어 유닛(340)은 현재 프레임의 영상 데이터가 마지막 영상 데이터인지 판단할 수 있다. 현재 프레임의 영상 데이터가 마지막 영상 데이터가 아닌 경우, 동작 S36으로 회귀할 수 있다. 현재 프레임의 영상 데이터가 마지막 영상 데이터인 경우, 미러링 동작을 종료할 수 있다.
본 문서의 실시 예에 따른 싱크 장치에 포함되는 복수개의 디스플레이는 복수개의 전자장치 각각에 포함된 디스플레이 장치로 한정되지 않는다. 다양한 실시 예에 따르면, 복수개의 디스플레이는 하나의 전자 장치에 포함된 복수개의 디스플레이 장치이거나, 디스플레이 장치의 한 화면이 복수개로 분할된 디스플레이영역일 수 있다. 예를 들어, 복수개의 디스플레이를 포함하는 싱크 장치는 멀티 화면을 가지는 하나의 단말기이거나, 테터드(tethered)형 증강 현실(AR)/가상 현실(VR) 디스플레이 장치일 수 있다. 복수개의 디스플레이에는 동일한 컨텐츠가 미러링되어 출력되거나, 적어도 하나의 디스플레이에는 나머지 디스플레이와 다른 컨텐츠가 출력될 수도 있다.
다양한 실시 예에 따른 디스플레이 시스템은 복수개의 디스플레이를 포함하는 싱크 장치와; 상기 싱크 장치에 포함되는 상기 복수개의 디스플레이에 동작 가능하게 결합된 소스 장치를 포함하며, 상기 복수개의 디스플레이는 상기 복수개의 디스플레이 중 저주사율을 가지는 적어도 하나의 다른 디스플레이보다 높은 고주사율을 가지는 디스플레이를 포함하며, 상기 소스 장치는 상기 복수개의 디스플레이 중 고주사율의 디스플레이를 기준으로 영상 데이터를 렌더링하고, 상기 렌더링된 영상 데이터의 적어도 일부를 상기 적어도 하나의 다른 디스플레이 각각의 주사율에 동기하여 상기 복수개의 디스플레이에 전송할 수 있다.
다양한 실시 예에 따르면, 상기 소스 장치는 상기 고주사율의 디스플레이에 복수개의 노멀 프레임의 영상 데이터를 전송하며, 상기 복수개의 노멀 프레임 중 적어도 어느 하나의 노멀 프레임의 영상 데이터는 상기 저주사율을 가지는 상기 적어도 하나의 다른 디스플레이에 전송되지 않도록 드롭 설정할 수 있다.
다양한 실시 예에 따르면, 상기 저주사율을 가지는 상기 적어도 하나의 다른 디스플레이로 상기 노멀 프레임이 전송되지 않는 동안, 상기 고주사율을 가지는 상기 디스플레이에는 해당 노멀 프레임의 영상이 업데이트되고, 상기 노멀 프레임의 드롭시 저주사율을 가지는 상기 적어도 하나의 다른 디스플레이에는 이전 노멀 프레임의 영상이 표시될 수 있다.
다양한 실시 예에 따르면, 상기 소스 장치는 상기 복수개의 디스플레이의 주사율을 확인하고, 상기 복수개의 디스플레이의 주사율의 비율에 따라서, 복수개의 노멀 프레임의 드롭 비율을 제어하는 제어 유닛을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 복수개의 디스플레이의 고주사율과 저주사율의 비율이 클수록 상기 드롭 비율은 높아질 수 있다.
다양한 실시 예에 따르면, 상기 소스 장치는 상기 제어 유닛의 제어하에 동작하는 데이터 처리 유닛을 더 포함하며, 상기 데이터 처리 유닛은 제1 노멀 프레임 동안 상기 고주사율을 가지는 디스플레이와 및 상기 저주사율을 가지는 상기 적어도 하나의 다른 디스플레이에 영상 데이터를 출력하고, 상기 드롭 설정시, 상기 저주사율을 가지는 상기 적어도 하나의 다른 디스플레이에 영상 데이터를 출력하지 않을 수 있다.
다양한 실시 예에 따르면, 상기 고주사율을 가지는 상기 디스플레이에는 서로 다른 제1 및 제2 구간을 가지는 제1 수직 동기 신호에 동기하여 제1 영상을 표시하며, 상기 저주사율을 가지는 상기 적어도 하나의 다른 디스플레이에는 상기 제1 구간보다 긴 제3 구간과, 상기 제2 구간보다 긴 제4 구간을 가지는 제2 수직 동기 신호에 동기하여 제2 영상을 표시하며, 상기 데이터 처리 유닛은 상기 제1 및 제2 구간에 상기 노멀 프레임을 배치하여 상기 노멀 프레임의 영상 데이터를 상기 고주사율을 가지는 디스플레이에 전송하며, 상기 제3 구간에 상기 노멀 프레임을 드롭 설정하고, 상기 제4 구간에 상기 노멀 프레임을 배치하여, 상기 노멀 프레임의 영상 데이터를 상기 저주사율 을 가지는 적어도 하나의 다른 디스플레이 전송할 수 있다.
다양한 실시 예에 따르면, 상기 제2 구간에 상기 고주사율을 가지는 디스플레이에 표시되는 노멀 프레임의 영상 데이터와, 상기 제2 구간과 중첩되는 상기 제4 구간에 상기 저주사율을 가지는 상기 적어도 하나의 다른 디스플레이에 표시되는 노멀 프레임의 영상 데이터는 동일할 수 있다.
다양한 실시 예에 따르면, 상기 소스 장치는 상기 복수개의 디스플레이 중 고주사율을 가지는 디스플레이를 기준으로 상기 복수개의 디스플레이에 전송될 영상 데이터를 렌더링하는 그래픽 처리 유닛을 더 포함할 수 있다.
다양한 실시 예에 따르면, 상기 소스 장치는 상기 그래픽 처리 유닛에서 렌더링된 영상 데이터를 저장하는 메모리를 더 포함하며, 상기 메모리는 상기 데이터 처리 유닛을 통해 상기 고주사율을 가지는 상기 디스플레이 및 상기 저주사율을 가지는 상기 적어도 하나의 다른 디스플레이에 영상 데이터가 출력된 후 저장 가능한 상태로 프리화되고, 상기 데이터 처리 유닛을 통해 상기 저주사율을 가지는 상기 적어도 하나의 다른 디스플레이에 영상 데이터를 출력하지 않고 상기 고주사율을 가지는 상기 디스플레이에 영상 데이터가 출력된 후 저장 가능한 상태로 프리화될 수 있다.
다양한 실시 예에 따르면, 디스플레이의 시스템의 영상 출력 방법은 복수개의 디스플레이 각각의 주사율을 확인하는 동작, 상기 복수개의 디스플레이는 상기 복수개의 디스플레이 중 저주사율을 가지는 적어도 하나의 다른 디스플레이보다 높은 고주사율을 가지는 디스플레이를 포함하며; 상기 복수개의 디스플레이 중 고주사율을 가지는 디스플레이를 기준으로 상기 복수개의 디스플레이에 전송될 영상 데이터를 렌더링하는 동작; 상기 저주사율을 가지는 상기 적어도 하나의 다른 디스플레이 각각의 주사율에 동기하여 상기 복수개의 디스플레이에 상기 렌더링된 영상 데이터의 적어도 일부를 전송하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 복수개의 디스플레이에 영상 데이터를 전송하는 동작은, 상기 고주사율을 가지는 상기 디스플레이에 복수개의 노멀 프레임의 영상 데이터를 전송하며, 상기 복수개의 노멀 프레임 중 적어도 어느 하나의 노멀 프레임의 영상 데이터가 상기 저주사율을 가지는 상기 적어도 하나의 다른 디스플레이에 전송되지 않도록 드롭 설정할 수 있다.
다양한 실시 예에 따르면, 디스플레이의 시스템의 영상 출력 방법은 상기 복수개의 디스플레이의 주사율을 확인하고, 상기 복수개의 디스플레이의 주사율의 비율에 따라서, 복수개의 노멀 프레임들의 드롭 비율을 제어하는 동작을 더 포함할 수 있다.
다양한 실시 예에 따르면, 상기 복수개의 디스플레이의 고주사율과 저주사율의 비율이 클수록 상기 드롭 비율은 높아질 수 있다.
다양한 실시 예에 따르면, 디스플레이의 시스템의 영상 출력 방법은 상기 고주사율을 가지는 상기 디스플레이 및 상기 저주사율을 가지는 상기 적어도 하나의 다른 디스플레이에 영상 데이터가 전송된 후 메모리를 저장 가능한 상태로 프리화하는 동작과; 상기 저주사율을 가지는 상기 적어도 하나의 다른 디스플레이에 영상 데이터가 전송되지 않고 상기 고주사율을 가지는 상기 디스플레이에 영상 데이터가 전송된 후 상기 메모리를 저장 가능한 상태로 프리화하는 동작을 더 포함할 수 있다.
다양한 실시 예에 따른 디스플레이 시스템은 고주사율을 가지는 적어도 하나의 제1 디스프레이와; 저주사율을 가지는 적어도 하나의 제2 디스플레이와; 상기 제1 및 제2 디스플레이와 작동 가능하게 연결된 소스 장치를 포함하며, 상기 소스 장치는 상기 제1 디스플레이의 주사율을 기준으로 영상 데이터를 렌더링하고, 상기 렌더링된 영상 데이터를 상기 제1 디스플레이에 복수개의 노멀 프레임의 영상 데이터를 전송하며, 상기 복수개의 노멀 프레임 중 적어도 어느 하나의 노멀 프레임의 영상 데이터는 제2 디스플레이에 전송되지 않도록 드롭 설정할 수 있다.
다양한 실시 예에 따르면, 상기 제2 디스플레이에 노멀 프레임이 전송되지 않는 동안 상기 제1 디스플레이에는 해당 노멀 프레임의 영상이 업데이트되고, 상기 노멀 프레임의 드롭시 저주사율을 가지는 상기 제2 디스플레이에는 이전 노멀 프레임의 영상이 표시될 수 있다.
다양한 실시 예에 따르면, 상기 소스 장치는 상기 복수개의 디스플레이의 주사율을 확인하고, 상기 복수개의 디스플레이의 주사율의 비율에 따라서, 상기 복수개의 노멀 프레임들의 드롭 비율을 제어하는 제어 유닛을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 고주사율과 저주사율의 비율이 클수록 상기 드롭 비율은 높아질 수 있다.
다양한 실시 예에 따르면, 상기 소스 장치는 상기 렌더링된 영상 데이터를 저장하는 메모리를 더 포함하며, 상기 메모리는 상기 제1 및 제2 디스플레이에 상기 노멀 프레임의 영상 데이터가 출력된 후, 저장 가능한 상태로 프리화되고, 상기 제2 디스플레이에 노멀 프레임의 영상 데이터가 출력되지 않고 상기 제1 디스플레이에 상기 노멀 프레임의 영상 데이터가 출력된 후, 저장 가능한 상태로 프리화될 수 있다.
본 문서의 다양한 실시 예들 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및/또는 B 중 적어도 하나", "A, B 또는 C" 또는 "A, B 및/또는 C 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제1," "제2," "첫째," 또는 "둘째,"등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제1) 구성요소가 다른(예: 제2) 구성요소에 "(기능적으로 또는 통신적으로)연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.
본 문서에서, "~하도록 설정된(adapted to or configured to)"은 상황에 따라, 예를 들면, 하드웨어적 또는 소프트웨어적으로 "~에 적합한," "~하는 능력을 가지는," "~하도록 변경된," "~하도록 만들어진," "~를 할 수 있는," 또는 "~하도록 설계된"과 상호 호환적으로(interchangeably) 사용될 수 있다. 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 설정된 (또는 구성된) 프로세서"는 해당 동작들을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치(예: 메모리)에 저장된 하나 이상의 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(예: CPU 또는 AP)를 의미할 수 있다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어(firmware)로 구성된 유닛(unit)을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. "모듈"은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. "모듈"은 기계적으로 또는 전자적으로 구현될 수 있으며, 예를 들면, 어떤 동작들을 수행하는, 알려졌거나 앞으로 개발될, ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays), 또는 프로그램 가능 논리 장치를 포함할 수 있다.
다양한 실시 예들에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는 프로그램 모듈의 형태로 컴퓨터로 판독 가능한 저장 매체(예: 메모리)에 저장된 명령어로 구현될 수 있다. 상기 명령어가 프로세서(예: 프로세서)에 의해 실행될 경우, 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 판독 가능한 기록 매체는, 하드디스크, 플로피디스크, 마그네틱 매체(예: 자기테이프), 광기록 매체(예: CD-ROM, DVD, 자기-광 매체(예: 플롭티컬 디스크), 내장 메모리 등을 포함할 수 있다. 명령어는 컴파일러에 의해 만들어지는 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다.
다양한 실시 예들에 따른 구성 요소(예: 모듈 또는 프로그램 모듈) 각각은 단수 또는 복수의 개체로 구성될 수 있으며, 전술한 해당 서브 구성 요소들 중 일부 서브 구성 요소가 생략되거나, 또는 다른 서브 구성 요소를 더 포함할 수 있다. 대체적으로 또는 추가적으로, 일부 구성 요소들(예: 모듈 또는 프로그램 모듈)은 하나의 개체로 통합되어, 통합되기 이전의 각각의 해당 구성 요소에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따른 모듈, 프로그램 모듈 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
본 개시가 예시적인 실시 예로 설명되었지만, 다양한 변경 및 수정이 통상의 기술자에게 제시될 수 있다. 본 개 시는 첨부된 청구항의 범주 내에 속하는 이러한 변경 및 수정을 포함하는 것으로 의도된다.

Claims (15)

  1. 복수개의 디스플레이를 포함하는 싱크 장치와;
    상기 싱크 장치에 포함되는 상기 복수개의 디스플레이에 동작 가능하게 결합된 소스 장치를 포함하며,
    상기 복수개의 디스플레이는 상기 복수개의 디스플레이 중 저주사율을 가지는 적어도 하나의 다른 디스플레이보다 높은 고주사율을 가지는 디스플레이를 포함하며,
    상기 소스 장치는
    상기 복수개의 디스플레이 중 고주사율의 디스플레이를 기준으로 영상 데이터를 렌더링하고,
    상기 렌더링된 영상 데이터의 적어도 일부를 상기 적어도 하나의 다른 디스플레이 각각의 주사율에 동기하여 상기 복수개의 디스플레이에 전송하는, 디스플레이 시스템.
  2. 제 1 항에 있어서,
    상기 소스 장치는 상기 고주사율의 디스플레이에 복수개의 노멀 프레임의 영상 데이터를 전송하며,
    상기 복수개의 노멀 프레임 중 적어도 어느 하나의 노멀 프레임의 영상 데이터는 상기 저주사율을 가지는 상기 적어도 하나의 다른 디스플레이에 전송되지 않도록 드롭 설정하는, 디스플레이 시스템.
  3. 제 2 항에 있어서,
    상기 저주사율을 가지는 상기 적어도 하나의 다른 디스플레이로 상기 노멀 프레임이 전송되지 않는 동안, 상기 고주사율을 가지는 상기 디스플레이에는 해당 노멀 프레임의 영상이 업데이트되고, 상기 노멀 프레임의 드롭시 저주사율을 가지는 상기 적어도 하나의 다른 디스플레이에는 이전 노멀 프레임의 영상이 표시되는, 디스플레이 시스템.
  4. 제 2 항에 있어서,
    상기 소스 장치는
    상기 복수개의 디스플레이의 주사율을 확인하고, 상기 복수개의 디스플레이의 주사율의 비율에 따라서, 복수개의 노멀 프레임의 드롭 비율을 제어하는 제어 유닛을 포함하는, 디스플레이 시스템.
  5. 제 4 항에 있어서,
    상기 복수개의 디스플레이의 고주사율과 저주사율의 비율이 클수록 상기 드롭 비율은 높아지는, 디스플레이 시스템.
  6. 제 5 항에 있어서,
    상기 소스 장치는
    상기 제어 유닛의 제어하에 동작하는 데이터 처리 유닛을 더 포함하며,
    상기 데이터 처리 유닛은
    제1 노멀 프레임 동안 상기 고주사율을 가지는 디스플레이와 및 상기 저주사율을 가지는 상기 적어도 하나의 다른 디스플레이에 영상 데이터를 출력하고,
    상기 드롭 설정시, 상기 저주사율을 가지는 상기 적어도 하나의 다른 디스플레이에 영상 데이터를 출력하지 않는, 디스플레이 시스템.
  7. 제 5 항에 있어서,
    상기 고주사율을 가지는 상기 디스플레이에는 서로 다른 제1 및 제2 구간을 가지는 제1 수직 동기 신호에 동기하여 제1 영상을 표시하며,
    상기 저주사율을 가지는 상기 적어도 하나의 다른 디스플레이에는 상기 제1 구간보다 긴 제3 구간과, 상기 제2 구간보다 긴 제4 구간을 가지는 제2 수직 동기 신호에 동기하여 제2 영상을 표시하며,
    상기 데이터 처리 유닛은
    상기 제1 및 제2 구간에 상기 노멀 프레임을 배치하여 상기 노멀 프레임의 영상 데이터를 상기 고주사율을 가지는 디스플레이에 전송하며,
    상기 제3 구간에 상기 노멀 프레임을 드롭 설정하고, 상기 제4 구간에 상기 노멀 프레임을 배치하여, 상기 노멀 프레임의 영상 데이터를 상기 저주사율을 가지는 적어도 하나의 다른 디스플레이 전송하는, 디스플레이 시스템.
  8. 제 7 항에 있어서,
    상기 제2 구간에 상기 고주사율을 가지는 디스플레이에 표시되는 노멀 프레임의 영상 데이터와,
    상기 제2 구간과 중첩되는 상기 제4 구간에 상기 저주사율을 가지는 상기 적어도 하나의 다른 디스플레이에 표시되는 노멀 프레임의 영상 데이터는 동일한, 디스플레이 시스템.
  9. 제 6 항에 있어서,
    상기 소스 장치는
    상기 복수개의 디스플레이 중 고주사율을 가지는 디스플레이를 기준으로 상기 복수개의 디스플레이에 전송될 영상 데이터를 렌더링하는 그래픽 처리 유닛을 더 포함하는, 디스플레이 시스템.
  10. 제 9 항에 있어서,
    상기 소스 장치는
    상기 그래픽 처리 유닛에서 렌더링된 영상 데이터를 저장하는 메모리를 더 포함하며,
    상기 메모리는
    상기 데이터 처리 유닛을 통해 상기 고주사율을 가지는 상기 디스플레이 및 상기 저주사율을 가지는 상기 적어도 하나의 다른 디스플레이에 영상 데이터가 출력된 후 저장 가능한 상태로 프리화되고,
    상기 데이터 처리 유닛을 통해 상기 저주사율을 가지는 상기 적어도 하나의 다른 디스플레이에 영상 데이터를 출력하지 않고 상기 고주사율을 가지는 상기 디스플레이에 영상 데이터가 출력된 후 저장 가능한 상태로 프리화되는, 디스플레이 시스템.
  11. 디스플레이 시스템의 영상 출력 방법에 있어서,
    복수개의 디스플레이 각각의 주사율을 확인하는 동작, 상기 복수개의 디스플레이는 상기 복수개의 디스플레이 중 저주사율을 가지는 적어도 하나의 다른 디스플레이보다 높은 고주사율을 가지는 디스플레이를 포함하며;
    상기 복수개의 디스플레이 중 고주사율을 가지는 디스플레이를 기준으로 상기 복수개의 디스플레이에 전송될 영상 데이터를 렌더링하는 동작;
    상기 저주사율을 가지는 상기 적어도 하나의 다른 디스플레이 각각의 주사율에 동기하여 상기 복수개의 디스플레이에 상기 렌더링된 영상 데이터의 적어도 일부를 전송하는 동작을 포함하는 디스플레이 시스템의 영상 출력방법.
  12. 제 11 항에 있어서,
    상기 복수개의 디스플레이에 영상 데이터를 전송하는 동작은,
    상기 고주사율을 가지는 상기 디스플레이에 복수개의 노멀 프레임의 영상 데이터를 전송하며,
    상기 복수개의 노멀 프레임 중 적어도 어느 하나의 노멀 프레임의 영상 데이터가 상기 저주사율을 가지는 상기 적어도 하나의 다른 디스플레이에 전송되지 않도록 드롭 설정하는 디스플레이 시스템의 영상 출력방법.
  13. 제 12 항에 있어서,
    상기 복수개의 디스플레이의 주사율을 확인하고, 상기 복수개의 디스플레이의 주사율의 비율에 따라서, 복수개의 노멀 프레임들의 드롭 비율을 제어하는 동작을 더 포함하는 디스플레이 시스템의 영상 출력방법.
  14. 제 13 항에 있어서,
    상기 복수개의 디스플레이의 고주사율과 저주사율의 비율이 클수록 상기 드롭 비율은 높아지는 디스플레이 시스템의 영상 출력방법.
  15. 제 11 항에 있어서,
    상기 고주사율을 가지는 상기 디스플레이 및 상기 저주사율을 가지는 상기 적어도 하나의 다른 디스플레이에 영상 데이터가 전송된 후 메모리를 저장 가능한 상태로 프리화하는 동작과;
    상기 저주사율을 가지는 상기 적어도 하나의 다른 디스플레이에 영상 데이터가 전송되지 않고 상기 고주사율을 가지는 상기 디스플레이에 영상 데이터가 전송된 후 상기 메모리를 저장 가능한 상태로 프리화하는 동작을 더 포함하는 디스플레이 시스템의 영상 출력방법.
PCT/KR2022/000456 2021-02-05 2022-01-11 복수의 디스플레이를 포함하는 디스플레이 시스템 및 그 영상 출력 방법 WO2022169124A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/665,371 US11948533B2 (en) 2021-02-05 2022-02-04 Display system including plurality of displays and image output method thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2021-0017062 2021-02-05
KR1020210017062A KR20220113180A (ko) 2021-02-05 2021-02-05 복수의 디스플레이를 포함하는 디스플레이 시스템 및 그 영상 출력 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/665,371 Continuation US11948533B2 (en) 2021-02-05 2022-02-04 Display system including plurality of displays and image output method thereof

Publications (1)

Publication Number Publication Date
WO2022169124A1 true WO2022169124A1 (ko) 2022-08-11

Family

ID=82741321

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/000456 WO2022169124A1 (ko) 2021-02-05 2022-01-11 복수의 디스플레이를 포함하는 디스플레이 시스템 및 그 영상 출력 방법

Country Status (2)

Country Link
KR (1) KR20220113180A (ko)
WO (1) WO2022169124A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130123757A (ko) * 2012-05-03 2013-11-13 삼성테크윈 주식회사 영상 프레임 전송 및 처리 방법
US20140078390A1 (en) * 2012-09-20 2014-03-20 Broadcom Corporation Field conversions to slower video rates
KR20160007564A (ko) * 2013-06-07 2016-01-20 애플 인크. 높은 프레임 레이트 및 가변 프레임 레이트 캡처를 위한 비디오 압축 튜닝
US20180359413A1 (en) * 2016-01-29 2018-12-13 SZ DJI Technology Co., Ltd. Method, system, device for video data transmission and photographing apparatus
KR20190043670A (ko) * 2017-10-19 2019-04-29 엘지디스플레이 주식회사 저속 구동 모드로 영상을 출력하는 방법 및 이를 구현하는 표시장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130123757A (ko) * 2012-05-03 2013-11-13 삼성테크윈 주식회사 영상 프레임 전송 및 처리 방법
US20140078390A1 (en) * 2012-09-20 2014-03-20 Broadcom Corporation Field conversions to slower video rates
KR20160007564A (ko) * 2013-06-07 2016-01-20 애플 인크. 높은 프레임 레이트 및 가변 프레임 레이트 캡처를 위한 비디오 압축 튜닝
US20180359413A1 (en) * 2016-01-29 2018-12-13 SZ DJI Technology Co., Ltd. Method, system, device for video data transmission and photographing apparatus
KR20190043670A (ko) * 2017-10-19 2019-04-29 엘지디스플레이 주식회사 저속 구동 모드로 영상을 출력하는 방법 및 이를 구현하는 표시장치

Also Published As

Publication number Publication date
KR20220113180A (ko) 2022-08-12

Similar Documents

Publication Publication Date Title
WO2020256460A1 (en) Apparatus and method for driving display based on frequency operation cycle set differently according to frequency
WO2021158074A1 (ko) 디스플레이를 포함하는 전자 장치
WO2019088793A1 (ko) 전자 장치 및 이를 이용한 화면 공유 방법
WO2015105345A1 (en) Method and apparatus for screen sharing
WO2019124908A1 (ko) 영상 동기 신호에 기반하여 터치 센서 컨트롤러를 제어하기 위한 전자 장치 및 방법
WO2014142557A1 (en) Electronic device and method for processing image
WO2019093856A1 (en) Device and method for controlling microphone according to connection of external accessory
WO2015102458A1 (en) Image data output control method and electronic device supporting the same
WO2021230524A1 (ko) 플리커 현상을 경감하는 디스플레이 장치 및 그것을 포함하는 전자 장치
WO2019164248A1 (en) Method for adaptively controlling low power display mode and electronic device thereof
EP3698352A1 (en) Display device and method for controlling independently by a group of pixels
WO2020190028A1 (ko) 변형가능한 디스플레이 패널 내의 화면의 표시를 위한 전자 장치, 방법, 및 컴퓨터 판독가능 매체
WO2019172723A1 (ko) 이미지 센서와 연결된 인터페이스 및 복수의 프로세서들간에 연결된 인터페이스를 포함하는 전자 장치
WO2019054610A1 (ko) 복수의 이미지 센서들을 제어하기 위한 전자 장치 및 방법
WO2020138909A1 (ko) 콘텐트 공유 방법 및 그 전자 장치
WO2022169124A1 (ko) 복수의 디스플레이를 포함하는 디스플레이 시스템 및 그 영상 출력 방법
WO2021261919A1 (ko) 디스플레이의 리프레쉬 레이트를 동적으로 조정하는 전자 장치
WO2019083283A1 (en) ELECTRONIC IMAGE DISPLAY DEVICE AND ITS CONTROL METHOD
WO2019164204A1 (ko) 전자 장치 및 그의 동작 방법
WO2021201593A1 (ko) 데이터의 제공 방법 및 이를 지원하는 전자 장치
WO2021153962A1 (ko) 스트리밍 데이터를 처리하는 방법 및 전자 장치
WO2021172941A1 (ko) 영상 스트리밍 방법 및 이를 지원하는 전자 장치
WO2021025424A1 (en) Electronic device controlling luminance and method for controlling luminance thereof
WO2021230560A1 (ko) 카메라 장치를 포함하는 전자 장치
WO2020262823A1 (ko) 영상을 처리하는 전자 장치 및 그 영상 처리 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22749878

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22749878

Country of ref document: EP

Kind code of ref document: A1