WO2015190780A1 - 사용자 단말 및 이의 제어 방법 - Google Patents

사용자 단말 및 이의 제어 방법 Download PDF

Info

Publication number
WO2015190780A1
WO2015190780A1 PCT/KR2015/005718 KR2015005718W WO2015190780A1 WO 2015190780 A1 WO2015190780 A1 WO 2015190780A1 KR 2015005718 W KR2015005718 W KR 2015005718W WO 2015190780 A1 WO2015190780 A1 WO 2015190780A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
display
time point
related images
detected
Prior art date
Application number
PCT/KR2015/005718
Other languages
English (en)
French (fr)
Inventor
방준호
고창석
견재기
이관민
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to CN201580029148.0A priority Critical patent/CN106462518A/zh
Priority to US15/317,771 priority patent/US20170127120A1/en
Priority to EP15805779.4A priority patent/EP3121733A4/en
Publication of WO2015190780A1 publication Critical patent/WO2015190780A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4112Peripherals receiving signals from specially adapted client devices having fewer capabilities than the client, e.g. thin client having less processing power or no tuning capabilities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/1066Session management
    • H04L65/1083In-session procedures
    • H04L65/1094Inter-user-equipment sessions transfer or sharing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/61Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
    • H04L65/612Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for unicast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/61Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
    • H04L65/613Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for the control of the source by the destination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4126The peripheral being portable, e.g. PDAs or mobile phones
    • H04N21/41265The peripheral being portable, e.g. PDAs or mobile phones having a remote control device for bidirectional communication between the remote control device and client device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43076Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of the same content streams on multiple devices, e.g. when family members are watching the same movie on different devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/16Use of wireless transmission of display information

Definitions

  • the present invention relates to a user terminal and a control method thereof, and more particularly, to a user terminal and a method of controlling the same, which are synchronized with video content played by an external display device.
  • display devices such as TVs, PCs, laptop computers, tablet PCs, mobile phones, MP3 players, and the like are widely used in most homes.
  • the user terminal has a limitation in that it does not provide various services related to the image content by only playing the image content displayed by the display device in synchronization with the display device.
  • an object of the present invention is to provide a user terminal that can provide a UI for providing various functions and services for the image content received from an external display device and a control method thereof In providing.
  • a control method of a user terminal includes: displaying a plurality of related images for one image content; Displaying a first UI for selecting a playback time point of the plurality of related images when a preset user interaction is detected; And playing back the plurality of related images from the specific time point when a user interaction for selecting a specific time point is detected through the first UI.
  • the method may further include receiving image streams of the plurality of related images from an external display device.
  • the displaying may include displaying the plurality of related images simultaneously by processing the image stream.
  • the displaying may include displaying the plurality of related images by synchronizing with image contents displayed by the display apparatus using time stamp information included in the image stream.
  • the reproducing may include transmitting information about the specific time point to an external server; Receiving image streams for a plurality of related images from the specific time point from the external server; And playing back a plurality of related images from the received specific time point.
  • the first UI may be a progress bar type UI.
  • the user terminal for achieving the above object, the display unit for displaying a plurality of related images for one image content; A detector for detecting a user interaction; And when a preset user interaction is detected through the sensing unit, controlling the display unit to display a first UI for selecting a playback time point of the plurality of related images, and selecting a specific time point through the first UI. And a controller configured to reproduce a plurality of related images from the specific time point when an interaction is detected.
  • Communication unit for receiving a video stream for the plurality of related images from the external display device; And an image processor configured to process the received image stream, wherein the controller may control the display unit to simultaneously display the plurality of related images processed by the image processor.
  • the controller may control the display unit to display the plurality of related images in synchronization with image contents displayed by the display apparatus using time stamp information included in the image stream.
  • a storage unit for storing the image stream received from the display device, wherein the controller may play the plurality of related images from the specific time point using the image stream stored in the storage unit.
  • the apparatus may further include a communication unit configured to communicate with an external server, wherein the control unit transmits information on the specific time point to an external server, and outputs a video stream for a plurality of related images from the specific time point.
  • the communication unit may be controlled to receive from an external server, and the plurality of related images from the received specific time point may be reproduced.
  • the controller controls the display unit to display a second UI for selecting a playback time point of the one related image when a predetermined user interaction with respect to one of the plurality of related images is detected through the sensing unit.
  • a user interaction for selecting a specific viewpoint is detected through the second UI, only one related image may be played back from the specific viewpoint.
  • the controller may be configured to enlarge the one related image to a full screen when a predetermined user interaction with respect to the one related image is detected while the one related image is reproduced from the specific time point.
  • the display unit may be controlled to display.
  • the first UI may be a progress bar type UI.
  • the control method of the user terminal for achieving the above object, the step of displaying the image content; If a preset user interaction is detected, displaying a UI for selecting a specific section of the image content; If a user interaction for selecting a specific section is detected through the UI, displaying a list for providing a plurality of services for the specific section; And when a user interaction for selecting one of a plurality of services included in the list is detected, providing a selected service for the specific section.
  • the list may include at least one of a preview icon for providing a preview service, a storage icon for providing a storage service, a sharing icon for providing a sharing service, and an editing icon for providing an editing service.
  • the providing may include reproducing the image content of the specific section in one region of the display screen when a user interaction for selecting the preview icon is detected.
  • the providing may include storing image content of the specific section when a user interaction for selecting the storage icon is detected.
  • the providing may include uploading the image content of the specific section to an external server when a user interaction for selecting the shared icon is detected.
  • the UI for selecting the specific section is a progress bar-type UI mapped with the playback time of the video content, and when a user interaction for selecting a specific time point of the progress bar-type UI is detected, the specific And displaying a thumbnail screen of the specific view at the top of the view.
  • the image content may be received from an external display device, and the displaying may include displaying the image content in synchronization with image content reproduced by the display apparatus by using time stamp information of the image content.
  • the display unit for displaying the image content; A detector for detecting a user interaction; And when a preset user interaction is detected through the sensing unit, controlling the display unit to display a UI for selecting a specific section of the image content, and when a user interaction for selecting a specific section is detected through the UI.
  • the display unit is controlled to display a list for providing a plurality of services for the specific section, and when a user interaction for selecting one of a plurality of services included in the list is detected, the selected service is provided for the specific section. It includes a control unit.
  • the list may include at least one of a preview icon for providing a preview service, a storage icon for providing a storage service, a sharing icon for providing a sharing service, and an editing icon for providing an editing service.
  • the controller may control the display unit to play the image content of the specific section in one region of the display screen when a user interaction of selecting a preview icon is detected from a plurality of icons included in the list. .
  • the apparatus may further include a storage unit, and when the user interaction of selecting the storage icon is detected from the plurality of icons included in the list, the controller may store the image content of the specific section in the storage unit. .
  • the communication unit may further include a communication unit configured to communicate with an external server.
  • the providing may include: when a user interaction for selecting the shared icon is detected from a plurality of icons included in the list, the image of the specific section;
  • the communication unit may be controlled to upload content to an external server.
  • the UI for selecting the specific section is a progress bar-type UI mapped to the playback time of the video content
  • the controller detects a user interaction for selecting a specific time point of the progress bar-type UI.
  • the display unit may be controlled to display a thumbnail screen of the specific view on the upper end of the specific view.
  • the image content may be received from an external display device, and the controller may control the display unit to display the image content in synchronization with the image content played by the display apparatus using time stamp information of the image content. have.
  • a user may receive various services and functions for image content displayed by an external display device through a user terminal.
  • FIG. 1 is a diagram illustrating a multimedia system, according to an embodiment of the present invention.
  • FIG. 2 is a block diagram briefly illustrating a configuration of a user terminal according to an embodiment of the present invention
  • FIG. 3 is a block diagram showing in detail the configuration of a user terminal according to an embodiment of the present invention.
  • FIGS. 5A to 5C are diagrams for describing a pairing method of a display apparatus and a user terminal according to an exemplary embodiment
  • 6A to 6C are diagrams for describing a network topology implementation method according to one embodiment of the present invention.
  • FIGS. 7A and 7B are diagrams for describing a network topology implementation method according to another embodiment of the present invention.
  • FIG. 8 is a block diagram showing a configuration of a storage unit according to an embodiment of the present invention.
  • 9A to 10C are diagrams for describing an embodiment of selecting a playback time point for at least one of a plurality of related images using a UI for selecting a playback time point according to various embodiments of the present disclosure
  • 11A to 11G are diagrams for describing an exemplary embodiment of providing various functions for a section selected by a user among image contents according to an embodiment of the present invention
  • 12A to 12D are diagrams for explaining an embodiment of providing a reservation notification function in a PIP form according to an embodiment of the present invention
  • 13 to 15 are flowcharts illustrating a control method of a user terminal according to various embodiments of the present disclosure.
  • first and second may be used to describe various components, but the components should not be limited by the terms. The terms are only used to distinguish one component from another.
  • the module or unit performs at least one function or operation, and may be implemented by hardware or software, or a combination of hardware and software.
  • the plurality of modules or the plurality of units may be integrated into at least one module except for the modules or units that need to be implemented with specific hardware, and are implemented as at least one processor (not shown). Can be.
  • the multimedia system 10 includes a user terminal 100 and a display apparatus 200.
  • the user terminal 100 may be a separate remote controller having a touch screen for controlling the display apparatus 200, but this is only an example and may be used as various portable user terminals such as a smart phone and a tablet PC.
  • the display device 200 may be a smart TV, but this is only an example and may be various display devices such as a digital TV, a desktop PC, a notebook PC, a navigation device, a kiosk, and a digital information display (DID). Can be implemented.
  • DID digital information display
  • the user terminal 100 and the display apparatus 200 may be connected to each other through various communication methods.
  • the user terminal 100 and the display apparatus 200 may communicate with each other using a wireless communication module such as Bluetooth or Wi-Fi.
  • the display apparatus 200 displays image content. While the display apparatus 200 displays the image content, the display apparatus 200 may transmit at least one related image of the image content to the user terminal 100.
  • the at least one related image of the image content may be an image of the image content currently displayed by the display apparatus 200, a multi-angle image of photographing the image content at various angles, and an image including related information of the image content.
  • the user terminal 100 displays at least one related image of the image content.
  • the user terminal 100 may synchronize and display at least one related image with the image content displayed by the display apparatus 200 based on the time stamp information of the image content.
  • the image content is broadcast content received through the Internet
  • the user terminal 100 synchronizes at least one related image with the image content displayed by the display apparatus 200 using time stamp information included in the metadata of the broadcast content. Can be displayed.
  • the user terminal 100 may store at least one related image of the received image content.
  • the user terminal 100 may store all of at least one related image of the image content.
  • the user terminal 100 temporarily stores the at least one related image for a predetermined period in a first in first out (FIFO) manner. Can be stored as
  • the user terminal 100 may select a UI for selecting a playback time of the at least one related image (hereinafter, referred to as a “time shift function”). UI "for". ").
  • the UI for the time shift function may be a progress bar type UI.
  • the user terminal 100 may play at least one related image from the specific viewpoint.
  • the user terminal 100 may play at least one related video from a specific time point in the video stream including at least one related video previously stored.
  • the user terminal 100 transmits information on a specific time point to an external server, receives a video stream for a plurality of related images from a specific time point from an external server, At least one related image may be displayed.
  • the user terminal 100 when the user terminal 100 detects a predetermined user interaction while displaying the image content, the user terminal 100 displays a UI for selecting a specific section of the image content. In addition, when a user interaction for selecting a specific section is detected through the UI, the user terminal 100 may display a list for providing a plurality of services for the specific section. In addition, when a user interaction for selecting one of a plurality of services included in the list is detected, the user terminal 100 provides a selected service for a specific section.
  • the plurality of services for a specific section may include a storage service for storing video content of a specific section, a preview service for previewing video content of a specific section, and a sharing service for sharing video content of a specific section with others through a social network service. And an editing service for editing image content of a specific section.
  • the user terminal 100 displays the event image content in one area of the display screen.
  • the event video content may be one of a reserved video content, a recommended video content, and an advertisement video content reserved by the user.
  • the user may perform various functions and services on the image content currently displayed by the display apparatus 200 through the user terminal 100.
  • the user terminal 100 includes a display 110, a detector 120, and a controller 130.
  • the display 110 displays the image content under the control of the controller 130.
  • the display 110 may divide the display screen to display at least one related image of the image content.
  • the related image of the image content may include at least one of an image of the image content currently displayed by the display apparatus 200, an image photographed from various angles of the image content, and an image including related information about the image content. .
  • the detector 120 detects a user's touch interaction.
  • the detector 120 may detect various touch interactions such as pinch interaction and drag interaction.
  • the sensing unit 120 may be implemented as a touch screen together with the display 110.
  • the controller 130 controls the overall operation of the user terminal 100.
  • the controller 130 may determine a time.
  • the display 110 may be controlled to display the first UI for the shift function.
  • the controller 130 may play a plurality of related images from the specific viewpoint.
  • the controller 130 processes the received image stream to display a plurality of related images simultaneously.
  • 110 may be controlled.
  • the controller 130 may control the display 110 to display a plurality of related images in synchronization with image contents displayed by the display apparatus by using time stamp information included in the image stream.
  • the controller 130 may store an image stream received from the display apparatus 200. In this case, the controller 130 may store the entire received video stream, but this is only an example. The controller 130 may store the received video stream for a predetermined time using a FIFO-type buffer.
  • the controller 130 may determine a plurality of related images.
  • the display 110 may be controlled to display a first UI for a time shift function on the related image of the.
  • the first UI may be a UI in the form of a progress bar, but this is only an embodiment and may be another UI.
  • the controller 130 may play a plurality of related images from the selected specific viewpoint.
  • the controller 130 may determine a playback time corresponding to the touched point.
  • the controller 130 may control the display 110 to display a plurality of related images of the image content from the playback time corresponding to the touched point using the stored image stream.
  • the controller 130 may transmit information about a playback time corresponding to the touched point to an external server.
  • the controller 130 may play back a plurality of related images from the received playback time point.
  • the controller 130 may control the display 110 to display a second UI for providing a time shift function for the first related image.
  • the controller 130 may play only the first related image from the specific viewpoint. In this case, the controller 130 may continue to maintain the current playback state instead of time-shifting and playing back the selected related video.
  • the controller 130 may control the display 110 to enlarge the first related image and display the full screen.
  • the user terminal 100 may provide a time shift function for at least one related image among a plurality of related images for one image content.
  • the time shift function is provided for all related images or one related image.
  • the time shift function may be provided only for at least two related images among the plurality of related images. For example, a predetermined user interaction with respect to the first related image and the second related image among the plurality of related images (for example, an interaction of touching a boundary line between the first related image and the second related image for a predetermined time). If this is detected, the controller 130 may control the display 110 to display a UI for providing a time shift function for the first related image and the second related image.
  • the controller 130 may display a UI for selecting a specific section of the image content.
  • the display 110 may be controlled.
  • the controller 130 may control the display 110 to display a list for providing a plurality of services for the specific section.
  • the controller 130 may provide a selected service for a specific section.
  • the controller 130 processes the received video stream to display the video content. 110 may be controlled.
  • the controller 130 may control the display 110 to display the image content in synchronization with the image content reproduced by the display apparatus 200 using the time stamp information of the image content.
  • the controller 130 selects a specific section of the image content.
  • the display 110 may be controlled to display a UI for the display.
  • the UI for selecting a specific section of the image content may be a progress bar-type UI mapped with the reproduction time of the image content.
  • the controller 130 may select a specific section of the image content according to the user interaction input through the UI. In this case, when a user interaction for selecting a specific point of the progress bar-type UI is detected, the controller 130 displays the thumbnail screen displayed at the playback time corresponding to the specific point on the top of the specific point. ) Can be controlled.
  • the controller 130 may control the display 110 to display a list for providing a plurality of services for the specific section.
  • the list may include at least one of a preview icon for providing a preview service, a storage icon for providing a storage service, a sharing icon for providing a sharing service, and an editing icon for providing an editing service.
  • the controller 130 may provide a selected service for a specific section. For example, when a user interaction of selecting a preview icon from a plurality of icons included in the list is detected, the controller 130 controls the display 110 to play image content of a specific section in one region of the display screen. Can be controlled. As another example, when a user interaction of selecting a storage icon among a plurality of icons included in the list is detected, the controller 130 may store image content of a specific section. As another example, when a user interaction for selecting a shared icon among a plurality of icons included in the list is detected, the controller 130 may upload image content of a specific section to an external server.
  • the user may provide various services through the user terminal 100 with the image content displayed on the display apparatus 200.
  • the controller 130 displays the event image content in one area of the display screen.
  • the display 110 is controlled to control the display 110.
  • the event video content may be one of reserved video content reserved by the user, recommended video content of the content provider, and advertisement content.
  • the controller 130 may enlarge the event image contents displayed on one region of the display screen to a full screen and display the display unit. 110 can be controlled.
  • the preset event may be an event in which a reservation program designated by a user is displayed or an event in which a program recommended by a content provider is displayed.
  • the user terminal 100 includes a display unit 110, a communication unit 140, an audio output unit 150, a storage unit 160, an image processor 170, an audio processor 180, The detector 120 and the controller 130 are included.
  • FIG. 3 schematically illustrates various components by taking the case where the user terminal 100 is a device having various functions such as a content providing function, a display function, a communication function, and the like. Therefore, according to an embodiment, some of the components shown in FIG. 3 may be omitted or changed, and other components may be further added.
  • the display 110 displays at least one of a video frame processed by the image processor 170 and various screens generated by the graphic processor 143 on the image data received through the communicator 140.
  • the display 110 may display a related image of one image content received from an external display device 200.
  • the display 110 may display the image content currently displayed by the display apparatus 200, a plurality of angle images photographed at various angles with respect to the image content, and related information about the image content.
  • the communication unit 120 is configured to communicate with various types of external devices according to various types of communication methods.
  • the communicator 120 may include various communication chips such as a Wi-Fi chip, a Bluetooth chip, an NFC chip, a wireless communication chip, and the like.
  • the WiFi chip, the Bluetooth chip, and the NFC chip communicate with each other via WiFi, Bluetooth, and NFC.
  • the NFC chip refers to a chip that operates in a near field communication (NFC) method using a 13.56 MHz band among various RF-ID frequency bands such as 135 kHz, 13.56 MHz, 433 MHz, 860-960 MHz, and 2.45 GHz.
  • NFC near field communication
  • the wireless communication chip refers to a chip that performs communication according to various communication standards such as IEEE, Zigbee, 3rd Generation (3G), 3rd Generation Partnership Project (3GPP), Long Term Evoloution (LTE), and the like.
  • the communication unit 120 may perform pairing with the display apparatus 200 to receive at least one related image of the image content received from the display apparatus 200.
  • a communication method between the user terminal 100 and the display apparatus 200 will be described in more detail with reference to FIGS. 4A to 7B.
  • 4A, 4B, and 5A through 5C are diagrams for describing a pairing method between the display apparatus 200 and the user terminal 100 according to an exemplary embodiment.
  • the display apparatus 200 and the user terminal 100 may be connected to perform wireless communication through an access point (AP) device 410.
  • the AP device 410 may be implemented as a wireless router that transmits a wireless fidelity (Wi-Fi) signal.
  • Wi-Fi wireless fidelity
  • a set-top box 420 having a home communication terminal function required to use a next-generation interactive multimedia communication service (so-called interactive television) such as VOD contents, video home shopping, and network games may be connected to the display apparatus 200.
  • the set-top box is a device that makes the TV an Internet user interface, and is a special computer that can actually send and receive data through the Internet, and has a protocol such as a web browser and TCP / IP.
  • set-top boxes can provide services through a telephone line or a cable TV line for web TV service, and have a function of receiving / converting video signals as a basic function.
  • the user terminal 100 transmits Wi-Fi data 1 to the display apparatus 200.
  • the display apparatus 200 of the same manufacturer is recognized, but the general commercial AP may not be recognized and may be implemented to be discarded.
  • Wi-Fi data is a Wi-Fi signal that can be transmitted to a TV that is not connected to the next door through the wall, but can be paired separately.
  • the display apparatus 200 transmits response data (2) to Wi-Fi data to the user terminal 100.
  • the display apparatus 200 recognizing Wi-Fi data responds with its current AP connection information.
  • the response of the non-connected object may be limited through an additional technology in which communication is performed only in limited space / distance such as ultrasound, IR, or NFC.
  • data (3) requesting connection information may be transmitted.
  • Wi-Fi Data No. 1 you can request current AP connection information of nearby TVs using ultrasonic technology, IR, or NFC.
  • the display apparatus 200 that recognizes the 1 data waits for the 3 requested data, and the connection information request data transmitted to the additional technology in which communication is performed only in a limited space / distance is not transmitted to the non-connected target TV.
  • the response data (4) for the connection information request may be transmitted.
  • AP connection information is transmitted using Wi-Fi, and since 3 connection information request data is transmitted only to the TV to be connected, the display device 200 recognizing data 3 responds via general Wi-Fi.
  • 2 in case of using ultrasonic wave, 2 must use TV SPK, so SPK output range is important, and in case of 3 + 4, TV must have Mic.
  • the AP connection request data (5) is transmitted.
  • the connection target display device 200 since the current AP connection information is acquired from the connection target display device 200, the connection can be requested to the corresponding AP using the information.
  • pairing can be performed only by power on. That is, when the display device 200 is turned on first, when the user terminal 100 is turned on, the N / W information is obtained in the existing display device 200 without any additional operation and connected to the N / W. It can be paired with the device 200, and vice versa. Also, once paired devices do not need to pair again.
  • pairing may be performed by distinguishing between a connection target and a non-target. For example, pairing non-target devices (eg, next door TVs) may be identified and blocked.
  • 6A to 6C are diagrams for describing a network topology implementation method according to an embodiment of the present invention.
  • the AP device 410 or the display device 200 may be implemented to always access the Internet.
  • the connection environment may be determined according to the presence or absence of the display apparatus 200 and the AP apparatus 410 or an internet connection state. That is, in any case, it can be implemented in the form of internet connection.
  • the network topology may be changed in various forms according to the service scenario.
  • the display apparatus 200 and the user terminal 100 may be directly connected in a P2P form.
  • power on / off control may be implemented using Wi-Fi.
  • the user terminal 100 should be able to power on the Wi-Fi display device 200 in the power off state, and vice versa.
  • FIGS. 7A and 7B are diagrams for describing a network topology implementation method according to another embodiment of the present invention.
  • the user terminal 100 may be implemented to remotely control an external device such as an STB through a gateway server in the display apparatus 200.
  • the integrated remote controller may be configured without setting up to control an external device such as an STB.
  • the display apparatus 200 and the user terminal 100 may provide various content streaming such as push, pull, and multi-angle viewing.
  • the audio output unit 150 outputs various notification sounds or voice messages as well as various audio data on which various processing operations such as decoding, amplification, and noise filtering are performed by the audio processing unit 180. It is a constitution. In particular, when the user terminal 100 displays a plurality of related images, the audio output unit 150 may output audio corresponding to one related image selected by the user among the plurality of image related images.
  • the storage unit 160 stores various software modules for controlling the user terminal 100. Various software modules stored in the storage 160 will be described with reference to FIG. 8.
  • the storage 140 includes a base module 141, a sensing module 142, a communication module 143, a presentation module 144, a web browser module 145, and a service module 146.
  • Software may be stored.
  • the base module 161 refers to a base module that processes a signal transmitted from each hardware included in the user terminal 100 and transmits the signal to an upper layer module.
  • the base module 161 includes a storage module 161-1, a security module 161-2, a network module 161-3, and the like.
  • the storage module 161-1 is a program module that manages a database (DB) or a registry.
  • the main CPU 134 may access a database in the storage unit 160 using the storage module 161-1 to read various data.
  • the security module 161-2 is a program module that supports authentication, request permission, and secure storage of hardware.
  • the network module 161-3 is a network module for supporting network connection. Modules include DNET module and UPnP module.
  • the sensing module 162 collects information from various sensors and analyzes and manages the collected information.
  • the sensing module 162 may include a touch recognition module, a head direction recognition module, a face recognition module, a voice recognition module, a motion recognition module, an NFC recognition module, and the like.
  • the communication module 163 is a module for communicating with the outside.
  • the communication module 163 may include a device module used for communication with an external device, a messaging module such as a messenger program, a short message service (SMS) & multimedia message service (MMS) program, an e-mail program, a call info aggregator program, and the like. It may include a telephone module including a module, a VoIP module and the like.
  • the presentation module 164 is a module for configuring a display screen.
  • the presentation module 164 includes a multimedia module for reproducing and outputting multimedia content, and a UI rendering module for performing UI and graphic processing.
  • the multimedia module may include a player module, a camcorder module, a sound processing module, and the like. Accordingly, an operation of reproducing and reproducing a screen and sound by reproducing various multimedia contents is performed.
  • the UI rendering module comprises an image compositor module that combines images, a coordinate combination module that generates a combination of on-screen coordinates to display an image, an X11 module that receives various events from hardware, and a UI in 2D or 3D form. And a 2D / 3D UI toolkit that provides a tool for doing so.
  • the web browser module 165 refers to a module that performs web browsing to access a web server.
  • the web browser module 165 may include various modules such as a web view module constituting a web page, a download agent module performing a download, a bookmark module, a webkit module, and the like.
  • the service module 166 is a module including various applications for providing various services.
  • the service module 166 may include various program modules such as an SNS program, a content playing program, a game program, an e-book program, a calendar program, an alarm management program, and other widgets.
  • the storage 160 may include a buffer for temporarily storing the related image of the image content so that the user terminal 100 and the display apparatus 200 may play the image content in synchronization.
  • the related image stored in the buffer may be output to the display 110 according to the time stamp information of the image content.
  • the image processor 170 is a component that processes the image stream including the image content received through the communication unit 140.
  • the image processor 170 may perform various image processing such as decoding, demultiplexing, scaling, noise filtering, frame rate conversion, resolution conversion, etc. on the image stream.
  • the audio processor 180 is a component that processes audio data of image content.
  • the audio processor 180 may perform various processing such as decoding, amplification, noise filtering, or the like on the audio data.
  • the audio data processed by the audio processor 180 may be output to the audio output unit 150.
  • the detector 130 may detect various user interactions for controlling the configuration of the user terminal 100.
  • the sensing unit 130 may be implemented as a touch sensing unit for sensing a user's touch interaction.
  • the touch sensing unit may be disposed on the rear side of the display 110 to be implemented as a touch screen.
  • the controller 130 controls the overall operation of the user terminal 100 using various programs stored in the storage 160.
  • the controller 130 may include a RAM 131, a ROM 132, a graphics processor 133, a main CPU 134, first through n interfaces 135-1 through 135-n, Bus 136.
  • the RAM 131, the ROM 132, the graphic processor 133, the main CPU 134, the first to nth interfaces 135-1 to 135-n, and the like may be connected to each other through the bus 136. .
  • the ROM 132 stores a command set for system booting.
  • the main CPU 134 copies the O / S stored in the storage unit 160 to the RAM 131 according to the command stored in the ROM 132 and executes O / S. Boot the system.
  • the main CPU 134 copies various application programs stored in the storage unit 160 to the RAM 131 and executes the application programs copied to the RAM 131 to perform various operations.
  • the graphic processor 133 generates a screen including various objects such as a pointer, an icon, an image, and a text by using a calculator (not shown) and a renderer (not shown).
  • the calculator calculates attribute values such as coordinates, shapes, sizes, colors, and the like in which each object is to be displayed according to the layout of the screen using the control command received from the input unit.
  • the renderer generates screens of various layouts including objects based on the attribute values calculated by the calculator. The screen generated by the renderer is displayed in the display area of the display 110.
  • the main CPU 134 accesses the storage 160 and performs booting using the operating system stored in the storage 160.
  • the main CPU 134 performs various operations using various programs, contents, data, and the like stored in the storage 160.
  • the first to n interfaces 135-1 to 135-n are connected to the aforementioned various components.
  • One of the interfaces may be a network interface connected to an external device via a network.
  • the controller 130 may control the communication unit 140 to receive image streams for a plurality of related images of image content currently displayed by the display apparatus 200 from an external display apparatus 200.
  • the video stream may include not only data about a plurality of related images of the image content, but also metadata of the image content.
  • the controller 130 may control the communication unit 140 to receive image streams for a plurality of related images of the broadcast content currently displayed by the display apparatus 200.
  • the plurality of related images may be a plurality of angle images obtained by photographing image contents at various angles.
  • the controller 130 may control the second angle image to the second angle image photographed at a different viewpoint than the first view point.
  • the communication unit 140 may be controlled to receive an image stream including a five angle image.
  • the controller 130 may store the received video stream in the storage 160.
  • the controller 130 may store all of the received video streams, but this is only an example and may temporarily store the received video streams in a FIFO type buffer.
  • the controller 130 may temporarily store the received video stream in a buffer for 90 seconds.
  • the controller 130 may control the image processor 170 to process the received image stream to generate a plurality of related images, and may control the display 110 to display the generated plurality of related images. For example, when the display apparatus 200 displays the first angle image photographed at the first viewpoint, the controller 130 divides the display screen into four parts, as shown in FIG. 9A, and is different from the first viewpoint. The display 110 may be controlled to display the second to fifth angle images 910-1 to 910-4 photographed at.
  • the controller 130 may control the display 130 to display a plurality of related images in synchronization with an image displayed by the display apparatus 200 by using time stamp information included in metadata of the image stream. .
  • the controller 130 may control the display 110 to display a UI for providing a time shift function.
  • the controller 130 may control the display 110 to display the progress bar UI 920 at the bottom of the display screen, as shown in FIG. 9B.
  • the progress bar-shaped UI 920 may be mapped to the playback time of the image content.
  • the controller 130 may play back a plurality of related images from the specific time point.
  • the controller 130 may determine a playback time corresponding to the second point. t1) can be determined. As illustrated in FIG. 9C, the controller 130 may time-shift and reproduce the second to fifth angle images 910-1 ′ to 910-4 ′ from the determined reproduction time point t1. .
  • the controller 130 may control the display 110 to display a plurality of related images from the playback time point t1 using the image stream stored in the storage 160.
  • the controller 130 may control the communication unit 140 to transmit information about the video content and information about the playback time t1 to an external server. have.
  • the external server transmits a plurality of related images for the image content after the reproduction time point t1 based on the information on the image content and the information on the reproduction time point t1
  • the controller 130 transmits the transmitted image content.
  • the display 110 may control the display 110 to display a plurality of related images.
  • the controller 130 may provide a time shift function for one related image among a plurality of related images.
  • the controller 130 may control the display 110 to display the progress bar-shaped UI 1020 at the bottom of the third angle image.
  • the progress bar-shaped UI 1020 may be mapped to the playback time of the third angle image 1010-2.
  • the controller 130 may play a playback time t2 corresponding to the second point. ) Can be judged. As illustrated in FIG. 10C, the controller 130 may time-play the third angle image 910-2 ′ from the determined playback time point t1. In this case, as illustrated in FIG. 10C, the controller 130 may maintain a reproduction state of the second angle image 910-1, the fourth angle image 910-3, and the fifth angle image 910-4. have.
  • the controller 130 may control the display 110 to enlarge and display the third angle image 910-2 ′ on the full screen.
  • the user can change the previous screen or future of the related image of the image content without disturbing viewing of the image content displayed by the display apparatus 200. You can check the screen more intuitively.
  • the controller 130 may control the communicator 140 to receive an image stream for the image content from the external display apparatus 200.
  • the video stream may include not only data about the image content, but also metadata of the image content.
  • the controller 130 controls the image processor 170 to process the received image stream to generate image content, and as illustrated in FIG. 11A, the controller 130 controls the display 110 to display the generated image content. can do. In this case, the controller 130 may control the display 110 to display the image content in synchronization with the image content currently displayed by the display apparatus 200 using the time stamp information included in the metadata of the image stream. .
  • the controller 130 may select a program for selecting a specific section of the image content as illustrated in FIG. 11B.
  • the display 110 may be controlled to display the UI 1110 in the form of a response bar.
  • the progress bar-shaped UI 1110 may be mapped to the playback time of the image content.
  • the controller 130 may display the first thumbnail image displayed at the reproduction time t3 corresponding to the first point on the first point as illustrated in FIG. 11B.
  • the display 110 may be controlled to display 1120.
  • the controller 130 displays the second thumbnail image displayed at the reproduction time t4 corresponding to the second point on the second point as illustrated in FIG. 11C.
  • the display 110 may be controlled to display 1130.
  • the controller 130 sets the playback time t4 corresponding to the second point as the start time, and sets the playback time t3 corresponding to the first point as the last time.
  • Clip section can be set by using.
  • the controller 130 may provide a list of various services for the clip section on top of the first thumbnail image 1120 and the second thumbnail image 1130 as illustrated in FIG. 11D.
  • the display 110 may be controlled to display 1140.
  • the list 1140 includes a storage icon 1141 providing a storage service, a preview icon 1142 providing a preview service, a sharing icon 1143 providing a sharing service, and an editing icon providing an editing service ( 1144).
  • the controller 130 stores the clip section in the storage unit 160 and, as shown in FIG. Saved. Do you want to view the saved clip? ”
  • the display 110 may be controlled to display the guide message 1150.
  • the controller 130 may display a window for previewing in one area of the display screen as illustrated in FIG. 11F.
  • the display 110 may be controlled to display 1160.
  • the controller 130 may play the image content of the clip section through the window 116.
  • the controller 130 displays a sharing window 1170 for sharing a clip section, as illustrated in FIG. 11G.
  • the display 110 may be controlled to control the display 110.
  • the controller 130 may control the communicator 140 to transmit the image content of the clip section to the server corresponding to the selected SNS service. For example, when "A" is selected from among a plurality of SNS services included in the sharing window 1170, the controller 130 transmits the communication unit 140 to transmit the image content of the clip section to the server corresponding to "A". Can be controlled.
  • the controller 130 may control the display 110 to display an edit window for editing a clip section. .
  • the user can be provided with various services for the selected specific section of the image content without disturbing viewing of the image content displayed by the display apparatus 200.
  • the controller 130 may control the communicator 140 to receive an image stream for the image content from the external display apparatus 200.
  • the video stream may include not only data about the image content, but also metadata of the image content.
  • the controller 130 controls the image processor 170 to process the received image stream to generate image content, and as illustrated in FIG. 12A, the display unit 110 displays the generated image content 1210. ) Can be controlled. In this case, the controller 130 may control the display 110 to display the image content in synchronization with the image content currently displayed by the display apparatus 200 using the time stamp information included in the metadata of the image stream. .
  • the controller 130 displays the received event image content 1220 at the lower right of the display screen as illustrated in FIG. 12B.
  • the display 110 may be controlled to display in a PIP form.
  • the event video content 1220 may be reserved video content reserved by a user, recommended video content recommended by a content provider, and advertisement video content.
  • the advertisement target of the advertisement image content may be an item included in a screen currently displayed on the image content.
  • the event video content may be transmitted as a separate video stream, but this is only an example.
  • the event video content may be muxed with the existing video content and transmitted.
  • the controller 130 when the user interaction for continuously touching the area where the event image content is displayed while the event image content is displayed in the PIP form is detected at the lower right of the display screen, the controller 130 As shown in FIG. 12C, the display 110 may be controlled to enlarge and display the event image content 1220 ′ on a full screen, and to display the existing image content 1210 ′ on a PIP screen.
  • the controller 130 is shown in FIG. 12D.
  • the display 110 may be controlled to remove the image content 1210 'displayed on the PIP screen and display the event image content 1220'.
  • the controller 130 when a user interaction of touching an area where the image content 1210 ′ is displayed while the event image content 1220 ′ and the image content 1210 ′ is displayed, the controller 130 is detected. As illustrated in FIG. 12B, the display 110 may control the display 110 to display the image content 1210 on the full screen and display the event image content 1220 on the PIP screen.
  • the user can check various event images without disturbing the viewing of the image contents reproduced through the display apparatus 200.
  • the event image contents are described as being received from the display apparatus 200. However, this is only an example, and the event image contents may be pre-stored in the user terminal 200. May be received from.
  • the image content or the related image of the image content has been described as being received from the display apparatus 200.
  • the image or the related image of the image content may be received through the Internet.
  • the user terminal 100 displays the image content or a related image of the image content by synchronizing with the image content currently displayed by the display apparatus 200 using the time stamp information stored in an external server (particularly, a cloud server). can do.
  • FIG. 13 is a flowchart illustrating an embodiment of providing a time shift function according to an embodiment of the present invention.
  • the user terminal 100 displays a plurality of related images for one image content (S1310).
  • the plurality of related images may be received from the display apparatus 200, and may be displayed in synchronization with one image content displayed by the display apparatus 200.
  • the user terminal 100 determines whether a predetermined user interaction is detected.
  • the user terminal 100 displays a UI for a time shift function (S1330).
  • the UI for the time shift function may be a progress bar-type UI mapped with the playback time of the image content.
  • the user terminal 100 determines whether a specific time point is selected through the UI.
  • the user terminal 100 plays back a plurality of related images from the selected specific viewpoint (S1350).
  • the user terminal 100 may play a plurality of related images from a specific time point using a pre-stored video stream or an image stream received from an external server.
  • FIG. 14 is a flowchart illustrating an example of providing various services for a specific section of image content according to an embodiment of the present invention.
  • the user terminal 100 displays the image content (S1410).
  • the image content may be received from the display apparatus 200 as the same image contents as the image contents currently displayed by the display apparatus 200, and may be displayed in synchronization with the image contents displayed by the display apparatus 200. .
  • the user terminal 100 determines whether a predetermined user interaction is detected.
  • the user terminal 100 displays a UI for selecting a specific section of the image content (S1430).
  • the user terminal 100 may display a progress bar-type UI mapped with the playback time of the image content.
  • the user terminal 100 determines whether a specific section is selected through the UI.
  • the user terminal 100 displays a list for providing a plurality of services for the selected section (S1440).
  • the list may include at least one of a preview icon for providing a preview service, a storage icon for providing a storage service, a sharing icon for providing a sharing service, and an editing icon for providing an editing service.
  • the user terminal 100 determines whether one of a plurality of services is selected.
  • the user terminal 100 provides the selected service for a particular section (1470).
  • the user terminal 100 may play image content of a specific section in one region of the display screen.
  • the user terminal 100 may store image content of a specific section in a storage unit.
  • the user terminal 100 may upload image content of a specific section to an external server.
  • 15 is a flowchart illustrating an example of simultaneously displaying event image content and image content according to an embodiment of the present invention.
  • the user terminal 100 displays the image content (S1510).
  • the image content may be received from the display apparatus 200 as the same image contents as the image contents currently displayed by the display apparatus 200, and may be displayed in synchronization with the image contents displayed by the display apparatus 200. .
  • the user terminal 100 determines whether event image content has been received.
  • the event image content may be received from the display apparatus 200 and may be one of a reserved image content reserved by a user, a recommended image content recommended by a content provider, and an advertisement image content.
  • the user terminal 100 displays the event image content received from the outside in one area of the display screen.
  • the user terminal 100 may display the event image content in a PIP form at the bottom of the display screen.
  • the user terminal 100 may display the event image content in full screen.
  • a user may perform various services on image contents displayed by the display apparatus 200 through the user terminal 100 without interruption of the image displayed by the display apparatus 200. And functions can be provided.
  • control method of the display apparatus may be implemented as a program and provided to the display apparatus.
  • a non-transitory computer readable medium may be provided in which a program including a method of controlling a display device is stored.
  • the non-transitory readable medium refers to a medium that stores data semi-permanently and is readable by a device, not a medium storing data for a short time such as a register, a cache, a memory, and the like.
  • a non-transitory readable medium such as a CD, a DVD, a hard disk, a Blu-ray disk, a USB, a memory card, a ROM, or the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

사용자 단말 및 이의 제어 방법이 제공된다. 본 사용자 단말의 제어 방법은 하나의 영상 컨텐츠에 대한 복수의 관련 영상을 디스플레이하고, 기설정된 사용자 인터렉션이 감지된 경우, 복수의 관련 영상의 재생 시점을 선택하기 위한 제1 UI를 디스플레이하며, 제1 UI를 통해 특정 시점을 선택하는 사용자 인터렉션이 감지된 경우, 복수의 관련 영상을 특정 시점부터 재생한다.

Description

사용자 단말 및 이의 제어 방법
본 발명의 사용자 단말 및 이의 제어 방법에 관한 것으로, 더욱 상세하게는 외부의 디스플레이 장치가 재생하는 영상 컨텐츠와 동기화하여 영상 컨텐츠를 재생하는 사용자 단말 및 이의 제어 방법에 관한 것이다.
전자 기술의 발달에 힘입어 다양한 유형의 디스플레이 장치가 개발되고 있다. 특히, TV, PC, 랩탑 컴퓨터, 태블릿 PC, 휴대폰, MP3 플레이어 등과 같은 디스플레이 장치들은 대부분의 가정에서 사용될 정도로 보급율이 높다.
최근에는 더 새롭고 다양한 기능을 원하는 사용자의 니즈(needs)에 부합하기 위하여, 디스플레이 장치를 통해 다양한 서비스 및 기능을 제공하기 위한 노력이 이루어지고 있다. 예를 들어, 디스플레이 장치가 현재 디스플레이하는 영상 컨텐츠를 사용자 단말을 통해 동시에 제공하는 기능이 제공되고 있다.
그러나, 현재까지의 사용자 단말은 디스플레이 장치가 디스플레이하는 영상 컨텐츠를 디스플레이 장치와 동기화하여 재생할 뿐, 영상 컨텐츠와 관련된 다양한 서비스를 제공하지 못하는 한계가 존재한다.
본 발명은 상술한 문제점을 해결하기 위해 안출된 것으로, 본 발명의 목적은 외부의 디스플레이 장치로부터 수신된 영상 컨텐츠에 대해 다양한 기능 및 서비스를 제공하는 UI를 제공할 수 있는 사용자 단말 및 이의 제어 방법을 제공함에 있다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 사용자 단말의 제어 방법은, 하나의 영상 컨텐츠에 대한 복수의 관련 영상을 디스플레이하는 단계; 기설정된 사용자 인터렉션이 감지된 경우, 상기 복수의 관련 영상의 재생 시점을 선택하기 위한 제1 UI를 디스플레이하는 단계; 및 상기 제1 UI를 통해 특정 시점을 선택하는 사용자 인터렉션이 감지된 경우, 상기 복수의 관련 영상을 상기 특정 시점부터 재생하는 단계;를 포함한다.
그리고, 외부의 디스플레이 장치로부터 상기 복수의 관련 영상에 대한 영상 스트림을 수신하는 단계;를 더 포함하며, 상기 디스플레이하는 단계는, 상기 영상 스트림을 처리하여 상기 복수의 관련 영상을 동시에 디스플레이할 수 있다.
또한, 상기 디스플레이하는 단계는, 상기 영상 스트림에 포함된 타임스탬프 정보를 이용하여 상기 디스플레이 장치가 디스플레이하는 영상 컨텐츠와 동기화하여 상기 복수의 관련 영상을 디스플레이할 수 있다.
그리고, 상기 디스플레이 장치로부터 수신된 영상 스트림을 저장하는 단계;를 포함하며, 상기 재생하는 단계는, 상기 저장된 영상 스트림을 이용하여 상기 특정 시점부터 상기 복수의 관련 영상을 재생할 수 있다.
또한, 상기 재생하는 단계는, 상기 특정 시점에 대한 정보를 외부의 서버로 전송하는 단계; 상기 특정 시점으로부터의 복수의 관련 영상에 대한 영상 스트림을 상기 외부의 서버로부터 수신하는 단계; 및 상기 수신된 상기 특정 시점으로부터의 복수의 관련 영상을 재생하는 단계;를 포함할 수 있다.
그리고, 상기 복수의 관련 영상 중 하나에 대해 기설정된 사용자 인터렉션이 감지된 경우, 상기 하나의 관련 영상의 재생 시점을 선택하기 위한 위한 제2 UI를 디스플레이하는 단계; 및 상기 제2 UI를 통해 특정 시점을 선택하는 사용자 인터렉션이 감지된 경우, 상기 하나의 관련 영상만을 상기 특정 시점부터 재생하는 단계;를 포함할 수 있다.
또한, 상기 하나의 관련 영상이 상기 특정 시점부터 재생하는 동안 상기 하나의 관련 영상에 대한 기설정된 사용자 인터렉션이 감지된 경우, 상기 하나의 관련 영상을 확대하여 전체 화면으로 디스플레이하는 단계;를 포함할 수 있다.
그리고, 상기 제1 UI는, 프로그레스 바 형태의 UI일 수 있다.
한편, 상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 사용자 단말은, 하나의 영상 컨텐츠에 대한 복수의 관련 영상을 디스플레이하는 디스플레이부; 사용자 인터렉션을 감지하는 감지부; 및 상기 감지부를 통해 기설정된 사용자 인터렉션이 감지된 경우, 상기 복수의 관련 영상의 재생 시점을 선택하기 위한 제1 UI를 디스플레이하도록 상기 디스플레이부를 제어하며, 상기 제1 UI를 통해 특정 시점을 선택하는 사용자 인터렉션이 감지된 경우, 복수의 관련 영상을 상기 특정 시점부터 재생하는 제어부;를 포함한다.
그리고, 상기 외부의 디스플레이 장치로부터 상기 복수의 관련 영상에 대한 영상 스트림을 수신하는 통신부; 및 상기 수신된 영상 스트림을 처리하는 영상 처리부;를 더 포함하며, 상기 제어부는, 상기 영상 처리부에 의해 처리된 상기 복수의 관련 영상을 동시에 디스플레이하도록 상기 디스플레이부를 제어할 수 있다.
또한, 상기 제어부는, 상기 영상 스트림에 포함된 타임스탬프 정보를 이용하여 상기 디스플레이 장치가 디스플레이하는 영상 컨텐츠와 동기화하여 상기 복수의 관련 영상을 디스플레이하도록 상기 디스플레이부를 제어할 수 있다.
그리고, 상기 디스플레이 장치로부터 수신된 영상 스트림을 저장하는 저장부;를 포함하며, 상기 제어부는, 상기 저장부에 저장된 영상 스트림을 이용하여 상기 특정 시점부터 상기 복수의 관련 영상을 재생할 수 있다.
또한, 외부의 서버와 통신을 수행하는 통신부;를 더 포함하며, 상기 제어부는, 상기 특정 시점에 대한 정보를 외부의 서버로 전송하며, 상기 특정 시점으로부터의 복수의 관련 영상에 대한 영상 스트림을 상기 외부의 서버로부터 수신하도록 상기 통신부를 제어하며, 상기 수신된 상기 특정 시점으로부터의 복수의 관련 영상을 재생할 수 있다.
그리고, 상기 제어부는, 상기 감지부를 통해 상기 복수의 관련 영상 중 하나에 대한 기설정된 사용자 인터렉션이 감지된 경우, 상기 하나의 관련 영상의 재생 시점을 선택하기 위한 제2 UI를 디스플레이하도록 상기 디스플레이부를 제어하며, 상기 제2 UI를 통해 특정 시점을 선택하는 사용자 인터렉션이 감지된 경우, 상기 하나의 관련 영상만을 상기 특정 시점부터 재생할 수 있다.
또한, 상기 제어부는, 상기 감지부를 통해 상기 하나의 관련 영상이 상기 특정 시점부터 재생하는 동안 상기 하나의 관련 영상에 대한 기설정된 사용자 인터렉션이 감지된 경우, 상기 하나의 관련 영상을 확대하여 전체 화면으로 디스플레이하도록 상기 디스플레이부를 제어할 수 있다.
그리고, 상기 제1 UI는, 프로그레스 바 형태의 UI일 수 있다.
한편, 상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 사용자 단말의 제어 방법은, 영상 컨텐츠를 디스플레이하는 단계; 기설정된 사용자 인터렉션이 감지된 경우, 상기 영상 컨텐츠의 특정 구간을 선택하기 위한 UI를 디스플레이하는 단계; 상기 UI를 통해 특정 구간을 선택하는 사용자 인터렉션이 감지된 경우, 상기 특정 구간에 대한 복수의 서비스를 제공하는 리스트를 디스플레이하는 단계; 및 상기 리스트에 포함된 복수의 서비스 중 하나를 선택하는 사용자 인터렉션이 감지된 경우, 상기 특정 구간에 대해 선택된 서비스를 제공하는 단계;를 포함한다.
그리고, 상기 리스트는, 미리보기 서비스를 제공하는 미리보기 아이콘, 저장 서비스를 제공하는 저장 아이콘, 공유 서비스를 제공하는 공유 아이콘 및 편집 서비스를 제공하는 편집 아이콘 중 적어도 하나를 포함할 수 있다.
또한, 상기 제공하는 단계는, 상기 미리보기 아이콘을 선택하는 사용자 인터렉션이 감지된 경우, 디스플레이 화면의 일 영역에 상기 특정 구간의 영상 컨텐츠를 재생할 수 있다.
그리고, 상기 제공하는 단계는, 상기 저장 아이콘을 선택하는 사용자 인터렉션이 감지된 경우, 상기 특정 구간의 영상 컨텐츠를 저장할 수 있다.
또한, 상기 제공하는 단계는, 상기 공유 아이콘을 선택하는 사용자 인터렉션이 감지된 경우, 상기 특정 구간의 영상 컨텐츠를 외부의 서버로 업로드할 수 있다.
그리고, 상기 특정 구간을 선택하기 위한 UI는 상기 영상 컨텐츠의 재생 시간과 매핑된 프로그레스 바 형태의 UI이며, 상기 프로그레스 바 형태의 UI의 특정 시점을 선택하는 사용자 인터렉션이 감지된 경우, 상기 특정 시점의 상단에 상기 특정 시점의 썸네일 화면을 디스플레이하는 단계;를 포함할 수 있다.
또한, 상기 영상 컨텐츠는 외부의 디스플레이 장치로부터 수신되며, 상기 디스플레이하는 단계는, 상기 영상 컨텐츠의 타임스탬프 정보를 이용하여 상기 영상 컨텐츠를 상기 디스플레이 장치가 재생하는 영상 컨텐츠와 동기화하여 디스플레이할 수 있다.
한편, 상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 사용자 단말은, 영상 컨텐츠를 디스플레이하는 디스플레이부; 사용자 인터렉션을 감지하는 감지부; 및 상기 감지부를 통해 기설정된 사용자 인터렉션이 감지된 경우, 상기 영상 컨텐츠의 특정 구간을 선택하기 위한 UI를 디스플레이하도록 상기 디스플레이부를 제어하며, 상기 UI를 통해 특정 구간을 선택하는 사용자 인터렉션이 감지된 경우, 상기 특정 구간에 대한 복수의 서비스를 제공하는 리스트를 디스플레이하도록 상기 디스플레이부를 제어하며, 상기 리스트에 포함된 복수의 서비스 중 하나를 선택하는 사용자 인터렉션이 감지된 경우, 상기 특정 구간에 대해 선택된 서비스를 제공하는 제어부;를 포함한다.
그리고, 상기 리스트는, 미리보기 서비스를 제공하는 미리보기 아이콘, 저장 서비스를 제공하는 저장 아이콘, 공유 서비스를 제공하는 공유 아이콘 및 편집 서비스를 제공하는 편집 아이콘 중 적어도 하나를 포함할 수 있다.
또한, 상기 제어부는, 상기 리스트에 포함된 복수의 아이콘 중 미리보기 아이콘을 선택하는 사용자 인터렉션이 감지된 경우, 디스플레이 화면의 일 영역에 상기 특정 구간의 영상 컨텐츠를 재생하도록 상기 디스플레이부를 제어할 수 있다.
또한, 저장부;를 더 포함하며, 상기 제어부는, 상기 리스트에 포함된 복수의 아이콘 중 상기 저장 아이콘을 선택하는 사용자 인터렉션이 감지된 경우, 상기 특정 구간의 영상 컨텐츠를 상기 저장부에 저장할 수 있다.
그리고, 외부의 서버와 통신을 수행하는 통신부;를 더 포함하며, 상기 제공하는 단계는, 상기 리스트에 포함된 복수의 아이콘 중 상기 공유 아이콘을 선택하는 사용자 인터렉션이 감지된 경우, 상기 특정 구간의 영상 컨텐츠를 외부의 서버로 업로드하도록 상기 통신부를 제어할 수 있다.
또한, 상기 특정 구간을 선택하기 위한 UI는 상기 영상 컨텐츠의 재생 시간과 매핑된 프로그레스 바 형태의 UI이며, 상기 제어부는, 상기 프로그레스 바 형태의 UI의 특정 시점을 선택하는 사용자 인터렉션이 감지된 경우, 상기 특정 시점의 상단에 상기 특정 시점의 썸네일 화면을 디스플레이하도록 상기 디스플레이부를 제어할 수 있다.
그리고, 상기 영상 컨텐츠는 외부의 디스플레이 장치로부터 수신되며, 상기 제어부는, 영상 컨텐츠의 타임스탬프 정보를 이용하여 상기 영상 컨텐츠를 상기 디스플레이 장치가 재생하는 영상 컨텐츠와 동기화하여 디스플레이하도록 상기 디스플레이부를 제어할 수 있다.
상술한 바와 같은 본 발명의 다양한 실시예에 의해, 사용자는 외부의 디스플레이 장치가 디스플레이하는 영상 컨텐츠에 대한 다양한 서비스 및 기능을 사용자 단말을 통해 제공받을 수 있게 된다.
도 1은 본 발명의 일 실시예에 따른, 멀티미디어 시스템을 도시한 도면,
도 2는 본 발명의 일 실시예에 따른, 사용자 단말의 구성을 간략히 도시한 블럭도,
도 3은 본 발명의 일 실시예에 따른, 사용자 단말의 구성을 상세히 도시한 블럭도,
도 4a 및 도 4b, 도 5a 내지 도 5c는 본 발명의 일 실시 예에 따른 디스플레이 장치 및 사용자 단말의 페어링 방법을 설명하기 위한 도면,
도 6a 내지 도 6c는 본 발명의 일 실시 예에 따른 네트워크 토폴로지 구현 방법을 설명하기 위한 도면,.
도 7a 및 도 7b는 본 발명의 다른 실시 예에 따른 네트워크 토폴로지 구현 방법을 설명하기 위한 도면,
도 8은 본 발명의 일 실시예에 따른, 저장부의 구성을 나타내는 블럭도,
도 9a 내지 도 10c는 본 발명의 다양한 실시예에 따른, 재생 시점을 선택하기 위한 UI를 이용하여 복수의 관련 영상 중 적어도 하나에 대한 재생 시점을 선택하는 실시예를 설명하기 위한 도면,
도 11a 내지 도 11g는 본 발명의 일 실시예에 따른, 영상 컨텐츠 중 사용자에 의해 선택된 구간에 대한 다양한 기능을 제공하는 실시예를 설명하기 위한 도면,
도 12a 내지 도 12d는 본 발명의 일 실시예에 따른, PIP 형태의 예약 알림 기능을 제공하는 실시예를 설명하기 위한 도면,
도 13 내지 도 15는 본 발명의 다양한 실시예에 따른, 사용자 단말의 제어 방법을 설명하기 위한 흐름도들이다.
본 실시예들은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 특정한 실시 형태에 대해 범위를 한정하려는 것이 아니며, 개시된 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 실시예들을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 권리범위를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다." 또는 "구성되다." 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
실시예에 있어서 ‘모듈’ 혹은 ‘부’는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의‘모듈’ 혹은 복수의‘부’는 특정한 하드웨어로 구현될 필요가 있는 ‘모듈’ 혹은 ‘부’를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서(미도시)로 구현될 수 있다.
이하, 실시예를 첨부도면을 참조하여 본 발명의 다양한 실시예에 대해 상세히 설명하기로 하기로 한다. 도 1은 본 발명의 일 실시예에 따른, 멀티미디어 시스템(10)을 도시한 도면이다. 도 1에 도시된 바와 같이, 멀티미디어 시스템(10)은 사용자 단말(100) 및 디스플레이 장치(200)를 포함한다. 이때, 사용자 단말(100)은 디스플레이 장치(200)를 제어하기 위한 터치스크린을 구비하는 별도의 리모트 컨트롤러일 수 있으나, 이는 일 실시예에 불과할 뿐, 스마트 폰, 태블릿 PC 등과 같은 다양한 휴대용 사용자 단말로 구현될 수 있다. 또한, 디스플레이 장치(200)는 스마트 TV일 수 있으나, 이는 일 실시예에 불과할 뿐, 디지털 TV, 데스크탑 PC, 노트북 PC, 네비게이션, 키오스크(Kiosk), DID(Digital Information Display) 등과 같은 다양한 디스플레이 장치로 구현될 수 있다.
사용자 단말(100)과 디스플레이 장치(200)는 다양한 통신 방식을 통해 서로 연결될 수 있다. 예를 들어, 사용자 단말(100) 및 디스플레이 장치(200)는 블루투스, 와이파이 등과 같은 무선 통신 모듈을 이용하여 서로 통신을 수행할 수 있다.
특히, 디스플레이 장치(200)는 영상 컨텐츠를 디스플레이한다. 디스플레이 장치(200)가 영상 컨텐츠를 디스플레이하는 동안 디스플레이 장치(200)는 사용자 단말(100)로 영상 컨텐츠의 적어도 하나의 관련 영상을 전송할 수 있다. 이때, 영상 컨텐츠의 적어도 하나의 관련 영상은 현재 디스플레이 장치(200)가 디스플레이하는 영상 컨텐츠의 영상, 영상 컨텐츠를 다양한 각도에서 촬영한 멀티 앵글 영상, 영상 컨텐츠의 관련 정보를 포함하는 영상일 수 있다.
사용자 단말(100)은 영상 컨텐츠의 적어도 하나의 관련 영상을 디스플레이한다. 이때, 사용자 단말(100)은 영상 컨텐츠의 타임스탬프 정보를 바탕으로 디스플레이 장치(200)가 디스플레이하는 영상 컨텐츠와 적어도 하나의 관련 영상을 동기화하여 디스플레이할 수 있다. 영상 컨텐츠가 인터넷으로 수신된 방송 컨텐츠인 경우, 사용자 단말(100)은 방송 컨텐츠의 메타 데이터에 포함된 타임 스탬프 정보를 이용하여 디스플레이 장치(200)가 디스플레이하는 영상 컨텐츠와 적어도 하나의 관련 영상을 동기화하여 디스플레이할 수 있다.
본 발명의 일 실시예로, 사용자 단말(100)은 수신되는 영상 컨텐츠의 적어도 하나의 관련 영상을 저장할 수 있다. 이때, 사용자 단말(100)은 영상 컨텐츠의 적어도 하나의 관련 영상을 모두 저장할 수 있으나, 이는 일 실시예에 불과할 뿐, FIFO(First in First out) 방식으로 적어도 하나의 관련 영상을 기설정된 구간 동안 일시적으로 저장할 수 있다.
사용자 단말(100)이 적어도 하나의 관련 영상을 디스플레이하는 동안 기설정된 사용자 인터렉션이 감지된 경우, 사용자 단말(100)은 적어도 하나의 관련 영상의 재생 시점을 선택하기 위한 UI(이하에서는 "타임 쉬프트 기능을 위한 UI"라고 함.)를 디스플레이할 수 있다. 이때, 타임 쉬프트 기능을 위한 UI는 프로그레스 바 형태의 UI일 수 있다. 그리고, UI를 통해 특정 시점을 선택하는 사용자 인터렉션이 감지된 경우, 사용자 단말(100)은 적어도 하나의 관련 영상을 특정 시점부터 재생할 수 있다.
본 발명의 일 실시예로, 사용자 단말(100)은 기 저장된 적어도 하나의 관련 영상을 포함하는 영상 스트림을 적어도 하나의 관련 영상을 특정 시점부터 재생할 수 있다. 본 발명의 다른 실시예로, 사용자 단말(100)은 특정 시점에 대한 정보를 외부의 서버로 전송하고, 특정 시점으로부터의 복수의 관련 영상에 대한 영상 스트림을 외부의 서버로부터 수신하여 특정 시점으로부터의 적어도 하나의 관련 영상을 디스플레이할 수 있다.
또한, 사용자 단말(100)이 영상 컨텐츠를 디스플레이하는 동안 기설정된 사용자 인터렉션을 감지하는 경우, 사용자 단말(100)은 영상 컨텐츠의 특정 구간을 선택하기 위한 UI를 디스플레이한다. 그리고, UI를 통해 특정 구간을 선택하는 사용자 인터렉션이 감지된 경우, 사용자 단말(100)은 특정 구간에 대한 복수의 서비스를 제공하는 리스트를 디스플레이할 수 있다. 그리고, 리스트에 포함된 복수의 서비스 중 하나를 선택하는 사용자 인터렉션이 감지된 경우, 사용자 단말(100)은 특정 구간에 대해 선택된 서비스를 제공한다. 이때, 특정 구간에 대한 복수의 서비스는 특정 구간의 영상 컨텐츠를 저장하는 저장 서비스, 특정 구간의 영상 컨텐츠를 미리 보는 미리보기 서비스, 특정 구간의 영상 컨텐츠를 소셜 네트워크 서비스를 통해 타인과 공유하는 공유 서비스, 특정 구간의 영상 컨텐츠를 편집하는 편집 서비스 중 적어도 하나를 포함할 수 있다.
또한, 사용자 단말(100)이 영상 컨텐츠를 디스플레이하는 동안 디스플레이 장치(200)로부터 이벤트 영상 컨텐츠가 수신된 경우, 사용자 단말(100)은 이벤트 영상 컨텐츠를 디스플레이 화면의 일 영역에 디스플레이한다. 이때, 이벤트 영상 컨텐츠는 사용자가 예약한 예약 영상 컨텐츠, 추천 영상 컨텐츠, 광고 영상 컨텐츠 중 하나일 수 있다.
상술한 바와 같은 멀티미디어 시스템(10)을 통해 사용자는 현재 디스플레이 장치(200)가 디스플레이하는 영상 컨텐츠에 대한 다양한 기능 및 서비스를 사용자 단말(100)을 통해 수행할 수 있게 된다.
도 2는 본 발명의 일 실시예에 따른, 사용자 단말(100)의 구성을 간략히 도시한 블럭도이다. 도 2에 도시된 바와 같이, 사용자 단말(100)은 디스플레이부(110), 감지부(120) 및 제어부(130)를 포함한다.
디스플레이부(110)는 제어부(130)의 제어에 의해 영상 컨텐츠를 디스플레이한다. 특히, 디스플레이부(110)는 디스플레이 화면을 분할하여 영상 컨텐츠에 대한 적어도 하나의 관련 영상을 디스플레이할 수 있다. 이때, 영상 컨텐츠의 관련 영상은 현재 디스플레이 장치(200)가 디스플레이하는 영상 컨텐츠의 영상, 영상 컨텐츠를 다양한 각도에서 촬영한 영상 및 영상 컨텐츠에 대한 관련 정보를 포함하는 영상 중 적어도 하나를 포함할 수 있다.
감지부(120)는 사용자의 터치 인터렉션을 감지한다. 특히, 감지부(120)는 핀치 인터렉션, 드래그 인터렉션 등과 같은 다양한 터치 인터렉션을 감지할 수 있다. 한편, 감지부(120)는 디스플레이부(110)와 함께 터치 스크린으로 구현될 수 있다.
제어부(130)는 사용자 단말(100)의 전반적인 동작을 제어한다.
본 발명의 일 실시예로, 디스플레이부(110)가 하나의 영상 컨텐츠에 대한 복수의 관련 영상을 디스플레이하는 동안 감지부(120)를 통해 기설정된 사용자 인터렉션이 감지된 경우, 제어부(130)는 타임 쉬프트 기능을 위한 제1 UI를 디스플레이하도록 디스플레이부(110)를 제어할 수 있다. 그리고, 감지부(120)를 통해 제1 UI를 통해 특정 시점을 선택하는 사용자 인터렉션이 감지된 경우, 제어부(130)는 복수의 관련 영상을 특정 시점부터 재생할 수 있다.
구체적으로, 디스플레이 장치(200)로부터 하나의 영상 컨텐츠에 대한 복수의 관련 영상에 대한 영상 스트림이 수신되는 경우, 제어부(130)는 수신된 영상 스트림을 처리하여 복수의 관련 영상을 동시에 디스플레이하도록 디스플레이부(110)를 제어할 수 있다. 이때, 제어부(130)는 영상 스트림에 포함된 타임스탬프 정보를 이용하여 디스플레이 장치가 디스플레이하는 영상 컨텐츠와 동기화하여 복수의 관련 영상을 디스플레이하도록 디스플레이부(110)를 제어할 수 있다.
그리고, 제어부(130)는 디스플레이 장치(200)로부터 수신된 영상 스트림을 저장할 수 있다. 이때, 제어부(130)는 수신된 영상 스트림 전체를 저장할 수 있으나, 이는 일 실시예에 불과할 뿐, FIFO 방식의 버퍼를 이용하여 수신된 영상 스트림을 기설정된 시간동안 저장할 수 있다.
디스플레이부(110)가 복수의 관련 영상을 디스플레이하는 감지부(120)를 통해 기설정된 사용자 인터렉션(예를 들어, 터치스크린의 일 영역을 터치하는 인터렉션)이 감지된 경우, 제어부(130)는 복수의 관련 영상에 대한 타임 쉬프트 기능을 위한 제1 UI를 디스플레이하도록 디스플레이부(110)를 제어할 수 있다. 이때, 제1 UI는 을 프로그레스 바 형태의 UI일 수 있으나, 이는 일 실시예에 불과할 뿐, 다른 형태의 UI일 수 있다.
그리고, 제1 UI를 통해 특정 시점을 선택하는 사용자 인터렉션이 감지된 경우, 제어부(130)는 선택된 특정 시점부터 복수의 관련 영상을 재생할 수 있다. 구체적으로, 영상 컨텐츠의 재생 시간과 매핑된 프로그레스 바 형태의 제1 UI 중 임의의 지점이 터치된 경우, 제어부(130)는 터치된 지점에 대응되는 재생 시점을 판단할 수 있다. 그리고, 제어부(130)는 저장된 영상 스트림을 이용하여 터치된 지점에 대응되는 재생 시점부터 영상 컨텐츠에 대한 복수의 관련 영상을 디스플레이하도록 디스플레이부(110)를 제어할 수 있다. 디스플레이 장치(200)로부터 수신된 영상 스트림이 저장되지 않는 경우, 제어부(130)는 외부의 서버로 터치된 지점에 대응되는 재생 시점에 대한 정보를 전송할 수 있다. 그리고, 외부의 서버로부터 터치된 지점에 대응되는 재생 시점부터의 영상 컨텐츠에 대한 복수의 관련 영상이 수신되면, 제어부(130)는 수신된 재생 시점부터의 복수의 관련 영상을 재생할 수 있다.
또한, 복수의 관련 영상이 디스플레이되는 동안 감지부(120)를 통해 복수의 관련 영상 중 제1 관련 영상에 대한 기설정된 사용자 인터렉션(예를 들어, 하나의 관련 영상을 기설정된 시간동안 터치하는 인터렉션)이 감지된 경우, 제어부(130)는 제1 관련 영상에 대한 타임 쉬프트 기능을 제공하기 위한 제2 UI를 디스플레이하도록 디스플레이부(110)를 제어할 수 있다.
그리고, 감지부(120)를 통해 제2 UI를 통해 특정 시점을 선택하는 사용자 인터렉션이 감지된 경우, 제어부(130)는 제1 관련 영상만을 특정 시점부터 재생할 수 있다. 이때, 제어부(130)는 선택되지 않은 관련 영상에 대해 특정 시점으로 타임 쉬프트하여 재생하는 것이 아닌 현 재생 상태를 계속해서 유지할 수 있다.
그리고, 감지부(120)를 통해 제1 관련 영상이 특정 시점부터 재생하는 동안 제1 관련 영상에 대한 기설정된 사용자 인터렉션(예를 들어, 제1 관련 영상이 디스플레이되는 영상을 연속적으로 두 번 터치하는 인터렉션)이 감지된 경우, 제어부(130)는 제1 관련 영상을 확대하여 전체 화면으로 디스플레이하도록 디스플레이부(110)를 제어할 수 있다.
이에 의해, 사용자 단말(100)은 하나의 영상 컨텐츠에 대한 복수의 관련 영상 중 적어도 하나의 관련 영상에 대해 타임 쉬프트 기능을 제공할 수 있게 된다.
한편, 상술한 실시예에서는 모든 관련 영상 또는 하나의 관련 영상에 대해 타임 쉬프트 기능을 제공하는 것으로 설명하였으나, 복수의 관련 영상 중 적어도 두 개의 관련 영상에 대해서만 타임 쉬프트 기능을 제공할 수 있다. 예를 들어, 복수의 관련 영상 중 제1 관련 영상 및 제2 관련 영상에 대한 기설정된 사용자 인터렉션(예를 들어, 제1 관련 영상 및 제2 관련 영상 사이의 경계선을 기설정된 시간 동안 터치하는 인터렉션)이 감지된 경우, 제어부(130)는 제1 관련 영상 및 제2 관련 영상에 대한 타임 쉬프트 기능을 제공하기 위한 UI를 디스플레이하도록 디스플레이부(110)를 제어할 수 있다.
본 발명의 또 다른 실시예에 따르면, 영상 컨텐츠를 디스플레이하는 동안 감지부(120)를 통해 기설정된 사용자 인터렉션이 감지된 경우, 제어부(130)는 영상 컨텐츠의 특정 구간을 선택하기 위한 UI를 디스플레이하도록 디스플레이부(110)를 제어할 수 있다. 그리고, UI를 통해 특정 구간을 선택하는 사용자 인터렉션이 감지된 경우, 제어부(130)는 특정 구간에 대한 복수의 서비스를 제공하는 리스트를 디스플레이하도록 디스플레이부(110)를 제어할 수 있다. 그리고, 리스트에 포함된 복수의 서비스 중 하나를 선택하는 사용자 인터렉션이 감지된 경우, 제어부(130)는 특정 구간에 대해 선택된 서비스를 제공할 수 있다.
구체적으로, 외부의 디스플레이 장치(200)로부터 디스플레이 장치(200)가 현재 디스플레이하는 영상 컨텐츠에 대한 영상 스트림을 수신하는 경우, 제어부(130)는 수신된 영상 스트림을 처리하여 영상 컨텐츠를 디스플레이하도록 디스플레이부(110)를 제어할 수 있다. 이때, 제어부(130)는 영상 컨텐츠의 타임스탬프 정보를 이용하여 영상 컨텐츠를 디스플레이 장치(200)가 재생하는 영상 컨텐츠와 동기화하여 디스플레이하도록 디스플레이부(110)를 제어할 수 있다.
디스플레이 장치(200)가 현재 디스플레이하는 영상 컨텐츠를 사용자 단말(100)이 동시에 디스플레이하는 동안 사용자 단말(100)에 기설정된 사용자 인터렉션이 감지된 경우, 제어부(130)는 영상 컨텐츠의 특정 구간을 선택하기 위한 UI를 디스플레이하도록 디스플레이부(110)를 제어할 수 있다. 이때, 영상 컨텐츠의 특정 구간을 선택하기 위한 UI는 영상 컨텐츠의 재생 시간과 매핑된 프로그레스 바 형태의 UI일 수 있다.
그리고, 제어부(130)는 UI를 통해 입력된 사용자 인터렉션에 따라 영상 컨텐츠의 특정 구간을 선택할 수 있다. 이때, 프로그레스 바 형태의 UI의 특정 지점을 선택하는 사용자 인터렉션이 감지된 경우, 제어부(130)는 특정 지점의 상단에 특정 지점에 대응되는 재생 시간에 디스플레이되는 썸네일 화면을 디스플레이하도록 디스플레이부(110)를 제어할 수 있다.
UI를 통해 특정 구간을 선택하는 사용자 인터렉션이 감지된 경우, 제어부(130)는 특정 구간에 대한 복수의 서비스를 제공하는 리스트를 디스플레이하도록 디스플레이부(110)를 제어할 수 있다. 이때, 리스트는 미리보기 서비스를 제공하는 미리보기 아이콘, 저장 서비스를 제공하는 저장 아이콘, 공유 서비스를 제공하는 공유 아이콘 및 편집 서비스를 제공하는 편집 아이콘 중 적어도 하나를 포함할 수 있다.
그리고, 리스트에 포함된 복수의 서비스 중 하나를 선택하는 사용자 인터렉션이 감지된 경우, 제어부(130)는 특정 구간에 대해 선택된 서비스를 제공할 수 있다. 예를 들어, 리스트에 포함된 복수의 아이콘 중 미리보기 아이콘을 선택하는 사용자 인터렉션이 감지된 경우, 제어부(130)는 디스플레이 화면의 일 영역에 특정 구간의 영상 컨텐츠를 재생하도록 디스플레이부(110)를 제어할 수 있다. 또 다른 예로, 리스트에 포함된 복수의 아이콘 중 저장 아이콘을 선택하는 사용자 인터렉션이 감지된 경우, 제어부(130)는 특정 구간의 영상 컨텐츠를 저장할 수 있다. 또 다른 예로, 리스트에 포함된 복수의 아이콘 중 공유 아이콘을 선택하는 사용자 인터렉션이 감지된 경우, 제어부(130)는 특정 구간의 영상 컨텐츠를 외부의 서버로 업로드할 수 있다.
이에 의해, 사용자는 디스플레이 장치(200)를 통해 디스플레이되는 영상 컨텐츠를 사용자 단말(100)을 통해 다양한 서비스를 제공할 수 있게 된다.
한편, 상술한 실시예에서는 영상 컨텐츠에 대한 하나의 영상에 대해 다양한 서비스를 제공하는 것으로 설명하였으나, 이는 일 실시예에 불과할 뿐, 영상 컨텐츠에 대한 복수의 관련 영상 중 적어도 하나의 관련 영상에 대한 다양한 서비스를 제공할 수 있다.
본 발명의 다른 실시예로, 사용자 단말(100)이 영상 컨텐츠를 디스플레이하는 동안 디스플레이 장치(200)로부터 이벤트 영상 컨텐츠가 수신된 경우, 제어부(130)는 이벤트 영상 컨텐츠를 디스플레이 화면의 일 영역에 디스플레이하도록 디스플레이부(110)를 제어한다. 이때, 이벤트 영상 컨텐츠는 사용자가 예약한 예약 영상 컨텐츠, 컨텐츠 제공자의 추천 영상 컨텐츠 및 광고 컨텐츠 중 하나일 수 있다.
그리고, 디스플레이 화면의 일 영역에 디스플레이된 이벤트 영상 컨텐츠를 선택하는 사용자 인터렉션이 감지된 경우, 제어부(130)는 디스플레이 화면의 일 영역에 디스플레이된 이벤트 영상 컨텐츠를 전체 화면으로 확대하여 디스플레이하도록 디스플레이부(110)를 제어할 수 있다.
이때, 기설정된 이벤트는 사용자가 기 지정한 예약 프로그램이 디스플레이되는 이벤트 또는 컨텐츠 제공자에 의해 추천되는 프로그램이 디스플레이되는 이벤트일 수 있다.
도 3은 본 발명의 일 실시예에 따른, 사용자 단말(100)의 구성을 상세히 도시한 블럭도이다. 도 3에 도시된 바와 같이, 사용자 단말(100)은 디스플레이부(110), 통신부(140), 오디오 출력부(150), 저장부(160), 영상 처리부(170), 오디오 처리부(180), 감지부(120) 및 제어부(130)를 포함한다.
한편, 도 3은 사용자 단말(100)이 컨텐츠 제공 기능, 디스플레이 기능, 통신 기능 등과 같이 다양한 기능을 구비한 장치인 경우를 예로 들어, 각종 구성 요소들을 종합적으로 도시한 것이다. 따라서, 실시 예에 따라서는, 도 3에 도시된 구성 요소 중 일부는 생략 또는 변경될 수도 있고, 다른 구성요소가 더 추가될 수도 있다.
디스플레이부(110)는 통신부(140)를 통해 수신한 영상 데이터를 영상 처리부(170)에서 처리한 비디오 프레임 및 그래픽 처리부(143)에서 생성된 다양한 화면 중 적어도 하나를 디스플레이한다. 특히, 디스플레이부(110)는 외부의 디스플레이 장치(200)로부터 수신된 하나의 영상 컨텐츠의 관련 영상을 디스플레이할 수 있다. 예를 들어, 디스플레이부(110)는 현재 디스플레이 장치(200)가 디스플레이하는 영상 컨텐츠, 영상 컨텐츠에 대해 여러 각도에서 촬영한 복수의 앵글 영상 및 영상 컨텐츠에 대한 관련 정보를 함께 디스플레이할 수 있다.
통신부(120)는 다양한 유형의 통신방식에 따라 다양한 유형의 외부 기기와 통신을 수행하는 구성이다. 통신부(120)는 와이파이 칩, 블루투스 칩, NFC칩, 무선 통신 칩 등과 같은 다양한 통신 칩을 포함할 수 있다. 이때, 와이파이 칩, 블루투스 칩, NFC 칩은 각각 WiFi 방식, 블루투스 방식, NFC 방식으로 통신을 수행한다. 이 중 NFC 칩은 135kHz, 13.56MHz, 433MHz, 860~960MHz, 2.45GHz 등과 같은 다양한 RF-ID 주파수 대역들 중에서 13.56MHz 대역을 사용하는 NFC(Near Field Communication) 방식으로 동작하는 칩을 의미한다. 와이파이 칩이나 블루투스 칩을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다. 무선 통신 칩은 IEEE, 지그비, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evoloution) 등과 같은 다양한 통신 규격에 따라 통신을 수행하는 칩을 의미한다.
특히, 통신부(120)는 디스플레이 장치(200)와 페어링을 수행하여 디스플레이 장치(200)로부터 수신된 영상 컨텐츠에 대한 적어도 하나의 관련 영상을 수신할 수 있다. 이하에서는 도 4a 내지 7b를 참조하여, 사용자 단말(100)과 디스플레이 장치(200) 사이의 통신 방법에 대해 더욱 상세히 설명하기로 한다.
도 4a 및 도 4b, 도 5a 내지 도 5c는 본 발명의 일 실시 예에 따른 디스플레이 장치(200) 및 사용자 단말(100)의 페어링 방법을 설명하기 위한 도면이다.
도 4a에 도시된 바와 같이 디스플레이 장치(200) 및 사용자 단말(100)은 AP(Access Point) 장치(410)를 통해 무선 통신을 수행하도록 연결될 수 있다. 예를 들어, AP 장치(410)는 Wi-Fi(Wireless Fidelity) 신호를 전달하는 무선 공유기로 구현될 수 있다. 다만 경우에 따라서는 무선 공유기 없이도 Wi-Fi 단말을 직접 연결할 수 있는 P2P 개념의 새로운 Wi-Fi 기술인 Wi-Fi Direct로 연결되는 것도 가능하다.
한편, 도시된 바와 같이 VOD 컨텐츠, 영상 홈 쇼핑, 네트워크 게임 등 차세대 쌍방향 멀티미디어 통신 서비스(이른바 대화형 텔레비전)를 이용하는 데 필요한 가정용 통신 단말기 기능을 갖춘 셋톱 박스(420)가 디스플레이 장치(200)와 연결될 수 있다. 여기서, 셋톱 박스는 TV를 인터넷 사용자 인터페이스로 만들어주는 장치로서 실제로 인터넷을 통해 데이터를 주고받을 수 있는 특별한 컴퓨터로서 웹브라우저와 TCP/IP 등의 프로토콜도 가지고 있다. 최근 셋톱박스는 웹 TV 서비스를 위해 전화회선이나 케이블 TV용 회선 등을 통해 서비스를 할 수 있으며, 기본 기능으로서 영상 신호의 수신/변환 기능을 구비한다.
도 4b에 도시된 바와 같이 사용자 단말(100)은 Wi-Fi Data(①)를 디스플레이 장치(200)로 전송한다. 이 경우, 동일한 제조사의 디스플레이 장치(200)는 인식하지만, 일반 상용 AP는 인식하지 못하고 버리도록 구현될 수 있다. 이 경우, Wi-Fi 표준 Format을 이용하여 신규 Data Type을 정의하여 H/W Chipset 변경의 필요성을 감소시킬 수 있다. 이에 따라 Chipset 업체는 신규 Data Format을 위한 API만 제공하고, 신규 Data Format은 제조업체에서 독자적으로 정의하여 Confidential 정보로 유지할 수 있다. 한편, Wi-Fi Data는 Wi-Fi 신호임으로 벽을 지나 옆집에 비 연결대상인 TV에도 전달될 수 있지만, 이를 구분하여 페어링을 수행할 수 있다
이 후, 디스플레이 장치(200)는 사용자 단말(100)로 Wi-Fi Data에 대한 응답 Data(②)를 전송한다. 구체적으로, Wi-Fi Data를 인식한 디스플레이 장치(200)는 자신의 현 AP 연결정보를 응답한다. 이 경우, 초음파, IR 또는 NFC 와 같이 제한된 공간/거리에서만 통신이 이뤄지는 부가기술을 통해 비 연결대상의 응답을 제한할 수 있다.
또는, ②번의 대안으로 연결정보를 요청하는 Data(③)를 전송할 수 있다. 이 경우, ①번 Wi-Fi Data 직후 초음파, IR 또는 NFC와 같은 부가기술을 이용하여, 주변의 당사 TV의 현 AP 연결정보를 요청할 수 있다. 여기서, ①번 Data를 인식한 디스플레이 장치(200)는 ③번의 요청 Data를 기다리게 되며, 제한된 공간/거리에서만 통신이 이뤄지는 부가기술로 전달되는 연결정보 요청 Data는 비 연결대상 TV에는 전달되지 않게 된다.
또는, ②번의 대안으로 연결정보 요청에 대한 응답 Data(④)를 전송할 수 있다. Wi-Fi를 이용해 AP 연결정보를 전달하며, ③번 연결정보 요청 Data는 연결대상 TV에만 전달되었기 때문에, ③번 Data를 인식한 디스플레이 장치(200)는 일반 Wi-Fi를 통해 응답하게 된다. 다만, 초음파 사용 시 ②번의 경우 TV SPK 이용해야 하기 때문에 SPK의 출력 범위 등이 주요하며, ③+④번의 경우 TV가 필히 Mic를 가져야 한다는 제약 사항이 있을 수 있다.
이 후, AP 연결요청 Data(⑤)가 전송된다. 이 경우, 연결 대상 디스플레이 장치(200)로부터 현 AP 연결정보를 취득했기 때문에, 그 정보를 이용하여 해당 AP에 연결을 요청할 수 있게 된다.
상술한 바와 같은 페어링 방법에 따라 도 5a에 도시된 바와 같이 사용자 개입이 최소화하여 페어링을 수행할 수 있게 된다. 예를 들어, Power on 만으로 페어링이 수행될 수 있다. 즉, 디스플레이 장치(200)가 먼저 On 되어 있는 경우 사용자 단말(100)을 On 시켰을 때, 아무런 부가적인 동작 없이 기존의 디스플레이 장치(200) 내 N/W 정보를 얻어와 N/W에 연결되고 디스플레이 장치(200)와 Pairing 되게 할 수 있으며, 반대의 경우도 가능하다. 또한, 한번 Pairing 된 기기들은 다시 Pairing을 할 필요가 없다.
또한, 도 5b에 도시된 바와 같이 연결 대상 및 비 대상을 구분하여 페어링을 수행할 수 있다. 예를 들어, pairing 비 대상 기기(예를 들어, 옆집 TV)는 식별하여 Block 되도록 할 수 있다.
또한, 도 5c에 도시된 바와 같이 네트워크 환경에 대한 제약을 최소화할 수 있게 된다. 예를 들어, 다른 네트워크가 중간에 개입되더라도 페어링을 수행할 수 있다.
또한, 도면에는 도시되지 않았지만, 경우에 따라서는 Pairing 대상 기기 내 기 연결된 네트워크 정보 등을 한정된 공간 내에서 전달하고 또 전달받기 위해, IR/초음파/NFC 등의 부가 근거리 통신기술 사용을 고려할 수도 있다.
도 6a 내지 도 6c는 본 발명의 일 실시 예에 따른 네트워크 토폴로지 구현 방법을 설명하기 위한 도면들이다.
도 6a에 따르면, AP 장치(410) 또는 디스플레이 장치(200)를 통해 항상 인터넷에 접속 가능하도록 구현될 수 있다. 이 경우, 디스플레이 장치(200) 및 AP 장치(410)의 유무 또는, 인터넷 연결 상태에 따라 접속 환경이 결정될 수 있다. 즉, 어떤 경우라도 인터넷 연결이 가능한 형태로 구현될 수 있다.
도 6b에 따르면, 서비스 시나리오에 따라 네트워크 토폴로지가 다양한 형태로 변경될 수 있다. 예를 들어, 디스플레이 장치(200)에서 사용자 단말(100)로 실시간 영상 전송시 디스플레이 장치(200)와 사용자 단말(100)이 P2P 형태로 직접 연결될 수 있다. 이 경우, 네트워크 토폴로지 변경이 신속히 일어나 서비스 변경에 따른 Latency가 발생하지 않도록 할 수 있다.
도 6c에 따르면, Wi-Fi를 이용하여 Power On/Off 컨트롤이 가능하도록 구현할 수 있다. 예를 들어, Power Off 상태의 디스플레이 장치(200)를 사용자 단말(100)이 Wi-Fi를 통해 Power On 시킬 수 있어야 하며, 반대로 Power Off 시킬 수 있어야 한다.
도 7a 및 도 7b는 본 발명의 다른 실시 예에 따른 네트워크 토폴로지 구현 방법을 설명하기 위한 도면들이다.
도 7a에 도시된 바와 같이 사용자 단말(100)은 디스플레이 장치(200) 내 Gateway Server를 통해 STB 와 같은 외부 기기를 원격으로 제어할 수 있도록 구현될 수 있다. 또한, 통합 리모콘을 셋업(setup)없이 설정하여 STB 와 같은 외부 기기를 제어할 수 있도록 구현될 수 있다.
도 7b에 도시된 바와 같이 디스플레이 장치(200)와 사용자 단말(100)은 밀어보기, 끌어보기, Multi-Angle 보기 등 다양한 컨텐츠 스트리밍을 제공할 수 있다.
다시, 도 3에 대해 설명하면, 오디오 출력부(150)는 오디오 처리부(180)에 의해 디코딩이나 증폭, 노이즈 필터링과 같은 다양한 처리 작업이 수행된 각종 오디오 데이터뿐만 아니라 각종 알림 음이나 음성 메시지를 출력하는 구성이다. 특히, 사용자 단말(100)이 복수의 관련 영상을 디스플레이하는 경우, 오디오 출력부(150)는 복수의 영상 관련 영상 중 사용자에 의해 선택된 하나의 관련 영상에 대응되는 오디오를 출력할 수 있다.
저장부(160)는 사용자 단말(100)을 제어하기 위한 다양한 소프트웨어 모듈을 저장한다. 저장부(160)에 저장된 다양한 소프트웨어 모듈에 대해서는 도 8을 참조하여 설명하기로 한다.
도 3에 따르면, 저장부(140)에는 베이스 모듈(141), 센싱 모듈(142), 통신 모듈(143), 프리젠테이션 모듈(144), 웹 브라우저 모듈(145), 서비스 모듈(146)을 포함하는 소프트웨어가 저장될 수 있다.
베이스 모듈(161)이란 사용자 단말(100)에 포함된 각 하드웨어들로부터 전달되는 신호를 처리하여 상위 레이어 모듈로 전달하는 기초 모듈을 의미한다. 베이스 모듈(161)은 스토리지 모듈(161-1), 보안 모듈(161-2) 및 네트워크 모듈(161-3) 등을 포함한다. 스토리지 모듈(161-1)이란 데이터베이스(DB)나 레지스트리를 관리하는 프로그램 모듈이다. 메인 CPU(134)는 스토리지 모듈(161-1)을 이용하여 저장부(160) 내의 데이터베이스에 액세스하여, 각종 데이터를 독출할 수 있다. 보안 모듈(161-2)이란 하드웨어에 대한 인증(Certification), 요청 허용(Permission), 보안 저장(Secure Storage) 등을 지원하는 프로그램 모듈이고, 네트워크 모듈(161-3)이란 네트워크 연결을 지원하기 위한 모듈로 DNET 모듈, UPnP 모듈 등을 포함한다.
센싱 모듈(162)은 각종 센서들로부터 정보를 수집하고, 수집된 정보를 분석 및 관리하는 모듈이다. 센싱 모듈(162)은 터치 인식 모듈, 헤드 방향 인식 모듈, 얼굴 인식 모듈, 음성 인식 모듈, 모션 인식 모듈, NFC 인식 모듈 등을 포함할 수도 있다.
통신 모듈(163)은 외부와 통신을 수행하기 위한 모듈이다. 통신 모듈(163)은 외부 장치와 통신에 이용되는 디바이스 모듈, 메신저 프로그램, SMS(Short Message Service) & MMS(Multimedia Message Service) 프로그램, 이메일 프로그램 등과 같은 메시징 모듈, 전화 정보 수집기(Call Info Aggregator) 프로그램 모듈, VoIP 모듈 등을 포함하는 전화 모듈을 포함할 수 있다.
프리젠테이션 모듈(164)은 디스플레이 화면을 구성하기 위한 모듈이다. 프리젠테이션 모듈(164)은 멀티미디어 컨텐츠를 재생하여 출력하기 위한 멀티미디어 모듈, UI 및 그래픽 처리를 수행하는 UI 렌더링 모듈을 포함한다. 멀티미디어 모듈은 플레이어 모듈, 캠코더 모듈, 사운드 처리 모듈 등을 포함할 수 있다. 이에 따라, 각종 멀티미디어 컨텐츠를 재생하여 화면 및 음향을 생성하여 재생하는 동작을 수행한다. UI 렌더링 모듈은 이미지를 조합하는 이미지 합성기(Image Compositor module), 이미지를 디스플레이할 화면상의 좌표를 조합하여 생성하는 좌표 조합 모듈, 하드웨어로부터 각종 이벤트를 수신하는 X11 모듈, 2D 또는 3D 형태의 UI를 구성하기 위한 툴(tool)을 제공하는 2D/3D UI 툴킷 등을 포함할 수 있다.
웹 브라우저 모듈(165)은 웹 브라우징을 수행하여 웹 서버에 액세스하는 모듈을 의미한다. 웹 브라우저 모듈(165)은 웹 페이지를 구성하는 웹 뷰(web view) 모듈, 다운로드를 수행하는 다운로드 에이전트 모듈, 북마크 모듈, 웹킷(Webkit) 모듈 등과 같은 다양한 모듈을 포함할 수 있다.
서비스 모듈(166)은 다양한 서비스를 제공하기 위한 각종 어플리케이션을 포함하는 모듈이다. 구체적으로는, 서비스 모듈(166)은 SNS 프로그램, 컨텐츠 재생 프로그램, 게임 프로그램, 전자 책 프로그램, 달력 프로그램, 알람 관리 프로그램, 기타 위젯 등과 같은 다양한 프로그램 모듈을 포함할 수 있다.
또한, 저장부(160)는 사용자 단말(100)과 디스플레이 장치(200)가 동기화하여 영상 컨텐츠를 재생할 수 있도록 영상 컨텐츠의 관련 영상을 일시 저장하는 버퍼를 포함할 수 있다. 버퍼에 저장된 관련 영상은 영상 컨텐츠의 타임스탬프 정보에 따라 디스플레이부(110)로 출력될 수 있다.
영상 처리부(170)는 통신부(140)를 통해 수신한 영상 컨텐츠를 포함하는 영상 스트림에 대한 처리를 수행하는 구성요소이다. 영상 처리부(170)에서는 영상 스트림에 대한 디코딩, 디멀티플렉싱, 스케일링, 노이즈 필터링, 프레임 레이트 변환, 해상도 변환 등과 같은 다양한 이미지 처리를 수행할 수 있다.
오디오 처리부(180)는 영상 컨텐츠의 오디오 데이터에 대한 처리를 수행하는 구성요소이다. 오디오 처리부(180)에서는 오디오 데이터에 대한 디코딩이나 증폭, 노이즈 필터링 등과 같은 다양한 처리가 수행될 수 있다. 오디오 처리부(180)에서 처리된 오디오 데이터는 오디오 출력부(150)로 출력될 수 있다.
감지부(130)는 사용자 단말(100)의 구성을 제어하기 위한 다양한 사용자 인터렉션을 감지할 수 있다. 특히, 감지부(130)는 사용자의 터치 인터렉션을 감지하기 위한 터치 감지부로 구현될 수 있다. 이때, 터치 감지부는 디스플레이부(110)의 뒷면에 배치되어 터치 스크린으로 구현될 수 있다.
제어부(130)는 저장부(160)에 저장된 각종 프로그램을 이용하여 사용자 단말(100)의 전반적인 동작을 제어한다.
제어부(130)는 도 3에 도시된 바와 같이, RAM(131), ROM(132), 그래픽 처리부(133), 메인 CPU(134), 제1 내지 n 인터페이스(135-1 ~ 135-n), 버스(136)를 포함한다. 이때, RAM(131), ROM(132), 그래픽 처리부(133), 메인 CPU(134), 제1 내지 n 인터페이스(135-1 ~ 135-n) 등은 버스(136)를 통해 서로 연결될 수 있다.
ROM(132)에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴 온 명령이 입력되어 전원이 공급되면, 메인 CPU(134)는 ROM(132)에 저장된 명령어에 따라 저장부(160)에 저장된 O/S를 RAM(131)에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, 메인 CPU(134)는 저장부(160)에 저장된 각종 어플리케이션 프로그램을 RAM(131)에 복사하고, RAM(131)에 복사된 어플리케이션 프로그램을 실행시켜 각종 동작을 수행한다.
그래픽 처리부(133)는 연산부(미도시) 및 렌더링부(미도시)를 이용하여 포인터, 아이콘, 이미지, 텍스트 등과 같은 다양한 객체를 포함하는 화면을 생성한다. 연산부는 입력부로부터 수신된 제어 명령을 이용하여 화면의 레이아웃에 따라 각 객체들이 표시될 좌표값, 형태, 크기, 컬러 등과 같은 속성값을 연산한다. 렌더링부는 연산부에서 연산한 속성값에 기초하여 객체를 포함하는 다양한 레이아웃의 화면을 생성한다. 렌더링부에서 생성된 화면은 디스플레이부(110)의 디스플레이 영역 내에 표시된다.
메인 CPU(134)는 저장부(160)에 액세스하여, 저장부(160)에 저장된 O/S를 이용하여 부팅을 수행한다. 그리고, 메인 CPU(134)는 저장부(160)에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행한다.
제1 내지 n 인터페이스(135-1 내지 135-n)는 상술한 각종 구성요소들과 연결된다. 인터페이스들 중 하나는 네트워크를 통해 외부 장치와 연결되는 네트워크 인터페이스가 될 수도 있다.
특히, 제어부(130)는 외부의 디스플레이 장치(200)로부터 디스플레이 장치(200)가 현재 디스플레이하는 영상 컨텐츠의 복수의 관련 영상에 대한 영상 스트림을 수신하도록 통신부(140)를 제어할 수 있다. 이때, 영상 스트림에는 영상 컨텐츠의 복수의 관련 영상에 대한 데이터뿐만 아니라, 영상 컨텐츠의 메타 데이터가 포함될 수 있다.
특히, 영상 컨텐츠가 방송 컨텐츠인 경우, 제어부(130)는 디스플레이 장치(200)가 현재 디스플레이하는 방송 컨텐츠의 복수의 관련 영상에 대한 영상 스트림을 수신하도록 통신부(140)를 제어할 수 있다. 이때, 복수의 관련 영상은 영상 컨텐츠를 다양한 각도에서 촬영한 복수의 앵글 영상일 수 있다. 예를 들어, 현재 디스플레이 장치(200)가 제1 시점(view point)에서 촬영된 제1 앵글 영상을 디스플레이하는 경우, 제어부(130)는 제1 시점과 상이한 시점에서 촬영된 제2 앵글 영상 내지 제5 앵글 영상을 포함하는 영상 스트림을 수신하도록 통신부(140)를 제어할 수 있다.
그리고, 제어부(130)는 수신된 영상 스트림을 저장부(160)에 저장할 수 있다. 이때, 제어부(130)는 수신된 영상 스트림 모두를 저장할 수 있으나, 이는 일 실시예에 불과할 뿐, FIFO 방식의 버퍼에 수신된 영상 스트림을 일시적으로 저장할 수 있다. 예를 들어, 제어부(130)는 수신된 영상 스트림을 버퍼에 90초 동안 일시적으로 저장할 수 있다.
그리고, 제어부(130)는 수신된 영상 스트림을 처리하여 복수의 관련 영상을 생성하도록 영상 처리부(170)를 제어하고, 생성된 복수의 관련 영상을 디스플레이하도록 디스플레이부(110)를 제어할 수 있다. 예를 들어, 디스플레이 장치(200)가 제1 시점에서 촬영된 제1 앵글 영상을 디스플레이하는 경우, 제어부(130)는 도 9a에 도시된 바와 같이, 디스플레이 화면을 4등분 하여 제1 시점과 상이한 시점에서 촬영된 제2 앵글 영상 내지 제5 앵글 영상(910-1 내지 910-4)을 디스플레이하도록 디스플레이부(110)를 제어할 수 있다.
이때, 제어부(130)는 영상 스트림의 메타데이터에 포함된 타임스탬프 정보를 이용하여 디스플레이 장치(200)가 디스플레이하는 영상과 동기화하여 복수의 관련 영상을 디스플레이하도록 디스플레이부(130)를 제어할 수 있다.
복수의 관련 영상이 디스플레이되는 동안 기설정된 사용자 인터렉션이 감지된 경우, 제어부(130)는 타임 쉬프트 기능을 제공하기 위한 UI를 디스플레이하도록 디스플레이부(110)를 제어할 수 있다.
구체적으로, 도 9a에 도시된 바와 같이, 제2 앵글 영상 내지 제5 앵글 영상(910-1 내지 910-4)이 디스플레이되는 동안 디스플레이부(110)(즉, 터치 스크린)을 터치하는 사용자 인터렉션이 감지된 경우, 제어부(130)는 도 9b에 도시된 바와 같이, 디스플레이 화면의 하단에 프로그레스 바 형태의 UI(920)를 디스플레이하도록 디스플레이부(110)를 제어할 수 있다. 이때, 프로그레스 바 형태의 UI(920)는 영상 컨텐츠의 재생 시간과 매핑될 수 있다.
그리고, UI를 통해 특정 시점(time point)을 선택하는 사용자 인터렉션이 감지된 경우, 제어부(130)는 복수의 관련 영상을 특정 시점부터 재생할 수 있다.
구체적으로, 도 9b에 도시된 바와 같이, UI(920)의 제1 지점을 터치한 후 제2 지점으로 드래그하는 사용자 인터렉션이 감지된 경우, 제어부(130)는 제2 지점에 대응되는 재생 시점(t1)을 판단할 수 있다. 그리고, 제어부(130)는 도 9c에 도시된 바와 같이, 판단된 재생 시점(t1)부터 제2 앵글 영상 내지 제5 앵글 영상(910-1' 내지 910-4')을 타임 쉬프트하여 재생할 수 있다.
특히, 제어부(130)는 저장부(160)에 저장된 영상 스트림을 이용하여 재생 시점(t1)부터 복수의 관련 영상을 디스플레이하도록 디스플레이부(110)를 제어할 수 있다. 한편, 영상 스트림이 제어부(160)에 저장되어 있지 않은 경우, 제어부(130)는 외부의 서버로 영상 컨텐츠에 대한 정보 및 재생 시점(t1)에 대한 정보를 전송하도록 통신부(140)를 제어할 수 있다. 외부의 서버가 영상 컨텐츠에 대한 정보 및 재생 시점(t1)에 대한 정보를 바탕으로 재생 시점(t1) 이후의 영상 컨텐츠에 대한 복수의 관련 영상을 전송하는 경우, 제어부(130)는 전송되는 영상 컨텐츠에 대한 복수의 관련 영상을 디스플레이하도록 디스플레이부(110)를 제어할 수 있다.
한편, 제어부(130)는 복수의 관련 영상 중 하나의 관련 영상에 대한 타임 쉬프트 기능을 제공할 수 있다.
구체적으로, 도 10a에 도시된 바와 같이, 제2 앵글 영상 내지 제5 앵글 영상(1010-1 내지 1010-4)이 디스플레이되는 동안 제3 앵글 영상(1010-2)이 디스플레이되는 여역을 터치하는 사용자 인터렉션이 감지된 경우, 제어부(130)는 도 10b에 도시된 바와 같이, 제3 앵글 영상의 하단에 프로그레스 바 형태의 UI(1020)를 디스플레이하도록 디스플레이부(110)를 제어할 수 있다. 이때, 프로그레스 바 형태의 UI(1020)는 제3 앵글 영상(1010-2)의 재생 시간과 매핑될 수 있다.
그리고, 도 9b에 도시된 바와 같이, UI(1020)의 제1 지점을 터치한 후 제2 지점으로 드래그하는 사용자 인터렉션이 감지된 경우, 제어부(130)는 제2 지점에 대응되는 재생 시점(t2)을 판단할 수 있다. 그리고, 제어부(130)는 도 10c에 도시된 바와 같이, 판단된 재생 시점(t1)부터 제3 앵글 영상(910-2')을 타임 쉬프트하여 재생할 수 있다. 이때, 제어부(130)는 도 10c에 도시된 바와 같이, 제2 앵글 영상(910-1), 제4 앵글 영상(910-3), 제5 앵글 영상(910-4)의 재생 상태를 유지할 수 있다.
그리고, 제3 앵글 영상(910-2')이 타임 쉬프트 된 후 제3 앵글 영상(910-2')에 대한 기설정된 사용자 인터렉션(예를 들어, 제3 앵글 영상(910-2')이 터치된 영역을 연속적으로 터치하는 사용자 인터렉션)이 감지된 경우, 제어부(130)는 제3 앵글 영상(910-2')을 전체 화면으로 확대하여 디스플레이하도록 디스플레이부(110)를 제어할 수 있다.
상술한 바와 같이, 하나의 영상 컨텐츠에 대한 복수의 관련 영상에 대해 타임 쉬프트 기능을 제공함으로써, 사용자는 디스플레이 장치(200)가 디스플레이하는 영상 컨텐츠의 시청 방해 없이 영상 컨텐츠의 관련 영상의 이전 화면 또는 미래 화면을 더욱 직관적으로 확인할 수 있게 된다.
본 발명의 다른 실시예에 따르면, 제어부(130)는 외부의 디스플레이 장치(200)로부터 영상 컨텐츠에 대한 영상 스트림을 수신하도록 통신부(140)를 제어할 수 있다. 이때, 영상 스트림에는 영상 컨텐츠에 대한 데이터뿐만 아니라, 영상 컨텐츠의 메타 데이터가 포함될 수 있다.
그리고, 제어부(130)는 수신된 영상 스트림을 처리하여 영상 컨텐츠를 생성하도록 영상 처리부(170)를 제어하며, 도 11a에 도시된 바와 같이, 생성된 영상 컨텐츠를 디스플레이하도록 디스플레이부(110)를 제어할 수 있다. 이때, 제어부(130)는 영상 스트림의 메타데이터에 포함된 타임스탬프 정보를 이용하여 디스플레이 장치(200)가 현재 디스플레이하는 영상 컨텐츠와 동기화하여 영상 컨텐츠를 디스플레이하도록 디스플레이부(110)를 제어할 수 있다.
영상 컨텐츠가 디스플레이되는 동안 디스플레이부(110)(즉, 터치 스크린)을 터치하는 사용자 인터렉션이 감지된 경우, 제어부(130)는 도 11b에 도시된 바와 같이, 영상 컨텐츠의 특정 구간을 선택하기 위한 프로그레스 바 형태의 UI(1110)를 디스플레이하도록 디스플레이부(110)를 제어할 수 있다. 이때, 프로그레스 바 형태의 UI(1110)는 영상 컨텐츠의 재생 시간과 매핑될 수 있다.
그리고, 프로그레스 바의 제1 지점을 터치하는 경우, 제어부(130)는 도 11b에 도시된 바와 같이, 제1 지점 상단에 제1 지점에 대응되는 재생 시간(t3)에 디스플레이되는 제1 썸네일 이미지(1120)를 디스플레이하도록 디스플레이부(110)를 제어할 수 있다. 그리고, 프로그레스 바의 제2 지점을 터치하는 경우, 제어부(130)는 도 11c에 도시된 바와 같이, 제2 지점 상단에 제2 지점에 대응되는 재생 시간(t4)에 디스플레이되는 제2 썸네일 이미지(1130)를 디스플레이하도록 디스플레이부(110)를 제어할 수 있다.
그리고, 제1 지점 및 제2 지점이 선택되면, 제어부(130)는 제2 지점에 대응되는 재생 시간(t4)을 시작 시각으로 설정하고, 제1 지점에 대응되는 재생 시간(t3)을 마지막 시간으로 설정하여 클립 구간을 설정할 수 있다.
그리고, 클립 구간이 설정된 경우, 제어부(130)는 도 11d에 도시된 바와 같이, 제1 썸네일 이미지(1120) 및 제2 썸네일 이미지(1130)의 상단에 클립 구간에 대한 다양한 서비스를 제공하는 리스트(1140)를 디스플레이하도록 디스플레이부(110)를 제어할 수 있다. 이때, 리스트(1140)는 저장 서비스를 제공하는 저장 아이콘(1141), 미리보기 서비스를 제공하는 미리보기 아이콘(1142), 공유 서비스를 제공하는 공유 아이콘(1143) 및 편집 서비스를 제공하는 편집 아이콘(1144)을 포함할 수 있다.
복수의 아이콘(1141 내지 1144) 중 저장 아이콘(1141)을 선택하는 사용자 인터렉션이 감지된 경우, 제어부(130)는 클립 구간을 저장부(160)에 저장하고, 도 11e에 도시된 바와 같이, "저장되었습니다. 저장된 클립을 보시겠습니까?"라는 안내 메시지(1150)를 디스플레이하도록 디스플레이부(110)를 제어할 수 있다.
복수의 아이콘(1141 내지 1144) 중 미리보기 아이콘(1142)을 선택하는 사용자 인터렉션이 감지된 경우, 제어부(130)는 도 11f에 도시된 바와 같이, 디스플레이 화면의 일 영역에 미리보기를 위한 윈도우(1160)를 디스플레이하도록 디스플레이부(110)를 제어할 수 있다. 윈도우(1160)를 통해 미리보기 명령이 입력된 경우, 제어부(130)는 윈도우(116)를 통해 클립 구간의 영상 컨텐츠를 재생할 수 있다.
복수의 아이콘(1141 내지 1144) 중 공유 아이콘(1143)을 선택하는 사용자 인터렉션이 감지된 경우, 제어부(130)는 도 11g에 도시된 바와 같이, 클립 구간을 공유하기 위한 공유 창(1170)을 디스플레이하도록 디스플레이부(110)를 제어할 수 있다. 공유 창(1170)에 포함된 복수의 SNS 서비스 중 하나가 선택된 경우, 제어부(130)는 선택된 SNS 서비스에 대응되는 서버에 클립 구간의 영상 컨텐츠를 전송하도록 통신부(140)를 제어할 수 있다. 예를 들어, 공유창(1170)에 포함된 복수의 SNS 서비스 중 "A"가 선택된 경우, 제어부(130)는 "A"에 대응되는 서버에 클립 구간의 영상 컨텐츠를 전송하도록 통신부(140)를 제어할 수 있다.
복수의 아이콘(1141 내지 1144) 중 편집 아이콘(1144)을 선택하는 사용자 인터렉션이 감지된 경우, 제어부(130)는 클립 구간을 편집하기 위한 편집 창을 디스플레이하도록 디스플레이부(110)를 제어할 수 있다.
상술한 실시예에 의해, 사용자는 디스플레이 장치(200)가 디스플레이하는 영상 컨텐츠의 시청 방해 없이 영상 컨텐츠의 선택된 특정 구간에 대한 다양한 서비스를 제공받을 수 있게 된다.
본 발명의 다른 실시예에 따르면, 제어부(130)는 외부의 디스플레이 장치(200)로부터 영상 컨텐츠에 대한 영상 스트림을 수신하도록 통신부(140)를 제어할 수 있다. 이때, 영상 스트림에는 영상 컨텐츠에 대한 데이터뿐만 아니라, 영상 컨텐츠의 메타 데이터가 포함될 수 있다.
그리고, 제어부(130)는 수신된 영상 스트림을 처리하여 영상 컨텐츠를 생성하도록 영상 처리부(170)를 제어하며, 도 12a에 도시된 바와 같이, 생성된 영상 컨텐츠(1210)를 디스플레이하도록 디스플레이부(110)를 제어할 수 있다. 이때, 제어부(130)는 영상 스트림의 메타데이터에 포함된 타임스탬프 정보를 이용하여 디스플레이 장치(200)가 현재 디스플레이하는 영상 컨텐츠와 동기화하여 영상 컨텐츠를 디스플레이하도록 디스플레이부(110)를 제어할 수 있다.
영상 컨텐츠를 디스플레이하는 동안 디스플레이 장치(200)로부터 기설정된 이벤트 영상 컨텐츠가 수신되는 경우, 제어부(130)는 수신된 이벤트 영상 컨텐츠(1220)를 도 12b에 도시된 바와 같이, 디스플레이 화면의 우하단에 PIP 형태로 디스플레이하도록 디스플레이부(110)를 제어할 수 있다. 이때, 이벤트 영상 컨텐츠(1220)는 사용자가 예약한 예약 영상 컨텐츠, 컨텐츠 제공자가 추천하는 추천 영상 컨텐츠 및 광고 영상 컨텐츠일 수 있다. 이때, 광고 영상 컨텐츠의 광고 대상은 영상 컨텐츠가 현재 디스플레이하는 화면에 포함된 물품일 수 있다. 또한, 이벤트 영상 컨텐츠는 별도의 영상 스트림으로 전송될 수 있으나, 이는 일 실시예에 불과할 뿐, 이벤트 영상 컨텐츠는 기존의 영상 컨텐츠와 먹싱(muxing)되어 전송될 수 있다.
그리고, 도 12b에 도시된 바와 같이, 디스플레이 화면의 우하단에 PIP 형태로 이벤트 영상 컨텐츠가 디스플레이되는 동안 이벤트 영상 컨텐츠가 디스플레이되는 영역을 연속적으로 터치하는 사용자 인터렉션이 감지된 경우, 제어부(130)는 도 12c에 도시된 바와 같이, 이벤트 영상 컨텐츠(1220')를 전체 화면으로 확대하여 디스플레이하고, 기존의 영상 컨텐츠(1210')를 PIP 화면으로 디스플레이하도록 디스플레이부(110)를 제어할 수 있다.
그리고, 도 12c에 도시된 바와 같이, 이벤트 영상 컨텐츠(1220') 및 영상 컨텐츠(1210')가 디스플레이되는 동안 기설정된 시간동안 사용자 인터렉션이 감지되지 않은 경우, 제어부(130)는 도 12d에 도시된 바와 같이, PIP 화면에 디스플레이되는 영상 컨텐츠(1210')를 제거하고 이벤트 영상 컨텐츠(1220')를 디스플레이하도록 디스플레이부(110)를 제어할 수 있다.
도 12c에 도시된 바와 같이, 이벤트 영상 컨텐츠(1220') 및 영상 컨텐츠(1210')가 디스플레이되는 동안 영상 컨텐츠(1210')가 디스플레이되는 영역을 터치하는 사용자 인터렉션이 감지된 경우, 제어부(130)는 도 12b에 도시된 바와 같이, 다시 영상 컨텐츠(1210)를 전체 화면에 디스플레이하고, 이벤트 영상 컨텐츠(1220)를 PIP 화면에 디스플레이하도록 디스플레이부(110)를 제어할 수 있다.
상술한 바와 같이 PIP 화면에 이벤트 영상 컨텐츠를 제공함으로써, 사용자는 디스플레이 장치(200)를 통해 재생되는 영상 컨텐츠의 시청방해 없이 다양한 이벤트 영상을 확인할 수 있게 된다.
한편, 상술한 실시예에서는 이벤트 영상 컨텐츠를 디스플레이 장치(200)로부터 수신하는 것으로 설명하였으나, 이는 일 실시예에 불과할 뿐, 이벤트 영상 컨텐츠가 사용자 단말(200)에 기저장될 수 있으며, 외부의 서버로부터 수신될 수도 있다.
한편, 상술한 실시예에서는 영상 컨텐츠 또는 영상 컨텐츠의 관련 영상을 디스플레이 장치(200)로부터 수신하는 것으로 설명하였으나, 이는 일 실시예에 불과할 뿐, 인터넷을 통해 영상 컨텐츠 또는 영상 컨텐츠의 관련 영상을 수신할 수 있다. 이 경우, 사용자 단말(100)은 외부의 서버(특히, 클라우드 서버)에 저장된 타임스탬프 정보를 이용하여 디스플레이 장치(200)가 현재 디스플레이하는 영상 컨텐츠와 동기화하여 영상 컨텐츠 또는 영상 컨텐츠의 관련 영상을 디스플레이할 수 있다.
이하에서는 도 13 내지 도 15를 참조하여 본 발명에 대해 더욱 상세히 설명하기로 한다. 도 13은 본 발명의 일 실시예에 따른, 타임 쉬프트 기능을 제공하는 실시예를 설명하기 위한 흐름도이다.
우선, 사용자 단말(100)은 하나의 영상 컨텐츠에 대한 복수의 관련 영상을 디스플레이한다(S1310). 이때, 복수의 관련 영상은 디스플레이 장치(200)로부터 수신될 수 있으며, 디스플레이 장치(200)가 디스플레이하는 하나의 영상 컨텐츠와 동기화되어 디스플레이될 수 있다.
그리고, 사용자 단말(100)은 기설정된 사용자 인터렉션이 감지되었는지 여부를 판단한다(S1320).
기설정된 사용자 인터렉션이 감지된 경우(S1320-Y), 사용자 단말(100)은 타임 쉬프트 기능을 위한 UI를 디스플레이한다(S1330). 이때, 타임 쉬프트 기능을 위한 UI는 영상 컨텐츠의 재생 시간과 매핑된 프로그레스 바 형태의 UI일 수 있다.
그리고, 사용자 단말(100)은 UI를 통해 특정 시점이 선택되었는지 여부를 판단한다(S1340).
특정 시점이 선택된 경우(S1340-Y), 사용자 단말(100)은 복수의 관련 영상을 선택된 특정 시점부터 재생한다(S1350). 이때, 사용자 단말(100)은 기저장된 영상 스트림 또는 외부의 서버로부터 수신된 영상 스트림을 이용하여 복수의 관련 영상을 특정 시점부터 재생할 수 있다.
도 14는 본 발명의 일 실시예에 따른, 영상 컨텐츠의 특정 구간에 대한 다양한 서비스를 제공하는 실시예를 설명하기 위한 흐름도이다.
우선, 사용자 단말(100)은 영상 컨텐츠를 디스플레이한다(S1410). 이때, 영상 컨텐츠는 디스플레이 장치(200)가 현재 디스플레이하는 영상 컨텐츠와 동일한 영상 컨텐츠로서, 디스플레이 장치(200)로부터 수신될 수 있으며, 디스플레이 장치(200)가 디스플레이하는 영상 컨텐츠와 동기화되어 디스플레이될 수 있다.
그리고, 사용자 단말(100)은 기설정된 사용자 인터렉션이 감지되었는지 여부를 판단한다(S1420).
기설정된 사용자 인터렉션이 감지된 경우(S1420-Y), 사용자 단말(100)은 영상 컨텐츠의 특정 구간을 선택하기 위한 UI를 디스플레이한다(S1430). 이때, 사용자 단말(100)은 영상 컨텐츠의 재생 시간과 매핑된 프로그레스 바 형태의 UI를 디스플레이할 수 있다.
그리고, 사용자 단말(100)은 UI를 통해 특정 구간이 선택되었는지 여부를 판단한다(S1440).
특정 구간이 선택된 경우(S1440-Y), 사용자 단말(100)은 선택된 구간에 대한 복수의 서비스를 제공하는 리스트를 디스플레이한다(S1440). 이때, 리스트에는 미리보기 서비스를 제공하는 미리보기 아이콘, 저장 서비스를 제공하는 저장 아이콘, 공유 서비스를 제공하는 공유 아이콘 및 편집 서비스를 제공하는 편집 아이콘 중 적어도 하나를 포함할 수 있다.
그리고, 사용자 단말(100)은 복수의 서비스 중 하나가 선택되었는지 여부를 판단한다(S1460).
복수의 서비스 중 하나가 선택된 경우(S1460-Y), 사용자 단말(100)은 특정 구간에 대해 선택된 서비스를 제공한다(1470). 구체적으로, 리스트에 포함된 복수의 아이콘 중 미리보기 아이콘을 선택하는 사용자 인터렉션이 감지된 경우, 사용자 단말(100)은 디스플레이 화면의 일 영역에 특정 구간의 영상 컨텐츠를 재생할 수 있다. 또한, 리스트에 포함된 복수의 아이콘 중 저장 아이콘을 선택하는 사용자 인터렉션이 감지된 경우, 사용자 단말(100)은 특정 구간의 영상 컨텐츠를 저장부에 저장할 수 있다. 또한, 리스트에 포함된 복수의 아이콘 중 공유 아이콘을 선택하는 사용자 인터렉션이 감지된 경우, 사용자 단말(100)은 특정 구간의 영상 컨텐츠를 외부의 서버로 업로드할 수 있다.
도 15는 본 발명의 일 실시예에 따른, 이벤트 영상 컨텐츠를 영상 컨텐츠와 동시에 디스플레이하는 실시예를 설명하기 위한 흐름도이다.
우선, 사용자 단말(100)은 영상 컨텐츠를 디스플레이한다(S1510). 이때, 영상 컨텐츠는 디스플레이 장치(200)가 현재 디스플레이하는 영상 컨텐츠와 동일한 영상 컨텐츠로서, 디스플레이 장치(200)로부터 수신될 수 있으며, 디스플레이 장치(200)가 디스플레이하는 영상 컨텐츠와 동기화되어 디스플레이될 수 있다.
그리고, 사용자 단말(100)은 이벤트 영상 컨텐츠가 수신되었는지 여부를 판단한다(S1520). 이때, 이벤트 영상 컨텐츠는 디스플레이 장치(200)로부터 수신될 수 있으며, 사용자가 예약한 예약 영상 컨텐츠, 컨텐츠 제공자가 추천한 추천 영상 컨텐츠 및 광고 영상 컨텐츠 중 하나일 수 있다.
그리고, 사용자 단말(100)은 외부로부터 수신되는 이벤트 영상 컨텐츠를 디스플레이 화면의 일 영역에 디스플레이한다(S1530). 이때, 사용자 단말(100)은 디스플레이 화면의 하단에 PIP 형태로 이벤트 영상 컨텐츠를 디스플레이할 수 있다. 또한, 이벤트 영상 컨텐츠에 대한 기설정된 사용자 인터렉션이 감지된 경우, 사용자 단말(100)은 이벤트 영상 컨텐츠를 전체 화면으로 디스플레이할 수 있다.
상술한 바와 같은 본 발명의 다양한 실시예에 의해, 사용자는 디스플레이 장치(200)가 디스플레이하는 영상에 대한 시청방해 없이 사용자 단말(100)을 통해 디스플레이 장치(200)가 디스플레이하는 영상 컨텐츠에 대한 다양한 서비스 및 기능을 제공받을 수 있게 된다.
한편, 상술한 다양한 실시 예에 따른 디스플레이 장치의 제어 방법은 프로그램으로 구현되어 디스플레이 장치에 제공될 수 있다. 구체적으로, 디스플레이 장치의 제어 방법을 포함하는 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)가 제공될 수 있다.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.

Claims (15)

  1. 사용자 단말의 제어 방법에 있어서,
    하나의 영상 컨텐츠에 대한 복수의 관련 영상을 디스플레이하는 단계;
    기설정된 사용자 인터렉션이 감지된 경우, 상기 복수의 관련 영상의 재생 시점을 선택하기 위한 제1 UI를 디스플레이하는 단계;
    상기 제1 UI를 통해 특정 시점을 선택하는 사용자 인터렉션이 감지된 경우, 상기 복수의 관련 영상을 상기 특정 시점부터 재생하는 단계;를 포함하는 제어 방법.
  2. 제1항에 있어서,
    외부의 디스플레이 장치로부터 상기 복수의 관련 영상에 대한 영상 스트림을 수신하는 단계;를 더 포함하며,
    상기 디스플레이하는 단계는,
    상기 영상 스트림을 처리하여 상기 복수의 관련 영상을 동시에 디스플레이하는 것을 특징으로 하는 제어 방법.
  3. 제2항에 있어서,
    상기 디스플레이하는 단계는,
    상기 영상 스트림에 포함된 타임스탬프 정보를 이용하여 상기 디스플레이 장치가 디스플레이하는 영상 컨텐츠와 동기화하여 상기 복수의 관련 영상을 디스플레이하는 것을 특징으로 하는 제어 방법.
  4. 제2항에 있어서,
    상기 디스플레이 장치로부터 수신된 영상 스트림을 저장하는 단계;를 포함하며,
    상기 재생하는 단계는,
    상기 저장된 영상 스트림을 이용하여 상기 특정 시점부터 상기 복수의 관련 영상을 재생하는 것을 특징으로 하는 제어 방법.
  5. 제1항에 있어서,
    상기 재생하는 단계는,
    상기 특정 시점에 대한 정보를 외부의 서버로 전송하는 단계;
    상기 특정 시점으로부터의 복수의 관련 영상에 대한 영상 스트림을 상기 외부의 서버로부터 수신하는 단계; 및
    상기 수신된 상기 특정 시점으로부터의 복수의 관련 영상을 재생하는 단계;를 포함하는 제어 방법.
  6. 제1항에 있어서,
    상기 복수의 관련 영상 중 하나에 대해 기설정된 사용자 인터렉션이 감지된 경우, 상기 하나의 관련 영상에 대한 재생 시점을 선택하기 위한 제2 UI를 디스플레이하는 단계; 및
    상기 제2 UI를 통해 특정 시점을 선택하는 사용자 인터렉션이 감지된 경우, 상기 하나의 관련 영상만을 상기 특정 시점부터 재생하는 단계;를 포함하는 제어 방법
  7. 제6항에 있어서,
    상기 하나의 관련 영상이 상기 특정 시점부터 재생하는 동안 상기 하나의 관련 영상에 대한 기설정된 사용자 인터렉션이 감지된 경우, 상기 하나의 관련 영상을 확대하여 전체 화면으로 디스플레이하는 단계;를 포함하는 제어 방법.
  8. 제1항에 있어서,
    상기 제1 UI는,
    프로그레스 바 형태의 UI인 것을 특징으로 하는 제어 방법.
  9. 사용자 단말에 있어서,
    하나의 영상 컨텐츠에 대한 복수의 관련 영상을 디스플레이하는 디스플레이부;
    사용자 인터렉션을 감지하는 감지부; 및
    상기 감지부를 통해 기설정된 사용자 인터렉션이 감지된 경우, 상기 복수의 관련 영상의 재생 시점을 선택하기 위한 제1 UI를 디스플레이하도록 상기 디스플레이부를 제어하며, 상기 제1 UI를 통해 특정 시점을 선택하는 사용자 인터렉션이 감지된 경우, 복수의 관련 영상을 상기 특정 시점부터 재생하는 제어부;를 포함하는 사용자 단말.
  10. 제9항에 있어서,
    상기 외부의 디스플레이 장치로부터 상기 복수의 관련 영상에 대한 영상 스트림을 수신하는 통신부; 및
    상기 수신된 영상 스트림을 처리하는 영상 처리부;를 더 포함하며,
    상기 제어부는,
    상기 영상 처리부에 의해 처리된 상기 복수의 관련 영상을 동시에 디스플레이하도록 상기 디스플레이부를 제어하는 것을 특징으로 하는 사용자 단말.
  11. 제10항에 있어서,
    상기 제어부는,
    상기 영상 스트림에 포함된 타임스탬프 정보를 이용하여 상기 디스플레이 장치가 디스플레이하는 영상 컨텐츠와 동기화하여 상기 복수의 관련 영상을 디스플레이하도록 상기 디스플레이부를 제어하는 것을 특징으로 하는 사용자 단말.
  12. 제10항에 있어서,
    상기 디스플레이 장치로부터 수신된 영상 스트림을 저장하는 저장부;를 포함하며,
    상기 제어부는,
    상기 저장부에 저장된 영상 스트림을 이용하여 상기 특정 시점부터 상기 복수의 관련 영상을 재생하는 것을 특징으로 하는 사용자 단말.
  13. 제9항에 있어서,
    외부의 서버와 통신을 수행하는 통신부;를 더 포함하며,
    상기 제어부는,
    상기 특정 시점에 대한 정보를 외부의 서버로 전송하며, 상기 특정 시점으로부터의 복수의 관련 영상에 대한 영상 스트림을 상기 외부의 서버로부터 수신하도록 상기 통신부를 제어하며, 상기 수신된 상기 특정 시점으로부터의 복수의 관련 영상을 재생하는 것을 특징으로 하는 사용자 단말.
  14. 제9항에 있어서,
    상기 제어부는,
    상기 감지부를 통해 상기 복수의 관련 영상 중 하나에 대한 기설정된 사용자 인터렉션이 감지된 경우, 상기 하나의 관련 영상의 재생 시점을 선택하기 위한 제2 UI를 디스플레이하도록 상기 디스플레이부를 제어하며, 상기 제2 UI를 통해 특정 시점을 선택하는 사용자 인터렉션이 감지된 경우, 상기 하나의 관련 영상만을 상기 특정 시점부터 재생하는 것을 특징으로 하는 사용자 단말.
  15. 제14항에 있어서,
    상기 제어부는,
    상기 감지부를 통해 상기 하나의 관련 영상이 상기 특정 시점부터 재생하는 동안 상기 하나의 관련 영상에 대한 기설정된 사용자 인터렉션이 감지된 경우, 상기 하나의 관련 영상을 확대하여 전체 화면으로 디스플레이하도록 상기 디스플레이부를 제어하는 것을 특징으로 하는 사용자 단말.
PCT/KR2015/005718 2014-06-11 2015-06-08 사용자 단말 및 이의 제어 방법 WO2015190780A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201580029148.0A CN106462518A (zh) 2014-06-11 2015-06-08 用户终端及其控制方法
US15/317,771 US20170127120A1 (en) 2014-06-11 2015-06-08 User terminal and control method therefor
EP15805779.4A EP3121733A4 (en) 2014-06-11 2015-06-08 User terminal and control method therefor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020140070982A KR20150142348A (ko) 2014-06-11 2014-06-11 사용자 단말 및 이의 제어 방법
KR10-2014-0070982 2014-06-11

Publications (1)

Publication Number Publication Date
WO2015190780A1 true WO2015190780A1 (ko) 2015-12-17

Family

ID=54833809

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/005718 WO2015190780A1 (ko) 2014-06-11 2015-06-08 사용자 단말 및 이의 제어 방법

Country Status (5)

Country Link
US (1) US20170127120A1 (ko)
EP (1) EP3121733A4 (ko)
KR (1) KR20150142348A (ko)
CN (1) CN106462518A (ko)
WO (1) WO2015190780A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170229146A1 (en) * 2016-02-10 2017-08-10 Justin Garak Real-time content editing with limited interactivity
CN107168667B (zh) * 2017-04-28 2020-09-18 明基智能科技(上海)有限公司 具有显示子母画面能力的显示系统
US11727858B2 (en) * 2018-12-10 2023-08-15 Auroratech Company Display driver IC (DDIC) backplane for scanning microLED array

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100223574A1 (en) * 2009-02-27 2010-09-02 Microsoft Corporation Multi-Screen User Interface
US20110239142A1 (en) * 2010-03-25 2011-09-29 Nokia Corporation Method and apparatus for providing content over multiple displays
KR20130037998A (ko) * 2011-10-07 2013-04-17 삼성전자주식회사 디스플레이 장치 및 그 디스플레이 방법
KR20130097372A (ko) * 2012-02-24 2013-09-03 엘지전자 주식회사 이동 단말기 및 그 제어 방법, 이를 위한 기록 매체
KR20130124866A (ko) * 2012-05-07 2013-11-15 엘지전자 주식회사 이동 단말기 및 그 제어방법

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040162154A1 (en) * 2003-02-14 2004-08-19 Dejohn David Kinetic motion analyzer
JP4727342B2 (ja) * 2004-09-15 2011-07-20 ソニー株式会社 画像処理装置、画像処理方法、画像処理プログラム及びプログラム格納媒体
JP4882989B2 (ja) * 2007-12-10 2012-02-22 ソニー株式会社 電子機器、再生方法及びプログラム
JP4636141B2 (ja) * 2008-08-28 2011-02-23 ソニー株式会社 情報処理装置および方法、並びにプログラム
GB201011146D0 (en) * 2010-07-02 2010-08-18 Vodafone Ip Licensing Ltd Mobile computing device
US20130124999A1 (en) * 2011-11-14 2013-05-16 Giovanni Agnoli Reference clips in a media-editing application
US9077896B2 (en) * 2012-06-11 2015-07-07 Lg Electronics Inc. Mobile terminal for capturing image and controlling method thereof
JP6004475B2 (ja) * 2012-10-19 2016-10-12 カシオ計算機株式会社 再生制御装置、再生制御方法及びプログラム
US9129640B2 (en) * 2012-12-12 2015-09-08 Crowdflik, Inc. Collaborative digital video platform that enables synchronized capture, curation and editing of multiple user-generated videos
CN103716706A (zh) * 2013-12-06 2014-04-09 乐视致新电子科技(天津)有限公司 一种多媒体文件播放进度与显示进度同步的方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100223574A1 (en) * 2009-02-27 2010-09-02 Microsoft Corporation Multi-Screen User Interface
US20110239142A1 (en) * 2010-03-25 2011-09-29 Nokia Corporation Method and apparatus for providing content over multiple displays
KR20130037998A (ko) * 2011-10-07 2013-04-17 삼성전자주식회사 디스플레이 장치 및 그 디스플레이 방법
KR20130097372A (ko) * 2012-02-24 2013-09-03 엘지전자 주식회사 이동 단말기 및 그 제어 방법, 이를 위한 기록 매체
KR20130124866A (ko) * 2012-05-07 2013-11-15 엘지전자 주식회사 이동 단말기 및 그 제어방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3121733A4 *

Also Published As

Publication number Publication date
EP3121733A4 (en) 2017-11-22
US20170127120A1 (en) 2017-05-04
EP3121733A1 (en) 2017-01-25
CN106462518A (zh) 2017-02-22
KR20150142348A (ko) 2015-12-22

Similar Documents

Publication Publication Date Title
WO2017111358A1 (en) User terminal device, and mode conversion method and sound system for controlling volume of speaker thereof
WO2015099276A1 (en) Display apparatus, server apparatus, display system including them, and method for providing content thereof
WO2014104744A1 (en) Terminal device and method for controlling thereof
WO2015065018A1 (ko) 디스플레이 기기에서 복수의 서브 화면들을 제어하는 방법 및 이를 위한 디스플레이 장치
WO2014182112A1 (en) Display apparatus and control method thereof
WO2015119480A1 (en) User terminal device and displaying method thereof
WO2014058250A1 (en) User terminal device, sns providing server, and contents providing method thereof
WO2014092476A1 (en) Display apparatus, remote control apparatus, and method for providing user interface using the same
WO2014092469A1 (en) Content playing apparatus, method for providing ui of content playing apparatus, network server, and method for controlling by network server
WO2014182087A1 (en) Display apparatus and user interface screen providing method thereof
WO2012026750A2 (ko) 컨텐츠 공유 제어 방법, 그를 이용한 휴대용 단말기 및 컨텐츠 공유 시스템
WO2014182109A1 (en) Display apparatus with a plurality of screens and method of controlling the same
WO2015167158A1 (en) User terminal device, method for controlling user terminal device and multimedia system thereof
EP3105657A1 (en) User terminal device and displaying method thereof
WO2015178677A1 (en) User terminal device, method for controlling user terminal device, and multimedia system thereof
WO2016114607A1 (en) User terminal apparatus, system, and control method thereof
WO2019139270A1 (ko) 디스플레이 장치 및 이의 컨텐츠 제공 방법
WO2018038428A1 (en) Electronic device and method for rendering 360-degree multimedia content
WO2016080700A1 (en) Display apparatus and display method
WO2014182140A1 (en) Display apparatus and method of providing a user interface thereof
WO2014098539A1 (en) User terminal apparatus and control method thereof
WO2015194755A1 (ko) 사용자 단말 장치 및 그 제어 방법
WO2016072735A1 (en) Terminal apparatus and method for controlling the same
WO2019039739A1 (en) DISPLAY APPARATUS AND METHOD FOR CONTROLLING THE SAME
WO2015190781A1 (ko) 사용자 단말 및 이의 제어 방법, 그리고 멀티미디어 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15805779

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2015805779

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015805779

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 15317771

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE