CN104272753A - 显示装置、服务器及其控制方法 - Google Patents

显示装置、服务器及其控制方法 Download PDF

Info

Publication number
CN104272753A
CN104272753A CN201380023388.0A CN201380023388A CN104272753A CN 104272753 A CN104272753 A CN 104272753A CN 201380023388 A CN201380023388 A CN 201380023388A CN 104272753 A CN104272753 A CN 104272753A
Authority
CN
China
Prior art keywords
video
user
display unit
main body
reference video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201380023388.0A
Other languages
English (en)
Inventor
曹逢铉
尹琇碝
崔俊植
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN104272753A publication Critical patent/CN104272753A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440236Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by media transcoding, e.g. video is transformed into a slideshow of still pictures, audio is converted into text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6582Data stored in the client, e.g. viewing habits, hardware capabilities, credit card number
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising

Abstract

提供了用于控制显示装置的方法。根据示例性实施例的控制显示装置的方法包括接收参考视频以及可与参考视频同步的第一用户视频,并且将所接收的参考视频和第一用户视频分别显示在被划分的屏幕上,并且所述第一用户视频可以是捕捉跟学包含在参考视频中的对象的主体的视频,或者捕捉根据在参考视频中显示或执行的指令执行动作的主体的视频。

Description

显示装置、服务器及其控制方法
技术领域
示例性实施例的方面涉及显示装置、服务器及其控制方法,并且更具体地说,涉及具有捕捉功能的显示装置、服务器及其控制方法。
背景技术
在现有技术的显示装置中,将捕捉服务限定于将所捕捉内容单方向地从一个装置发送到另一装置。特定地,将显示装置的捕捉功能用于将所捕捉图像从一个装置发送到另一装置的服务(在因特网上的移动通信,或者MoIP)。
因此,需要通过与用户的所捕捉图像相关联的、诸如实时广播和视频点播(VOD)的各种输入源提供被显示在电视屏幕上的内容图像的反馈服务。
发明内容
技术问题
示例实施例的一方面涉及通过将参考视频与所拾取(pick-up)视频互锁来提供反馈服务的显示装置、服务器及其控制方法。
解决方案
根据示例性实施例的控制显示装置的方法包括接收参考视频和可与参考视频同步的第一用户视频并且将所接收的参考视频和第一用户视频分别显示在被划分的屏幕上,并且第一用户视频是捕捉跟学包含在参考视频中的对象的主体(subject)的视频,或者捕捉根据在参考视频中所显示或执行的指令执行动作的主体的视频。
所述方法可以进一步包括产生捕捉跟学包含在参考视频中的对象的第二主体或者捕捉根据在参考视频中显示或执行的指令执行动作的第二主体的第二用户视频,并且将所产生的第二用户视频显示在显示参考视频和第一用户视频的屏幕的一部分上。
所述方法可以进一步包括将第二用户视频发送给外部服务器,并且产生第二用户视频的步骤可以包括通过添加用于将参考视频与第二用户视频同步的元数据来产生第二用户视频。
所述方法可以进一步包括识别所述第二主体的语音,将所识别的语音转换为文本并且将被转换的文本与第二用户视频同步,并且存储被同步的视频。
第二用户视频的元数据可以包括第二用户视频和参考视频的标识信息、视频运行时间、参考视频的起始点和结束点以及用户脚本中的至少之一。
所述参考视频可以是从外部服务器提供的内容或者是实时广播内容。
如果参考视频是实时广播内容,则第一用户视频可以是在其时区不同于显示装置的时区的区域中被捕捉的视频。
根据示例实施例的控制服务器的方法包括从第一显示装置接收与参考视频同步的第一用户视频,并且一旦接收到来自第二显示装置的请求,则将第一参考视频和第一用户视频发送给第二显示装置,并且第一用户视频可以是捕捉跟学包含在参考视频中的对象的第一主体的视频,或者是捕捉根据在参考视频中显示或执行的指令执行动作的主体的视频。
所述方法可以进一步包括从第二显示装置接收与参考视频同步的第二用户视频,并且第二用户视频可以是捕捉跟学包含在参考视频中的对象的第二主体的视频,或者是捕捉根据在参考视频中显示或执行的指令执行动作的第二主体的视频。
第一用户视频包括用于与参考视频同步的元数据,并且元数据可以包括第二用户视频和参考视频的标识信息、视频运行时间、参考视频的起始点和结束点以及用户脚本中的至少之一。
根据示例性实施例的显示装置包括收发器,接收参考视频和可与参考视频同步的第一用户视频;显示器;以及控制器,其控制显示器在被划分的屏幕上分别显示所接收的参考视频和第一用户视频,并且第一用户视频是捕捉跟学包含在参考视频中的对象的主体的视频,或者是捕捉根据在参考视频中显示或执行的指令执行动作的主体的视频。
所述装置可以进一步包括视频捕捉设备,其捕捉跟学包含在参考视频中的对象的第二主体,或者捕捉根据在参考视频中显示或执行的指令执行动作的第二主体;以及控制器,如果捕捉第二主体的第二视频被产生,则可以控制显示器在显示参考视频和第一用户视频的屏幕的一部分上显示所产生的第二用户视频。
控制器通过将用于与参考视频的同步的元数据添加到第二用户视频可以产生第二用户视频,并且控制收发器将所产生的第二用户视频发送给外部服务器。
所述装置可以进一步包括识别主体的语音的语音识别器,并且控制器可以将被识别的语音转换为文本,将被转换的文本与第二用户视频同步,并且存储被同步的视频。
第一用户视频的元数据可以包括用户视频和参考视频的标识信息、视频运行时间、参考视频的起始点和结束点以及用户脚本中的至少之一。
参考视频可以是从外部服务器提供的内容或者是实时广播内容。
如果参考视频是实时广播内容,则第一用户视频可以是在其时区不同于显示器的时区的区域中被捕捉的视频。
根据示例实施例的服务器包括收发器,其与第一显示装置和第二显示装置通信;存储单元,如果通过收发器从第一显示装置接收到与参考视频同步的第一用户视频,则存储所接收的第一用户视频;以及控制器,一旦接收到来自第二显示装置的请求,则控制收发器将参考视频和第一用户视频发送给第二显示装置,并且第一用户视频是捕捉跟学包含在参考视频中的对象的第一主体的视频,或者是捕捉根据在参考视频中显示或执行的指令执行动作的主体的视频。
所述收发器可以进一步从第二显示装置接收与参考视频同步的第二用户视频,并且第二用户视频可以是捕捉跟学包含在参考视频中的对象的第二主体的视频,或者是捕捉根据在参考视频中显示或执行的指令执行动作的第二主体的视频。
第一用户视频可以包括用于与参考视频的同步的元数据,并且所述元数据可以包括用户视频和参考视频的标识信息、视频运行时间、参考视频的起始点和结束点以及用户脚本中的至少之一。
根据示例实施例的控制显示装置的方法包括在屏幕上显示所接收的参考视频;产生捕捉跟学包含在参考视频中的对象的主体的用户视频并且存储所产生的用户视频,或者捕捉根据在参考视频中显示或执行的指令执行动作的主体的视频;以及显示所存储的用户视频并且将所存储的用户视频发送给外部服务器。
存储用户视频的步骤可以包括通过将用户视频的元数据添加到用户视频用于与参考视频的同步来存储用户视频。
根据示例性实施例的另一方面的显示装置包括显示器,其在屏幕上显示所接收的参考视频;控制器,其控制以产生捕捉跟学包含在参考视频中的对象的主体的用户视频,并且存储和显示所产生的用户视频,或者捕捉根据在参考视频中显示或执行的指令执行动作的主体的视频;以及收发器,其将所存储的用户视频发送给外部服务器。
所述控制器可以控制通过将用户视频的元数据添加到用户视频用于与参考视频的同步来存储用户视频。
附图说明
从结合附图的实施例的以下描述中,示例性实施例的这些和/或其它方面和优点将变得显而易见并且更加容易理解,附图中:
图1A至1C是示出根据各种示例性实施例的各方面的系统的配置的视图;
图2A和2B是示出根据示例实施例的显示装置的配置的框图;
图3是示出根据示例实施例的服务器的配置的框图;
图4A至4D是示出根据各种示例性实施例的数据形式的视图;
图5是示出根据示例性实施例的用户图像元数据的详细配置的视图;
图6A和6B是示出根据示例性实施例的各方面的显示布局的视图;
图7A和7B是示出根据示例性实施例的其它方面的显示布局的视图;
图8A至8C是示出根据示例性实施例的各方面所提供的用户界面布局的视图;
图9是解释根据示例性实施例的控制显示装置的方法的流程图;
图10是解释根据示例性实施例的另一方面的控制显示装置的方法的流程图;以及
图11是解释根据示例实施例的另一方面的控制服务器的方法的流程图。
具体实施方式
下面将详细解释生产和使用示例性实施例的方法。应当注意到,这里所描述的各种示例性实施例并不会限制如权利要求书中所述的发明构思。
图1A至1C是示出根据各种示例性实施例的系统的配置的视图。
图1A是示出根据示例性实施例的系统的配置的视图。根据图1A,显示系统可以包括显示装置100和成像装置10。
可以将显示装置100实现为数字电视,但是在一些情形中,可以将其实现为诸如PC、移动通信终端、个人数字助理(PDA)、智能电话、数字多媒体广播(DMB)电话、MP3播放器、移动电视、数码相机等的具有显示功能的任何装置。
可以将成像装置10实现为能够捕捉主体图像(例如,主体视频)的一般照相机,并且可以捕捉主体的操作。在一些情形中,可以将成像装置10配置为包括能够捕捉用户运动以便控制显示装置100的深度照相机和彩色照相机的至少之一。这里,深度照相机可以使用传感器检测3D位置信息(即,深度信息),并且彩色照相机(例如,2D照相机)可以识别出2D位置信息、形状等。同时,深度照相机可以用于根据距照相机的距离补偿图像屏幕或视频,并且所述补偿可以包括屏幕的放大/缩小、分辨率的调节等。
在示例性实施例的另一方面中,成像装置10是与显示装置100分离的组件(外部照相机),但这仅仅是实例。可以在显示装置100的内部提供成像装置10(作为内置照相机)。
此后,为了解释方便将假定与显示装置100分离地提供成像装置10。
图1B和1C是根据各种示例性实施例示意性地解释内容提供系统的操作的视图。
根据图1B和1C,内容提供系统1000包括第一显示系统和第二显示系统(100-1、100-2)以及服务器200。
图1B示出其中从服务器接收的内容是参考图像(例如,参考视频)的实例。根据图1B,第一显示装置100-1可以从服务器200接收参考图像内容并且将所接收的参考图像显示在被划分的屏幕之一上。例如,第一显示装置100-1可以从服务器200接收诸如视频点播(VOD)内容的预先制作内容。
此外,在将参考图像显示在被划分的屏幕当中的另一屏幕上的同时,第一显示装置100-1可以显示被捕捉的用户A的图像。例如,可以将展示在参考图像正被显示的同时用户A跟学包含在参考图像中的对象的操作的图像显示在被划分的屏幕当中的另一屏幕上。
第一显示装置100-1可以将所捕捉图像(例如,所捕捉视频)发送到服务器200,并且服务器200可以存储所接收的图像(例如,所接收的视频)。例如,服务器200可以将从第一显示装置100-1接收的用户图像(例如,用户视频)与预先存储的参考图像同步并且存储经同步的图像。如果有来自第二显示装置100-2的请求,则服务器200可以将参考图像或与参考图像同步然后被存储的用户A的被捕捉图像发送给第二显示装置100-2。在此情形中,第二显示装置100-2不仅可以显示参考图像和相应用户B的被捕捉图像,而且可以显示与参考图像相对应的另一用户A的图像。
图1C示出其中从广播站接收广播内容作为参考图像的实例。
根据图1C,第一显示装置100-1可以接收实时播放内容作为参考图像,并且将所接收的参考图像显示在被划分的屏幕之一上。在将参考图像显示在被划分的屏幕当中的另一屏幕上的同时,显示装置100-1可以显示被捕捉的用户A的图像。进一步,显示装置100-1可以将所捕捉图像发送到服务器200,并且服务器200可以存储所接收的图像。
此外,如果有来自第二显示装置100-2的请求,则服务器200可以将被捕捉的用户A的图像发送给第二显示装置100-2。在此情形中,第二显示装置100-2不仅可以显示参考图像和基于实时广播的相应用户B的被捕捉图像,而且可以显示与参考图像相对应的另一用户A的图像。
图2A和2B是解释根据示例性实施例的显示装置的配置的框图。
根据图2A,显示装置100包括通信单元110(例如,收发器)、显示单元120(例如,显示器)以及控制单元130(例如,控制器)。
通信单元110执行与服务器200的通信。具体地,通信单元110可以从服务器200接收参考图像,并且将与所接收的参考图像相关地产生的用户图像发送给服务器200。这里,参考图像可以是预先制作的内容或者是在显示参考图像的同时捕捉主体的图像。例如,用户图像可以是捕捉跟学包含在参考图像中的对象的操作的主体的操作的图像。更具体地,如果用户观看通过显示装置100提供的瑜伽图像并且模仿图像中的教练(instructor)的瑜伽姿势做出姿势,则捕捉用户的姿势的图像可以是用户图像。
此后以上所解释的图像将被简单地称为“用户图像”而没有进一步的描述。
同时,参考图像可以是实时广播内容,并且在此情形中,可以通过调谐器等接收参考图像。例如,如果在电视上实况播送用于跟学瑜伽姿势的广播节目,则相应的广播图像可以是参考图像。
显示单元120在屏幕上显示参考图像和用户图像中的至少之一。显示单元120可以用液晶显示面板、等离子体显示面板、真空荧光显示器、场致发射显示器、电致发光显示器等来实现。
显示单元120可以将所接收的参考图像显示在屏幕上。这里,如上所述,参考图像可以是从服务器或广播站提供的图像。此外,显示单元120可以显示捕捉主体的图像的用户图像,同时与用户图像一起显示参考图像。例如,显示单元120可以在被划分的屏幕上显示参考图像和用户图像。在此情形中,用户图像可以是包含主体和背景的图像、主体的背景被删除的图像以及仅仅显示主体轮廓的图像中的至少之一。可替换地,捕捉主体的图像可以是其中将没有背景的图像与轮廓图像合并的图像。
在此情形中,可以按照用户命令或用户运动或者被用户控制的遥控器(未示出)的运动来划分屏幕。例如,如果用户运动的方向被识别出,则可以按照用户运动的方向将所述屏幕划分为多个屏幕。就是说,如果用户运动是上下运动,则可以将屏幕划分为左屏幕和右屏幕,而如果用户运动是左右运动,则可以将屏幕划分为上屏幕和下屏幕。这里,用户运动可以是上下或左右移动胳膊,同时拳头打开或闭合。然而,用户运动不限于此,并且具有方向性的任何类型的用户运动也可以是用户运动,诸如上下或左右移动用户的头的运动或者上下或左右移动用户的腿的运动。
此外,显示单元120可以将用户图像显示在处于预设或可移动的显示位置处的画中画(PIP)屏幕上。
控制单元130控制显示装置100的全部操作。
控制单元130控制上述通信单元110和显示单元120的操作。如果通过捕捉操作产生用户图像,则控制单元130产生与用户图像有关的元数据以便将参考图像与用户图像同步,并且将所述元数据增加和存储在用户图像中。
例如,与用户图像有关的元数据可以包括与用户图像和参考图像有关的标识信息、图像运行时间、参考图像的起始时间和结束时间以及用户脚本中的至少之一。
与参考图像有关的元数据根据参考图像的类型可以具有不同的值。例如,如果参考图像是预先制作的内容,则与参考图像有关的元数据可以包括与参考图像ID、图像运行时间以及参考图像的起始时间和结束时间中的至少之一有关的信息。可替换地,如果参考图像是实时广播内容,则与参考图像有关的元数据可以包括与参考图像ID、实时广播内容的广播时间以及广播内容的起始时间和结束时间中的至少之一有关的信息。
如果产生与参考图像相对应的用户图像,则控制单元130可以修改参考图像的元数据。例如,可以将所产生的用户图像ID添加到参考图像的元数据。在此情形中,控制单元130可以修改参考图像的元数据。例如,可以修改参考图像的元数据以包含用户图像的标识信息。
此外,显示装置100可以进一步包括语音识别单元(未示出)。语音识别单元可以包括麦克风和分析通过麦克风接收的用户的语音的音频处理器。在此情形中,控制单元130可以将通过语音识别单元(未示出)识别出的主体的语音转换为文本,将经转换的文本与用户图像同步,并且存储经同步的文本。具体地,控制单元130使用语音识别模块和语音数据库来识别语音。可以将语音识别划分为对每个发出的词分开识别的单独词识别、识别连续词、连续句子和对话语音的连续谈话识别,以及处于单独词识别和连续谈话识别之间并且检测和识别预定关键词的关键词发现(spotting)。如果用户语音被输入,则控制单元130通过检测输入语音信号内部由用户发出的语音的起始点和结束点来确定语音片段(section)。控制单元130可以计算出输入语音信号的能量,根据所计算的能量对语音信号的能量水平进行分类,并且使用动态编程来检测语音片段。控制单元130通过在检测到的语音片段内的语音信号中基于声学模型检测作为语音的最小单元的音素来产生音素数据。控制单元130通过将隐马尔科夫模型(Hidden Markov Model,HMM)应用于所产生的音素数据来产生文本信息。然而,如上所述,识别用户语音的以上方法仅仅是示例性实施例,并且可以使用其它方法识别用户语音。
此外,控制单元130可以接收参考图像以及与参考图像同步的用户图像。控制单元130可以控制显示单元120在被划分的屏幕的各个部分上显示所接收的参考图像和用户图像。
在此情形中,如果识别出具有方向性的用户的运动,则控制单元130可以根据用户运动的方向划分屏幕。在识别用户运动的一个实例中,控制单元130可以通过使用运动识别模块将具有运动的区域从它的背景分离以识别连续的运动。如果用户的运动被输入,则控制单元130以帧为单位存储所接收的图像并且感测对象(例如,用户的手等等),即用户的运动的主体。控制单元130通过感测帧中所包含的对象的形状、颜色和运动中的至少之一来检测对象。控制单元130使用包含在多个帧中的每个对象的位置可以跟踪所检测到的对象的运动。
此外,控制单元130可以控制显示单元不仅显示所接收的参考图像和用户图像而且也可以显示由显示装置100产生的用户图像。
如果参考图像是实时广播内容,则与参考图像一起被接收的用户图像可以是在与显示装置100的时区不同的时区的区域中被捕捉的图像。例如,与参考图像一起被接收的用户图像可以是在比显示装置100所处区域的时区更早的时区的区域中被捕捉的图像。例如,在时间周期早于韩国的时间周期的美国,相同日期和时间在美国广播的广播内容可以稍后在韩国广播。因此,在相应参考图像在韩国广播时,捕捉居住在美国的用户的用户图像可以与相同的参考图像一起被提供。
可以应用示例性实施例的实例场景是在观看特定内容的同时,用户进入学习模式以学习内容的对象的运行的场景。如果屏幕被划分为超过三个屏幕,则控制单元130可以将参考图像显示在作为被划分的屏幕之一的第一屏上,并且将捕捉不同主体的用户图像显示在其它屏幕上。因此,使用以上场景的实例,多个用户可以使用学习模式以共同学习运动。此外,如果屏幕被划分为超过三个屏幕,则控制单元130可以将参考图像显示在作为被划分的屏幕之一的第一屏幕上,并且将捕捉不同时区中的不同用户的用户图像显示在其它屏幕上。因此,在以上场景的实例中,多个用户可以使用学习模式以共同学习运动。
图2B是示出显示装置的详细配置的框图。
根据图2B,显示装置100’包括通信单元110、显示单元120、控制单元130、图像处理单元140(例如,图像处理器)、用户界面单元150(例如,用户界面)以及存储单元160(例如,存储器或内存)。从以上组件当中,将不会进一步针对图2B描述在图2A中示出的组件。
图像处理单元140处理通过通信单元110、调谐器等接收的图像。具体地,图像处理单元140执行诸如包括视频解码的信号处理、格式分析以及添加图形用户界面(GUI)的操作。
用户界面单元150接收用户命令。具体地,用户界面单元150可以通过遥控器(未示出)接收用户命令,或者根据从外部照相机(未示出)输入的用户的运动来接收用户命令。这里,用户运动可以是具有诸如左、右、上或下的方向性的运动。
可替换地,可以将用户界面单元150实现为在显示装置100内部形成的内部照相机(未示出)。这里,可以将外部照相机(未示出)或内部照相机(未示出)实现为深度照相机和彩色照相机之一。就是说,可以将外部照相机(未示出)或内部照相机(未示出)实现为深度照相机、彩色照相机、或将深度照相机和彩色照相机合并的照相机。
存储单元160存储相对于所接收的参考图像产生的用户图像。此外,存储单元160可以存储通过转换上述用户语音所产生的文本文件,并且可以将这样的文本文件与用户图像同步然后存储。可替换地,可以不将文本文件配置为单独的文件,而是,可以将其并入用户图像中并且存储。
进一步,存储单元160可以存储与预定运动相对应的用户命令。这里,存储单元160可以具有预定的存储容量,并且可以将通过内部或外部照相机(未示出)捕捉的图像存储在记录介质中。在此情形中,所述记录介质可以是诸如硬盘驱动器(HDD)的磁记录介质、诸如内存卡和闪存的半导体记录介质以及诸如数字多功能盘(DVD)的光记录介质。
存储单元160也可以再现在记录介质中存储的被捕捉的图像。在此情形中,存储单元160可以包含提供时移功能的循环缓冲区域,并且控制单元130可以通过控制每个功能单元提供时移功能。
这里,时移功能指代再现在当前时间点之前捕捉的图像以便允许用户观看在当前时间点之前捕捉的图像的功能。
通过记录和保护特定量的图像达预定时间段可以提供时移功能。例如,如果使用时移功能,则当前被捕捉图像在同时被显示在屏幕上时,可以作为数字信息被自动存储在硬盘中。因此,如果按下“停止”按钮并且按下“播放”按钮,则可以将已存储的图像从它被停止的点开始再现。此外,可以再次观看或慢速再现当前被捕捉的图像,并且可以跳过某一部分以便找到和再现期望的部分。
图3是示出根据示例性实施例的服务器的配置的框图。根据图3,服务器200包括通信单元210(例如,收发器)、存储单元220(例如,存储器或内存)以及控制单元230(例如,控制器)。
通信单元210从显示装置100和100’接收在显示参考图像的同时捕捉主体的图像的用户图像。此外,通信单元210可以将所接收的用户图像发送给另一显示装置(未示出)。通信单元210也可以将预先制作的参考图像发送给显示装置100和100’。
存储单元220存储预先制作的图像和从显示装置100和100’接收的用户图像中的至少之一。这里,用户图像可以是通过元数据与参考图像同步的图像。
控制单元230控制服务器200的全部操作。具体地说,控制单元230可以控制通信单元210向外部显示装置(未示出)提供用户图像和存储在存储单元220中的参考图像中的至少之一。
具体地,响应于来自外部显示装置(未示出)的请求,控制单元230可以一起提供存储在存储单元220中的参考图像和与参考图像同步的用户图像。
然而,如果参考图像是实时广播内容,则可以将广播内容的记录图像提供为参考图像,并且可以提供与参考图像同步的用户图像。在此情形中,可以将参考图像存储在个人视频记录器(PVR)中,或者存储在单独的服务器(未示出)中。
图4A至4D是示出根据各种示例性实施例的数据形式的视图。
图4A是示出根据示例性实施例的参考图像的元数据形式的视图。如图4A中所示,如果参考图像是诸如VOD内容的预先制作的内容,则参考图像的元数据可以包括参考图像的标识(ID)、运行时间、用户图像的ID及其它信息。这里,其它信息可以是参考图像的标题或类型。然而,在一些情形中可以不包括用户图像的ID。
图4B是示出根据另一示例性实施例的参考图像的元数据形式的视图。如图4B中所示,如果参考图像是实时广播内容,则参考图像的元数据可以包括参考图像的ID、广播内容的起始时间和结束时间、广播时间、用户图像的ID以及其它信息。这里,广播时间意味着标准时间并且可以是EST或PST。参考图像的起始时间和结束时间可以是在发送相应广播的区域的时间周期中的广播的起始时间和结束时间。然而,在一些情形中可以不包括用户图像的ID。
图4C是示出根据示例性实施例的用户图像的元数据形式的视图。如图4C中所示,用户图像的元数据可以包括用户图像的ID、运行时间、参考图像的ID、参考图像的起始时间和结束时间、用户脚本以及其它信息。这里,其它信息可以是用户图像的标题和类型。参考图像的起始时间和结束时间可以包括指示用户记录图像在参考图像中所处位置的值。
图4D是示出根据示例性实施例的用户脚本部分的形式的视图。如图4D中所示,用户脚本可以包括用户图像的再现位置以及相应的脚本信息。
图5是示出根据示例性实施例的用户图像元数据的详细配置的视图。如图5中所示,用户图像的起始点和结束点可以是记录用户图像的起始点和结束点。
图6A和6B是示出根据示例性实施例的显示形式的视图。图6A示出根据示例性实施例的将参考图像(A)和捕捉电视机前的用户的用户图像(B)显示在被划分的屏幕上的实例。图6B示出根据另一示例性实施例的将参考图像(A)、捕捉电视机前的用户的用户图像(B)以及捕捉跟学参考图像(A)的另一用户的图像(C)显示在被划分的屏幕上的实例。这里,可以从服务器200发送所述其它用户图像(C)。
如图6A和6B中所示,可以将参考图像和用户图像以诸如PIP或PIG的各种形式显示在被划分的屏幕上。在此情形中,可以用遥控器或用户运动来调节图像的位置或尺寸。
图7A和7B是示出根据另一示例性实施例的显示形式的视图。图7A和7B示出根据示例性实施例的使用语音识别技术将用户的语音命令转换为文本并且将文本与用户图像一起提供的实例。
如图7A中所示,可以将另一用户图像与以脚本710形式的用户的语音命令一起提供,并且这是可能的,因为使用语音识别技术将被转换为文本形式的语音命令与用户图像一起存储。在此情形中,如图中所示,可以将具备在所述其它用户图像中的脚本的部分用特定的标识记号显示在图像的播放条中。
此外,如图7B中所示,可以使用语音识别技术在相应的时间以脚本的形式提供当前用户的语音命令720。
图8A至8C示出根据示例性实施例所提供的UI形式的视图。如图8A中所示,如果有能够与参考图像一起提供的用户图像,则可以将与参考图像和用户图像有关的缩略图像和相关信息列出并显示在屏幕上。在此情形中,如图8B中所示,提供选项820以便用户可以在所提供列表上选择所期望的参考图像和另一用户图像。此外,如图8C中所示,如果参考图像是实时广播内容并且将相应内容与另一用户图像映射,则可以将通知用户相应信息的警报消息830显示在屏幕上。这是其它用户居住的区域的时区晚于当前用户居住的区域的情形。
图9是解释根据示例性实施例的控制显示装置的方法的流程图。
根据图9中所示的控制显示装置的方法,首先,将所接收的参考图像显示在屏幕上(S910)。这里,参考图像可以是预先制作的内容或者是实时广播内容。接下来,产生并存储捕捉跟学包含在所显示的参考图像中的对象或者根据在参考图像中显示或者执行的指令而执行动作的主体的用户图像(S920)。
产生与用户图像有关的元数据并且将其添加到用户图像以便可以将所存储的用户图像与参考图像同步(S930)。这里,与用户图像有关的元数据可以包括与用户图像和参考图像有关的标识信息、图像运行时间、参考图像的起始时间和结束时间以及用户脚本中的至少之一。
随后,将其中添加了所产生的元数据的用户图像发送给外部服务器(S940)。此外,可以将所产生的用户图像与参考图像一起显示。进一步,可以识别主体的语音,可以将所识别的语音转换为文本,并且可以将被转换的文本与用户图像同步并且将其存储。
图10是解释根据另一示例性实施例的控制显示装置的方法的流程图。
根据图10中所示的控制显示装置的方法,接收参考图像和捕捉跟学包含在被同步的参考图像中的对象的主体的用户图像(S1010)。这里,所述参考图像可以是预先制作的内容或者是实时广播内容。
随后,可以将所接收的参考图像和用户图像分别显示在被划分的屏幕上(S1020)。此外,如果参考图像是实时广播内容,则用户图像可以是在具有与显示时区不同的时区的区域中被捕捉的图像。
图11是解释根据示例性实施例的控制服务器的方法的流程图。
根据图11中所示的控制服务器的方法,在参考图像被显示在第一显示装置上的同时,接收捕捉跟学包含在参考图像中的对象的主体的用户图像(S1110)。
随后,响应于来自第二显示装置的请求,将用户图像发送给第二显示装置(S1120)。此外,如果参考图像是被预先制作并且存储的内容,则服务器可以将参考图像发送给第一显示装置,并且也可以不但向第二显示装置提供用户图像而且提供参考图像。
这里,用户图像可以包含要与参考图像同步的元数据。在此情形中,与用户图像有关的元数据可以包括与用户图像和参考图像有关的标识信息、图像运行时间、参考图像的起始时间和结束时间以及用户脚本中的至少之一。
如上所述,通过将用户图像与参考图像同步并且存储被同步的图像,用户可以很容易地比较参考图像与用户图像,并且把这样的用户图像与其他用户(例如,朋友)分享。因此,用户可以拥有与其他用户一起锻炼(work out)或观看电视的体验。具体地说,用户可以感觉像与生活在不同时区的其他地区的其他用户一起观看实时广播内容。
因此,不用购买任何昂贵的内容或设备,用户可以在仅仅用附接到电视机的照相机观看内容的同时,进入帮助/学习相对于他或她想要的任何内容而做出正确姿势的学习模式。
虽然不限于此,但是示例性实施例可以被实例化为在计算机可读记录介质上的计算机可读代码。计算机可读记录介质是能够存储此后能够被计算机系统读取的数据。计算机可读记录介质的实例包括只读存储器(ROM)、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光学数据存储设备。也可以将计算机可读记录介质分布在被网络耦接的计算机系统上以便以分布的方式存储和运行计算机可读代码。此外,可以将示例性实施例写为计算机程序,并且将其实现在运行所述程序的通用或专用数字计算机中。
虽然已经示出和描述了几个示例性实施例,但是本领域技术人员应当理解,在不脱离其范围在权利要求书及其等价物中定义的本发明构思的原理和精神的情况下,可以在本实施例中进行改变。

Claims (15)

1.一种用于控制显示装置的方法,包括:
接收参考视频和可与参考视频同步的第一用户视频;以及
在被划分的屏幕上分别显示所接收的参考视频和第一用户视频;
其中,所述第一用户视频是捕捉跟学包含在参考视频中的对象的主体的视频,或者是捕捉根据在参考视频中显示或执行的指令执行动作的主体的视频。
2.如权利要求1中所述的方法,进一步包括:
产生捕捉跟学包含在参考视频中的对象的第二主体,或者捕捉根据在参考视频中显示或执行的指令执行动作的第二主体的第二用户视频;以及
在其中显示参考视频和第一用户视频的屏幕的一部分上显示所产生的第二用户视频。
3.如权利要求2所述的方法,进一步包括:
将第二用户视频发送给外部服务器,
其中,所述产生第二用户视频的步骤包括通过添加用于将参考视频与第二用户视频同步的元数据来产生第二用户视频。
4.如权利要求2所述的方法,进一步包括:
识别第二主体的语音并且将所识别的语音转换为文本;以及
将所转换的文本与第二用户视频同步并且存储被同步的视频。
5.如权利要求2所述的方法,其中,第二用户视频的元数据包括第二用户视频和参考视频的标识信息、视频运行时间、参考视频的起始点和结束点以及用户脚本中的至少之一。
6.如权利要求1所述的方法,其中,所述参考视频是从外部服务器提供的内容或者实时广播内容。
7.如权利要求6所述的方法,其中,如果参考视频是实时广播内容,则第一用户视频是在时区不同于显示装置所处时区的区域中被捕捉的视频。
8.一种用于控制服务器的方法,包括:
从第一显示装置接收与参考视频同步的第一用户视频;以及
一旦接收到来自第二显示装置的请求,就向第二显示装置发送第一参考视频和第一用户视频;
其中,第一用户视频是捕捉跟学包含在参考视频中的对象的第一主体的视频,或者捕捉根据在参考视频中显示或执行的指令执行动作的主体的视频。
9.如权利要求8中所述的方法,进一步包括:
从第二显示装置接收与参考视频同步的第二用户视频,
其中,第二用户视频是捕捉跟学包含在参考视频中的对象的第二主体的视频,或者捕捉根据在参考视频中显示或执行的指令执行动作的第二主体的视频。
10.如权利要求8所述的方法,其中,所述第一用户视频包含用于与参考视频同步的元数据,
其中,所述元数据包括第二用户视频和参考视频的标识信息、视频运行时间、参考视频的起始点和结束点和用户脚本中的至少之一。
11.一种显示装置,包括:
收发器,其接收参考视频以及可与参考视频同步的第一用户视频;
显示器;以及
控制器,其控制显示器在被划分的屏幕上分别显示所接收的参考视频和第一用户视频,
其中,所述第一用户视频是捕捉跟学包含在参考视频中的对象的主体的视频,或者捕捉根据在参考视频中显示或执行的指令执行动作的主体的视频。
12.一种服务器,包括:
收发器,其与第一显示装置和第二显示装置通信;
存储器,如果通过收发器从第一显示装置接收到与参考视频同步的第一用户视频,则存储所接收的第一用户视频;以及
控制器,一旦接收到来自第二显示装置的请求,则控制收发器向第二显示装置发送参考视频和第一用户视频,
其中,所述第一用户视频是捕捉跟学包含在参考视频中的对象的第一主体的视频,或者捕捉根据在参考视频中显示或执行的指令执行动作的主体的视频。
13.一种用于控制显示装置的方法,包括:
在屏幕上显示所接收的参考视频;
产生捕捉跟学包含在参考视频中的对象的主体的用户视频并且存储所产生的用户视频,或者捕捉根据在参考视频中显示或执行的指令执行动作的主体的视频;以及
显示所存储的用户视频并且将所存储的用户视频发送给外部服务器。
14.如权利要求13中所述的方法,其中,所述存储用户视频的步骤包括通过将用户视频的元数据添加到用户视频用于与参考视频的同步,来存储用户视频。
15.一种显示装置,包括:
显示器,其在屏幕上显示所接收的参考视频;
控制器,其控制以产生捕捉跟学包含在参考视频中的对象的主体的用户视频,或者捕捉根据在参考视频中显示或执行的指令执行动作的主体的视频,并且存储和显示所产生的用户视频;以及
收发器,将所存储的用户视频发送给外部服务器。
CN201380023388.0A 2012-05-14 2013-05-14 显示装置、服务器及其控制方法 Pending CN104272753A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020120051192A KR20130127338A (ko) 2012-05-14 2012-05-14 디스플레이 장치, 서버 및 그 제어 방법
KR10-2012-0051192 2012-05-14
PCT/KR2013/004269 WO2013172636A1 (en) 2012-05-14 2013-05-14 Display apparatus, server, and controlling method thereof

Publications (1)

Publication Number Publication Date
CN104272753A true CN104272753A (zh) 2015-01-07

Family

ID=48607001

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201380023388.0A Pending CN104272753A (zh) 2012-05-14 2013-05-14 显示装置、服务器及其控制方法

Country Status (6)

Country Link
US (1) US20130300934A1 (zh)
EP (1) EP2665290A1 (zh)
JP (1) JP2013240052A (zh)
KR (1) KR20130127338A (zh)
CN (1) CN104272753A (zh)
WO (1) WO2013172636A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105812920A (zh) * 2016-03-14 2016-07-27 腾讯科技(深圳)有限公司 媒体信息处理方法及媒体信息处理装置
CN105959773A (zh) * 2016-04-29 2016-09-21 魔方天空科技(北京)有限公司 多媒体文件的处理方法和装置

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006041885A (ja) * 2004-07-27 2006-02-09 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
KR20150004156A (ko) * 2013-07-02 2015-01-12 삼성전자주식회사 디스플레이 장치 및 그 방법
CN105208422A (zh) * 2014-06-26 2015-12-30 联想(北京)有限公司 一种信息处理方法及电子设备
KR102185700B1 (ko) * 2014-11-28 2020-12-02 삼성전자주식회사 디스플레이 장치 및 이의 정보 제공 방법
CA3001480C (en) * 2015-10-16 2019-06-18 Tribune Broadcasting Company, Llc Video-production system with dve feature
KR20180062898A (ko) * 2016-12-01 2018-06-11 주식회사 부림 입출력을 공유하는 영상처리장치
CN106791920A (zh) * 2016-12-05 2017-05-31 深圳活控文化传媒有限公司 一种视频数据处理方法及其设备
CN106792080A (zh) * 2016-12-07 2017-05-31 北京小米移动软件有限公司 视频播放方法及装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5682326A (en) * 1992-08-03 1997-10-28 Radius Inc. Desktop digital video processing system
CN1679990A (zh) * 2004-04-05 2005-10-12 因特斯特鲁克图雷株式会社 形态评价系统及其方法
US20070118868A1 (en) * 2005-11-23 2007-05-24 Microsoft Corporation Distributed presentations employing inputs from multiple video cameras located at multiple sites and customizable display screen configurations
US20080003985A1 (en) * 2006-06-30 2008-01-03 Samsung Electronics Co., Ltd. Screen display method and apparatus for mobile device
US20090125955A1 (en) * 2007-11-08 2009-05-14 At&T Bls Intellectual Property, Inc Methods, computer program products, and virtual servers for a virtual collaborative environment
KR20100047734A (ko) * 2008-10-29 2010-05-10 주식회사 대우일렉트로닉스 방송 수신 장치 및 이를 이용한 영상 재생 방법
CN101960840A (zh) * 2008-02-29 2011-01-26 Lg电子株式会社 使用个人视频录像机的图像比较设备以及使用该图像比较设备的方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3599090B2 (ja) * 1998-11-12 2004-12-08 船井電機株式会社 テレビジョン切換制御装置
US8613620B2 (en) * 2005-07-26 2013-12-24 Interactive Sports Direct Incorporated Method and system for providing web based interactive lessons with improved session playback
US8953909B2 (en) * 2006-01-21 2015-02-10 Elizabeth T. Guckenberger System, method, and computer software code for mimic training
US20090063991A1 (en) * 2007-08-27 2009-03-05 Samuel Pierce Baron Virtual Discussion Forum
US8620146B1 (en) * 2008-03-28 2013-12-31 Theresa Coleman Picture-in-picture video system for virtual exercise, instruction and entertainment
JP2010069102A (ja) * 2008-09-19 2010-04-02 Sony Corp 情報処理方法、情報処理装置、プログラム、およびコンピュータ読み取り可能な記録媒体
JP5453015B2 (ja) * 2009-08-10 2014-03-26 十条電子株式会社 撮像表示装置及び撮像表示方法
JP5407708B2 (ja) * 2009-09-29 2014-02-05 株式会社Jvcケンウッド 撮影映像処理装置、制御方法及びプログラム
US9503550B2 (en) * 2011-09-28 2016-11-22 Elwha Llc Multi-modality communication modification

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5682326A (en) * 1992-08-03 1997-10-28 Radius Inc. Desktop digital video processing system
CN1679990A (zh) * 2004-04-05 2005-10-12 因特斯特鲁克图雷株式会社 形态评价系统及其方法
US20070118868A1 (en) * 2005-11-23 2007-05-24 Microsoft Corporation Distributed presentations employing inputs from multiple video cameras located at multiple sites and customizable display screen configurations
US20080003985A1 (en) * 2006-06-30 2008-01-03 Samsung Electronics Co., Ltd. Screen display method and apparatus for mobile device
US20090125955A1 (en) * 2007-11-08 2009-05-14 At&T Bls Intellectual Property, Inc Methods, computer program products, and virtual servers for a virtual collaborative environment
CN101960840A (zh) * 2008-02-29 2011-01-26 Lg电子株式会社 使用个人视频录像机的图像比较设备以及使用该图像比较设备的方法
KR20100047734A (ko) * 2008-10-29 2010-05-10 주식회사 대우일렉트로닉스 방송 수신 장치 및 이를 이용한 영상 재생 방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105812920A (zh) * 2016-03-14 2016-07-27 腾讯科技(深圳)有限公司 媒体信息处理方法及媒体信息处理装置
CN105812920B (zh) * 2016-03-14 2019-04-16 腾讯科技(深圳)有限公司 媒体信息处理方法及媒体信息处理装置
US10652613B2 (en) 2016-03-14 2020-05-12 Tencent Technology (Shenzhen) Company Limited Splicing user generated clips into target media information
CN105959773A (zh) * 2016-04-29 2016-09-21 魔方天空科技(北京)有限公司 多媒体文件的处理方法和装置

Also Published As

Publication number Publication date
US20130300934A1 (en) 2013-11-14
JP2013240052A (ja) 2013-11-28
EP2665290A1 (en) 2013-11-20
KR20130127338A (ko) 2013-11-22
WO2013172636A1 (en) 2013-11-21

Similar Documents

Publication Publication Date Title
CN104272753A (zh) 显示装置、服务器及其控制方法
US10945035B2 (en) Method and apparatus for augmenting media content
US10971188B2 (en) Apparatus and method for editing content
US10075673B2 (en) System and method for providing image
US10733574B2 (en) Systems and methods for logging and reviewing a meeting
US20120093481A1 (en) Intelligent determination of replays based on event identification
US8949123B2 (en) Display apparatus and voice conversion method thereof
KR102454761B1 (ko) 영상표시장치의 동작 방법
JP2019220848A (ja) データ処理装置、データ処理方法及びプログラム
JP2014132461A (ja) 電子装置でコンテンツを制御する装置及びその方法
CN114531564A (zh) 处理方法及电子设备
US10880515B2 (en) Audio-video reproduction for closed caption display control based on multi-media content
CN106954093A (zh) 全景视频处理方法、装置及系统
CN113411532B (zh) 记录内容的方法、装置、终端及存储介质
KR102524180B1 (ko) 디스플레이장치 및 그 제어방법
CN116097655A (zh) 显示装置及其操作方法
KR20140084463A (ko) 화자 정보를 표시하는 장치 및 방법 그리고, 동영상을 편집하는 서버
KR100944958B1 (ko) 특정 구간의 멀티미디어 데이터 및 캡션 데이터를 제공하는장치 및 서버
JPWO2013084422A1 (ja) 情報処理装置、通信端末、情報検索方法、及びプログラム
US20230209102A1 (en) Electronic device and operating method therefor
KR102143633B1 (ko) 영상 디스플레이 방법 및 장치
JP2013088738A (ja) 手話通訳映像表示制御装置、手話通訳映像表示制御方法及び手話通訳映像表示制御プログラム
JP2017060059A (ja) 制御プログラム、記憶媒体、携帯通信機、番組関連情報提供装置及び番組関連情報表示方法
KR20150067582A (ko) 영상 디스플레이 방법 및 장치
JP2011229139A (ja) 記録装置、記録システム、表示装置、テレビジョン受像機、記録方法、プログラム、および、記録媒体

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20150107