CN103384874B - 叠加注解输出 - Google Patents
叠加注解输出 Download PDFInfo
- Publication number
- CN103384874B CN103384874B CN201180068426.5A CN201180068426A CN103384874B CN 103384874 B CN103384874 B CN 103384874B CN 201180068426 A CN201180068426 A CN 201180068426A CN 103384874 B CN103384874 B CN 103384874B
- Authority
- CN
- China
- Prior art keywords
- video
- output
- display
- input
- equipment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
- H04N21/4307—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
- H04N21/43072—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
- H04N21/4307—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
- H04N21/43074—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of additional data with content streams on the same device, e.g. of EPG data or interactive icon with a TV program
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4788—Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/63—Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
- H04N21/632—Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing using a connection between clients on a wide area network, e.g. setting up a peer-to-peer communication via Internet for retrieving video segments from the hard-disk of other client devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/15—Conference systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- Library & Information Science (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Telephone Function (AREA)
Abstract
大体描述了有效地显示第一输出、同时在第一输出上叠加地显示与用户输入相对应的第二输出的系统和方法的技术。在一些示例中,与第一输出同时且叠加在第一输出上,在显示器上显示第二输出。第二输出对应于用户输入。在显示器上、第一输出和第二输出重叠的区域中,第二输出是不透明的,并且第一输出透过不透明的第二输出可见。在显示器上、第一输出和第二输出不重叠的区域中,第一输出是可见的。第一输出可以是视频电话会议的视频部分,第二输出可以对应于在电话会议期间从用户接收到的注解或注释。
Description
背景技术
现代计算设备提供了同时运行多个程序的能力。桌面计算机、膝上型计算机、平板计算机、个人数字助理、甚至是移动电话都具有允许多个应用程序同时运行的多处理能力。因此,在示例场景中,这种设备的用户可以执行播放视频的第一程序,同时执行记录用户输入(例如注释)的第二程序。
例如桌面或膝上型计算机的具有大显示器的计算设备能够同时在第一应用程序中显示视频、并在第二应用程序中记录用户输入。但是对于例如移动电话和个人数字助理的具有相对较小显示器的计算设备,同时观看两个应用程序是困难的,有时是不可能的。此外,取决于应用程序的特性和用户对这些应用程序的期望使用,在应用程序之间切换并不是有用的备选方案。例如,用户可能希望观看视频流(该视频流可能是例如视频电话会议),同时关于该视频流进行注释。在例如移动电话或PDA的具有相对较小显示器的设备上,无法同时呈现观看视频流的应用程序和进行注释的应用程序。此外,在两个应用程序之间切换使得用户无法同时进行两个活动(观看视频和进行注释),但如果不是由于技术的限制,用户会想要这么做。
发明内容
大体描述了有效地显示第一输出、同时在第一输出上叠加地显示与用户输入相对应的第二输出的系统和方法的技术。在第一输出和第二输出重叠的显示器的区域中,第二输出是不透明的,并且第一输出透过不透明的第二输出可见。在第一输出和第二输出不重叠的显示器的区域中,第一输出是可见的。
在示例场景中,第一输出可以是视频电话会议的视频流。第二输出包括在电话会议期间从用户接收到的注解或注释。注解或注释可对应于在显示第一输出的显示器上接收到的用户输入。显示器可以是例如触敏显示器,并且用户输入可以是在显示器上显示电话会议的视频流的同时在显示器上输入的手写注释或注解。因此,在显示视频电话会议的视频的同时,操作者可以在显示器上进行注释或注解,并且在视频输出上叠加地显示与这些用户输入相对应的标记或输出。在视频(即,第一输出)和注解(即,第二输出)重叠的显示器的区域中,注解是不透明的,并且视频透过不透明的第二输出可见。在第一输出和第二输出不重叠的显示器的区域,第一输出是可见的。
根据所公开实施例的另一方面,可以同使第一输出和第二输出同步的信息一起存储第一输出和第二输出。例如,在第一输出是视频输出以及第二输出包括用户输入的注释或注解的示例场景中,同与相对于视频显示特定注释或注解的时间有关的同步信息一起存储视频和注解。在稍后的时间处可以取回第一输出、第二输出和同步信息,并用于根据原始显示的输出的定时顺序来显示输出。例如,在所存储的第一输出是视频以及所存储的第二输出表示在播放视频期间进行的注释或注解的示例场景中,播放取回的存储的视频,并以适当的时间间隔在播放的视频上叠加注解,以重新创建相对于播放视频进行原始标记的定时。
根据所公开实施例的另一方面,响应于用户命令和/或预定偏好和显示设备所强加(或施加)的规则,在显示器上移动或从显示器上移除注释或注解。例如,在第一输出是视频输出以及第二输出包括用户输入的注释或注解的示例场景中,用户可以请求在显示器上移动注解或注释。用户可以拖拽注解,以指示希望将注解移动到显示器的不同部分。类似地,响应于用户输入,系统可以从显示器上移除当前显示的注解。在另一实施例中,设备可以包括指定应该在显示了预定时间段之后将第二输出移动到显示器的特定部分或从显示器移除第二输出的预定规则。
该发明内容部分被提供用于以简化形式介绍将在具体实施方式部分进一步描述的概念的精选。该发明内容部分并不意在识别所请求主题的关键特征或必不可少的特征,也不意在用于限制所请求主题的范围。下面描述其他特征。
附图说明
图1示出了可以实现本文描述的主题的方面的示意计算布置。
图2示出了示意显示接口装置。
图3示出了其上显示有第一输出的示意显示装置。
图4示出了其上显示有第二输出的示意显示装置。
图5示出了其上同时显示有两个输出的示意显示装置。
图6示出了在适于提供叠加显示输出的示意计算设备中包括的示例逻辑组件的方框图。
图7是用于呈现在第一输出上叠加的第二输出的示例过程的流程图。
图8是用于存储和取回第一输出和第二输出的示例过程的流程图。
图9是用于在显示装置上移动第二输出以及从显示装置移除第二输出的示例过程的流程图。
图10是可以配置本文描述的主题的方面的计算环境的方框图。
具体实施方式
在以下详细说明中,参考了作为详细说明的一部分的附图。在附图中,类似符号通常表示类似部件,除非上下文另行指明。具体实施方式部分、附图和权利要求书中记载的示例性实施例并不是限制性的。在不脱离在此所呈现主题的精神或范围的情况下,可以利用其他实施例,且可以进行其他改变。应当理解,在此一般性记载以及附图中图示的本公开的各方案可以按照在此明确公开的多种不同配置来设置、替换、组合、分割和设计。
概述
现代计算设备提供了同时运行多个程序的能力。因此,在示例场景中,用户可以执行第一程序以播放视频,同时执行第二程序以记录用户输入,例如注释。例如桌面或膝上型计算机的具有大显示界面的计算设备能够同时在第一应用程序中显示视频、并在第二应用程序中记录用户输入。但是对于例如移动电话和个人数字助理的具有相对有限或较小显示接口的计算设备,同时观看两个应用程序是困难的。
大体公开了有效地显示第一输出、同时在第一输出上叠加地显示与用户输入相对应的第二输出的系统和方法的技术。在第一输出和第二输出重叠的显示器的区域中,第二输出是不透明的,并且透过不透明的第二输出可见第一输出。在第一输出和第二输出不重叠的显示器的区域中,第一输出是可见的。在示例场景中,第一输出可以是视频电话会议的视频部分,第二输出可以是在电话会议期间从用户接收到的注解或注释。可以在显示第一输出的显示器上接收到注解或注释。
示例计算布置
图1示出了可以实现本文描述的主题的方面的示意计算布置。具体地,图1示出了示例计算布置100,包括计算设备110,每个计算设备可适于如本文所示,提供叠加的输出。设备110可以包括例如桌面计算机110a、膝上型计算机110b、电话110c、平板计算设备110d、个人数字助理(PDA)110e以及移动电话110f中的任意一个,这些设备中的每个均适于同时显示例如来自两个正在执行的应用程序的两个输出馈送。在示例场景中,设备110a-f中的任意一个可以显示第一应用程序的输出,例如显示视频输出,同时显示第二应用程序的输入,例如显示设备操作者输入的注释或注解。更具体地,设备110a-f中的任意一个可被编程以显示视频,同时在触敏显示器上接收手写注解并在显示器上显示与注解相对应的标记。在备选场景中,设备110a-f中的任意一个可显示静止图像,同时显示设备操作者在显示图像的同时所输入的输入。
每个设备110可适于与通信网络150通信。通信网络150可以是适于提供计算设备110a-f与设备110a-f所访问的任意服务器之间的通信的任何类型的网络。通信网络150可以包括可使用不同技术的分立网络的组合。例如,通信网络150可以包括局域网(LAN)、广域网(WAN)、蜂窝网络或其组合。通信网络150可以包括无线、有线网络或其组合。在示例实施例中,通信网络150包括互联网,并且还包括适于与互联网通信的任意网络。通信网络150可以包括适于在设备110之间传送视频、音频和其他数据的无线电话网络。在特定场景中,电话网络适于在设备110之间传送视频电话会议。
图2示出了示意显示装置200。尽管显示装置200的大小可以根据其作为其中一部分的特定系统而不同,显示装置200可用作图1所示的任意设备中的显示组件。例如,如果显示装置200被包括在桌面系统110a中,则它可能比在显示装置200被包括在电话110f或PDA110e中的情况下要大。显示装置200可以是适于以电子方式显示输出并适于显示例如视频、静止图像、文本、图形以及可以以电子方式表示的任意其他类型的输出的任意设备。在示例实施例中,显示装置200还可以包括输入设备,例如触敏屏幕202。在示例实施例中,触敏屏幕202适于在其表面接收输入,并在与输入的位置相对应的位置处,在显示装置200上产生电子标记。例如,用户可以使用他/她的手指和手和/或指示设备(例如手写笔)在触敏屏幕202上进行输入,这体现为在与输入相对应的位置处在显示装置200上显示电子标记。
图3示出了在其上显示有第一输出310的示意显示装置200。在图3的示意实施例中,第一输出310表示个人的图像。在示例场景中,第一输出310可以是视频图像,并且可以是例如视频电话会议的视频流。虽然在图3所示的示例中,第一输出示意了个人的肖像,并且表示视频输出,但是第一输出310可以表示任意种类的肖像,并且可以是任意种类的内容,包括例如静止图像、图形和/或文本。此外,第一输出310可以是在显示装置200上呈现的任意输出。
图4示出了其上显示有第二输出410的示意显示装置200。在图4的示意实施例中,第二输出410是文本。在示例场景中,第二输出410可以是与用户输入相对应的文本。更具体地,第二输出410可包括与在触敏屏幕202上接收到的用户输入相对应的文本或通过其他输入装置(例如键盘或计算机化的语音识别)输入的文本。尽管在图4所示的示例中,第二输出410示意了文本,但是第二输出410可以表示任何种类的内容,包括例如视频、静止图像、图形和/或文本。
因此,如图3和图4所示,显示装置200适于显示第一输出310和第二输出410,在示例实施例中,第一输出310可以是电话会议的视频馈送,在示例实施例中,第二输出410可以是与用户输入相对应的文本或注解。对于例如移动电话110f和PDA110e之类的设备,显示装置200可能并未大到能够同时显示第一输出310和第二输出410。此外,由于使得用户无法同时参与多于一个活动,所以在显示装置200上显示的两个输出之间进行切换是不利的。
在示意实施例中,设备110a-f中的任意一个可以包括适于叠加两个输出的显示装置200。图5示出了其上同时显示有两个输出的示意显示装置200。如图所示,显示第一输出310,并在第一输出310之上叠加地显示第二输出410。在第二输出410与第一输出310重叠的显示装置200的区域中,第二输出310是不透明的,但是在第二输出410之下可见第一输出310。在第一输出310未与第二输出410重叠的区域,第一输出310清楚地可见。第二输出410可以具有使得在第二输出410之下可见第一输出310的透明度。第二输出410的透明度可变,并在两个输出重叠的部分中增加或降低第一输出310的可见度。此外,可以以特定的色彩方案来显示第二输出410,以便在仍然使得第一输出310可见的同时大致可辨别。在第二输出410对应于在触敏屏幕202上输入的用户输入的场景中,可以使用相对于显示第二输出310的背景突出的特定灰度颜色来显示第二输出410。在备选实施例中,第二输出410的颜色可以是适用于应用程序的红色、黄色、黑色或任意其他颜色,以便使得第二输出410大致可辨别。
第一输出310可以是任意类型的数据,包括例如视频、静止图像、图形、文本等。在示例场景中,第一输出310可以是视频流,更具体地,是音频/视频电话会议的视频流部分。第二输出410可以是与在查看视频流的同时接收到的用户输入相对应的输出。可以通过任意适当方式接收用户输入。在示例场景中,可以在触敏屏幕202上接收用户输入。在这种情况下,显示装置200的用户可以查看第一输出310,同时在触敏屏幕202上输入注释或注解。与接收到的用户输入相对应的第二输出410叠加在第一输出310上。用户能够查看第一输出310,同时捕获并显示可由第一输出310提示的注释和注解,即第二输出410。在第一输出310是电话会议的视频流的场景中,参与呼叫的人能够继续参与电话呼叫,并在触敏屏幕202上进行注释或注解的同时观看视频。在这种场景下,即使在第一输出310上叠加第二输出410,第一输出310也继续可见且可辨别。在显示装置200上显示视频、同时呈现手写注解的组合造成如下感觉:与可以在其上记录注释的玻璃隔板之后的某个人谈话。
图6示出了适于提供叠加显示输出的示意计算设备100中包括的示例逻辑组件的方框图。这些逻辑组件可以包括在任意类型的计算设备中,包括例如桌面计算机110a、膝上型计算机110b、电话110c、平板计算设备110d、PDA110e和移动电话110f。在示例实施例中,示意设备110可以包括接收数据控制逻辑610,用于接收要在显示装置200上显示的数据。例如,接收数据控制逻辑610可适于协调视频流或任意类型的数据的接收,任意类型的数据包括例如静止图像、文本和/或图形。
在示例实施例中,示意设备110还可包括用户界面输入控制逻辑612,用于控制从例如触敏屏幕、键盘等接收到的用户输入。在设备110适于显示静止图像或视频会议的视频流的示例场景中,用户界面输入控制逻辑612适于从触敏屏幕202接收输入。用户界面输入控制逻辑612可适于接收任意类型的用户输入,包括例如视频、图像、静止图像、文本和图形。类似地,用户界面输入逻辑612可适于控制来自任意适当输入设备的输入,任意适当输入设备包括例如触敏屏幕或显示器、物理键盘、虚拟键盘、指示鼠标、计算机化的语音识别系统等。用户界面输入逻辑612和接收数据控制逻辑610可包括在相同或分离的软件应用程序中。
输出控制逻辑614适于控制设备输出。例如,输出控制逻辑614可以在显示装置200上显示第一输出310并在第一输出310上叠加第二输出410。在示例场景中,输出控制逻辑614可适于显示视频会议的视频流以及叠加在视频流上的、与用户输入相对应的注解。在另一示例场景中,输出控制逻辑614可适于显示静止图像和从触敏屏幕202接收到的注解。输出控制逻辑614可包括在与接收数据控制逻辑610和用户界面输入控制逻辑612共同的应用程序中,但是备选地,可以与包括接收数据控制逻辑610和用户界面输入控制逻辑612的一个或多个应用程序分离。
输出控制逻辑614可适于在显示装置200上显示两个输出的同时保持第一输出310和第二输出410的完整性。换言之,即使在第二输出410叠加在第一输出310上的同时改变了第一输出310,也保持第二输出410的独特性。例如,在第一输出310包括视频输出,而视频输出的特性随时间而改变的情况下,第二输出410的独特性和清晰度不受第一输出310中包括的视频流的连续改变的影响。输出控制逻辑614可在显示之前缓存与输出310和410相对应的数据,并且可以将针对第二输出410所缓存的数据映射到针对第一输出310所缓存的数据上。例如,输出控制逻辑614可将针对第二输出410和第一输出310的数据映射到显示装置200上的像素位置处。映射可以控制分离的输出310和410的完整性。输出控制逻辑614然后传送映射到第一输出310的数据上的第二输出410的数据,以便进行显示。
接收数据存储器616包括用于存储接收到并在显示装置200上显示的数据的逻辑和计算存储器。例如,接收数据存储器616存储第一输出310的拷贝。在设备110适于接收视频会议的视频流的示例场景中,可以在接收数据存储器616中存储视频流和对应的音频流。
用户输入数据存储器618包括用于存储与用户输入相对应的数据以及其对应输出的逻辑和计算存储器。例如,在触敏屏幕202上接收到用户输入的示例场景中,在用户输入数据存储器618中存储与输入相对应的数据以及在显示装置200上产生的对应输出。此外,可以在用户输入数据存储器618中存储可用于将用户输入数据以及对应输出与任何其他输出(例如,视频输出)同步的任何数据。例如,可以记录关于视频的显示的、与输入的接收定时以及对应输出的产生定时相关的信息。定时信息可以是适于同步两种输出的显示以与原始显示的定时间隔一致的任意种类的信息。定时信息可以包括绝对定时信息,或者可以是相对于第一输出的播放时间的定时信息。例如,定时信息可以指定在对应第一输出的播放时间的三分钟内显示特定第二输出。
同步控制逻辑614适于控制所存储数据的同步显示。例如,响应于显示616所存储数据的请求,同步控制逻辑适于从存储器616和618中取回数据,并使用在存储器618中存储的同步信息,以使得输出控制逻辑614显示所存储的数据,以与两个输出流的原始显示的定时一致。例如,在显示装置200上呈现的视频流上叠加地显示与在触敏屏幕202上接收到的用户输入相对应的输出的示例场景中,同步控制逻辑614适于以与在原始显示两个输出时应用的定时和顺序一致的方式,呈现来自数据存储器616和618的对应存储数据。
叠加输出处理
图7是用于呈现在第一输出310上叠加的第二输出410的示例过程的流程图。可以在包括例如设备110a-f中的任意一个的任意适当设备上实现该示例过程。示例过程可包括如块710、712和/或714中的一个或多个所示的一个或多个操作、动作或功能。此外,针对本文描述的该过程和/或方法以及其他过程和/或方法,尽管被示出为分立块,但是可以取决于所希望的实现方式,将各个块划分为附加的块、组合为更少的块、或者删除。处理可以开始于块710处。
在块710(提供第一输出)处,在显示装置200上显示第一输出310。第一输出310可以是适于在显示装置200上显示的任何输出。例如,第一输出310可以是视频、图像、静止图像、文本、图形或任意其他输出类型。在一个示例场景中,第一输出310可包括电话会议的视频流。与显示视频同步地,可以由设备110的扬声器组件输出与视频相对应的音频。处理可以从块710继续至块712。
在块712(接收输入)处,在设备110处接收用户输入。输入可以是适于在设备110上接收的任意输入,并且可以包括例如触摸输入、机械输入和/或音频输入。此外,可以经由任意适当输入设备来接收输入,适当输入设备包括例如触敏屏幕、物理键盘、虚拟键盘、鼠标、具有音频识别软件的麦克风等。在示例场景中,在显示装置200上显示第一输出310的同时在触敏屏幕202上显示输入。更具体地,可以在显示装置200上显示视频流(可以是视频电话会议流)的同时在触敏屏幕202上接收手写输入。处理可以从块712继续至块714。
在块714(提供叠加在第一输出上的第二输出)处,在显示装置200上显示与在块712处接收到的用户输入相对应的第二输出410。与第一输出310同时并且在第一输出310上叠加地显示第二输出410。在第一输出310和第二输出410重叠的显示装置220的区域中,第二输出410是不透明的,并且第一输出310透过不透明的第二输出410可见。第二输出410可以是至少部分透明的,以便第一输出310可以在显示装置200上可见。在第一输出310和第二输出410不重叠的显示装置200的区域中,第一输出310可见。
在第二输出410与第一输出310重叠的显示装置200的区域中,取决于设备操作者的偏好,不透明的程度或等级以及相反的透明度的等级可以改变。因此,不透明的等级可以从非常不透明改变至非常透明。类似地,在两个输出重叠的区域中第二输出410部分地使第一输出310被遮蔽或变暗的程度可以从非常大至非常小。事实上,在一些实施例中,第一输出310可以几乎完全被遮蔽,而在一些实施例中,第一输出310仅仅稍微被遮蔽。
在显示第一输出310的同时在块712处接收到作为至设备110的输入的注释或注解的示例场景中,在块714处,在与输入相对应的位置处,在显示装置200上显示与输入相对应的标记、注解和/或注释。更具体地,在触敏屏幕202上接收到用户的手写注解或注释时,在显示装置200上在第一输出310(可以是例如,音频/视频会议的视频输出)上叠加地显示对应注解。在备选实施例中,在物理或虚拟键盘上做出注解,并且在显示装置200上在第一输出310上叠加地显示对应的注释或注解。在另一实施例中,通过计算机化的语音识别来输入用户输入,并且在显示装置200上在第一输出310上叠加地显示对应输出。
在示例场景中,设备110操作用于在显示装置200上显示第一输出310和第二输出410的同时保持两个输出的完整性。换言之,即使在第二输出410叠加在第一输出310上的同时改变了第一输出310,也保持第二输出410的独特性。类似地,即使在第二输出410叠加在第一输出310上的同时改变了第二输出410,也保持第一输出310的独特性和完整性。在示例场景中,第一输出310包括视频输出。视频输出的特性在于随时间而改变,以便示出动作。第二输出410的独特性和清晰度不受第一输出310中包括的视频流的连续改变的影响。类似地,在第二输出410随时间而改变的场景中,例如在接收到连续手写注释时,保持第一输出310的独特性。
与在块714处提供输出有关,设备110可以以任意适当方式来保持输出310和410的完整性和独特性。在示例实施例中,与显示设备的典型操作一致地,显示装置200持续地刷新所呈现的数据。在示例场景中,设备110可在显示之前缓存与输出310和410相对应的数据。设备110(特别地,输出控制逻辑614)可将针对第二输出410所缓存的数据映射到针对第一输出310所缓存的数据上。例如,输出控制逻辑614可将针对第二输出410和第一输出310的数据映射到显示装置220上的像素位置处。缓存和映射使得可以控制分离的输出310和410的完整性。然后由显示装置200显示包括映射到第一输出310的数据上的第二输出410的数据在内的数据。可以例如由图形或控制显示装置200上的像素显示的显示控制器来实现在显示之前缓存和映射数据的逻辑。
根据可能的实施例的另一方面,可以存储第一输出310和第二输出410,并在稍后取回并显示。可以分离且独立地取回并显示输出。然而,也可以同时取回并显示输出,其中输出同步并按照在原始显示输出时所用的相对定时相同的相对定时显示。图8是用于存储和取回第一输出310和第二输出410的示例过程的流程图。示例过程可包括如块810、812、814和/或816中的一个或多个所示的一个或多个操作、动作或功能。处理可以开始于块810处。
在块810(存储第一输出)处,在例如数据库存储器616中存储第一输出310。例如,在第一输出310是视频电话会议的输出的示例场景中,视频流(在一些场景中,音频流)存储在数据库存储器616中。处理从块810继续至块812。
在块812(存储第二输出)处,在例如数据库存储器618中存储或记录第二输出410和对应的用户输入。例如,在接收到并在显示装置200上作为注释或注解显示用户输入的示例场景中,在块812处,在数据库存储器618中存储这些注解。处理可从块812继续至块814。
在块814(存储同步信息)处,存储使第二输出410与第一输出310同步的信息。例如,可以在用户输入数据存储器618中存储同步信息。所存储的同步信息可以是在记录和重新创建第二输出410相对于第一输出310的时间布置中有用的任何数据。换言之,可以记录指示何时相对于第一输出310显示第二输出410的数据。在第一输出310是音频/视频会议的视频流、且第二输出410包括与用户输入相对应的注解或注释的示例场景中,同步信息捕获相对于第一输出310的播放时间显示各个第二输出410的时间。作为示例,在显示包括视频流的第一输出310的三十秒内显示第二输出410的情况下,同步信息包括记录在视频流的30秒内显示第二输出410的信息。在记录了第一输出310的音频部分的实施例中,还可以记录使音频与第二输出410同步的信息。处理可从块814继续至块816。
在块816(取回并输出所存储的第一和/或第二输出)处,可以取回并显示针对第一输出310所存储的数据和/或针对第二输出410所存储的数据。例如,在所存储的第一输出310包括视频流和音频流、且所存储的第二输出410包括做出并叠加在视频流上的注解的情况下,在块816,可以从存储器中取回并显示所存储的信息。如上所述,第二输出410与第一输出310同步,以便与在原始显示第一输出310和第二输出410时的相对显示定时一致地,在相对于第一输出310的适当时间处显示第二输出410。在示例实施例中,所存储的第一输出310可包括视频和音频,并且所存储的第二输出410可包括注解。可以从存储器中取回所有数据,并与所存储的同步信息一致地显示。在另一场景中,可以仅回放所存储的输出中的一个或一部分。例如,可以与第一输出310分离地显示包括注释或注解的第二输出410。在另一示例场景中,可以取回并显示第二输出410,同时回放第一输出310的音频部分。在这种场景下,与音频回放同步地显示注解或注释,以与注释或注解相对于音频流的时间布置一致。
根据所公开实施例的另一方面,可以在显示装置200上移动第二输出410和/或从显示装置200移除第二输出410。这种功能在显示装置200相对较小并且第二输出410覆盖显示装置200的大部分或特定部分时特别有用。可以在显示装置200上移动第二输出410,使之不太引人注意。备选地,或者附加地,可以从显示装置200移除第二输出410。
图9是用于在显示装置上移动第二输出和/或从显示装置移除第二输出的示例过程的流程图。示例过程可包括如块910和/或912中的一个或多个所示的一个或多个操作、动作或功能。处理可开始于块910处。
在块910(移动第二输出的全部或部分)处,可以在显示装置200上移动第二输出410的全部或部分。例如,可以移动第二输出410,以使之较少地与第一输出310重叠。因此,在示例实施例中,可以响应于用户输入,在显示装置200上移动第二输出410。例如,可以响应于在第二输出410上的鼠标拖拽,移动第二输出410。在示例实施例中,可以在预定时间段之后,由设备110自动地移动第二输出410。例如,可在已经显示第二输出4105分钟之后,由设备110自动地将第二输出410移动到显示装置200的特定部分,例如底部。处理可从块910继续至块912。
在块912(移除第二输出的全部或部分)处,可以从显示装置200移除第二输出410的全部或部分。例如,可以响应于用户输入或响应于由设备110强加或施加的规则或需求,移除第二输出410。在示例场景中,可以响应于用户输入,从显示装置200移除第二输出410。例如,用户可以选择清除在显示装置200上显示的注释或注解的全部或部分,以为附加注释或注解留出空间。在示例实施例中,设备110可以包括指定在预定时间段期满之后应该移除与用户输入相对应的输出的规则。例如,在输出显示了10分钟之后,设备110可以从显示装置200移除。
示例计算环境
图10示出了可以用于实现在本文描述的系统和方法的示例计算系统1000的方框图。例如,计算系统1000可用于实现设备110a-f中的任意一个。计算系统1000可主要由软件形式的计算机可读指令控制。例如,可以由包括执行与本文所述一致功能的指令的计算应用程序1080来控制计算系统1000。计算机可读指令可包括用于计算系统1000存储和访问计算机可读指令本身的指令。这种软件可在中央处理单元(CPU)1010内执行以使得计算系统1000执行与之相关联的过程或功能。在多种已知的计算机服务器、工作站、个人计算机等中,CPU1010可以由微电子芯片CPU(所谓的微处理器)来实现。
在操作中,CPU1010可经由主数据传输通路或系统总线1005,从其他资源获取、解码和/或执行指令,并向其他资源传送信息。这种系统总线可以连接计算系统1000中的组件,并且可以定义用于数据交换的介质。计算系统1000还可包括与系统总线1005耦合的存储器设备。根据示例十四里,存储器设备可包括随机接入存储器(RAM)1025和只读存储器(ROM)1030。RAM1025和ROM1030可包括允许存储和取回信息的电路。在一个实施例中,ROM1030可包括无法修改的存储数据。此外,典型地可以由CPU1010或其他硬件设备读取或修改RAM1025中存储的数据。可以由存储器控制器1020控制对RAM1025和/或ROM1030的存取。存储器控制器1020可以提供地址转换功能,在执行指令时将虚拟地址转换为物理地址。
此外,计算系统1000可包括外设控制器1035,外设控制器1035可负责从CPU1010向外设(例如,触敏输入1040、键盘1045、鼠标1050以及音频输入和输出设备1055)传送指令。计算系统1000还可包括可由显示控制器1063控制的显示器1065。显示器1065可用于显示计算系统1000产生的虚拟输出,并且可对应于本文描述的显示装置2000。这种虚拟输出可包括文本、图形、动画、视频等。显示控制器1063可包括产生可发送至显示器1065的视频信号的电子组件。此外,计算系统1000可包括网络适配器1070,网络适配器1070可用于将计算系统2000连接至外部通信网络,例如上面结合图1所述的网络150。
因此,申请人公开了用于执行用户界面处理的系统和方法的示例实施例。申请人公开了用于显示第一输出并同时在第一输出上叠加地显示与用户输入相对应的第二输出的系统和方法。在第一输出和第二输出重叠的显示器的区域中,第二输出是不透明的,透过不透明的第二输出可见第一输出。在第一输出和第二输出不重叠的显示器的区域,第一输出可见。
应该理解,可以结合硬件或软件,或者在适当的情况下结合硬件和软件的组合,来实现本文描述的各种技术。因此,在本文描述的主题的方法和系统或其某个方面或部分可以具有在有形介质(例如,软盘、CD-ROM、硬盘驱动器或任意其他机器可读存储介质)中体现的程序代码(即,指令)的形式,其中,当机器(例如,计算机)加载并执行程序代码时,该机器变为用于实现本文描述的主题的设备。在介质上存储程序代码的情况下,可以在一个或多个介质上存储所述程序代码,所述一个或多个介质统一地执行所述动作,也就是说,所述一个或多个介质结合特定代码一起执行动作,但是在存在不只一个单个介质的情况下,不需要在任意特定介质上存储代码的任意特定部分。在可编程计算机上执行程序代码的情况下,计算设备大体上包括处理器、处理器可读的存储介质(包括易失性和非易失性存储器和/或存储单元)、至少一个输入设备和至少一个输出设备。例如通过使用API、可重用控制器等,一个或多个程序可以实现或使用结合本文描述的主题所述的过程。优选地以高级面向过程或面向对象的编程语言实现这种程序,以与计算机系统通信。然而,可以以汇编语言或机器语言(如果需要)来实现程序。在任何情况下,所述语言可以是编译语言或解释语言,并且与硬件实现方式相结合。
尽管示例实施例是在一个或多个单机计算机系统或设备的上下文中使用本文所述的主题的方面,但是本文描述的主题并不局限于此,而是可以结合任何计算环境来实现,例如网络或分布式计算环境。此外,可以在多个处理芯片或设备中实现本文描述的主题的方面,并且存储类似地分布在多个设备上。这种设备可包括个人计算机、网络服务器、手持设备、超计算机、或并入其他系统(例如汽车和飞机)的计算机。
尽管已经以结构特征和/或方法动作特定的语言描述了主题,但是应该理解,在所附权利要求书中限定的主题并不一定受限于上述特定特征或动作。例如,与音频/视频电话会议的视频部分的显示以及叠加从触敏屏幕或显示器接收到的注解相关地描述了多个示例场景。然而,本文描述的方法和系统可以应用于输出类型的任意组合。例如,第一输出可以是视频流,该视频流不是电话会议的一部分。第一输出可以是静止图像。可以通过键盘而不是触敏屏幕来输入第二输出。上述特定特征和动作被公开作为实现所附权利要求的主题的示例形式。
尽管在此公开了各种方面和实施例,但是其他方面和实施例对于本领域技术人员而言是显而易见的。本文公开的各种方面和实施例是用于示意,而并不意在限制,真实范围和精神由所附权利要求指示。
Claims (21)
1.一种用户界面处理方法,包括:
在显示器上播放视频;
在播放所述视频的同时并在所述视频在所述显示器上连续播放的同时在所述显示器的一部分上接收输入;以及
在接收所述输入的同时,在所述显示器上显示叠加在所述显示器的接收到所述输入的所述一部分处的所述视频上的输出,所述输出对应于接收到的输入,
其中,在所述显示器上、所述视频和所述输出重叠的区域中,所述视频透过所述输出可见,以及
其中,在所述显示器上、所述视频和所述输出不重叠的区域中,所述视频可见。
2.根据权利要求1所述的方法,其中,所述输入包括一个或多个注解,以及显示所述输出包括:显示所述一个或多个注解。
3.根据权利要求2所述的方法,其中,接收所述输入包括:经由触敏屏幕接收输入。
4.根据权利要求2所述的方法,其中,接收输入包括:经由计算机化的语音识别接收输入。
5.根据权利要求1所述的方法,其中,播放视频包括:播放音频/视频会议的视频流。
6.根据权利要求2所述的方法,还包括:
存储所述一个或多个注解;
存储所述视频;
存储使所述一个或多个注解与所述视频同步的信息;
取回所述视频、所述一个或多个注解、以及使所述一个或多个注解与所述视频同步的所述信息;以及
显示所取回的视频和所取回的一个或多个注解,所述一个或多个注解叠加在所述视频上并与所述视频同步。
7.根据权利要求1所述的方法,其中,播放视频包括:播放所述视频的第一部分和播放所述视频的第二部分,所述方法还包括:
在播放所述视频的第一部分的同时接收所述视频的第二部分。
8.一种用户界面处理装置,包括:
显示器;
输入设备;以及
计算处理器,所述计算处理器与所述显示器以及所述输入设备以通信方式耦合;
其中所述装置被配置为:
在所述显示器上播放视频;
经由所述输入设备在播放所述视频的同时并在所述视频在所述显示器上连续播放的同时在所述显示器的一部分上接收输入;以及
在接收所述输入的同时,在所述显示器上显示叠加在所述显示器的接收到所述输入的所述一部分处的所述视频上的输出,所述输出对应于所述输入,
其中,所述视频透过所述输出可见。
9.根据权利要求8所述的装置,其中,所述输入包括一个或多个注解,以及所述输出包括所述一个或多个注解。
10.根据权利要求9所述的装置,其中,所述输入设备包括触敏屏幕。
11.根据权利要求9所述的装置,其中,所述输入设备包括计算机化的语音识别。
12.根据权利要求8所述的装置,其中,所述装置被配置为通过播放音频/视频会议的视频流来播放所述视频。
13.根据权利要求9所述的装置,其中,所述装置还被配置为:
存储所述一个或多个注解;
存储所述视频;
存储使所述一个或多个注解与所述视频同步的信息;
取回所述视频、所述一个或多个注解、以及使所述一个或多个注解与所述视频同步的所述信息;以及
显示所取回的视频和所取回的一个或多个注解,所取回的一个或多个注解叠加在所取回的视频上并与所取回的视频同步。
14.根据权利要求8所述的装置,其中,播放视频包括:所述视频的第一部分和所述视频的第二部分,其中所述装置还被配置为:
在播放所述视频的第一部分的同时接收所述视频的第二部分。
15.一种用户界面处理设备,包括:
在显示器上播放视频的装置;
在播放所述视频的同时并在所述视频在所述显示器上连续播放的同时在所述显示器的一部分上接收输入的装置;以及
在接收所述输入的同时,在所述显示器上显示叠加在所述显示器的接收到所述输入的所述一部分处的所述视频上的输出的装置,所述输出对应于接收到的输入,
其中,在所述显示器上、所述视频和所述输出重叠的区域中,所述视频透过所述输出可见,以及
其中,在所述显示器上、所述视频和所述输出不重叠的区域中,所述视频可见。
16.根据权利要求15所述的设备,其中,所述输入包括一个或多个注解,以及显示输出的装置包括:显示所述一个或多个注解的装置。
17.根据权利要求16所述的设备,其中,接收输入的装置包括:经由触敏屏幕接收输入的装置。
18.根据权利要求16所述的设备,其中,接收输入的装置包括:经由计算机化的语音识别接收输入的装置。
19.根据权利要求15所述的设备,其中,播放视频的装置包括:播放音频/视频会议的视频流的装置。
20.根据权利要求16所述的设备,还包括:
存储所述一个或多个注解的装置;
存储所述视频的装置;
存储使所述一个或多个注解与所述视频同步的信息的装置;
取回所述视频、所述一个或多个注解、以及使所述一个或多个注解与所述视频同步的所述信息的装置;以及
显示所取回的视频和所取回的一个或多个注解的装置,所述一个或多个注解叠加在所述视频上并与所述视频同步。
21.根据权利要求15所述的设备,其中,播放视频的装置包括:播放所述视频的第一部分的装置和播放所述视频的第二部分的装置,所述设备还包括:
在播放所述视频的第一部分的同时接收所述视频的第二部分的装置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2011/071854 WO2012122706A1 (en) | 2011-03-16 | 2011-03-16 | Superimposed annotation output |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103384874A CN103384874A (zh) | 2013-11-06 |
CN103384874B true CN103384874B (zh) | 2016-09-28 |
Family
ID=46830030
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201180068426.5A Expired - Fee Related CN103384874B (zh) | 2011-03-16 | 2011-03-16 | 叠加注解输出 |
Country Status (6)
Country | Link |
---|---|
US (1) | US9715326B2 (zh) |
EP (1) | EP2686761A4 (zh) |
JP (1) | JP5852135B2 (zh) |
KR (1) | KR101452667B1 (zh) |
CN (1) | CN103384874B (zh) |
WO (1) | WO2012122706A1 (zh) |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2437512B1 (en) * | 2010-09-29 | 2013-08-21 | TeliaSonera AB | Social television service |
CN103297855B (zh) * | 2012-03-02 | 2015-05-20 | 腾讯科技(深圳)有限公司 | 一种应用展示方法以及一种终端 |
KR102042265B1 (ko) * | 2012-03-30 | 2019-11-08 | 엘지전자 주식회사 | 이동 단말기 |
US10152467B2 (en) | 2012-08-13 | 2018-12-11 | Google Llc | Managing a sharing of media content among client computers |
US20140232813A1 (en) * | 2013-02-20 | 2014-08-21 | Sprint Communications Company L.P. | Using metadata for video message modifications among wireless communication devices |
US9213472B2 (en) | 2013-03-12 | 2015-12-15 | Sap Se | User interface for providing supplemental information |
JP5862610B2 (ja) * | 2013-06-17 | 2016-02-16 | コニカミノルタ株式会社 | 画像表示装置及び表示制御プログラム並びに表示制御方法 |
KR101401728B1 (ko) * | 2013-09-06 | 2014-05-30 | 주식회사 엘지유플러스 | 영상 통화를 위한 통신 단말기 및 그 제어방법과, 그 제어방법을 실행하기 위한 프로그램을 기록한 기록 매체 |
US10291597B2 (en) | 2014-08-14 | 2019-05-14 | Cisco Technology, Inc. | Sharing resources across multiple devices in online meetings |
CN104361565B (zh) * | 2014-12-05 | 2018-10-23 | 华东理工大学 | 一种乱涂画数字图像的内容自动检测与修复方法 |
US10542126B2 (en) | 2014-12-22 | 2020-01-21 | Cisco Technology, Inc. | Offline virtual participation in an online conference meeting |
CN104601930A (zh) * | 2015-01-09 | 2015-05-06 | 西安融成科技有限公司 | 一种视频图像和桌面图像自动切换显示的系统及方法 |
CN105988568B (zh) * | 2015-02-12 | 2020-07-24 | 北京三星通信技术研究有限公司 | 获取笔记信息的方法和装置 |
US9948786B2 (en) | 2015-04-17 | 2018-04-17 | Cisco Technology, Inc. | Handling conferences using highly-distributed agents |
US9654727B2 (en) | 2015-06-01 | 2017-05-16 | Apple Inc. | Techniques to overcome communication lag between terminals performing video mirroring and annotation operations |
CN107305457A (zh) * | 2016-04-20 | 2017-10-31 | 斑马网络技术有限公司 | 应用处理方法、设备、界面系统、控制设备及操作系统 |
US10852936B2 (en) * | 2016-09-23 | 2020-12-01 | Apple Inc. | Devices, methods, and graphical user interfaces for a unified annotation layer for annotating content displayed on a device |
CN106569796A (zh) * | 2016-09-30 | 2017-04-19 | 努比亚技术有限公司 | 一种显示方法及终端 |
US10592867B2 (en) | 2016-11-11 | 2020-03-17 | Cisco Technology, Inc. | In-meeting graphical user interface display using calendar information and system |
US9961302B1 (en) * | 2016-12-13 | 2018-05-01 | Cisco Technology, Inc. | Video conference annotation |
US10516707B2 (en) | 2016-12-15 | 2019-12-24 | Cisco Technology, Inc. | Initiating a conferencing meeting using a conference room device |
US10440073B2 (en) | 2017-04-11 | 2019-10-08 | Cisco Technology, Inc. | User interface for proximity based teleconference transfer |
US10375125B2 (en) | 2017-04-27 | 2019-08-06 | Cisco Technology, Inc. | Automatically joining devices to a video conference |
CN108989900A (zh) * | 2017-06-02 | 2018-12-11 | 中兴通讯股份有限公司 | 一种视频处理方法及终端 |
US10375474B2 (en) | 2017-06-12 | 2019-08-06 | Cisco Technology, Inc. | Hybrid horn microphone |
US10477148B2 (en) | 2017-06-23 | 2019-11-12 | Cisco Technology, Inc. | Speaker anticipation |
US10516709B2 (en) | 2017-06-29 | 2019-12-24 | Cisco Technology, Inc. | Files automatically shared at conference initiation |
US10706391B2 (en) | 2017-07-13 | 2020-07-07 | Cisco Technology, Inc. | Protecting scheduled meeting in physical room |
US10091348B1 (en) | 2017-07-25 | 2018-10-02 | Cisco Technology, Inc. | Predictive model for voice/video over IP calls |
JP7212255B2 (ja) * | 2019-02-04 | 2023-01-25 | 株式会社Mixi | 情報処理システム,制御プログラム及び情報処理装置 |
US11704626B2 (en) * | 2021-07-09 | 2023-07-18 | Prezi, Inc. | Relocation of content item to motion picture sequences at multiple devices |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7716376B1 (en) * | 2006-03-28 | 2010-05-11 | Amazon Technologies, Inc. | Synchronized video session with integrated participant generated commentary |
Family Cites Families (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2823018B2 (ja) * | 1989-01-20 | 1998-11-11 | 東京電力株式会社 | 映像伝送装置 |
JPH037487A (ja) * | 1989-06-05 | 1991-01-14 | Fuji Photo Film Co Ltd | テレビ電話装置 |
JP2911135B2 (ja) * | 1989-07-04 | 1999-06-23 | 株式会社日立製作所 | ビデオプリンタ |
JPH05242143A (ja) | 1992-02-26 | 1993-09-21 | Hitachi Ltd | マルチメディアプレゼンテーションシステム |
US5600775A (en) | 1994-08-26 | 1997-02-04 | Emotion, Inc. | Method and apparatus for annotating full motion video and other indexed data structures |
US5768607A (en) * | 1994-09-30 | 1998-06-16 | Intel Corporation | Method and apparatus for freehand annotation and drawings incorporating sound and for compressing and synchronizing sound |
US6323911B1 (en) * | 1995-10-02 | 2001-11-27 | Starsight Telecast, Inc. | System and method for using television schedule information |
JP3636830B2 (ja) | 1996-07-10 | 2005-04-06 | 株式会社日立製作所 | インテリジェントビデオカメラ及びインテリジェントスチルカメラ |
US5689742A (en) * | 1996-10-11 | 1997-11-18 | Eastman Kodak Company | Full frame annotation system for camera |
US6119147A (en) | 1998-07-28 | 2000-09-12 | Fuji Xerox Co., Ltd. | Method and system for computer-mediated, multi-modal, asynchronous meetings in a virtual space |
JP2000341572A (ja) * | 1999-05-31 | 2000-12-08 | Ricoh Co Ltd | デジタルカメラ |
JP2001186430A (ja) | 1999-12-22 | 2001-07-06 | Mitsubishi Electric Corp | デジタル放送受信機 |
US7120924B1 (en) * | 2000-02-29 | 2006-10-10 | Goldpocket Interactive, Inc. | Method and apparatus for receiving a hyperlinked television broadcast |
JP2001250332A (ja) * | 2000-03-06 | 2001-09-14 | Sony Corp | 再生装置 |
US20020173345A1 (en) | 2001-05-17 | 2002-11-21 | Swerup Jan Ingemar | Method and system for phone note taking |
US7502386B2 (en) | 2002-03-27 | 2009-03-10 | Mitsubishi Denki Kabushiki Kaisha | Communication apparatus and communication method |
JP2004193979A (ja) * | 2002-12-11 | 2004-07-08 | Canon Inc | 映像配信システム |
US7797064B2 (en) * | 2002-12-13 | 2010-09-14 | Stephen Loomis | Apparatus and method for skipping songs without delay |
FR2868231B1 (fr) | 2004-03-26 | 2006-11-10 | Rachid Hallalel | Dispositif concernant la consultation et l'echange visuel d'images entre deux telephones mobiles puis l'extraction et le defilement automatique de texte en superposition de l'image |
US20050273700A1 (en) | 2004-06-02 | 2005-12-08 | Amx Corporation | Computer system with user interface having annotation capability |
US8375283B2 (en) * | 2006-06-20 | 2013-02-12 | Nokia Corporation | System, device, method, and computer program product for annotating media files |
US8281332B2 (en) * | 2007-05-02 | 2012-10-02 | Google Inc. | Animated video overlays |
US20090064245A1 (en) * | 2007-08-28 | 2009-03-05 | International Business Machines Corporation | Enhanced On-Line Collaboration System for Broadcast Presentations |
US20090119100A1 (en) | 2007-11-07 | 2009-05-07 | Raji L Akella | Associating annotation recording with a cell phone number |
GB0801429D0 (en) * | 2008-01-25 | 2008-03-05 | Decisive Media Ltd | Media Annotation system, method and media player |
US9275684B2 (en) * | 2008-09-12 | 2016-03-01 | At&T Intellectual Property I, L.P. | Providing sketch annotations with multimedia programs |
CN101505396B (zh) | 2009-03-10 | 2011-06-15 | 中兴通讯股份有限公司 | 显示手机电视业务与可视电话业务的方法及系统 |
US8380866B2 (en) * | 2009-03-20 | 2013-02-19 | Ricoh Company, Ltd. | Techniques for facilitating annotations |
JP5487695B2 (ja) * | 2009-04-13 | 2014-05-07 | コニカミノルタ株式会社 | 中継装置、会議支援システム及びプログラム |
US9071868B2 (en) * | 2009-05-29 | 2015-06-30 | Cognitive Networks, Inc. | Systems and methods for improving server and client performance in fingerprint ACR systems |
US20110154399A1 (en) * | 2009-12-22 | 2011-06-23 | Verizon Patent And Licensing, Inc. | Content recommendation engine |
US20130347029A1 (en) * | 2012-06-21 | 2013-12-26 | United Video Properties, Inc. | Systems and methods for navigating to content without an advertisement |
JP2014127987A (ja) * | 2012-12-27 | 2014-07-07 | Sony Corp | 情報処理装置および記録媒体 |
FR3005436B1 (fr) * | 2013-05-13 | 2016-01-01 | Fasver | Procede et dispositif de protection securitaire d'un document officiel et document officiel ainsi protege |
KR102282003B1 (ko) * | 2014-08-07 | 2021-07-27 | 삼성전자 주식회사 | 전자 장치 및 이의 표시 제어 방법 |
-
2011
- 2011-03-16 KR KR1020137010900A patent/KR101452667B1/ko active IP Right Grant
- 2011-03-16 CN CN201180068426.5A patent/CN103384874B/zh not_active Expired - Fee Related
- 2011-03-16 EP EP11860725.8A patent/EP2686761A4/en not_active Ceased
- 2011-03-16 US US13/502,011 patent/US9715326B2/en not_active Expired - Fee Related
- 2011-03-16 JP JP2013549694A patent/JP5852135B2/ja not_active Expired - Fee Related
- 2011-03-16 WO PCT/CN2011/071854 patent/WO2012122706A1/en active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7716376B1 (en) * | 2006-03-28 | 2010-05-11 | Amazon Technologies, Inc. | Synchronized video session with integrated participant generated commentary |
Also Published As
Publication number | Publication date |
---|---|
JP2014504760A (ja) | 2014-02-24 |
JP5852135B2 (ja) | 2016-02-03 |
KR20130076878A (ko) | 2013-07-08 |
EP2686761A4 (en) | 2014-11-19 |
US9715326B2 (en) | 2017-07-25 |
US20130027425A1 (en) | 2013-01-31 |
CN103384874A (zh) | 2013-11-06 |
EP2686761A1 (en) | 2014-01-22 |
KR101452667B1 (ko) | 2014-10-22 |
WO2012122706A1 (en) | 2012-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103384874B (zh) | 叠加注解输出 | |
US10911716B2 (en) | System and method for interactive video conferencing | |
US9998508B2 (en) | Multi-site screen interactions | |
US20190230138A1 (en) | Server and method of providing collaboration services and user terminal for receiving collaboration services | |
US8915106B2 (en) | Means for processing information | |
EP2446619B1 (en) | Method and device for modifying a composite video signal layout | |
CN108139778A (zh) | 便携式设备和便携式设备的屏幕显示方法 | |
US20150293641A1 (en) | Device and method for visual sharing of data | |
US20080215962A1 (en) | Pc-metadata on backside of photograph | |
US20230300450A1 (en) | Photographing Method, Photographing Apparatus, Electronic Device, and Medium | |
CN110377220B (zh) | 一种指令响应方法、装置、存储介质及电子设备 | |
EP4285596A1 (en) | Composite video with live annotation | |
TWI646526B (zh) | 子畫面佈局控制方法和裝置 | |
Makhsadov et al. | Vrysmart: a framework for embedding smart devices in virtual reality | |
WO2019056001A1 (en) | INTERACTIVE VIDEOCONFERENCE SYSTEM AND METHOD | |
CN204721476U (zh) | 沉浸式和交互式的视频会议房间环境 | |
TWI602436B (zh) | 虛擬會議系統 | |
US9666231B2 (en) | System and method for providing and interacting with coordinated presentations | |
US20240096032A1 (en) | Technology for replicating and/or controlling objects in extended reality | |
JP2016033831A (ja) | 重畳された注釈出力 | |
US20240096033A1 (en) | Technology for creating, replicating and/or controlling avatars in extended reality | |
Pao et al. | FlickInk: bridging the physical and digital for creative work | |
CN107728902A (zh) | 一种图片展示方法及终端 | |
EP3175372A1 (en) | System and method for providing and interacting with coordinated presentations | |
WO2014210379A2 (en) | System and method for providing and interacting with coordinated presentations |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20160928 Termination date: 20200316 |
|
CF01 | Termination of patent right due to non-payment of annual fee |