CN105122826B - 用于由移动计算设备显示带注释的视频内容的系统和方法 - Google Patents
用于由移动计算设备显示带注释的视频内容的系统和方法 Download PDFInfo
- Publication number
- CN105122826B CN105122826B CN201480020687.3A CN201480020687A CN105122826B CN 105122826 B CN105122826 B CN 105122826B CN 201480020687 A CN201480020687 A CN 201480020687A CN 105122826 B CN105122826 B CN 105122826B
- Authority
- CN
- China
- Prior art keywords
- annotation
- display
- video
- frame
- location
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/166—Editing, e.g. inserting or deleting
- G06F40/169—Annotation, e.g. comment data or footnotes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Artificial Intelligence (AREA)
- User Interface Of Digital Computer (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
用于由移动计算设备显示带注释的视频内容的系统和方法。示例性方法可以包括:在移动计算设备的显示器上呈现包括多个视频帧的视频流;呈现覆盖在多个视频帧中的帧上的视频注释;经由移动计算设备的用户输入接口来接收用户接口命令;以及执行与视频注释相关的动作,该动作由用户接口命令定义。
Description
技术领域
本公开通常涉及计算机系统,更具体地涉及用于由计算设备显示带注释的视频内容的系统和方法。
背景技术
内容共享平台允许观看共享内容,诸如视频内容、图像内容和/或音频内容。在某些示例中,共享内容可以由流媒体表示。流媒体是多媒体,诸如视频和/或音频内容,其可以在流提供者通过网络(例如互联网)递送时由终端用户接收并且呈现给终端用户。此外,一些内容共享平台提供媒体的实时流送、以及预先记录的媒体内容的流送。
发明内容
呈现了一种用于由计算设备显示带注释的视频内容的方法。移动计算设备可以呈现包括多个视频帧的视频流以及覆盖在多个视频帧中的帧上的视频注释。移动计算设备可以经移动计算设备的用户输入接口接收用户接口命令。移动计算设备可以执行与如由用户接口命令定义的视频注释有关的动作。
此外,还呈现了一种用于执行上面引用的方法的操作的计算设备和存储使计算设备执行上面引用的方法的操作的指令的计算机可读存储介质。
附图说明
通过举例而不是限制,示出了本公开,当结合附图考虑时,可以参考下述详细描述更全面地理解本公开,其中:
图1描述了根据本公开的一个或多个方面操作的移动计算设备的一个说明性示例的框图;
图2a-2f示意性地图示可由根据本公开的一个或多个方面操作的移动计算设备识别的若干用户输入手势类型;
图3示意性地图示可由根据本公开的一个或多个方面操作的移动计算设备显示的视频流的示例性结构;
图4示意性地图示根据本公开的一个或多个方面的包括视频流服务器、视频注释服务器和多个视频流客户端的网络的网络层级图;
图5示意性地图示可由根据本公开的一个或多个方面操作的移动计算设备显示的视频注释的示例性结构;
图6示意性地图示根据本公开的一个或多个方面的若干类型的视频注释的屏幕表示;
图7描述了根据本公开的一个或多个方面的用于创建视频注释的视频帧编辑窗口;
图8描述了根据本公开的一个或多个方面的由移动计算设备显示带注释的视频内容的方法的一个说明性示例的流程图;
图9描述了根据本公开的示例操作的说明性计算机系统的框图。
具体实施方式
在此描述用于由移动计算设备显示带注释的视频内容的方法和系统。“移动计算设备”在此是指具有处理器、存储器和至少一个通信接口的便携式设备。移动计算设备的示例包括但不限于智能电话、平板电脑和笔记本计算机。
移动计算设备可以执行用于显示可以通过网络从流媒体服务器下载的视频流的视频播放器应用。可以在娱乐、教育和其他应用中利用视频流功能。在某些实现中,在此所述的移动计算设备可以能够显示包含视频注释的视频流。“视频注释”在此是指覆盖在视频流的多个帧上并且用来将信息传递给用户和/或提示用户发出一个或多个用户接口命令的一个或多个视觉元素。视频注释可以例如用来提供与正显示的视频内容有关的附加信息、接受选择待显示的内容(例如,选择若干可能观看路径中的一个或选择当前显示的视频流的片段)的用户输入、提供执行相关内容条目的链接、和/或提供执行可由移动计算设备执行的相关应用的链接。
移动计算设备(例如,移动电话、平板电脑或智能电话)与例如台式计算机相比可以具有更小尺寸和/或分辨率的屏幕,由此使得一些传统的用户接口命令难以实现。另一方面,移动计算设备可以通过提供可以用来输入用户命令的各种用户接口设备来增强终端用户体验,所述用户接口设备包括例如:触摸屏、视频或静态图像相机、麦克风和/或加速计。因此,在某些实现中,用来播放包含视频注释的视频流的移动计算设备可以鉴于移动计算设备的用户接口特征来修改视频注释。在一个示例中,移动计算设备可以通过调整其大小来适合移动计算设备的屏幕而改变视频注释。在另一示例中,移动计算设备可以鉴于移动计算设备的屏幕大小通过改变其显示位置来修改视频注释。在又一示例中,移动计算设备可以重新排列移动计算设备的屏幕上的两个或更多个视频注释来防止视频注释元素的视觉交叉。
在另一方面中,移动计算设备可以定义可应用于由移动计算设备显示的视频注释的一个或多个用户接口命令(包括例如触摸屏手势和/或加速计测量手势)。移动计算设备可以将用户接口命令分配给一个或多个可能系统操作中的每一个。用户接口命令可以包括经触摸屏、相机、麦克风和/或加速计输入的命令。对应于用户接口命令的系统动作可以包括播放控制命令(例如暂停、停止、倒带和/或快进)、内容选择命令(诸如显示相关内容条目)和/或应用控制命令(诸如启用定义的应用)等等。
在另一方面中,移动计算设备在播放包含视频注释的视频流时可以经由包括例如触摸屏、视频或静止图像相机、麦克风和/或加速计的各种用户接口来接受用户命令。每一用户接口命令可以使移动计算设备执行由命令和/或正执行的应用的上下文定义的功能。在一个示例中,移动计算设备可以识别通过触摸屏发出的多个用户手势,包括例如敲击、双击、按压、扫动、捏和/或旋转触摸屏。在另一示例中,可以经由视频或静止图像相机来输入用户的手势。在又一示例中,可以经由麦克风来输入用户的语音命令或其他声音命令(例如口哨)。在又一示例中,可以使用加速计来接受涉及根据包括移动的定义频率、幅度和/或方向的一个或多个预定模式来移动移动计算设备(例如包括在水平或垂直平面中晃动移动计算设备、旋转移动计算设备等等)的用户命令。
响应于接收用户接口命令,移动计算设备可以基于在与视频注释相关联的数据结构内存储并且将用户接口命令映射到视频播放器应用动作的一个或多个记录来确定对应于用户接口命令的动作。然后,移动计算设备可以执行如由用户接口命令定义的、与视频注释有关的动作。
在下文中通过举例而不是限制来详细地描述上面引用的方法和系统的各个方面。
图1描述了根据本公开的一个或多个方面操作的移动计算设备的一个说明性示例的框图。例如可以通过智能电话、平板电脑、个人数字助理或笔记本计算机来提供移动计算设备。
移动计算设备100可以包括耦接到系统总线120的处理器110。后者可以包括数据总线、地址总线和/或控制总线。处理器110可以由一个或多个诸如通用处理器(例如,复杂指令集计算(CISC)微处理器、缩减指令集计算(RISC)微处理器、超长指令字(VLIM)微处理器、实现其他类型的指令集的微处理器或实现指令集类型的组合的处理器)或专用处理器(例如,专用集成电路(ASIC)、现场可编程门阵列(FPGA)、数字信号处理器(DSP)、网络处理器)的物理处理器来提供。
耦接到系统总线的其他设备可以包括存储器130、显示器135、键盘140、扬声器145、麦克风150、视频或静止图像相机155、加速计160和/或一个或多个无线网络接口165。术语“耦接”在此包括经由一个或多个接口设备、适配器等的电连接或通信地耦接。
存储器130可以包括一个或多个易失性存储设备(例如,RAM芯片)、一个或多个非易失性存储设备(例如,ROM或EEPORM芯片)、和/或一个或多个辅助存储设备(例如存储存储器设备,诸如光或磁盘)。存储存储器可以包括可以在其上存储实现在此所述的方法的命令的非瞬时计算机可读存储介质。
在某些实现中,存储器130可以存储视频播放器应用190的命令。在一个说明性示例中,依据本公开的一个或多个方面,视频播放器应用190可以在移动设备100上执行来呈现包含视频注释的视频内容,从触摸屏170、相机155、麦克风150或加速计150接收与注释中的一个相关的用户接口命令,并且可以响应于用户接口命令而执行与注释相关的动作。
可以例如由IEEE 802.11兼容接口、蜂窝接口(诸如3G或4G接口,包括UMTS、LTE、WiMAX、HSPA或EV-DO)和/或蓝牙接口,来提供无线网络接口165。移动计算设备100可以实现网诸如TCP/IP的络协议栈来支持无线网络接口165上的通信。
在某些实现中,移动计算设备100可以包括例如由显示器135的触敏和/或存在第三表面表示的触摸屏输入设备170。在一个示例中,触敏表面可以包括电容敏感层。在另一示例中,触敏表面可以包括沿显示器的水平和垂直轴放置的两个或更多个声换能器。
在某些实现中,配置有触摸屏的移动计算设备100响应于检测到外部物体接触触敏表面而可以确定接触的位置、相对于当前位置的位置的改变和/或接触的方式(例如,在与触敏表面保持接触的同时,外部物体是否正移动)。用于接触触摸屏的外部物体可以例如由用户的手指、触控笔或任何其他适当的设备表示。
基于所检测的触摸/释放事件、所确定的接触位置、接触位置的改变和/或接触的方式,计算设备100可以识别一个或多个用户输入手势类型,包括例如敲击、双击、按压、扫动、捏和/或旋转触摸屏,如由图2a-2f示意性图示的。
敲击是继续少于第一预定持续阈值并且接着释放多于第二预定持续阈值的接触,如由图2a示意性图示的。敲击不包括外部物体在触敏表面上的移动。双击包括两个连续敲击手势,具有少于第二预定持续阈值的中间释放,如由图2b示意性图示的。按压或长按压是继续大于第一预定持续阈值的接触,如由图2c示意性图示的。扫动是涉及外部物体沿假想直线段在触敏表面上的运动的接触,如由图2d示意性图示的。捏是两个外部物体(例如用户的两个手指)沿假想直线或曲线段朝相互运动的接触,如由图2e示意性图示的。旋转是两个外部物体(例如用户的两个手指)沿虚拟圆在相同方向中移动的接触,如由图2f示意性图示的。
在某些实现中,移动计算设备100可以配置有测量移动计算设备的适当加速度的加速计。在一个示例中,可以编程移动计算设备来使用加速计接受用户接口命令,包括用户使用包括运动的预定频率、幅度和/或方向的一个或多个预定模式(例如,在水平或垂直面上晃动移动计算设备、旋转移动计算设备等等)移动该移动计算设备。
在某些实现中,移动计算设备100可以配置有视频或静止图像相机。在一个示例中,摄像机可以用来输入由用户的手势表示的用户接口命令。
在某些实现中,移动计算设备100可以配置有麦克风。在一个示例中,麦克风可以用于输入用户的语音命令或其他声音命令(例如,口哨)。
在某些实现中,移动计算设备100可以执行可以播放视频流和/或音频流的视频播放器应用。移动计算设备100可以播放使用音频编解码器(例如MP3、Vorbis或AAC)压缩的音频流和/或使用视频编解码器(例如,H.264或VP8)压缩的视频流。在一个示例中,移动计算设备可以播放包含编码的音频和视频流的组合位流(例如FLV、WebM、ASF或ISMA)。如由图3示意性图示的,视频流300可以包括报头310和多个视频帧320。每一视频帧320可以包括视频数据325和时间戳330。
在某些实现中,移动计算设备100可以通过网络415从流服务器410或对等移动计算设备420接收到视频流的同时显示它,如由图4示意性图示的。在一个示例中,流服务器410可以是共享内容托管和也可以称为内容共享平台的递送平台412的一部分。在一个示例中,网络415可以包括互联网。包括诸如内联网、局域网(LAN)、广域网(WAN)和/或虚拟专用网(VPN)的有线和无线网络的其他网络可以是网络415的一部分。
如由图4所示,共享内容托管和递送平台412可以包括经由网络418耦接到内容数据存储417的前端流服务器410。内容数据存储417可以由本地或分布式数据库、文件库或适当体系结构的任何其他数据库提供。内容数据存储417可以用来存储多个内容条目(统称为“内容”),其可以包括例如视频剪辑、TV剪辑(新闻、体育、真人秀等等)、音频视频、视频博客项和/或视频短片。在一个说明性示例中,内容可以包括可由共享内容托管和递送平台412的用户上传的一个或多个条目,用于与其他用户共享。所上传的内容条目可以包括由移动计算设备100捕捉和/或通过网络415传送的数据。
网络418可以由局域网提供。包括互联网、一个或多个内联网、局域网(LAN)、广域网(WAN)和/或虚拟专用网(VPN)的其他网络可以是网络418的一部分。在某些实现中,共享内容托管和递送平台412可以进一步包括用来递送视频注释的视频注释服务器430,如下文更详细所述。
尽管在图4中将前端服务器410、内容数据存储417和视频注释服务器430图示为单独的部件,但内容托管和递送平台412的这些和其他部件可以在单一计算设备中或在可以通过包括LAN和/或WAN的一个或多个网络互连的多个不同计算设备和系统的各种组合中一起实现。在某些实现中,共享内容托管和递送平台412可以进一步包括其他部件,诸如可以用来将通过网络415接收的用户请求分派到多个前端服务器410的负荷平衡器(图4中未示出)。在某些实现中,共享内容托管和递送平台412可以进一步包括可以用来认证访问共享内容托管和递送平台412的用户的用户目录。
在一个说明性示例中,用户可以通过网络415经由移动计算设备100访问由托管和递送平台412存储的内容。移动计算设备100可以通过向流服务器410发出控制消息(例如,实时流媒体协议(RTSP)消息)来控制流过程。可以使用诸如实时传输协议(RTP)的传输协议将视频流从流服务器410发送到移动计算设备100。移动计算设备100可以使用实时传输控制协议(RTCP)定期地将服务质量(QoS)信息发送到流服务器410。作为RTP/RTCP流送的替选,在某些实现中,移动计算设备100可以采用HTTP渐近下载来执行自适应比特率流媒体。
在某些实现中,移动计算设备100可以是接收由流服务器410传送到多个接收方420的多播流的多播组的成员。多播组的成员对服务器的传输具有有限或无控制能力。为了提高终端用户的观看体验,移动计算设备100可以缓冲所接收的视频流,由此允许终端用户发布播放控制命令,诸如暂停、停止、倒带和/或快进。
在某些实现中,移动计算设备100可以使用对等(P2P)协议从一个或多个对等移动计算设备420接收视频流。可以从一个或多个对等移动计算设备中的每一个接收视频流的一个或多个片段。在播放前,可以由移动计算设备100组装视频流。
在某些实现中,由移动计算设备100播放的视频流可以包含一个或多个视频注释。视频注释可以例如用来提供与正显示的视频内容有关的附加信息、接受选择待显示的内容的用户输入(例如提供多个观看路径和/或内容表功能)、提供指向相关内容条目的链接和/或提供指向可由移动计算设备执行的相关应用的链接。移动计算设备100可以接受(例如经由键盘、触摸屏和/或加速计)与视频注释有关并且使移动计算设备执行某些功能来控制播放过程的用户输入。可由用户输入选择的动作的示例包括:暂停视频流显示、跳到视频流内选择的位置、显示相关内容(例如另一视频流或静止图像)、和/或切换到可由移动计算设备执行的另一应用。
如由图5示意性图示的,视频注释510可以包括将在视频帧内显示的一个或多个文本串520和/或一个或多个图像5250。在某些实现中,视频注释可以进一步包括存储不可显示信息的数据结构530,包括例如视频注释类型标识符535(例如,标题、对话泡泡、注解、标签、聚光灯或视频缩略图)、定义将要显示视频注释的视频帧内的位置的显示位置标识符540、和/或定义将要显示视频注释的多个视频帧的视频帧标识符545。在某些实现中,可以由可以定义将要显示视频注释的帧范围的开始帧和结束帧的开始帧标识符547和结束帧标识符549表示视频帧标识符。在一个示例中,开始帧标识符和结束帧标识符可以识别相对于视频流的开始的起始时间和结束时间。
在某些实现中,视频注释可以进一步包括存储关联用户接口命令560和相应的视频播放器动作565(例如,可以将视频注释字段内的点击映射到识别相关资源的URI、可以将视频注释字段内的双击映射到跳转到视频流的定义部分等等)的一个或多个记录的数据结构550。在某些实现中,视频注释可以进一步包括存储不可显示元数据的数据结构570,包括例如识别已捕捉视频流的位置的地理位置标识符575、视频注释创创建者/编辑者的标识符580和/或视频注释创建/编辑日期和时间585。
在某些实现中,可以将视频注释标识符存储在视频流内,以及与视频注释相关联的数据结构可以由视频播放器应用从可以不同于视频流服务器420的视频注释服务器430检索,如由图4示意性图示的。替选地,与视频注释相关联的数据结构可以存储在视频流内。
图6示意性地图示各种类型的视频注释。在一个示例中,可以由标题610表示视频注释。在另一示例中,可以由对话泡泡620表示视频注释。在另一示例中,可以由注解630表示视频注释。在另一示例中,可以由标签640表示视频注释。在又一示例中,可以由聚光灯650表示视频注释。在又一示例中,可以由视频缩略图655表示视频注释。
可以设计伴随视频流的视频注释,用于由具有比典型的移动计算设备屏幕更大尺寸和/或具有更高分辨率的屏幕的计算设备显示。因此,由移动计算设备显示的视频注释可能具有不足以用户区分和读取的大小。在一些情况下,可能空间上相互非常近地显示两个更多个视频注释,使得选择视频注释中的一个的用户尝试(例如通过点击相应的链接)通常会导致错误地选择错误的视频注释(例如,通过点击错误的链接)。此外,对通用计算设备设计的视频注释可以仅接受视频注释字段上的点击或双击,不被设计成接受各种触摸屏用户接口输入。
因此,移动计算设备100可以处理视频流来修改和/或调整伴随视频流的视频注释,用于由移动计算设备100显示。在一个示例中,移动计算设备100可以重新调整一个或多个视频注释的大小来使它们可在移动计算设备100的屏幕上可看和/或由用户的触摸屏输入选择。重新调整视频注释的大小可以包括重新调整视频注释消息的字体,例如基于用于移动计算设备100的给定屏幕尺寸的预定最小字体大小来提高注释消息可读性。重新调整视频注释的大小可以进一步包括重新调整视频注释的一个或多个视觉元素的大小,例如基于用于移动计算设备100的给定屏幕大小的预定最小视觉元素大小。
在另一示例中,移动计算设备100可以重新定位一个或多个视频注释来使它们在移动计算设备100的屏幕可看和/或由用户的触摸屏输入选择。重新定位视频注释可以基于一个或多个重定位规则,诸如在相对于屏幕的预定角定义的方向中移动视频注释。在一个示例中,重定位在单个帧内显示的若干视频注释可以基于相对于屏幕的一个或多个预定角定义的重定位方向的序列(例如,使第一视频注释朝屏幕的左上角移动,接着使第二视频注释朝屏幕的右上角移动)。在另一示例中,移动计算设备可以重新排列移动计算设备的屏幕上的两个或更多个视频注释来防止视频注释元素的视觉交叉。
在某些实现中,移动计算设备100可以定义可应用于由移动计算设备100显示的视频注释的一个或多个用户接口命令(包括例如触摸屏手势和/或加速计测量手势)。移动计算设备可以将用户接口命令分配给一个或多个可能系统动作中的每一个。用户接口命令可以包括经由触摸屏、相机、麦克风和/或加速计输入的命令。对应于用户接口命令的系统动作可以包括播放控制命令(例如暂停、停止、倒带和/或快进)、内容选择命令(诸如显示相关内容条目)、和/或应用控制命令(诸如启用定义的应用)等等。
响应于显示覆盖在视频流的一个或多个帧上的视频注释,移动计算设备可以经由触摸屏、相机、麦克风和/或加速计接收用户接口命令。用户接口命令可以由例如通过触摸屏发布的包括敲击、双击、按压、扫动、捏和/或旋转触摸屏一个或多个手势表示。在另一示例中,用户接口命令可以由经由麦克风输入的语音和/或声音命令表示。在又一示例中,用户接口命令可以由经由视频或静止图像相机输入的一个或多个用户手势表示。在另一示例中,用户接口命令可以涉及用户根据一个或多个包括运动的定义频率、幅度和/或方向(例如在水平或垂直面上晃动移动计算设备、旋转移动计算设备等等)的预定模式来移动该移动计算设备。
响应于接收用户接口命令,移动计算设备可以基于与视频注释相关联并且将用户接口命令映射到视频播放器应用动作的数据结构内存储的一个或多个记录来确定对应于用户接口命令的动作。然后,移动计算设备可以执行与视频注释有关的动作,如由用户接口命令定义。可由用户接口命令选择的动作的示例包括:暂停视频流显示、跳转到视频流内的所选择的位置、显示相关内容(例如另一视频流、或静止图像)、和/或切换到可由移动计算设备执行的另一应用。
可以使用可由台式或移动计算设备执行的视频注释编辑器来创建用于视频内容条目的视频注释。在某些实现中,移动计算设备100可以显示在帧窗口710中编辑的视频流,如由图7示意性图示的。移动计算设备100可以接受关于将视频注释插入到一个或多个视频帧中的一个或多个用户接口命令。可以基于所显示的时间线712和/或通过播放、快进和/或倒带所编辑的视频流来选择视频帧。在某些实现中,可以实现视频注释搜索功能来接受指定与视频注释有关的一个或多个搜索项的用户输入并且显示包含符合搜索项的视频注释的一个或多个帧(例如,包括用户提供的串的对话泡泡)。
在某些实现中,响应于接收用户接口命令,移动计算设备可以插入对话泡泡注释720、注解注释730、标签注释740、聚光灯注释750和/或标题注释760。语音命令可以包括注释类型、相对于预定帧角或其他注释元素的注释位置、注释文本和/或其他注释参数(例如字体大小)。在一个示例中,可以经由麦克风接收用户接口命令。替选地,可以经由触摸屏接收用户接口命令。在某些实现中,用户接口命令的一些元素可以经由第一用户接口接收,而用户接口命令的其他元素可以经由第二用户接口接收(例如,可以经由麦克风输入对话泡泡文本,以及可以经由触摸屏输入对话泡泡位置)。在某些实现中,一些用户接口命令可以应用于在单个帧中显示的多个视频注释(例如,响应于检测到用户晃动移动计算设备,后者可以重新定位在当前显示的帧内显示的视频注释来消除视频注释元素的视觉交叉)。
图8描述了根据本公开的一个或多个方面的由移动计算设备显示带注释的视频内容的方法800的一个说明性示例的流程图。方法800可以由可以包括硬件(例如电路、专用逻辑和/或可编程逻辑)、软件(例如,可在计算机系统上执行来执行硬件模拟的指令)或其组合的(例如,在移动计算设备100上执行的视频播放器应用190的)处理逻辑执行。方法800和/或其个体功能、例程、子例程或操作中的每一个可以由执行该方法的计算设备的一个或多个物理处理器执行。方法800的两个或更多个功能、例程、子例程或操作可以并行或按不同于上述顺序的顺序执行。
在块810,移动计算设备可以播放包括多个视频帧的视频流。如上文所述,在某些实现中,移动计算设备可以在例如通过无线通信接口从流服务器或对等移动计算设备接收视频流的同时显示视频流。
在块820,移动计算设备可以显示覆盖在视频流的一个或多个帧上的视频注释。如在此所述,在某些实现中,移动计算设备可以在显示之前例如通过重新调整视频注释的大小来更好适合移动计算设备的屏幕、和/或通过重定位屏幕上的视频注释来修改该视频注释,如在上文更详细所述。
在块830,移动计算设备可以经由移动计算设备的用户输入接口来接收用户接口命令。在某些实现中,用户输入接口可以通过触摸屏、相机、麦克风和/或加速计提供,如在上文更详细描述。然后,移动计算设备可以基于与视频注释相关联并且将用户接口命令映射到视频播放器应用动作的数据结构内存储的一个或多个记录来确定对应于用户接口命令的动作,如在上文更详细所述。
在块840,移动计算设备可以执行与视频注释有关的动作,如由用户接口命令定义。响应于完成由块840引用的操作,该方法可以终止。
图9图示了可以执行用于使计算机系统执行在此所述的任何一个或多个方法的指令集的示例性计算机系统500的框图。计算机系统可以连接到LAN、内联网、外联网或互联网中的其他计算机系统。计算机系统可以在客户-服务器网络环境中的服务器或客户端计算机系统的能力操作,或操作为对等(或分布式)网络环境中的对等计算机系统。计算机系统可以是个人计算机(PC)、平板PC、机顶盒(STB)、个人数字助理(PDA)、蜂窝电话、Web设备、服务器、网络路由器、交换机或桥、或能执行指定将由计算机系统采取的动作的指令集(序列或其他)的任何计算机系统。此外,尽管仅示出单个计算机系统,术语“计算机系统”还应当看作包括单个或共同执行实现在此公开的方法中的任何一个或多个的指令集(或多个集合)的计算机系统的任何集合。
示例性计算机系统500包括经由总线538相互通信的处理设备(处理器)502、主存储器504(例如只读存储器(ROM)、闪存、动态随机存取存储器(DRAM),诸如同步DRAM(SDRAM)或总线式DRAM(RDRAM)等等)、静态存储器506(例如闪存、静态随机存取存储器(SRAM)等等)和数据存储设备518。
处理器502表示一个或多个通用处理设备,诸如微处理器、中央处理单元等等。更具体地,处理器502可以是复杂指令集计算(CISC)微处理器、缩减指令集计算(RISC)微处理器、超长指令字(VLIM)微处理器或实现其他指令集的处理器或实现指令集的组合的处理器。处理器502还可以是一个或多个专用处理设备,诸如专用集成电路(ASIC)、现场可编程门阵列(FPGA)、数字信号处理器(DSP)、网络处理器等等。处理器502被配置成执行用于执行在此所述的操作和步骤的指令526。
计算机系统500可以进一步包括网络接口设备522。计算机系统500还可以包括视频显示单元510(例如液晶显示器(LCD)或阴极射线管(CRT))、字母数字输入设备512(例如键盘)、触摸屏输入设备514和加速计515。
数据存储设备518可以包括在其上存储实现在此所述的任何一个或多个方法或功能的一个或多个指令集526的计算机可读存储介质524。在由计算机系统500执行期间,指令526还可以完全或至少部分驻留在主存储器504内和/或处理器502内,主存储器504和处理器502还构成计算机可读存储介质。指令526还可以进一步经由网络接口设备522通过网络516传送或接收。
在某些实现中,指令526可以包括可以对应于图8的方法的、并且使用图1的视频播放器应用190执行的、用于显示带注释的视频内容的方法的指令。尽管在图9的示例中将将计算机可读存储介质524示为单个介质,应当将术语“计算机可读存储介质”看作包括存储一个或多个命令集的单个介质或多个介质(例如,集中式或分布式数据库,和/或相关联的高速缓存和服务器)。术语“计算机可读存储介质”还可以看作包括能存储、编码和承载用于由机器执行并且使机器执行本公开的任何一个或多个方法的指令集的任何介质。相应地,术语“计算机可读存储介质”应看作包括但不限于固态存储器、光学介质和磁介质。
在上述描述中,阐述了许多细节。然而,很显然,对于考虑本公开内容的本领域普通技术人员来说,具有没有这些具体细节也可以实践本公开内容。在一些实例中,公知结构和设备以框图形式而不是详细地示出,以避免混淆本公开。
就计算机存储器内的数据位的运算的算法和符号表示而言,已呈现了详细描述的一些部分。这些算法描述和表示是由数据处理领域中的技术人员使用的手段来最高效地将它们的工作的实质传达给本领域的其他技术人员。算法在此通常设想是导致所需结果的步骤的自一致序列。步骤是要求物理量的物理操作的步骤。通常,尽管不是必须的,这些物理量采用能够被存储、转移、结合、比较或其他操作的电或磁信号的形式。已经证明,主要由于常见使用的原因将这些信号称为位、值、元件、符号、字符、项、数字等等有时是方便的。
然而,应该理解到所有这些和相似术语与适当的物理量相关联,仅作为应用于这些量的方便的标签。除非特别说明,否则从下述描述显而易见,可以理解到在整个描述中,利用术语诸如“确定”、“计算”、“运算”“获得”、“识别”、“修改”等等的讨论是指将计算机系统的寄存器和存储器内的物理(例如电)量的数据操作和变换为类似地表示为计算机系统存储器或寄存器或其他这样的信息存储、传输或显示设备内的物理量的其他数据的计算机系统或类似的电子计算设备的动作和过程。
本公开还涉及用于执行在此的操作的装置。该装置可以针对所需目的专门构造,或可以包括由计算机中存储的计算机程序有选择地激活或重构的通用计算机。这样的计算机程序可以存储在计算机可读存储介质中,诸如但不限于任何类型的盘,包括软盘、光盘、CD-ROM和磁光盘、只读存储器(ROM)、随机存取存储器(RAM)、EPROM、EEPROM、磁或光学卡、或适合于存储电子指令的任何类型的介质。
应理解到上述描述旨在是说明性的,而不是限制。许多其他实施例对本领域的技术人员在阅读和理解上述描述后将是显而易见的。因此,本公开的范围应当参考所附权利要求、以及这样的权利要求所赋予的等同物的全部范围确定。
Claims (20)
1.一种用于显示带注释的视频内容的方法,所述方法包括:
接收第一注释的第一位置标识符,所述第一注释在视频的呈现期间要覆盖在所述视频的一个或多个帧上,其中所述第一位置标识符限定所述第一注释在所述第一注释所覆盖于的帧内的第一位置,并且其中所述第一位置被指定用于在第一计算设备的第一显示器上的呈现;
在移动计算设备的第二显示器上呈现所述视频,其中所述第二显示器小于所述第一显示器,并且其中所述第一注释在所述第二显示器上在所述第一位置处的呈现防止所述第一注释被所述移动计算设备的用户在所述第二显示器内可读取;
由所述移动计算设备的处理设备修改所述第一注释,其中修改所述第一注释包括鉴于所述第二显示器的屏幕大小将所述第一注释从针对所述第一显示器的所述视频的帧中的所述第一位置重新定位到针对所述第二显示器的所述视频的帧中的第二位置,以使得所述第一注释被所述用户在所述第二显示器内可读取,并且其中所述视频的帧中的所述第二位置不同于所述视频的帧中的所述第一位置;以及
在所述第二显示器上呈现所述视频期间呈现在所述第二位置处覆盖在所述帧上的所述第一注释。
2.如权利要求1所述的方法,其中所述第一注释具有第一大小,其中所述第一大小被指定用于在所述第一显示器上的呈现,其中所述第一注释在所述第二显示器上以所述第一大小的呈现防止所述第一注释被所述用户在所述第二显示器内可读取,其中修改所述第一注释包括鉴于所述屏幕大小将所述第一注释从针对所述第一显示器的所述视频的帧中的所述第一大小重新调整为针对所述第二显示器的所述视频的帧中的第二大小,以使得所述第一注释被所述用户在所述第二显示器内可读取,其中所述视频的帧中的所述第二大小不同于所述视频的帧中的所述第一大小,并且其中呈现所述第一注释包括在所述第二显示器上呈现所述视频期间以所述第二大小呈现覆盖在所述帧上的所述第一注释。
3.如权利要求2所述的方法,其中,重新调整所述第一注释的大小包括重新调整所述第一注释中的消息的字体大小。
4.如权利要求3所述的方法,其中,重新调整所述字体大小是基于用于所述屏幕大小的最小字体大小。
5.如权利要求2所述的方法,其中,重新调整所述第一注释的大小包括重新调整所述第一注释的一个或多个视觉元素的大小,并且其中,重新调整所述视觉元素的大小是基于用于所述屏幕大小的最小视觉元素大小。
6.如权利要求2所述的方法,其中所述第一注释在所述第二显示器上以所述第一大小的呈现防止所述第一注释被所述用户在所述第二显示器的触摸屏内可选择,其中重新调整所述第一注释的大小进一步使得所述第一注释被所述用户在所述触摸屏内可选择。
7.如权利要求1所述的方法,进一步包括:
接收第二注释的第三位置标识符,所述第二注释在所述视频的呈现期间要覆盖在所述视频的所述帧中的至少一个帧上,其中所述第三位置标识符限定所述第二注释在所述第一注释所覆盖于的所述帧内的第三位置,其中所述第三位置被指定用于所述第一显示器上的呈现,并且其中所述第一注释在所述第二显示器上在所述帧中的所述第一位置处的呈现使得在所述第二显示器上在所述帧中的所述第三位置处与所述第二注释的呈现视觉交叉;
修改所述第二注释,其中修改所述第二注释包括鉴于所述屏幕大小将所述第二注释从针对所述第一显示器的所述视频的帧中的所述第三位置重新定位到针对所述第二显示器的所述视频的帧中的第四位置,以防止所述第一注释和所述第二注释之间的视觉交叉,并且其中所述视频的帧中的所述第四位置不同于所述视频的帧中的所述第三位置;以及
在所述第二显示器上呈现所述视频期间呈现在所述第四位置处覆盖在所述帧上的所述第二注释。
8.如权利要求7所述的方法,进一步包括接收用户接口命令,其中将所述第一注释和所述第二注释重新定位是响应于所述用户接口命令的接收。
9.如权利要求1所述的方法,其中,所述注释由下述中的至少一个表示:标题、对话泡泡、注解、标签、聚光灯或视频缩略图。
10.如权利要求7所述的方法,其中,所述第一注释在所述第二显示器上在所述帧中的所述第一位置处的呈现空间上接近所述第二注释在所述第二显示器上在所述帧中的所述第三位置处的呈现,并且其中,将所述第一注释和所述第二注释重新定位进一步防止由于所述第一注释空间上接近所述第二注释而导致的错误选择。
11.如权利要求1所述的方法,其中,所述第一注释在所述第二显示器上在所述第一位置处的呈现防止所述第一注释被所述用户在所述第二显示器的触摸屏内可选择,并且其中,将所述第一注释重新定位进一步使得所述第一注释被所述用户在所述触摸屏内可选择。
12.一种用于显示带注释的视频内容的移动计算设备,所述移动计算设备包括:
第二显示器;以及
与所述第二显示器通信的处理器,所述处理器被配置成:
接收第一注释的第一位置标识符,所述第一注释在视频的呈现期间要覆盖在所述视频的一个或多个帧上,其中所述第一位置标识符限定所述第一注释在所述第一注释所覆盖于的帧内的第一位置,并且其中所述第一位置被指定用于在第一计算设备的第一显示器上的呈现;
在所述移动计算设备的所述第二显示器上呈现所述视频,其中所述第二显示器小于所述第一显示器,并且其中所述第一注释在所述第二显示器上在所述第一位置处的呈现防止所述第一注释被所述移动计算设备的用户在所述第二显示器的触摸屏内可选择;
修改所述第一注释,其中,为了修改所述第一注释,所述处理器被配置成鉴于所述第二显示器的屏幕大小将所述第一注释从针对所述第一显示器的所述视频的帧中的所述第一位置重新定位到针对所述第二显示器的所述视频的帧中的第二位置,以使得所述第一注释被所述用户在所述触摸屏内可选择,并且其中,所述视频的帧中的所述第二位置不同于所述视频的帧中的所述第一位置;以及
在所述第二显示器上呈现所述视频期间呈现在所述第二位置处覆盖在所述帧上的所述第一注释。
13.如权利要求12所述的移动计算设备,其中所述第一注释具有第一大小,其中所述第一大小被指定用于所述第一显示器上的呈现,其中所述第一注释在所述第二显示器上以所述第一大小的呈现防止所述第一注释被所述用户在所述第二显示器内可读取或者所述用户在所述触摸屏内可选择,其中,为了修改所述第一注释,所述处理器被进一步配置为鉴于所述屏幕大小将所述第一注释从针对所述第一显示器的所述视频的帧中的所述第一大小重新调整为针对所述第二显示器的所述视频的帧中的第二大小,以使得所述第一注释被所述用户在所述第二显示器内可读取以及用户在所述触摸屏内可选择,其中所述视频的帧中的所述第二大小不同于所述视频的帧中的所述第一大小,并且其中所述处理器被进一步配置为在所述第二显示器上呈现所述视频期间以所述第二大小呈现覆盖在所述帧上的所述第一注释。
14.如权利要求13所述的移动计算设备,其中,为了重新调整所述第一注释的大小,所述处理器被进一步配置成重新调整所述第一注释中的消息的字体大小。
15.如权利要求14所述的移动计算设备,其中,所述处理器被进一步配置成基于用于所述屏幕大小的最小字体大小重新调整所述字体大小。
16.如权利要求13所述的移动计算设备,其中,为了重新调整所述第一注释的大小,所述处理器被进一步配置成重新调整所述第一注释的一个或多个视觉元素的大小,并且其中,所述处理器被进一步配置成基于用于所述屏幕大小的最小视觉元素大小重新调整所述视觉元素的大小。
17.如权利要求12所述的移动计算设备,其中,所述处理器被进一步配置成:
接收第二注释的第三位置标识符,所述第二注释在所述视频的呈现期间要覆盖在所述视频的所述帧中的至少一个帧上,其中所述第三位置标识符限定所述第二注释在所述第一注释所覆盖于的所述帧内的第三位置,其中所述第三位置被指定用于所述第一显示器上的呈现,并且其中所述第一注释在所述第二显示器上在所述帧中的所述第一位置处的呈现使得与所述第二注释在所述第二显示器上在所述帧中的所述第三位置处的呈现视觉交叉或空间接近;
修改所述第二注释,其中,为了修改所述第二注释,所述处理器被配置为鉴于所述屏幕大小将所述第二注释从针对所述第一显示器的所述视频的帧中的所述第三位置重新定位到针对所述第二显示器的所述视频的帧中的第四位置,以防止所述第一注释和所述第二注释之间的视觉交叉以及由于所述第一注释空间上接近所述第二注释而导致的错误选择,并且其中所述视频的帧中的所述第四位置不同于所述视频的帧中的所述第三位置;以及
在所述第二显示器上呈现所述视频期间呈现在所述第四位置处覆盖在所述帧上的所述第二注释。
18.如权利要求17所述的移动计算设备,其中,所述处理器被进一步配置成接收用户接口命令,并且其中,所述处理器被进一步配置成响应于所述用户接口命令的接收将所述第一注释和所述第二注释重新定位。
19.如权利要求12所述的移动计算设备,其中,所述第一注释在所述第二显示器上在所述第一位置处的呈现防止所述第一注释被所述用户在所述第二显示器内可读取,并且其中,为了将所述第一注释重新定位,所述处理器被进一步配置为使得所述第一注释被所述用户在所述第二显示器内可读取。
20.一种计算机可读非瞬时存储介质,包括在由处理设备执行时使所述处理设备执行下述的指令:
接收第一注释,所述第一注释在视频的呈现期间要覆盖在所述视频的一个或多个帧上,其中所述第一注释具有第一大小,并且其中所述第一大小被指定用于在第一计算设备的第一显示器上的呈现;
在移动计算设备的第二显示器上呈现所述视频,其中所述第二显示器小于所述第一显示器,并且其中所述第一注释在所述第二显示器上以所述第一大小的呈现防止所述第一注释被所述移动计算设备的用户在所述第二显示器内可读取或所述用户在所述第二显示器的触摸屏内可选择;
由所述移动计算设备的所述处理设备修改所述第一注释,其中,为了修改所述第一注释,所述处理设备鉴于所述第二显示器的屏幕大小将所述第一注释从针对所述第一显示器的所述视频的帧中的所述第一大小重新调整为针对所述第二显示器的所述视频的帧中的第二大小,以使得所述第一注释被所述用户在所述第二显示器内可读取以及用户在所述触摸屏内可选择,并且其中,所述视频的帧中的所述第二大小不同于所述视频的帧中的所述第一大小;以及
在所述第二显示器上呈现所述视频期间呈现以所述第二大小覆盖在所述帧上的所述第一注释。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/861,234 | 2013-04-11 | ||
US13/861,234 US10489501B2 (en) | 2013-04-11 | 2013-04-11 | Systems and methods for displaying annotated video content by mobile computing devices |
PCT/US2014/033653 WO2014169123A1 (en) | 2013-04-11 | 2014-04-10 | Systems and methods for displaying annotated video content by mobile computing devices |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105122826A CN105122826A (zh) | 2015-12-02 |
CN105122826B true CN105122826B (zh) | 2020-01-14 |
Family
ID=51687656
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201480020687.3A Active CN105122826B (zh) | 2013-04-11 | 2014-04-10 | 用于由移动计算设备显示带注释的视频内容的系统和方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10489501B2 (zh) |
EP (1) | EP2984818A4 (zh) |
JP (1) | JP6449853B2 (zh) |
KR (1) | KR102224420B1 (zh) |
CN (1) | CN105122826B (zh) |
WO (1) | WO2014169123A1 (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9648066B2 (en) * | 2014-08-29 | 2017-05-09 | The Boeing Company | Peer to peer provisioning of data across networks |
US10609324B2 (en) | 2016-07-18 | 2020-03-31 | Snap Inc. | Real time painting of a video stream |
CN110392307B (zh) * | 2018-04-17 | 2021-11-09 | 富泰华工业(深圳)有限公司 | 电视节目过滤系统及方法 |
US11141656B1 (en) * | 2019-03-29 | 2021-10-12 | Amazon Technologies, Inc. | Interface with video playback |
CN114979678A (zh) * | 2021-02-25 | 2022-08-30 | 阿里巴巴集团控股有限公司 | 视频播放方法、设备、系统及计算机程序产品 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102740127A (zh) * | 2011-03-29 | 2012-10-17 | 索尼公司 | 方法、装置和系统 |
Family Cites Families (55)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5600775A (en) * | 1994-08-26 | 1997-02-04 | Emotion, Inc. | Method and apparatus for annotating full motion video and other indexed data structures |
JPH10187737A (ja) | 1996-12-19 | 1998-07-21 | Mitsubishi Electric Corp | 枠表示装置 |
US6092068A (en) * | 1997-08-05 | 2000-07-18 | Netscape Communication Corporation | Marked document tutor |
JPH1188861A (ja) | 1997-09-04 | 1999-03-30 | Hitachi Ltd | 番組連動情報処理装置 |
US20020065678A1 (en) * | 2000-08-25 | 2002-05-30 | Steven Peliotis | iSelect video |
US20040194021A1 (en) | 2001-09-14 | 2004-09-30 | Fuji Xerox Co., Ltd. | Systems and methods for sharing high value annotations |
US6988245B2 (en) * | 2002-06-18 | 2006-01-17 | Koninklijke Philips Electronics N.V. | System and method for providing videomarks for a video program |
US7343552B2 (en) | 2004-02-12 | 2008-03-11 | Fuji Xerox Co., Ltd. | Systems and methods for freeform annotations |
JP2006113632A (ja) | 2004-10-12 | 2006-04-27 | Toshiba Corp | メタデータのデータ構造及びメタデータの再生装置とその方法 |
US7383495B2 (en) * | 2005-02-15 | 2008-06-03 | Microsoft Corporation | Presentation viewing tool designed for the viewer |
US8549442B2 (en) | 2005-12-12 | 2013-10-01 | Sony Computer Entertainment Inc. | Voice and video control of interactive electronically simulated environment |
US8392821B2 (en) * | 2006-03-17 | 2013-03-05 | Viddler, Inc. | Methods and systems for displaying videos with overlays and tags |
US8065313B2 (en) * | 2006-07-24 | 2011-11-22 | Google Inc. | Method and apparatus for automatically annotating images |
KR100834813B1 (ko) | 2006-09-26 | 2008-06-05 | 삼성전자주식회사 | 휴대용 단말기의 멀티미디어 컨텐트 관리 장치 및 방법 |
US20080140623A1 (en) * | 2006-12-11 | 2008-06-12 | Microsoft Corporation | Recursive reporting via a spreadsheet |
US7559017B2 (en) * | 2006-12-22 | 2009-07-07 | Google Inc. | Annotation framework for video |
US8347206B2 (en) * | 2007-03-15 | 2013-01-01 | Microsoft Corporation | Interactive image tagging |
US20090044144A1 (en) * | 2007-08-06 | 2009-02-12 | Morris Robert P | Methods And Apparatus For Sharing User Interface Widget Annotations |
US8364020B2 (en) * | 2007-09-28 | 2013-01-29 | Motorola Mobility Llc | Solution for capturing and presenting user-created textual annotations synchronously while playing a video recording |
US8898558B2 (en) * | 2007-12-07 | 2014-11-25 | Hewlett-Packard Development Company, L.P. | Managing multimodal annotations of an image |
US8140973B2 (en) * | 2008-01-23 | 2012-03-20 | Microsoft Corporation | Annotating and sharing content |
US8112702B2 (en) * | 2008-02-19 | 2012-02-07 | Google Inc. | Annotating video intervals |
US20090300473A1 (en) * | 2008-05-31 | 2009-12-03 | Randy Adams | Systems and Methods for Displaying Albums Having Links to Documents |
US8566353B2 (en) * | 2008-06-03 | 2013-10-22 | Google Inc. | Web-based system for collaborative generation of interactive videos |
KR101513620B1 (ko) * | 2008-08-21 | 2015-04-20 | 엘지전자 주식회사 | 이동단말기의 진동제어 장치 및 방법 |
US9390169B2 (en) * | 2008-06-28 | 2016-07-12 | Apple Inc. | Annotation of movies |
US20100037149A1 (en) * | 2008-08-05 | 2010-02-11 | Google Inc. | Annotating Media Content Items |
JP2010098730A (ja) | 2008-09-22 | 2010-04-30 | Toshihiko Okabe | リンク情報の提供装置、表示装置、システム、方法、プログラム、記録媒体及びリンク情報の送受信システム |
JP5218353B2 (ja) | 2009-09-14 | 2013-06-26 | ソニー株式会社 | 情報処理装置、表示方法及びプログラム |
KR100982768B1 (ko) | 2009-09-21 | 2010-09-20 | (주)올라웍스 | 단말기의 각도에 따라 서로 다른 영상 정보를 제공하기 위한 방법, 단말기 및 컴퓨터 판독 가능한 기록 매체 |
US8751942B2 (en) * | 2011-09-27 | 2014-06-10 | Flickintel, Llc | Method, system and processor-readable media for bidirectional communications and data sharing between wireless hand held devices and multimedia display systems |
US8400548B2 (en) * | 2010-01-05 | 2013-03-19 | Apple Inc. | Synchronized, interactive augmented reality displays for multifunction devices |
US8411066B2 (en) * | 2010-01-05 | 2013-04-02 | 3M Innovative Properties Company | High speed noise tolerant multi-touch touch device and controller therefor |
CN102473259A (zh) | 2010-02-12 | 2012-05-23 | 株式会社日立制作所 | 帐票显示系统、帐票显示程序及注释显示方法 |
JP2011215824A (ja) | 2010-03-31 | 2011-10-27 | Brother Industries Ltd | 画像表示装置、画像表示方法、及び画像表示プログラム |
KR101743244B1 (ko) * | 2010-07-16 | 2017-06-02 | 삼성전자주식회사 | 메뉴 표시 방법 및 장치 |
US20120072957A1 (en) * | 2010-09-20 | 2012-03-22 | Google Inc. | Providing Dynamic Content with an Electronic Video |
US20120151345A1 (en) * | 2010-12-10 | 2012-06-14 | Mcclements Iv James Burns | Recognition lookups for synchronization of media playback with comment creation and delivery |
GB2487972A (en) * | 2011-02-11 | 2012-08-15 | Nokia Corp | A method of display of comments associated with an object |
US9645986B2 (en) * | 2011-02-24 | 2017-05-09 | Google Inc. | Method, medium, and system for creating an electronic book with an umbrella policy |
US20130042171A1 (en) * | 2011-08-12 | 2013-02-14 | Korea Advanced Institute Of Science And Technology | Method and system for generating and managing annotation in electronic book |
WO2013037080A1 (en) * | 2011-09-12 | 2013-03-21 | Intel Corporation | Annotation and/or recommendation of video content method and apparatus |
US8838432B2 (en) * | 2012-02-06 | 2014-09-16 | Microsoft Corporation | Image annotations on web pages |
EP2820513A4 (en) * | 2012-02-29 | 2015-01-21 | Qualcomm Inc | DISPLAY OF A ROOM-RELATED ANNOTATION FOR WRITTEN CONTENT |
US8823744B2 (en) * | 2012-03-23 | 2014-09-02 | Bluebeam Software, Inc. | Method for indicating annotations associated with a particular display view of a three-dimensional model independent of any display view |
US9996516B2 (en) * | 2012-05-16 | 2018-06-12 | Rakuten, Inc. | Image processing device for determining a display position of an annotation |
US9147221B2 (en) * | 2012-05-23 | 2015-09-29 | Qualcomm Incorporated | Image-driven view management for annotations |
TWI464667B (zh) * | 2012-05-23 | 2014-12-11 | Wistron Corp | 電子書之筆記共享方法及電子閱讀裝置、電腦可讀取媒體 |
US8475284B1 (en) * | 2012-07-31 | 2013-07-02 | Scott Rudi | Dynamic views within gaming environments |
US9032335B2 (en) * | 2012-08-14 | 2015-05-12 | Christopher V. Beckman | User interface techniques reducing the impact of movements |
US9113033B2 (en) * | 2012-08-28 | 2015-08-18 | Microsoft Technology Licensing, Llc | Mobile video conferencing with digital annotation |
US9710944B2 (en) * | 2012-10-22 | 2017-07-18 | Apple Inc. | Electronic document thinning |
US20140149884A1 (en) * | 2012-11-26 | 2014-05-29 | William Joseph Flynn, III | User-Based Interactive Elements |
US10783319B2 (en) * | 2013-03-11 | 2020-09-22 | Coachmyvideo.Com Llc | Methods and systems of creation and review of media annotations |
US20140337705A1 (en) * | 2013-05-10 | 2014-11-13 | Successfactors, Inc. | System and method for annotations |
-
2013
- 2013-04-11 US US13/861,234 patent/US10489501B2/en active Active
-
2014
- 2014-04-10 WO PCT/US2014/033653 patent/WO2014169123A1/en active Application Filing
- 2014-04-10 JP JP2016507660A patent/JP6449853B2/ja active Active
- 2014-04-10 KR KR1020157032102A patent/KR102224420B1/ko active IP Right Grant
- 2014-04-10 CN CN201480020687.3A patent/CN105122826B/zh active Active
- 2014-04-10 EP EP14783503.7A patent/EP2984818A4/en not_active Ceased
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102740127A (zh) * | 2011-03-29 | 2012-10-17 | 索尼公司 | 方法、装置和系统 |
Also Published As
Publication number | Publication date |
---|---|
KR102224420B1 (ko) | 2021-03-05 |
JP6449853B2 (ja) | 2019-01-09 |
KR20150142016A (ko) | 2015-12-21 |
EP2984818A1 (en) | 2016-02-17 |
CN105122826A (zh) | 2015-12-02 |
WO2014169123A1 (en) | 2014-10-16 |
EP2984818A4 (en) | 2016-12-21 |
US10489501B2 (en) | 2019-11-26 |
JP2016523011A (ja) | 2016-08-04 |
US20140310586A1 (en) | 2014-10-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9489113B2 (en) | System and method for playback of media content with audio touch menu functionality | |
KR102577186B1 (ko) | 코스웨어 녹화 및 재생 방법, 장치, 스마트 인터랙티브 태블릿 및 저장 매체 | |
US20220100327A1 (en) | Method and an electronic device for performing playback of streamed media including related media content | |
US20210096714A1 (en) | Automatic positioning of content items in a scrolling display for optimal viewing of the items | |
US10353577B2 (en) | Method and system for implementing content navigation or selection using touch-based input | |
US10638082B2 (en) | Systems and methods for picture-in-picture video conference functionality | |
KR20190137903A (ko) | 컴퓨팅 디바이스 인터렉션에 응답하여 비디오 미리보기 | |
US20170024110A1 (en) | Video editing on mobile platform | |
JP6754968B2 (ja) | 動画再生方法、動画再生装置及び動画再生プログラムを記憶したコンピュータ読み取り可能な記憶媒体 | |
US20170075468A1 (en) | System and method for playback of media content with support for force-sensitive touch input | |
CN105122826B (zh) | 用于由移动计算设备显示带注释的视频内容的系统和方法 | |
US7984377B2 (en) | Cascaded display of video media | |
US11997413B2 (en) | Media content presentation | |
US20130246948A1 (en) | Control method and control device | |
US9921710B2 (en) | Method and apparatus for converting and displaying execution screens of a plurality of applications executed in device | |
US9270928B2 (en) | Video-previewing methods and systems for providing preview of a video and machine-readable storage mediums thereof | |
US20150277707A1 (en) | System and method for multi-track playback of media content | |
EP2925008A1 (en) | System and method for multi-track playback of media content | |
US10444846B2 (en) | Adjustable video player | |
EP2891964A1 (en) | Systems and methods of displaying and navigating program content based on a helical arrangement of icons | |
JP2014036232A (ja) | コンテンツ配信システム、コンテンツ表示装置、コンテンツ配信方法、コンテンツ表示方法及びプログラム | |
US20120272150A1 (en) | System and method for integrating video playback and notation recording |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: American California Applicant after: Google limited liability company Address before: American California Applicant before: Google Inc. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |