CN101453591B - 用于呈现交互式多媒体节目的系统和方法 - Google Patents
用于呈现交互式多媒体节目的系统和方法 Download PDFInfo
- Publication number
- CN101453591B CN101453591B CN2008101777939A CN200810177793A CN101453591B CN 101453591 B CN101453591 B CN 101453591B CN 2008101777939 A CN2008101777939 A CN 2008101777939A CN 200810177793 A CN200810177793 A CN 200810177793A CN 101453591 B CN101453591 B CN 101453591B
- Authority
- CN
- China
- Prior art keywords
- additional content
- program
- user
- content item
- multimedia
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/4722—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/43—Querying
- G06F16/432—Query formulation
- G06F16/433—Query formulation using audio data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/43—Querying
- G06F16/438—Presentation of query results
- G06F16/4387—Presentation of query results by the use of playlists
- G06F16/4393—Multimedia presentations, e.g. slide shows, multimedia albums
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/63—Querying
- G06F16/632—Query formulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42203—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/433—Content storage operation, e.g. storage operation in response to a pause request, caching operations
- H04N21/4332—Content storage operation, e.g. storage operation in response to a pause request, caching operations by placing content in organized collections, e.g. local EPG data repository
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/434—Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
- H04N21/4394—Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
- H04N21/4402—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
- H04N21/440236—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by media transcoding, e.g. video is transformed into a slideshow of still pictures, audio is converted into text
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/462—Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
- H04N21/4622—Retrieving content or additional data from different sources, e.g. from a broadcast channel and the Internet
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8126—Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
- H04N21/8133—Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts specifically related to the content, e.g. biography of the actors in a movie, detailed information about an article seen in a video program
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/84—Generation or processing of descriptive data, e.g. content descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8456—Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
Abstract
一种用于呈现交互式多媒体节目的方法,包括:选择用于呈现的多媒体节目,节目具有一个或多个段和多个附加内容项,其中每个项与至少一个段相关联,并且对多个对于节目的预定查询中至少一个进行响应。方法还包括:在呈现节目期间接收至少一个用户查询,标识预定查询中与用户查询相对应的查询,并检索项中与节目的当前段相关联的项,以及对预定查询中所标识的查询进行响应。
Description
技术领域
本申请涉及交互式多媒体服务领域,更特别地,涉及用于提供交互式多媒体节目的系统和方法。
背景技术
通常,从用户看来,多媒体节目的呈现是被动的行为。即,不仅多媒体节目的内容通常是静态的,而且呈现内容的顺序也是静态的。但是,大多数用户通常有兴趣获取与多媒体呈现相关的附加内容。不幸的是,这样的附加内容通常并不能从多媒体节目本身得到,并且用户通常必须进行独立的搜索以发现这样的内容。某些多媒体节目在呈现多媒体节目期间向用户提供提示(prompt)。这样的提示可将用户指引到附加内容的位置,但是在这么做时,提示通常引导用户离开多媒体节目。而且,通过这样的提示所提供的内容通常仅仅是多媒体节目中特定点处的特定的有限的内容。
发明内容
本发明涉及用于提供具有增强能力的交互式多媒体节目的系统、计算机产品和相关方法。在一个方面,本发明提供交互式多媒体节目,其具有在交互式多媒体呈现期间不同点处提供各种数量的各种信息的能力。
在本发明的第一实施例中,提供了用于呈现交互式多媒体节目的方法。所述方法可包括选择用于呈现的多媒体节目的步骤。节目可具有一个或多个段、和多个附加内容项。每个项可与至少一个所述段相关联,并且可对多个对于节目的预定查询中至少一个进行响应。方法还可包括在呈现节目期间接收至少一个用户查询,标识预定查询中与用户查询相对应的查询,并且检索这些项中与节目的当前段相关联的项并对预定查询中被标识的查询进行响应。
在本发明的另一实施例中,提供了交互式多媒体系统。所述系统可包括用于呈现多媒体节目的多媒体处理单元,节目具有一个或多个段以及多个相关联的内容项。每个项可与至少一个所述段相关联,并且可对多个对于节目的预定查询中至少一个进行响应。处理单元可提供至少一个用户接口单元,用于在呈现节目期间接收至少一个用户查询。此外,所述系统可包括查询处理单元,用于标识预定查询中与用户查询相对应的查询,并用于响应于预定查询中被标识的查询检索这些项中与节目的当前段相关联的项。
在本发明的又一个实施例中,提供了计算机可读的存储介质。所述计算机可读的存储介质可具有存储在其中的多个可由计算机执行的指令。这多个指令可包括用于执行选择用于呈现的多媒体节目的步骤的代码部分,其中节目具有一个或多个段以及多个相关联的内容项,其中每个项与至少一个所述段相关联并对多个对于节目的预定查询中至少一个进行响应。这多个指令还可包括用于使得在呈现节目期间接收至少一个用户查询、用于标识预定查询中与用户查询相对应的查询、以及用于响应于预定查询中被标识的查询而检索这些项中与节目的当前段相关联的项的代码部分。
附图说明
图1是根据本发明一个实施例的支持交互式多媒体节目的呈现的示例性通信系统的示意图。
图2是根据本发明一个实施例的用于呈现交互式多媒体节目的方法的示例性步骤的流程图。
图3是根据本发明一个实施例的一组指令在其中操作的计算机系统的示意图。
具体实施方式
通常,在呈现多媒体节目时,一旦用户已经选择了用于呈现的节目,用户和多媒体节目之间的交互就结束了。即,用户通常不能从节目本身获得关于节目内容的附加信息。在某些情况下,诸如当观看使用交互式节目指南服务的节目时,用户可以获得标题、日期、以及参与者信息。有时,用户还能获得概述。但是,用户通常不能获得任何附加内容。例如,除叙述(narrative)所提供的信息之外,观看自然记录片的用户不能获得关于正被显示的图像的精确位置信息。
根据另一个例子,收听歌剧无线电广播的用户可能能够获得基本的标题、歌手、地点、组织者信息,但是不能检索任何类型的传记(biographical)信息。这些类型的对多媒体内容呈现的限制通常是由于多媒体节目不仅通常以线性方式被呈现,而且还是时间受限的。作为这些限制的结果,这样的节目的制作者通常不得不删减或排除内容和信息,包括至少某些用户可能感兴趣的内容或信息。
许多用户可能不满足于在多媒体节目呈现期间所提供的有限量的内容。例如,再次参考自然记录片的例子,计划到记录片中所展示的地方去旅行的用户可能希望获得地点的精确地理坐标或被采访者的联系信息。尽管用户可以通过诸如因特网之类的可替换的渠道获得相同的内容或信息,但是这样做通常需要额外的研究,而这对于用户来说可能是费时的。有些时候,这些内容中的一些可能不容易获取。甚至,这些内容可能根本得不到。结果,用户可能在多媒体节目的剩余节目期间可能分神,从而导致用户忽略制作者认为对于用户体验该节目而言重要或关键的部分。而且,用户可能分神,并失去对该多媒体节目的兴趣,从而损失广播商和广告商收入。
本发明的实施例提供一种用于呈现交互式多媒体节目的系统和方法,其中用户可与多媒体节目交互,以检索与多媒体节目相关联的附加内容,而不妨碍呈现或享受节目。本发明的一个方面规定,利用多信道(multi-channel)传输来呈现多媒体节目,其中至少一个信道(channel)被用于传输多媒体节目内容,而至少一个其他信道被用于传输附加内容。本发明的另一方面规定,基于一个或多个用户查询而向用户提供附加内容,而不是提示或以其他方式强迫用户观看其不感兴趣的内容。
图1描绘了根据本发明实施例的支持交互式多媒体节目的呈现的通信系统100的一个示例性实施例。如图1所示,系统100可包括用于呈现交互式多媒体节目的交互式多媒体系统(IMS)102。根据本发明的实施例,交互式多媒体节目可包括声音、信息、静止图像、运动图像或其任意组合的任何呈现。IMS 102可包括用于呈现这些多媒体节目的多媒体处理单元(MP)120。可利用数字技术、模拟技术,或其任意组合来向IMS 102提供多媒体节目。而且,如同前面提到的,多媒体节目可包括一个或多个信息信道。例如,多信道数字电视节目可包括视频信道、音频信道、隐蔽字幕(closed captioning)信道、以及一个或多个数据信道。在本发明的实施例中,IMS 102可利用媒体设备104呈现多媒体节目,其中媒体设备104诸如是音频设备104a、视频设备104b、计算机单元104c、或其任意组合。在某些实施例中,可利用多个媒体设备104来呈现多媒体节目。
IMS 102可从多种远程源106a、106b和/或本地源108接收交互式多媒体节目。本地源108可包括诸如音频/视频消费类电子设备(例如,基于音频和视频盘的播放器、模拟和数字视频磁带播放器、留声机、模拟和数字音频磁带播放器、MP3播放器、数字照相机和摄像机、以及计算设备)之类的设备。远程源可包括有线源106a和无线源106b。例如,有线源106a可包括因特网协议电视(IPTV)子系统、有线电视(CATV)子系统、有线电话网络和有线数据网络。无线源106b例如可包括卫星电视和无线电子系统、地面电视和无线电广播、无线电话网络和无线数据网络。在无线源106b的情况下,天线单元107,诸如空中天线(aerial antenna)、圆盘式卫星电视天线(satellite dish)或其它接收硬件,可被用来接收多媒体节目。本领域技术人员应当理解,本发明不限于前述的例子,并且本地源108和远程源106a、106b可以包括多信道多媒体节目的任何可能的源。
如图1所示,IMS 102还可包括命令或查询处理单元(QP)122,用于处理用于管理IMS 102的用户命令和查询。可为用户提供一个或多个输入设备,以输入用于管理IMS 102的命令。这些输入设备110可被配置成利用有线或无线技术与IMS 102通信。例如,输入设备110可包括利用红外或射频(RF)信号与IMS 102无线地通信的无线控制器111。输入设备110可包括有线或无线键盘和/或点击设备112。可替换地,输入设备110还可以包括用于接受基于语音的命令的音频输入端113。在本发明的各种实施例中,为IMS 102提供的输入设备的类型、配置和数量可基于用户类型而变化。尽管单个输入设备110可被用来管理IMS 102,但是利用多个输入设备110的组合来输入用于管理IMS102的命令也在本发明的范围内。输入设备110的这些示例性实施例是作为示例而给出的,而不是限制性地。因此,对于本领域技术人员应当显而易见的是,任何类型的输入设备都可以被用来管理IMS 102。
在图1中所示的系统100的示例性实施例中,IMS 102、媒体设备104、本地源108以及天线单元107被表示为不同的和单独的单元。但是,将IMS 102结合到另一设备中也在本发明范围之内。例如,IMS 102可被结合到电视机中。在另一个例子中,IMS 102可被结合到用于数字视频记录或频道调谐(channel tuning)的机顶盒(STB)中。在又一个例子中,IMS 102可被结合到音频系统中。因此,IMS 102可被结合到能够接收或呈现至少一部分多信道多媒体节目的任何设备中。例如,典型的家庭影院系统可包括与环绕音响系统(surround soundsystem)协作地耦接的电视,以呈现来自STB或DVD播放器的多媒体节目。在这样的配置中,IMS 102可被结合到电视、音响系统或二者之中。
图2示出根据本发明一个实施例的在系统100的部分中操作的示例性方法200。在示例性方法200的步骤202中,具有一个或多个段的多媒体节目可以被选择用于传输或呈现。可通过多媒体节目中任何类型的划分来定义段。例如,仅举几个例子,可通过时间、一个或多个主题、一个或多个参与者、一个或多个地点、或其任意组合来将多媒体呈现分成段。例如,关于多个地点的多媒体节目可通过地点被划分,但是也可通过在每个地点所讨论的主题来进一步划分。
一旦在步骤202,多媒体节目的段被标识,在步骤204,多媒体节目或它们的段就可根据其内容而被分类。多媒体节目的分类可能是必要的,因为不同类型的多媒体节目可包括可能影响有可能可用于该节目的数据类型的不同类型的内容。例如,与体育比赛相关的内容类型可不同于与自然记录片或新闻节目相关的内容类型。在体育比赛中,内容可包括选手、队、比赛地点、以及其它体育比赛信息和统计数据。与之对比,自然记录片内容可包括地点、野生生物、栽培生物、以及气候信息。本发明还可对多媒体节目的各个段分类。这样的分类可能是必要的,因为即使在单个多媒体节目中,不同部分也可能以不同格式来呈现。在某些实施例中,多媒体节目段可具有单独的分类。在其他实施例中,用于不同段的分类可以是整个节目的分类的子分类。例如,如同前面所讨论的,自然记录片可包括叙述部分和采访部分。因此,尽管每个段可能通常被分类成叙述段和采访段,但是可替换地,这些段可被分类成自然记录片叙述段和自然记录片采访段的子分类。
一旦多媒体节目或其中的段已经在步骤204中被分类,在步骤206中就可以检索用于每个分类段的数据条目模板(data entry template),并且在步骤208中可以生成用于多媒体节目的数据库。数据条目模板可被用来生成可能与特定分类的段相关联的内容的数据库。虽然数据条目模板对于每种类型的分类可以是静态的,但是在某些实施例中,数据条目模板在检索后可以被进一步定制用于包括其它类型的内容的特定媒体节目或段。数据条目模板可以如通常与段的分类相关联的内容类型列表一样简单。列表然后可被用于利用数据库应用来生成内容数据库。在其他实施例中,作为替代,数据条目模板可以是空的数据库,准备被填充(populate)以内容。但是,数据条目模板不需要被单独提供,并且可以被包括在单个数据库中,其中数据库包括由段排序(sort)的模板信息。
无论在步骤208中如何生成数据库,数据库可在步骤209中被填充。数据库的条目不限于文本信息,而是也可包括音频、视频和/或图形信息。例如,再参考自然记录片的例子,关于野生生物的附加信息可包括特定动物的(静止或运动的)图像或声音。但是,条目的类型也可受到多媒体节目的类型限制。例如,对于音频/视频呈现,可包括文本、声音和图像。与之对比,音频节目的条目可能只被限制为文本和/或声音,因为显示设备可能在播放音频节目期间是不可用的。
利用在步骤209中被填充的数据库,于是可在步骤210中生成用于多媒体节目的数据流。该流可包括所有内容、以及基于模板根据节目中段的顺序而排列的内容的标识信息。数据流的定时(timing)可被配置成与多媒体呈现的段在被呈现给用户时的定时一致。即,当多媒体节目从段到段移动时,数据流的内容也可变化。例如,数据流可被配置成提供内容的汇总源(cumulative source),使得在多媒体节目中任何点,用户都将能够访问之前可获得的任何内容。但是,数据流也可被配置成仅包括与多媒体呈现的当前内容有关的内容。因而,数据流的当前部分中不包括不被认为与多媒体呈现的当前段中内容相关的内容。
一旦在步骤210生成数据流,在步骤212就可生成用于解释命令以访问数据流中的数据的查询语法。注意,术语“语法(grammar)”在这里被用作一般意义,并且涉及返回语言解释的(speech-interpreted)输出的任何技术。例如,在人类语言中,语法规定相对受限的有限数量的途径来表达想法。作为对比,语法、诸如统计语法明显更健壮,虽然通常是计算密集和存储密集的。因此,这里使用的术语“语法”泛指可被用来表现(render)语言解释的输出的所有各种类型的语法,而不管使用什么下层技术。
查询语法可被用于对利用输入设备110所输入的命令和查询进行响应。这样的配置是有利的,因为使用命令和查询的基于语法的识别不需要用户知道用于检索内容的特定命令或查询形式。相反,用户可利用任何类型的格式输入命令或查询。查询语法然后可解释命令,并且如果对于语法有效,则采取适当的动作。可基于用来生成数据流的数据条目模板和内容生成查询语法。因此,只需要生成有限语法(limited grammar)。通过提供有限语法而不是完全语法(fullgrammar)来识别到IMS 102的任何命令,IMS 102可被配置成在呈现多媒体内容期间,只对关于可获得的内容的命令进行响应,并阻止对不可获得的内容的不必要的搜索。
在某些实施例中,可为多媒体节目生成单个查询语法。但是,由于不同段的内容和相关内容可以变化,所以可为多媒体节目的每个段生成查询语法。不管是如何生成查询语法的,所生成的语法可被包括作为数据流的第一部分,在该语法所基于的内容之前被呈现。
本发明的一个方面规定:在步骤214,多媒体节目被传送到IMS102,该节目包括一个或多个内容信道中的一个或多个节目内容流、数据信道中的附加内容数据流、以及同一或分离的数据信道中的一个或多个相关查询语法。然后,在步骤216,IMS 102可以利用MMP 120来在媒体设备104上显示来自内容信道的多媒体节目内容。在步骤218,IMS 102还可以检索用于QP 122的查询语法和数据流中的内容。IMS102可使用存储单元来存储和访问需要的附加内容和查询语法。在各种实施例中,IMS 102的预处理器部分(未示出)可被用来确定什么类型的流位于IMS 102正接收的各种信道中。但是,在某些实施例中,预处理部分或至少其功能也可以被结合到QP 122或MP 120中。在其它实施例中,信道可被标准化,并且MP 120和QP 122可接收所有信道,并根据信道标准而选择性地分别选择内容和数据流。一旦开始呈现节目,在步骤220,QP 122然后就可监视用户命令或查询。
本发明的另一个方面规定:查询语法不被提供给IMS 102。相反,IMS 102可被配置成根据需要生成查询语法。这样的配置的有利之处在于,减少了传送多媒体节目所需要的数据信道或数据带宽的量。在这样的实施例中,在步骤222,只有节目内容流和数据流被传送给IMS102。如前面所述的,然后可在步骤224呈现多媒体节目内容,并且可在步骤226存储数据流中的附加内容。但是,QP 122可被配置成在步骤228基于接收到的数据流生成语法。因为数据流内在地(inherently)包括内容和用来生成数据流的数据条目模板,所以QP 122可被配置成从数据流中提取模板,并生成必要的查询语法,如前面对于步骤212所描述的那样。而且,可由QP 122以节目为基础或逐段地生成查询语法。在逐段方法中,可以在开始每个段的呈现时生成查询语法。但是,以下情形也在本发明的范围之内,即在开始多媒体节目的呈现时最初提供包括段信息在内的所有信息的“脉冲串(burst)”,以使QP 122能够生成所有必要的查询语法。之后,在步骤220,QP 122可监视(monitor)用户命令或查询。
如同前面所述的,一个或多个输入设备110可被用于向IMS 102提供输入。在本发明的某些实施例中,可使用基于语音的(speech-based)输入。在其它实施例中,可利用无线控制器111或者键盘和/或点击设备112来向IMS 102提供命令。如果QP 122在步骤230没有检测到任何类型的输入,则QP可在步骤220继续监视输入。
如果QP 122在步骤230检测到输入,则QP 122可确定输入是否与用于从数据流中检索内容的有效命令或查询相关联。但是,处理命令的方式可根据处理输入的方式而变化。例如,在基于语音的系统中,QP 122可被配置成利用语音-文本转换(speech-to-text)系统来转换所有输入的语音。因此,一旦可获得输入语音的文本,QP 122就可在步骤232中使用查询语法来确定输入是否对应于有效命令。如果在步骤234,命令被确定为无效,则QP 122可在步骤220中继续监视输入。这样的配置可以是有利的,因为QP 122可通过总是要求文本输入而得到简化。因此,同样的输入接口可以被用于将QP 122连接到语言-文本转换处理器,并连接到键盘112或其它文本输入接口。
但是,在某些实施例中,语言-文本转换系统可被包括在QP 122中。即,QP 122可被配置成既识别文本,也随后确定语音是否限定有效命令。在至少一个实施例中,查询语法也可被用作语音识别语法(speech recognition grammar)。因此,只将可利用查询语法识别的语音视作有效输入,而不是识别所有输入语音。这样的配置是有利的,因为命令有效性的识别和确定可以单步完成,因为只有有效的语音命令才将被查询语法识别。
一旦QP 122在步骤234中确定检测到的输入对应于有效命令,则在步骤236,QP 122可访问与所识别的输入命令相关的附加内容的存储位置。之后,在步骤238,QP 122可检索内容并向用户呈现所检索到的内容。即,检索到的内容可被传递给MP 120,MP 120然后输出内容给媒体设备104。所呈现的内容的格式和排列(arrangement)可变化。在某些实施例中,MP 120可被配置成以一种或多种标准排列来呈现内容。但是,所检索到的内容自身可指定将如何呈现数据。例如,所检索到的内容还可包括用于MP 120的指令,从而以特定的排列显示数据条目。
在其它实施例中,MP 120还可被配置成基于媒体设备104的可获得的性能确定如何最好地呈现内容。例如,如果MP 120正在利用音频输出设备呈现检索到的内容,则MP 120可确定不应当显示视觉内容。而且,MP 120可确定将需要音频声音来呈现内容。在这样的实施例中,MP 120可包括文本-语音转换(text-to-speech)系统,用于以语音格式(spoken format)输出文本内容。然后,在播放音频节目期间,语音文本(spoken text)可作为附加的声音而被输出。类似地,MP120可确定,在高分辨率显示器不可用的时候,包括高分辨率图像的内容需要被转换成较低分辨率的图像。在某些实施例中,检索到的数据也可指定如何为不同类型的输出设备呈现内容。
在另外的实施例中,MP 120还可被配置成确定是否要改变原始节目的呈现。例如,虽然在播放歌剧或管弦乐期间,附加内容可被呈现为画外音,但是在谈话录制期间提供画外音可能很容易使听者迷惑。在这样的实施例中,MP 120可被配置成确定:如果在画外音和原始声音之间存在实质的重叠,则应当降低原始节目的音量,以使得语音可被用作合适的画外音。在某些情况下,不是降低音量,而是可以例如仅仅利用两个可用音频扬声器中的一个来呈现原始节目,而利用另一扬声器来呈现画外音。在另一个例子中,虽然视觉内容可以被显示在显示输出设备的小区域中,但是视觉内容可能具有在该小区域内不能被充分显示的特征。作为替代,MP 120可减小原始节目的大小,并利用显示输出设备的更大的部分来显示视觉内容。此外,用于改变原始节目的呈现的指令可与数据一起被包括。这样的实施例可以是有利的,因为可减少MP 120所需要的处理量。
尽管上述实施例提供了说明仅从数据流中检索附加内容的例子,但是本发明不限于这方面。在某些实施例中,在步骤238中检索和呈现附加内容之前,QP 122还可被配置成确定是否存在更新的内容。例如,在现场直播的体育比赛中,信息被不断更新。比分、统计数据、处罚以及其它值在比赛中一直在变化。在这样的实施例中,QP 122可被配置成经由数据网络访问一个或多个远程服务器,从而检索更新的信息。在某些情况下,数据流中的内容不仅可包括在生成流的时刻可获得的内容,而且还可包括用于获得更新的信息的一个或多个位置。因此,QP 122可在步骤240确定对于数据流是否存在任何更新的内容,并在步骤240检索和呈现该内容。
在某些实施例中,内容可以被更新仅仅一次,或者仅仅在已经经过一时间间隔之后才更新。在其它实施例中,信息可在被上载(upload)到IMS 102时被更新,或者信息可以仅当用户查询请求内容时才被更新。因此,IMS 102可被配置成提供对于被更新的内容的类型和IMS 102的网络性能最为有效的用于更新内容的系统。一旦已经在步骤238中呈现了内容,则IMS 102可在步骤242中确定另一段是否已经开始。如果还没有开始,则IMS 102可继续监视输入并响应性地输出内容,如同在步骤220和230-238中一样。如果新的段开始,则可重复以步骤212或222开始的对段的处理。
图3是用于执行一组指令的计算机系统300的示意图,其中,这组指令在被执行时可使计算机系统执行一个或多个上述方法和过程。在某些实施例中,计算机系统300作为独立设备运行。在其它实施例中,计算机系统300可被连接到其它计算设备(例如利用网络)。在连网的配置中,计算机系统300可在服务器-客户端开发者网络环境中充当服务器或客户端开发者机器(client developer machine),或者在对等(或分布式)网络环境中作为对等机(peer machine)。
机器可包括各种类型的计算系统和设备,包括服务器计算机、客户端用户计算机、个人计算机(PC)、平板PC、膝上型计算机、台式机、控制系统、网络路由器、交换机或网桥、或能够执行指定设备要采取的动作的一组指令(顺序的或其他的)的任何其它设备。应当理解,本公开的设备还包括提供语音、视频或数据通信的任何电子设备。而且,虽然说明了单个计算机,但是短语“计算机系统”应当被理解为包括单独或联合执行一组(或多组)指令以执行这里所讨论的任意一个或多个方法的计算设备的任意集合。
计算机系统300可包括处理器302(诸如中央处理单元(CPU)、图形处理单元(GPU),或两者)、主存储器304和静态存储器306,它们经由总线308而相互通信。计算机系统300还可包括显示单元310,诸如视频显示器(例如,液晶显示器或LCD、平板、固态显示器、或阴极射线管(CRT))。计算机系统300可包括输入设备312(例如键盘)、光标控制设备314(例如鼠标)、盘驱动单元316、信号生成设备318(例如扬声器或远程控制器)和网络接口设备320。
盘驱动单元316可包括计算机可读存储介质322,其上存储有一组或多组指令324(例如软件代码),这些指令被配置成实现一个或多个这里描述的方法、过程或功能,包括上面说明的那些方法。指令324也可以完全或至少部分地驻留在主存储器304、静态存储器306内,和/或也可以在其被计算机系统300执行期间驻留在处理器302内。主存储器304和处理器302还可构成机器可读介质。
专用硬件实现方式包括但不限于特定用途集成电路、可编程逻辑阵列、以及其它能够类似地被构建为实现这里所描述的方法的硬件设备。可包括各种实施例的设备和系统的应用广泛地包括多种电子和计算机系统。某些实施例在两个或更多个特定的互连的硬件模块或设备中实现功能,其中相关控制和数据信号在这些模块之间并通过这些模块通信,或者某些实施例将功能实现为特定用途集成电路的部分。因此,示例性系统适用于软件、固件和硬件实施。
根据本公开的各种实施例,这里所描述的方法可作为软件程序被存储在计算机可读介质中,并可被配置用于在计算机处理器上运行。而且,软件实施可包括但不限于也可被构建用于实现这里所描述的方法的分布式处理、组件/对象分布式处理、并行处理、虚拟机处理。
本公开预期一种计算机可读介质,其包含指令324,或者从传播的信号中接收并执行指令324,以使得连接到网络环境326的设备可发送或接收语音和/或视频数据,并可利用这些指令324在网络326上通信。指令324还可经由网络接口设备320而在网络326上被发送或接收。
尽管计算机可读存储介质322在一示例性实施例中被示为单个存储介质,但是术语“计算机可读存储介质”应当被认为包括存储该一组或多组指令的单个介质或多个介质(例如,集中式或分布式数据库,和/或相关联的缓存器及服务器)。术语“计算机可读存储介质”还应当被认为包括任何能够存储、编码或携带供机器执行并使机器执行本公开中任意一个或多个方法的一组指令的介质。
相应地,术语“计算机可读介质”应当被认为包括但不限于固态存储器,诸如存储卡或其它容纳一个或多个只读(非易失性)存储器、随机存取存储器或其它可重写的(易失性)存储器的外壳(package);磁光或光介质,诸如盘或磁带;以及载波信号,诸如在传输介质中包含计算机指令的信号;和/或电子邮件的数字文件附件或其它被认为是等价于有形存储介质的分布介质的自含式信息存档或存档集。因此,本公开被认为包括如这里所列出的任意一种或多种计算机可读介质或分布介质,并包括这里的软件实施可被存储于其中的公认等价物和后继介质。
虽然本说明书参考特定的标准和协议描述了实施例中所实现的组件和功能,但是本公开不限于这样的标准和协议。每个用于因特网和其它分组交换网络传输的标准(例如,TCP/IP、UDP/IP、HTML,以及HTTP)都代表当前技术发展水平的例子。这些的标准定期地被基本上具有相同功能的更快或更高效的等价物所取代。因此,具有相同功能的替代标准和协议被认为是等价物。
这里所描述的实施例的说明意图提供一种对各种实施例的结构的一般性理解,并且它们不是要作为对可能利用这里所述的结构的系统和设备的所有单元和特征的完整描述。在阅读了上面的描述之后,许多其它实施例对于本领域技术人员而言将是显而易见的。其它实施例可被利用并被从中推导出,从而可作出结构和逻辑的替换和变化,而不背离本公开的范围。附图也仅仅是代表性的,并且可能不是按比例描绘的。其某些部分可能被夸大,而其它部分可能被缩小。因此,本说明书和附图将被认为是示意性的而不是限制性的。
发明性主题的这样的实施例在这里可以单独和/或共同地被称为术语“发明”,仅仅是为了方便,而不是意图要自愿地将本申请的范围限制到任何单个发明或发明概念,如果实际上公开了多个的话。因此,尽管这里已经说明并表述了特定的实施例,但是应当理解,用于获得相同目标的任何配置都可代替所示的特定实施例。本公开意图覆盖各种实施例的任意和所有修改和变化。在阅读上述说明之后,上述实施例的组合以及这里没有特别表述的其它实施例对于本领域技术人员而言将是显而易见的。
Claims (14)
1.一种用于呈现交互式多媒体节目的方法,包括:
选择用于呈现的多媒体节目,其中利用多信道传输来呈现所述多媒体节目,其中至少一个信道被用于传输多媒体节目内容,而至少一个其他信道被用于传输附加内容,所述节目具有多个段以及多个附加内容项,其中每个所述附加内容项与至少一个所述段相关联,并且对多个对于所述节目的预定查询中的至少一个进行响应;
生成用于所述多媒体节目的数据流,该数据流包括所有的附加内容项和所述预定查询,其中所述数据流的定时与所述段在被呈现给用户时的定时一致;
在呈现所述节目期间,接收至少一个用户查询;
标识所述预定查询中与所述用户查询相对应的查询;
响应于所述预定查询中被标识的查询,检索所述附加内容项中与所述节目的当前段相关联的附加内容项,并且呈现所检索到的所述附加内容项。
2.如权利要求1所述的方法,其中所述接收的用户查询包括至少一个发音,并且所述标识步骤还包括以下步骤:
利用语音识别引擎,识别所述发音。
3.如权利要求2所述的方法,还包括以下步骤:
在标识步骤之前,检索与所述节目的所述当前段相关联的所述预定查询,并基于所述检索到的预定查询生成语音识别语法。
4.如权利要求2所述的方法,其中所述语音识别引擎使用与对于所述节目的所述多个预定查询相对应的语音识别语法。
5.如权利要求4所述的方法,其中所述语音识别语法包括与每个所述段相关联的多个子语法。
6.如权利要求1所述的方法,其中对于所述当前段的所述预定查询是基于所述节目的内容和所述当前段的内容中至少一个的。
7.如权利要求1所述的方法,其中所述附加内容项被实时更新。
8.一种交互式多媒体系统,包括:
多媒体处理单元,用于呈现多媒体节目,其中利用多信道传输来呈现所述多媒体节目,其中至少一个信道被用于传输多媒体节目内容,而至少一个其他信道被用于传输附加内容,所述节目具有多个段以及多个相关联的附加内容项,其中每个所述附加内容项与至少一个所述段相关联,并且对多个对于所述节目的预定查询中至少一个进行响应;所述多媒体处理单元被配置为接收用于所述多媒体节目的数据流,该数据流包括所有的附加内容项和所述预定查询,其中所述数据流的定时与所述段在被呈现给用户时的定时一致;
至少一个用户接口单元,用于在呈现所述节目期间接收至少一个用户查询;
查询处理单元,用于标识所述预定查询中与所述用户查询相对应的查询,响应于所述预定查询中被标识的查询检索所述附加内容项中与所述节目的当前段相关联的附加内容项,并且呈现所检索到的所述附加内容项。
9.如权利要求8所述的系统,其中所述接收的用户查询包括至少一个发音,并且所述查询处理单元包括用于识别所述发音的语音识别引擎。
10.如权利要求9所述的系统,其中所述查询处理单元进一步被配置成:
检索与所述当前段相关联的所述预定查询,以及
基于所述检索到的预定查询,生成语音识别语法。
11.如权利要求9所述的系统,其中所述语音识别引擎使用与对于所述节目的所述多个预定查询相对应的预定语音识别语法。
12.如权利要求11所述的系统,其中所述预定语音识别语法包括与每个所述段相关联的多个子语法。
13.如权利要求8所述的系统,其中对于所述当前段的所述预定查询是基于所述节目的内容和所述当前段的内容中至少一个的。
14.如权利要求8所述的系统,其中所述附加内容项被实时更新。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US11/949,623 | 2007-12-03 | ||
US11/949,623 US9344666B2 (en) | 2007-12-03 | 2007-12-03 | System and method for providing interactive multimedia services |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101453591A CN101453591A (zh) | 2009-06-10 |
CN101453591B true CN101453591B (zh) | 2013-03-13 |
Family
ID=40676822
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2008101777939A Active CN101453591B (zh) | 2007-12-03 | 2008-11-20 | 用于呈现交互式多媒体节目的系统和方法 |
Country Status (2)
Country | Link |
---|---|
US (4) | US9344666B2 (zh) |
CN (1) | CN101453591B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103235678A (zh) * | 2013-03-22 | 2013-08-07 | 东莞宇龙通信科技有限公司 | 视频中特定对象背景信息的显示方法及视频终端 |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100039717A (ko) * | 2008-10-08 | 2010-04-16 | 삼성전자주식회사 | 개인용 녹화장치 및 그 제어방법 |
US20100145971A1 (en) * | 2008-12-08 | 2010-06-10 | Motorola, Inc. | Method and apparatus for generating a multimedia-based query |
JP2012003665A (ja) * | 2010-06-21 | 2012-01-05 | Konica Minolta Business Technologies Inc | プレゼンテーション支援装置 |
CN102737078B (zh) * | 2011-08-29 | 2017-08-04 | 新奥特(北京)视频技术有限公司 | 一种用于图文播出的模板关联方法及装置 |
US9367230B2 (en) * | 2011-11-08 | 2016-06-14 | Microsoft Technology Licensing, Llc | Interaction models for indirect interaction devices |
US10051329B2 (en) | 2012-12-10 | 2018-08-14 | DISH Technologies L.L.C. | Apparatus, systems, and methods for selecting and presenting information about program content |
US20140195233A1 (en) * | 2013-01-08 | 2014-07-10 | Spansion Llc | Distributed Speech Recognition System |
US9852188B2 (en) * | 2014-06-23 | 2017-12-26 | Google Llc | Contextual search on multimedia content |
US11481983B2 (en) * | 2020-11-25 | 2022-10-25 | At&T Intellectual Property I, L.P. | Time shifting extended reality media |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6184877B1 (en) * | 1996-12-11 | 2001-02-06 | International Business Machines Corporation | System and method for interactively accessing program information on a television |
US6408128B1 (en) * | 1998-11-12 | 2002-06-18 | Max Abecassis | Replaying with supplementary information a segment of a video |
CN101035221A (zh) * | 2006-03-06 | 2007-09-12 | Lg电子株式会社 | 用于设置电视接收器中的语言的方法和装置 |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5541662A (en) * | 1994-09-30 | 1996-07-30 | Intel Corporation | Content programmer control of video and data display using associated data |
US6240555B1 (en) | 1996-03-29 | 2001-05-29 | Microsoft Corporation | Interactive entertainment system for presenting supplemental interactive content together with continuous video programs |
US6750919B1 (en) | 1998-01-23 | 2004-06-15 | Princeton Video Image, Inc. | Event linked insertion of indicia into video |
US6314569B1 (en) * | 1998-11-25 | 2001-11-06 | International Business Machines Corporation | System for video, audio, and graphic presentation in tandem with video/audio play |
US6424946B1 (en) * | 1999-04-09 | 2002-07-23 | International Business Machines Corporation | Methods and apparatus for unknown speaker labeling using concurrent speech recognition, segmentation, classification and clustering |
US6970189B1 (en) | 2000-05-31 | 2005-11-29 | Ipac Acquisition Subsidiary I, Llc | Method and system for automatically configuring a hand-held camera using wireless communication to improve image quality |
US7356250B2 (en) * | 2001-01-05 | 2008-04-08 | Genesis Microchip Inc. | Systems and methods for creating a single video frame with one or more interest points |
US6630963B1 (en) | 2001-01-23 | 2003-10-07 | Digeo, Inc. | Synchronizing a video program from a television broadcast with a secondary audio program |
US6980113B1 (en) | 2003-03-07 | 2005-12-27 | Daktronics, Inc. | Wireless scoreboard display system |
US7480442B2 (en) * | 2003-07-02 | 2009-01-20 | Fuji Xerox Co., Ltd. | Systems and methods for generating multi-level hypervideo summaries |
US20050278773A1 (en) * | 2003-07-08 | 2005-12-15 | Telvue Corporation | Method and system for creating a virtual television network |
US7620466B2 (en) | 2004-02-23 | 2009-11-17 | Wellspring Software | Sporting event statistics tracking and computation system and method |
US7769756B2 (en) | 2004-06-07 | 2010-08-03 | Sling Media, Inc. | Selection and presentation of context-relevant supplemental content and advertising |
US20070016401A1 (en) * | 2004-08-12 | 2007-01-18 | Farzad Ehsani | Speech-to-speech translation system with user-modifiable paraphrasing grammars |
US20060090186A1 (en) * | 2004-10-21 | 2006-04-27 | Santangelo Bryan D | Programming content capturing and processing system and method |
US20070081678A1 (en) | 2005-10-11 | 2007-04-12 | Minnich Boyd M | Video camera with integrated radio |
JP4982383B2 (ja) | 2005-12-20 | 2012-07-25 | パナソニック株式会社 | 複数の記録媒体にコンテンツを記録する記録装置およびその制御方法 |
US8611723B2 (en) | 2006-09-06 | 2013-12-17 | James Andrew Aman | System for relating scoreboard information with event video |
US8380864B2 (en) * | 2006-12-27 | 2013-02-19 | Microsoft Corporation | Media stream slicing and processing load allocation for multi-user media systems |
US8503796B2 (en) * | 2006-12-29 | 2013-08-06 | Ncr Corporation | Method of validating a media item |
US7580942B2 (en) * | 2007-01-12 | 2009-08-25 | Microsoft Corporation | Indexing and ranking processes for directory assistance services |
US8272008B2 (en) | 2007-02-28 | 2012-09-18 | At&T Intellectual Property I, L.P. | Methods, systems, and products for retrieving audio signals |
US20080271072A1 (en) | 2007-04-30 | 2008-10-30 | David Rothschild | Systems and methods for providing live, remote location experiences |
US9218412B2 (en) * | 2007-05-10 | 2015-12-22 | Microsoft Technology Licensing, Llc | Searching a database of listings |
US8620652B2 (en) * | 2007-05-17 | 2013-12-31 | Microsoft Corporation | Speech recognition macro runtime |
US7949651B2 (en) * | 2007-07-09 | 2011-05-24 | Microsoft Corporaiton | Disambiguating residential listing search results |
US9782660B2 (en) | 2007-11-30 | 2017-10-10 | Nike, Inc. | Athletic training system and method |
-
2007
- 2007-12-03 US US11/949,623 patent/US9344666B2/en not_active Expired - Fee Related
-
2008
- 2008-11-20 CN CN2008101777939A patent/CN101453591B/zh active Active
-
2016
- 2016-04-05 US US15/090,621 patent/US9924230B2/en active Active
-
2017
- 2017-09-05 US US15/696,169 patent/US10110962B2/en active Active
-
2018
- 2018-09-11 US US16/128,481 patent/US10798454B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6184877B1 (en) * | 1996-12-11 | 2001-02-06 | International Business Machines Corporation | System and method for interactively accessing program information on a television |
US6408128B1 (en) * | 1998-11-12 | 2002-06-18 | Max Abecassis | Replaying with supplementary information a segment of a video |
CN101035221A (zh) * | 2006-03-06 | 2007-09-12 | Lg电子株式会社 | 用于设置电视接收器中的语言的方法和装置 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103235678A (zh) * | 2013-03-22 | 2013-08-07 | 东莞宇龙通信科技有限公司 | 视频中特定对象背景信息的显示方法及视频终端 |
CN103235678B (zh) * | 2013-03-22 | 2016-05-04 | 东莞宇龙通信科技有限公司 | 视频中特定对象背景信息的显示方法及视频终端 |
Also Published As
Publication number | Publication date |
---|---|
US20190014382A1 (en) | 2019-01-10 |
US9344666B2 (en) | 2016-05-17 |
US10110962B2 (en) | 2018-10-23 |
CN101453591A (zh) | 2009-06-10 |
US10798454B2 (en) | 2020-10-06 |
US9924230B2 (en) | 2018-03-20 |
US20170366853A1 (en) | 2017-12-21 |
US20090144312A1 (en) | 2009-06-04 |
US20160219337A1 (en) | 2016-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101453591B (zh) | 用于呈现交互式多媒体节目的系统和方法 | |
US20210327408A1 (en) | Real Time Popularity Based Audible Content Acquisition | |
US8494346B2 (en) | Identifying a performer during a playing of a video | |
CN100511208C (zh) | 基于用户偏爱提供多媒体内容服务的系统和方法 | |
US8191103B2 (en) | Real-time bookmarking of streaming media assets | |
CN106796496A (zh) | 显示设备及其操作方法 | |
CN104065979A (zh) | 一种动态显示和视频内容相关联信息方法及系统 | |
US11651775B2 (en) | Word correction using automatic speech recognition (ASR) incremental response | |
GB2530871A (en) | Systems and methods for performing ASR in the presence of heterographs | |
CN105210376A (zh) | 使用音频流识别与当前播放的电视节目相关联的元数据 | |
CN103841433A (zh) | 影音串流的播放系统与方法 | |
US20220295132A1 (en) | Systems and Methods for Creating Custom Media Channels | |
US9066135B2 (en) | System and method for generating a second screen experience using video subtitle data | |
US11625560B2 (en) | Server and control method thereof | |
US11706495B2 (en) | Apparatus and system for providing content based on user utterance | |
CN101266614A (zh) | 内容挂钩设备及其方法 | |
US8744245B2 (en) | System and method for summary collection and playing of scenes and recording medium thereof | |
EP3547699A1 (en) | Display device and control method thereof | |
KR20200079741A (ko) | 개인화 서비스를 제공하는 단말, 방법 및 컴퓨터 프로그램 | |
EP3780641B1 (en) | Information processing device, information processing method, transmission device and transmission method | |
WO2003036968A1 (en) | Real-time bookmarking of streaming media assets | |
CN117809651A (zh) | 语音交互设备和语音交互方法 | |
CN114667566A (zh) | 语音指令处理电路、接收装置、服务器、语音指令的累积系统和累积方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |