CN112565631A - 智能导播方法 - Google Patents
智能导播方法 Download PDFInfo
- Publication number
- CN112565631A CN112565631A CN202011000234.8A CN202011000234A CN112565631A CN 112565631 A CN112565631 A CN 112565631A CN 202011000234 A CN202011000234 A CN 202011000234A CN 112565631 A CN112565631 A CN 112565631A
- Authority
- CN
- China
- Prior art keywords
- video
- scene
- director
- intelligent
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 230000007704 transition Effects 0.000 claims description 17
- 230000001960 triggered effect Effects 0.000 claims description 6
- 238000001514 detection method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/268—Signal distribution or switching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/2187—Live feed
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/27—Server based end-user applications
- H04N21/274—Storing end-user multimedia data in response to end-user request, e.g. network recorder
- H04N21/2743—Video hosting of uploaded data from client
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Social Psychology (AREA)
- Business, Economics & Management (AREA)
- Computer Networks & Wireless Communication (AREA)
- Human Computer Interaction (AREA)
- Tourism & Hospitality (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Studio Devices (AREA)
Abstract
一种智能导播方法包括以下步骤:撷取来自一视频撷取装置的一第一视频,侦测第一视频中的至少一人物,并判断所侦测的至少一人物是否离开第一视频,以及当所侦测至少一人物离开第一视频,触发一转换导播模式,使得至少一远端设备,播放一转换导播场景。
Description
技术领域
本发明涉及一种导播方法,尤为一种智能导播方法。
背景技术
目前当直播的主播与观众之间进行直播时,可能因直播的主播因临时有事需暂时离开现场,导致直播视频画面停留在直播的主播没有导播的画面,使得观众会处于一个空等或不知道情况的状态,而降低观众的在线率。
因此,显然现有的导播方法仍有关于上述问题的不足,急需加以改良。
发明内容
本发明公开一种智能导播方法,其中智能导播方法包括下列步骤:撷取来自一视频撷取装置的一第一视频,侦测第一视频中的至少一人物,并判断所侦测的至少一人物是否离开第一视频,当所侦测至少一人物离开第一视频,触发一转换导播模式,使得至少一远端设备播放一转换导播场景。
在本发明的智能导播方法中,侦测该第一视频中的至少一人物并判断所侦测的至少一人物是否离开第一视频的步骤也包括:侦测该第一视频中的该至少一人物的至少一辨识特征,以及判断该至少一辨识特征是否在该第一视频内。
在本发明的智能导播方法中,辨识特征可以为一人脸(face)辨识、一人体(body)特征、一声波(voice)、一身份(ID)辨识、及/或该人物身上所配戴的一物件特征的至少其中之一。
在本发明的智能导播方法中,转换导播场景可以由一文字、一声音、一网页嵌入画面、一实时影像、一预设影像、一图片、及/或一荧幕撷取画面的至少其中之一所构成。
在本发明的智能导播方法中,转换导播场景也可包括该第一视频。
在本发明的智能导播方法还包括下列步骤:传输一原始导播场景至该远端设备,使得该远端设备播放该原始导播场景。
在本发明的智能导播方法中,触发该转换导播模式的步骤也可包括下列步骤:将该原始导播场景转换成该转换导播场景,并传输该转换导播场景至该至少一远端设备,使得该至少一远端设备播放该转换导播场景。
在本发明的智能导播方法中,原始导播场景可以由一文字、一声音、一网页嵌入画面、一实时影像、一预设影像、一图片、及/或一荧幕撷取画面的至少其中之一所构成。
在本发明的智能导播方法中,原始导播场景也可包括第一视频。
在本发明的智能导播方法中,视频撷取装置可以是一摄影机,至少一人物可以是一直播的主播。
在本发明的智能导播方法中,触发转换导播模式的步骤也可包括下列步骤:通过一串流直播的方式传输该转换导播场景至该远端设备,使得该远端设备播放该转换导播场景给至少一观众收看。
在本发明的智能导播方法中,视频撷取装置可以是一近端设备的一部分。
因此,根据本发明的技术内容,提供一种智能导播方法,当所侦测人物离开第一视频,将会触发转换导播模式,使该远端设备的观众能看到转换导播场景,维持高的在线率。
附图说明
为使本发明的上述目的、特征、优点与实施例能更明显易懂,所附附图说明如下:
图1为基于本发明实施例所绘示的智能导播方法流程示意图;
图2为基于本发明实施例所绘示的智能导播方法中第一视频的人物离开的第一状态示意图;
图3为基于本发明实施例所绘示的智能导播方法中第一视频的人物离开的第二状态示意图;
图4为基于本发明实施例所绘示的智能导播方法中第一视频的人物离开的第三状态示意图;
图5为基于本发明实施例所绘示的智能导播方法架构示意图;
图6为基于本发明实施例所绘示的智能导播方法中,一导播场景的设定界面示意图;
图7为基于本发明实施例所绘示的智能导播方法中,另一导播场景的设定界面示意图。
附图标记说明
为使本发明的上述目的、特征、优点与实施例能更明显易懂,所附附图标记的说明如下:
A1:观众;S1、S2、S3、S4:步骤;V1:第一视频;P1、P2、P3:人物;C1、C2:辨识特征;U1:导播场景的设定界面;U11:第一场景键;U111、U112:导播场景的预览图;U12:第二场景键;11:近端设备;111:视频撷取装置;112:侦测模组;113:判断模组;114:触发模组;115:导播模组;116:串流模组;12:远端设备;41:装置键;42:截图键;43:视频键;44:图片键;45:文字键;46:网页键;51、61:装置场景布局;52、62:截图场景布局;53、63:视频场景布局;54、64:图片场景布局;55、65:文字场景布局;56、66:网页场景布局。
具体实施方式
以下将通过附图及详细叙述清楚说明本发明的精神,任何本领域技术人员在了解本发明的实施例后,当可由本发明所描述的技术,加以改变及修饰,其并不脱离本发明的权利要求范围的限制。
本发明中的用语只为描述特定实施例,而无意为本发明的限制。单数形式如“一”、“这”、“此”、“本”以及“该”,如本发明中所用,同样也包括多个形式。
关于本发明中所使用的“第一”、“第二”等,并非特别指称次序或顺位的意思,也非用以限定本发明,其仅为了区别以相同技术用语描述的元件或操作。
关于本发明中所使用的“耦接”或“连接”,均可指两个或多个元件或装置相互直接作实体接触,或是相互间接作实体接触,也可指两个或多个元件或装置相互操作或动作,也可指电性(电或电信号)之间直接或者间接的连接。
关于本发明中所使用的“包括”、“具有”、“含有”等等,均为开放性的用语,即意指包括但不限于。
关于本发明中所使用的“及/或”,是包括所述事物的任一或全部组合。
关于本发明中所使用的方向用语,例如:上、下、左、右、前或后等,仅是参考附加附图的方向。因此,使用的方向用语是用来说明并非用来限制本发明。
关于本发明中所使用的用词(terms),除有特别注明外,通常具有每个用词使用在此领域中、在本发明的内容中与特殊内容中的平常意义。某些用以描述本发明的用词将于下或在此说明书的别处讨论,以提供本领域技术人员在有关本发明的描述上额外的引导。
关于本发明中所提及的“视频”可以是指包括声音的影音讯号或者未包括声音的影像讯号都可以,在此不设限。
关于本发明中所提及的“场景(scene)”可以指在设定的框架中,任何位置及/或任何的时间下,可配置对应的场景资讯,例如可以是文字、声音、网页嵌入画面、实时/预设影像、图片及/或荧幕撷取画面等等的至少其中之一或其组合所构成都可以,在此不设限。
请参照图1所示,公开了本发明实施例的一种智能导播方法,至少包括步骤S1~S4。其中步骤S1为撷取来自一视频撷取装置111的一第一视频V1。步骤S2侦测第一视频V1中的至少一人物P1、P2、P3。步骤S3判断所侦测的至少一人物P1、P2、P3是否离开第一视频V1,其中在步骤S3中,当所侦测至少一人物P1、P2、P3离开第一视频V1,进行步骤S4,其中步骤S4为触发一转换导播模式,使得至少一远端设备12播放一转换导播场景。
因此,根据本发明实施例的一种智能导播方法,其中当所侦测人物P1、P2、P3离开第一视频,将会触发转换导播模式,使该远端设备12的观众能看到转换导播场景,维持高的在线率。
在本实施例中,视频撷取装置111可以是指不包括摄影模组的撷取装置(例如撷取卡或撷取盒),也可以是指包括摄影模组的撷取装置(例如摄影机),在此不设限。另外,前述的摄影模组可以对着前述的人物(例如是直播的主播),使得视频撷取装置111所撷取第一视频V1中存在前述的人物。
在本实施例的步骤S2中,侦测第一视频V1中的人物方式可以是侦测人物的至少一辨识特征C1、C2来得知,其中,前述所指的辨识特征C1、C2可依据实际需求而有不同形态,例如可以是一人脸(face)辨识、一人体(body)特征、一声波(voice)、一身份(ID)辨识、及/或人物P1、P2、P3身上所配戴的特定物件的特征中的至少其中之一或其组合所构成都可以,其中,人体(body)特征可以是脸部以外的人体特征,例如发色、体态、肤色、姿势、动作虹膜等人体特征,在此不受限。另外,人物P1、P2、P3身上所配戴的特定物件可以是其他可以配戴在人身上的其他特定物件的特征,例如可以是指名牌、装饰、服饰,电子装置等,在此不受限。
在本实施例的步骤S3中,判断所侦测的人物P1、P2、P3是否离开第一视频V1可以通过前述辨识特征C1、C2是否仍在第一视频V1中来判断,举例来说,请参照图2所示,若人物P1的一个辨识特征C1存在第一视频V1时,定义N=1,且若辨识特征C1不存在第一视频V1时,定义N=0。其中,步骤S3即可依据N=0或N=1的状态来判断所侦测的人物P1是否离开第一视频V1。当然这个人物也可是多个辨识特征(图中未绘示),举例来说,若所述人物P1具有两个辨识特征C1、C2(C1为第一辨识特征,C2为第二辨识特征为例),其中所述人物P1的第一辨识特征C1不存在第一视频V1,且第二辨识特征C2也不存在第一视频时V1,定义M=0,且若第一辨识特征C1及/或第二辨识特征C2中的至少其中之一存在第一视频V1时,定义M=1,便可依据M=1来判断得知人物P1无离开第一视频V1,且依据M=0来判断得知人物P1离开第一视频V1,进而更强化侦测的准确度,当然,计算方式可以依据实际需求而变更,不受实施例限制。
另外,当第一视频中存在多个人物P1、P2时,其演算法也可依据实际需求而有不同做法,举例来说,请参照图3所示,当第一视频V1存在两个人物P1、P2,其中,P1为第一人物,P2为第二人物,当第一人物P1的辨识特征C1以及第二人物P2的辨识特征C2都不存在第一视频V1时,定义L=0。当第一人物P1的辨识特征C1及/或第二人物P2的辨识特征C2至少一个存在第一视频V1时,则定义L=1。换句话说,当L=0是指人物P1、P2离开第一视频V1,L=1指其中至少一个人物P1、P2未离开第一视频V1,来作为后续判断人物P1、P2离开的依据。
并且,当第一视频中存在多个人物P1、P2、P3时,也可以是只要其中只要特定的人物的识别特征不存在第一视频时,即判断为人物离开第一视频,举例来说,请参照图4所示,当第一视频V1存在三个人时,,其中,P1为第一人物,P2为第二人物,P3为第三人物,第一人物P1的辨识特征C1例如是一种ID辨识特征。其中,当第一人物P1的辨识特征C1不存在第一视频V1时,则定义Q=0,且当第一人物P1的辨识特征C1存在第一视频V1时,则定义Q=1,第二人物P2以及第三人物P3是否离开第一视频V1并不影响判断。换句话说,当Q=0是指第一人物P1离开第一视频V1,Q=1是指第一人物P1未离开第一视频V1,来作为后续判断人物P1、P2、P3离开的依据。
步骤S3的判断所侦测的至少一人物P1、P2、P3是否离开第一视频V1的时间点,可以是判断当人物P1、P2、P3离开时,即进入步骤S4,也可以是当判断当人物P1、P2、P3离开时后一个时间段再进入步骤S4。并且也可以是判断当人物P1、P2、P3即将离开第一视频V1时,进入步骤S4,举例来说,人物P1、P2、P3的辨识特征C1、C2可以是人体特征中的移动特征以及第一视频V1的画面边界特征,当判断移动特征即将离开边界特征时,即认定人物P1、P2、P3即将离开第一视频V1,进入步骤S4。
再请回到图1所示,在本实施例中,步骤S3中若判断人物P1、P2、P3未离开第一视频V1时,也就是流程图上的否,则流程可回到步骤S2,持续进行侦测的动作。
在步骤S3中当判断人物P1、P2、P3离开第一视频V1,则启动步骤S4,其中,步骤S4为触发一转换导播模式,使得至少一远端设备12播放一转换导播场景。在本实施例中,转换导播场景可以是文字、声音、网页嵌入画面、实时影像、预设影像、图片、及/或荧幕撷取画面的至少其中之一所构成。另外,在本实施例中,转换导播场景可以依据实际需求而由使用者(例如直播的主播)决定是否包括第一视频V1。
在本实施例中,转换导播模式可以是指通过切换或者附加的方式将一个可以是预设也可以是实时产生的转换导播场景传到远端设备11,并在远端设备12播放此转换导播场景,使远端设备12的观众看到此转换导播场景。举例来说,转换导播场景可以是一个广告画面,当步骤S3判断人物P1、P2、P3离开第一视频V1时,则观众A1可以在远端设备12上看到广告画面,这个广告画面可以是附加在原本的画面上的一部分(PIP/POP),也可以是与原本的画面拼接呈现(PBP),也可以是切换原本的画面变成广告画面,使得,当所侦测人物P1、P2、P3 (例如直播的主播)离开第一视频V1时,观众A1可以看到转换导播场景(广告画面),维持高的在线率。
在本实施例中,智能导播方法还可包括一步骤(图中未绘示):其步骤为传输一原始导播场景至远端设备12,使得该远端设备12播放原始导播场景。在本实施例中,原始导播场景可以是文字、声音、网页嵌入画面、实时影像、预设影像、图片、及/或荧幕撷取画面的至少其中之一所构成。另外,在本实施例中,原始导播场景可以依据实际需求而由使用者(例如直播的主播)决定是否包括第一视频V1。
综上所述在本实施例中,步骤S4的转换导播模式可以是指将原始导播场景转换成转换导播场景,然后,传输转换导播场景至至少一远端设备12,使得该至少一远端设备12播放该转换导播场景。
并且,在本实施例中,传输转换导播场景或原始导播场景到远端设备12的方式可以是通过串流直播,使得观众A1可以在远端设备12上看到所述的场景。举例来说,当人物P1、P2、P3 (直播的主播)未离开第一视频V1时,观众A1可以在远端设备12看到原始导播场景。当人物P1、P2、P3 (直播的主播)离开第一视频V1时,观众A1可以在远端设备12看到转换导播场景。
为了更清楚解释本发明实施例的架构,举一个架构的实施例,请参照图5所示,一种智能导播系统可以包括视频撷取装置111、 导播模组115、串流模组116、侦测模组112,判断模组113和触发模组114。在本实施例中属于近端设备11的一部分,近端设备11是人物P1在使用操作,人物P1可以是直播的主播。视频撷取装置111也可以是近端设备11的一部分。另外,前述模组可以依据实际需求用软体或硬体实现,在此不受限。
请同时参照图1与图5所示,视频撷取装置111可执行步骤S1,在本实施例中,视频撷取装置111可以是指不含摄影模组的撷取装置(例如撷取卡或撷取盒),也可以是指包括摄影模组的撷取装置(例如摄影机),在此不设限。另外,前述的摄影模组可以对着前述的人物P1(例如是直播的主播),使得视频撷取装置111所撷取第一视频V1中存在前述的人物P1。
在本实施例中,视频撷取装置111可以与侦测模组112连接,以便将所撷取到的第一视频V1传到侦测模组112。侦测模组112可执行步骤S2。侦测模组112可与判断模组113连接,其中判断模组113可执行步骤S3,触发模组114可以分别与判断模组113以及导播模组115连接,其中触发模组114依据判断模组113的结果为是时,即可执行步骤S4中的触发一转换导播模式,举例来说,当触发模组114触发转换导播模式时,可发送一控制信号给导播模组115使得导播模组115进行转换导播模式。
导播模组115可以分别与视频撷取装置111以及串流模组116连接。为了方便说明,举一个例子,请参照图5和图6所示,导播模组115可以包括导播场景的设定界面U1,其中,导播场景的设定界面U1可以使人物P1来设定,其中,导播场景的设定界面U1可依据需求而有多个场景键,例如,图6中所示的第一场景键U11以及第二场景键U12。使用者可以点击第一场景键U11或第二场景键U12来切换对应的设定。举例来说,图6中点击第一场景键U11,会呈现对应第一场景键U11的一导播场景的预览图U111,导播场景的预览图U111可以依据使用者需求在不同区域(或时间)布置例如文字、网页嵌入画面、实时/预设影像、图片、及/或荧幕撷取画面。举例来说,导播场景的设定界面U1可包括一装置键41、一截图键42、一视频键43、一图片键44、一文字键45、一网页键46等功能键。而这些键会在导播场景的预览图U111中产生对应的一装置场景布局51、一截图场景布局52、一视频场景布局53、一图片场景布局54、一文字场景布局55、一网页场景布局56。其中,导播场景的设定界面U1可以选择这些功能键来设定导播场景的预览图U111中的布局呈现的区域位置(或时间),其中,每个布局的大小可以被使用者设定,每个布局间可以重叠也可以分离,导播场景的预览图U111中除了可以有多个布局外,也可是导播场景的预览图U111整个版面都为其中一个布局,在此不受限。导播场景的预览图U111可以呈现布局其中至少一个也可以多个。其中,点选装置键41可以指开启对应装置的视频作为装置场景布局51,前述的装置可以指视频撷取装置111,也就是说当点选装置键41可以设定使视频撷取装置111所撷取的第一视频V1呈现在导播场景的预览图U111的装置场景布局51。截图键42的功能可以指撷取荧幕的图呈现在截图场景布局52。视频键43的功能可以将预设或实时的视频呈现在视频场景布局53。图片键44的功能可以将预设或实时的图片呈现在图片场景布局54。文字键45的功能可以将预设或实时的制作的文字呈现在文字场景布局55。网页键46的功能可以嵌入网页连接呈现在网页场景布局56,例如YouTube连接,或广告连接等。
请参照图7所示,图7中点击场景键U12,会呈现对应第二场景键U12的一导播场景的预览图U112,且如同上述,导播场景的设定界面U1的功能键会在导播场景的预览图U112中产生对应的一装置场景布局61、一截图场景布局62、一视频场景布局63、一图片场景布局64、一文字场景布局65、一网页场景布局66,布局的设定说明如同前述布局所述,在此不赘述。
综上所述,导播模组115可根据导播场景的预览图U111所设定好场景,通过串流模组116直播串流到远端设备12,并在远端设备12显示对应的场景,让观众A1能看到导播场景的预览图U111所呈现的场景。
具体来说,触发模组114触发转换导播模式可以是指控制导播模组115使得第一场景切换至第二场景。举例来说,请同时参照图6和图7所示,举例来说,图6中的第一场景键U11可以指的是原始导播场景的设定键,且导播场景的预览图U111是原始导播场景的预览图,图7中的第二场景键U12可以指的是转换导播场景的设定键,且导播场景的预览图U112是转换导播场景的预览图。直播的主播可以将原始导播场景的预览图U111点选装置键41选择视频撷取装置111,因此装置场景布局51将会呈现具有人物P1、P2、P3 (直播的主播)的第一视频V1。直播的主播可以将转换导播场景的预览图U112点选网页键41选择连到外部广告,因此网页场景布局66为一个外部广告。此时,若人物P1、P2、P3(直播的主播)未离开第一视频V1时,则导播模组115会持续通过串流模组116传送第一场景(例如图6中的导播场景的预览图U111)至远端设备12,此时,观众A1会持续看到装置场景布局51中所呈现的第一视频V1,也就是观众A1会看到直播的主播的表演视频。另外,若人物P1、P2、P3 (直播的主播)临时有事离开时,侦测模组112、判断模组113、以及触发模组114的侦测与判断人物P1、P2、P3离开第一视频V1,则会触发转换导播模式来控制导播模组115将第一场景(原始导播场景)键切换至第二场景(转换导播场景),则导播模组115会通过串流模组116传送第二场景(例如图7中的导播场景的预览图U112)至远端设备12,此时,观众A1会看到网页场景布局66中所呈现的外部广告,也就是观众A1会看到外部广告,因此可以在人物P1、P2、P3 (直播的主播)因临时离开时,观众A1仍有其他媒体资讯可以观赏。
综上所述,根据本发明实施例的一种智能导播方法,其中当所侦测人物P1、P2、P3离开第一视频V1时,将会触发转换导播模式,使该远端设备12的观众A1能看到转换导播场景,维持高的在线率。
虽然本发明以实施例公开如上,然其并非用以限定本发明,任何本领域技术人员在不脱离本发明的精神和范围内,当可作各种的更动与润饰,因此本发明的保护范围当以权利要求范围所界定为准。
Claims (12)
1.一种智能导播方法,其特征在于,包括:
撷取来自一视频撷取装置的一第一视频;
侦测该第一视频中的至少一人物,并判断所侦测的该至少一人物是否离开该第一视频;以及
当所侦测该至少一人物离开该第一视频,触发一转换导播模式,使得至少一远端设备播放一转换导播场景。
2.如权利要求1所述的智能导播方法,其特征在于,侦测该第一视频中的该至少一人物,并判断所侦测的该至少一人物是否离开该第一视频的步骤,包括:
侦测该第一视频中的该至少一人物的至少一辨识特征;以及
判断该至少一辨识特征是否在该第一视频内。
3.如权利要求2所述的智能导播方法,其特征在于,该辨识特征是为一人脸辨识、一人体特征、一声波、一身份辨识、及/或该人物身上所配戴的一物件特征的至少其中之一。
4.如权利要求1所述的智能导播方法,其特征在于,该转换导播场景是由一文字、一声音、一网页嵌入画面、一实时影像、一预设影像、一图片、及/或一荧幕撷取画面的至少其中之一所构成。
5.如权利要求1所述的智能导播方法,其特征在于,该转换导播场景包括该第一视频。
6.如权利要求1所述的智能导播方法,其特征在于,还包括:
传输一原始导播场景至该远端设备,使该远端设备播放该原始导播场景。
7.如权利要求6所述的智能导播方法,其特征在于,触发该转换导播模式的步骤包括:
将该原始导播场景转换成该转换导播场景,并传输该转换导播场景至该至少一远端设备,使得该至少一远端设备播放该转换导播场景。
8.如权利要求6所述的智能导播方法,其特征在于,该原始导播场景是由一文字、一声音、一网页嵌入画面、一实时影像、一预设影像、一图片、及/或一荧幕撷取画面的至少其中之一所构成。
9.如权利要求6所述的智能导播方法,其特征在于,该原始导播场景包括该第一视频。
10.如权利要求1所述的智能导播方法,其特征在于,该视频撷取装置是一摄影机,该至少一人物为一直播的主播。
11.如权利要求10所述的智能导播方法,其特征在于,触发该转换导播模式的步骤包括:
通过一串流直播的方式传输该转换导播场景至该远端设备,使得该远端设备播放该转换导播场景给至少一观众收看。
12.如权利要求1所述的智能导播方法,其特征在于,该视频撷取装置是一近端设备的一部分。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW108134809 | 2019-09-26 | ||
TW108134809A TW202113678A (zh) | 2019-09-26 | 2019-09-26 | 智慧導播方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112565631A true CN112565631A (zh) | 2021-03-26 |
Family
ID=75041138
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011000234.8A Pending CN112565631A (zh) | 2019-09-26 | 2020-09-22 | 智能导播方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20210097269A1 (zh) |
CN (1) | CN112565631A (zh) |
TW (1) | TW202113678A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117640991A (zh) * | 2023-12-14 | 2024-03-01 | 北京都是科技有限公司 | 一种基于自适应导播场景切换的方法、装置及存储介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140099004A1 (en) * | 2012-10-10 | 2014-04-10 | Christopher James DiBona | Managing real-time communication sessions |
US11356488B2 (en) * | 2019-04-24 | 2022-06-07 | Cisco Technology, Inc. | Frame synchronous rendering of remote participant identities |
-
2019
- 2019-09-26 TW TW108134809A patent/TW202113678A/zh unknown
-
2020
- 2020-09-21 US US17/026,362 patent/US20210097269A1/en not_active Abandoned
- 2020-09-22 CN CN202011000234.8A patent/CN112565631A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117640991A (zh) * | 2023-12-14 | 2024-03-01 | 北京都是科技有限公司 | 一种基于自适应导播场景切换的方法、装置及存储介质 |
CN117640991B (zh) * | 2023-12-14 | 2024-09-17 | 北京都是科技有限公司 | 一种基于自适应导播场景切换的方法、装置及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US20210097269A1 (en) | 2021-04-01 |
TW202113678A (zh) | 2021-04-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110620946B (zh) | 字幕显示方法及装置 | |
CN102119530B (zh) | 图像显示设备、控制方法 | |
CN110443330B (zh) | 一种扫码方法、装置、移动终端以及存储介质 | |
US20170200314A1 (en) | Augmented reality contents generation and play system and method using the same | |
JP5619775B2 (ja) | マルチメディアの表示から情報を制御及び要求する方法 | |
EP2453596A2 (en) | Multimedia device, multiple image sensors having different types and method for controlling the same | |
US11115227B2 (en) | Terminal and method for bidirectional live sharing and smart monitoring | |
JP2006197505A (ja) | カメラ制御装置、カメラシステム、電子会議システムおよびカメラ制御方法 | |
CN109672862B (zh) | 图像处理方法、装置、介质及电子设备 | |
JP3681152B2 (ja) | テレビカメラの制御方法及びテレビカメラ | |
KR102155129B1 (ko) | 디스플레이 장치, 디스플레이 장치의 제어 방법 및 디스플레이 시스템 | |
JP2010068385A (ja) | 画像表示装置および検出方法 | |
KR101900471B1 (ko) | 반응 효과가 삽입된 방송 시스템 | |
CN106550276A (zh) | 视频播放过程中多媒体信息的提供方法、装置和系统 | |
JP6641386B2 (ja) | ヘッドマウントディスプレイ連携表示システム、及び、表示装置とヘッドマウントディスプレイとを含むシステム、及び、その表示装置 | |
CN112449097A (zh) | 视频通信方法、终端及存储介质 | |
CN112565631A (zh) | 智能导播方法 | |
EP1613084A2 (en) | AV system and control unit | |
KR20180025754A (ko) | 디스플레이장치 및 그 제어방법 | |
JP2001094968A (ja) | 映像処理装置 | |
US10122964B2 (en) | Communication system | |
US20190387182A1 (en) | Live streaming system and method for live streaming | |
KR100711950B1 (ko) | 하이브리드 광학 및 가상 주밍 장치를 사용한 관심있는물체의 실시간 트래킹 | |
WO2002025940A1 (en) | Picture-in-picture | |
US20170324921A1 (en) | Method and device for displaying multi-channel video |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |