CN115134640A - 同步播放方法及装置 - Google Patents
同步播放方法及装置 Download PDFInfo
- Publication number
- CN115134640A CN115134640A CN202110318571.XA CN202110318571A CN115134640A CN 115134640 A CN115134640 A CN 115134640A CN 202110318571 A CN202110318571 A CN 202110318571A CN 115134640 A CN115134640 A CN 115134640A
- Authority
- CN
- China
- Prior art keywords
- time
- playing
- video data
- target video
- synchronous
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000001360 synchronised effect Effects 0.000 title claims abstract description 120
- 238000000034 method Methods 0.000 title claims abstract description 81
- 230000006870 function Effects 0.000 claims abstract description 98
- 230000001960 triggered effect Effects 0.000 claims abstract description 57
- 230000008569 process Effects 0.000 claims abstract description 29
- 238000004590 computer program Methods 0.000 claims description 11
- 238000012360 testing method Methods 0.000 claims description 6
- 238000011084 recovery Methods 0.000 abstract description 6
- 238000004891 communication Methods 0.000 description 34
- 230000006854 communication Effects 0.000 description 34
- 238000007726 management method Methods 0.000 description 17
- 238000012545 processing Methods 0.000 description 15
- 238000010295 mobile communication Methods 0.000 description 11
- 230000005236 sound signal Effects 0.000 description 11
- 210000000988 bone and bone Anatomy 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000006835 compression Effects 0.000 description 4
- 238000007906 compression Methods 0.000 description 4
- 229920001621 AMOLED Polymers 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000013500 data storage Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000036772 blood pressure Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 238000010009 beating Methods 0.000 description 1
- 230000007175 bidirectional communication Effects 0.000 description 1
- 238000013529 biological neural network Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000010985 leather Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000010349 pulsation Effects 0.000 description 1
- 239000002096 quantum dot Substances 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003238 somatosensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/4104—Peripherals receiving signals from specially adapted client devices
- H04N21/4122—Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
- H04N21/4305—Synchronising client clock from received content stream, e.g. locking decoder clock with encoder clock, extraction of the PCR packets
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
- H04N21/4307—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
- H04N21/43076—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of the same content streams on multiple devices, e.g. when family members are watching the same movie on different devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/433—Content storage operation, e.g. storage operation in response to a pause request, caching operations
- H04N21/4331—Caching operations, e.g. of an advertisement for later insertion during playback
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/436—Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/47217—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/482—End-user interface for program selection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/485—End-user interface for client configuration
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
- H04N21/8547—Content authoring involving timestamps for synchronizing content
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/242—Synchronization processes, e.g. processing of PCR [Program Clock References]
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Computer Security & Cryptography (AREA)
- Databases & Information Systems (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
本申请适用于多媒体播放技术领域,提供了一种同步播放方法及装置,所述方法包括:在同步播放视频数据的过程中,响应于触发的功能操作,停止播放所述视频数据,并展示与所述功能操作对应的功能;确定再次同步播放视频数据的播放时间和目标视频数据,所述目标视频数据为在所述播放时间所需同步播放的视频数据;在所述播放时间对应的时刻,播放预先加载的所述目标视频数据,自动进入同步播放的状态,实现了大屏设备在向用户展示功能后,无需根据工作人员触发恢复操作,大屏设备即可自动进入同步播放状态,可以提高大屏设备进入同步播放状态的便捷性和灵活性。
Description
技术领域
本申请涉及多媒体播放技术领域,尤其涉及一种同步播放方法及装置。
背景技术
位于局域网中的多个大屏设备可以同步播放同一视频,通过采用同步播放的方式,可以向用户展示不同大屏设备的画质,还可以向用户提供不同的视觉效果。
相关技术中,在实现同步播放时,将局域网中的任一大屏设备作为同步播放的主机,将局域网中的其他大屏设备作为同步播放的从机。主机可以向各个从机发送视频或视频地址,每个从机则可以接收视频并播放视频,或者,从机可以接收视频地址并根据该视频地址播放视频。每个大屏设备可以根据用户触发的功能操作,向用户展示对应的功能。之后,大屏设备需要检测工作人员触发的恢复操作,以便可以根据该恢复操作重新进入同步播放的状态。
发明内容
本申请提供一种同步播放方法及装置,解决了现有技术中大屏设备需要检测工作人员触发的恢复操作重新进入同步播放状态的问题。
为达到上述目的,本申请采用如下技术方案:
第一方面,提供一种同步播放方法,所述方法包括:
在同步播放的过程中,响应于触发的功能操作,停止播放所述视频数据,并展示与所述功能操作对应的功能;
确定再次同步播放的播放时间和目标视频数据,所述目标视频数据为在所述播放时间所需同步播放的视频数据;
在所述播放时间对应的时刻,播放预先加载的所述目标视频数据。
在第一方面的第一种可能的实现方式中,所述播放时间为所述功能操作对应的触发时刻经过第一预设时长后的时刻。
在第一方面的第二种可能的实现方式中,所述确定再次同步播放的播放时间和目标视频数据,包括:
在检测到触发的所述功能操作时,根据同步播放时长、各个所述视频数据的视频时长、以及视频总时长,确定所述目标视频数据,并将开始播放所述目标视频数据的时刻作为所述播放时间。
基于第一方面的第二种可能的实现方式,在第一方面的第三种可能的实现方式中,所述在检测到触发的所述功能操作时,根据同步播放时长、各个所述视频数据的视频时长、以及视频总时长,确定所述目标视频数据,包括:
在检测到触发的所述功能操作时,根据所述同步播放时长和多个所述视频总时长,确定同步播放进度;
根据所述同步播放进度和各个所述视频数据的视频时长,确定其他大屏设备当前播放的当前视频数据;
将其他大屏设备在播放完毕所述当前视频数据后所需播放的视频数据,作为所述目标视频数据。
基于第一方面的第三种可能的实现方式,在第一方面的第四种可能的实现方式中,所述在检测到触发的所述功能操作时,根据所述同步播放时长和多个所述视频总时长,确定同步播放进度,包括:
在检测到触发的所述功能操作时,经过第二预设时长后,根据所述同步播放时长和多个所述视频数据的视频总时长,确定所述同步播放进度。
基于第一方面的上述任意一种可能的实现方式,在第一方面的第五种可能的实现方式中,所述在所述播放时间对应的时刻,播放预先加载的所述目标视频数据,包括:
在到达所述播放时间之前,若未检测到再次触发的功能操作,则在所述播放时间对应的时刻,播放预先加载的所述目标视频数据。
基于第一方面的上述任意一种可能的实现方式,在第一方面的第六种可能的实现方式中,所述在所述播放时间对应的时刻,播放预先加载的所述目标视频数据之前,所述方法还包括:
在距离所述播放时间的时长为最大加载时间所指示的时长时,加载所述目标视频数据,所述最大加载时间为预先测试得到的加载所述目标视频数据所需的最大时长。
基于第一方面的第六种可能的实现方式,在第一方面的第七种可能的实现方式中,所述在所述播放时间对应的时刻,播放预先加载的所述目标视频数据,包括:
若所述目标视频数据加载完毕,则获取所述目标视频数据的实际加载时间,所述实际加载时间为加载所述目标视频数据所花费的时长;
根据所述最大加载时间和所述实际加载时间,确定延迟时间,所述延迟时间为所述最大加载时间和所述实际加载时间之间的时间差;
在加载完毕所述目标视频数据、且经过所述延迟时间后,播放所述目标视频数据。
基于第一方面的第七种可能的实现方式,在第一方面的第八种可能的实现方式中,所述在所述播放时间对应的时刻,播放预先加载的所述目标视频数据,还包括:
若所述实际加载时间大于或等于所述最大加载时间,则在加载完毕所述目标视频数据后,播放所述目标视频数据。
基于第一方面的上述任意一种可能的实现方式,在第一方面的第九种可能的实现方式中,所述在所述播放时间对应的时刻,播放预先加载的所述目标视频数据之前,所述方法还包括:
在所述触发时刻,根据所述播放时间设置用于指示播放所述目标视频数据的定时器,所述触发时刻为检测到触发所述功能操作的时刻;
若所述定时器计时结束,则确定本地时间到达所述播放时间。
基于第一方面的上述任意一种可能的实现方式,在第一方面的第十种可能的实现方式中,所述播放时间是根据本地时间确定的;
所述方法还包括:
周期性获取网络时间协议NTP时间;
根据每次获取的所述NTP时间,对所述本地时间进行校正。
第二方面,提供一种同步播放装置,所述装置包括:
展示模块,用于在同步播放的过程中,响应于触发的功能操作,停止播放所述视频数据,并展示与所述功能操作对应的功能;
确定模块,用于确定再次同步播放的播放时间和目标视频数据,所述目标视频数据为在所述播放时间所需同步播放的视频数据;
播放模块,用于在所述播放时间对应的时刻,播放预先加载的所述目标视频数据。
在第二方面的第一种可能的实现方式中,所述播放时间为所述功能操作对应的触发时刻经过第一预设时长后的时刻。
在第二方面的第二种可能的实现方式中,所述确定模块,还用于在检测到触发的所述功能操作时,根据同步播放时长、各个所述视频数据的视频时长、以及视频总时长,确定所述目标视频数据,并将开始播放所述目标视频数据的时刻作为所述播放时间。
基于第二方面的第二种可能的实现方式,在第二方面的第三种可能的实现方式中,还用于在检测到触发的所述功能操作时,根据所述同步播放时长和多个所述视频总时长,确定同步播放进度;根据所述同步播放进度和各个所述视频数据的视频时长,确定其他大屏设备当前播放的当前视频数据;将其他大屏设备在播放完毕所述当前视频数据后所需播放的视频数据,作为所述目标视频数据。
基于第二方面的第三种可能的实现方式,在第二方面的第四种可能的实现方式中,所述确定模块,还用于在检测到触发的所述功能操作时,经过第二预设时长后,根据所述同步播放时长和多个所述视频数据的视频总时长,确定所述同步播放进度。
基于第二方面的上述任意一种可能的实现方式,在第二方面的第五种可能的实现方式中,所述播放模块,还用于在到达所述播放时间之前,若未检测到再次触发的功能操作,则在所述播放时间对应的时刻,播放预先加载的所述目标视频数据。
基于第二方面的上述任意一种可能的实现方式,在第二方面的第六种可能的实现方式中,所述装置还包括:
加载模块,用于在距离所述播放时间的时长为最大加载时间所指示的时长时,加载所述目标视频数据,所述最大加载时间为预先测试得到的加载所述目标视频数据所需的最大时长。
基于第二方面的第六种可能的实现方式,在第二方面的第七种可能的实现方式中,所述播放模块,还用于若所述目标视频数据加载完毕,则获取所述目标视频数据的实际加载时间,所述实际加载时间为加载所述目标视频数据所花费的时长;根据所述最大加载时间和所述实际加载时间,确定延迟时间,所述延迟时间为所述最大加载时间和所述实际加载时间之间的时间差;在加载完毕所述目标视频数据、且经过所述延迟时间后,播放所述目标视频数据。
基于第二方面的第七种可能的实现方式,在第二方面的第八种可能的实现方式中,所述播放模块,还用于若所述实际加载时间大于或等于所述最大加载时间,则在加载完毕所述目标视频数据后,播放所述目标视频数据。
基于第二方面的上述任意一种可能的实现方式,在第二方面的第九种可能的实现方式中,所述装置还包括:
设置模块,用于在所述触发时刻,根据所述播放时间设置用于指示播放所述目标视频数据的定时器,所述触发时刻为检测到触发所述功能操作的时刻;
计时模块,用于若所述定时器计时结束,则确定本地时间到达所述播放时间。
基于第二方面的上述任意一种可能的实现方式,在第二方面的第十种可能的实现方式中,所述播放时间是根据本地时间确定的;
所述装置还包括:
获取模块,用于周期性获取网络时间协议NTP时间;
校正模块,用于根据每次获取的所述NTP时间,对所述本地时间进行校正。
第三方面,提供一种电子设备,其特征在于,包括:处理器,所述处理器用于运行存储器中存储的计算机程序,以实现如第一方面中任一项所述的同步播放方法。
第四方面,提供一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如第一方面中任一项所述的同步播放方法。
第五方面,提供一种芯片系统,所述芯片系统包括存储器和处理器,所述处理器执行所述存储器中存储的计算机程序,以实现如第一方面中任一项所述的同步播放方法。
其中,所述芯片系统可以为单个芯片,或者多个芯片组成的芯片模组。
本申请提供的同步播放方法及装置,大屏设备通过NTP时间对本地时间进行校正,若大屏设备检测到用户触发的功能操作,则可以停止播放视频数据,并展示与该功能操作对应的功能,再确定下次同步播放的播放时间和待播放的目标视频数据,在到达播放时间之前,加载目标视频数据,之后大屏设备可以在播放时间播放加载完毕的目标视频数据,自动进入同步播放的状态,实现了大屏设备在向用户展示功能后,无需根据工作人员触发恢复操作,大屏设备即可自动进入同步播放状态,可以提高大屏设备进入同步播放状态的便捷性和灵活性。
附图说明
图1是本申请实施例提供的一种同步播放方法所涉及的同步播放系统的系统架构图;
图2是本申请实施例提供的一种同步播放方法的示意性流程图;
图3是本申请实施例提供的一种同步播放装置的结构框图;
图4是本申请实施例提供的另一种同步播放装置的结构框图;
图5是本申请实施例提供的又一种同步播放装置的结构框图;
图6是本申请实施例提供的又一种同步播放装置的结构框图;
图7是本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的方法以及大屏设备的详细说明,以免不必要的细节妨碍本申请的描述。
以下实施例中所使用的术语只是为了描述特定实施例的目的,而并非旨在作为对本申请的限制。如在本申请的说明书和所附权利要求书中所使用的那样,单数表达形式“一个”、“所述”、“上述”和“该”旨在也包括例如“一个或多个”这种表达形式,除非其上下文中明确地有相反指示。
首先,对本申请实施例提供的一种同步播放方法所涉及的同步播放系统进行介绍。参见图1,图1中示出的同步播放系统可以包括:时间服务器110、视频服务器120和多个大屏设备130。
其中,每个大屏设备130分别与时间服务器110和视频服务器120连接。而且,每个大屏设备130均可以预先安装用于同步播放的应用程序,该应用程序用于缓存大屏设备130需要播放的视频数据。时间服务器110用于校准各个大屏设备130的本地时间,视频服务器120用于向各个大屏设备130提供视频数据。
多个大屏设备130在同步播放的过程中,每个大屏设备130均可以通过预先安装的应用程序从视频服务器120缓存多个视频数据,并对缓存的多个视频数据按照预先设置的顺序进行循环播放,进入同步播放状态。
而且,对于每个大屏设备130,大屏设备130可以周期性地从时间服务器110获取网络时间协议(network time protocol,NTP)时间,并根据该NTP时间对大屏设备130的本地时间进行校正,以便各个大屏设备130可以根据校正后的本地时间播放视频,提高各个大屏设备130之间的同步效果。
若大屏设备130在同步播放的过程中检测到用户触发的功能操作,大屏设备130可以从同步播放的状态中退出,并向用户展示与功能操作相对应的功能。而且,大屏设备130在展示完毕对应的功能后,可以根据校正后的本地时间,确定其他大屏设备130播放视频的同步播放进度。大屏设备130可以根据其他大屏设备130播放视频的同步播放进度,设置相对应的定时器,从而可以在定时器计时结束后播放视频,实现与其他大屏设备130同步播放。
需要说明的是,若定时器尚未计时完毕时,大屏设备130再次检测到用户触发的功能操作,则大屏设备130可以按照与上述类似的过程,重新设置定时器,以便在定时器计时结束后可以再次播放视频,重新进入同步播放状态。
而且,本申请实施例中提到的“视频”可以为大屏设备从视频服务器120缓存的“视频数据”。另外,同步播放系统中的每个大屏设备130均可以按照上述方式同步播放,在此不再赘述。下述以任意一个大屏设备130为例,说明各个大屏设备130同步播放视频数据的流程。
图2是本申请实施例提供的一种同步播放方法的示意性流程图,作为示例而非限定,该方法可以应用于上述任一大屏设备中,参见图2,该方法包括:
步骤201、根据NTP时间,校正大屏设备的本地时间。
其中,NTP时间是大屏设备从时间服务器获取得到。
大屏设备在同步播放视频数据的过程中,可以向时间服务器发送NTP报文,时间服务器可以根据该NTP报文,向大屏设备反馈NTP时间。相应的,大屏设备可以根据时间服务器反馈的NTP时间,对本地时间进行校正,得到校正后的本地时间。
在一种可选的实施例中,大屏设备在向时间服务器发送NTP报文时,可以基于大屏设备的本地时间在NTP报文中添加第一时间戳。在NTP报文到达时间服务器时,时间服务器可以根据NTP时间在NTP报文中加入第二时间戳,之后时间服务器可以向大屏设备反馈NTP报文,而且在时间服务器向大屏设备反馈NTP报文时,时间服务器还可以再根据NTP时间在NTP报文中加入第三时间戳。大屏设备可以接收时间服务器发送的NTP报文,在接收到处理后的NTP报文时,根据大屏设备的本地时间向处理后的NTP报文加入第四时间戳。之后,大屏设备可以根据处理后的NTP报文中所包括的第一时间戳、第二时间戳、第三时间戳和第四时间戳,对大屏设备的本地时间进行校正,得到校正后的本地时间。
例如,大屏设备的本地时间为10:59:00,时间服务器的NTP时间为11:00:00。若NTP报文从大屏设备传输至时间服务器需要花费的时间为1秒、NTP报文从时间服务器反馈至大屏设备需要花费的时间也为1秒、且时间服务器处理NTP报文花费的时长为1秒,则第一时间戳T1对应的时间为10:59:00、第二时间戳T2对应的时间为11:00:01、第三时间戳T3对应的时间为11:00:02、第四时间戳T4对应的时间为10:59:03。相应的,大屏设备的本地时间与NTP时间之间的时间差为ΔT=((T2-T1)+(T3-T4))/2,则校正后的本地时间为T0=T4+ΔT,也即是校正后的本地时间为11:00:03。
需要说明的是,在实际应用中,大屏设备可以周期性地根据NTP时间对大屏设备的本地时间进行校正,以便提高大屏设备的本地时间的准确性。例如,大屏设备可以每隔15分钟获取一次NTP时间对本地时间进行校正。
另外,与上述校正本地时间的过程类似的,同步播放系统中的其他各个大屏设备均可以按照上述方式对本地时间进行校正,以使各个大屏设备的本地时间一致,提高各个大屏设备的本地时间的统一性,从而提高各个大屏设备播放视频数据的同步性。
步骤202、若检测到用户触发的功能操作,则确定下次同步播放的播放时间和目标视频数据。
其中,目标视频数据为在播放时间所需同步播放的视频数据。
大屏设备在播放视频数据的过程中,可以检测用户触发的功能操作,再根据用户触发的功能操作,停止播放视频数据,并向用户展示该功能操作所对应的功能。而且,大屏设备需要确定下次播放目标视频数据的播放时间,以便大屏设备在展示功能完毕后,可以在确定的播放时间继续与其他大屏设备同步播放目标视频数据。
大屏设备确定播放时间的方式可以包括但不限于如下几种方式:
第一种:根据第一预设时长和功能操作对应的触发时刻,确定播放时间。
大屏设备在每次检测到用户触发的功能操作后,可以等待一段时间(此处称为第一预设时长),若在该第一预设时长内未接收到用户再次触发的功能操作,则大屏设备可以再次同步播放视频数据。将用户触发功能操作对应的时刻作为触发时刻,大屏设备可以根据该触发时刻和第一预设时长计算得到播放时间,播放时间即为触发时刻经过第一预设时长之后的时刻。
其中,第一预设时长是预先设置的,可以根据大屏设备向用户展示不同功能所需的时间进行设置,例如该第一预设时长可以为20秒、30秒、45秒或60秒,本申请实施例对第一预设时长的时间长度不做限定。
在基于该方式确定播放时间后,大屏设备可以根据播放时间,结合根据各个视频的视频时长得到的视频总时长,确定在播放时间所对应的同步播放进度,也即是,确定其他大屏设备在播放时间所播放的视频。然后根据该同步播放进度,确定大屏设备需要在播放时间所播放的目标视频数据、以及需要播放的该目标视频数据的图像帧,以实现同步播放。
其中,上述触发时刻可以采用校正后的本地时间表示,也可以采用大屏设备的系统时间(秒)表示,该系统时间(秒)可以为大屏设备从某个时刻开始所经过的以秒为单位的时长。例如,大屏设备在11:11:56开始播放视频,在到达11:16:56时,也即是大屏设备播放视频5分钟后,大屏设备针对11:11:56的系统时间可以为300秒。后续以系统时间(秒)为例进行示例性说明。相应的,该系统时间(秒)可以为同步播放系统从同步播放视频数据开始所经过的时长,则系统时间(秒)也可以为同步播放时长,用于表示同步播放系统进入同步播放状态所经历的时长。
通过上述方式,大屏设备可以简单方便地,根据触发时刻和预先设置的第一预设时长快速确定播放时间,无需确定其他大屏设备当前播放的视频。然而,上述第一种方式确定的播放时间是随机的,相对应的,播放时间所对应的图像帧是随机的,也即是,播放时间所对应的图像帧可能是视频数据中的任意一帧,该图像帧可能是视频数据的第一帧,也可能是视频数据的最后一帧。若播放时间所对应的图像帧是视频数据的最后一帧,则大屏设备在播放该图像帧之后即播放下一视频,这种情况下,用户观看视频的连续性不是很好。考虑到这种情况,本申请实施例中,可以通过下述的第二种方式确定播放时间。
第二种:根据功能操作对应的触发时刻和视频总时长,确定触发时刻对应的同步播放进度,再根据触发时刻对应的同步播放进度,结合每个视频的视频时长,确定其他大屏设备待播放的下一个视频数据,再将待播放的下一个视频数据作为目标视频数据、并将开始播放目标视频数据的时间确定为播放时间。
与第一种方式类似的,大屏设备在同步播放视频数据的过程中,若检测到用户触发的功能操作,则可以获取系统时间(秒),以便大屏设备可以根据该系统时间(秒),结合预先确定的视频总时长,确定大屏设备在触发时刻对应的同步播放进度。
之后,大屏设备可以根据缓存的每个视频的视频时长,结合获取的同步播放进度,确定其他大屏设备当前播放的视频(也即是当前视频数据)和需要播放的下一视频(也即是目标视频数据)。相应的,大屏设备可以根据同步播放进度和各个视频的视频时长,确定其他大屏设备播放当前视频数据完毕的时刻,也即是开始播放目标视频数据的时刻,从而可以确定当前获取的系统时间(秒)与开始播放目标视频数据的时刻之间的时间差,进而可以根据该时间差确定播放时间。
例如,大屏设备在检测到用户触发的功能操作时获取的系统时间(秒)ST为450秒,则触发时刻为450秒,而大屏设备预先缓存了10个视频,每个视频的视频时长均为20秒(VTi=10,0<i<11,i为整数),相应的,10个视频的视频总时长为SVT10=20*10=200秒。之后,大屏设备可以根据系统时间(秒)ST和视频总时长SVT10,取余计算得到其他大屏设备在触发时刻对应的同步播放进度P=ST%SVT10=50秒。之后,大屏设备可以根据前i个视频的视频总时长SVTi(0<i<11,i为整数),基于SVTi-1<P,且SVTi>P,确定当前视频数据为第3个视频,目标视频数据(第4个视频)开始播放的时间与同步播放进度之间的时间差为SVTi-P=10秒。最后,可以根据时间差和系统时间(秒)ST确定播放时间为450+10=460秒。
在实际应用中,可能会出现系统时间(秒)与播放下一视频数据的时间之间的时间差过小,则大屏设备在向用户展示对应的功能后,大屏设备可能在极短时间内播放下一视频数据,为了可以在足够长的时间内向用户展示大屏设备的功能,大屏设备可以在检测到用户触发的功能操作后,等待一段时间(此处称为第二预设时长)再确定再次播放视频数据的播放时间。
例如,与上述第二种方式的举例相对应的,若大屏设备在系统时间(秒)ST1为450秒时检测到用户触发的功能操作,则大屏设备可以在经过等待时长15秒后,系统时间(秒)ST2为465秒时,可以按照步骤2022举例对应的步骤,确定当前视频数据是第4个视频,目标视频数据是第5个视频,第5个视频开始播放的时间与同步播放进度之间的时间差为SVTi-P=15秒。最后,可以根据时间差和系统时间(秒)ST2确定播放时间为465+15=480秒。
需要说明的是,针对上述第一种方式和第二种方式中的任意一种方式,大屏设备均可以采用设置定时器的方式在播放时间同步播放视频,也即是,大屏设备在确定当前系统时间与播放时间之间的时间差后,可以按照该时间差对应的时长设置定时器,在定时器计时结束后,到达确定的播放时间,大屏设备可以同步播放视频。
另外,在实际应用中,在定时器进行计时的过程中,大屏设备可能不会再检测到用户触发的功能操作,则大屏设备可以在定时器计时结束后执行步骤203。如果在定时器进行计时的过程中,大屏设备再次检测到用户触发的功能操作,则大屏设备可以再次执行步骤202,以便根据用户再次触发的功能操作,重新确定播放时间并重新设置定时器。
与步骤202的第一种方式相对应的,大屏设备再次检测到用户触发的功能操作后,可以按照大屏设备的预设时长,对定时器进行重新设置,使得定时器重新开始计时,若再次经过第一预设时长并未检测到用户触发的功能操作,则大屏设备可以执行步骤203。
例如,大屏设备再次检测到用户触发的功能操作的系统时间(秒)ST为455秒,而大屏设备的第一预设时长为30秒,则大屏设备可以将定时器重新设置为30秒,以便大屏设备在并未检测到用户触发的功能操作的情况下,可以在系统时间(秒)ST到达485秒时再次进入同步播放状态,继续同步播放视频数据。
与步骤202的第二种方式相对应的,大屏设备在再次检测到用户触发的功能操作时,可以再次确定触发时刻对应的系统时间(秒)与开始播放下一视频的时间之间的时间差,并根据该时间差重新设置定时器。
进一步地,大屏设备再次检测到用户触发的功能操作时,先等待预先设置的第二预设时长,之后再确定当前的系统时间(秒)与开始播放下一视频的时间之间的时间差,根据该时间差重新设置定时器。而且,大屏设备在等待第二预设时长的同时,大屏设备还可以暂停在步骤202中设置的定时器,避免定时器继续计时触发播放视频数据。
步骤203、根据最大加载时间提前加载目标视频数据。
其中,最大加载时间为各大屏设备加载目标视频数据所需的最大时长,该时长可以通过预先测试各大屏设备得到。
大屏设备加载视频数据需要花费一定的时间,大屏设备可以在距离播放时间的时长与最大加载时间所指示的时长相等时,加载目标视频数据,以便大屏设备可以在到达播放时间时,加载完毕目标视频数据,并在到达播放时间时播放目标视频数据,从而实现与其他大屏设备同步播放。
例如,大屏设备在系统时间(秒)为460秒时播放目标视频数据,最大加载时间为0.6秒,则在系统时间(秒)到达459.4秒时,大屏设备可以开始加载目标视频数据,即大屏设备从预先缓存的多个视频数据中,选取目标视频数据,再对目标视频数据进行解封装,得到视频压缩编码数据和音频压缩编码数据。之后,大屏设备可以对视频压缩编码数据和音频压缩编码数据进行解码,完成对目标视频数据的加载,加载完成后,大屏设备可以等待系统时间(秒)到达460秒时播放解码后的视频数据和音频数据。
需要说明的是,大屏设备在步骤202中可以先根据当前的系统时间(秒)与开始播放目标视频数据的时间之间的时间差,设置用于播放目标视频数据的定时器,再根据时间差和最大加载时间之间的差值设置用于加载目标视频数据的定时器。相对应的,大屏设备在执行步骤203的过程中,若检测到用于加载目标视频数据的定时器计时结束,则可以开始加载目标视频数据,若再检测到用于播放目标视频数据的定时器计时结束,则可以开始播放目标视频数据。
或者,大屏设备在步骤202中确定时间差之后,结合最大加载时间,根据时间差和最大加载时间之间的差值设置定时器,大屏设备在执行步骤203的过程中,若检测到定时器计时结束,则可以开始加载目标视频数据,并根据最大加载时间再次设置定时器,使得该定时器的计时时长与最大加载时间指示的时长相等,在再次设置的定时器计时结束后,大屏设备可以开始播放目标视频数据。
当然,大屏设备还可以采用其他方式设置定时器,以实现大屏设备提前加载目标视频数据,并与其他大屏设备同步播放目标视频数据,本申请实施例对定时器的数量和时长不做限定。
另外,在实际应用中,同步播放系统中的其他大屏设备在播放视频的过程中,也可以按照上述方式设置定时器,以便提前加载视频数据,实现同步播放,本申请实施例对此不再赘述。
步骤204、若到达播放时间之前并未检测到再次触发的功能操作,则播放加载完毕的目标视频数据。
大屏设备从加载目标视频数据开始经过最大加载时间后,也即是定时器计时结束时,大屏设备可以开始播放在步骤203中加载的目标视频数据。例如,大屏设备在系统时间(秒)为459.4秒开始加载目标视频数据,最大加载时间为0.6秒,则在经过0.6秒后,也即是在系统时间(秒)为460秒时,大屏设备开始播放加载的目标视频数据。
但是,受到视频数据和大屏设备的硬件影响,每个大屏设备加载视频数据的实际加载时间可能不同,而且加载视频数据所花费的时间可能会大于最大加载时间。这种情况下,大屏设备可能无法正常播放视频数据。考虑到这种情况,本实施例中,可以根据大屏设备的实际加载时间和延迟时间播放视频数据,以提高各大屏设备播放视频数据的同步性。
其中,实际加载时间为大屏设备执行步骤203加载目标视频数据实际花费的时长,延迟时间为大屏设备为了实现同步播放,基于实际加载时间对目标视频数据进行延迟播放的延迟时长。
在一种可选的实施例中,大屏设备可以先获取大屏设备的实际加载时间,再根据预先测试得到的最大加载时间,确定最大加载时间与实际加载时间之间的时间差,将该时间差作为延迟时间。相应的,大屏设备在加载完毕目标视频数据后,可以经过延迟时间后,再播放加载的目标视频数据。
其中,在获取实际加载时间的过程中,大屏设备可以在执行步骤203时开始计时,也即是在开始加载目标视频数据时开始计时,并在加载完毕目标视频数据后结束计时,将计时得到的时长作为实际加载时间。或者,大屏设备可以在加载完毕目标视频数据后获取系统时间(秒),再结合最大加载时间和在步骤202确定的播放时间,计算得到实际加载时间。若大屏设备的实际加载时间小于最大加载时间,则可以经过延迟时间后播放加载的目标视频数据,若大屏设备的实际加载时间大于或等于最大加载时间,则大屏设备在加载完毕目标视频数据后即可播放目标视频数据。
例如,大屏设备在系统时间(秒)为459.4秒时开始加载目标视频数据,并在459.8秒加载完毕,则大屏设备的实际加载时间为0.4秒,而预先测试的最大加载时间为0.6秒,可以确定延迟时间为0.6-0.4=0.2秒。相应的,大屏设备在加载完毕目标视频数据后,等待0.2秒后也即是在系统时间(秒)为460秒时播放目标视频数据。
类似的,若另一大屏设备也是在系统时间为459.4秒时开始加载目标视频数据,并在459.26秒加载完毕,则大屏设备的实际加载时间为0.26秒,而预先测试的最大加载时间为0.6秒,可以确定延迟时间为0.6-0.26=0.34秒。相应的,大屏设备在加载完毕目标视频数据后,等待0.34秒后在系统时间(秒)到达460秒时即可播放目标视频数据,从而可以实现两个大屏设备在同一时间播放目标视频数据,提高大屏设备播放目标视频数据的同步性。
需要说明的是,若大屏设备根据实际加载时间和延迟时间播放视频,则大屏设备在步骤202和步骤203中可以采用下述方式设置定时器:大屏设备在步骤202中可以先获取当前的系统时间(秒)与播放时间之间的时间差,再根据该时间差和最大加载时间之间的差值设置用于加载目标视频数据的定时器,之后根据实际加载时间和最大加载时间确定延迟时间,再基于延迟时间设置定时器,在定时器计时结束之后,大屏设备可以播放目标视频数据。但是,若实际加载时间大于或等于最大加载时间,则大屏设备不再基于延迟时间设置定时器,而是在加载完毕目标视频数据后播放目标视频数据。
综上所述,本申请实施例提供的同步播放方法,大屏设备通过NTP时间对本地时间进行校正,若大屏设备检测到用户触发的功能操作,则可以停止播放视频数据,并展示与该功能操作对应的功能,再确定下次同步播放的播放时间和待播放的目标视频数据,在到达播放时间之前,加载目标视频数据,之后大屏设备可以在播放时间播放加载完毕的目标视频数据,自动进入同步播放的状态,实现了大屏设备在向用户展示功能后,无需根据工作人员触发恢复操作,大屏设备即可自动进入同步播放状态,可以提高大屏设备进入同步播放状态的便捷性和灵活性。
而且,通过实际加载时间和最大加载时间确定延迟时间,再根据延迟时间播放目标视频数据,可以减小各个大屏设备同步播放视频数据的误差,从而可以提高各个大屏设备进行同步播放的同步性。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
对应于上文实施例所述的同步播放方法,图3是本申请实施例提供的一种同步播放装置的结构框图,为了便于说明,仅示出了与本申请实施例相关的部分。
参照图3,该装置包括:
展示模块301,用于在同步播放的过程中,响应于触发的功能操作,停止播放该视频数据,并展示与该功能操作对应的功能;
确定模块302,用于确定再次同步播放的播放时间和目标视频数据,该目标视频数据为在该播放时间所需同步播放的视频数据;
播放模块303,用于在该播放时间对应的时刻,播放预先加载的该目标视频数据。
可选的,该播放时间为该功能操作对应的触发时刻经过第一预设时长后的时刻。
可选的,该确定模块302,还用于在检测到触发的该功能操作时,根据同步播放时长、各个该视频数据的视频时长、以及视频总时长,确定该目标视频数据,并将开始播放该目标视频数据的时刻作为该播放时间。
可选的,该确定模块302,还用于在检测到触发的该功能操作时,根据该同步播放时长和多个该视频总时长,确定同步播放进度;根据该同步播放进度和各个该视频数据的视频时长,确定其他大屏设备当前播放的当前视频数据;将其他大屏设备在播放完毕该当前视频数据后所需播放的视频数据,作为该目标视频数据。
可选的,该确定模块302,还用于在检测到触发的该功能操作时,经过第二预设时长后,根据该同步播放时长和多个该视频数据的视频总时长,确定该同步播放进度。
可选的,该播放模块303,还用于在到达该播放时间之前,若未检测到再次触发的功能操作,则在该播放时间对应的时刻,播放预先加载的该目标视频数据。
可选的,参见图4,该装置还包括:
加载模块304,用于在距离该播放时间的时长为最大加载时间所指示的时长时,加载该目标视频数据,该最大加载时间为预先测试得到的加载该目标视频数据所需的最大时长。
可选的,该播放模块303,还用于若该目标视频数据加载完毕,则获取该目标视频数据的实际加载时间,该实际加载时间为加载该目标视频数据所花费的时长;根据该最大加载时间和该实际加载时间,确定延迟时间,该延迟时间为该最大加载时间和该实际加载时间之间的时间差;在加载完毕该目标视频数据、且经过该延迟时间后,播放该目标视频数据。
可选的,该播放模块303,还用于若该实际加载时间大于或等于该最大加载时间,则在加载完毕该目标视频数据后,播放该目标视频数据。
可选的,参见图5,该装置还包括:
设置模块305,用于在该触发时刻,根据该播放时间设置用于指示播放该目标视频数据的定时器,该触发时刻为检测到触发该功能操作的时刻;
计时模块306,用于若该定时器计时结束,则确定本地时间到达该播放时间。
可选的,该播放时间是根据本地时间确定的;
参见图6,该装置还包括:
获取模块307,用于周期性获取网络时间协议NTP时间;
校正模块308,用于根据每次获取的该NTP时间,对该本地时间进行校正。
综上所述,本申请实施例提供的同步播放装置,大屏设备通过NTP时间对本地时间进行校正,若大屏设备检测到用户触发的功能操作,则可以停止播放视频数据,并展示与该功能操作对应的功能,再确定下次同步播放的播放时间和待播放的目标视频数据,在到达播放时间之前,加载目标视频数据,之后大屏设备可以在播放时间播放加载完毕的目标视频数据,自动进入同步播放的状态,实现了大屏设备在向用户展示功能后,无需根据工作人员触发恢复操作,大屏设备即可自动进入同步播放状态,可以提高大屏设备进入同步播放状态的便捷性和灵活性。
而且,通过实际加载时间和最大加载时间确定延迟时间,再根据延迟时间播放目标视频数据,可以减小各个大屏设备同步播放视频数据的误差,从而可以提高各个大屏设备进行同步播放的同步性。
下述介绍本申请实施例涉及的电子设备。请参阅图7,图7是本申请实施例提供的一种电子设备的结构示意图。
电子设备可以包括处理器710,外部存储器接口720,内部存储器721,通用串行总线(universal serial bus,USB)接口730,充电管理模块740,电源管理模块741,电池742,天线1,天线2,移动通信模块750,无线通信模块760,音频模块770,扬声器770A,受话器770B,麦克风770C,耳机接口770D,传感器模块780,按键790,马达791,指示器792,摄像头793,显示屏794,以及用户标识模块(subscriber identification module,SIM)卡接口795等。其中传感器模块780可以包括压力传感器780A,陀螺仪传感器780B,气压传感器780C,磁传感器780D,加速度传感器780E,距离传感器780F,接近光传感器780G,指纹传感器780H,温度传感器780J,触摸传感器780K,环境光传感器780L,骨传导传感器780M等。
可以理解的是,本发明实施例示意的结构并不构成对电子设备的具体限定。在本申请另一些实施例中,电子设备可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。
当电子设备为大屏设备时,可以包括图示中的处理器710,外部存储器接口720,内部存储器721,通用串行总线(universal serial bus,USB)接口730,充电管理模块740,电源管理模块741,无线通信模块760,音频模块770,扬声器770A,受话器770B,麦克风770C,摄像头793,显示屏794。
处理器710可以包括一个或多个处理单元,例如:处理器710可以包括应用处理器(application processor,AP),调制解调处理器,图形处理器(graphics processingunit,GPU),图像信号处理器(image signal processor,ISP),控制器,存储器,视频编解码器,数字信号处理器(digital signal processor,DSP),基带处理器,和/或神经网络处理器(neural-network processing unit,NPU)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。
其中,控制器可以是电子设备的神经中枢和指挥中心。控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制。
处理器710中还可以设置存储器,用于存储指令和数据。在一些实施例中,处理器710中的存储器为高速缓冲存储器。该存储器可以保存处理器710刚用过或循环使用的指令或数据。如果处理器710需要再次使用该指令或数据,可从所述存储器中直接调用。避免了重复存取,减少了处理器710的等待时间,因而提高了系统的效率。
在一些实施例中,处理器710可以包括一个或多个接口。接口可以包括集成电路(inter-integrated circuit,I2C)接口,集成电路内置音频(inter-integrated circuitsound,I2S)接口,脉冲编码调制(pulse code modulation,PCM)接口,通用异步收发传输器(universal asynchronous receiver/transmitter,UART)接口,移动产业处理器接口(mobile industry processor interface,MIPI),通用输入输出(general-purposeinput/output,GPIO)接口,用户标识模块(subscriber identity module,SIM)接口,和/或通用串行总线(universal serial bus,USB)接口等。
I2C接口是一种双向同步串行总线,包括一根串行数据线(serial data line,SDA)和一根串行时钟线(derail clock line,SCL)。在一些实施例中,处理器710可以包含多组I2C总线。处理器710可以通过不同的I2C总线接口分别耦合触摸传感器780K,充电器,闪光灯,摄像头793等。例如:处理器710可以通过I2C接口耦合触摸传感器780K,使处理器710与触摸传感器780K通过I2C总线接口通信,实现电子设备的触摸功能。
I2S接口可以用于音频通信。在一些实施例中,处理器710可以包含多组I2S总线。处理器710可以通过I2S总线与音频模块770耦合,实现处理器710与音频模块770之间的通信。在一些实施例中,音频模块770可以通过I2S接口向无线通信模块760传递音频信号,实现通过蓝牙耳机接听电话的功能。
PCM接口也可以用于音频通信,将模拟信号抽样,量化和编码。在一些实施例中,音频模块770与无线通信模块760可以通过PCM总线接口耦合。在一些实施例中,音频模块770也可以通过PCM接口向无线通信模块760传递音频信号,实现通过蓝牙耳机接听电话的功能。所述I2S接口和所述PCM接口都可以用于音频通信。
UART接口是一种通用串行数据总线,用于异步通信。该总线可以为双向通信总线。它将要传输的数据在串行通信与并行通信之间转换。在一些实施例中,UART接口通常被用于连接处理器710与无线通信模块760。例如:处理器710通过UART接口与无线通信模块760中的蓝牙模块通信,实现蓝牙功能。在一些实施例中,音频模块770可以通过UART接口向无线通信模块760传递音频信号,实现通过蓝牙耳机播放音乐的功能。
MIPI接口可以被用于连接处理器710与显示屏794,摄像头793等外围器件。MIPI接口包括摄像头串行接口(camera serial interface,CSI),显示屏串行接口(displayserial interface,DSI)等。在一些实施例中,处理器710和摄像头793通过CSI接口通信,实现电子设备的拍摄功能。处理器710和显示屏794通过DSI接口通信,实现电子设备的显示功能。
GPIO接口可以通过软件配置。GPIO接口可以被配置为控制信号,也可被配置为数据信号。在一些实施例中,GPIO接口可以用于连接处理器710与摄像头793,显示屏794,无线通信模块760,音频模块770,传感器模块780等。GPIO接口还可以被配置为I2C接口,I2S接口,UART接口,MIPI接口等。
USB接口730是符合USB标准规范的接口,具体可以是Mini USB接口,Micro USB接口,USB Type C接口等。USB接口730可以用于连接充电器为电子设备充电,也可以用于电子设备与外围设备之间传输数据。也可以用于连接耳机,通过耳机播放音频。该接口还可以用于连接其他电子设备,例如AR设备等。
可以理解的是,本发明实施例示意的各模块间的接口连接关系,只是示意性说明,并不构成对电子设备的结构限定。在本申请另一些实施例中,电子设备也可以采用上述实施例中不同的接口连接方式,或多种接口连接方式的组合。
充电管理模块740用于从充电器接收充电输入。其中,充电器可以是无线充电器,也可以是有线充电器。在一些有线充电的实施例中,充电管理模块740可以通过USB接口730接收有线充电器的充电输入。在一些无线充电的实施例中,充电管理模块740可以通过电子设备的无线充电线圈接收无线充电输入。充电管理模块740为电池742充电的同时,还可以通过电源管理模块741为电子设备供电。
电源管理模块741用于连接电池742,充电管理模块740与处理器710。电源管理模块741接收电池742和/或充电管理模块740的输入,为处理器710,内部存储器721,外部存储器,显示屏794,摄像头793,和无线通信模块760等供电。电源管理模块741还可以用于监测电池容量,电池循环次数,电池健康状态(漏电,阻抗)等参数。在其他一些实施例中,电源管理模块741也可以设置于处理器710中。在另一些实施例中,电源管理模块741和充电管理模块740也可以设置于同一个器件中。
电子设备的无线通信功能可以通过天线1,天线2,移动通信模块750,无线通信模块760,调制解调处理器以及基带处理器等实现。
天线1和天线2用于发射和接收电磁波信号。电子设备中的每个天线可用于覆盖单个或多个通信频带。不同的天线还可以复用,以提高天线的利用率。例如:可以将天线1复用为无线局域网的分集天线。在另外一些实施例中,天线可以和调谐开关结合使用。
移动通信模块750可以提供应用在电子设备上的包括2G/3G/4G/5G等无线通信的解决方案。移动通信模块750可以包括至少一个滤波器,开关,功率放大器,低噪声放大器(low noise amplifier,LNA)等。移动通信模块750可以由天线1接收电磁波,并对接收的电磁波进行滤波,放大等处理,传送至调制解调处理器进行解调。移动通信模块750还可以对经调制解调处理器调制后的信号放大,经天线1转为电磁波辐射出去。在一些实施例中,移动通信模块750的至少部分功能模块可以被设置于处理器710中。在一些实施例中,移动通信模块750的至少部分功能模块可以与处理器710的至少部分模块被设置在同一个器件中。
调制解调处理器可以包括调制器和解调器。其中,调制器用于将待发送的低频基带信号调制成中高频信号。解调器用于将接收的电磁波信号解调为低频基带信号。随后解调器将解调得到的低频基带信号传送至基带处理器处理。低频基带信号经基带处理器处理后,被传递给应用处理器。应用处理器通过音频设备(不限于扬声器770A,受话器770B等)输出声音信号,或通过显示屏794显示图像或视频。在一些实施例中,调制解调处理器可以是独立的器件。在另一些实施例中,调制解调处理器可以独立于处理器710,与移动通信模块750或其他功能模块设置在同一个器件中。
无线通信模块760可以提供应用在电子设备上的包括无线局域网(wirelesslocal area networks,WLAN)(如无线保真(wireless fidelity,Wi-Fi)网络),蓝牙(bluetooth,BT),全球导航卫星系统(global navigation satellite system,GNSS),调频(frequency modulation,FM),近距离无线通信技术(near field communication,NFC),红外技术(infrared,IR)等无线通信的解决方案。无线通信模块760可以是集成至少一个通信处理模块的一个或多个器件。无线通信模块760经由天线2接收电磁波,将电磁波信号调频以及滤波处理,将处理后的信号发送到处理器710。无线通信模块760还可以从处理器710接收待发送的信号,对其进行调频,放大,经天线2转为电磁波辐射出去。
在一些实施例中,电子设备的天线1和移动通信模块750耦合,天线2和无线通信模块760耦合,使得电子设备可以通过无线通信技术与网络以及其他设备通信。所述无线通信技术可以包括全球移动通讯系统(global system for mobile communications,GSM),通用分组无线服务(general packet radio service,GPRS),码分多址接入(code divisionmultiple access,CDMA),宽带码分多址(wideband code division multiple access,WCDMA),时分码分多址(time-division code division multiple access,TD-SCDMA),长期演进(long term evolution,LTE),BT,GNSS,WLAN,NFC,FM,和/或IR技术等。所述GNSS可以包括全球卫星定位系统(global positioning system,GPS),全球导航卫星系统(globalnavigation satellite system,GLONASS),北斗卫星导航系统(beidou navigationsatellite system,BDS),准天顶卫星系统(quasi-zenith satellite system,QZSS)和/或星基增强系统(satellite based augmentation systems,SBAS)。
电子设备通过GPU,显示屏794,以及应用处理器等实现显示功能。GPU为图像处理的微处理器,连接显示屏794和应用处理器。GPU用于执行数学和几何计算,用于图形渲染。处理器710可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。
显示屏794用于显示图像,视频等。显示屏794包括显示面板。显示面板可以采用液晶显示屏(liquid crystal display,LCD),有机发光二极管(organic light-emittingdiode,OLED),有源矩阵有机发光二极体或主动矩阵有机发光二极体(active-matrixorganic light emitting diode,AMOLED),柔性发光二极管(flex light-emittingdiode,FLED),Miniled,MicroLed,Micro-oLed,量子点发光二极管(quantum dot lightemitting diodes,QLED)等。在一些实施例中,电子设备可以包括1个或N个显示屏794,N为大于1的正整数。
电子设备可以通过ISP,摄像头793,视频编解码器,GPU,显示屏794以及应用处理器等实现拍摄功能。
ISP用于处理摄像头793反馈的数据。例如,拍照时,打开快门,光线通过镜头被传递到摄像头感光元件上,光信号转换为电信号,摄像头感光元件将所述电信号传递给ISP处理,转化为肉眼可见的图像。ISP还可以对图像的噪点,亮度,肤色进行算法优化。ISP还可以对拍摄场景的曝光,色温等参数优化。在一些实施例中,ISP可以设置在摄像头793中。
摄像头793用于捕获静态图像或视频。物体通过镜头生成光学图像投射到感光元件。感光元件可以是电荷耦合器件(charge coupled device,CCD)或互补金属氧化物半导体(complementary metal-oxide-semiconductor,CMOS)光电晶体管。感光元件把光信号转换成电信号,之后将电信号传递给ISP转换成数字图像信号。ISP将数字图像信号输出到DSP加工处理。DSP将数字图像信号转换成标准的RGB,YUV等格式的图像信号。在一些实施例中,电子设备可以包括1个或N个摄像头793,N为大于1的正整数。
数字信号处理器用于处理数字信号,除了可以处理数字图像信号,还可以处理其他数字信号。例如,当电子设备在频点选择时,数字信号处理器用于对频点能量进行傅里叶变换等。
视频编解码器用于对数字视频压缩或解压缩。电子设备可以支持一种或多种视频编解码器。这样,电子设备可以播放或录制多种编码格式的视频,例如:动态图像专家组(moving picture experts group,MPEG)1,MPEG2,MPEG3,MPEG4等。
NPU为神经网络(neural-network,NN)计算处理器,通过借鉴生物神经网络结构,例如借鉴人脑神经元之间传递模式,对输入信息快速处理,还可以不断的自学习。通过NPU可以实现电子设备的智能认知等应用,例如:图像识别,人脸识别,语音识别,文本理解等。
外部存储器接口720可以用于连接外部存储卡,例如Micro SD卡,实现扩展电子设备的存储能力。外部存储卡通过外部存储器接口720与处理器710通信,实现数据存储功能。例如将音乐,视频等文件保存在外部存储卡中。
内部存储器721可以用于存储计算机可执行程序代码,所述可执行程序代码包括指令。处理器710通过运行存储在内部存储器721的指令,从而执行电子设备的各种功能应用以及数据处理。内部存储器721可以包括存储程序区和存储数据区。其中,存储程序区可存储操作系统,至少一个功能所需的应用程序(比如声音播放功能,图像播放功能等)等。存储数据区可存储电子设备使用过程中所创建的数据(比如音频数据,电话本等)等。此外,内部存储器721可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件,闪存器件,通用闪存存储器(universal flash storage,UFS)等。
电子设备可以通过音频模块770,扬声器770A,受话器770B,麦克风770C,耳机接口770D,以及应用处理器等实现音频功能。例如音乐播放,录音等。
音频模块770用于将数字音频信息转换成模拟音频信号输出,也用于将模拟音频输入转换为数字音频信号。音频模块770还可以用于对音频信号编码和解码。在一些实施例中,音频模块770可以设置于处理器710中,或将音频模块770的部分功能模块设置于处理器710中。
扬声器770A,也称“喇叭”,用于将音频电信号转换为声音信号。电子设备可以通过扬声器770A收听音乐,或收听免提通话。
受话器770B,也称“听筒”,用于将音频电信号转换成声音信号。当电子设备接听电话或语音信息时,可以通过将受话器770B靠近人耳接听语音。
麦克风770C,也称“话筒”,“传声器”,用于将声音信号转换为电信号。当拨打电话或发送语音信息时,用户可以通过人嘴靠近麦克风770C发声,将声音信号输入到麦克风770C。电子设备可以设置至少一个麦克风770C。在另一些实施例中,电子设备可以设置两个麦克风770C,除了采集声音信号,还可以实现降噪功能。在另一些实施例中,电子设备还可以设置三个,四个或更多麦克风770C,实现采集声音信号,降噪,还可以识别声音来源,实现定向录音功能等。
耳机接口770D用于连接有线耳机。耳机接口770D可以是USB接口730,也可以是3.5mm的开放移动电子设备平台(open mobile terminal platform,OMTP)标准接口,美国蜂窝电信工业协会(cellular telecommunications industry association of the USA,CTIA)标准接口。
压力传感器780A用于感受压力信号,可以将压力信号转换成电信号。在一些实施例中,压力传感器780A可以设置于显示屏794。压力传感器780A的种类很多,如电阻式压力传感器,电感式压力传感器,电容式压力传感器等。电容式压力传感器可以是包括至少两个具有导电材料的平行板。当有力作用于压力传感器780A,电极之间的电容改变。电子设备根据电容的变化确定压力的强度。当有触摸操作作用于显示屏794,电子设备根据压力传感器780A检测所述触摸操作强度。电子设备也可以根据压力传感器780A的检测信号计算触摸的位置。在一些实施例中,作用于相同触摸位置,但不同触摸操作强度的触摸操作,可以对应不同的操作指令。例如:当有触摸操作强度小于第一压力阈值的触摸操作作用于短消息应用图标时,执行查看短消息的指令。当有触摸操作强度大于或等于第一压力阈值的触摸操作作用于短消息应用图标时,执行新建短消息的指令。
陀螺仪传感器780B可以用于确定电子设备的运动姿态。在一些实施例中,可以通过陀螺仪传感器780B确定电子设备围绕三个轴(即,x,y和z轴)的角速度。陀螺仪传感器780B可以用于拍摄防抖。示例性的,当按下快门,陀螺仪传感器780B检测电子设备抖动的角度,根据角度计算出镜头模组需要补偿的距离,让镜头通过反向运动抵消电子设备的抖动,实现防抖。陀螺仪传感器780B还可以用于导航,体感游戏场景。
气压传感器780C用于测量气压。在一些实施例中,电子设备通过气压传感器780C测得的气压值计算海拔高度,辅助定位和导航。
磁传感器780D包括霍尔传感器。电子设备可以利用磁传感器780D检测翻盖皮套的开合。在一些实施例中,当电子设备是翻盖机时,电子设备可以根据磁传感器780D检测翻盖的开合。进而根据检测到的皮套的开合状态或翻盖的开合状态,设置翻盖自动解锁等特性。
加速度传感器780E可检测电子设备在各个方向上(一般为三轴)加速度的大小。当电子设备静止时可检测出重力的大小及方向。还可以用于识别电子设备的姿态,应用于横竖屏切换,计步器等应用。
距离传感器780F,用于测量距离。电子设备可以通过红外或激光测量距离。在一些实施例中,拍摄场景,电子设备可以利用距离传感器780F测距以实现快速对焦。
接近光传感器780G可以包括例如发光二极管(LED)和光检测器,例如光电二极管。发光二极管可以是红外发光二极管。电子设备通过发光二极管向外发射红外光。电子设备使用光电二极管检测来自附近物体的红外反射光。当检测到充分的反射光时,可以确定电子设备附近有物体。当检测到不充分的反射光时,电子设备可以确定电子设备附近没有物体。电子设备可以利用接近光传感器780G检测用户手持电子设备贴近耳朵通话,以便自动熄灭屏幕达到省电的目的。接近光传感器780G也可用于皮套模式,口袋模式自动解锁与锁屏。
环境光传感器780L用于感知环境光亮度。电子设备可以根据感知的环境光亮度自适应调节显示屏794亮度。环境光传感器780L也可用于拍照时自动调节白平衡。环境光传感器780L还可以与接近光传感器780G配合,检测电子设备是否在口袋里,以防误触。
指纹传感器780H用于采集指纹。电子设备可以利用采集的指纹特性实现指纹解锁,访问应用锁,指纹拍照,指纹接听来电等。
温度传感器780J用于检测温度。在一些实施例中,电子设备利用温度传感器780J检测的温度,执行温度处理策略。例如,当温度传感器780J上报的温度超过阈值,电子设备执行降低位于温度传感器780J附近的处理器的性能,以便降低功耗实施热保护。在另一些实施例中,当温度低于另一阈值时,电子设备对电池742加热,以避免低温导致电子设备异常关机。在其他一些实施例中,当温度低于又一阈值时,电子设备对电池742的输出电压执行升压,以避免低温导致的异常关机。
触摸传感器780K,也称“触控面板”。触摸传感器780K可以设置于显示屏794,由触摸传感器780K与显示屏794组成触摸屏,也称“触控屏”。触摸传感器780K用于检测作用于其上或附近的触摸操作。触摸传感器可以将检测到的触摸操作传递给应用处理器,以确定触摸事件类型。可以通过显示屏794提供与触摸操作相关的视觉输出。在另一些实施例中,触摸传感器780K也可以设置于电子设备的表面,与显示屏794所处的位置不同。
骨传导传感器780M可以获取振动信号。在一些实施例中,骨传导传感器780M可以获取人体声部振动骨块的振动信号。骨传导传感器780M也可以接触人体脉搏,接收血压跳动信号。在一些实施例中,骨传导传感器780M也可以设置于耳机中,结合成骨传导耳机。音频模块770可以基于所述骨传导传感器780M获取的声部振动骨块的振动信号,解析出语音信号,实现语音功能。应用处理器可以基于所述骨传导传感器780M获取的血压跳动信号解析心率信息,实现心率检测功能。
按键790包括开机键,音量键等。按键790可以是机械按键。也可以是触摸式按键。电子设备可以接收按键输入,产生与电子设备的用户设置以及功能控制有关的键信号输入。
马达791可以产生振动提示。马达791可以用于来电振动提示,也可以用于触摸振动反馈。例如,作用于不同应用(例如拍照,音频播放等)的触摸操作,可以对应不同的振动反馈效果。作用于显示屏794不同区域的触摸操作,马达791也可对应不同的振动反馈效果。不同的应用场景(例如:时间提醒,接收信息,闹钟,游戏等)也可以对应不同的振动反馈效果。触摸振动反馈效果还可以支持自定义。
指示器792可以是指示灯,可以用于指示充电状态,电量变化,也可以用于指示消息,未接来电,通知等。
SIM卡接口795用于连接SIM卡。SIM卡可以通过插入SIM卡接口795,或从SIM卡接口795拔出,实现和电子设备的接触和分离。电子设备可以支持1个或N个SIM卡接口,N为大于1的正整数。SIM卡接口795可以支持Nano SIM卡,Micro SIM卡,SIM卡等。同一个SIM卡接口795可以同时插入多张卡。所述多张卡的类型可以相同,也可以不同。SIM卡接口795也可以兼容不同类型的SIM卡。SIM卡接口795也可以兼容外部存储卡。电子设备通过SIM卡和网络交互,实现通话以及数据通信等功能。在一些实施例中,电子设备采用eSIM,即:嵌入式SIM卡。eSIM卡可以嵌在电子设备中,不能和电子设备分离。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的系统实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质至少可以包括:能够将计算机程序代码携带到大屏设备的任何实体或装置、记录介质、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质。例如U盘、移动硬盘、磁碟或者光盘等。在某些司法管辖区,根据立法和专利实践,计算机可读介质不可以是电载波信号和电信信号。
最后应说明的是:以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何在本申请揭露的技术范围内的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。
Claims (14)
1.一种同步播放方法,其特征在于,所述方法包括:
在同步播放的过程中,响应于触发的功能操作,停止播放所述视频数据,并展示与所述功能操作对应的功能;
确定再次同步播放的播放时间和目标视频数据,所述目标视频数据为在所述播放时间所需同步播放的视频数据;
在所述播放时间对应的时刻,播放预先加载的所述目标视频数据。
2.根据权利要求1所述的方法,其特征在于,所述播放时间为所述功能操作对应的触发时刻经过第一预设时长后的时刻。
3.根据权利要求1所述的方法,其特征在于,所述确定再次同步播放的播放时间和目标视频数据,包括:
在检测到触发的所述功能操作时,根据同步播放时长、各个所述视频数据的视频时长、以及视频总时长,确定所述目标视频数据,并将开始播放所述目标视频数据的时刻作为所述播放时间。
4.根据权利要求3所述的方法,其特征在于,所述在检测到触发的所述功能操作时,根据同步播放时长、各个所述视频数据的视频时长、以及视频总时长,确定所述目标视频数据,包括:
在检测到触发的所述功能操作时,根据所述同步播放时长和多个所述视频总时长,确定同步播放进度;
根据所述同步播放进度和各个所述视频数据的视频时长,确定其他大屏设备当前播放的当前视频数据;
将其他大屏设备在播放完毕所述当前视频数据后所需播放的视频数据,作为所述目标视频数据。
5.根据权利要求4所述的方法,其特征在于,所述在检测到触发的所述功能操作时,根据所述同步播放时长和多个所述视频总时长,确定同步播放进度,包括:
在检测到触发的所述功能操作时,经过第二预设时长后,根据所述同步播放时长和多个所述视频数据的视频总时长,确定所述同步播放进度。
6.根据权利要求1至5任一所述的方法,其特征在于,所述在所述播放时间对应的时刻,播放预先加载的所述目标视频数据,包括:
在到达所述播放时间之前,若未检测到再次触发的功能操作,则在所述播放时间对应的时刻,播放预先加载的所述目标视频数据。
7.根据权利要求1至6任一所述的方法,其特征在于,所述在所述播放时间对应的时刻,播放预先加载的所述目标视频数据之前,所述方法还包括:
在距离所述播放时间的时长为最大加载时间所指示的时长时,加载所述目标视频数据,所述最大加载时间为预先测试得到的加载所述目标视频数据所需的最大时长。
8.根据权利要求7所述的方法,其特征在于,所述在所述播放时间对应的时刻,播放预先加载的所述目标视频数据,包括:
若所述目标视频数据加载完毕,则获取所述目标视频数据的实际加载时间,所述实际加载时间为加载所述目标视频数据所花费的时长;
根据所述最大加载时间和所述实际加载时间,确定延迟时间,所述延迟时间为所述最大加载时间和所述实际加载时间之间的时间差;
在加载完毕所述目标视频数据、且经过所述延迟时间后,播放所述目标视频数据。
9.根据权利要求8所述的方法,其特征在于,所述在所述播放时间对应的时刻,播放预先加载的所述目标视频数据,还包括:
若所述实际加载时间大于或等于所述最大加载时间,则在加载完毕所述目标视频数据后,播放所述目标视频数据。
10.根据权利要求1至9任一所述的方法,其特征在于,所述在所述播放时间对应的时刻,播放预先加载的所述目标视频数据之前,所述方法还包括:
在所述触发时刻,根据所述播放时间设置用于指示播放所述目标视频数据的定时器,所述触发时刻为检测到触发所述功能操作的时刻;
若所述定时器计时结束,则确定本地时间到达所述播放时间。
11.根据权利要求1至10任一所述的方法,其特征在于,所述播放时间是根据本地时间确定的;
所述方法还包括:
周期性获取网络时间协议NTP时间;
根据每次获取的所述NTP时间,对所述本地时间进行校正。
12.一种同步播放装置,其特征在于,所述装置包括:
展示模块,用于在同步播放的过程中,响应于触发的功能操作,停止播放所述视频数据,并展示与所述功能操作对应的功能;
确定模块,用于确定再次同步播放的播放时间和目标视频数据,所述目标视频数据为在所述播放时间所需同步播放的视频数据;
播放模块,用于在所述播放时间对应的时刻,播放预先加载的所述目标视频数据。
13.一种电子设备,其特征在于,包括:处理器,所述处理器用于运行存储器中存储的计算机程序,以实现如权利要求1至11任一项所述的方法。
14.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至11任一项所述的方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110318571.XA CN115134640A (zh) | 2021-03-25 | 2021-03-25 | 同步播放方法及装置 |
EP22774269.9A EP4290871A4 (en) | 2021-03-25 | 2022-03-23 | METHOD AND APPARATUS FOR SYNCHRONOUS READING |
US18/551,732 US20240163497A1 (en) | 2021-03-25 | 2022-03-23 | Synchronous Playing Method and Apparatus |
PCT/CN2022/082489 WO2022199613A1 (zh) | 2021-03-25 | 2022-03-23 | 同步播放方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110318571.XA CN115134640A (zh) | 2021-03-25 | 2021-03-25 | 同步播放方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115134640A true CN115134640A (zh) | 2022-09-30 |
Family
ID=83374314
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110318571.XA Pending CN115134640A (zh) | 2021-03-25 | 2021-03-25 | 同步播放方法及装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20240163497A1 (zh) |
EP (1) | EP4290871A4 (zh) |
CN (1) | CN115134640A (zh) |
WO (1) | WO2022199613A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116668763A (zh) * | 2022-11-10 | 2023-08-29 | 荣耀终端有限公司 | 录屏方法及装置 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115883748A (zh) * | 2022-11-28 | 2023-03-31 | 中汽创智科技有限公司 | 一种数据回放的同步方法、装置、电子设备及存储介质 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070110074A1 (en) * | 2004-06-04 | 2007-05-17 | Bob Bradley | System and Method for Synchronizing Media Presentation at Multiple Recipients |
US9769544B1 (en) * | 2007-12-10 | 2017-09-19 | Google Inc. | Presenting content with video content based on time |
CN106162236B (zh) * | 2015-03-23 | 2019-07-19 | 腾讯科技(深圳)有限公司 | 一种分享视频的方法及装置 |
US10403327B2 (en) * | 2017-02-27 | 2019-09-03 | Google Llc | Content identification and playback |
CN109688441A (zh) * | 2017-05-16 | 2019-04-26 | 苹果公司 | 用于家庭媒体控制的方法和界面 |
CN107360458B (zh) * | 2017-06-30 | 2020-02-14 | Oppo广东移动通信有限公司 | 播放控制方法、装置、存储介质及终端 |
CN109672918B (zh) * | 2017-10-17 | 2020-11-03 | 腾讯科技(深圳)有限公司 | 动画的同步播放方法和装置 |
CN110300319A (zh) * | 2019-07-08 | 2019-10-01 | 深圳创维-Rgb电子有限公司 | 视频同步播放方法、系统及存储介质 |
CN111447480A (zh) * | 2020-03-17 | 2020-07-24 | 深圳传音控股股份有限公司 | 同步播放控制方法及系统 |
-
2021
- 2021-03-25 CN CN202110318571.XA patent/CN115134640A/zh active Pending
-
2022
- 2022-03-23 WO PCT/CN2022/082489 patent/WO2022199613A1/zh active Application Filing
- 2022-03-23 US US18/551,732 patent/US20240163497A1/en active Pending
- 2022-03-23 EP EP22774269.9A patent/EP4290871A4/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116668763A (zh) * | 2022-11-10 | 2023-08-29 | 荣耀终端有限公司 | 录屏方法及装置 |
CN116668763B (zh) * | 2022-11-10 | 2024-04-19 | 荣耀终端有限公司 | 录屏方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2022199613A1 (zh) | 2022-09-29 |
US20240163497A1 (en) | 2024-05-16 |
EP4290871A4 (en) | 2024-08-14 |
EP4290871A1 (en) | 2023-12-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113228701B (zh) | 音频数据的同步方法及设备 | |
CN113810601B (zh) | 终端的图像处理方法、装置和终端设备 | |
CN113810600A (zh) | 终端的图像处理方法、装置和终端设备 | |
EP4175302A1 (en) | Multi-device collaboration method, electronic device, and multi-device collaboration system | |
CN115597706B (zh) | 一种环境光的检测方法、电子设备及芯片系统 | |
CN114422340A (zh) | 日志上报方法、电子设备及存储介质 | |
WO2022199613A1 (zh) | 同步播放方法及装置 | |
CN111182140A (zh) | 马达控制方法及装置、计算机可读介质及终端设备 | |
CN113542613A (zh) | 一种用于拍照的装置及方法 | |
CN111526407A (zh) | 屏幕内容的显示方法及装置 | |
CN114257920B (zh) | 一种音频播放方法、系统和电子设备 | |
CN114339429A (zh) | 音视频播放控制方法、电子设备和存储介质 | |
CN111314763A (zh) | 流媒体播放方法及装置、存储介质与电子设备 | |
CN114500901A (zh) | 双景录像方法、装置和电子设备 | |
CN112188094B (zh) | 图像处理方法及装置、计算机可读介质及终端设备 | |
CN115412678B (zh) | 曝光处理方法、装置及电子设备 | |
CN111935705A (zh) | 数据业务管理方法及装置、计算机可读介质及终端设备 | |
CN113923351B (zh) | 多路视频拍摄的退出方法、设备和存储介质 | |
WO2022095752A1 (zh) | 帧解复用方法、电子设备及存储介质 | |
CN115762108A (zh) | 遥控方法、遥控设备和被控制设备 | |
CN115706755A (zh) | 回声消除方法、电子设备及存储介质 | |
CN115145517A (zh) | 一种投屏方法、电子设备和系统 | |
CN113467904A (zh) | 确定协同模式的方法、装置、电子设备和可读存储介质 | |
CN111432156A (zh) | 图像处理方法及装置、计算机可读介质及终端设备 | |
CN113391735A (zh) | 显示形态的调整方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |