具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例进行说明。
需要说明的是,本申请实施例中的“第一”、“第二”等描述,是用于区分不同的消息、设备、模块、应用等,不代表先后顺序,也不限定“第一”和“第二”是不同的类型。“第一”、“第二”等描述也不限定数量,例如“第一应用”可以为一个“第一应用”,也可以为多个“第一应用”。
本申请实施例中的术语“A和/或B”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如单独存在A,同时存在A和B,单独存在B这三种情况。另外,本申请实施例中字符"/",一般表示前后关联对象是一种"或"的关系。
本申请实施例提供的方法可以应用于图1A所示的电子设备100中。图1A示出了电子设备100的结构示意图。
电子设备100,例如智能终端,可以包括处理器110,外部存储器接口120,内部存储器121,通用串行总线(universal serial bus,USB)接口130,充电管理模块140,电源管理模块141,电池142,天线1,天线2,移动通信模块150,无线通信模块160,音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,传感器模块180,按键190,马达191,指示器192,摄像头193,显示屏194,以及用户标识模块(subscriber identification module,SIM)卡接口195等。其中传感器模块180可以包括压力传感器180A,陀螺仪传感器180B,气压传感器180C,磁传感器180D,加速度传感器180E,距离传感器180F,接近光传感器180G,指纹传感器180H,温度传感器180J,触摸传感器180K,环境光传感器180L,骨传导传感器180M等。
可以理解的是,本发明实施例示意的结构并不构成对电子设备100的具体限定。在本申请另一些实施例中,电子设备100可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。
处理器110可以包括一个或多个处理单元,例如:处理器110可以包括应用处理器(application processor,AP),调制解调处理器,图形处理器(graphics processingunit,GPU),图像信号处理器(image signal processor,ISP),控制器,视频编解码器,数字信号处理器(digital signal processor,DSP),基带处理器,和/或神经网络处理器(neural-network processing unit,NPU)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。
控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制。
处理器110中还可以设置存储器,用于存储指令和数据。在一些实施例中,处理器110中的存储器为高速缓冲存储器。该存储器可以保存处理器110刚用过或循环使用的指令或数据。如果处理器110需要再次使用该指令或数据,可从所述存储器中直接调用。避免了重复存取,减少了处理器110的等待时间,因而提高了系统的效率。
在一些实施例中,处理器110可以包括一个或多个接口。接口可以包括集成电路(inter-integrated circuit,I2C)接口,集成电路内置音频(inter-integrated circuitsound,I2S)接口,脉冲编码调制(pulse code modulation,PCM)接口,通用异步收发传输器(universal asynchronous receiver/transmitter,UART)接口,移动产业处理器接口(mobile industry processor interface,MIPI),通用输入输出(general-purposeinput/output,GPIO)接口,用户标识模块(subscriber identity module,SIM)接口,和/或通用串行总线(universal serial bus,USB)接口等。
I2C接口是一种双向同步串行总线,包括一根串行数据线(serial data line,SDA)和一根串行时钟线(derail clock line,SCL)。在一些实施例中,处理器110可以包含多组I2C总线。处理器110可以通过不同的I2C总线接口分别耦合触摸传感器180K,充电器,闪光灯,摄像头193等。例如:处理器110可以通过I2C接口耦合触摸传感器180K,使处理器110与触摸传感器180K通过I2C总线接口通信,实现电子设备100的触摸功能。
I2S接口可以用于音频通信。PCM接口也可以用于音频通信,将模拟信号抽样,量化和编码。UART接口是一种通用串行数据总线,用于异步通信。
MIPI接口可以被用于连接处理器110与显示屏194,摄像头193等外围器件。MIPI接口包括摄像头串行接口(camera serial interface,CSI),显示屏串行接口(displayserial interface,DSI)等。在一些实施例中,处理器110和摄像头193通过CSI接口通信,实现电子设备100的拍摄功能。处理器110和显示屏194通过DSI接口通信,实现电子设备100的显示功能。
GPIO接口可以通过软件配置。GPIO接口可以被配置为控制信号,也可被配置为数据信号。在一些实施例中,GPIO接口可以用于连接处理器110与摄像头193,显示屏194,无线通信模块160,音频模块170,传感器模块180等。GPIO接口还可以被配置为I2C接口,I2S接口,UART接口,MIPI接口等。
USB接口130是符合USB标准规范的接口,具体可以是Mini USB接口,Micro USB接口,USB Type C接口等。可以理解的是,本发明实施例示意的各模块间的接口连接关系,只是示意性说明,并不构成对电子设备100的结构限定。在本申请另一些实施例中,电子设备100也可以采用上述实施例中不同的接口连接方式,或多种接口连接方式的组合。
充电管理模块140用于从充电器接收充电输入。电源管理模块141用于连接电池142,充电管理模块140与处理器110。电子设备100的无线通信功能可以通过天线1,天线2,移动通信模块150,无线通信模块160,调制解调处理器以及基带处理器等实现。
天线1和天线2用于发射和接收电磁波信号。电子设备100中的每个天线可用于覆盖单个或多个通信频带。不同的天线还可以复用,以提高天线的利用率。例如:可以将天线1复用为无线局域网的分集天线。在另外一些实施例中,天线可以和调谐开关结合使用。
移动通信模块150可以提供应用在电子设备100上的包括2G/3G/4G/5G等无线通信的解决方案。移动通信模块150可以包括至少一个滤波器,开关,功率放大器,低噪声放大器(lownoise amplifier,LNA)等。移动通信模块150可以由天线1接收电磁波,并对接收的电磁波进行滤波,放大等处理,传送至调制解调处理器进行解调。移动通信模块150还可以对经调制解调处理器调制后的信号放大,经天线1转为电磁波辐射出去。在一些实施例中,移动通信模块150的至少部分功能模块可以被设置于处理器110中。在一些实施例中,移动通信模块150的至少部分功能模块可以与处理器110的至少部分模块被设置在同一个器件中。
调制解调处理器可以包括调制器和解调器。其中,调制器用于将待发送的低频基带信号调制成中高频信号。解调器用于将接收的电磁波信号解调为低频基带信号。随后解调器将解调得到的低频基带信号传送至基带处理器处理。低频基带信号经基带处理器处理后,被传递给应用处理器。应用处理器通过音频设备(不限于扬声器170A,受话器170B等)输出声音信号,或通过显示屏194显示图像或视频。在一些实施例中,调制解调处理器可以是独立的器件。在另一些实施例中,调制解调处理器可以独立于处理器110,与移动通信模块150或其他功能模块设置在同一个器件中。
无线通信模块160可以提供应用在电子设备100上的包括无线局域网(wirelesslocal area networks,WLAN)(如无线保真(wireless fidelity,Wi-Fi)网络),蓝牙(bluetooth,BT),全球导航卫星系统(global navigation satellite system,GNSS),调频(frequency modulation,FM),近距离无线通信技术(near fieldcommunication,NFC),红外技术(infrared,IR)等无线通信的解决方案。无线通信模块160可以是集成至少一个通信处理模块的一个或多个器件。无线通信模块160经由天线2接收电磁波,将电磁波信号调频以及滤波处理,将处理后的信号发送到处理器110。无线通信模块160还可以从处理器110接收待发送的信号,对其进行调频,放大,经天线2转为电磁波辐射出去。
在一些实施例中,电子设备100的天线1和移动通信模块150耦合,天线2和无线通信模块160耦合,使得电子设备100可以通过无线通信技术与网络以及其他设备通信。所述无线通信技术可以包括全球移动通讯系统(global system for mobile communications,GSM),通用分组无线服务(general packet radio service,GPRS),码分多址接入(codedivision multiple access,CDMA),宽带码分多址(wideband code divisionmultipleaccess,WCDMA),时分码分多址(time-division code division multiple access,TD-SCDMA),长期演进(long term evolution,LTE),BT,GNSS,WLAN,NFC,FM,和/或IR技术等。所述GNSS可以包括全球卫星定位系统(global positioning system,GPS),全球导航卫星系统(global navigation satellite system,GLONASS),北斗卫星导航系统(beidounavigation satellite system,BDS),准天顶卫星系统(quasi-zenith satellitesystem,QZSS)和/或星基增强系统(satellite based augmentation systems,SBAS)。
电子设备100通过GPU,显示屏194,以及应用处理器等实现显示功能。GPU为图像处理的微处理器,连接显示屏194和应用处理器。GPU用于执行数学和几何计算,用于图形渲染。处理器110可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。
显示屏194用于显示图像,视频等。显示屏194包括显示面板。显示面板可以采用液晶显示屏(liquid crystal display,LCD),有机发光二极管(organic light-emittingdiode,OLED),有源矩阵有机发光二极体或主动矩阵有机发光二极体(active-matrixorganic light emittingdiode的,AMOLED),柔性发光二极管(flex light-emittingdiode,FLED),Miniled,MicroLed,Micro-oLed,量子点发光二极管(quantum dot lightemitting diodes,QLED)等。在一些实施例中,电子设备100可以包括1个或N个显示屏194,N为大于1的正整数。
电子设备100可以通过ISP,摄像头193,视频编解码器,GPU,显示屏194以及应用处理器等实现拍摄功能。
ISP用于处理摄像头193反馈的数据。摄像头193用于捕获静态图像或视频。物体通过镜头生成光学图像投射到感光元件。
数字信号处理器用于处理数字信号,除了可以处理数字图像信号,还可以处理其他数字信号。例如,当电子设备100在频点选择时,数字信号处理器用于对频点能量进行傅里叶变换等。
视频编解码器用于对数字视频压缩或解压缩。电子设备100可以支持一种或多种视频编解码器。这样,电子设备100可以播放或录制多种编码格式的视频,例如:动态图像专家组(moving picture experts group,MPEG)1,MPEG2,MPEG3,MPEG4等。
NPU为神经网络(neural-network,NN)计算处理器,通过借鉴生物神经网络结构,例如借鉴人脑神经元之间传递模式,对输入信息快速处理,还可以不断的自学习。
外部存储器接口120可以用于连接外部存储卡,例如Micro SD卡,实现扩展电子设备100的存储能力。外部存储卡通过外部存储器接口120与处理器110通信,实现数据存储功能。例如将音乐,视频等文件保存在外部存储卡中。
内部存储器121可以用于存储计算机可执行程序代码,所述可执行程序代码包括指令。内部存储器121可以包括存储程序区和存储数据区。其中,存储程序区可存储操作系统,至少一个功能所需的应用程序(比如声音播放功能,图像播放功能等)等。存储数据区可存储电子设备100使用过程中所创建的数据(比如音频数据,电话本等)等。此外,内部存储器121可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件,闪存器件,通用闪存存储器(universal flash storage,UFS)等。处理器110通过运行存储在内部存储器121的指令,和/或存储在设置于处理器中的存储器的指令,执行电子设备100的各种功能应用以及数据处理。
在本申请的一些实施例中,内部存储器还用于存储翻译应用和缓存该翻译应用运行过程中所产生的所有图片,用户退出该翻译应用后上述缓存的所有图片可以自动删除。
电子设备100可以通过音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,以及应用处理器等实现音频功能。例如音乐播放,录音等。
音频模块170用于将数字音频信息转换成模拟音频信号输出,也用于将模拟音频输入转换为数字音频信号。音频模块170还可以用于对音频信号编码和解码。在一些实施例中,音频模块170可以设置于处理器110中,或将音频模块170的部分功能模块设置于处理器110中。
扬声器170A,也称“喇叭”,用于将音频电信号转换为声音信号。电子设备100可以通过扬声器170A收听音乐,或收听免提通话。
受话器170B,也称“听筒”,用于将音频电信号转换成声音信号。当电子设备100接听电话或语音信息时,可以通过将受话器170B靠近人耳接听语音。
麦克风170C,也称“话筒”,“传声器”,用于将声音信号转换为电信号。
耳机接口170D用于连接有线耳机。耳机接口170D可以是USB接口130,也可以是3.5mm的开放移动终端平台(open mobile terminal platform,OMTP)标准接口,美国蜂窝电信工业协会(cellular telecommunications industry association of the USA,CTIA)标准接口。
压力传感器180A用于感受压力信号,可以将压力信号转换成电信号。在一些实施例中,压力传感器180A可以设置于显示屏194。压力传感器180A的种类很多,如电阻式压力传感器,电感式压力传感器,电容式压力传感器等。电容式压力传感器可以是包括至少两个具有导电材料的平行板。当有力作用于压力传感器180A,电极之间的电容改变。电子设备100根据电容的变化确定压力的强度。当有触摸操作作用于显示屏194,电子设备100根据压力传感器180A检测所述触摸操作强度。电子设备100也可以根据压力传感器180A的检测信号计算触摸的位置。在一些实施例中,作用于相同触摸位置,但不同触摸操作强度的触摸操作,可以对应不同的操作指令。例如:当有触摸操作强度小于第一压力阈值的触摸操作作用于短消息应用图标时,执行查看短消息的指令。当有触摸操作强度大于或等于第一压力阈值的触摸操作作用于短消息应用图标时,执行新建短消息的指令。
陀螺仪传感器180B可以用于确定电子设备100的运动姿态。气压传感器180C用于测量气压。在一些实施例中,电子设备100通过气压传感器180C测得的气压值计算海拔高度,辅助定位和导航。磁传感器180D包括霍尔传感器。加速度传感器180E可检测电子设备100在各个方向上(一般为三轴)加速度的大小。距离传感器180F,用于测量距离。电子设备100可以通过红外或激光测量距离。在一些实施例中,拍摄场景,电子设备100可以利用距离传感器180F测距以实现快速对焦。接近光传感器180G可以包括例如发光二极管(LED)和光检测器,例如光电二极管。环境光传感器180L用于感知环境光亮度。指纹传感器180H用于采集指纹。电子设备100可以利用采集的指纹特性实现指纹解锁,访问应用锁,指纹拍照,指纹接听来电等。温度传感器180J用于检测温度。
触摸传感器180K,也称“触控器件”。触摸传感器180K可以设置于显示屏194,由触摸传感器180K与显示屏194组成触摸屏,也称“触控屏”。触摸传感器180K用于检测作用于其上或附近的触摸操作。触摸传感器可以将检测到的触摸操作传递给应用处理器,以确定触摸事件类型。可以通过显示屏194提供与触摸操作相关的视觉输出。在另一些实施例中,触摸传感器180K也可以设置于电子设备100的表面,与显示屏194所处的位置不同。
骨传导传感器180M可以获取振动信号。按键190包括开机键,音量键等。按键190可以是机械按键。也可以是触摸式按键。电子设备100可以接收按键输入,产生与电子设备100的用户设置以及功能控制有关的键信号输入。马达191可以产生振动提示。指示器192可以是指示灯,可以用于指示充电状态,电量变化,也可以用于指示消息,未接来电,通知等。
SIM卡接口195用于连接SIM卡。SIM卡可以通过插入SIM卡接口195,或从SIM卡接口195拔出,实现和电子设备100的接触和分离。电子设备100可以支持1个或N个SIM卡接口,N为大于1的正整数。SIM卡接口195可以支持Nano SIM卡,Micro SIM卡,SIM卡等。同一个SIM卡接口195可以同时插入多张卡。所述多张卡的类型可以相同,也可以不同。SIM卡接口195也可以兼容不同类型的SIM卡。SIM卡接口195也可以兼容外部存储卡。电子设备100通过SIM卡和网络交互,实现通话以及数据通信等功能。在一些实施例中,电子设备100采用eSIM,即:嵌入式SIM卡。eSIM卡可以嵌在电子设备100中,不能和电子设备100分离。
电子设备100的软件系统可以采用分层架构,事件驱动架构,微核架构,微服务架构,或云架构。本发明实施例以分层架构的Android系统为例,示例性说明电子设备100的软件结构。
图1B是本发明实施例图1A所示电子设备100的软件结构框图。
分层架构将软件分成若干个层,每一层都有清晰的角色和分工。层与层之间通过软件接口通信。在一些实施例中,将Android系统分为四层,从上至下分别为应用程序层,应用程序框架层,安卓运行时(Android runtime)和系统库,以及内核层。
应用程序层可以包括一系列应用程序包。
如图1B所示,应用程序包可以包括相机,图库,日历,通话,地图,导航,WLAN,蓝牙,音乐,视频,短信息等应用程序。
应用程序框架层为应用程序层的应用程序提供应用编程接口(applicationprogramming interface,API)和编程框架。应用程序框架层包括一些预先定义的函数。
如图1B所示,应用程序框架层可以包括窗口管理器,内容提供器,视图系统,电话管理器,资源管理器,通知管理器等。
窗口管理器用于管理窗口程序。窗口管理器可以获取显示屏大小,判断是否有状态栏,锁定屏幕,截取屏幕等。
内容提供器用来存放和获取数据,并使这些数据可以被应用程序访问。所述数据可以包括视频,图像,音频,拨打和接听的电话,浏览历史和书签,电话簿等。
视图系统包括可视控件,例如显示文字的控件,显示图片的控件等。视图系统可用于构建应用程序。显示界面可以由一个或多个视图组成的。例如,包括短信通知图标的显示界面,可以包括显示文字的视图以及显示图片的视图。
电话管理器用于提供电子设备100的通信功能。例如通话状态的管理(包括接通,挂断等)。
资源管理器为应用程序提供各种资源,比如本地化字符串,图标,图片,布局文件,视频文件等等。
通知管理器使应用程序可以在状态栏中显示通知信息,可以用于传达告知类型的消息,可以短暂停留后自动消失,无需用户交互。比如通知管理器被用于告知下载完成,消息提醒等。通知管理器还可以是以图表或者滚动条文本形式出现在系统顶部状态栏的通知,例如后台运行的应用程序的通知,还可以是以对话窗口形式出现在屏幕上的通知。例如在状态栏提示文本信息,发出提示音,电子设备振动,指示灯闪烁等。
安卓运行时(即Android Runtime)包括核心库和虚拟机。Android runtime负责安卓系统的调度和管理。
核心库包含两部分:一部分是java语言需要调用的功能函数,另一部分是安卓的核心库。
应用程序层和应用程序框架层运行在虚拟机中。虚拟机将应用程序层和应用程序框架层的java文件执行为二进制文件。虚拟机用于执行对象生命周期的管理,堆栈管理,线程管理,安全和异常的管理,以及垃圾回收等功能。
系统库可以包括多个功能模块。例如:表面管理器(surface manager),媒体库(Media Libraries),三维图形处理库(例如:OpenGL ES),二维图形引擎(例如:SGL)等。
表面管理器用于对显示子系统进行管理,并且为多个应用程序提供了2D和3D图层的融合。
媒体库支持多种常用的音频,视频格式回放和录制,以及静态图像文件等。媒体库可以支持多种音视频编码格式,例如:MPEG4,H.264,MP3,AAC,AMR,JPG,PNG等。
三维图形处理库用于实现三维图形绘图,图像渲染,合成,和图层处理等。
二维图形引擎是2D绘图的绘图引擎。
内核层是硬件和软件之间的层。内核层至少包含显示驱动,摄像头驱动,音频驱动,传感器驱动。
下面结合捕获拍照场景,示例性说明电子设备100软件以及硬件的工作流程。
当图1A中的触摸传感器180K接收到触摸操作,相应的硬件中断被发给内核层。内核层将触摸操作加工成原始输入事件(包括触摸坐标,触摸操作的时间戳等信息)。原始输入事件被存储在内核层。应用程序框架层从内核层获取原始输入事件,识别该输入事件所对应的控件。以该触摸操作是触摸单击操作,该单击操作所对应的控件为相机应用图标的控件为例,相机应用调用应用框架层的接口,启动相机应用,进而通过调用内核层启动摄像头驱动,通过图1A所示的摄像头193捕获静态图像或视频。
在一些实施例中,上述提到的显示可以通过显示屏显示,显示屏具有显示的功能,显示屏可以具有触摸功能,也可以不具有触摸功能。在触摸显示屏上的操作可以通过虚拟按键实现,可以点击触摸屏实现。在非触摸显示屏上的操作可以通过物理按键实现。
图2示出了本申请实施例提供的网络架构示意图200。在一实施例中,上述电子设备100,例如智能手机和智能电视等的智能终端,可以用于结合所述网络架构200工作。如图所示,至少提供一个网络202。在本网络架构200上下文中,所述网络202可以采用任何形式,包括但不限于电信网络、局域网(local area network,简称LAN)、无线网络以及因特网、对等网络、有线网络等广域网(wide area network,简称WAN)。虽然仅示出了一个网络,但应理解的是,可以提供两个或更多类似或不同的网络202。
多个设备与所述网络202连接。例如,服务器计算机212和终端用户计算机208可以连接到所述网络202用于通信,此类终端用户计算机208可以包括台式计算机、膝上型计算机和/或任何其他类型的逻辑。此外,各种其他设备也可以连接到所述网络202,包括个人数字助理(personal digital assistant,简称PDA)设备210、移动电话设备206、电视机204等。又例如,移动电话设备206(例如智能手机)和电视机204(例如智能电视)可以连接到所述网络202(例如局域网)进行通信以共享内容;智能手机206或智能电视204和服务器212还可以连接到所述网络202(例如广域网)进行通信以供用户在终端设备上访问服务器数据,例如访问或下载视频流等。
本申请下列各实施例提供了一种投屏方法,以使智能终端之间,例如智能手机和智能电视之间,在互联互通时能够更加方便快捷的推送并显示例如是流媒体数据,例如在智能手机向智能电视投屏时,在智能电视的大屏端能同时显示视频,以及弹幕信息或外挂字幕信息中的至少一种。
图3示出了本申请提供的一种投屏方法的场景示意图,例如流数据的投屏方法。如图3a所示,第一电子设备,例如第一智能终端310,正在第一应用程序上观看视频。其中,第一智能终端310可以是手机、平板电脑、智能穿戴、智能家居设备等等,在本申请的一个优选实施例中,第一智能终端310是用户使用频率相对较高而屏幕相对较小的设备。第一应用程序可以是任何视频网站客户端,例如爱奇艺、优酷、腾讯等,也可以是支持播放任何视频网站中的视频源的应用程序,例如微信、微博等。参见图3a,当用户在智能手机或平板电脑等第一智能终端310上观看视频时,在第一智能终端310的第一应用程序中,除了显示视频画面311,还可以显示操作界面,图3a中显示了与该视频内容相关的部分播控界面,包括但不限于投屏键302、弹幕键304、弹幕设置键306、以及弹幕发送框308。其中,操作界面可以在视频画面311上显示,也可以与视频画面311显示于不同的显示区域中,本申请不对此做任何限制。
在一个实施例中,用户在第一应用程序上选择视频播放后,随视频画面默认可以显示弹幕或弹幕信息313,或者外挂字幕信息(图中未显示)。在另一个实施例中,用户播放视频后,点击弹幕键304以显示弹幕313,和/或者通过菜单界面(图中未显示)来选择显示外挂字幕。当第一智能终端310的第一应用程序上播放弹幕313的动画以及视频画面时,用户可以通过弹幕设置键306和弹幕发送框308,分别设置弹幕的显示参数和发送新的弹幕信息。
当用户点击第一应用程序上的投屏键302时,第一智能终端310检测到该投屏操作,并开始搜寻可投屏设备。搜寻的设备结果可以是列表的形式呈现于智能终端310上,以供用户选择,并基于用户的选择,智能终端310向被选设备发送投屏请求以进行投屏。在其他情况下,基于用户的选择,智能终端310向被选设备通信以发送投屏请求。
在本申请的一个实施例中,响应于用户点击投屏键302,或者响应于用户选择投屏设备,智能终端310还可以显示如图3b或3c所示的菜单栏或弹窗。例如,当智能终端310上的第一应用程序播放视频并叠加显示弹幕313时,用户点击投屏键302并选择投屏的目标设备,此时智能终端310上显示如3b所示的菜单栏或弹窗,以供用户选择301“视频投屏”或者选择303“视频和弹幕投屏”,从而根据用户的实际需求进行视频投屏或者视频与弹幕一起投屏。又例如,当智能终端310上的第一应用程序播放的视频已经投屏至目标设备时,用户在智能终端310上点击弹幕键304,此时智能终端310上显示如3c所示的菜单栏或弹窗305,以供用户选择是否将该弹幕投屏,若用户选择307“是”,则目标设备将在视频上叠加显示弹幕,若用户选择309“否”,则目标设备显示的视频上不会叠加显示弹幕,而在智能终端310上可以显示弹幕313。
请参见图3d,在图3d所示的实施例中,用户选择第二电子设备,例如第二智能终端320,进行投屏,第二智能终端320可以具有比第一智能终端310更大的显示屏。在本申请的一个实施例中,第二智能终端320显示投屏内容之前,第一智能终端310判断当前的视频播放内容中是否显示弹幕和/或外挂字幕,如果判断的结果为是,则在给第二智能终端320推送视频时,同时推送弹幕和/或外挂字幕。如图3d所示,开始投屏时,第二智能终端320的显示屏上同时显示视频画面321和弹幕323。在本申请的另一实施例中,第二智能终端320已经接收到第一智能终端310的投屏请求并显示视频画面321后,第一智能终端310的第一应用程序接收到用户点击弹幕键304的操作后,该视屏画面321的弹幕信息将被投屏到第二智能终端320的显示屏上,即显示弹幕或弹幕信息323。
在本申请的一个实施例中,在第一智能终端310上的视频画面311,以及弹幕313和/或外挂字幕,被投屏到第二智能终端320上后,用户依然可以通过第一智能终端310上的播放控件对第二智能终端320上显示的视频画面321进行操控,包括但不限于切换视频、快进、快退、音量控制等,用户还可以通过第一智能终端310对第二智能终端320上显示的弹幕323进行操控,包括但不限于调整弹幕参数、发送新弹幕等等。此外,用户也可以直接在第二智能终端320上对视频画面321和弹幕323进行操控,包括但不限于上述操控的操作。
视频投屏后,由于第二智能终端320上可以同时显示弹幕和/或外挂字幕,可以继续为用户提供一边观看视频一边进行弹幕互动的场景,和/或在观看视频的同时查看相应字幕的场景。因此,本申请为用户提供了一种方便快捷的弹幕和/或字幕投屏显示的方案,满足了用户观看视频同时的娱乐性,可以大大提高了用户的投屏体验。
本申请中的第一智能终端310可以是便携智能设备,第二智能终端320可以是智能电视,当便携智能设备310上显示的视频和弹幕如3d所示投屏到智能电视320上之后,便携智能设备310还可以如图3e所示退出该第一应用程序或退出该视频显示画面,以进行其它操作。因此,本申请的实施例中的第一智能终端310实现了将视频和弹幕投屏,且可自由灵活选择投屏方案。
本申请中提到的“弹幕”指的是视频网站客户端所提供的,可以与视频同时显示的关于视频的评论性内容,通常叠加显示于视频画面的上方,任何观看该视频的用户都可以添加自己的弹幕信息以进行互动,该添加的弹幕信息会显示于弹幕显示区域。本申请中提到的通过弹幕设置键进行设置,可以调整弹幕的“显示参数”,该显示参数可以包括但不限于以下弹幕参数:字体、字号、颜色、透明度、动画速度、显示区域、屏蔽用户ID(账户名)等等。本申请中提到的“外挂字幕”是区别于视频的内嵌字幕的一种字幕,外挂字幕的数据与视频数据分离,而没有集成在一起,需要单独导入以显示在视频画面中,通常叠加显示于视频画面的下方。
在本申请的实施例中,第一智能终端310进行“投屏”是指将第一智能终端310的显示屏上显示的内容的至少一部分,以及与该显示内容相关的数据的至少一部分,包括但不限于视频、音频、文本等,投射到另一个电子设备上,例如第二智能终端320。当一个智能终端需要投屏时,其搜寻的“可投屏设备”可以是在同一局域网(包括二层局域网,连接到同一路由器上)内支持投屏的电子设备,也可以是不在同一局域网内,但是与第一智能终端310共享电子账号并通过其他网络(例如有线或无线网络)互联互通的电子设备。
在本申请的一个具体实施例中,第一智能终端搜寻到的可投屏设备是同一局域网内支持同一投屏协议的设备,其中,投屏协议可以是无线投屏协议,例如Airplay、DLNA等技术或协议。
图4示出了智能终端的模块架构示意图,其中图4a还示出了第一智能终端401、第二智能终端402、以及第一应用程序的视频服务器410的架构和通信连接的示意图。
请参见图4a,第一智能终端401包括通信模块411、数据判断单元412、视频解码单元413、文本解析单元414、显示模块415、视频控制单元416、和文本控制单元417,其中显示模块415还可以包括视频显示单元418和文本显示单元419。为了方便说明本申请的实施例,图4a中仅示出第一智能终端401中的与视频播放和文本显示相关的模块,应可理解,第一智能终端401还可以包括更多的功能模块,如图1A所示,此处不再赘述。本申请实施例中的第一智能终端401可以是智能手机,通过第一应用程序,与视频服务器410进行第一通信431,从而获取视频服务器410中的视频数据和文本数据,并显示于第一智能终端401的显示模块415。
第二智能终端402包括通信模块421、数据判断单元422、视频解码单元423、文本解析单元424、显示模块425,其中显示模块425还可以包括视频显示单元428和文本显示单元429。本申请实施例中的第二智能终端402可以是智能电视,通过投屏协议与第一智能终端401,如智能手机,进行互通。在本申请一个实施例中,智能电视与智能手机之间进行第二通信432。通过第一智能终端401提供的数据,第二智能终端402进而与视频服务器410进行第三通信433,来获取视频服务器410中的视频数据和文本数据,并显示于第二智能终端402的显示模块425,以进行投屏。应可理解,第一通信431、第二通信432、第三通信433可以是任何形式的通信,例如有线或无线的通信方法等,本申请不对此进行限制。例如第一智能终端401和第二智能终端402在一个局域网中,连接到一个路由器上,上述第一通信431、第二通信432、第三通信433可以经由路由器实现。在本申请的一个实施例中,第二智能终端402还可以包括视频控制单元426和文本控制单元427(图中均以虚线框表示),以控制被投屏的视频的播放和相应的文本显示。为了方便说明本申请的实施例,图4中仅示出第二智能终端402中的与视频播放、文本显示相关的模块,应可理解,第二智能终端402还可以包括更多的功能模块,如图1A所示,此处不再赘述。
请参见图4b,文本解析单元414/424可以包含弹幕解析单元4141和/或字幕解析单元4142;文本显示单元419/429可以包含弹幕显示单元4191和/或字幕显示单元4192;文本控制单元417/427可以包含弹幕控制单元4171和/或字幕控制单元4172,其中,文本控制单元417/427还可以包含弹幕发送单元4173。
第一和第二智能终端401、402的通信模块411、421用于分别与视频服务器410进行第一通信431和第三通信433,从而相互连通以请求和下发流媒体及相关数据。
在本申请的一个实施例中,通过第一通信431,第一智能终端401从视频服务器410接收视频数据和文本数据;通过第二通信432,第二智能终端402从第一智能终端401接收视频下载地址和文本下载地址的数据;通过第三通信433,第二智能终端402从视频服务器410接收视频数据和文本数据。
第一和第二智能终端401、402的数据判断单元412、422用于判断从视频服务器410接收到的数据的类型,并根据判断的结果将不同的数据传送给不同的单元,例如将视频数据传送给视频解码单元413、423,将文本数据传送给文本解析单元414、424。举例说明,当数据判断单元412、422判断接收的是弹幕数据时,该弹幕数据将被传送给图4b所示的弹幕解析单元4141;当数据判断单元412、422判断接收的是字幕数据时,该字幕数据将传送给图4b所示的字幕解析单元4142。
视频解码单元413、423将收到的视频数据解码并传送给视频显示单元418、428以显示于智能终端的显示屏上。文本解析单元414、424将收到的文本数据解析并传送给文本显示单元419、429以叠加显示于显示屏上播放的视频画面上。举例说明,弹幕解析单元4141将弹幕数据解析后得到弹幕信息,并发送给弹幕显示单元4191,弹幕显示单元4191对解析的弹幕信息进行渲染后显示于智能终端的显示屏上,并通常地叠加到视频画面的顶部区域显示;字幕解析单元4142将字幕数据解析后,发送给字幕显示单元4192,字幕显示单元4192对解析的字幕数据进行渲染后显示于智能终端的显示屏上,并通常地叠加到视频画面的底部区域显示。
视频控制单元416、426用于控制在显示屏上显示的视频,包括但不限于控制视频的暂停、播放、快进、拖放、切换等。文本控制单元417、427用于控制在显示屏上显示的文本。举例说明,弹幕控制单元4171用于控制正在播放的视频上的弹幕信息,包括但不限于控制弹幕信息的播放速度、文本字体、颜色、大小、显示区域等等;字幕控制单元4172用于控制正在播放的视频的字幕数据,包括但不限于控制字幕的字体、颜色、大小、显示区域、切换字幕等等。文本控制单元417、427还可以包括弹幕发送单元4173,用于在智能终端上发送弹幕信息,弹幕发送单元4173接收到用户输入的弹幕信息(例如用户在图3a所示的弹幕发送框308内输入的信息),将该弹幕信息发送至视频服务器410,以在视频服务器端更新该视频对应的弹幕数据包,并以流媒体的形式下发到对应的客户端。在本申请的一个实施例中,弹幕发送单元4173将该弹幕信息发送至另一智能终端并显示在其显示屏上,和/或发送至本地的弹幕显示单元419、429以显示该弹幕,从而可以实时的在显示屏上显示用户新发送的新弹幕,为用户提供更好的弹幕发送体验。
本申请实施例虽仅以视频投屏为例,详细描述了智能终端的模块架构以及弹幕等文本信息的投屏方案,应可理解,在本申请的其他实施例中,可以对其他数据进行投屏,例如音频数据。当投屏的音频数据上有例如弹幕和/或歌词等文本信息时,可以根据上述实施例同时投屏该弹幕和/或歌词信息,应可理解,在此实施例中,投屏的音频数据将在智能终端本地的音频解码单元进行解析,并在音频输出单元播放。在音频或其他数据的投屏过程中,同时投屏弹幕和/或歌词等文本信息的投屏方案应和上述实施例类似,因此此处不再赘述。
下面将以弹幕信息为例,结合图5到图8示出的时序图,举例说明本申请实施例在投屏时、投屏中、以及结束投屏时,对弹幕信息的显示以及控制过程。应可理解,对字幕信息的显示以及控制过程是类似的。
对图5至图8的描述,将结合图4所示的架构图以及图3所示场景图来进行。
下文将以弹幕显示和弹幕发送为例,说明本申请的智能终端与视频服务器之间的数据请求与下发。
图5到图8为本申请实施例提供的投屏方法的消息序列图,例如流数据的投屏方法。图5示出源设备和投屏设备之间进行投屏的时序图500。
在图5所示的实施例中,源设备是终端设备501,投屏设备为终端设备502。在511中,终端设备501上打开应用程序1并在选中视频后,在513中向视频服务器510请求视频数据,响应于该请求,在514中视频服务器510向终端设备501下发视频数据例如视频流数据,因此在515中,终端设备501在如图4所述的,通过数据判断单元412判断收到的数据为视频数据时,将该视频数据传输给视频解码单元413进行解码,视频数据解码后,在终端设备501的视频显示单元418上显示视频,即在显示屏上显示视频画面。在一个具体的实施例中,视频服务器510响应于终端设备501获取视频的请求,给终端设备501下发授权的视频下载地址,以使终端设备501下载视频。其中,视频下载地址可以是URL(Uniform ResourceLocator,统一资源定位符)地址。
当终端设备501检测到打开弹幕的操作时(例如点击图3所示的弹幕按键304),在517中,向视频服务器510请求弹幕数据,响应于该请求,在518中,视频服务器510向终端设备501下发弹幕数据,因此在519中,终端设备501如图4所述的,通过判断单元412判断收到的数据为弹幕数据时,将该弹幕数据传输给文本解析单元414进行解析,弹幕数据解析后,在终端设备501的文本显示单元419上显示弹幕信息,即在显示屏上叠加到视频画面中显示弹幕信息,如图3a所示通常显示于视频画面的顶部。图中未示出字幕的显示,当收到的文本数据为字幕数据时,解析后得到的字幕信息将叠加到视频画面中,并通常在底部显示。在一个具体的实施例中,视频服务器510响应于终端设备501获取弹幕的请求,给终端设备501下发授权的弹幕下载地址(例如,URL),以使终端设备501下载弹幕数据。在本申请的实施例中,弹幕可以是动画播放于显示屏上,其可以从终端设备501显示屏的右侧向左侧滚入或滑入,也可以是以其它动画效果向显示屏的其它方向移动显示。应可理解,弹幕的动画效果不应作为对本申请的限制。
当源设备501检测到点击投屏按钮302的操作,在521中,源设备501选中投屏设备502发送投屏请求以进行投屏。在525中,源设备501判断应用程序1中是否正在显示弹幕信息,如果判断的结果为是,则在526中向视频服务器510请求授权的流数据下载地址时,同时请求视频数据下载地址以及弹幕数据下载地址。响应于源设备501的请求,在526中,视频服务器510向源设备501下发授权的视频及弹幕数据下载地址。在528中,源设备501将收到的授权下载地址发送给投屏设备502。在本申请的另一实施例中,可以跳过步骤526和527。在此实施例中,在源设备501向视频服务器510请求视频和弹幕(即,步骤513和517)后,视频服务器510下发授权的视频数据下载地址和授权的弹幕数据下载地址,因此,源设备501可以不经过步骤526和527,而直接执行步骤528。具体地,在终端设备501向终端设备502发送的投屏请求中可以增加该授权的视频数据以及弹幕数据下载地址。特别地,在一个实施例中,用户在终端设备501上观看爱奇艺的视频时,进行投屏的操作时,终端设备501判断同时显示了字幕和外挂弹幕,则终端设备501向终端设备502发送的投屏请求中增加爱奇艺授权的该视频下载地址,以及弹幕和外挂字幕的下载地址,
例如:
视频下载地址,"videoSource":"http://video.iqiyi.com/source?p=9088&tk=skdhfsdf"
弹幕下载地址,"bulletComments":"http://comment.iqiyi.com/c?id=skdhfsdf"
字幕下载地址,"subtitle":"http://sub.iqiyi.com/source?id=89898"
以DLNA协议为例,终端设备501,例如智能手机在DLNA中作为Control Point,终端设备502,例如智能电视作为Media Renderer,视频服务器510,例如爱奇艺服务器作为Media Server。在本申请的一个实施例中,智能手机Control Point选择好播放的视频后,向智能电视Media Renderer推送视频源的下载地址的同时,如判断爱奇艺APP(application,应用程序)的当前视频中还叠加显示了相应的弹幕信息和/或外挂字幕信息,则智能手机Control Point向智能电视Media Renderer推送弹幕源的下载地址和/或外挂字幕源下载地址。智能电视Media Renderer根据接收到的视频源、弹幕源、和/或外挂字幕源的下载地址,从爱奇艺服务器Media Server获取视频源、弹幕源、和/或外挂字幕源文件,爱奇艺服务器Media Server向智能电视Media Renderer传输这些文件的方式可以是,例如HTTP/HTTPS。接收到视频源、弹幕源、和/或外挂字幕源文件后,智能电视MediaRenderer对这些文件进行渲染,并在显示屏上显示视频画面,以及叠加显示弹幕和/或外挂字幕。其中,智能手机Control Point通过DLNA协议向智能电视Media Renderer推送的信息可以新增以下字段:
dlna-playsingle://uuid:742b972e-3e50-4fa9-bc49-8d1ac91587e5?sid=urn:upnp-org:serviceId:ContentDirectory
dlna-bulletcomments:http://comment.iqiyi.com/c?id=skdhfsdf
dlna-subtitle:http://sub.iqiyi.com/source?id=89898
在531和535中,投屏设备502根据接收到的视频下载地址和弹幕下载地址分别向视频服务器510请求视频数据和弹幕数据,并在532和536中分别向投屏设备502下发视频数据和弹幕数据。因此,在533和537中,投屏设备502如图4所述的,通过数据判断单元422将判断为视频数据的部分传输给视频解码单元423进行解码,并将判断为弹幕数据的部分传输给文本解析单元424进行解析,解析得到的视频和弹幕信息,分别通过视频显示单元428和文本显示单元429在终端设备502的显示屏上加载和显示。应可理解,由于弹幕的显示是为了使用户在一边观看视频时一边有和其他用户进行互动评论的效果,因此,弹幕数据与视频的播放时间有关,即一部分弹幕数据仅仅与视频中的某一段有关联且应该显示于该段视频播放时的画面上。并且,在533中,投屏设备502上显示的视频应是接续用户在源设备上点击投屏按钮后切断的视频画面或切断的视频画面前后画面,同时在537上,投屏设备502上显示的弹幕信息应是与该切断的视频画面或其前后画面有关联的弹幕信息。举例说明,当源设备501在应用程序1上播放视频Video1到03′30″时,用户点击投屏按钮,则投屏设备502上进行投屏播放时,视频应是从03′30″或其前后,例如从03′28″开始的画面,在视频画面上显示的弹幕应是与03′30″或其前后的视频画面相关联的弹幕信息。
在一个具体地实施例中,投屏设备502接收到的经过解析的弹幕文件的一部分举例如下:
<d p="51.593,5,25,16711680,1408852480,0,7fa769b4,576008622">弹幕1</d>
<d p="10.286,1,25,16777215,1408852600,0,a3af4d0d,576011065">弹幕2</d>
<d p="12.65,1,25,16777215,1408852761,0,24570b5a,576014281">弹幕3</d>
<d p="19.033,1,25,16777215,1408852789,0,cb20d1c7,576014847">弹幕4</d>
<d p="66.991,1,25,16777215,1408852886,0,a78e484d,576016806">弹幕5</d>
p字段里面的内容,例如上述弹幕文件的第一行:
p="51.593,5,25,16711680,1408852480,0,7fa769b4,576008622"
其中,通过逗号分割的多个数据是和这一条弹幕“激动激动好激动”的显示参数相关的数据,该数据为示例性的,可解释如下:
第一个参数“51.593”是在视频中该条弹幕出现的时间,以秒数为单位;
第二个参数“5”是弹幕的动画模式,其中,1到3代表三种不同形式的滚动弹幕,4代表底端弹幕,5代表顶端弹幕,6代表逆向弹幕,7代表精准定位,8代表高级弹幕,等等;
第三个参数“25”弹幕显示的字号大小,其中,12代表非常小,16代表特小,18代表小,25代表中,36代表大,45代表很大,64代表特别大,等等;
第四个参数“16711680”是弹幕显示的字体颜色,本实施例使用HTML颜色的十位数;
第五个参数“1408852480”是Unix格式的时间戳;
第六个参数“0”是弹幕池,其中,0代表普通池,1代表字幕池,2代表特殊池(特殊池为高级弹幕专用),等等;
第七个参数“7fa769b4”是该条弹幕的发送者的账号ID,可以用于“屏蔽此弹幕的发送者”的功能;
第八个参数“576008622”是该条弹幕在弹幕数据库中代表排列顺序的rowID,可以用于“历史弹幕”的功能。
投屏设备502接收到例如上述的弹幕文件后,在本地的播放器上进行渲染,再叠加显示于显示屏播放的视频画面中。其中,以DLNA为例,在智能电视的播放器中对弹幕进行渲染的相关代码的一部分将在下文中举例示出,应可理解,这些代码仅仅作为示例作用,不应作为对本发明的显示。
自定义ViewGroup-XCDanmuView,继承RelativeLayout来实现,也可以是继承其他布局类,示例性的部分代码如下:
初始化弹幕的item View,这里以TextView,ImageView为例,然后通过addView添加到自定义的danmuView中,示例性的部分代码如下:
通过addView添加到XCDanmuView中,以实现从屏幕外移动进来的效果,其中弹幕位置是坐标,以从右向左移动方向来说,新产生的danMuView隐藏到layout最右边,addView后将该danMuView的位置设置到右边的屏幕外,示例性的部分代码如下:
随机从左侧或右侧出来弹幕itemView,移动采用属性动画来实现平移,从屏幕的一端移动到另一端,当动画结束后,就将该view从XCDanmuView中remove掉。并重新创建一个弹幕itemView,并addView到XCDanmuView中,并开始动画移动,示例性的部分代码如下:
在本申请的一个实施例中,可选地,在529中,源设备501可以将当前的弹幕显示参数发送到投屏设备502,从而当投屏设备502显示弹幕时相应地匹配其在源设备上显示的弹幕参数,例如按最大字体以蓝色显示四排弹幕信息,等等。
在本申请实施例提供的流式投屏的技术方案中,当源设备501发起投屏请求时,主动判断投屏视频中是否显示弹幕和/或外挂字幕,并基于判断的结果为是,主动向投屏设备502发送弹幕数据和/或外挂字幕数据的授权下载地址,使得投屏设备502从视频服务器510请求流数据,如此,本申请的实施例实现了同时将视频和弹幕(和/或外挂字幕)数据投屏的流式投屏方案。同时,由于投屏设备502的视频数据和弹幕数据都是由视频服务器510下发,二者通过有线或无线通信,能够保证投屏中视频播放以及弹幕显示的流畅性,提高用户的投屏体验。
在源设备501和投屏设备502之间进行投屏后,源设备501可以在539中继续控制该投屏状态,也可以退出当前投屏的视频界面,在应用程序1中浏览其它视频导览,或者退出应用程序1以浏览其它应用的界面,又或者进入息屏状态,而不会对投屏设备502上的视频和弹幕显示造成干扰。
在投屏后,用户还可以通过源设备501上显示的用户交互界面来控制、调整弹幕的显示、以及发送弹幕信息等,例如通过图3a中的弹幕键304来终止或开启弹幕在投屏设备上的显示,通过弹幕设置键306来调整弹幕在投屏设备上的显示参数,或者通过弹幕发送框308来发送弹幕以显示到投屏设备上。
在本申请的一个实施例中,当用户从源设备501或投屏设备502上关闭弹幕,例如点弹幕键304以关闭弹幕显示时,示例性的部分代码如下:
而当用户又从源设备501或投屏设备502上重新开启弹幕,例如点弹幕键304以开启弹幕显示时,部分伪代码可以如下:
图6示出投屏过程中调整弹幕参数的时序图600。在601中,用户通过终端设备501,即源设备上的用户交互画面进行设置,并通过文本控制单元417来调整弹幕的显示参数。当源设备501检测到用户交互界面的弹幕设置键306上的操作时,弹出弹幕设置窗口(图中未示出),可以包括但不限于设置弹幕的:透明度(0-100%)、字号(小号-标准-大号-特大号)、播放速度(慢速-正常-2x-3x)、显示区域(10-50%)、颜色、动画效果,等等。当源设备501检测到弹幕参数的设置完成时,在603中,源设备501发送更新的弹幕参数到投屏设备502上。在605中,响应于接收到的弹幕参数,投屏设备502的文本控制单元427根据该弹幕参数调整文本显示单元429上显示的弹幕,调整后的弹幕显示对应于用户在源设备501上做的设置或者对应于文本控制单元427对一些参数做相应适配之后的显示设置。
在611中,用户还可以在投屏设备502上设置弹幕的显示参数,例如通过智能电视的遥控器来操控显示屏上的用户交互画面进行设置,并通过文本显示单元429来调整弹幕的显示参数。在本申请的一个实施例中,还包括步骤613,投屏设备502将更新的弹幕显示参数发送给源设备501,以在源设备501上更新用户对弹幕显示参数的调整/变更。
在投屏过程中,用户可以自由的选择是否在源设备或投屏设备上对弹幕信息的显示进行个性化设置,即使在源设备上进行弹幕显示的参数设置,也可以相应的适配于当前在投屏设备上的投屏画面中,使得设置的操作十分便捷、灵活。相应地,用户在投屏设备上进行弹幕信息的显示设置的变更也可以更新到源设备上,使得用户切换回源设备观看视频时即可看到已相应地适配了该变更的弹幕,无需再次进行设置。
图7示出投屏过程中用户通过两个设备发送弹幕的时序图700。在703中,用户在终端设备501上的用户交互界面上通过弹幕发送框308来编辑待发送的弹幕信息,并通过文本控制单元417中的弹幕发送单元来发送该弹幕信息,当终端设备501检测到用户输入弹幕信息并点击发送时,终端设备501将该弹幕信息封装为弹幕数据并将该弹幕数据发送至终端设备502。响应于接收到该新添加的弹幕数据,终端设备502的文本解析单元424解析该弹幕数据得到新的弹幕信息,在707中,该解析的弹幕信息通过文本显示单元429加载/显示于当前显示的视频画面中,该新添加的弹幕信息可以是以滑入的动画效果从显示屏的右上侧滑入显示屏。
在本申请的一个实施例中,在701中,终端设备501还可以将该弹幕数据发送至视频服务器510,且在705中,视频服务器510响应于该收到的弹幕数据,更新与其对应的弹幕数据包,并在706中,将更新的弹幕数据包发送给终端设备502,从而使得终端设备502在步骤707中显示该新添加的弹幕。
在本申请的另一实施例中,若终端设备501在投屏后仍然在其显示屏上显示弹幕信息时,用户在其用户交互界面上新发送的弹幕信息也会以滑入的动画效果显示于终端设备501的显示屏上。
继续参考图7,在711中,用户还可以在终端设备502上的用户交互界面编辑弹幕信息,并通过文本控制单元427中的弹幕发送单元来发送该弹幕信息,具体操作可以例如通过智能电视的遥控器在显示屏上的用户交互界面中输入文本信息并点击发送,当终端设备502检测用户点击发送该弹幕信息时,将其封装为弹幕数据并发送至视频服务器510。在715中,响应于该收到的弹幕数据,视频服务器510更新与其对应的弹幕数据包,并在716中,将更新的弹幕数据包发送给终端设备502。在717中,终端设备502通过文本控制单元427来控制文本显示单元429,从而使该新的弹幕信息以滑入动画效果显示于终端设备502的显示屏上。
在本申请的一个实施例中,步骤715和716可以省去,用户在终端设备502上发送的新弹幕,会直接显示于终端设备502的显示屏上,而不是在收到视频服务器510更新后的弹幕数据后才显现。
在本申请的另一实施例中,若终端设备501在投屏后仍然在其显示屏上显示弹幕信息时,终端设备502也可以在712中,将包含该新弹幕信息的弹幕数据发送给终端设备501,终端设备501通过文本解析单元414解析该弹幕数据后,在714中,通过文本显示单元417将用户新发送的弹幕信息以滑入的动画效果显示于终端设备501的显示屏上。
其中,关于用户点击发送弹幕,以及新弹幕在源设备501,和/或投屏设备502上以动画效果滑入,示例性的部分代码如下:
由于用户在观看视频时,通过弹幕显示以及弹幕发送能够有类似实时互动的体验,而在视频投屏的过程中,用户依然可以从源设备端或投屏设备端发送新的弹幕,并在观看视频时查看到刚刚发送的新弹幕,继续地参与“实时互动”。通常投屏设备具有比源设备更大的显示屏幕,使得用户可以在大屏上观看视频并且“实时互动”,增强了互动时的体验。
图8示出两个设备之间的投屏终止时,视频画面和弹幕信息继续在源设备501的显示屏上显示的时序图800。在802中,终端设备501检测到用户终止投屏的操作,例如点击如图3所示的投屏按键302以结束投屏,终端设备501发送终止请求至终端设备502,响应于该终止请求,在803中,终端设备502通过视频控制单元426和文本控制单元427控制显示模块425以停止显示当前的视频画面以及弹幕信息,并在804中,终端设备502与视频服务器510之间终止数据的收发。在810中,终端设备501向视频服务器510请求当前中断的视频数据和弹幕数据,响应于该请求,在812中,视频服务器510向终端设备501下发当前中断的视频画面或其前后画面开始的视频数据和弹幕数据,并在814中,在终端设备501上通过视频解码单元413和文本解析单元414传输解码后的视频和弹幕,并在显示模块415上显示。
在本申请的一个实施例中,如图6所示,在611中,用户通过投屏设备502来设置弹幕的显示参数,由于此时源设备501上没有显示任何视频画面和/或弹幕信息,因此,在投屏设备502上进行的参数变更没有进一步发送到源设备501上。在这个实施例中,当用户终止投屏时,如图8所示,在805中,投屏设备502判断在投屏过程中是否改变了弹幕显示参数,如果判断结果为是,则在807中,向源设备501发送当前更新的弹幕显示参数。基于从投屏设备502收到的弹幕显示参数,源设备501在显示屏上显示弹幕时将对应于该参数并做相应的适配。
在本申请另一实施例中,用户在投屏设备上对当前观看的视频的弹幕进行显示设置后,可以不执行图6所示的613,即该弹幕显示设置的变更可以不更新到源设备501上;并且,当用户终止投屏时,也可以不执行图8所示的805和807,即该弹幕显示设置的变更依然不更新到源设备501上。在这个实施例中,用户可以在源设备501上保留一组对弹幕显示的设置ConfigA,而在投屏设备502上保留另一组对弹幕显示的设置ConfigB,且用户于任何时候在源设备501或投屏设备502上更改弹幕的显示设置时,只会分别更改ConfigA或ConfigB中的参数,而不会影响另一个参数,从而满足用户在不同的设备上对弹幕显示参数的不同需求。
图9为本申请实施例提供的一种投屏的方法流程图900,例如流数据的投屏方法。图9所示为终端设备501,即源设备上执行的流数据投屏的方法流程图900。
在步骤901中,源设备501在第一应用程序,如爱奇艺,优酷等APP上播放视频。源设备501上播放的视频是接收自爱奇艺或优酷等的服务器所下发的视频流。服务器将源设备501请求播放的视频流下载地址发送给源设备501。基于该下载地址,源设备501可以下载相应的视频流数据,并在本地通过视频解码单元413进行解码后播放,播放的视频画面通过显示模块415中的视频显示单元418,显示于源设备501的显示屏上。
在步骤903中,源设备501检测用户在第一应用程序界面上的投屏操作,例如,当源设备501检测到用户点击视频画面上的投屏键302,则弹出在当前环境下检测到的可投屏设备列表的选项卡。其中,当前环境指的是例如当前源设备501所在的局域网。在本申请另一实施例中,源设备501可以检测出当前系统账户登录的其他智能设备,并将这些设备作为可投屏设备。在步骤903中,若源设备501未检测到该投屏操作,则继续播放当前的视频。
在本申请的一个实施例中,第一应用程序可以响应于用户上次退出该应用前已勾选了启动弹幕,而在此次播放视频时默认弹幕是开启的。则在此实施例中,源设备501当前显示的视频画面中还可以叠加显示与该视频相关的弹幕信息。
在本申请的另一个实施例中,第一应用程序的服务器可能提供与视频相关的外挂字幕,并且响应于用户选择播放该视频时,自动下发该外挂字幕的数据。则在此实施例中,源设备501收到当前显示的视频画面中还可以叠加显示与该视频相关的外挂字幕信息。
以下将以弹幕为例,进一步的描述本实施例提供的流数据投屏方法。
在步骤905中,源设备501检测到用户选择终端设备502进行投屏,终端设备502可以是和源设备处于同一局域网并支持相同投屏协议的设备,例如智能电视。
在步骤907中,源设备501在该第一应用程序下检测当前播放的视频中是否显示了弹幕,即检测当前是否开启弹幕的功能。当检测到当前开启弹幕功能,则执行步骤909。
在步骤909中,源设备501向投屏设备502发送经第一应用程序的视频服务器授权的弹幕数据的下载地址和视频数据的下载地址,例如弹幕下载URL和视频下载URL。
投屏设备502接收到源设备501发送的数据下载地址后,通过访问地址与视频服务器获取视频流和弹幕数据。投屏设备502的视频解码单元423和文本解析单元424分别解码和解析了获取的视频流和弹幕数据,并通过显示模块425的视频显示单元428和文本显示单元429分别显示解码和解析得到的视频和弹幕信息,其中弹幕信息载入并叠加到视频画面上,并通知显示于视频画面的顶部。
图10为本申请实施例提供的一种投屏的方法流程图1000,例如流数据的投屏方法。图10所示为终端设备502,即投屏设备上执行的流数据投屏的方法流程图1000。
在步骤1001中,投屏设备502接收到来自终端设备501,即源设备的投屏请求。
在步骤1003中,投屏设备502从源设备501接收到视频数据的下载地址和弹幕数据的下载地址。
具体地,通过投屏设备502上的第一判断单元分别判断出属于视频数据下载地址的部分和属于弹幕数据下载地址的部分,以分别请求视频流数据和弹幕数据。
其中,视频数据和弹幕数据的下载地址是第一应用程序的视频服务器510下发给源设备501的经授权的下载地址,该下载地址可以是在源设备501向视频服务器510请求视频时由视频服务器510下发给源设备501的,也可以是当源设备501准备向投屏设备502投屏时,向视频服务器请求的下载地址,即,在源设备501检测到用户点击投屏按键302后,在向投屏设备502发出投屏邀请的同时向视频服务器510发出请求,以请求下发授权的视频数据下载地址、和弹幕数据下载地址。
在步骤1005中,响应于收到的视频数据下载地址和弹幕数据下载地址,投屏设备502访问该地址以请求视频流数据和弹幕数据。
具体地,视频服务器510判断投屏设备502为授权设备后,则向投屏设备502下发所请求的视频流和弹幕数据包。
在步骤1007中,投屏设备502接收到视频服务器下发的视频流和弹幕数据包。
具体地,投屏设备502上的数据判断单元判断接收到的数据类型,并分别将视频数据发给视频解码单元,将弹幕数据发给文本解析单元,以分别进行解析。
在步骤1009中,投屏设备502的显示屏播放视频,同时将弹幕叠加在视频画面上显示。
具体地,投屏设备502的视频解码单元423将接收到的视频流进行解码并传输给显示单元425的视频显示单元428,以将解码得到的视频画面显示于投屏设备502的显示屏上。同时,投屏设备502的文本解析单元424将接收到的弹幕数据进行解析并传输给显示单元425的文本显示单元429,以将解析得到的弹幕信息叠加到视频画面中,并显示于投屏设备502的显示屏上。
应可理解,虽然上述实施例以弹幕投屏、弹幕投屏后的显示和弹幕投屏后的控制为例进行描述,本申请的实施例也可以实现字幕投屏、以及字幕投屏后的显示与控制,应可理解,字幕的下载、解析、和显示的过程与弹幕相似,字幕的设置/参数调节也与弹幕相似,此处不再赘述字幕数据的投屏过程,因此在本申请中不再对字幕的投屏方案进行详细的描述。
通过本申请提供的流数据投屏方法,智能设备能够根据用户的投屏需求,在向可投屏设备进行视频投屏的同时,还将与该视频相关的弹幕和/或字幕等文本信息进行投屏,并且可选择地在源设备和投屏设备上通过用户交互界面来设置和控制文本数据的显示和更新。这些文本数据的投屏显示和更新操作有利于增强用户在观看视频时的整体感受、以及观看视频时的互动体验。与以往的投屏方案比较而言,本发明实施例提供了非常方便快捷的对与视频匹配的弹幕和字幕进行投屏的方案,还提供了灵活的弹幕发送方案、以及灵活调整弹幕/字幕的显示参数的方案等等,从而大大地提高了用户观看视频时的体验和互动感受。
本申请提供一种包含指令的计算机程序产品,当所述计算机程序产品在终端(例如上述终端设备501或502)上运行时,使得所述终端执行本申请实施例提供的一种流数据投屏方法中的步骤。
本申请提供一种计算机可读存储介质,包括指令,当所述指令在终端上运行时,使得所述终端执行本申请实施例提供的一种流数据投屏方法中的步骤。
所属领域的技术人员可以清楚地了解到本申请实施例可以用硬件实现,或硬件与软件的方式实现。当使用硬件与软件实现,可以将上述功能存储在计算机可读介质中。基于这样的理解,本申请实施例的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:快闪存储器、移动硬盘、只读存储器、随机存取存储器、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本申请实施例的具体实施方式,但本申请实施例的保护范围并不局限于此,任何在本申请实施例揭露的技术范围内的变化或替换,都应涵盖在本申请实施例的保护范围之内。因此,本申请实施例的保护范围应以所述权利要求的保护范围为准。