CN112822557A - 信息处理方法、装置、电子设备及计算机可读存储介质 - Google Patents

信息处理方法、装置、电子设备及计算机可读存储介质 Download PDF

Info

Publication number
CN112822557A
CN112822557A CN201911118482.XA CN201911118482A CN112822557A CN 112822557 A CN112822557 A CN 112822557A CN 201911118482 A CN201911118482 A CN 201911118482A CN 112822557 A CN112822557 A CN 112822557A
Authority
CN
China
Prior art keywords
image
browser
video stream
server
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911118482.XA
Other languages
English (en)
Inventor
曾桃
叶涵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Mobile Communications Group Co Ltd
China Mobile IoT Co Ltd
Original Assignee
China Mobile Communications Group Co Ltd
China Mobile IoT Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Mobile Communications Group Co Ltd, China Mobile IoT Co Ltd filed Critical China Mobile Communications Group Co Ltd
Priority to CN201911118482.XA priority Critical patent/CN112822557A/zh
Publication of CN112822557A publication Critical patent/CN112822557A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4782Web browsing, e.g. WebTV
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440263Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the spatial resolution, e.g. for displaying on a connected PDA
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8543Content authoring using a description language, e.g. Multimedia and Hypermedia information coding Expert Group [MHEG], eXtensible Markup Language [XML]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

本发明提供一种信息处理方法、装置、电子设备及计算机可读存储介质。该方法应用于电子设备,电子设备安装有支持网页实时通信WebRTC技术的浏览器,该方法包括:通过由浏览器与WebRTC信令服务器协商确定的,构建于浏览器与视频源之间的媒体传输通道,接收来自视频源的视频流;在浏览器显示的,采用WebRTC技术编写的网页中,播放视频流;将根据视频流获得的第一图像发送至服务器,并接收服务器返回的图像识别结果;根据图像识别结果,在网页中进行显示处理。本发明实施例中,即使不安装指定插件,通过使用支持WebRTC技术的浏览器,也能够实现用户对视频流中不认识的对象的识别,因此,与现有技术相比,本发明实施例的使用范围更广。

Description

信息处理方法、装置、电子设备及计算机可读存储介质
技术领域
本发明涉及通信技术领域,尤其涉及一种信息处理方法、装置、电子设备及计算机可读存储介质。
背景技术
目前,移动终端等电子设备的普及程序越来越高,越来越多的用户习惯使用电子设备上安装的浏览器来观看视频。
在观看视频流的过程中,存在这样的情况:视频流中出现了用户不认识的对象,例如不认识的人物或物品等,但用户想要认识这个对象,例如知道人物的姓名。针对这种情况,目前常用的解决方式为:在浏览器上安装指定的插件,浏览器基于指定的插件,将用户不认识的对象所在的图像上传至互联网进行识别,并得到识别结果。由于需要安装指定的插件,上述解决方式的使用范围非常窄。
发明内容
本发明提供一种信息处理方法、装置、电子设备及计算机可读存储介质,以解决现有帮助用户了解不认识的对象的方式的使用范围窄的问题。
为了解决上述技术问题,本发明是这样实现的:
第一方面,本发明实施例提供一种信息处理方法,应用于电子设备,所述电子设备安装有支持网页实时通信WebRTC技术的浏览器,所述方法包括:
通过由所述浏览器与WebRTC信令服务器协商确定的,构建于所述浏览器与视频源之间的媒体传输通道,接收来自所述视频源的视频流;
在所述浏览器显示的,采用所述WebRTC技术编写的网页中,播放所述视频流;
将根据所述视频流获得的第一图像发送至服务器,并接收所述服务器返回的图像识别结果;
根据所述图像识别结果,在所述网页中进行显示处理。
第二方面,本发明实施例提供一种信息处理装置,应用于电子设备,所述电子设备安装有支持网页实时通信WebRTC技术的浏览器,所述装置包括:
接收模块,用于通过由所述浏览器与WebRTC信令服务器协商确定的,构建于所述浏览器与视频源之间的媒体传输通道,接收来自所述视频源的视频流;
播放模块,用于在所述浏览器显示的,采用所述WebRTC技术编写的网页中,播放所述视频流;
收发模块,用于将根据所述视频流获得的第一图像发送至服务器,并接收所述服务器返回的图像识别结果;
显示处理模块,用于根据所述图像识别结果,在所述网页中进行显示处理。
第三方面,本发明实施例提供一种电子设备,包括处理器,存储器,存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现上述信息处理方法的步骤。
第四方面,本发明实施例提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现上述信息处理方法的步骤。
本发明实施例中,电子设备上可以安装支持网页实时通信(Web Real-TimeCommunication,WebRTC)技术的浏览器,基于浏览器,可以接收来自视频源的视频流,并进行视频流的播放。接下来,将根据视频流获得的第一图像发送至服务器,即可接收服务器返回的图像识别结果;根据图像识别结果,在浏览器显示的网页中进行显示处理,即可实现用户对视频流中出现的对象的认识。可见,本发明实施例中,即使不安装指定插件,通过使用支持WebRTC技术的浏览器,也能够实现用户对视频流中不认识的对象的识别,因此,与现有技术相比,本发明实施例的使用范围更广。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获取其他的附图。
图1为本发明实施例提供的信息显示方法的流程图之一;
图2为本发明实施例提供的信息显示方法的流程图之二;
图3-1为电子设备的界面示意图之一;
图3-2为电子设备的界面示意图之二;
图4为电子设备的界面示意图之三;
图5为信息显示系统的架构示意图;
图6为本发明实施例提供的信息显示方法的流程图之三;
图7为本发明实施例提供的信息显示装置的结构框图;
图8为本发明实施例提供的电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获取的所有其他实施例,都属于本发明保护的范围。
下面首先对本发明实施例提供的信息处理方法进行说明。
需要说明的是,本发明实施例提供的信息处理方法应用于电子设备,电子设备安装有支持WebRTC技术的浏览器。
这里,电子设备可以为计算机(Computer)、手机、平板电脑(Tablet PersonalComputer)、膝上型电脑(Laptop Computer)、个人数字助理(personal digitalassistant,简称PDA)、移动上网电子设备(Mobile Internet Device,MID)等。
这里,浏览器可以为IE浏览器、火狐浏览器、Chrome浏览器、Safari浏览器等主流浏览器。
可以理解的是,WebRTC技术是一种免费开源技术,WebRTC技术是超文本标记语言(HyperText Markup Language,HTML)5的核心技术,WebRTC技术能够在不需要下载任何插件的情况下,实现视频流在主流浏览器上的显示。
参见图1,图中示出了本发明实施例提供的信息处理方法的流程图之一。如图1所示,该方法包括如下步骤:
步骤101,通过由浏览器与WebRTC信令服务器协商确定的,构建于浏览器与视频源之间的媒体传输通道,接收来自视频源的视频流。
这里,视频源可以为摄像头,摄像头可以与电子设备的主机连接;或者,视频源可以为电子设备本地的视频库。为了便于理解,本方案中均以视频源为摄像头的情况为例进行说明。
这里,浏览器可以预先与WebRTC信令服务器进行协商,以确定用于构建在浏览器与视频源之间的媒体传输通道,媒体传输通道可以为长连接通道。接下来,可以在浏览器与视频源之间构建媒体传输通道,并使用WebRTC的getUserMedia方法进行视频流的获取,以通过构建好的媒体传输通道,接收来自视频源的视频流,接收到的视频流可以为实时视频流。
步骤102,在浏览器显示的,采用WebRTC技术编写的网页中,播放视频流。
由于浏览器支持WebRTC技术,浏览器中可以显示采用WebRTC技术编写的网页。这里,可以在浏览器显示的网页中,进行视频流的播放。
步骤103,将根据视频流获得的第一图像发送至服务器,并接收服务器返回的图像识别结果。
需要说明的是,本发明实施例中涉及的,需要识别的对象可以为人物,那么,图像识别结果可以为人脸识别结果,本发明实施例能够实现对视频流中出现的人物的识别。
当然,本发明实施例中需要识别的对象也可以为动物、物品等,在此不再一一列举。为了便于理解,后续实施例中均以需要识别的对象为人物的情况为例进行说明。
在一种具体实施方式中,将根据视频流获得的第一图像发送至服务器,可以包括:
从视频流中截取第二图像;
获得缩小比例参考数据,并根据缩小比例参考数据,确定缩小比例;
按照缩小比例,对第二图像进行缩小处理,以得到第一图像;
将第一图像发送至服务器。
一般而言,视频流由多帧图像组成,这里,可以从组成视频流的多帧图像中截取任意一帧图像作为第二图像。具体地,第二图像的截取可以通过一个Canvas元素实现,后续将该Canvas元素称为第一Canvas元素。
这里,还可以获得缩小比例参考数据,并根据缩小比例参考数据,确定缩小比例。可选地,缩小比例参考数据可以包括网络带宽,缩小比例越大,网络带宽可以越小;和/或,缩小比例参考数据可以包括第二图像的图像清晰度,缩小比例越大,图像清晰度可以越低。
具体地,网络带宽与缩小比例之间可以呈负相关,也即,网络带宽越大,根据网络带宽确定出的缩小比例越小,网络带宽越小,根据网络带宽确定出的缩小比例越大。第二图像的图像清晰度与缩小比例之间也可以呈负相关,也即,图像清晰度越高,根据图像清晰度确定出的缩小比例越小,图像清晰度越低,根据图像清晰度确定出的缩小比例越大。
需要指出的是,缩小比例参考数据并不局限于网络带宽和第二图像的图像清晰度,缩小比例参考数据还可以包括摄像头的分辨率等,在此不再一一列举。
在确定出缩小比例之后,可以按照缩小比例,对第二图像进行缩小处理,例如对第二图像的宽度方向和高度方向进行等比例缩小处理,以得到第一图像,并将第一图像发送至服务器。服务器可以利用人工智能技术,对第一图像进行图像识别处理,以得到并返回图像识别结果。
这种实施方式中,第一图像是对从视频流中截取的第二图像进行缩小处理后得到的,第一图像的尺寸小于第二图像,这样能够保证图像在电子设备与服务器之间的传输速度,减少传输消耗的流量,且能够保证服务器进行图像识别处理时的识别速度。另外,确定缩小比例时依据的缩小比例参考数据可以包括网络带宽、第二图像的图像清晰度等,网络带宽和图像清晰度均与实际场景因素紧密关联,这样能够保证确定出的缩小比例的合理性,从而能够兼顾服务器进行图像识别处理时的识别速度和识别精度。
当然,将根据视频流获得的第一图像发送至服务器的实施方式并不局限于此,例如,可以直接将第二图像确定为第一图像,并将所确定的第一图像发送至服务器进行图像识别处理,这也是可行的。
步骤104,根据图像识别结果,在网页中进行显示处理。
这里,服务器返回的图像识别结果可以封装于对象简谱(JavaScript ObjectNotation,JSON)串中。在步骤104中,可以根据JSON串中封装的图像识别结果,获取能够使用户认识第一图像中的对象的信息,接下来,可以直接在网页中对所获取的信息进行显示,或者在接收到用户的识别结果显示指示的情况下,在网页中对所获取的信息进行显示。具体地,用户可以通过语音输入方式、触控输入方式等输入识别结果显示指示。
当然,在网页中进行显示处理的方式并不局限于此,只需保证基于显示处理结果,用户能够对第一图像中的对象进行认识即可,在此不再一一列举。
本发明实施例中,电子设备上可以安装支持WebRTC技术的浏览器,基于浏览器,可以接收来自视频源的视频流,并进行视频流的播放。接下来,将根据视频流获得的第一图像发送至服务器,即可接收服务器返回的图像识别结果;根据图像识别结果,在浏览器显示的网页中进行显示处理,即可实现用户对视频流中出现的对象的认识。可见,本发明实施例中,即使不安装指定插件,通过使用支持WebRTC技术的浏览器,也能够实现用户对视频流中不认识的对象的识别,因此,与现有技术相比,本发明实施例的使用范围更广。
可选地,浏览器与服务器采用第一通信协议进行通信;
将根据视频流获得的第一图像发送至服务器,包括:
生成与第一通信协议匹配的第一图像识别请求;其中,第一图像识别请求中携带支持第一数制的第一表单,第一表单中包括第一图像经转换得到的,第一数制的文件;
将第一图像识别请求发送至服务器。
这里,第一通信协议可以为超文本传输协议(HyperText Transfer Protocol,HTTP);为了与HTTP相匹配,第一图像识别请求可以为XMLHttpRequest;第一数制可以为二进制;第一表单可以为form表单。
本发明实施例中还可以使用到不同于第一Canvas元素的第二Canvas元素,第二Canvas元素可以提供toBlob方法,以通过toBlob方法,将第一图像(其可以认为是快照图片)转换为二进制的大文件,然后将转换得到的大文件作为XMLHttpRequest携带的form表单中form-body的一部分,之后可以将XMLHttpRequest发送至服务器。
可见,本发明实施例中,可以基于与第一通信协议相匹配的第一图像识别请求,对第一图像进行转换后得到的文件进行传输,这样相当于通过第一图像识别请求,成功将第一图像提供给了服务器,从而能够便于后续图像识别处理操作的正常实施。
参见图2,图中示出了本发明实施例提供的信息处理方法的流程图之二。如图2所示,该方法包括如下步骤:
步骤201,通过由浏览器与WebRTC信令服务器协商确定的,构建于浏览器与视频源之间的媒体传输通道,接收来自视频源的视频流。
步骤202,在浏览器显示的,采用WebRTC技术编写的网页中,播放视频流。
需要说明的是,步骤201至步骤202的具体实施过程参照对步骤101至步骤102的说明即可,在此不再赘述。
步骤203,将根据视频流获得的第一图像发送至服务器,并接收服务器返回的图像识别结果;其中,图像识别结果包括对象位置信息、对象识别信息以及对象识别信息的置信度。
这里,对象位置信息可以用于表征第一图像中的对象的位置,例如,对象位置信息可以包括第一图像中的对象的位置坐标。对象识别信息可以为能够使用户认识第一图像中的对象的信息,例如,对象识别信息中可以包括第一图像中的人物的姓名、年龄、职业等。对象识别信息的置信度可以表征对象识别信息的可靠度,置信度可以为大于0且小于等于1的数值,置信度越高,对象识别信息的可靠性越高。
需要指出的是,第一图像中可能仅存在一个对象(例如图3-1所示的情况),这时,图像识别结果中可以仅包括一个对象位置信息、一个对象识别信息,以及这个对象识别信息的置信度;当然,第一图像中也可能同时存在至少两个对象(例如图3-2所示的情况),这时,图像识别结果中可以同时包括两组数据,每组数据中可以包括一个对象位置信息、一个对象识别信息,以及这个对象识别信息的置信度。
步骤204,根据对象位置信息,在网页中显示对象标记,并在对象标记的设定位置显示对象识别信息,且对应于对象识别信息,显示置信度。
这里,对象标记可以为悬浮框,悬浮框可以呈矩形、圆形或者其他形状;对象标记的设定位置可以为悬浮框的顶部、底部或者其他位置。另外,对象识别信息和置信度的显示样式可以预先进行设置,显示样式包括但不限于字体样色、字体风格、字体大小等。
假设如图3-2所示,第一图像中同时存在两个对象,那么,图像识别结果中可以包括两组数据,其中一组数据中可以包括对象位置信息Z1、对象识别信息S1和对象识别信息S1的置信度D1,另一种数据中可以包括对象位置信息Z2、对象识别信息S2和对象识别信息S2的置信度D2。这样,如图4所示,可以根据Z1、在网页中显示对象标记41,并对象标记41底部显示S1和D1,以便于用户认识图4中靠左的对象;还可以根据Z2、在网页中显示对象标记42,并在对象标记42底部显示S2和D2,以便于用户认识图4中靠右的对象。
本发明实施例中,电子设备上可以安装支持WebRTC技术的浏览器,基于浏览器,可以接收来自视频源的视频流,并进行视频流的播放。接下来,将根据视频流获得的第一图像发送至服务器,即可接收服务器返回的图像识别结果,图像识别结果中可以包括对象位置信息、对象识别信息以及对象识别信息的置信度。之后,可以根据对象位置信息,在网页中显示对象标记,并在对象标记的设定位置显示对象识别信息,且对应于对象识别信息,显示置信度,以实现用户对视频流中出现的对象的认识。可见,本发明实施例中,即使不安装指定插件,通过使用支持WebRTC技术的浏览器,也能够基于对象标记、对象识别信息和置信度的显示,直观可靠地实现用户对视频流中出现的对象的认识,因此,与现有技术相比,本发明实施例的使用范围更广,并且,本发明实施例能够保证用户对视频中出现的对象进行认识时的认识效果。
在一种具体实施方式中,对象位置信息为归一化坐标;
根据对象位置信息,在网页中显示对象标记,包括:
获得视频流的尺寸信息;
根据尺寸信息和归一化坐标,确定显示位置坐标;
在网页中与显示位置坐标对应的位置显示对象标记。
需要说明的是,对象位置信息为归一化坐标是指:对象位置信息是对象的实际显示位置相对于视频宽度尺寸和高度尺寸的缩放比例数值,那么,对象位置信息中的各个坐标均位于0到1之间。具体地,归一化坐标中可以包括四个坐标,分别为左上角X轴坐标X1、左上角Y轴坐标Y1、右下角X轴坐标X2、右下角Y轴坐标Y2。
这里,还可以获得视频流的尺寸信息,并根据所获得的尺寸信息和归一化坐标,确定显示位置坐标。具体地,假设所获得的尺寸信息中包括视频流的宽度尺寸W和高度尺寸H,则可以将X1和W相乘以得到第一乘积,将Y1和H相乘以得到第二乘积,将X2和W相乘以得到第三乘积,将Y2和H相乘以得到第四乘积,第一乘积至第四乘积这四个乘积可以组成显示位置坐标。
接下来,可以确定显示位置坐标对应的位置,该位置可以为左上角X轴坐标为第一乘积,左上角Y轴坐标为第二乘积,左下角X轴坐标为第三乘积,左下角Y轴坐标为第四乘积的矩形区域,之后,可以显示围设该矩形区域的悬浮框,该悬浮框即可作为对象标记。另外,还可以在悬浮框的底部,进行人物姓名和置信度的显示。
本发明实施例中,可以基于归一化坐标和视频流的尺寸信息,确定显示位置坐标,这样,不管播放视频流时使用的播放分辨率为多少,对象标记都能够显示在正确的位置,从而使得对象标记能够正确标记视频流中出现的对象。
下面结合图5和图6,以一个具体的例子,对本发明实施例的具体实施过程进行详细说明。
如图5所示,本发明实施例可以提供一种信息处理系统,信息处理系统中可以包括浏览器和服务器。
其中,浏览器支持WebRTC技术,浏览器中可以具有HTML文件和JS文件,安装有浏览器的电子设备的主机可以与一摄像头连接;其中,JS的英文全称为JavaScript,JS是一种直译式脚本语言。
服务器中可以具有HTML文件、JS文件等本地静态文件资源,服务器中可以包括Nginx代理组件和人脸识别服务模块;其中,Nginx是一个高性能的HTTP和反向代理网页服务器,人脸识别服务模块可以包括人脸识别接口(其也可以称为Restful接口)。
可选地,Nginx代理组件上可以配置有从互联网上下载的安全套接层(SecureSockets Layer,SSL)证书,浏览器与Nginx代理组件可以使用超文文本传输安全协议(Hyper Text Transfer Protocol over SecureSocket Layer,HTTPS)进行安全数据交互,Nginx代理组件与人脸识别服务模块之间可以使用HTTP进行交互。
具体实施时,如图6所示,用户可以先使用浏览器加载HTML页面和JS文件。接下来,可以在HTML页面中,使用HTML5的Video标签自动加载摄像头;还可以在JS文件中,使用WebRTC的getUserMedia方法获取实时的视频流;还可以使用HTML5的onloadedmetadata事件和onplaying事件监听视频流的调用。
这里,可以定义两个Canvas元素,分别为第一Canvas元素和第二Canvas元素。具体地,可以使用第一Canvas元素截取视频流中的第二图像,接下来可以适当对第二图像进行缩小处理,以得到第一图像,并将第一图像发送至人脸识别服务模块。由于缩小处理操作的实施,可以减小人脸识别服务模块运行人脸识别服务所需的时间,提高人脸识别服务的处理能力,并减小人脸显示的延迟。
可选地,可以先将第一图像发送至Nginx代理组件,Nginx代理组件可以将第一图像转发至人脸识别服务模块的人脸识别接口,这样,人脸识别服务模块能够获取到第一图像。之后,人脸识别服务模块可以对第一图像进行人脸识别处理,以得到图像识别结果,图像识别结果可以封装到Json串中。具体地,图像识别结果可以构造为下面的表1所示的形式。
Figure BDA0002274740620000101
Figure BDA0002274740620000111
表1
或者,图像识别结果也可以呈下面的代码形式:
Figure BDA0002274740620000112
之后,服务器可以将图像识别结果返回给浏览器,浏览器得到图像识别结果之后,可以根据图像识别结果,确定人脸框的显示位置,使用第二Canvas,在所确定的位置显示人脸框,并将图像识别结果中的对象识别信息和置信度显示在人脸框下方。具体地,浏览器可以获取视频流的宽度尺寸W和高度尺寸H,将上面的left与W相乘(相乘结果相当于上文中的第一乘积),将上面的top与H相乘(相乘结果相当于上文中的第二乘积),将上面的width与W相乘(相乘结果相当于上文中的第三乘积),将上面的height与H相乘(相乘结果相当于上文中的第四乘积),根据得到的四个相乘结果即可确定人脸框的显示位置。
最后可以判断浏览器的页面是否关闭,如果判断结果为是,则退出,信息处理系统将停止运行;否则,可以返回执行使用第一Canvas元素截取视频流中的第二图像的操作。
可见,本发明实施例中可以采用浏览器/服务器(Browser/Server,B/S)架构,这样能够具有业务逻辑和界面分离的特性,以及业务逻辑和界面复用的效果,浏览器与人脸识别服务模块可以进行前后端隔离,用户可以在不安装任何插件的情况下,使用主流支持WebRTC的浏览器请求人脸识别服务并在视频流上显示人脸识别结果。本发明实施例中可以采用HTML,HTML5,JS,WebRTC等开源技术编写,学习成本低,开发周期短。本发明实施例可以在Windows、IOS、Linux、Android等各种操作系统上实现。另外,由于图像识别结果中的对象位置信息为归一化坐标,不管播放视频流时使用的播放分辨率是多少,人脸识别服务都可以进行兼容。因此,本发明实施例能够便捷可靠地对外进行人脸识别能力的展示,且能够在不安装任何插件和指定客户端的情况下,轻松实现跨平台视频流的实时显示处理。
下面对本发明实施例提供的信息处理装置进行说明。
参见图7,图中示出了本发明实施例提供的信息处理装置700的结构框图。如图7所示,信息处理装置700应用于电子设备,电子设备安装有支持WebRTC技术的浏览器,信息处理装置700包括:
接收模块701,用于通过由浏览器与WebRTC信令服务器协商确定的,构建于浏览器与视频源之间的媒体传输通道,接收来自视频源的视频流;
播放模块702,用于在浏览器显示的,采用WebRTC技术编写的网页中,播放视频流;
收发模块703,用于将根据视频流获得的第一图像发送至服务器,并接收服务器返回的图像识别结果;
显示处理模块704,用于根据图像识别结果,在网页中进行显示处理。
可选地,收发模块703,包括:
截取单元,用于从视频流中截取第二图像;
第一处理单元,用于获得缩小比例参考数据,并根据缩小比例参考数据,确定缩小比例;
第二处理单元,用于按照缩小比例,对第二图像进行缩小处理,以得到第一图像;
第一发送单元,用于将第一图像发送至服务器。
可选地,缩小比例参考数据包括网络带宽,缩小比例越大,网络带宽越小;
和/或,
缩小比例参考数据包括第二图像的图像清晰度,缩小比例越大,图像清晰度越低。
可选地,浏览器与服务器采用第一通信协议进行通信;
收发模块703,包括:
生成单元,用于生成与第一通信协议匹配的第一图像识别请求;其中,第一图像识别请求中携带支持第一数制的第一表单,第一表单中包括第一图像经转换得到的,第一数制的文件;
第二发送单元,用于将第一图像识别请求发送至服务器。
可选地,图像识别结果包括对象位置信息、对象识别信息以及对象识别信息的置信度;
显示处理模块704,具体用于:
根据对象位置信息,在网页中显示对象标记,并在对象标记的设定位置显示对象识别信息,且对应于对象识别信息,显示置信度。
可选地,对象位置信息为归一化坐标;
显示处理模块704,包括:
获得单元,用于获得视频流的尺寸信息;
确定单元,用于根据尺寸信息和归一化坐标,确定显示位置坐标;
显示单元,用于在网页中与显示位置坐标对应的位置显示对象标记。
可选地,视频源为摄像头;
和/或,
图像识别结果为人脸识别结果。
可见,本发明实施例中,即使不安装指定插件,通过使用支持WebRTC技术的浏览器,也能够实现用户对视频流中不认识的对象的识别,因此,与现有技术相比,本发明实施例的使用范围更广。
下面对本发明实施例提供的电子设备进行说明。
参见图8,图中示出了本发明实施例提供的电子设备800的结构示意图。如图8所示,电子设备800包括但不限于:射频单元801、网络模块802、音频输出单元803、输入单元804、传感器805、显示单元806、用户输入单元807、接口单元808、存储器809、处理器810、以及电源811等部件。本领域技术人员可以理解,图8中示出的电子设备结构并不构成对电子设备的限定,电子设备800可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
其中,电子设备800安装有支持WebRTC技术的浏览器,处理器810,用于:
通过由浏览器与WebRTC信令服务器协商确定的,构建于浏览器与视频源之间的媒体传输通道,接收来自视频源的视频流;
在浏览器显示的,采用WebRTC技术编写的网页中,播放视频流;
将根据视频流获得的第一图像发送至服务器,并接收服务器返回的图像识别结果;
根据图像识别结果,在网页中进行显示处理。
可选地,处理器810,具体用于:
从视频流中截取第二图像;
获得缩小比例参考数据,并根据缩小比例参考数据,确定缩小比例;
按照缩小比例,对第二图像进行缩小处理,以得到第一图像;
将第一图像发送至服务器。
可选地,缩小比例参考数据包括网络带宽,缩小比例越大,网络带宽越小;
和/或,
缩小比例参考数据包括第二图像的图像清晰度,缩小比例越大,图像清晰度越低。
可选地,浏览器与服务器采用第一通信协议进行通信;
处理器810,具体用于:
生成与第一通信协议匹配的第一图像识别请求;其中,第一图像识别请求中携带支持第一数制的第一表单,第一表单中包括第一图像经转换得到的,第一数制的文件;
将第一图像识别请求发送至服务器。
可选地,图像识别结果包括对象位置信息、对象识别信息以及对象识别信息的置信度;
处理器810,具体用于:
根据对象位置信息,在网页中显示对象标记,并在对象标记的设定位置显示对象识别信息,且对应于对象识别信息,显示置信度。
可选地,对象位置信息为归一化坐标;
处理器810,具体用于:
获得视频流的尺寸信息;
根据尺寸信息和归一化坐标,确定显示位置坐标;
在网页中与显示位置坐标对应的位置显示对象标记。
可选地,视频源为摄像头;
和/或,
图像识别结果为人脸识别结果。
可见,本发明实施例中,即使不安装指定插件,通过使用支持WebRTC技术的浏览器,也能够实现用户对视频流中不认识的对象的识别,因此,与现有技术相比,本发明实施例的使用范围更广。
应理解的是,本发明实施例中,射频单元801可用于收发信息或通话过程中,信号的接收和发送,具体的,将来自基站的下行数据接收后,给处理器810处理;另外,将上行的数据发送给基站。通常,射频单元801包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器、双工器等。此外,射频单元801还可以通过无线通信系统与网络和其他设备通信。
电子设备800通过网络模块802为用户提供了无线的宽带互联网访问,如帮助用户收发电子邮件、浏览网页和访问流式媒体等。
音频输出单元803可以将射频单元801或网络模块802接收的或者在存储器809中存储的音频数据转换成音频信号并且输出为声音。而且,音频输出单元803还可以提供与电子设备800执行的特定功能相关的音频输出(例如,呼叫信号接收声音、消息接收声音等等)。音频输出单元803包括扬声器、蜂鸣器以及受话器等。
输入单元804用于接收音频或视频信号。输入单元804可以包括图形处理器(Graphics Processing Unit,GPU)8041和麦克风8042,图形处理器8041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像数据进行处理。处理后的图像帧可以显示在显示单元806上。经图形处理器8041处理后的图像帧可以存储在存储器809(或其它存储介质)中或者经由射频单元801或网络模块802进行发送。麦克风8042可以接收声音,并且能够将这样的声音处理为音频数据。处理后的音频数据可以在电话通话模式的情况下转换为可经由射频单元801发送到移动通信基站的格式输出。
电子设备800还包括至少一种传感器805,比如光传感器、运动传感器以及其他传感器。具体地,光传感器包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板8061的亮度,接近传感器可在电子设备800移动到耳边时,关闭显示面板8061和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别电子设备姿态(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;传感器805还可以包括指纹传感器、压力传感器、虹膜传感器、分子传感器、陀螺仪、气压计、湿度计、温度计、红外线传感器等,在此不再赘述。
显示单元806用于显示由用户输入的信息或提供给用户的信息。显示单元806可包括显示面板8061,可以采用液晶显示器(Liquid Crystal Display,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置显示面板8061。
用户输入单元807可用于接收输入的数字或字符信息,以及产生与电子设备的用户设置以及功能控制有关的键信号输入。具体地,用户输入单元807包括触控面板8071以及其他输入设备8072。触控面板8071,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板8071上或在触控面板8071附近的操作)。触控面板8071可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器810,接收处理器810发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板8071。除了触控面板8071,用户输入单元807还可以包括其他输入设备8072。具体地,其他输入设备8072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆,在此不再赘述。
进一步的,触控面板8071可覆盖在显示面板8061上,当触控面板8071检测到在其上或附近的触摸操作后,传送给处理器810以确定触摸事件的类型,随后处理器810根据触摸事件的类型在显示面板8061上提供相应的视觉输出。虽然在图8中,触控面板8071与显示面板8061是作为两个独立的部件来实现电子设备的输入和输出功能,但是在某些实施例中,可以将触控面板8071与显示面板8061集成而实现电子设备的输入和输出功能,具体此处不做限定。
接口单元808为外部装置与电子设备800连接的接口。例如,外部装置可以包括有线或无线头戴式耳机端口、外部电源(或电池充电器)端口、有线或无线数据端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。接口单元808可以用于接收来自外部装置的输入(例如,数据信息、电力等等)并且将接收到的输入传输到电子设备800内的一个或多个元件或者可以用于在电子设备800和外部装置之间传输数据。
存储器809可用于存储软件程序以及各种数据。存储器809可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器809可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
处理器810是电子设备800的控制中心,利用各种接口和线路连接整个电子设备的各个部分,通过运行或执行存储在存储器809内的软件程序和/或模块,以及调用存储在存储器809内的数据,执行电子设备800的各种功能和处理数据,从而对电子设备800进行整体监控。处理器810可包括一个或多个处理单元;优选的,处理器810可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器810中。
电子设备800还可以包括给各个部件供电的电源811(比如电池),优选的,电源811可以通过电源管理系统与处理器810逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
另外,电子设备800包括一些未示出的功能模块,在此不再赘述。
优选地,本发明实施例还提供一种电子设备,包括处理器810,存储器809,存储在存储器809上并可在所述处理器810上运行的计算机程序,该计算机程序被处理器810执行时实现上述信息处理方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
本发明实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述信息处理方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。其中,所述的计算机可读存储介质,如只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本发明的保护之内。

Claims (10)

1.一种信息处理方法,其特征在于,应用于电子设备,所述电子设备安装有支持网页实时通信WebRTC技术的浏览器,所述方法包括:
通过由所述浏览器与WebRTC信令服务器协商确定的,构建于所述浏览器与视频源之间的媒体传输通道,接收来自所述视频源的视频流;
在所述浏览器显示的,采用所述WebRTC技术编写的网页中,播放所述视频流;
将根据所述视频流获得的第一图像发送至服务器,并接收所述服务器返回的图像识别结果;
根据所述图像识别结果,在所述网页中进行显示处理。
2.根据权利要求1所述的方法,其特征在于,所述将根据所述视频流获得的第一图像发送至服务器,包括:
从所述视频流中截取第二图像;
获得缩小比例参考数据,并根据所述缩小比例参考数据,确定缩小比例;
按照所述缩小比例,对所述第二图像进行缩小处理,以得到第一图像;
将所述第一图像发送至服务器。
3.根据权利要求2所述的方法,其特征在于,
所述缩小比例参考数据包括网络带宽,所述缩小比例越大,所述网络带宽越小;
和/或,
所述缩小比例参考数据包括所述第二图像的图像清晰度,所述缩小比例越大,所述图像清晰度越低。
4.根据权利要求1所述的方法,其特征在于,所述浏览器与所述服务器采用第一通信协议进行通信;
所述将根据所述视频流获得的第一图像发送至服务器,包括:
生成与所述第一通信协议匹配的第一图像识别请求;其中,所述第一图像识别请求中携带支持第一数制的第一表单,所述第一表单中包括所述第一图像经转换得到的,所述第一数制的文件;
将所述第一图像识别请求发送至服务器。
5.根据权利要求1所述的方法,其特征在于,所述图像识别结果包括对象位置信息、对象识别信息以及所述对象识别信息的置信度;
所述根据所述图像识别结果,在所述网页中进行显示处理,包括:
根据所述对象位置信息,在所述网页中显示对象标记,并在所述对象标记的设定位置显示所述对象识别信息,且对应于所述对象识别信息,显示所述置信度。
6.根据权利要求5所述的方法,其特征在于,所述对象位置信息为归一化坐标;
所述根据所述对象位置信息,在所述网页中显示对象标记,包括:
获得所述视频流的尺寸信息;
根据所述尺寸信息和所述归一化坐标,确定显示位置坐标;
在所述网页中与所述显示位置坐标对应的位置显示对象标记。
7.根据权利要求1至6中任一项所述的方法,其特征在于,
所述视频源为摄像头;
和/或,
所述图像识别结果为人脸识别结果。
8.一种信息处理装置,其特征在于,应用于电子设备,所述电子设备安装有支持网页实时通信WebRTC技术的浏览器,所述装置包括:
接收模块,用于通过由所述浏览器与WebRTC信令服务器协商确定的,构建于所述浏览器与视频源之间的媒体传输通道,接收来自所述视频源的视频流;
播放模块,用于在所述浏览器显示的,采用所述WebRTC技术编写的网页中,播放所述视频流;
收发模块,用于将根据所述视频流获得的第一图像发送至服务器,并接收所述服务器返回的图像识别结果;
显示处理模块,用于根据所述图像识别结果,在所述网页中进行显示处理。
9.一种电子设备,其特征在于,包括处理器,存储器,存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至7中任一项所述的信息处理方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述的信息处理方法的步骤。
CN201911118482.XA 2019-11-15 2019-11-15 信息处理方法、装置、电子设备及计算机可读存储介质 Pending CN112822557A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911118482.XA CN112822557A (zh) 2019-11-15 2019-11-15 信息处理方法、装置、电子设备及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911118482.XA CN112822557A (zh) 2019-11-15 2019-11-15 信息处理方法、装置、电子设备及计算机可读存储介质

Publications (1)

Publication Number Publication Date
CN112822557A true CN112822557A (zh) 2021-05-18

Family

ID=75851595

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911118482.XA Pending CN112822557A (zh) 2019-11-15 2019-11-15 信息处理方法、装置、电子设备及计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN112822557A (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090285444A1 (en) * 2008-05-15 2009-11-19 Ricoh Co., Ltd. Web-Based Content Detection in Images, Extraction and Recognition
CN103945284A (zh) * 2013-01-18 2014-07-23 联想(北京)有限公司 信息处理方法和信息处理装置
WO2016150235A1 (zh) * 2015-03-26 2016-09-29 中兴通讯股份有限公司 一种WebRTC P2P音视频通话的方法及装置
CN106303430A (zh) * 2016-08-21 2017-01-04 贵州大学 浏览器中无插件播放实时监控的方法
CN106846495A (zh) * 2017-01-17 2017-06-13 腾讯科技(深圳)有限公司 实现增强现实的方法与装置
CN107277612A (zh) * 2016-04-05 2017-10-20 韩华泰科株式会社 用于在web浏览器上播放媒体流的方法和设备
CN108769616A (zh) * 2018-06-21 2018-11-06 泰华智慧产业集团股份有限公司 一种基于rtsp协议的实时视频无插件预览方法及系统
CN109145141A (zh) * 2018-09-06 2019-01-04 百度在线网络技术(北京)有限公司 信息展示方法和装置
CN109947988A (zh) * 2019-03-08 2019-06-28 百度在线网络技术(北京)有限公司 一种信息处理方法、装置、终端设备及服务器

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090285444A1 (en) * 2008-05-15 2009-11-19 Ricoh Co., Ltd. Web-Based Content Detection in Images, Extraction and Recognition
CN103945284A (zh) * 2013-01-18 2014-07-23 联想(北京)有限公司 信息处理方法和信息处理装置
WO2016150235A1 (zh) * 2015-03-26 2016-09-29 中兴通讯股份有限公司 一种WebRTC P2P音视频通话的方法及装置
CN107277612A (zh) * 2016-04-05 2017-10-20 韩华泰科株式会社 用于在web浏览器上播放媒体流的方法和设备
CN106303430A (zh) * 2016-08-21 2017-01-04 贵州大学 浏览器中无插件播放实时监控的方法
CN106846495A (zh) * 2017-01-17 2017-06-13 腾讯科技(深圳)有限公司 实现增强现实的方法与装置
CN108769616A (zh) * 2018-06-21 2018-11-06 泰华智慧产业集团股份有限公司 一种基于rtsp协议的实时视频无插件预览方法及系统
CN109145141A (zh) * 2018-09-06 2019-01-04 百度在线网络技术(北京)有限公司 信息展示方法和装置
CN109947988A (zh) * 2019-03-08 2019-06-28 百度在线网络技术(北京)有限公司 一种信息处理方法、装置、终端设备及服务器

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
王信佳: "面向实时通信的视频质量增强客户端的设计与实现", 《中国优秀硕士学位论文全文数据库》 *
王玥: "基于WebRTC的实时智能视频监控平台的设计与实现", 《中国优秀硕士学位论文全文数据库》 *

Similar Documents

Publication Publication Date Title
US11243653B2 (en) Method for display control and mobile terminal
CN110109593B (zh) 一种截屏方法及终端设备
CN109947650B (zh) 脚本步骤处理方法、装置和系统
CN109085968B (zh) 一种截屏方法及终端设备
CN109710349B (zh) 一种截屏方法及移动终端
WO2021083091A1 (zh) 截图方法及终端设备
CN107734172B (zh) 一种信息显示方法及移动终端
CN111222063A (zh) 富文本渲染方法、装置、电子设备及存储介质
CN108170723B (zh) 一种网页资源获取方法、终端设备、服务器及系统
WO2021143669A1 (zh) 一种获取配置信息的方法及电子设备
CN110096203B (zh) 一种截图方法及移动终端
CN110990172A (zh) 一种应用分享方法、第一电子设备及计算机可读存储介质
CN109901761B (zh) 一种内容显示方法及移动终端
WO2019129264A1 (zh) 界面的显示方法和移动终端
CN107885799A (zh) 网页信息显示方法及装置
WO2021104232A1 (zh) 显示方法及电子设备
CN108804628B (zh) 一种图片显示方法及终端
CN111399819B (zh) 数据生成方法、装置、电子设备及存储介质
CN110719319A (zh) 一种资源共享方法、装置、终端设备及存储介质
WO2020211692A1 (zh) 信息交互方法及终端设备
CN109947988B (zh) 一种信息处理方法、装置、终端设备及服务器
CN110062281B (zh) 一种播放进度调节方法及其终端设备
CN109597546B (zh) 一种图标处理方法及终端设备
CN109672845B (zh) 一种视频通话的方法、装置以及移动终端
WO2020192662A1 (zh) 操作方法及终端设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20210518