CN110598644B - 多媒体播放控制方法、装置及电子设备 - Google Patents
多媒体播放控制方法、装置及电子设备 Download PDFInfo
- Publication number
- CN110598644B CN110598644B CN201910872980.7A CN201910872980A CN110598644B CN 110598644 B CN110598644 B CN 110598644B CN 201910872980 A CN201910872980 A CN 201910872980A CN 110598644 B CN110598644 B CN 110598644B
- Authority
- CN
- China
- Prior art keywords
- control instruction
- target control
- detection sequence
- occurrence
- action
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/4223—Cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
Abstract
本公开涉及多媒体控制技术领域,具体而言,涉及一种多媒体播放控制方法、多媒体播放控制装置及电子设备。所述的方法包括:获取待检测图像,所述待检测图像中包括眼部图像;对所述待检测图像进行眼部动作识别以捕捉当前眼部动作;将所述当前眼部动作对应的动作信息保存至预设的动作检测序列;对所述动作检测序列进行监测,以在所述动作检测序列触发目标控制指令时,根据所述目标控制指令控制多媒体的播放。本公开能够实现利用眼部动作对多媒体的播放状态进行准确的控制。
Description
技术领域
本公开涉及多媒体控制技术领域,具体而言,涉及一种多媒体播放控 制方法、多媒体播放控制装置及电子设备。
背景技术
在电视、电视机顶盒、电脑以及投影仪等终端设备的使用过程中,例 如播放视频、观看电视频道、播放音频或者播放PPT时,大多利用遥控器 对终端设备进行控制。此外,还可以利用语音控制或手势控制的方式控制 终端设备。
但是,语音控制容易受到周围环境中其他声音的影响,导致控制不准 确;而手势控制的方式,手势动作更加多样且复杂,容易受到观测角度的 影响,操作不够便利。并且,上述的各控制方式也不利于一些残障人士的 使用。
鉴于此,本领域亟需开发一种新的多媒体播放控制方法。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本申请 的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技 术的信息。
发明内容
本公开的实施例提供了一种多媒体播放控制方法、多媒体播放控制装 置及电子设备,进而至少在一定程度上可以使用户利用眼部动作来准确的 控制多媒体数据的播放。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地 通过本公开的实践而习得。
根据本公开实施例的一个方面,提供了一种多媒体播放控制方法,包 括:获取待检测图像,所述待检测图像中包括眼部图像;对所述待检测图 像进行眼部动作识别以捕捉当前眼部动作;将所述当前眼部动作对应的动 作信息保存至预设的动作检测序列;对所述动作检测序列进行监测,以在 所述动作检测序列触发目标控制指令时,根据所述目标控制指令控制多媒 体的播放。
根据本公开实施例的一个方面,提供了一种多媒体播放控制方法,包 括:终端设备通过摄像组件进行拍摄以获取待检测图像,并将所述待检测 图像发送至服务器;所述待检测图像中包括眼部图像;所述服务器接收所 述待检测图像后作眼部动作识别以捕捉当前眼部动作,将所述当前眼部动 作对应的动作信息保存至预设的动作检测序列,以在所述动作检测序列满 足预设规则时触发目标控制指令,并将所述目标控制指令发送至所述终端 设备;所述终端设备接收所述目标控制指令后,根据所述目标控制指令控 制多媒体的播放。
根据本公开实施例的一个方面,提供了一种多媒体播放控制装置,包 括:图像获取模块,用于获取待检测图像,所述待检测图像中包括眼部图 像;眼部动作捕捉模块,用于对所述待检测图像进行眼部动作识别以捕捉 当前眼部动作;动作信息存储模块,用于将所述当前眼部动作对应的动作 信息保存至预设的动作检测序列;指令监测模块,用于对所述动作检测序 列进行监测,以在所述动作检测序列触发目标控制指令时,根据所述目标 控制指令控制多媒体的播放。
在本公开的一些实施例中,基于前述方案,所述眼部动作捕捉模块包 括:目标用户人脸图像识别单元,用于对所述待检测图像进行人脸识别以 获取目标用户的人脸图像;用户眼部图像识别单元,用于从所述目标用户 的人脸图像中提取所述目标用户的眼部图像;眼部动作识别单元,用于对 所述目标用户的眼部图像进行眼部动作识别。
在本公开的一些实施例中,基于前述方案,所述当前眼部动作对应的 动作信息包括所述当前眼部动作对应的发生时刻。
在本公开的一些实施例中,基于前述方案,所述指令监测模块包括: 最先发生时刻读取单元,用于获取所述动作检测序列中最先的发生时刻; 当前时间间隔读取单元,用于计算所述当前眼部动作的发生时刻和所述最 先的发生时刻之间的时间间隔,作为当前时间间隔;发生时刻清除单元, 用于在所述当前时间间隔大于各所述目标控制指令控制对应的时间阈值, 在所述动作检测序列中删除所述最先的发生时刻。
在本公开的一些实施例中,基于前述方案,所述指令监测模块还包 括:第一发生时刻数量读取单元,用于读取所述动作检测序列的中所述发 生时刻的数量;新增发生时刻检测单元,用于在所述发生时刻的数量等于 第一目标控制指令对应的发生时刻计数数量时,检测所述动作检测序列在 指定时长内是否有新增的所述发生时刻;第一最大时间间隔读取单元,用 于在所述指定时长内没有新增的所述发生时刻时,获取所述动作检测序列中最晚的连续N个发生时刻之间的最大时间间隔;第一目标控制指令触发 单元,用于在所述最大时间间隔不大于第一预设时长时,触发所述第一目 标控制指令;其中,N等于所述第一目标控制指令对应的所述发生时刻计 数数量。
在本公开的一些实施例中,基于前述方案,所述装置还包括:指定时 长配置单元,用于根据各所述目标控制指令对应的预设时长配置所述指定 时长。
在本公开的一些实施例中,基于前述方案,所述指令监测模块还包 括:第二发生时刻数量读取单元,用于读取所述动作检测序列中所述发生 时刻的数量;第二最大时间间隔读取单元,用于在所述发生时刻的数量等 于第二目标控制指令对应的发生时刻计数数量时,获取所述动作检测序列 中最晚的连续M个发生时刻之间的最大时间间隔;第二目标控制指令触发 单元,用于在所述最大时间间隔不大于第二预设时长时,触发所述第二目标控制指令;其中,M等于第二目标控制指令对应的动作计数数量,且大 于其余所述目标控制指令对应的发生时刻计数数量。
在本公开的一些实施例中,基于前述方案,所述指令监测模块还包 括:第三时间间隔读取单元,用于在所述连续的M个动作发生时刻对应的 最大时间间隔大于第二预设时长时,获取所述动作检测序列中最晚的连续 L个发生时刻对应的时间间隔;第三目标控制指令触发单元,用于在所述 时间间隔不大于预设时长时,触发L个发生时刻对应的所述目标控制指 令;其中,L小于M。
在本公开的一些实施例中,基于前述方案,所述指令监测模块还包 括:第三发生时刻数量读取单元,用于读取所述动作检测序列中所述发生 时刻的数量;发生时刻忽略单元,用于在所述发生时刻的数量小于第一目 标控制指令对应的发生时刻计数数量时,不触发所述目标控制指令。
在本公开的一些实施例中,基于前述方案,所述装置还包括:前序指 令获取模块,用于获取前续目标控制指令对应的指令执行时刻及当前时 刻,以获取所述前续目标控制指令对应的指令结束时长;第一指令释放模 块,用于在所述指令结束时长不小于预设指令冻结时长时,执行所述目标 控制指令;第一指令忽略模块,用于在所述指令结束时长小于预设指令冻 结时长时,忽略所述目标控制指令。
在本公开的一些实施例中,基于前述方案,所述装置还包括:播放状 态读取模块,用于获取所述多媒体的当前播放状态,已检测所述目标控制 指令与所述当前播放状态是否冲突;第二指令忽略模块,用于在所述目标 控制指令与所述当前播放状态冲突时,忽略所述目标控制指令;第二指令 释放模块,用于在所述目标控制指令与所述当前播放状态不冲突时,执行 所述目标控制指令。
在本公开的一些实施例中,基于前述方案,所述装置还包括:动作检 测序列清空模块,用于触发或执行所述目标控制指令后,清空所述动作检 测序列。
在本公开的一些实施例中,基于前述方案,所述装置还包括:动作信 息上传模块,用于将所述当前眼部动作对应的动作信息保存至目标区块链 节点中的预设动作检测序列;区块链节点监测模块,用于通过所述目标区 块链节点对所述预设动作检测序列进行监测;控制指令下发模块,用于在 监测所述所述动作检测序列触发目标控制指令时,由所述目标区块链节点 向终端设备发送所述目标控制指令以控制多媒体的播放。
根据本公开实施例的一个方面,提供了一种多媒体播放控制装置,包 括:图像获取模块,设置于终端设备,用于通过摄像组件进行拍摄以获取 待检测图像,并将所述待检测图像发送至服务器;所述待检测图像中包括 眼部图像;服务器,用于接收所述待检测图像后作眼部动作识别以捕捉当 前眼部动作,将所述当前眼部动作对应的动作信息保存至预设的动作检测 序列,以在所述动作检测序列满足预设规则时触发目标控制指令,并将所述目标控制指令发送至所述终端设备。指令执行模块,设置于所述终端设 备,用于接收所述目标控制指令后,根据所述目标控制指令控制多媒体的 播放。
根据本公开实施例的一个方面,提供了一种电子设备,包括:一个或 多个处理器;存储装置,用于存储一个或多个程序,当所述一个或多个程 序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如上 述实施例中所述的多媒体播放控制方法。
在本公开的一些实施例所提供的技术方案中,在获取包含用户眼部图 像的待检测图像后,可以识别用户的当前眼部动作,并将当前眼部动作对 应的动作信息保存至预设动作检测序列中,从而可以对该动作检测序列进 行监测,判断当前的动作检测序列中存储的动作信息是否满足一定的预设 规则并触发对应的目标控制指令,从而在触发目标控制指令时,执行该目 标控制指令,并控制多媒体的播放状态。进而实现利用眼部动作对多媒体 的播放状态进行控制;不仅简化了控制动作,使用户操作更加便利,并且 可以不受周围环境的影响,有效的提高了控制的准确度。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释 性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本 公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下 面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来 讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附 图。在附图中:
图1A示出了可以应用本公开实施例的技术方案的示例性系统架构的 示意图;
图1B示出了可以应用本公开实施例的技术方案的另一示例性系统架构 的示意图;
图2示意性示出了根据本公开的一个实施例的多媒体播放控制方法的 流程示意图;
图3示意性示出了根据本公开的一个实施例的捕捉当前眼部动作的方 法的流程示意图;
图4示意性示出了根据本公开的一个实施例的删除动作检测序列中无 效数据的方法的流程示意图;
图5示意性示出了根据本公开的一个实施例的触发第一目标控制指令 的方法的流程示意图;
图6示意性示出了根据本公开的一个实施例的触发第二目标控制指令 的方法的流程示意图;
图7示意性示出了根据本公开的一个实施例的根据指令冻结时长判断 是否执行目标控制指令的方法的流程示意图;
图8示意性示出了根据本公开的一个实施例的根据当前播放状态判断 是否执行当前控制指令的方法的流程示意图;
图9示意性示出了根据本公开的一个实施例的多媒体播放控制方法的 流程示意图;
图10示意性示出了根据本公开的一个实施例的多媒体播放控制装置的 框图;
图11示意性示出了根据本公开的一个实施例的信息保护装置的框图;
图12示出了适于用来实现本公开实施例的电子设备的计算机系统的结 构示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能 够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这 些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面 地传达给本领域的技术人员。
此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个 或更多实施例中。在下面的描述中,提供许多具体细节从而给出对本公开 的实施例的充分理解。然而,本领域技术人员将意识到,可以实践本公开 的技术方案而没有特定细节中的一个或更多,或者可以采用其它的方法、 组元、装置、步骤等。在其它情况下,不详细示出或描述公知方法、装 置、实现或者操作以避免模糊本公开的各方面。
附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实 体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个 硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置 和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和操 作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分 解,而有的操作/步骤可以合并或部分合并,因此实际执行的顺序有可能根 据实际情况改变。
图1A、图1B示出了可以应用本公开实施例的技术方案的示例性系统 架构的示意图。
如图1A所示,系统架构100可以包括配置有摄像组件103的终端设 备102(例如外接有摄像组件102的电视机,或者配置有摄像组件的电 脑,当然也可以是配置有摄像组件102的数字机顶盒等智能终端设备)、服 务器104。终端设备102和服务器104之间通过网络进行数据传输。网络 可以包括各种连接类型,例如有线通信链路、无线通信链路等等。
应该理解,图1中的终端设备和服务器的数目仅仅是示意性的。根据 实现需要,可以具有任意数目的终端设备、网络和服务器。比如服务器 104可以是多个服务器组成的服务器集群等。
在本公开的一个实施例中,通过外接的独立的摄像组件102,或者利 用终端设备自带的摄像组件对用户101进行拍照或摄像获取待检测图像, 所述待检测图像中包括用户101的眼部图像;并将待检测图像发送至服务 器104端,由服务器104端对所述待检测图像进行眼部动作识别以捕捉当 前眼部动作;并将所述当前眼部动作对应的动作信息保存至预设的动作检 测序列;以及对所述动作检测序列进行监测,以在所述动作检测序列触发目标控制指令时,将该目标控制指令发送至终端设备103,以使终端设备 103可以根据所述目标控制指令控制多媒体的播放。本公开实施例的技术 方案一方面能够在获取包含用户眼部图像的的待检测图像后,可以识别用 户的当前眼部动作,并将当前眼部动作对应的动作信息保存至预设动作检 测序列中,从而准确的识别和存储眼部动作的动作信息;另一方面,能够 对该动作检测序列进行监测,判断当前的动作检测序列中存储的动作信息 是否满足一定的预设规则并触发对应的目标控制指令,从而在触发目标控 制指令时,执行该目标控制指令,并控制多媒体的播放状态。进而从而实 现利用眼部动作对多媒体的播放状态进行准确的控制。
需要说明的是,本公开实施例所提供的多媒体播放控制方法一般由服 务器执行,相应地,多媒体播放控制装置一般设置于服务器中。但是,在 本公开的其它实施例中,参照图1B所示,终端设备103也可以与服务器 104具有相似的功能,能够在终端设备103本地对图像进行识别以及执行 上述的控制方法,从而执行本公开实施例所提供的多媒体播放控制方案。
近年来,随着数字网络机顶盒、智能电视、手机、电脑等智能终端设 备的快速发展,人们可以通过终端设备浏览的信息越来越丰富。例如,人 们可以通过上述的各终端设备观看视频、播放音频、观看网络电视以及观 看PPT等等。在使用过程中一般使用遥控器进行控制,例如,通过按键控 制播放、暂停、音量调节、频道更换或者翻页等操作。
另外,现有技术中还存在语音控制和手势控制的方式。
在本领域的相关技术中,还存在利用语音控制和手势控制的方法。
但是相关技术存在相应的缺陷,主要体现在以下方面:对于语音控制 的方式来说,由于在播放视频的过程中会有声音产生,环境中也可能会产 生其他的声音,容易干扰用户的声控信号,导致无法准确的控制多媒体数 据的播放。并且,语音控制的方式还要求声音采集设备与用户保持一定的 距离,不能离用户太远,以及用户发音必须标准,否则无法准确的识别声 音信号,导致无法利用语音进行准确的控制,并且也不利于声音障碍用户的使用。对于手势控制的方式来说,为了满足不同的控制需求,具体的控 制手势更加多样且复杂,对于解析手势的识别系统而言要求更高。另外, 由于在不同角度看到的同一个手势解析结果可能不一致,容易受到观测角 度的影响,不同角度看到的同一个手势解析结果可能不一致,导致控制不 准确。另外,上述的方法也不利于部分残障人士的使用。
鉴于相关技术中存在的问题,本公开实施例首先提出了一种信息保护 方法,以下对本公开实施例的技术方案的实现细节进行详细阐述:
图2示意性示出了根据本公开的一个实施例的多媒体播放控制方法的 流程图,该目标方法可以在终端设备执行,该终端设备可以是图1中所示 的终端设备。参照图2所示,该多媒体播放控制方法至少包括步骤S210至 步骤S240,详细介绍如下:
在步骤S210中,获取待检测图像,所述待检测图像中包括眼部图像。
在本公开的一个实施例中,可以利用摄像组件对用户的人脸区域进行 拍照,获取该用户对应的眼部图像。上述的终端设备可以是配置有摄像组 件的手机、电脑、智能电视或者网络机顶盒等智能终端设备。摄像组件可 以是终端设备自身装配的摄像模组,也可以是外接的独立工作的摄像组 件。或者,摄像组件也可以是装配在一眼镜上,使得用户在佩戴眼镜时, 可直接通过摄像组件采集用户的眼部图像。本公开对此不做特殊限定。
并且,还可以预先配置拍摄图像的频率或时间间隔,使得摄像组件可 以每间隔设定的时间便拍摄一次照片。例如,可以设置摄像组件的拍照间 隔为50毫秒或80毫秒,从而可以获取用户的全部眼部动作,避免遗漏。 或者,也可以利用摄像组件拍摄视频,并对视频中的每一帧画面进行提 取,或者每间隔一定帧数量的画面进行提取。例如,从视频的首帧开始, 每间隔2帧提取待检测图像。本公开对提取待检测图像的具体方式不做特 征限定。
在步骤S220中,对所述待检测图像进行眼部动作识别以捕捉当前眼部 动作。
在本公开的一个实施例中,在获取待检测图像后,可以先对其进行人 脸图像的识别,再进行眼部区域的识别。具体来说,参照图3所示,可以 包括以下步骤:
步骤S310,对所述待检测图像进行人脸识别以获取目标用户的人脸图 像;
步骤S320,从所述目标用户的人脸图像中提取所述目标用户的眼部图 像;
步骤S330,对所述目标用户的眼部图像进行眼部动作识别。
举例来说,在获取待检测图像后,可以先对待检测图像进行人脸识 别,获取对应人脸图像画面,并绘制到一绘图环境中。例如,可以对待检 测图像进行人脸检测,确定人脸区域在待检测图像中的大小和位置,再对 人脸区域进行关键点检测和特征提取,从而获取眼部图形。在人脸识别过 程中,可以对待检测图像进行灰度化、均值化、归一化以及中值滤波等处 理。
此外,上述的绘图环境可以是Canvas画布等。例如,可以将人脸图像 画面绘制到一张Canvas画布上,再通过该Canvas画面提取用户的眼球画 面,再次绘制到Canvas画布上,从而获取当前待检测图像对应的眼部图 像。在获取连续的多个眼部图像后,便可以获取用户的眼部动作。实现对 用户眼部动作的识别和提取。
当然,在本公开的其他示例性实施例中,也可以利用其他方式获取用 户的眼部动作,本公开对比不做特殊限定。
此外,在本公开的一个实施例中,用户还可以预先将自己的人脸图像 保存至预设的数据库中。在当前环境中包含多个用户时,若摄像组件采集 的所述待检测图像中包含多个人脸图像时,便可以根据预先存储的用户自 己的人脸图像进行身份验证,在多个人脸图像中识别出目标用户对应的人 脸图像,并仅对目标用户的人脸图像进行眼部动作进行识别和提取。从而 避免当环境中包含多个用户时,影响用户眼部动作的提取。
在步骤S230中,将所述当前眼部动作对应的动作信息保存至预设的动 作检测序列。
在本公开的一个实施例中,在提取到目标用户的眼部动作后,便可以 将其保存至预设的动作检测序列中。具体来说,上述的眼部动作可以是用 户的眨眼动作,通过对目标用户眼部的连续的张开和闭合来识别眨眼动 作。此外,眼部动作也可以是用户眼球的动作,例如眼球向左侧、右侧移 动,或者向上、向下的移动的动作,或者向左侧、右侧的转动等动作。
上述的眼部动作对应的动作信息可以包括眼部动作对应的发生时刻, 即检测到眼部动作的时刻。该时间数据可以精确到毫秒级别。另外,眼部 动作对应的动作信息还可以包括对应的动作类型。例如,可以将眨眼作为 第一类型;将眼球的单一方向的向左侧、右侧移动,或者向上、向下的移 动作为第二类型;将眼球的转动作为第三类型等。
在步骤S240中,对所述动作检测序列进行监测,以在所述动作检测序 列触发目标控制指令时,根据所述目标控制指令控制多媒体的播放。
在本公开的一个实施例中,在上述的动作信息为眼部动作的发生时刻 时,在动作检测序列中,可以根据各发生时刻的先后进行排序并存储。即 较早的发生时刻在先排列,较晚的发生时刻在后排列。
具体来说,可以对动作检测列中的发生时刻的数量进行实时的监测, 来判断动作检测序列中当前数量的发生时刻,以及各发生时刻之间的最大 时间间隔能否满足预设的条件并触发一目标控制指令。此外,上述的动作 检测序列可以采用数组的形式,从而可以通过读取数组的长度来判断当前 动作检测序列中发生时刻的数量。
在本公开的一个实施例中,可以预先根据用户习惯或实际需求配置动 作检测序列中发生时刻的数量和对应的时间间隔,与控制指令之间的映射 关系,并建立映射关系的列表。
举例来说,以用户眼部动作为眨眼为例,针对多媒体的播放控制规则 及控制指令可以是例如:
1)用户在x秒阈值内,连续眨眼3次则执行暂停的控制指令;
2)用户在y秒阈值内,连续眨眼4次则执行播放的控制指令。
其中,x=1,y=1.3。即,在动作检测序列中检测到连续的3个发生时 刻,且该3个发生时刻之间的时间间隔小于1秒时,触发暂停的控制指 令。在动作检测序列中存在连续的4个发生时刻,且该4个发生时刻之间 的时间间隔小于1.3秒时,触发播放的控制指令。
当然,在公开的其他示例性实施例中,上述的针对多媒体的播放控制 规则及控制指令也可以是例如:
3)用户在1.5秒阈值内,连续眨眼5次则执行下一频道/下一集/下一 曲/下一页,或者是音量减小5%或10%的控制指令;
4)用户在1.5秒阈值内,连续眼部向上移动4次则执行上一频道/上一 集/上一曲/上一页,或者是音量增加5%或10%的控制指令。
5)用户在0.8秒阈值内,连续眨眼2次,则执行返回的控制指令;等 等。
此外,各目标控制指令对应的眼部动作的数量也可以是2、4、6个, 或者3、5、7个等等。
以上是对控制指令与动作检测序列中发生时刻以及对应的时间阈值之 间映射关系的示例性说明。以下以上述的示例1)和示例2)为例对各步骤 进行说明。
在本公开的一个实施例中,参考图4所示,上述的对所述动作检测序 列进行监测,具体可以包括:
在步骤S410中,获取所述动作检测序列中最先的发生时刻;
在步骤S420中,计算所述当前眼部动作的发生时刻和所述最先的发生 时刻之间的时间间隔,作为当前时间间隔;
在步骤S430中,在所述当前时间间隔大于各所述目标控制指令控制对 应的时间阈值,在所述动作检测序列中删除所述最先的发生时刻。
举例来说,当触发控制指令对应的最少发生时刻计数数量为3时,则 当检测到动作检测序列存在2个发生时刻时,便可以计算该2个发生时刻 之间的当前时间间隔。若当前时间间隔大于任何一个控制指令对应的时间 阈值时,便说明当前的动作检测序列中的第一个发生时刻,即最先的发生 时刻的存储时间较早,此时便可以将第一个发生时刻在动作检测序列中删 除。从而可以使动作检测序列中存储的发生时刻可以正常的触发对应的控制指令。若将该第一个发生时刻始终保留在动作检测序列中,则可能使得 发生时刻之间的时间间隔始终大于各控制指令对应的时间阈值,而无法正 确的触发控制指令。
或者,若当前的检测到动作检测序列存在3个发生时刻时,便可以计 算该3个发生时刻之间的当前时间间隔。若当前时间间隔大于各目标控制 指令控制对应的时间阈值,便可以执行对最先的发生时刻,即动作检测序 列中的排序第一位的发生时刻执行删除操作。从而可以在后续的发生时刻 进入动作检测序列时,可以正常的触发控制指令。
在本公开的一个实施例中,参照图5所示,上述的对所述动作检测序 列进行监测,具体还可以包括:
在步骤S510中,读取所述动作检测序列的中所述发生时刻的数量;
在步骤S520中,在所述发生时刻的数量等于第一目标控制指令对应的 发生时刻计数数量时,检测所述动作检测序列在指定时长内是否有新增的 所述发生时刻;
在步骤S530中,在所述指定时长内没有新增的所述发生时刻时,获取 所述动作检测序列中最晚的连续N个发生时刻之间的最大时间间隔;
在步骤S540中,在所述最大时间间隔不大于第一预设时长时,触发所 述第一目标控制指令;其中,N等于所述第一目标控制指令对应的所述发 生时刻计数数量。
在对动作检测序列进行实时的监测时,可以实时的读取发生时刻的数 量。若当前时刻动作检测序列中发生时刻的数量等于各目标控制指令对应 的最小计数数量时,便可以建立一定时任务,通过该定时任务判断在预设 的指定时长内动作检测序列中是否有新增的发生时刻。
若没有新的发生时刻添加至动作检测序列中,便可以计算当前的各发 生时刻之间的最大时间间隔,即计算判断动作检测序列中的排序第一位的 发生时刻,和排序最后一位的发生时刻(即当前眼部动作对应的发生时 刻)之间的最大时间间隔,若该最大时间间隔小于一控制指令对应的预设 时长,便可以触发对应的控制指令。
举例来说,在上述的第一目标控制指令为上述实施例中的暂停控制指 令时,当监测到动作检测序列存在3个发生时刻时,便可以建立定时任 务,判断指定时长内是否存在其他发生时刻添加至动作检测序列中。若不 存在新增的发生时刻,便可以计算该3个发生时刻之间的最大时间间隔, 若该最大时间间隔小于1秒,便可以触发对应的暂停控制指令。
或者,若目标控制指令包括:暂停控制指令,对应3个发生时刻(3 次眨眼),时间阈值为不大于1秒;播放控制指令,对应4个发生时刻(4 次眨眼),时间阈值为不大于1.3秒;下一曲控制指令,对应5个发生时 刻(5次眨眼)时间阈值为不大于1.5秒。当检测到动作检测序列存在4个 发生时刻时,也可以建立定时任务,判断指定时长内是否存在其他发生时 刻添加至动作检测序列中。若不存在新增的发生时刻,便可以计算该4个 发生时刻之间的最大时间间隔,若该最大时间间隔小于1.3秒,便可以触 发对应的播放控制指令。
在本公开的一个实施例中,在建立定时任务后,若检测到动作检测序 列中有新增的发生时刻,便可以取消该定时任务。例如,当有第5个发生 时刻加入动作检测序列时,便触发新的判断流程。
此外,上述的指定时长可以根据各目标控制指令对应的预设时长进行 配置。举例来说,若目标控制指令对应的发生时刻的最小计数数量为3, 其时间阈值为1秒;目标控制指令对应的发生时刻的最大计数数量为6, 其时间阈值为2秒,则指令时长可以配置为1秒,从而可以满足对发生时 刻最大计数数量对应的目标控制指令的检测。
在本公开的一个实施例中,参照图6所示,上述的对所述动作检测序 列进行监测,具体还可以包括:
在步骤S610中,读取所述动作检测序列中所述发生时刻的数量;
在步骤S620中,在所述发生时刻的数量等于第二目标控制指令对应的 发生时刻计数数量时,获取所述动作检测序列中最晚的连续M个发生时刻 之间的最大时间间隔;
在步骤S630中,在所述最大时间间隔不大于第二预设时长时,触发所 述第二目标控制指令;其中,M等于第二目标控制指令对应的动作计数数 量,且大于其余所述目标控制指令对应的发生时刻计数数量。
在对动作检测序列进行实时的监测时,若当前的动作检测序列中的发 生时刻的数量为控制指令对应的发生时刻最大计数数量时,便可以计算动 作检测序列中排序第一位的发生时刻与最后一位的发生时刻之间的最大时 间间隔,若该最大时间间隔小于一目标控制指令对应的时间阈值,便可以 触发该目标控制指令。
举例来说,若目标控制指令包括:暂停控制指令,对应3个发生时刻 (3次眨眼),时间阈值为不大于1秒;播放控制指令,对应4个发生时 刻(4次眨眼),时间阈值为不大于1.3秒;下一曲控制指令,对应5个发 生时刻(5次眨眼),时间阈值为不大于1.5秒;上一曲控制指令,对应6 个发生时刻(6次眨眼),时间阈值为不大于1.8秒。
在上述的第二目标控制指令为上一曲控制指令时,则M=6,第二预设 时长等于1.8秒。若当前检测到动作检测序列中包括6个发生时刻时,便 检测该6个发生时刻之间的最大时间间隔是否小于或等于1.8秒。若满足 该条件,则触发上一曲控制指令。
在本公开的一个实施例中,基于上述内容,若计算后的最大时间间隔 大于预设的第二预设时长,便可以对其他发生时刻之间的时间间隔进行判 断。具体来说,可以包括:
在步骤S640中,在所述连续的M个动作发生时刻对应的最大时间间 隔大于第二预设时长时,获取所述动作检测序列中最晚的连续L个发生时 刻对应的时间间隔;
在步骤S650中,在所述时间间隔不大于预设时长时,触发L个发生时 刻对应的所述目标控制指令;其中,L小于M。
举例而言,基于上述的实施例,若动作检测序列中6个发生时刻之间 的最大时间间隔是否大于1.8秒,便可以计算最晚的连续5个发生时刻之 间的最大时间间隔,即L=5,在动作检测序列中按倒序获取连续5个发生 时刻之间的最大时间间隔,并判断该最大时间间隔是否小于或等于1.5 秒,是否满足下一曲控制指令的触发条件。若连续5个发生时刻之间的最 大时间间隔小于1.5秒,则可以触发下一曲控制指令。
或者,若连续5个发生时刻之间的最大时间间隔大于1.5秒,则不能 触发下一曲控制指令。此时,便可以在动作检测序列中按倒序再次获取连 续4个发生时刻之间的最大时间间隔,判断是否能够触发播放控制指令。 若满足播放控制指令的触发条件,则触发播放控制指令。若不能触发播放 控制指令,还可以继续判断连续3个发生时刻之间的最大时间间隔,判断 是否能够触发暂停控制指令。等等
在本公开的一个实施例中,基于上述内容,在判断动作检测序列中6 个发生时刻之间的最大时间间隔大于1.8秒,不能触发上一曲控制指令 时,也可以直接获取动作检测序列中最晚的连续4个或3个发生时刻之间 的最大时间间隔,即令L=4或L=3,而不逐一进行判断。
在本公开的一个实施例中,对所述动作检测序列进行识别时,上述的 方法还可以包括:读取所述动作检测序列中所述发生时刻的数量;在所述 发生时刻的数量小于第一目标控制指令对应的发生时刻计数数量时,不触 发所述目标控制指令。
举例来说,若目标控制指令对应的发生时刻最小计数数量为3,即上 述实施例中的暂停控制指令。在对动作检测序列中的发生时刻的数量进行 监测时,在读取到动作检测序列中的发生时刻的数量为1或2时,或者在 上述删除最先的发生时刻后,发生时刻的数量仍小于目标控制指令对应的 发生时刻最小计数数量,则不会触发任何的目标控制指令。也不会触发其 他操作。
在本公开的一个实施例中,在当前的动作检测序列中的发生时刻触发 一目标控制指令时,在执行该目标控制指令之前,还可以根据前序目标控 制指令的指令执行时刻来判断是否执行当前的目标控制指令。参照图7所 示,具体可以包括:
在步骤S710中,获取前续目标控制指令对应的指令执行时刻及当前时 刻,以获取所述前续目标控制指令对应的指令结束时长;
在步骤S720中,在所述指令结束时长不小于预设指令冻结时长时,执 行所述目标控制指令;或者
在步骤S730中,在所述指令结束时长小于预设指令冻结时长时,忽略 所述目标控制指令。
举例来说,可以预先配置一指令冻结时长,例如配置该指令冻结时长 为2秒。在检测当前触发一目标控制指令时,在执行前,可以获取当前时 刻,并判断2秒时长内是否有前一个目标控制指令执行。若存在,则说明 存在前序目标控制指令执行未超过2秒,则不执行当前的目标控制指令, 从而有效的避免在短时间内触发多个控制指令,以及避免用户误操作。若 前一个目标控制指令的指令结束时长大于或等于2秒,便可以正常的执行 当前的目标控制指令。
在本公开的一个实施例中,执行所述目标控制指令之前,或者在判断 前续目标控制指令的指令结束时长不小于预设的指令冻结时长后,还可以 根据多媒体的当前播放状态判断是否执行当前的目标控制指令。参照图8 所示,具体可以包括:
在步骤S810中,获取所述多媒体的当前播放状态,已检测所述目标控 制指令与所述当前播放状态是否冲突;
在步骤S820中,在所述目标控制指令与所述当前播放状态冲突时,忽 略所述目标控制指令;或者
在步骤S830中,在所述目标控制指令与所述当前播放状态不冲突时, 执行所述目标控制指令。
举例来说,若当前触发暂停控制指令,则可以获取多媒体的当前播放 状态。若当前为播放状态,则正常指令暂停控制指令。若当前为暂停状 态,则当前触发的暂停控制指令与当前的暂停状态发生冲突,便可以对当 前触发的暂停控制指令进行忽略,不执行当前触发的暂停控制指令。
或者,若当前触发音量减小控制指令时,则可以先读取当前的音量数 据,若当前音量已经为0,便可以对音量减小控制指令进行忽略。
在本公开的一个实施例中,上述的将所述当前眼部动作对应的动作信 息保存至预设的动作检测序列;对所述动作检测序列进行监测,以在所述 动作检测序列触发目标控制指令时,根据所述目标控制指令控制多媒体的 播放还可以包括:
将所述当前眼部动作对应的动作信息保存至目标区块链节点中的预设 动作检测序列;通过所述目标区块链节点对所述预设动作检测序列进行监 测;在监测所述所述动作检测序列触发目标控制指令时,由所述目标区块 链节点向终端设备发送所述目标控制指令以控制多媒体的播放。
具体来说,上述的预设的动作检测序列可以预先保存在目标区块链节 点中。在捕捉到当前眼部动作后,便可以将当前眼部动作对应的动作信息 进行字符串转换,将转换后的字符串写入交易信息中,并提交该交易信 息,从而将动作信息保存至目标区块链节点中的动作检测序列中。
此外,还可以在目标区块链节点中建立定时任务,监测动作检测序列 中的动作信息是否能够触发对应的控制指令。并在检测可以触发控制指令 时,向终端设备发送该控制指令,从而实现对多媒体的播放控制。
具体来说,区块链是分布式数据存储、点对点传输、共识机制、加密算 法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中 心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块 中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成 下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服 务层。
区块链底层平台可以包括用户管理、基础服务、智能合约以及运营监控 等处理模块。其中,用户管理模块负责所有区块链参与者的身份信息管理, 包括维护公私钥生成(账户管理)、密钥管理以及用户真实身份和区块链地 址对应关系维护(权限管理)等,并且在授权的情况下,监管和审计某些真 实身份的交易情况,提供风险控制的规则配置(风控审计);基础服务模块 部署在所有区块链节点设备上,用来验证业务请求的有效性,并对有效请求 完成共识后记录到存储上,对于一个新的业务请求,基础服务先对接口适配 解析和鉴权处理(接口适配),然后通过共识算法将业务信息加密(共识管 理),在加密之后完整一致的传输至共享账本上(网络通信),并进行记录存 储;智能合约模块负责合约的注册发行以及合约触发和合约执行,开发人员 可以通过某种编程语言定义合约逻辑,发布到区块链上(合约注册),根据 合约条款的逻辑,调用密钥或者其它的事件触发执行,完成合约逻辑,同时 还提供对合约升级注销的功能;运营监控模块主要负责产品发布过程中的部 署、配置的修改、合约设置、云适配以及产品运行中的实时状态的可视化输 出,例如:告警、监控网络情况、监控节点设备健康状态等。
平台产品服务层提供典型应用的基本能力和实现框架,开发人员可以基 于这些基本能力,叠加业务的特性,完成业务逻辑的区块链实现。应用服务 层提供基于区块链方案的应用服务给业务参与方进行使用。
在本公开的一个实施例中,还可以将用户的面部图像,具体的眼部动 作控制规则,以及在执行目标控制指令后所述目标控制指令对应的指令执 行时刻等数据均存储在区块链中。在控制过程中,可以通过区块链对用户 脸部图像进行验证,以及通过区块链对用户发出的控制指令进行验证。
在本公开的一个实施例中,也可以将目标控制指令对应的指令执行时 刻至本地数据库或网络服务器中。通过存储目标控制指令的指令执行时 刻,可以准确的判断当前触发的目标控制指令是否处于前续目标控制指令 对应的指令冻结时长内。
在本公开的一个实施例中,基于上述内容,还可以在触发所述目标控 制指令,或者执行所述目标控制指令后,清空所述动作检测序列。
通过清空动作检测序列,可以使后续检测到的用户眼部动作的动作信 息可以正常的添加至动作检测序列中,能够正常的执行用户后续触发的目 标控制指令。
在本公开的一个实施例中,还可以配置动作检测序列的动作信息的最 大容量,即数组的最大长度。例如,可以配置最大容量为目标控制操作对 应的发生时刻的最大计数数量。
例如,在上述的实施例中,预设的目标控制指令为对应的发生时刻的 最大计数数量为6,对应的为上一曲控制指令。则可以配置动作检测序列 的动作信息的最大容量为6。
在本公开的一个实施例中,在动作检测序列中存储的动作信息也可以 为上述实施例中各眼部动作对应的类型。用户可以预先设定动作类型序列 与控制指令的映射关系,从而根据监测到动作检测序列中动作类型的排序 和对应的间隔时间来判断是否能够触发对应的控制指令。上述各实施例中 的控制方法同样可以应用于对眼部动作类型的判断过程中。
例如,可以预先配置连续的两个第一类型动作和两个第二类型动作对 应的控制指令为播放;连续的一个第一类型动作、一个第二类型动作和一 个第三类型动作对应的控制指令为下一曲;等等。对应的,可以为各控制 指令配置对应的时间阈值为不大于1.5秒,不大于1.6秒,等等。或者,也 可以不设置对应的时间阈值,而仅根据动作类型的序列来执行对应的控制 指令。
在本公开的一个实施例中,上述的多媒体播放控制方法可以应用于对 电视的控制。在预设的眼部动作为眨眼时,可以为电视预先配置一摄像 头,通过该摄像头来定时拍摄包含目标用户人脸的图像。然后可以通过图 像识别技术识别图像中的人物脸部画面,并绘制到一张Canvas画布上,并 通过该Canvas画布提取用户的眼球画面,再次绘制到Canvas画布上。根 据Canvas画布上用户的眼球的像素画面,得到用户的眼球部位当前的状 态,得到当前眼部的闭合或张开状态,进而捕捉用户的眼部动作。再根据 预先设定的眼部运动的播放、暂停规则,对电视的播放进行相应的控制。
图9示意性示出了根据本公开的一个实施例的多媒体播放控制方法的 流程图,该可以在终端设备与服务器端之间执行,该终端设备和服务器可 以是图1中所示的终端设备与服务器。参照图9所示,该多媒体播放控制 方法至少包括步骤S910至步骤S930,详细介绍如下:
在步骤S910中,终端设备通过摄像组件进行拍摄以获取待检测图像, 并将所述待检测图像发送至服务器;所述待检测图像中包括眼部图像;
在步骤S920中,所述服务器接收所述待检测图像后作眼部动作识别以 捕捉当前眼部动作,将所述当前眼部动作对应的动作信息保存至预设的动 作检测序列,以在所述动作检测序列满足预设规则时触发目标控制指令, 并将所述目标控制指令发送至所述终端设备;
在步骤S930中,所述终端设备接收所述目标控制指令后,根据所述目 标控制指令控制多媒体的播放。
在实施例所提供的多媒体控制方法中,所述的终端设备以及服务器所 执行方法中未披露的具体细节,请参照本公开上述各实施例中多媒体播放 控制方法的具体内容,本实施例中不再重复赘述。
根据本公开实施例中的多媒体播放控制方法,通过采集包含用户眼部 图像的的待检测图像,来识别用户的当前眼部动作,再将当前眼部动作对 应的动作信息保存至预设动作检测序列中。另外,通过对动作检测序列进 行监测,判断当前的动作检测序列中存储的动作信息是否满足一定的预设 规则并触发对应的目标控制指令,从而在动作检测序列中存储的动作信息 能够触发目标控制指令时,执行该目标控制指令,从而控制多媒体的播放 状态。进而实现利用眼部动作对多媒体的播放状态进行准确的控制。摆脱 了传统的依赖遥控器控制的方式,能够不受周围环境的影响,为某些无法 使用遥控的场景以及一些残障人士,提供一种更加简便、更容易被接受的 多媒体控制方式。
以下介绍本公开的装置实施例,可以用于执行本公开上述实施例中多 媒体播放控制方法。对于本公开装置实施例中未披露的细节,请参照本公 开上述的多媒体播放控制方法的实施例。
图10示意性示出了根据本公开的一个实施例的多媒体播放控制装置的 框图。
参照图10所示,根据本公开的一个实施例的多媒体播放控制装置 1000,包括:图像获取模块1001、眼部动作捕捉模块1002、动作信息存储 模块1003和指令监测模块1004。
其中,图像获取模块1001,用于获取待检测图像,所述待检测图像中 包括眼部图像。眼部动作捕捉模块1002,用于对所述待检测图像进行眼部 动作识别以捕捉当前眼部动作。动作信息存储模块1003,用于将所述当前 眼部动作对应的动作信息保存至预设的动作检测序列。指令监测模块 1004,用于对所述动作检测序列进行监测,以在所述动作检测序列触发目 标控制指令时,根据所述目标控制指令控制多媒体的播放。
在本公开的一个实施例中,所述眼部动作捕捉模块1002包括:目标用 户人脸图像识别单元、用户眼部图像识别单元和眼部动作识别单元。
其中,目标用户人脸图像识别单元,用于对所述待检测图像进行人脸 识别以获取目标用户的人脸图像;用户眼部图像识别单元,用于从所述目 标用户的人脸图像中提取所述目标用户的眼部图像;眼部动作识别单元, 用于对所述目标用户的眼部图像进行眼部动作识别。
在本公开的一个实施例中,所述当前眼部动作对应的动作信息包括所 述当前眼部动作对应的发生时刻。
在本公开的一个实施例中,所述指令监测模块1004包括:最先发生时 刻读取单元、当前时间间隔读取单元以及发生时刻清除单元。
其中,最先发生时刻读取单元,用于获取所述动作检测序列中最先的 发生时刻;当前时间间隔读取单元,用于计算所述当前眼部动作的发生时 刻和所述最先的发生时刻之间的时间间隔,作为当前时间间隔;发生时刻 清除单元,用于在所述当前时间间隔大于各所述目标控制指令控制对应的 时间阈值,在所述动作检测序列中删除所述最先的发生时刻。
在本公开的一个实施例中,所述指令监测模块1004还包括:第一发生 时刻数量读取单元、新增发生时刻检测单元、第一最大时间间隔读取单元 以及第一目标控制指令触发单元。
其中,第一发生时刻数量读取单元,用于读取所述动作检测序列的中 所述发生时刻的数量。新增发生时刻检测单元,用于在所述发生时刻的数 量等于第一目标控制指令对应的发生时刻计数数量时,检测所述动作检测 序列在指定时长内是否有新增的所述发生时刻。第一最大时间间隔读取单 元,用于在所述指定时长内没有新增的所述发生时刻时,获取所述动作检 测序列中最晚的连续N个发生时刻之间的最大时间间隔。第一目标控制指令触发单元,用于在所述最大时间间隔不大于第一预设时长时,触发所述 第一目标控制指令;其中,N等于所述第一目标控制指令对应的所述发生 时刻计数数量。
在本公开的一个实施例中,所述装置1000还包括:指定时长配置单 元,用于根据各所述目标控制指令对应的预设时长配置所述指定时长。
在本公开的一个实施例中,所述指令监测模块1004还包括:第二发生 时刻数量读取单元、第二最大时间间隔读取单元和第二目标控制指令触发 单元。
其中,第二发生时刻数量读取单元,用于读取所述动作检测序列中所 述发生时刻的数量。第二最大时间间隔读取单元,用于在所述发生时刻的 数量等于第二目标控制指令对应的发生时刻计数数量时,获取所述动作检 测序列中最晚的连续M个发生时刻之间的最大时间间隔。第二目标控制指 令触发单元,用于在所述最大时间间隔不大于第二预设时长时,触发所述 第二目标控制指令。其中,M等于第二目标控制指令对应的动作计数数 量,且大于其余所述目标控制指令对应的发生时刻计数数量。
在本公开的一个实施例中,所述指令监测模块1004还包括:第三时间 间隔读取单元、第三目标控制指令触发单元。
其中,第三时间间隔读取单元,用于在所述连续的M个动作发生时刻 对应的最大时间间隔大于第二预设时长时,获取所述动作检测序列中最晚 的连续L个发生时刻对应的时间间隔。第三目标控制指令触发单元,用于 在所述时间间隔不大于预设时长时,触发L个发生时刻对应的所述目标控 制指令;其中,L小于M。
在本公开的一个实施例中,所述指令监测模块还包括:第三发生时刻 数量读取单元、发生时刻忽略单元。
其中,第三发生时刻数量读取单元,用于读取所述动作检测序列中所 述发生时刻的数量。发生时刻忽略单元,用于在所述发生时刻的数量小于 第一目标控制指令对应的发生时刻计数数量时,不触发所述目标控制指 令。
在本公开的一个实施例中,所述装置1000还包括:前序指令获取模 块、第一指令释放模块以及第一指令忽略模块。
其中,前序指令获取模块,用于获取前续目标控制指令对应的指令执 行时刻及当前时刻,以获取所述前续目标控制指令对应的指令结束时长。 第一指令释放模块,用于在所述指令结束时长不小于预设指令冻结时长 时,执行所述目标控制指令。第一指令忽略模块,用于在所述指令结束时 长小于预设指令冻结时长时,忽略所述目标控制指令。
在本公开的一个实施例中,所述装置1000还包括:播放状态读取模 块、第二指令忽略模块以及第二指令释放模块。
其中,播放状态读取模块,用于获取所述多媒体的当前播放状态,已 检测所述目标控制指令与所述当前播放状态是否冲突。第二指令忽略模 块,用于在所述目标控制指令与所述当前播放状态冲突时,忽略所述目标 控制指令。第二指令释放模块,用于在所述目标控制指令与所述当前播放 状态不冲突时,执行所述目标控制指令。
在本公开的一个实施例中,所述装置1000还包括:指令执行时刻存储 模块,用于执行所述目标控制指令后,存储所述目标控制指令对应的指令 执行时刻至目标数据库。
在本公开的一个实施例中,所述装置1000还包括:动作检测序列清空 模块,用于触发或执行所述目标控制指令后,清空所述动作检测序列。
在本公开的一个实施例中,所述装置1000还包括:动作信息上传模 块、区块链节点监测模块以及控制指令下发模块。
其中,动作信息上传模块,用于将所述当前眼部动作对应的动作信息 保存至目标区块链节点中的预设动作检测序列。区块链节点监测模块,用 于通过所述目标区块链节点对所述预设动作检测序列进行监测。控制指令 下发模块,用于在监测所述所述动作检测序列触发目标控制指令时,由所 述目标区块链节点向终端设备发送所述目标控制指令以控制多媒体的播 放。
参照图11所示,根据本公开的一个实施例的信息保护装置1100,包 括:终端设备1101和服务器1102。其中:
所述终端设备1101包括:图像获取模块,用于通过摄像组件进行拍摄 以获取待检测图像,并将所述待检测图像发送至服务器;所述待检测图像 中包括眼部图像;指令执行模块,用于接收所述目标控制指令后,根据所 述目标控制指令控制多媒体的播放。
所述服务器1102,用于接收所述待检测图像后作眼部动作识别以捕捉 当前眼部动作,将所述当前眼部动作对应的动作信息保存至预设的动作检 测序列,以在所述动作检测序列满足预设规则时触发目标控制指令,并将 所述目标控制指令发送至所述终端设备。
在本公开的一个实施例中,所述服务器1102包括:目标用户人脸图像 识别单元,用于对所述待检测图像进行人脸识别以获取目标用户的人脸图 像;用户眼部图像识别单元,用于从所述目标用户的人脸图像中提取所述 目标用户的眼部图像;眼部动作识别单元,用于对所述目标用户的眼部图 像进行眼部动作识别。
在本公开的一个实施例中,所述当前眼部动作对应的动作信息包括所 述当前眼部动作对应的发生时刻。
在本公开的一个实施例中,所述服务器1102包括:指令监测模块,包 括:最先发生时刻读取单元,用于获取所述动作检测序列中最先的发生时 刻;当前时间间隔读取单元,用于计算所述当前眼部动作的发生时刻和所 述最先的发生时刻之间的时间间隔,作为当前时间间隔;发生时刻清除单 元,用于在所述当前时间间隔大于各所述目标控制指令控制对应的时间阈 值,在所述动作检测序列中删除所述最先的发生时刻。
在本公开的一个实施例中,所述服务器1102包括:指令监测模块,还 包括:第一发生时刻数量读取单元,用于读取所述动作检测序列的中所述 发生时刻的数量;新增发生时刻检测单元,用于在所述发生时刻的数量等 于第一目标控制指令对应的发生时刻计数数量时,检测所述动作检测序列 在指定时长内是否有新增的所述发生时刻;第一最大时间间隔读取单元, 用于在所述指定时长内没有新增的所述发生时刻时,获取所述动作检测序列中最晚的连续N个发生时刻之间的最大时间间隔;第一目标控制指令触 发单元,用于在所述最大时间间隔不大于第一预设时长时,触发所述第一 目标控制指令;其中,N等于所述第一目标控制指令对应的所述发生时刻 计数数量。
在本公开的一个实施例中,所述服务器1102还包括:指定时长配置单 元,用于根据各所述目标控制指令对应的预设时长配置所述指定时长。
在本公开的一个实施例中,所述服务器1102包括:指令监测模块,还 包括:第二发生时刻数量读取单元,用于读取所述动作检测序列中所述发 生时刻的数量;第二最大时间间隔读取单元,用于在所述发生时刻的数量 等于第二目标控制指令对应的发生时刻计数数量时,获取所述动作检测序 列中最晚的连续M个发生时刻之间的最大时间间隔;第二目标控制指令触 发单元,用于在所述最大时间间隔不大于第二预设时长时,触发所述第二目标控制指令;其中,M等于第二目标控制指令对应的动作计数数量,且 大于其余所述目标控制指令对应的发生时刻计数数量。
在本公开的一个实施例中,所述服务器1102包括:指令监测模块,还 包括:第三时间间隔读取单元,用于在所述连续的M个动作发生时刻对应 的最大时间间隔大于第二预设时长时,获取所述动作检测序列中最晚的连 续L个发生时刻对应的时间间隔;第三目标控制指令触发单元,用于在所 述时间间隔不大于预设时长时,触发L个发生时刻对应的所述目标控制指 令;其中,L小于M。
在本公开的一个实施例中,所述服务器1102包括:指令监测模块,还 包括:第三发生时刻数量读取单元,用于读取所述动作检测序列中所述发 生时刻的数量;发生时刻忽略单元,用于在所述发生时刻的数量小于第一 目标控制指令对应的发生时刻计数数量时,不触发所述目标控制指令。
在本公开的一个实施例中,所述服务器1102还包括:前序指令获取模 块,用于获取前续目标控制指令对应的指令执行时刻及当前时刻,以获取 所述前续目标控制指令对应的指令结束时长;第一指令释放模块,用于在 所述指令结束时长不小于预设指令冻结时长时,将所述目标控制指令发送 至所述终端设备;第一指令忽略模块,用于在所述指令结束时长小于预设 指令冻结时长时,忽略所述目标控制指令。
在本公开的一个实施例中,所述装置1102还包括:播放状态读取模 块,设置于所述终端设备,用于获取所述多媒体的当前播放状态并发送至 所述服务器,已使所述服务器检测所述目标控制指令与所述当前播放状态 是否冲突;第二指令忽略模块,设置于所述服务器,用于在所述目标控制 指令与所述当前播放状态冲突时,忽略所述目标控制指令;第二指令释放 模块,设置于所述服务器,用于在所述目标控制指令与所述当前播放状态 不冲突时,将所述目标控制指令发送至所述终端设备。
在本公开的一个实施例中,所述服务器1102还包括:指令执行时刻存 储模块,用于执行所述目标控制指令后,存储所述目标控制指令对应的指 令执行时刻至目标数据库。
在本公开的一个实施例中,所述服务器1102还包括:动作检测序列清 空模块,用于触发或执行所述目标控制指令后,清空所述动作检测序列。
图12示出了适于用来实现本公开实施例的电子设备的计算机系统的结 构示意图。
需要说明的是,图12示出的电子设备的计算机系统1200仅是一个示 例,不应对本公开实施例的功能和使用范围带来任何限制。
如图12所示,计算机系统1200包括中央处理单元(Central Processing Unit,CPU)1201,其可以根据存储在只读存储器(Read-Only Memory, ROM)1202中的程序或者从存储部分1208加载到随机访问存储器 (Random Access Memory,RAM)1203中的程序而执行各种适当的动作和 处理。在RAM 1203中,还存储有系统操作所需的各种程序和数据。CPU1201、ROM 1202以及RAM 1203通过总线1204彼此相连。输入/输出 (Input/Output,I/O)接口1205也连接至总线1204。
以下部件连接至I/O接口1205:包括键盘、鼠标等的输入部分1206; 包括诸如阴极射线管(Cathode Ray Tube,CRT)、液晶显示器(Liquid Crystal Display,LCD)等以及扬声器等的输出部分1207;包括硬盘等的存 储部分1208;以及包括诸如LAN(Local AreaNetwork,局域网)卡、调 制解调器等的网络接口卡的通信部分1209。通信部分1209经由诸如因特 网的网络执行通信处理。驱动器1210也根据需要连接至I/O接口1205。可 拆卸介质1211,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要 安装在驱动器1210上,以便于从其上读出的计算机程序根据需要被安装入 存储部分1208。
特别地,根据本公开的实施例,下文参考流程图描述的过程可以被实 现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品, 其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执 行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以 通过通信部分1209从网络上被下载和安装,和/或从可拆卸介质1211被安 装。在该计算机程序被中央处理单元(CPU)1201执行时,执行本申请的 系统中限定的各种功能。
需要说明的是,本公开实施例所示的计算机可读介质可以是计算机可 读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机 可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、 或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介 质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便 携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、 可擦式可编程只读存储器(Erasable Programmable Read Only Memory, EPROM)、闪存、光纤、便携式紧凑磁盘只读存储器(Compact Disc Read- Only Memory,CD-ROM)、光存储器件、磁存储器件、或者上述的任意合 适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序 的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结 合使用。而在本公开中,计算机可读的信号介质可以包括在基带中或者作 为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种 传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上 述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介 质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传 输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计 算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限 于:无线、有线等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法 和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程 图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上 述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功 能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的 功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所 涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或 流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件 的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也 可以通过硬件的方式来实现,所描述的单元也可以设置在处理器中。其 中,这些单元的名称在某种情况下并不构成对该单元本身的限定。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读 介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存 在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个 程序,当上述一个或者多个程序被一个该电子设备执行时,使得该电子设 备实现上述实施例中所述的方法。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干 模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施 方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块 或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可 以进一步划分为由多个模块或者单元来具体化。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述 的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方 式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式 体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD- ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设 备(可以是个人计算机、服务器、触控终端、或者网络设备等)执行根据 本公开实施方式的方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到 本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适 应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包 括本公开未公开的本技术领域中的公知常识或惯用技术手段。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精 确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅 由所附的权利要求来限制。
Claims (15)
1.一种多媒体播放控制方法,其特征在于,包括:
获取待检测图像,所述待检测图像中包括眼部图像;
对所述待检测图像进行眼部动作识别以捕捉当前眼部动作;
将所述当前眼部动作对应的动作信息保存至预设的动作检测序列;
对所述动作检测序列进行监测,包括:获取所述动作检测序列中最先的发生时刻;计算所述当前眼部动作的发生时刻和所述最先的发生时刻之间的时间间隔,作为当前时间间隔;在所述当前时间间隔大于各所述目标控制指令控制对应的时间阈值,在所述动作检测序列中删除所述最先的发生时刻;以在所述动作检测序列触发目标控制指令时,根据所述目标控制指令控制多媒体的播放。
2.根据权利要求1所述的多媒体播放控制方法,其特征在于,所述对所述待检测图像进行眼部动作识别以捕捉当前眼部动作,包括:
对所述待检测图像进行人脸识别以获取目标用户的人脸图像;
从所述目标用户的人脸图像中提取所述目标用户的眼部图像;
对所述目标用户的眼部图像进行眼部动作识别。
3.根据权利要求1所述的多媒体播放控制方法,其特征在于,所述当前眼部动作对应的动作信息包括所述当前眼部动作对应的发生时刻。
4.根据权利要求1所述的多媒体播放控制方法,其特征在于,所述对所述动作检测序列进行监测,包括:
读取所述动作检测序列的中所述发生时刻的数量;
在所述发生时刻的数量等于第一目标控制指令对应的发生时刻计数数量时,检测所述动作检测序列在指定时长内是否有新增的所述发生时刻;
在所述指定时长内没有新增的所述发生时刻时,获取所述动作检测序列中最晚的连续N个发生时刻之间的最大时间间隔;
在所述最大时间间隔不大于第一预设时长时,触发所述第一目标控制指令;其中,N等于所述第一目标控制指令对应的所述发生时刻计数数量。
5.根据权利要求4所述的多媒体播放控制方法,所述方法还包括:
根据各所述目标控制指令对应的预设时长配置所述指定时长。
6.根据权利要求1所述的多媒体播放控制方法,其特征在于,所述对所述动作检测序列进行监测,还包括:
读取所述动作检测序列中所述发生时刻的数量;
在所述发生时刻的数量等于第二目标控制指令对应的发生时刻计数数量时,获取所述动作检测序列中最晚的连续M个发生时刻之间的最大时间间隔;
在所述最大时间间隔不大于第二预设时长时,触发所述第二目标控制指令;其中,M等于第二目标控制指令对应的动作计数数量,且大于其余所述目标控制指令对应的发生时刻计数数量。
7.根据权利要求6所述的多媒体播放控制方法,其特征在于,所述方法还包括:
在所述连续的M个动作发生时刻对应的最大时间间隔大于第二预设时长时,获取所述动作检测序列中最晚的连续L个发生时刻对应的时间间隔;
在所述时间间隔不大于预设时长时,触发L个发生时刻对应的所述目标控制指令;其中,L小于M。
8.根据权利要求1所述的多媒体播放控制方法,其特征在于,所述对所述动作检测序列进行识别,还包括:
读取所述动作检测序列中所述发生时刻的数量;
在所述发生时刻的数量小于第一目标控制指令对应的发生时刻计数数量时,不触发所述目标控制指令。
9.根据权利要求1所述的多媒体播放控制方法,其特征在于,所述执行所述目标控制指令之前,所述方法还包括:
获取前续目标控制指令对应的指令执行时刻及当前时刻,以获取所述前续目标控制指令对应的指令结束时长;
在所述指令结束时长不小于预设指令冻结时长时,执行所述目标控制指令;或者
在所述指令结束时长小于预设指令冻结时长时,忽略所述目标控制指令。
10.根据权利要求1或9所述的多媒体播放控制方法,其特征在于,所述执行所述目标控制指令之前,所述方法还包括:
获取所述多媒体的当前播放状态,已检测所述目标控制指令与所述当前播放状态是否冲突;
在所述目标控制指令与所述当前播放状态冲突时,忽略所述目标控制指令;或者
在所述目标控制指令与所述当前播放状态不冲突时,执行所述目标控制指令。
11.根据权利要求1所述的多媒体播放控制方法,其特征在于,所述方法还包括:
触发或执行所述目标控制指令后,清空所述动作检测序列。
12.根据权利要求1所述的多媒体播放控制方法,其特征在于,所述预设的动作检测序列保存在目标区块链节点中;
所述将所述当前眼部动作对应的动作信息保存至预设的动作检测序列;对所述动作检测序列进行监测,以在所述动作检测序列触发目标控制指令时,根据所述目标控制指令控制多媒体的播放包括:
将所述当前眼部动作对应的动作信息保存至目标区块链节点中的预设动作检测序列;
通过所述目标区块链节点对所述预设动作检测序列进行监测;
在监测所述所述动作检测序列触发目标控制指令时,由所述目标区块链节点向终端设备发送所述目标控制指令以控制多媒体的播放。
13.一种多媒体播放控制方法,其特征在于,包括:
终端设备通过摄像组件进行拍摄以获取待检测图像,并将所述待检测图像发送至服务器;所述待检测图像中包括眼部图像;
所述服务器接收所述待检测图像后作眼部动作识别以捕捉当前眼部动作,将所述当前眼部动作对应的动作信息保存至预设的动作检测序列,以在所述动作检测序列满足预设规则时触发目标控制指令,并将所述目标控制指令发送至所述终端设备;其中,对于所述动作检测序列,获取所述动作检测序列中最先的发生时刻;计算所述当前眼部动作的发生时刻和所述最先的发生时刻之间的时间间隔,作为当前时间间隔;在所述当前时间间隔大于各所述目标控制指令控制对应的时间阈值,在所述动作检测序列中删除所述最先的发生时刻;
所述终端设备接收所述目标控制指令后,根据所述目标控制指令控制多媒体的播放。
14.一种多媒体播放控制装置,其特征在于,包括:
图像获取模块,用于获取待检测图像,所述待检测图像中包括眼部图像;
眼部动作捕捉模块,用于对所述待检测图像进行眼部动作识别以捕捉当前眼部动作;
动作信息存储模块,用于将所述当前眼部动作对应的动作信息保存至预设的动作检测序列;
指令监测模块,用于对所述动作检测序列进行监测,以在所述动作检测序列触发目标控制指令时,根据所述目标控制指令控制多媒体的播放,包括:最先发生时刻读取单元,用于获取所述动作检测序列中最先的发生时刻;当前时间间隔读取单元,用于计算所述当前眼部动作的发生时刻和所述最先的发生时刻之间的时间间隔,作为当前时间间隔;发生时刻清除单元,用于在所述当前时间间隔大于各所述目标控制指令控制对应的时间阈值,在所述动作检测序列中删除所述最先的发生时刻。
15.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1至13中任一项所述的多媒体播放控制方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910872980.7A CN110598644B (zh) | 2019-09-16 | 2019-09-16 | 多媒体播放控制方法、装置及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910872980.7A CN110598644B (zh) | 2019-09-16 | 2019-09-16 | 多媒体播放控制方法、装置及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110598644A CN110598644A (zh) | 2019-12-20 |
CN110598644B true CN110598644B (zh) | 2021-05-11 |
Family
ID=68859826
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910872980.7A Active CN110598644B (zh) | 2019-09-16 | 2019-09-16 | 多媒体播放控制方法、装置及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110598644B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113448427B (zh) | 2020-03-24 | 2023-09-12 | 华为技术有限公司 | 设备控制方法、装置及系统 |
CN111596760A (zh) * | 2020-04-30 | 2020-08-28 | 维沃移动通信有限公司 | 操作控制方法、装置、电子设备及可读存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105989357A (zh) * | 2016-01-18 | 2016-10-05 | 合肥工业大学 | 一种基于人脸视频处理的心率检测方法 |
CN106971752A (zh) * | 2017-03-31 | 2017-07-21 | 联想(北京)有限公司 | 多媒体播放控制方法及多媒体播放装置 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102799277B (zh) * | 2012-07-26 | 2015-06-10 | 深圳先进技术研究院 | 一种基于眨眼动作的人机交互方法及系统 |
KR101436908B1 (ko) * | 2012-10-19 | 2014-09-11 | 경북대학교 산학협력단 | 화상 처리 장치 및 화상 처리 방법 |
CN104267814B (zh) * | 2014-09-25 | 2019-02-05 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN104360751B (zh) * | 2014-12-05 | 2017-05-10 | 三星电子(中国)研发中心 | 一种实现智能控制的方法和设备 |
CN107273732A (zh) * | 2017-07-05 | 2017-10-20 | 广东小天才科技有限公司 | 一种用于移动终端的解锁方法、装置、设备及存储介质 |
CN109669615A (zh) * | 2018-12-26 | 2019-04-23 | 北京七鑫易维信息技术有限公司 | 信息控制方法、系统、存储介质及电子设备 |
-
2019
- 2019-09-16 CN CN201910872980.7A patent/CN110598644B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105989357A (zh) * | 2016-01-18 | 2016-10-05 | 合肥工业大学 | 一种基于人脸视频处理的心率检测方法 |
CN106971752A (zh) * | 2017-03-31 | 2017-07-21 | 联想(北京)有限公司 | 多媒体播放控制方法及多媒体播放装置 |
Also Published As
Publication number | Publication date |
---|---|
CN110598644A (zh) | 2019-12-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11423653B2 (en) | Systems and methods for generating media content | |
RU2644076C1 (ru) | Способ передачи численных значений, терминал и облачный сервер | |
CN104137146B (zh) | 用于利用前景对象分割的噪声过滤的视频编码的方法和系统 | |
WO2017177903A1 (zh) | 一种实时手势检测的在线验证方法及系统 | |
KR102237086B1 (ko) | 안면인식 기능에 기초하여 5g 이동통신망의 이용이 가능한 통신 단말기를 통해 영상감시가 가능한 로비폰 제어 장치 및 방법 | |
CN110087131B (zh) | 电视系统中的电视控制方法及主控终端 | |
KR101884291B1 (ko) | 디스플레이장치 및 그 제어방법 | |
CN110598644B (zh) | 多媒体播放控制方法、装置及电子设备 | |
CN113014863A (zh) | 认证用户的方法及系统以及计算机可读记录介质 | |
JP2021034003A (ja) | 人物識別方法、装置、電子デバイス、記憶媒体、及びプログラム | |
CN113378616A (zh) | 视频分析方法、视频分析的管理方法及相关设备 | |
US20230206093A1 (en) | Music recommendation method and apparatus | |
WO2023179161A1 (zh) | 一种视频帧率控制方法、装置、电子设备及存储介质 | |
WO2022262719A1 (zh) | 一种直播处理方法、装置、存储介质及电子设备 | |
CN112399239A (zh) | 视频播放方法及装置 | |
CN114051116A (zh) | 一种驾考车辆的视频监控方法、装置以及系统 | |
CN114257824A (zh) | 直播显示方法、装置、存储介质及计算机设备 | |
CN113342170A (zh) | 手势控制方法、装置、终端和存储介质 | |
US9870518B2 (en) | Data processing system | |
US20190011992A1 (en) | User-machine interaction method and system based on feedback signals | |
KR102077632B1 (ko) | 로컬 영상분석과 클라우드 서비스를 활용하는 하이브리드 지능형 침입감시 시스템 | |
WO2022089020A1 (zh) | 事件展示方法及装置、存储介质及电子设备 | |
CN114727119B (zh) | 直播连麦控制方法、装置及存储介质 | |
CN114740975A (zh) | 目标内容的获取方法及相关设备 | |
CN108492415A (zh) | 一种互联网安防系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |