CN108966330A - 一种基于Q-learning的移动端音乐播放器动态调节能耗优化方法 - Google Patents

一种基于Q-learning的移动端音乐播放器动态调节能耗优化方法 Download PDF

Info

Publication number
CN108966330A
CN108966330A CN201811105084.XA CN201811105084A CN108966330A CN 108966330 A CN108966330 A CN 108966330A CN 201811105084 A CN201811105084 A CN 201811105084A CN 108966330 A CN108966330 A CN 108966330A
Authority
CN
China
Prior art keywords
learning
value
mobile phone
state
mobile terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811105084.XA
Other languages
English (en)
Inventor
高岭
赵子鑫
袁璐
张晓�
任杰
王海
党从心
秦晨光
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwest University
Original Assignee
Northwest University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwest University filed Critical Northwest University
Priority to CN201811105084.XA priority Critical patent/CN108966330A/zh
Publication of CN108966330A publication Critical patent/CN108966330A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W52/00Power management, e.g. TPC [Transmission Power Control], power saving or power classes
    • H04W52/02Power saving arrangements
    • H04W52/0209Power saving arrangements in terminal devices
    • H04W52/0225Power saving arrangements in terminal devices using monitoring of external events, e.g. the presence of a signal
    • H04W52/0245Power saving arrangements in terminal devices using monitoring of external events, e.g. the presence of a signal according to signal strength
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W52/00Power management, e.g. TPC [Transmission Power Control], power saving or power classes
    • H04W52/02Power saving arrangements
    • H04W52/0209Power saving arrangements in terminal devices
    • H04W52/0261Power saving arrangements in terminal devices managing power supply demand, e.g. depending on battery level
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Telephone Function (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

一种基于Q‑learning的移动端音乐播放器动态调节能耗优化方法,在不同的网络状态下进行在线听歌,检测测试手机电池功率,测试手机收集每个时间段网络信号强度,整理出用户的环境状态,建立Q‑learning模型,根据所采集到的环境状态建立Q‑learning状态空间,其次建立Q‑learning模型的动作集合,建立Q‑learning动作空间,仿真Q‑learning模型变化过程,寻找Q值最优动作;MATLAB仿真Q‑learning模型,运用最优解搜索策略,求解模型的最优解;设备获取到的环境状态的各个值,利用Q学习的搜索策略,根据Q值不断选择最佳动作,达到能耗优化。在Q‑learning学习过程中通过Q值的迭代找到最优策略,动态调整下载的音乐质量的高低,选择最佳质量的音频,在满足用户体验的情况下尽可能降低移动设备的能耗。

Description

一种基于Q-learning的移动端音乐播放器动态调节能耗优化 方法
技术领域
本发明属于计算机网络通信技术领域,具体涉及一种基于Q-learning的移动端音乐播放器动态调节能耗优化方法。
背景技术
随着移动互联网的快速发展,移动端各方面技术不断提升,服务的场景越来越丰富,移动的数据量越来越大。移动网络的高速发展与wifi的普及为人们带来了便利的同时也降低了通讯成本,丰富了日常生活。移动端应用多种多样,功能也越来越强大,处理器越来越快,能让手机现有功能体验更优,同时带来全新的功能,处理器的进步也为手机带来了如沉浸式VR体验、机器学习等新的功能。人们对于手机性能的追求是无止尽的,性能的攀升必将受到市场的反馈,进而导致开发者进一步对性能的压榨。伴随着性能的升级,移动端的设备的使用频率提升,人们开始频繁手机充电与依赖手机充电宝。在关注性能和便利性的同时手机能耗的问题也暴露出来。硬件方面,手机屏幕尺寸的增大,CPU运行频率增加都会更加消耗手机电量,软件方面,更加耗电的游戏,丰富的社交app都会进一步导致移动端电池的消耗。这么多年来,即便智能手机的电池越做越大、电池储电材料升级,各大厂商们在手机电池续航方面的优化也越来越好,手机的续航却无论如何也提不起来。“一天一充”,放在今天,基本没法做到。
在我们的日常生活中,听音乐是再寻常不过的事了,随着wifi的普及和大面积覆盖,手机运营商的流量的升级,网速的提升,人们更青睐“云”音乐播放器,在线听歌,节省手机内存的同时也能提升用户体验,比如可以个性化推荐,收听音乐电台,在线音乐播放器也更适合听高质量音乐,不会因为音频质量太大占内存而苦恼。高质量音频提升用户体验的同时也造成了手机高能耗,运算能力等问题,人们听音乐时往往会会忽略手机网络状态,手机剩余电量。针对这种问题,我们从软件级别进行优化,提出了一种基于强化学习Q-learning的能耗优化的模型。在介绍Q-learning之前我们需要简单介绍一下强化学习,强化学习是一种重要的机器学习方法,是一种智能体从环境到行为的映射学习。在智能控制机器人,预测分析等方面有许多应用。
如图2所示,Q-learning是一种无监督无模型的在线强化学习方法,在Q-learning算法中智能体无时无刻地与环境交互来计算出最佳的方案,根据一次次的迭代,智能体目的是根据当前状态就能寻找到最大化累计回报的动作。Q-learning中智能体与外界环境的交互可以看作是一个马尔科夫决策过程,其有一套统一的模型,一般用一个四元组(S,A,P,R)来表示,s为智能体所处的环境状态集合,A表示可以执行的动作集合,P表示状态转移概率矩阵,R表示回报,状态转移到状态执行了动作之后从外界获得的收益。在每一轮迭代中,智能体通过不断的试错,找到每个状态最佳的策略π*(s)A。其最大期望的长期回报的最大值为:
Q学习的优点在于因为它是无模型强化学习,所以可以在R(s,a)与P(a)未知的情况下,通过Q值的迭代找到最优策略。其中将策略π下的每对状态和对应的动作与一个“Q”关联:
Q的值经过一定迭代得到,其规则为:
其中,为学习速率,范围是0到1,越大则说明算法收敛越快,随着不断的迭代,递减到0,Q将以概率1收敛到最优值。
发明内容
为了克服上述现有技术的不足,本发明的目的是提供一种基于Q-learning的移动端音乐播放器动态调节能耗优化方法,在用户使用移动端进行在线听歌的过程中,他们所使用的环境是不断改变的,网络状态的改变,手机电量的改变。所以,该方法对用户的决策制定运用数学建模,仿真并且优化获取最佳决策,从而达到降低手机能耗的功能。
为了实现上述目的,本发明采用的技术方案是:
一种基于Q-learning的移动端音乐播放器动态调节能耗优化方法,包括以下步骤:
1)在不同的网络状态下进行在线听歌,通过专业仪器检测测试手机电池功率,测试手机收集每个时间段网络信号强度,整理出用户的环境状态,分别为网络信号强度值,时间状态,手机剩余电量数值;
2)建立Q-learning模型,根据步骤1)所采集到的环境状态建立Q-learning状态空间,其次建立Q-learning模型的动作集合,建立Q-learning动作空间,将网络状态定义为奖励值,仿真Q-learning模型变化过程,寻找Q值最优动作;
3)MATLAB仿真Q-learning模型,运用最优解搜索策略,求解模型的最优解;
4)设备通过系统获取到的环境状态的各个值,利用Q学习的搜索策略,根据Q值不断选择最佳动作,达到能耗优化。
进一步,一种基于Q-learning的移动端音乐播放器动态调节能耗优化方法,其详细步骤如下:
1)步骤1所述的系统自动采集环境值:
在wifi环境下与4g环境下分别使用自主开发的移动端在线音乐播放器从服务器端在线听歌时,通过Monsoon Solutions检测测试手机电池功率,安卓自带API收集每个时间段网络信号强度,整理出用户的环境状态,分别为网络信号强度值,将网络信号分为五个等级,根据不同的dbm从高到低分为1,2,3,4,5五个等级,时间状态,将总时长化为若干时间点,手机剩余电量数值,将这三类采集到的环境状态,按格式整理排列,存储于手机本地,后上传至电脑;
2)建立Q-learning数学模型,根据步骤1)中所采集到的环境状态值作为Q-learning模型的状态集,其主要为三个值,网络信号等级值,手机剩余电量数值,时间点,其次建立Q-learning模型的动作集合,动作集合,状态转换的时候,我们会在其中选择一个相对应的最佳动作a;
3)将系统获取到的环境值输入MATLAB中进行仿真,其中Q-learning通过对周围环境的不断交互,用试错的方法进行不断尝试,智能体可以自主选择最佳动作目标,对于Q学习方法,采用贪婪算法,在任一状态下,以小概率选取动作a,以1-选择Q值为最大的动作,以此选择最优动作,生成最优状态;
4)在实际使用中,移动端听歌设备通过系统获取到的环境状态的各个值,用到了Q-learning学习的搜索策略,根据Q值不断选择最佳动作,也就是动态调节下载的音乐质量的高低,从而达到能耗优化的目的。
进一步,本模型中,根据网络信号强度来选择不同的动作,也就是播放器在线播放的不同的音频质量,按大小,格式分为了无损,高清,低清,也按等级划分,分别为3,2,1,本文奖励函数R(s,s’)表示为网络强度N时执行了动作a,状态由s转换到s’所获取的奖励值,定义为执行动作时的网络等级值为奖励值,当信号小于低清所需要的网络等级时,奖励值为0。
本发明的有益效果是:
本方法考虑到网络状态的不同,手机剩余电量的不同,在Q-learning学习过程中通过Q值的迭代找到最优策略,动态调整下载的音乐质量的高低,选择最佳质量的音频,在满足用户体验的情况下尽可能降低移动设备的能耗。
附图说明
图1为本发明的系统结构示意图;
图2为Q-learning学习过程示意图;
图3为本发明的工作流程图。
具体实施方式
下面结合实施例和说明书附图对本发明的技术方案做详细的说明,但不限于此。
如图3所示,一种基于Q-learning的移动端音乐播放器动态调节能耗优化方法,包括以下步骤:
1)步骤1所述的系统自动采集环境值:
在wifi环境下与4g环境下分别使用自主开发的移动端在线音乐播放器从服务器端在线听歌时,通过Monsoon Solutions检测测试手机电池功率,安卓自带API收集每个时间段网络信号强度,整理出用户的环境状态,分别为网络信号强度值,将网络信号分为五个等级,根据不同的dbm从高到低分为1,2,3,4,5五个等级,时间状态,将总时长化为若干时间点,手机剩余电量数值,将这三类采集到的环境状态,按格式整理排列,存储于手机本地,后上传至电脑;
2)建立Q-learning数学模型,根据步骤1)中所采集到的环境状态值作为Q-learning模型的状态集,其主要为三个值,网络信号等级值,手机剩余电量数值,时间点,其次建立Q-learning模型的动作集合,动作集合,状态转换的时候,我们会在其中选择一个相对应的最佳动作a;
3)将系统获取到的环境值输入MATLAB中进行仿真,其中Q-learning通过对周围环境的不断交互,用试错的方法进行不断尝试,智能体可以自主选择最佳动作目标,对于Q学习方法,采用贪婪算法,在任一状态下,以小概率选取动作a,以1-选择Q值为最大的动作,以此选择最优动作,生成最优状态;
4)在实际使用中,移动端听歌设备通过系统获取到的环境状态的各个值,用到了Q-learning学习的搜索策略,根据Q值不断选择最佳动作,也就是动态调节下载的音乐质量的高低,从而达到能耗优化的目的。
进一步,本模型中,根据网络信号强度来选择不同的动作,也就是播放器在线播放的不同的音频质量,按大小,格式分为了无损,高清,低清,也按等级划分,分别为3,2,1,本文奖励函数R(s,s’)表示为网络强度N时执行了动作a,状态由s转换到s’所获取的奖励值,定义为执行动作时的网络等级值为奖励值,当信号小于低清所需要的网络等级时,奖励值为0。
如图1所示,主要由用户终端,环境采集模块,数据处理模块,数据控制模块以及Q-learning调节模块组成。
首先,用户使用移动设备在线听歌时,终端设备将自动采集当前环境的各个状态值,将采集到的网络等级值,电池剩余电量,当前时间点以数据库的形式存储至手机本地,当达到一定数量时自动通过邮箱上传至服务器端,其次,通过数据处理模块将其数据拟合,具体过程为:
1)设置状态集合S,内容为网络等级值,根据安卓自带API测试的值按由高到低的范围划分为五个等级,经过测量等级1,2无法加载歌曲,视为无法工作,手机剩余电量值,以及时间点。
2)设置动作集合,在(1)中提到的网络等级中,除去等级1和等级2,从高到低对应下载音频格式为无损,高清,低清。
3)设置相关奖励函数R。
最后再通过MATLAB,建立Q-learning数学模型,通过该算法模块完成音频质量高低的动态切换,达到能耗优化的作用,其中Q-learning调节模块具体通过以下几步完成:
1)首先,初始化一个Q值矩阵,设定Q值迭代公式中折扣因子和学习率,对在动作选择算法里的探索概率初始化一个值。
2)对每一个感知的周期,进行下面的过程:
learning智能体模块查找Q阵,在其中选择最大的Q值的状态作为当前的动态状态s。基于此状态s,根据之前提到的贪婪算法以小概率选取动作a,以1-选择Q值为最大的动作作为当前状态的动作a;一旦会话到达,下一状态s’及它的Q值就能得到,结合动作a以及它的即时回报,根据Q值迭代公式更新为,进行下一轮训练。参数的更新,在每一论迭代之后,探索概率与学习率都会更新,通过设置它们会随着不断学习逐渐减小为0,符合Q-learning的收敛性要求。

Claims (3)

1.一种基于Q-learning的移动端音乐播放器动态调节能耗优化方法,其特征在于,包括以下步骤:
1)在不同的网络状态下进行在线听歌,通过专业仪器检测测试手机电池功率,测试手机收集每个时间段网络信号强度,整理出用户的环境状态,分别为网络信号强度值,时间状态,手机剩余电量数值;
2)建立Q-learning模型,根据步骤1)所采集到的环境状态建立Q-learning状态空间,其次建立Q-learning模型的动作集合,建立Q-learning动作空间,将网络状态定义为奖励值,仿真Q-learning模型变化过程,寻找Q值最优动作;
3)MATLAB仿真Q-learning模型,运用最优解搜索策略,求解模型的最优解;
4)设备通过系统获取到的环境状态的各个值,利用Q学习的搜索策略,根据Q值不断选择最佳动作,达到能耗优化。
2.根据权利要求1所述的一种基于Q-learning的移动端音乐播放器动态调节能耗优化方法,其详细步骤如下:
1)步骤1所述的系统自动采集环境值:
在wifi环境下与4g环境下分别使用自主开发的移动端在线音乐播放器从服务器端在线听歌时,通过Monsoon Solutions检测测试手机电池功率,安卓自带API收集每个时间段网络信号强度,整理出用户的环境状态,分别为网络信号强度值,将网络信号分为五个等级,根据不同的dbm从高到低分为1,2,3,4,5五个等级,时间状态,将总时长化为若干时间点,手机剩余电量数值,将这三类采集到的环境状态,按格式整理排列,存储于手机本地,后上传至电脑;
2)建立Q-learning数学模型,根据步骤1)中所采集到的环境状态值作为Q-learning模型的状态集,其主要为三个值,网络信号等级值,手机剩余电量数值,时间点,其次建立Q-learning模型的动作集合,动作集合,状态转换的时候,我们会在其中选择一个相对应的最佳动作a;
3)将系统获取到的环境值输入MATLAB中进行仿真,其中Q-learning通过对周围环境的不断交互,用试错的方法进行不断尝试,智能体可以自主选择最佳动作目标,对于Q学习方法,采用贪婪算法,在任一状态下,以小概率选取动作a,以1-选择Q值为最大的动作,以此选择最优动作,生成最优状态;
4)在实际使用中,移动端听歌设备通过系统获取到的环境状态的各个值,用到了Q-learning学习的搜索策略,根据Q值不断选择最佳动作,也就是动态调节下载的音乐质量的高低,从而达到能耗优化的目的。
3.根据权利要求2所述的一种基于Q-learning的移动端音乐播放器动态调节能耗优化方法,其特征在于,本模型中,根据网络信号强度来选择不同的动作,也就是播放器在线播放的不同的音频质量,按大小,格式分为了无损,高清,低清,也按等级划分,分别为3,2,1,本文奖励函数R(s,s’)表示为网络强度N时执行了动作a,状态由s转换到s’所获取的奖励值,定义为执行动作时的网络等级值为奖励值,当信号小于低清所需要的网络等级时,奖励值为0。
CN201811105084.XA 2018-09-21 2018-09-21 一种基于Q-learning的移动端音乐播放器动态调节能耗优化方法 Pending CN108966330A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811105084.XA CN108966330A (zh) 2018-09-21 2018-09-21 一种基于Q-learning的移动端音乐播放器动态调节能耗优化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811105084.XA CN108966330A (zh) 2018-09-21 2018-09-21 一种基于Q-learning的移动端音乐播放器动态调节能耗优化方法

Publications (1)

Publication Number Publication Date
CN108966330A true CN108966330A (zh) 2018-12-07

Family

ID=64471950

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811105084.XA Pending CN108966330A (zh) 2018-09-21 2018-09-21 一种基于Q-learning的移动端音乐播放器动态调节能耗优化方法

Country Status (1)

Country Link
CN (1) CN108966330A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109802964A (zh) * 2019-01-23 2019-05-24 西北大学 一种基于dqn的http自适应流控制能耗优化方法
CN109859116A (zh) * 2018-12-29 2019-06-07 北京三快在线科技有限公司 图像处理模型的训练方法、装置、电子设备及存储介质
CN112788560A (zh) * 2020-12-18 2021-05-11 昆明理工大学 一种基于深度强化学习的时空充电调度方法
CN113170001A (zh) * 2018-12-12 2021-07-23 西门子股份公司 适配在网关上执行的软件应用程序
CN116541006A (zh) * 2023-06-28 2023-08-04 壹仟零壹艺网络科技(北京)有限公司 一种计算机人机交互界面的图形处理方法和装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105844068A (zh) * 2016-06-16 2016-08-10 中国人民解放军国防科学技术大学 一种面向仿真的q学习攻击目标分配方法
CN106231660A (zh) * 2016-08-30 2016-12-14 重庆邮电大学 一种基于长短休眠周期的基站关断机制
CN107734579A (zh) * 2017-10-16 2018-02-23 西北大学 一种基于马尔可夫决策过程的移动平台能耗优化方法
CN108235424A (zh) * 2017-12-29 2018-06-29 中山大学 一种基于q学习的可穿戴设备发射功率控制方法
CN108347744A (zh) * 2018-01-19 2018-07-31 厦门大学 一种设备接入方法、装置及接入控制设备
US20180220372A1 (en) * 2017-02-01 2018-08-02 Qualcomm Incorporated Adaptive power save with reinforcement learning
CN108401254A (zh) * 2018-02-27 2018-08-14 苏州经贸职业技术学院 一种基于强化学习的无线网络资源分配方法
US20180246558A1 (en) * 2016-02-22 2018-08-30 The Joan and Irwin Jacobs Technion-Cornell Institute Techniques for self-tuning of computing systems
CN108521673A (zh) * 2018-04-09 2018-09-11 湖北工业大学 一种异构网络中基于强化学习的资源分配和功率控制联合优化方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180246558A1 (en) * 2016-02-22 2018-08-30 The Joan and Irwin Jacobs Technion-Cornell Institute Techniques for self-tuning of computing systems
CN105844068A (zh) * 2016-06-16 2016-08-10 中国人民解放军国防科学技术大学 一种面向仿真的q学习攻击目标分配方法
CN106231660A (zh) * 2016-08-30 2016-12-14 重庆邮电大学 一种基于长短休眠周期的基站关断机制
US20180220372A1 (en) * 2017-02-01 2018-08-02 Qualcomm Incorporated Adaptive power save with reinforcement learning
CN107734579A (zh) * 2017-10-16 2018-02-23 西北大学 一种基于马尔可夫决策过程的移动平台能耗优化方法
CN108235424A (zh) * 2017-12-29 2018-06-29 中山大学 一种基于q学习的可穿戴设备发射功率控制方法
CN108347744A (zh) * 2018-01-19 2018-07-31 厦门大学 一种设备接入方法、装置及接入控制设备
CN108401254A (zh) * 2018-02-27 2018-08-14 苏州经贸职业技术学院 一种基于强化学习的无线网络资源分配方法
CN108521673A (zh) * 2018-04-09 2018-09-11 湖北工业大学 一种异构网络中基于强化学习的资源分配和功率控制联合优化方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
ABHISHEK TRIPATHI等: "A Reinforcement Learning and Recurrent Neural Network Based Dynamic User Modeling System", 《IEEE》 *
SALWA TOUMI等: "An adaptive Q-learning approach to power control for D2D communications", 《IEEE》 *
ZHIBIN GAO等: "Q-Learning-Based Power Control for LTE Enterprise Femtocell Networks", 《IEEE》 *
杜琳等: "一种基于Q学习的任务调度算法的改进研究", 《全国第20届计算机技术与应用学术会议(CACIS·2009)暨全国第1届安全关键技术与应用学术会议论文集(上册)》 *
胡华等: "基于Q-learning的移动群智感知任务分配算法", 《计算机集成制造系统》 *
郭延超等: "移动边缘计算中基于内容动态刷新的能耗优化", 《计算机研究与发展》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113170001A (zh) * 2018-12-12 2021-07-23 西门子股份公司 适配在网关上执行的软件应用程序
CN109859116A (zh) * 2018-12-29 2019-06-07 北京三快在线科技有限公司 图像处理模型的训练方法、装置、电子设备及存储介质
CN109802964A (zh) * 2019-01-23 2019-05-24 西北大学 一种基于dqn的http自适应流控制能耗优化方法
CN109802964B (zh) * 2019-01-23 2021-09-28 西北大学 一种基于dqn的http自适应流控制能耗优化方法
CN112788560A (zh) * 2020-12-18 2021-05-11 昆明理工大学 一种基于深度强化学习的时空充电调度方法
CN116541006A (zh) * 2023-06-28 2023-08-04 壹仟零壹艺网络科技(北京)有限公司 一种计算机人机交互界面的图形处理方法和装置
CN116541006B (zh) * 2023-06-28 2024-01-26 壹仟零壹艺网络科技(北京)有限公司 一种计算机人机交互界面的图形处理方法和装置

Similar Documents

Publication Publication Date Title
CN108966330A (zh) 一种基于Q-learning的移动端音乐播放器动态调节能耗优化方法
CN109639760B (zh) 一种基于深度强化学习的d2d网络中的缓存策略方法
CN111767711A (zh) 基于知识蒸馏的预训练语言模型的压缩方法及平台
CN110288979A (zh) 一种语音识别方法及装置
CN110377353A (zh) 计算任务卸载系统与方法
CN110046712A (zh) 基于生成模型的隐空间模型化策略搜索学习方法
CN111708427B (zh) 管理终端的方法和终端
CN111162888B (zh) 分布式天线系统、远程接入单元、功率分配方法和介质
CN110069715A (zh) 一种信息推荐模型训练的方法、信息推荐的方法及装置
CN108898082A (zh) 图片处理方法、图片处理装置及终端设备
Shodamola et al. A machine learning based framework for KPI maximization in emerging networks using mobility parameters
CN108430082B (zh) 一种异构车联网环境下的车载网络切换方法
CN107734579A (zh) 一种基于马尔可夫决策过程的移动平台能耗优化方法
CN115065678A (zh) 一种基于深度强化学习的多智能设备任务卸载决策方法
CN112231117B (zh) 基于动态向量混合遗传算法的云机器人服务选择方法及系统
CN109802964B (zh) 一种基于dqn的http自适应流控制能耗优化方法
CN110516151B (zh) 有效行为检测和个性化推荐方法
CN104182470A (zh) 一种基于svm的移动终端应用分类系统和方法
CN113836329B (zh) 多媒体内容分类方法、装置、电子设备和存储介质
CN116436019A (zh) 一种多资源协调优化方法、装置及存储介质
CN109634719A (zh) 一种虚拟机调度方法、装置及电子设备
CN109754075A (zh) 无线传感器网络节点的调度方法、设备、存储介质及装置
CN114647789A (zh) 一种推荐模型的确定方法和相关装置
CN115705608A (zh) 一种虚拟电厂负荷感知方法及装置
CN112380012A (zh) 资源调节方法、装置、终端设备以及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20181207