CN108475214A - 自适应人工神经网络选择技术 - Google Patents

自适应人工神经网络选择技术 Download PDF

Info

Publication number
CN108475214A
CN108475214A CN201680079046.4A CN201680079046A CN108475214A CN 108475214 A CN108475214 A CN 108475214A CN 201680079046 A CN201680079046 A CN 201680079046A CN 108475214 A CN108475214 A CN 108475214A
Authority
CN
China
Prior art keywords
computing device
client computing
task
client
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201680079046.4A
Other languages
English (en)
Inventor
M.沙里菲
J.N.福斯特
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of CN108475214A publication Critical patent/CN108475214A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/5044Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering hardware capabilities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/505Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5094Allocation of resources, e.g. of the central processing unit [CPU] where the allocation takes into account power or heat criteria
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Telephonic Communication Services (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

一种计算机实施的技术,所述计算机实施的技术包括:由客户端计算设备获得数字媒体项目和对数字项目的处理任务的请求,并基于(i)客户端计算设备处的可用计算资源以及(ii)网络的状况来确定一组操作参数。基于该组操作参数,客户端计算设备或服务器计算设备可以选择多个人工神经网络(ANN)中的一个,每个人工神经网络定义处理任务的哪些部分将由客户端计算设备和服务器计算设备执行。所述客户端计算设备和服务器计算设备可根据选定的人工神经网络来协调处理任务的处理。客户端计算设备还能够获得与处理任务的最终评估相对应的最终处理结果,并且基于最终处理结果来生成输出。

Description

自适应人工神经网络选择技术
相关申请的交叉引用
本申请要求2016年3月28日提交的美国申请第15/082,653号的优先权。上述申请的全部公开内容通过引用并入本文。
技术领域
本公开涉及分布式客户端-服务器处理,并且更具体地涉及自适应人工神经网络(ANN)选择技术。
背景技术
这里提供的背景描述是为了总体上呈现本公开的背景。目前指定的发明人的工作,在本背景技术部分中描述的程度,以及在提交时可能不具有现有技术资格的描述的各方面,既不明示也不暗示地被认为是针对本公开的现有技术。
客户端计算设备(例如,移动电话)能够与被配置为执行处理任务的至少一部分的远程服务器计算设备通信。在服务器计算设备上执行的处理程度可以取决于各种因素。一个示例因素是客户端和服务器计算设备之间的网络连接的质量或强度。当网络连接具有低质量/强度时,客户端计算设备能够处理更大量的处理任务。然而,对于某些密集处理任务(例如,机器学习模型),服务器计算设备更有能力并因此更优选地处理所述处理任务的某些部分。在这些情况下,尽管网络连接的质量/强度低,可能希望在服务器计算设备中进行处理。为了在低质量/强度网络连接上传送所需数据,客户端计算设备因此可对要传送到服务器计算设备的任何数据应用压缩。但是,这种压缩会导致数据丢失,从而对处理任务的最终结果产生负面影响。
发明内容
提出了一种计算机实施的技术和计算系统,其具有一个或多个处理器和存储用于该技术的一组可执行指令的计算机可读存储器(例如,非暂时性计算机可读存储器)。该技术能够包括:由具有一个或多个处理器的客户端计算设备获得数字媒体项目和对数字项目的处理任务的请求;由客户端计算设备基于(i)所述客户端计算设备处的可用计算资源和(ii)网络状况来确定一组操作参数,其中所述客户端计算设备和服务器计算设备被配置用于基于该组操作参数经由网络彼此进行通信;选择多个人工神经网络(ANN)中的一个,每个ANN定义处理任务的哪些部分将由客户端和服务器计算设备执行,根据选定的ANN协调处理任务在所述客户端和所述服务器计算设备之间的处理;由客户端计算设备获取对应于处理任务的最终评估的最终处理结果;由客户端计算设备基于最终处理结果生成输出。
在一些实施例中,每个ANN定义处理任务的第一部分和第二部分,第一部分要在(ii)通过网络进行通信、使得客户端和服务器计算设备中的另一个执行第二部分之前由(i)客户端和服务器计算设备之一执行。在一些实施例中,客户端计算设备(i)选择选定的ANN,(ii)执行处理任务的第一部分以获得中间处理结果,(iii)向服务器计算设备发送中间处理结果,并且(iv)经由网络,从服务器计算设备接收最终处理结果。
在一些实施例中,客户端计算设备处的可用计算资源包括(i)客户端计算设备的电池的充电量,(ii)客户端计算设备的处理能力水平中的至少一个。在一些实施例中,客户端计算设备处的可用计算资源包括(i)客户端计算设备的电池的充电量(ii)客户端计算设备的处理能力水平两者。在一些实施例中,数字媒体项目是音频文件或视频文件,并且处理任务是语音识别或语音转文本。在其他实施例中,数字媒体项目是图像文件或视频文件,并且处理任务是图像识别或文本识别。在其他实施例中,数字媒体项目是一串文本或文本文件,并且其中处理任务是文本转语音。
在一些实施例中,该技术还包括:从该客户端计算设备向该服务器计算设备传输该组操作参数,其中,该组操作参数的接收使得所述服务器计算设备(i)选择选定的ANN并且(ii)执行处理任务的第一部分用于获得中间处理结果,并且由客户端计算设备经由网络从服务器计算设备接收中间处理结果。在一些实施例中,客户端计算设备使用中间处理结果来执行处理任务的第二部分以获得最终处理结果。
本文描述的主题的其他方面提供了一种计算机可读介质和一种计算系统,该计算机可读介质存储一组指令,该指令在由处理器执行时使得处理器执行根据本文描述的任何实施方式的方法,该计算系统包括一个或多个处理器和计算机可读存储器,该计算机可读存储器其上存储有一组指令,当由一个或多个处理器执行时,使得计算系统执行包括根据本文描述的任何实现的方法的操作。
根据下文提供的详细描述,本公开的进一步应用领域将变得显而易见。应该理解的是,详细描述和具体示例仅旨在用于说明的目的,而不旨在限制本公开的范围。应当理解,可以组合方面和实现,并且在一个方面或实现的上下文中描述的特征可以在其他方面或实现的上下文中实现。
附图说明
从详细描述和附图将更全面地理解本公开,其中:
图1是根据本公开的一些实施方式的示例计算系统的图;
图2是图1的示例计算设备的功能框图;
图3A-3C是根据本公开的一些实施方式的服务器侧层,客户端侧层和瓶颈层的各种人工神经网络(ANN)配置的图;和
图4是根据本公开的一些实施方式的示例自适应ANN选择技术的流程图。
具体实施方式
如前所述,客户端计算设备(例如,移动电话)能够对于要被发送到远程服务器计算设备、用于处理任务(processing task)的至少一部分的数据应用压缩。高水平的压缩可能导致数据丢失,这可能会对服务器计算设备执行的处理的结果产生负面影响。例如,开放式语音识别是一项处理任务,其计算成本昂贵,并且通过执行识别服务器侧可以获得最佳准确性。因此,广泛采用语音识别相关功能的一个限制因素是相关的网络带宽和延迟要求。
人工神经网络(ANN)涉及深度学习以获得大型机器学习模型,其通常在服务器计算设备上实施。由ANN执行的处理任务的示例包括语音识别(例如,语音转文本或转录)、图像识别、文本识别(例如光学字符识别或OCR)以及文本转语音变换。尽管ANN在模型方面取得了巨大的进步,并且导致质量有了很大的提高,但它并没有减少由于数据在网络(其中客户端计算设备是电池供电的设备,例如移动设备)之上传输导致的往返延迟和电池影响。然而,这些处理任务的至少一些部分能够由客户端计算设备在本地执行。
因此,提出了自适应人工神经网络选择技术。该技术涉及客户端计算设备获得数字媒体项目(文本、音频、图像、视频等)和对数字媒体项目上的处理任务的请求。客户端计算设备能够获得一组操作参数(电池水平、处理能力、网络速度等),该参数影响在客户端计算设备和服务器计算设备之间处理任务的分布。根据处理任务,客户端和服务器计算设备中的一个可以选择多个ANN中的一个,每个ANN定义处理任务的分布。根据选定的ANN,客户端和服务器计算设备可以执行处理任务的一部分,并且可以在客户端计算设备处输出最终评价。
现在参考图1,示出了根据本公开的一些实施方式的示例计算系统100的图。计算系统100能够包括与用户108相关联的客户端计算设备104。客户端计算设备104可以是任何合适的计算设备(台式计算机、膝上型计算机、平板计算机、移动电话等)。客户端计算设备104可以经由网络116与服务器计算设备112进行通信。网络116可以是局域网(LAN)、广域网(WAN),例如互联网,或其组合。这里使用的术语“服务器计算设备”可以指以并行或分布式体系结构操作的两个或更多个服务器计算设备以及单个服务器计算设备。例如,机器学习模型可以分布在多个服务器计算设备上。
现在参考图2,示出了示例计算设备200。在一个实施方式中,计算设备200可以包括通信设备204、处理器208、存储器212、输入/输出设备216、麦克风220和相机224。为了本公开的目的,计算设备200可以表示客户端计算设备104和/或服务器计算设备112。然而,应该理解的是,这些设备104、112可以具有稍微不同的配置(例如,服务器计算设备112可以不包括输入/输出设备216、麦克风220和相机224)。通信设备204可以是被配置为用于经由网络116进行通信的任何合适的设备(例如,收发器)。存储器212可以是被配置为在计算设备200处存储信息的任何合适的存储介质(闪存、硬盘等),诸如由处理器208执行的一组指令。
这里使用的术语“处理器”可以指以并行或分布式架构工作的两个或更多个处理器和单个处理器两者。当由处理器208执行时,该组指令可以使得计算设备200执行本公开的技术的至少一部分。输入/输出设备216可以是触摸显示器、物理键盘/按钮、扬声器或其某种组合。麦克风220可以是被配置为捕获音频数据(例如,音频流)的任何合适的设备。相机224可以是被配置为捕获图像/视频数据(例如,静态图像或视频流)的任何合适的设备(例如,电荷耦合设备或CCD)。计算设备200还可以包括用于为其操作供电的电池228(例如,用于移动计算设备)。如上所述,计算设备200可以被配置为执行本公开的技术的至少一部分,现在更详细地讨论该技术。
再次参考图1,并继续参考图2,客户端计算设备104可以获得数字媒体项目和对处理任务的请求。数字媒体项目可以由操作客户端计算设备104(由麦克风220捕获的音频、经由输入/输出设备216获得的文本、由相机224捕获的图像/视频等)的用户108获得。数字媒体项目也可以被另一个计算设备捕获并且随后由客户端计算设备104获得。数字媒体项目的非限制性示例包括一串文本或整个文本文件、图像文件、音频文件和视频文件。处理任务的非限制性示例包括语音识别(例如语音转文本或转录)、文本识别(例如OCR)、图像识别和文本转语音变换。
这里使用的术语“人工神经网络”和“ANN”可以指代跨客户端计算设备104和服务器计算设备112的机器学习模型或模型族。每个机器学习模型都能够被训练,例如,使用类似的数据作为使用机器学习模型执行的处理任务。例如,声学数据可以用于训练机器学习的声学模型。每个ANN可以被描述为分成不同的层。每个层可以代表要由客户端计算设备104和服务器计算设备112中的一个执行的任务或一组任务。然后可以将每个任务或一组任务的结果传递到后续层,以此类推。然后最后一层可以输出最终评价,其也可以被称为最终处理结果。瓶颈层可以表示使得从一个设备到另一个设备(例如,从客户端计算设备104到服务器计算设备112)传输信息(例如激活)的层。换句话说,瓶颈层可以表示设备的指定层(assigned layers)的结论,并且激活可以包括由初始设备完成的处理任务的部分的结果,以及在其他设备上完成处理任务的附加信息。
这项任务可以被描述为训练ANN,使得从质量的角度来看,它们可以最佳地工作,同时还可以平衡其他目标。例如,另一个目标可以是将客户端侧计算限制在设备上可行的范围内。这例如能够通过有多少预瓶颈层和每层的大小来确定,这与增加的计算成本相对应。另一个示例目标可以是限制通信量/网络成本和延迟。这例如能够通过瓶颈层中的信息量(保真度水平)和节点的数量来确定。其他设备(例如,服务器计算设备112)能够接收瓶颈层,该瓶颈层能够包括激活,该激活使得设备执行层的其余部分并因此获得最终评估。然后可以将最终评价返回到初始设备(例如,客户端计算设备104),用于生成输出。下面将更详细地讨论示例ANN和它们各自的层,并在图3A-3C中示出。
客户端计算设备104能够确定一组操作参数,其可以用于选择多个ANN中的一个用于执行处理任务。每个操作参数可以影响并因此可以指示客户端计算设备104和服务器计算设备112之间处理任务的期望的分布。如前所述,服务器计算设备112能够更好地装备以处理广泛的处理(extensive processing),但是网络状况能够影响该服务器计算设备112能够处理全部或大部分处理任务的可行性,例如,由于输入的高维度。操作参数的非限制性示例包括(i)客户端计算设备104处的可用计算资源(电池228的充电量,处理能力水平(例如,处理器208的类型)等),和(ii)在客户端计算设备104和服务器计算设备112之间经由网络116的连接(在下文中称为“网络连接”)条件。
例如,电池228的较低水平的电荷能够表示期望在客户端计算设备104处执行处理任务的较小部分。类似地,客户端计算设备104的较低级别的处理能力能够表示期望在客户端计算设备104处执行处理任务的较小部分。另一方面,网络状况的条件可能是处理任务的期望的分布的更重要的因素。更具体地,更快的网络连接能够表示对服务器计算设备112执行尽可能多的处理任务的期望。类似地,较慢的网络连接能够表示期望客户端计算设备104处理至少一些处理任务。尽管讨论了网络速度,但其他网络连接条件(带宽、数据成本等)也会影响期望的分布。另一个示例因素例如是服务器计算设备112上的负载(例如,繁重的网络流量),且在这些情况下,客户端计算设备104能够处理较大部分的处理任务。
如前所述,基于该组操作参数,可以选择多个ANN中的一个。每个ANN能够定义处理任务的哪些部分将由客户端计算设备104和服务器计算设备112执行。通过训练多个不同的ANN并且通过在两侧(客户端和服务器)具有用于客户端和服务器的相关层,本文公开的技术可以提供压缩级别、延迟和计算成本的动态选择。取决于处理任务,客户端计算设备104或服务器计算设备112能够选择ANN,以获得选定的ANN用于处理任务的分布式处理。通过使用瓶颈层激活作为压缩表示,能够以对识别任务最有效的方式对数据进行压缩。此外,可以在系数本身上应用无损或有损压缩以进一步减少查询负载(query payload)。
在一个示例性实施方式中,可以存在三个不同的ANN,其在图3A-3C中示出并在下面进行描述。尽管在此示出和描述了三个ANN,但可以理解,可以训练任意多个ANN(两个ANN、四个或更多ANN等)并从其中选择。每个ANN能够说明两个自由度:(1)一些瓶颈前的客户端侧层和(2)瓶颈的宽度。这也可以被描述为二维参数表面。在图3A中,例如示出了第一示例ANN 300,其能够在网络连接速度/带宽为高/好(例如,高于阈值)时使用。在一些实施例中,不管客户端计算设备104的处理能力如何(即,因为网络连接是如此好),都可以使用该ANN 300。处理任务被分为少量客户端侧层304和大量服务器侧层308,其间具有瓶颈层312。在客户端计算设备104处执行的客户端侧层304可以从接收输入316开始,并以瓶颈层312结束,这能够使得激活向服务器计算设备112的传输。层高度指示符320指示少量客户端侧层304,并且瓶颈宽度指示符324指示对应于高质量网络连接的宽瓶颈。
在图3B中,示出了另一个示例性ANN 330。再次,处理任务被划分为由瓶颈层342划分的客户端侧层334和服务器侧层338。例如,当网络状况速度/带宽为较低/较差时(例如,低于阈值)并且客户端计算设备104的处理能力也较低/较差(例如,低于阈值)时,可以利用该ANN 330。与图3A相比,低质量网络连接由更窄的瓶颈宽度指示符346指示。尽管客户端计算设备104响应于输入350而执行与图3A相比更多的客户端侧层334(如由层高度指示符354所指示的),由于客户端计算设备104的有限处理能力,仍然存在相对大量的服务器侧层338。与图3B相比,图3C示出了具有低质量网络连接(由瓶颈宽度指示符364指示)的另一个示例ANN 360,但是客户端计算设备104具有更大的处理能力(例如,大于阈值)。因此,响应于输入368,与图3A和3B相比,客户端计算设备104可以执行更多数量的客户端侧层372(如层高度指示符376所指示的)。因此,在瓶颈层380之后,服务器计算设备112仅执行少数的服务器侧层384。
在获得选定的ANN之后,客户端计算设备104和服务器计算设备112可根据选定的ANN来协调处理任务的处理。这可以包括,例如,要被应用于经由网络116传输的任何数据的压缩级别/类型。虽然客户端处理能力和网络质量是上述的重点,但是ANN的选择可以进一步基于如本文先前所述的其他因素。例如,在有限的电池情况下,该选择可以平衡网络流量的能量成本(电池充电)与额外的客户端侧计算的能量成本。类似地,如果可以做出客户端计算设备104正在漫游或支付高数据成本的自动检测,则ANN的选择可以进一步偏向于小瓶颈架构。
对于大多数处理任务,客户端计算设备104可以选择选定的ANN并且可以执行处理任务的第一部分(例如,第一数量的层)以获得中间处理结果。客户端计算设备104然后能够经由网络116与服务器计算设备112通信(例如,通过发送激活,诸如用于完成处理任务的附加信息和中间处理结果,诸如选定的ANN的唯一标识符(ID)),这可以使服务器计算设备112执行处理任务的第二部分(例如,其余层)以获得最终处理结果,然后将其返回给客户端计算设备104以生成输出。为允许对由特定ANN定义的堆栈的所有层进行持续改进,可以执行对输入样本或所有原始初始数据(即在压缩之前)的记录,诸如对于网络116限制的情况。在这种情况下的这种异步记录而后允许当网络116的状况改善后进行后续改进。
然而,对于一些处理任务(例如,文本转语音变换),服务器计算设备112能够选择选定的ANN,执行处理任务的第一部分以获得中间处理结果,并将激活(例如,用于完成处理任务的附加信息和中间处理结果)发送到客户端计算设备104。客户端计算设备104然后能够执行处理任务的第二部分以获得最终处理结果。换句话说,用于某些处理任务(例如,文本转语音变换)的处理可以被认为是其他处理任务的处理的逆过程。客户端计算设备104可以基于最终处理结果来生成输出。
由客户端计算设备104生成的输出的非限制性示例可以包括文本、图像和声音。该输出可以使用客户端计算设备104的各种组件(诸如触摸显示器的输入/输出设备216、麦克风220等等)来生成。例如,当处理任务是语音转文本时,输出可以是表示原始数字媒体项目的文本(音频或视频文件)。作为另一示例,当处理任务是图像或文本识别时,输出可以是代表原始数字媒体项目的文本或另一图像(图像或视频文件)。作为又一示例,当处理任务是文本转语音变换时,输出可以是代表原始数字媒体项目的声音或音频流(一串文本或文本文件)。应该理解,对于相同或相似的识别处理任务,例如音乐/歌曲识别,也可以产生其他可能的输出。
现在参考图4,示出了示例自适应ANN选择技术400的流程图。在404处,客户端计算设备104可以获得数字媒体项目(一串文本或文本文件、音频文件、图像文件、视频文件等)以及对数字项目的处理任务的请求。在408处,客户端计算设备104可以确定影响处理任务的期望分布的一组操作参数。在412处,客户端计算设备104可以确定处理任务是文本转语音(“TTS”)变换还是涉及服务器计算设备112选择ANN的另一类似处理任务。如果任务不是文本转语音变换,则技术400可以前进到416。然而,如果任务是文本转语音变换,则技术400可以前进到432。
在416处,客户端计算设备104可以基于该组操作参数来选择多个ANN中的一个。在420处,客户端计算设备104可执行由选定的ANN指定的处理任务的第一部分(例如,直至并包括瓶颈层)以获得中间处理结果。在424处,客户端计算设备104可以向服务器计算设备112发送激活(例如,用于完成处理任务的附加信息和中间处理结果)。激活的接收可以使得服务器计算设备112完成由所选定的ANN指定的处理任务的第二部分并且使用接收到的激活来获得最终处理结果。在428处,客户端计算设备104可以从服务器计算设备112接收最终处理结果。技术400然后可以进行到444。
在432处,客户端计算设备104可以将该组操作参数(以及可能的其他信息)传输到服务器计算设备112。接收该组操作参数可以使得服务器计算设备112(i)选择多个ANN中的一个,(ii)执行由选定的ANN指定的文本转语音变换的第一部分(例如,直到并包括瓶颈层)以获得中间处理结果,并且(iii)将激活(例如,用于完成处理任务的附加信息和中间处理结果)发送到客户端计算设备104。在436,客户端计算设备104可以接收中间处理结果。在440处,客户端计算设备104完成由选定的ANN所指定的处理任务的第二部分(即剩余部分),并使用所接收到的激活来获得最终处理结果。在444,客户端计算设备104能够基于最终处理结果来生成输出(文本、音频流、图像等)。技术400然后可以结束或返回到404。
除了以上描述之外,可以向用户提供允许用户选择是否以及何时在此描述的系统、程序或特征能够收集用户信息(有关用户的当前位置的信息、有关用户的蜂窝计费计划的信息等)以及用户是否从服务器发送内容或通信的控件。另外,某些数据在存储或使用之前可能会以一种或多种方式进行处理,以便删除个人身份信息。例如,可以对用户的身份进行处理,使得不能为用户确定个人身份信息,或者可以在获得位置信息(例如城市、邮政编码或州级)的情况下将用户的地理位置概括化,以至于不能确定用户的特定位置。因此,用户可以控制收集关于用户的什么信息、如何使用该信息以及向用户提供什么信息。
提供示例实施例是为了使本公开彻底,并且将范围充分传达给本领域技术人员。阐述了许多具体细节,诸如具体组件、设备和方法的示例,以提供对本公开的实施例的全面理解。对于本领域技术人员来说显而易见的是,不需要采用具体细节,示例实施例能够以许多不同的形式来体现,并且都不应该被解释为限制本公开的范围。在一些示例实施例中,没有详细描述公知的过程,公知的设备结构和公知的技术。
这里使用的术语仅用于描述特定示例实施例的目的,而不旨在限制。如本文所使用的,除非上下文另外清楚地表明,否则单数形式“一”、“一个”和“该”也可能旨在包括复数形式。术语“和/或”包括一个或多个相关所列项目的任何和所有组合。术语“包括”、“组成”、“包含”和“具有”是包含性的,因此指定存在所陈述的特征、整体、步骤、操作,元件和/或组件,但并不排除存在或添加一个或多个其他特征、整体、步骤、操作、元件、组件和/或其组合。这里描述的方法步骤,过程和操作,除非特别指定为执行顺序,不应被解释为必须要求它们以所讨论或示出的特定顺序执行。还应该理解的是可以采用附加的或替代的步骤。
虽然术语第一、第二、第三等可以在此用于描述各种元件、部件、区域、层和/或部分,但是这些元件、部件、区域、层和/或部分不应受这些术语的限制。这些术语可能仅用于区分一个元件、部件、区域、层或部分与另一个区域、层或部分。除非上下文明确指出,否则诸如术语“第一”、“第二”和其他数字术语在本文中使用时并不意味着次序或顺序。因此,在不脱离示例实施例的教导的情况下,下面讨论的第一元件、组件、区域、层或部分可以被称为第二元件、组件、区域、层或部分。
如本文所使用的,术语模块可以指代、成为或包括以下的一部分:专用集成电路(ASIC);电子电路;组合逻辑电路;现场可编程门阵列(FPGA);处理器或处理器的分布式网络(共享,专用或分组)以及存储在执行代码或过程的联网集群或数据中心中;提供所述功能的其他合适的部件;或者上述中的一些或全部的组合,例如在片上系统中。术语模块还可以包括存储由一个或多个处理器执行的代码的存储器(共享的、专用的或分组的)。
如上所使用的术语代码可以包括软件、固件、字节代码和/或微代码,并且可以指程序、例程、函数、类和/或对象。上面使用的术语共享意味着来自多个模块的一些或全部代码可以使用单个(共享)处理器来执行。另外,来自多个模块的部分或全部代码可以由单个(共享)存储器存储。上面使用的术语组意味着来自单个模块的一些或全部代码可以使用一组处理器来执行。另外,来自单个模块的一些或全部代码可以使用一组存储器来存储。
这里描述的技术可以通过由一个或多个处理器执行的一个或多个计算机程序来实现。计算机程序包括存储在计算机可读介质上的处理器可执行指令,该计算机可读介质例如可以是非暂时性有形计算机可读介质。计算机程序还可以包括存储的数据。非暂时性有形计算机可读介质的非限制性示例为非易失性存储器,磁存储器和光存储器。
以上描述的一些部分根据对信息进行操作的算法和符号表示来呈现本文描述的技术。这些算法描述和表示是数据处理领域的技术人员用来最有效地将他们工作的实质传达给本领域其他技术人员的手段。这些操作虽然在功能上或逻辑上进行了描述,但理解为由计算机程序实现。此外,还证明有时方便将这些操作安排称为模块或功能名称,而不失一般性。
除非特别声明,否则从以上讨论中显而易见的是,应当理解,在整个说明书中,利用诸如“处理”或“计算”或“测算”或“确定”或“显示”等的术语的讨论涉及计算机系统或类似的电子计算设备的动作和过程,其操纵和转换在计算机系统存储器或寄存器或其他这样的信息存储,传输或显示设备内表示为物理(电子)量的数据。
所描述的技术的某些方面包括以算法的形式在此描述的处理步骤和指令。应该注意的是,所描述的过程步骤和指令可以用软件、固件或硬件来体现,并且当以软件来体现时,可以被下载以驻留在实时网络操作系统所使用的不同平台上并且可以从其操作。
本公开还涉及用于执行这里的操作的装置。该设备可以为了所需目的而专门构造,或者它可以包括通过计算机程序选择性地激活或重新配置的通用计算机,该计算机程序存储在计算机可读介质上,其可以被计算机访问。这样的计算机程序可以存储在有形的计算机可读存储介质中,例如但不限于任何类型的盘,包括软盘、光盘、CD-ROM、磁光盘、只读存储器(ROM)、随机存取存储器(RAM)、EPROM、EEPROM、磁卡或光卡、专用集成电路(ASIC)或适用于存储电子指令的任何类型的介质,并且各自耦合到计算机系统总线。此外,说明书中提到的计算机可以包括单个处理器,或者可以是采用多处理器设计以提高计算能力的架构。
这里给出的算法和操作并不固有地涉及任何特定的计算机或其他装置。根据本文的教导,各种通用系统也可以与程序一起使用,或者可以证明构造更专用的设备来执行所需的方法步骤是方便的。各种这些系统的所需结构,以及等同的变化,对于本领域技术人员来说将是显而易见的。另外,本公开没有参考任何特定的编程语言来描述。应当理解,可以使用各种编程语言来实现如本文所述的本公开的教导,并且提供对特定语言的任何参考以用于公开本发明的实现和最佳模式。
本公开很好地适用于许多拓扑结构上的各种计算机网络系统。在此领域内,大型网络的配置和管理包括通过网络(例如因特网)通信耦合到不同计算机和存储设备的存储设备和计算机。
为了说明和描述的目的已经提供了对实施例的上述描述。其目的不是穷举或限制公开。特定实施例的单独元件或特征,即使没有具体示出或描述,通常不限于该特定实施例,而是在适用的情况下可互换并且可用于选定实施例中。同样也可能在很多方面有所不同。这样的变化不被认为是背离本公开,并且所有这样的修改旨在被包括在本公开的范围内。

Claims (20)

1.一种计算机实施的方法,包括:
由具有一个或多个处理器的客户端计算设备获得数字媒体项目和对数字项目的处理任务的请求;
由所述客户端计算设备基于:(i)客户端计算设备处的可用计算资源和(ii)网络的状况,确定一组操作参数,其中所述客户端计算设备和服务器计算设备被配置用于经由网络彼此进行通信;
基于所述一组操作参数,选择多个人工神经网络(ANN)中的一个,每个人工神经网络定义处理任务的哪些部分将由所述客户端计算设备执行以及处理任务的哪些部分将由所述服务器计算设备执行;
根据选定的人工神经网络协调处理任务在所述客户端计算设备和所述服务器计算设备之间的处理;
由所述客户端计算设备获得与处理任务的最终评估相对应的最终处理结果;和
由所述客户端计算设备基于所述最终处理结果生成输出。
2.根据权利要求1所述的计算机实施的方法,其中,每个人工神经网络定义所述处理任务的第一部分和第二部分,第一部分要在(ii)通过网络进行通信、使得客户端和服务器计算设备中的一个执行第二部分之前(i)由客户端和服务器计算设备中的另一个执行。
3.根据权利要求2所述的计算机实施的方法,其中所述客户端计算设备:(i)选择选定的人工神经网络,(ii)执行所述处理任务的第一部分以获得所述中间处理结果,(iii)将所述中间处理结果发送到所述服务器计算设备,并且(iv)经由网络从所述服务器计算设备接收所述最终处理结果。
4.根据权利要求1、2或3所述的计算机实施的方法,其中所述数字媒体项目是音频文件或视频文件,并且其中所述处理任务是语音识别或语音转文本。
5.根据权利要求1、2或3所述的计算机实施的方法,其中所述数字媒体项目是图像文件或视频文件,并且其中所述处理任务是图像识别或文本识别。
6.根据权利要求2所述的计算机实施的方法,其中协调处理任务包括:
从所述客户端计算设备向所述服务器计算设备发送一组操作参数,其中所述一组操作参数的接收使得所述服务器计算设备:(i)选择选定的人工神经网络,以及,(ii)执行所述处理任务的第一部分以获得中间处理结果;和
由所述客户端计算设备经由网络从服务器计算设备接收中间处理结果。
7.根据权利要求6所述的计算机实施的方法,其中所述客户端计算设备使用所述中间处理结果来执行所述处理任务的第二部分以获得所述最终处理结果。
8.根据权利要求6或7所述的计算机实施的方法,其中所述数字媒体项目是一串文本或文本文件,并且其中所述处理任务是文本转语音。
9.根据前述任一权利要求所述的计算机实施的方法,其中所述客户端计算设备处的可用计算资源包括(i)所述客户端计算设备的电池的充电量,(ii)所述客户端计算设备的处理能力水平中的至少一个。
10.根据权利要求1至8中任一项所述的计算机实施的方法,其中,所述客户端计算设备处的可用计算资源包括(i)所述客户端计算设备的电池的充电量和(ii)所述客户端计算设备的处理能力水平两者。
11.一种计算系统,包括一个或多个处理器和非临时性存储器,所述非临时性存储器上存储有一组指令,所述一组指令在由所述一个或多个处理器执行时使所述计算系统执行操作,所述操作包括:
由客户端计算设备获得数字媒体项目和对数字项目的处理任务的请求;
由所述客户端计算设备基于(i)所述客户端计算设备处的可用计算资源和(ii)网络的状况来确定一组操作参数,其中所述客户端计算设备和服务器计算设备被配置用于经由网络彼此进行通信;
基于所述一组操作参数选择多个人工神经网络(ANN)中的一个,每个人工神经网络定义处理任务的哪些部分将由所述客户端计算设备执行以及处理任务的哪些部分将由所述服务器计算设备执行;
根据选定的人工神经网络协调处理任务在所述客户端和所述服务器计算设备之间的处理;
由所述客户端计算设备获得与处理任务的最终评估相对应的最终处理结果;和
由所述客户端计算设备基于最终处理结果来生成输出。
12.根据权利要求11所述的计算系统,其中每个人工神经网络定义所述处理任务的第一部分和第二部分,第一部分要在(ii)通过网络进行通信、使得客户端和服务器计算设备中的一个执行第二部分之前(i)由客户端和服务器计算设备中的另一个执行。
13.根据权利要求12所述的计算系统,其中所述客户端计算设备(i)选择选定的人工神经网络,(ii)执行所述处理任务的所述第一部分以获得所述中间处理结果,(iii)将所述中间处理结果发送到所述服务器计算设备,并且(iv)经由网络从所述服务器计算设备接收最终处理结果。
14.根据权利要求11、12或13所述的计算系统,其中所述数字媒体项目是音频文件或视频文件,并且其中所述处理任务是语音识别或语音转文本。
15.根据权利要求11、12或13所述的计算系统,其中所述数字媒体项目是图像文件或视频文件,并且其中所述处理任务是图像识别或文本识别。
16.根据权利要求12所述的计算系统,其中协调处理任务包括:
从所述客户端计算设备向所述服务器计算设备发送一组操作参数,其中所述一组操作参数的接收使得所述服务器计算设备(i)选择选定的人工神经网络并且(ii)执行所述处理任务的第一部分以获得中间处理结果;和
由所述客户端计算设备经由网络从所述服务器计算设备接收中间处理结果。
17.根据权利要求16所述的计算系统,其中所述客户端计算设备使用所述中间处理结果来执行所述处理任务的第二部分以获得所述最终处理结果。
18.根据权利要求16或17所述的计算系统,其中所述数字媒体项目是一串文本或文本文件,并且其中所述处理任务是文本转语音。
19.根据权利要求11至18中任一项所述的计算系统,其中,所述客户端计算设备处的可用计算资源包括(i)所述客户端计算设备的电池的充电量,(ii)所述客户端计算设备的处理能力水平中的至少一个。
20.根据权利要求11至18中任一项所述的计算系统,其中,所述客户端计算设备处的可用计算资源包括(i)所述客户端计算设备的电池的充电量,(ii)所述客户端计算设备的处理能力水平两者。
CN201680079046.4A 2016-03-28 2016-12-20 自适应人工神经网络选择技术 Pending CN108475214A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/082,653 US10878318B2 (en) 2016-03-28 2016-03-28 Adaptive artificial neural network selection techniques
US15/082,653 2016-03-28
PCT/US2016/067715 WO2017171949A1 (en) 2016-03-28 2016-12-20 Adaptive artificial neural network selection techniques

Publications (1)

Publication Number Publication Date
CN108475214A true CN108475214A (zh) 2018-08-31

Family

ID=57794365

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201680079046.4A Pending CN108475214A (zh) 2016-03-28 2016-12-20 自适应人工神经网络选择技术

Country Status (6)

Country Link
US (3) US10878318B2 (zh)
EP (2) EP3380939B1 (zh)
JP (1) JP6605742B2 (zh)
KR (2) KR102180994B1 (zh)
CN (1) CN108475214A (zh)
WO (1) WO2017171949A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111078284A (zh) * 2018-10-19 2020-04-28 中科寒武纪科技股份有限公司 运算方法、系统及相关产品
CN111124658A (zh) * 2018-10-31 2020-05-08 伊姆西Ip控股有限责任公司 用于处理目标数据的方法、设备和计算机程序产品
CN111385598A (zh) * 2018-12-29 2020-07-07 富泰华工业(深圳)有限公司 云端装置、终端装置及影像分类方法

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190279011A1 (en) * 2018-03-12 2019-09-12 Microsoft Technology Licensing, Llc Data anonymization using neural networks
EP3803712A4 (en) * 2018-06-08 2022-04-20 Nokia Technologies Oy APPARATUS, METHOD AND COMPUTER PROGRAM FOR SELECTING A NEURONAL NETWORK
US11386295B2 (en) 2018-08-03 2022-07-12 Cerebri AI Inc. Privacy and proprietary-information preserving collaborative multi-party machine learning
WO2020067592A1 (ko) * 2018-09-28 2020-04-02 한국과학기술원 컨텐츠 인지 신경망을 이용하여 실시간으로 적응형 비디오를 전송하는 방법 및 장치
US11556846B2 (en) * 2018-10-03 2023-01-17 Cerebri AI Inc. Collaborative multi-parties/multi-sources machine learning for affinity assessment, performance scoring, and recommendation making
CN111091182A (zh) * 2019-12-16 2020-05-01 北京澎思科技有限公司 数据处理方法、电子设备及存储介质
JP7475150B2 (ja) 2020-02-03 2024-04-26 キヤノン株式会社 推論装置、推論方法、及びプログラム
WO2021236529A1 (en) * 2020-05-18 2021-11-25 Intel Corporation Methods and apparatus to train a model using attestation data
US11948059B2 (en) * 2020-11-19 2024-04-02 International Business Machines Corporation Media capture device with power saving and encryption features for partitioned neural network
US20220237044A1 (en) * 2021-01-25 2022-07-28 Lenovo (Singapore) Pte. Ltd. Dynamic client/server selection for machine learning execution
JP7352600B2 (ja) * 2021-07-19 2023-09-28 ヤフー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP2023105469A (ja) * 2022-01-19 2023-07-31 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理システム、コンピュータ読み取り可能な記録媒体及び情報処理方法
CN115953771A (zh) * 2023-01-03 2023-04-11 北京百度网讯科技有限公司 文本图像处理方法、装置、设备和介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0574951A2 (en) * 1992-06-18 1993-12-22 Seiko Epson Corporation Speech recognition system
CN1151218A (zh) * 1994-06-03 1997-06-04 摩托罗拉公司 用于语音识别的神经网络的训练方法
CN1722230A (zh) * 2004-07-12 2006-01-18 惠普开发有限公司 语音识别任务的分配及其结果综合
CN1801323A (zh) * 2005-01-06 2006-07-12 台达电子工业股份有限公司 语音/语者识别系统的负载最佳化方法
CN1819576A (zh) * 2005-02-11 2006-08-16 国际商业机器公司 在客户机和服务器之间分配应用任务的方法以及应用服务系统
CN101730898A (zh) * 2005-06-23 2010-06-09 微软公司 采用神经网络的手写识别
US20150310290A1 (en) * 2014-04-29 2015-10-29 Google Inc. Techniques for distributed optical character recognition and distributed machine language translation
CN105095967A (zh) * 2015-07-16 2015-11-25 清华大学 一种多模态神经形态网络核

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0566015A3 (en) 1992-04-14 1994-07-06 Eastman Kodak Co Neural network optical character recognition system and method for classifying characters in amoving web
US5586215A (en) 1992-05-26 1996-12-17 Ricoh Corporation Neural network acoustic and visual speech recognition system
US5442730A (en) * 1993-10-08 1995-08-15 International Business Machines Corporation Adaptive job scheduling using neural network priority functions
US6633846B1 (en) 1999-11-12 2003-10-14 Phoenix Solutions, Inc. Distributed realtime speech recognition system
US9183351B2 (en) * 2000-05-30 2015-11-10 Vladimir Shusterman Mobile system with network-distributed data processing for biomedical applications
US7089178B2 (en) 2002-04-30 2006-08-08 Qualcomm Inc. Multistream network feature processing for a distributed speech recognition system
US20050129306A1 (en) * 2003-12-12 2005-06-16 Xianglin Wang Method and apparatus for image deinterlacing using neural networks
JP2010218307A (ja) 2009-03-17 2010-09-30 Hitachi Ltd 分散計算制御装置及び方法
JP5036791B2 (ja) 2009-11-19 2012-09-26 Necアクセステクニカ株式会社 データ処理システム、データ処理方法およびデータ処理プログラム
US8463025B2 (en) 2011-04-26 2013-06-11 Nec Laboratories America, Inc. Distributed artificial intelligence services on a cell phone
US20140201114A1 (en) 2011-08-15 2014-07-17 Nec Corporation Device of managing distributed processing and method of managing distributed processing
US9424255B2 (en) 2011-11-04 2016-08-23 Microsoft Technology Licensing, Llc Server-assisted object recognition and tracking for mobile devices
US9390370B2 (en) 2012-08-28 2016-07-12 International Business Machines Corporation Training deep neural network acoustic models using distributed hessian-free optimization
US20140375634A1 (en) * 2013-06-25 2014-12-25 Advanced Micro Devices, Inc. Hybrid client-server rendering with low latency in view
US9870537B2 (en) 2014-01-06 2018-01-16 Cisco Technology, Inc. Distributed learning in a computer network
US10127901B2 (en) * 2014-06-13 2018-11-13 Microsoft Technology Licensing, Llc Hyper-structure recurrent neural networks for text-to-speech
US20160034811A1 (en) * 2014-07-31 2016-02-04 Apple Inc. Efficient generation of complementary acoustic models for performing automatic speech recognition system combination
US20160328644A1 (en) * 2015-05-08 2016-11-10 Qualcomm Incorporated Adaptive selection of artificial neural networks
US20160364419A1 (en) * 2015-06-10 2016-12-15 Blackbird Technologies, Inc. Image and text data hierarchical classifiers
US10410096B2 (en) * 2015-07-09 2019-09-10 Qualcomm Incorporated Context-based priors for object detection in images
US10332506B2 (en) * 2015-09-02 2019-06-25 Oath Inc. Computerized system and method for formatted transcription of multimedia content
US20170076195A1 (en) * 2015-09-10 2017-03-16 Intel Corporation Distributed neural networks for scalable real-time analytics
US20170169358A1 (en) * 2015-12-09 2017-06-15 Samsung Electronics Co., Ltd. In-storage computing apparatus and method for decentralized machine learning

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0574951A2 (en) * 1992-06-18 1993-12-22 Seiko Epson Corporation Speech recognition system
CN1151218A (zh) * 1994-06-03 1997-06-04 摩托罗拉公司 用于语音识别的神经网络的训练方法
CN1722230A (zh) * 2004-07-12 2006-01-18 惠普开发有限公司 语音识别任务的分配及其结果综合
CN1801323A (zh) * 2005-01-06 2006-07-12 台达电子工业股份有限公司 语音/语者识别系统的负载最佳化方法
CN1819576A (zh) * 2005-02-11 2006-08-16 国际商业机器公司 在客户机和服务器之间分配应用任务的方法以及应用服务系统
CN101730898A (zh) * 2005-06-23 2010-06-09 微软公司 采用神经网络的手写识别
US20150310290A1 (en) * 2014-04-29 2015-10-29 Google Inc. Techniques for distributed optical character recognition and distributed machine language translation
CN105095967A (zh) * 2015-07-16 2015-11-25 清华大学 一种多模态神经形态网络核

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MICHAEL HSUEH: ""Interactive Text Recognition and Translation on a Mobile Device"", 《HTTPS://WWW2.EECS.BERKELEY.EDU/PUBS/TECHRPTS/2011/EECS-2011-57.HTML》 *
STEVEN Y. KO 等: ""Efficient on-demand operations in dynamic distributed infrastructures"", 《LADIS "08: PROCEEDINGS OF THE 2ND WORKSHOP ON LARGE-SCALE DISTRIBUTED SYSTEMS AND MIDDLEWARE》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111078284A (zh) * 2018-10-19 2020-04-28 中科寒武纪科技股份有限公司 运算方法、系统及相关产品
CN111078284B (zh) * 2018-10-19 2021-02-05 中科寒武纪科技股份有限公司 运算方法、系统及相关产品
CN111124658A (zh) * 2018-10-31 2020-05-08 伊姆西Ip控股有限责任公司 用于处理目标数据的方法、设备和计算机程序产品
CN111124658B (zh) * 2018-10-31 2023-09-29 伊姆西Ip控股有限责任公司 用于处理目标数据的方法、设备和计算机程序产品
CN111385598A (zh) * 2018-12-29 2020-07-07 富泰华工业(深圳)有限公司 云端装置、终端装置及影像分类方法

Also Published As

Publication number Publication date
EP3380939A1 (en) 2018-10-03
US20240119286A1 (en) 2024-04-11
US11847561B2 (en) 2023-12-19
JP6605742B2 (ja) 2019-11-13
WO2017171949A1 (en) 2017-10-05
KR20200131914A (ko) 2020-11-24
KR102180994B1 (ko) 2020-11-20
KR20180094024A (ko) 2018-08-22
EP4152154A1 (en) 2023-03-22
US20210081794A1 (en) 2021-03-18
JP2019510287A (ja) 2019-04-11
US20170277994A1 (en) 2017-09-28
KR102469261B1 (ko) 2022-11-22
EP3380939B1 (en) 2023-02-01
US10878318B2 (en) 2020-12-29

Similar Documents

Publication Publication Date Title
CN108475214A (zh) 自适应人工神经网络选择技术
KR102302609B1 (ko) 신경망 아키텍처 최적화
EP3711000B1 (en) Regularized neural network architecture search
US11295208B2 (en) Robust gradient weight compression schemes for deep learning applications
WO2022083536A1 (zh) 一种神经网络构建方法以及装置
US11861474B2 (en) Dynamic placement of computation sub-graphs
EP3523759B1 (en) Image processing neural networks with separable convolutional layers
WO2018102240A1 (en) Joint language understanding and dialogue management
KR20180063189A (ko) 선택적 역전파
WO2020160252A1 (en) Task-aware neural network architecture search
CN112465043B (zh) 模型训练方法、装置和设备
CN111989696A (zh) 具有顺序学习任务的域中的可扩展持续学习的神经网络
CN111695630A (zh) 一种图像识别模型的更新方法及相关设备
CN111428854A (zh) 一种结构搜索方法及结构搜索装置
CN115130711A (zh) 一种数据处理方法、装置、计算机及可读存储介质
CN109214515A (zh) 一种深度神经网络推理方法及计算设备
US20230229963A1 (en) Machine learning model training
CN113312445B (zh) 数据处理方法、模型构建方法、分类方法及计算设备
CN111406267B (zh) 使用性能预测神经网络的神经架构搜索
CN117851909B (zh) 一种基于跳跃连接的多循环决策意图识别系统及方法
EP4322064A1 (en) Method and system for jointly pruning and hardware acceleration of pre-trained deep learning models
Bezza et al. MOOA-CSF: A Multi-Objective Optimization Approach for Cloud Services Finding
CN114926856A (zh) 基于知识抗遗忘的地震幸存者识别方法及装置
CN116261729A (zh) 一种神经网络模型构建方法及其设备
CN115965069A (zh) 神经网络架构的优化方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination