CN114330722A - 推理实现方法、网络、电子设备及存储介质 - Google Patents
推理实现方法、网络、电子设备及存储介质 Download PDFInfo
- Publication number
- CN114330722A CN114330722A CN202111413826.7A CN202111413826A CN114330722A CN 114330722 A CN114330722 A CN 114330722A CN 202111413826 A CN202111413826 A CN 202111413826A CN 114330722 A CN114330722 A CN 114330722A
- Authority
- CN
- China
- Prior art keywords
- inference
- reasoning
- model
- data
- edge node
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/96—Management of image or video recognition tasks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明实施例涉及人工智能技术领域,公开了一种推理实现方法、网络、电子设备及存储介质。应用于边缘节点时,该方法包括:接收下级边缘节点和/或终端设备在推理失败的情况下发送的第一推理请求,第一推理请求携带待推理数据和推理类型;根据推理类型调用目标推理模型对待推理数据进行推理;在推理成功的情况下,将目标推理模型输出的推理结果返回给下级边缘节点和/或终端设备;在推理失败的情况下,根据待推理数据和推理类型生成第二推理请求,并将第二推理请求发送给上级边缘节点和/或云端节点,将上级边缘节点和/或云端节点返回的推理结果下发给下级边缘节点和/或终端设备。大大提高终端设备推理成功的概率和准确率,提升用户体验。
Description
技术领域
本发明实施例涉及人工智能技术领域,特别涉及一种推理实现方法、网络、电子设备及存储介质。
背景技术
终端设备要实现人工智能通常需要经过感知、推理等过程,例如机器人在需要抓取房间内的某个物体时,机器人通常需要调用自身或外设的一些传感器来采集房间内的图像,以感知当前环境进行感知,然后基于感知到的环境中障碍物的分布情况和目标抓取物体的位置进行推理,得到运动规划结果,然后按照运动规划结果进行执行,直到抓取目标物体,完成抓取任务。
然而,终端设备进行推理后,得到的结果不一定理想,例如当置信度较低时,终端会判定推理失败。而终端设备一旦推理失败,就会放弃相关任务,导致用户体验很差。
发明内容
本发明实施例的目的在于提供一种推理实现方法、网络、电子设备及存储介质,能够大大提高终端设备推理成功的概率和准确率,使得用户体验得到提升。
为达到上述目的,本发明的实施例提供了一种推理实现方法,应用于边缘节点,包括:接收下级边缘节点和/或终端设备在推理失败的情况下发送的第一推理请求,所述第一推理请求携带待推理数据和推理类型;根据所述推理类型调用相应的目标推理模型对所述待推理数据进行推理;在推理成功的情况下,将所述目标推理模型输出的推理结果返回给相应的所述下级边缘节点和/或所述终端设备;在推理失败的情况下,根据所述待推理数据和所述推理类型生成第二推理请求,并将所述第二推理请求发送给上级边缘节点和/或云端节点,将所述上级边缘节点和/或所述云端节点返回的推理结果下发给相应的所述下级边缘节点和/或所述终端设备。
为达到上述目的,本发明的实施例还提供了一种推理实现方法,应用于终端设备,包括:根据接收到的推理任务进行数据采集,得到待推理数据;根据所述推理任务的推理类型调用相应的目标推理模型对所述待推理数据进行推理;在推理失败的情况下,根据所述待推理数据和所述推理类型生成推理请求并将所述推理请求发送给边缘节点和/或云端节点,供所述边缘节点和/或云端节点根据所述推理请求返回推理结果。
为达到上述目的,本发明的实施例还提供了一种推理实现方法,应用于云端节点,包括:接收边缘节点和/或终端设备在推理失败的情况下发送的推理请求,所述推理请求携带待推理数据和推理类型;根据所述推理类型调用相应的目标推理模型对所述待推理数据进行推理;在推理成功的情况下,将所述目标推理模型输出的推理结果返回给所述边缘节点,供所述边缘节点将接收到的推理结果发送给终端设备,和/或,将所述目标推理模型输出的推理结果返回给所述终端设备;在推理失败的情况下,将推理失败响应返回给所述边缘节点,供所述边缘节点将接收到的推理失败响应发送给所述终端设备,和/或,将所述推理失败响应返回给所述终端设备。
为达到上述目的,本发明的实施例还提供了一种智能分发网络,所述智能分发网络包括一个云端节点、若干终端设备和若干边缘节点,所述边缘节点、所述终端设备和所述云端节点分别用于执行如上所述的推理实现方法。
为达到上述目的,本发明的实施例还提供了一种电子设备,包括:至少一个处理器;以及,与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上任一项所述的推理实现方法。
为达到上述目的,本发明的实施例还提供了一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时实现如上任一项所述的推理实现方法。
本发明实施例提供的推理实现方法,在终端设备推理失败的情况下,可以向边缘节点和/或云端节点发送推理请求,以便边缘节点和/或云端节点根据推理请求进行推理并返回推理结果,特别地,在边缘节点也推理失败的情况下,还可以继续向该边缘节点的上级边缘节点和/或云端中心节点发送理请求,以便上级边缘节点和/或云端节点根据推理请求进行推理并返回推理结果。也就是说,将推理划分为由低到高的终端设备、至少一个边缘节点和云端节点的多个层次,优先使用终端设备本体推理,辅助以边缘节点推理、云端节点推理进行补充,实现了多级智能,当前层次失败时可以向上一层次请求以在上一层次继续进行推理,直到推理成功,得到可执行的推理结果,大大提高终端设备推理成功的概率和准确率,提升了用户体验。并且逐级向上请求,避免了单一节点的处理压力过大,减少了上行带宽,加快了处理效率以及向下响应的速度。此外,相对于单一地依赖各个终端设备自身,还能够避免终端设备自身一旦推理失败就放弃执行任务的情况,并且由于可以依赖边缘节点或云端节点推理得到的推理结果来执行任务,边缘节点和云端节点的计算能力也会比终端设备更好,因此,任务的完成率更高、准确性也更高。
附图说明
一个或多个实施例通过与之对应的附图中的图片进行示例性说明,这些示例性说明并不构成对实施例的限定,附图中具有相同参考数字标号的元件表示为类似的元件,除非有特别申明,附图中的图不构成比例限制。
图1是本发明一实施例中提供的推理实现方法的流程图;
图2是本发明另一实施例中提供的推理实现方法的流程图;
图3是本发明另一实施例中提供的推理实现方法的流程图;
图4是本发明另一实施例中提供的推理实现方法的交互流程图;
图5是本发明另一实施例中提供的推理实现方法的交互流程图;
图6是本发明另一实施例中提供的推理实现方法的交互流程图;
图7是本发明另一实施例中提供的推理实现方法的交互流程图;
图8是本发明另一实施例中提供的智能分发网络的结构示意图;
图9是本发明另一实施例中提供的电子设备的结构示意图。
具体实施方式
由背景技术可知,目前的终端设备在进行推理时仅依赖于终端设备自身,一旦推理失败,就直接放弃执行任务,用户体验很差。
为解决上述问题,本发明实施例提供了一种推理实现方法,应用于边缘节点,包括:接收下级边缘节点和/或终端设备在推理失败的情况下发送的第一推理请求,所述第一推理请求携带待推理数据和推理类型;根据所述推理类型调用相应的目标推理模型对所述待推理数据进行推理;在推理成功的情况下,将所述目标推理模型输出的推理结果返回给相应的所述下级边缘节点和/或所述终端设备;在推理失败的情况下,根据所述待推理数据和所述推理类型生成第二推理请求,并将所述第二推理请求发送给上级边缘节点和/或云端节点,将所述上级边缘节点和/或所述云端节点返回的推理结果下发给相应的所述下级边缘节点和/或所述终端设备。
本发明实施例提供的推理实现方法,在终端设备推理失败的情况下,可以向边缘节点和/或云端节点发送推理请求,以便边缘节点和/或云端节点根据推理请求进行推理并返回推理结果,特别地,在边缘节点也推理失败的情况下,还可以继续向该边缘节点的上级边缘节点和/或云端中心节点发送推理请求,以便上级边缘节点和/或云端节点根据推理请求进行推理并返回推理结果。也就是说,将推理划分为由低到高的终端设备、至少一个边缘节点和云端节点的多个层次,优先使用终端设备本体推理,辅助以边缘节点推理、云端节点推理进行补充,实现了多级智能,当前层次失败时可以向上一层次请求以在上一层次继续进行推理,直到推理成功,得到可执行的推理结果,大大提高终端设备推理成功的概率和准确率,提升了用户体验。并且逐级向上请求,避免了单一节点的处理压力过大,减少了上行带宽,加快了处理效率以及向下响应的速度。此外,相对于单一地依赖各个终端设备自身,还能够避免终端设备自身一旦推理失败就放弃执行任务的情况,并且由于可以依赖边缘节点或云端节点推理得到的推理结果来执行任务,边缘节点和云端节点的计算能力也会比终端设备更好,因此,任务的完成率更高、准确性也更高。
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明的各实施例进行详细的阐述。然而,本领域的普通技术人员可以理解,在本发明各实施例中,为了使读者更好地理解本发明而提出了许多技术细节。但是,即使没有这些技术细节和基于以下各实施例的种种变化和修改,也可以实现本发明所要求保护的技术方案。
以下各个实施例的划分是为了描述方便,不应对本发明的具体实现方式构成任何限定,各个实施例在不矛盾的前提下可以相互结合相互引用。
本发明实施例一方面提供了一种推理实现方法,应用于边缘节点,其流程如图1所示。
步骤101,接收下级边缘节点和/或终端设备在推理失败的情况下发送的第一推理请求,第一推理请求携带待推理数据和推理类型。
本实施例不对待推理数据和推理类型进行限定,待推理数据可以是以下数据中的一种或组合:音频数据、视频数据、文本数据、图像数据等,推理类型可以识别、定位、路径规划等,特别地,本实施例也不对待推理数据的格式进行限定,如图像数据可以是灰色图像、深度图像或彩色图像等,音频可以是AIFF(Audio Interchange File Format)格式或MIDI(Musical Instrument Digital Interface)格式等,此处就不再一一赘述了。
并且,本实施例中的推理失败是指推理模型输出的结果出现以下情形:推理结果不可被执行、推理结果的置信度低于预设置信度阈值或者根据推理结果预估的任务成功率低于预设成功率等。
特别地,推理类型还可以进一步限定到模型类型,如用于识别的推理模型可以有人脸识别模型、物体识别模型等,人脸识别模型可以进一步分为FaceNet网络模型、多任务卷积神经网络(Multi-Task Convolutional Neural Network,MTCNN)等。
可以理解的是,下级边缘节点、终端设备等能够与本边缘节点之间建立通信连接。当下级边缘节点、终端设备等推理失败的情况下,不会直接放弃执行相关任务,而是向上级节点即本边缘节点,发送第一推理请求,以请求本边缘节点进行推理,边缘节点在接收到第一推理请求后,对第一推理请求进行解析,得到待推理数据和推理类型。
需要说明的是,本实施例中的边缘节点是除终端设备和云端节点之外的所有节点,而不仅仅包括与终端设备之间具有通信链路的节点。
还需要说明的是,本实施例不对下级边缘节点以及终端设备的数量进行限定,可以是一个或多个,即可以接收来自一个或多个下级边缘节点分别发送的第一推理请求,也可以接收来自一个或多个下级边缘节点分别发送的第一推理请求,还可以接收来自至少一个下级边缘节点和至少一个终端设备分别发送的第一推理请求,特别地,一个下级边缘节点或一个终端设备也可以同时发送多个第一推理请求,这些推理请求的待推理数据和推理类型可以相同也可以不同。此处也不再一一赘述了。
步骤102,根据推理类型调用相应的目标推理模型对待推理数据进行推理。
本实施例中,边缘节点中已存储有若干训练好的推理模型,这些推理模型包括若干推理类型的至少一个推理模型,如边缘节点中存储有2个用于识别的推理模型、3个用于路径规划的推理模型。
在一些例子中,根据推理类型调用相应的目标推理模型对待推理数据进行推理可以通过如下方式实现:根据推理类型在已存储的推理模型中进行匹配;在匹配成功的情况下,将匹配到的推理模型作为目标推理模型并将待推理数据输入到目标推理模型中,特别地,可能根据推理模型匹配到至少两个推理模型,此时,各个推理模型还携带优先级标签,将匹配到的推理模型作为所述目标推理模型,包括:将优先级标签指示的优先级最高的推理模型作为目标推理模型;在匹配失败的情况下,根据推理类型向上级边缘节点和/或云端节点请求推理模型,上级边缘节点和/或云端节点在接收到请求后,根据推理类型从自身当前已存储的推理模型中查找相应的推理模型并下发,而边缘节点在接收到上级边缘节点和/或云端节点返回的推理模型后,将上级边缘节点和/或云端节点返回的推理模型作为目标推理模型并将待推理数据输入到目标推理模型中,可以理解的是,上级边缘节点和/或云端节点返回的推理模型的数量为1,即当上级边缘节点和/或云端节点查找出1个推理模型时,下发该推理模型;当上级边缘节点和/或云端节点查找出若干推理模型时,选择优先级最高的推理模型下发,而不是查找到的所有推理模型,减少下发推理模型时使用的流量,避免边缘节点存储过多推理模型占用内存而影响系统性能。
需要说明的是,上述例子中的优先级标签是根据推理模型被存储的时长和/或推理模型的准确率设置的,其中,优先级标签指示的是属于同一推理类型的推理模型之间的优先级,而不是所有已存储的推理模型的优先级。例如,按照预设的周期对已存储的推理模型的准确率等因素进行评估,将某个或某些准确率低于预设阈值的推理模型的优先级降低,此时,还可以继续向上级边缘节点和/或云端节点请求优先级被降低的推理模型所属推理类型的新的推理模型,而上级边缘节点和/或云端节点返回的新的推理模型将会被设置有更高的优先级,而当推理模型的优先级超过预设优先级时,则判定该推理模型失效并删除该推理模型;或者,实时检测已存储的推理模型的已被存储的时长是否超过预设时长阈值,将超过预设时长阈值的推理模型的优先级降低等。
可以理解的是,为了避免存储过多的推理模型而影响系统性能,还可以检测推理模型是否不会被调用或调用输出的结果不可靠,即检测是否失效,以便删除失效的推理模型。因此,推理实现方法还包括:根据预设的失效条件检测已存储的推理模型是否失效;失效条件包括已存储时间超过预设的有效时长和/或准确率低于预设阈值;在检测到至少一个已存储的推理模型失效的情况下,删除失效的推理模型。例如可以检测已存储的推理模型的生存时间值(Time To Live,TTL)是否为0,认定TTL为0的推理模型失效;或者,检测已存储的推理模型的是否较长时间内未被使用,认定较长时间内未被使用的推理模型失效;或者,检测推理模型的准确率较低,认定准确率较低的推理模型失效。当然,以上仅为具体的距离说明,实际还可以认定优先级低于某一级别的推理模型失效、按照优先级由高到低进行排序的情况下认定位于前N(N为正整数)个之外的推理模型失效等,此处就不再一一赘述了。
还需要说明的是,已存储的推理模型可以是边缘节点向上级边缘节点和/或云端节点请求的,还可以是上级边缘节点和/或云端节点主动下发的,因此,推理实现方法还包括:接收上级边缘节点和/或所述云端节点主动下发的推理模型并存储,其中,主动下发可以是周期性主动下发,也可以设置一些触发条件,如某一推理类型的推理模型中至少两个最新的推理模型均未下发过或者接收到管理者的下发指令等。类似地,边缘节点还会主动向下级边缘节点和/或终端设备下发已存储的推理模型中优先级最高的推理模型,因此,推理实现方法还包括:向下级边缘节点和/或终端设备主动下发推理模型。
步骤103,检测推理是否成功,若是,执行步骤104,若否,执行步骤105。
如步骤101中对推理失败的说明,检测推理是否成功可以通过检测推理模型输出的结果,即推理结果是否可执行、置信度是否高于预设置信度阈值并且根据推理结果预估的任务成功率是否高于预设成功率等,即检测推理结果是否能够以较高的成功率执行。
步骤104,将目标推理模型输出的推理结果返回给相应的下级边缘节点和/或终端设备。
在一些例子中,根据所述推理类型调用相应的目标推理模型对所述待推理数据进行推理之后,推理实现方法还包括:在推理成功的情况下,将待推理数据的特征信息上报给所述上级边缘节点和/或所述云端节点,以在云端节点根据待推理数据的特征信息离线训练推理模型。
可以理解的是,在云端节点离线训练推理模型的情况下,云端节点期望接收到尽量多的用于训练的特征数据,因此,在另一些例子中,推理实现方法还包括:接收下级边缘节点和/或终端设备在推理成功的情况下发送的待推理数据的特征信息;将待推理数据的特征信息发送给上级边缘节点和/或云端节点。从而能够为云端节点的推理模型训练构建容量尽量大的训练集,提高推理模型的准确性。其中,待推理数据的特征信息可以设置一个特征提取模型进行特征提取得到,也可以是推理模型在进行推理的过程中提取出来的,本实施例不对特征信息的获取方式进行限定。
步骤105,根据待推理数据和推理类型生成第二推理请求,并将第二推理请求发送给上级边缘节点和/或云端节点,将上级边缘节点和/或云端节点返回的推理结果下发给相应的下级边缘节点和/或终端设备。
需要说明的是,本实施例中的“第一推理请求”、“第二推理请求”是为了对边缘节点接收到的推理请求和发送出去的推理请求进行区分,即第一推理请求指示边缘节点接收到的推理请求,第二推理请求指示边缘节点发送出去的推理请求,而不对推理请求构成来自终端设备还是边缘节点等的限定。
本发明实施例另一方面还提供了一种推理实现方法,应用于终端设备,其中终端设备可以是机器人、手机、计算机等用户侧的电子设备,其流程如图2所示。
步骤201,根据接收到的推理任务进行数据采集,得到待推理数据。
本实施例提供的推理实现方法与第一个方法实施例提供的推理实现方法大致相同,以下主要对不同的部分进行说明。
本实施例中,终端设备会接收到来自用户的控制指令,如机器人会接受到用户控制终端或者机器人供应商的云平台等设备的指令,指示机器人执行任务,如物体识别、路径规划等,此时,机器人完成指令指示的任务需要经过感知、推理和执行三个过程,数据采集就是通过调用相关的传感器来对环境等进行感知,以便根据感知到的信息进行推理,因此,采集到的数据即为待推理数据,待推理数据也是推理模型的输入;当用户通过操作鼠标启动某个程序对用户上传的图片进行物体识别时,计算机加载图片来感知图片并运行相关程序,对图片中的物体进行识别等,此处就不再一一赘述了。
步骤202,根据推理任务的推理类型调用相应的目标推理模型对待推理数据进行推理。
在一些例子中,根据推理任务的推理类型调用相应的目标推理模型对待推理数据进行推理,可以通过如下方式实现:根据推理类型在已存储的推理模型中进行匹配;在匹配成功的情况下,将匹配到的推理模型作为目标推理模型并将待推理数据输入到目标推理模型中;在匹配失败的情况下,根据推理类型向边缘节点和/或云端节点请求推理模型,将边缘节点和/或云端节点返回的推理模型作为目标推理模型并将待推理数据输入到标推理模型中。
匹配到的推理模型可能有多个,具体地说,匹配到的推理模型包括多个携带优先级标签的推理模型,此时,将匹配到的推理模型作为目标推理模型,包括:将优先级标签指示的优先级最高的推理模型作为目标推理模型。其中,优先级标签是根据推理模型被存储的时长和/或推理模型的准确率设置的。
需要说明的是,已存储的推理模型包括向上级边缘节点请求的推理模型以及上级边缘节点主动下发的推理模型。因此,在另一些例子中,推理实现方法还包括:接收边缘节点和/或云端节点主动下发的推理模型并存储。
还需要说明的是,为了避免存储的模型过多而影响终端设备的运行,因此,还会对已存储的推理模型进行检测,确定是否存在失效的推理模型,进而可以删除已失效的推理模型。因此,在另一些例子中,推理实现方法还包括:根据预设的失效条件检测已存储的推理模型是否失效;失效条件包括已存储时间超过预设的有效时长和/或准确率低于预设阈值;在检测到至少一个已存储的推理模型失效的情况下,删除失效的推理模型。
步骤203,检测推理是否成功,若是,执行步骤204,若否,执行步骤205。
步骤204,将待推理数据的特征信息经过边缘节点上报给云端节点,或者,将待推理数据的特征信息发送给云端节点,供云端节点根据接收到的待推理数据的特征信息离线训练推理模型。
可以理解的是,终端节点可能是与云端节点直接通信连接,也可能是通过至少一个边缘节点与云端节点连接,如终端节点与边缘节点通信连接,边缘节点与云端节点通信连接。相应地,本实施例中,终端节点可能先将待推理数据的特征信息发送给边缘节点,边缘节点接收后会直接向上级边缘节点或/云端节点转发接收到的待推理数据的特征信息,直到云端节点接收到该特征信息,终端节点也可能直接将待推理数据的特征信息发送给云端节点。
步骤205,根据待推理数据和推理类型生成推理请求并将推理请求发送给边缘节点和/或云端节点,供边缘节点和/或云端节点根据推理请求返回推理结果。
需要说明的是,边缘节点返回的推理结果不一定是接收到推理请求的边缘节点进行推理得到的结果,还可能是该边缘节点的上级边缘节点或云端节点进行推理得到的结果,同样也会经由该边缘节点反馈回来。
本发明实施例另一方面还提供了一种推理实现方法,应用于云端节点,其流程如图3所示。
步骤301,接收边缘节点和/或终端节点在推理失败的情况下发送的推理请求,推理请求携带待推理数据和推理类型。
本实施例提供的推理实现方法与第一个方法实施例提供的推理实现方法大致相同,以下主要对不同的部分进行说明。
步骤302,根据推理类型调用相应的目标推理模型对待推理数据进行推理。
在一些例子中,根据推理类型调用相应的目标推理模型对待推理数据进行推理,可以通过如下方式实现:根据推理类型在已存储的推理模型中进行匹配;将匹配到的推理模型作为标推理模型并将待推理数据输入到目标推理模型中。特别地,匹配到的推理模型可能有多个,即匹配到的推理模型包括多个携带优先级标签的推理模型,此时,将匹配到的推理模型作为目标推理模型,包括:将先级标签指示的优先级最高的推理模型作为目标推理模型。其中,优先级标签是根据推理模型的生成时间和/或推理模型的准确率设置的。
此外,为了避免存储过多不会被调用或者调用时输出结果不理想的推理模型,还需要检测已存储的推理模型是否失效,以便删除失效的推理模型,释放存储空间,避免影响系统性能。因此,在另一些例子中,推理实现方法还包括:根据预设的失效条件检测已存储的推理模型是否失效;失效条件包括已存储时间超过预设的有效时长和/或准确率低于预设阈值;在检测到至少一个已存储的推理模型失效的情况下,删除失效的推理模型。
步骤303,检测推理是否成功,若是,执行步骤304,若否,执行步骤305。
步骤304,将目标推理模型输出的推理结果返回给边缘节点,供边缘节点将接收到的推理结果发送给终端设备,和/或,将目标推理模型输出的推理结果返回给终端设备。
步骤305,将推理失败响应返回给边缘节点,供边缘节点将接收到的推理失败响应发送给终端设备,和/或,将推理失败响应返回给终端设备。
可以理解的是,为了让云端节点能够构建容量尽量大的训练推理模型的训练集,在推理成功的情况下,边缘节点和终端设备均会向上传输推理成功的待推理数据的特征信息,直到云端节点接收到该特征信息,因此,在一些例子中,推理实现方法还包括:接收边缘节点和/或终端设备在推理成功的情况下发送的待推理数据的特征信息。
进而,云端节点还会根据接收到的推理数据及其特征信息进行推理模型训练,因此,在另一些例子中,推理实现方法还包括:根据预设时长内接收到的属于不同推理类别的推理数据和/或推理数据的特征信息离线训练推理模型,得到不同推理类别的推理模型。例如约定在每个月的第一天进行推理模型训练,训练过程包括,对上个月接收到的待推理数据及其特征按照推理类型进行划分,得到各种推理类型对应的训练数据,其中,待推理数据还需要进一步仅特征提取以便得到特征信息,然后利用特征信息按照预定义的初始模型进行训练,特别地,每个推理类型可以采用多种训练方式、多种初始模型训练,得到多个推理模型,此处就不再一一赘述了。
可以理解的是,为了帮助边缘节点、终端设备能够更好地进行推理,需要为边缘节点、终端提供更新后的推理模型,避免出现推理模型由于不太新、训练数据滞后,不能够适应当前的推理任务,导致推理总是出错而导致大部分推理处理压力均集中在云端节点上的问题,因此,在另一些例子中,推理实现方法还包括:向边缘节点和/或终端设备主动下发推理模型。
为了便于本领域技术人员更好地理解上述方法实施例提供的推理实现方法,以下将以识别场景且终端设备为机器人为例,对终端设备、边缘节点以及云端节点在不同的层次上推理成功时的执行过程进行说明。
在机器人本体推理成功的场景下,如图4所示,推理实现方法包括:
步骤401,机器人根据用户下发的识别指令对目标区域进行拍摄,得到目标图像。
步骤402,机器人从已存储的推理模型中匹配出用于物体识别的推理模型并将匹配到的推理模型中优先级最高的推理模型作为目标推理模型。
步骤403,机器人调用目标推理模型处理目标图像,得到目标图像中目标物体的名称及置信度。
步骤404,在根据置信度判定识别成功的情况下,机器人向边缘节点发送目标图像的特征信息。
步骤405,边缘节点将接收到的目标图像的特征信息转发给云端节点。
步骤406,云端节点存储目标图像的特征信息。
在机器人本体推理失败且边缘节点推理成功的场景下,如图5所示,推理实现方法包括:
步骤501,机器人根据用户下发的识别指令对目标区域进行拍摄,得到目标图像。
步骤502,机器人从已存储的推理模型中匹配出用于物体识别的一个推理模型并将匹配到的推理模型作为第一目标推理模型。
步骤503,机器人调用目标推理模型处理目标图像,得到目标图像中目标物体的第一名称及第一置信度。
步骤504,在根据第一置信度判定识别失败的情况下,机器人向边缘节点发送第一推理请求,第一推理请求携带目标图像和指示推理类型为物体识别的信息。
步骤505,边缘节点接收第一推理请求并解析出目标图像和指示推理类型为物体识别的信息。
步骤506,边缘节点从已存储的推理模型中匹配出用于物体识别的推理模型并将匹配到的推理模型中优先级最高的推理模型作为第二目标推理模型。
步骤507,边缘节点调用第二目标推理模型处理目标图像,得到目标图像中目标物体的第二名称及第二置信度。
步骤508,在根据第二置信度判定识别成功的情况下,边缘节点向上级边缘节点发送目标图像的特征信息。
步骤509,上级边缘节点将接收到的目标图像的特征信息转发给云端节点。
步骤510,云端节点接收并存储目标图像的特征信息。
步骤511,边缘节点将目标物体的第二名称转发给机器人。
在机器人本体失败且边缘节点匹配目标推理模型失败的场景下,如图6所示,推理实现方法包括:
步骤601,机器人根据用户下发的识别指令对目标区域进行拍摄,得到目标图像。
步骤602,机器人从已存储的推理模型中匹配出用于物体识别的一个推理模型并将匹配到的推理模型作为第一目标推理模型。
步骤603,机器人调用目标推理模型处理目标图像,得到目标图像中目标物体的第一名称及第一置信度。
步骤604,在根据第一置信度判定识别失败的情况下,机器人向边缘节点发送第一推理请求,第一推理请求携带目标图像和指示推理类型为物体识别的信息。
步骤605,边缘节点接收第一推理请求并解析出目标图像和指示推理类型为物体识别的信息。
步骤606,边缘节点从已存储的推理模型中匹配出用于物体识别的推理模型。
步骤607,在匹配失败的情况下,边缘节点向云端节点请求用于物体识别的推理模型。
步骤608,云端节点在接收到请求模型的请求后,将优先级最高的用于物体识别的推理模型下发给边缘节点。
步骤609,边缘节点调用云端节点返回的推理模型处理目标图像,得到目标图像中目标物体的第二名称及第二置信度。
步骤610,在根据第二置信度判定识别成功的情况下,边缘节点向云端节点发送目标图像的特征信息。
步骤611,云端节点接收并保存目标图像的特征信息。
步骤612,边缘节点向机器人发送第二名称。
在机器人本体以及边缘节点均匹配目标推理模型失败的场景下,如图7所示,推理实现方法包括:
步骤701,机器人根据用户下发的识别指令对目标区域进行拍摄,得到目标图像。
步骤702,机器人从已存储的推理模型中匹配出用于物体识别的推理模型。
步骤703,在匹配失败的情况下,机器人向边缘节点请求用于物体识别的推理模型。
步骤704,边缘节点在接收到机器人发送的请求后,从已存储的推理模型中匹配用于物体识别的推理模型。
步骤705,在匹配失败的情况下,边缘节点向云端节点请求用于物体识别的推理模型。
步骤706,云端节点在接收到边缘节点发送的请求后,从已存储的推理模型中匹配出优先级最高的用于物体识别的推理模型。
步骤707,云端节点将匹配到的推理模型下发给边缘节点。
步骤708,边缘节点将接收到的推理模型转发给机器人。
步骤709,机器人调用接收到的推理模型处理目标图像,得到目标图像中目标物体的名称及置信度。
步骤710,在根据置信度判定识别成功的情况下,机器人向边缘节点发送目标图像的特征信息。
步骤711,边缘节点将接收到的目标图像的特征信息转发给云端节点。
步骤712,云端节点接收并保存目标图像的特征信息。
需要说明的是,以上仅为具体举例说明,在其他例子中,机器人还可以通过边缘节点、上级边缘节点以及上上级边缘节点将特征信息发送给云端节点。此外,上述例子中并未涉及主动下发推理模型、推理模型训练、云端节点接收机器人采集的数据而不是特征信息、机器人直接与云端通信连接以便直接向云端节点上传待推理数据的特征信息或直接向云端节点请求推理模型等场景,在其他例子中,机器人、边缘节点等还接收上级节点下发的推理模型;机器人、各级边缘节点均推理失败,目标图像将被传输至云端节点以进行推理,云端节点在推理成功的情况下,向各级边缘节点和机器人反馈推理结果,在推理不成功的情况下,向各级边缘节点和机器人反馈推理失败的响应;云端节点还根据接收到的各种目标图像训练推理模型等,此处就不再一一赘述了。
上面各种方法的步骤划分,只是为了描述清楚,实现时可以合并为一个步骤或者对某些步骤进行拆分,分解为多个步骤,只要包括相同的逻辑关系,都在本专利的保护范围内;对算法中或者流程中添加无关紧要的修改或者引入无关紧要的设计,但不改变其算法和流程的核心设计都在该专利的保护范围内。
本发明实施例另一方面还提供了一种智能分发网络,如图8所示,包括:一个云端节点、若干终端设备和若干边缘节点。
其中,云端节点用于接收边缘节点和/或终端设备在推理失败的情况下发送的推理请求,推理请求携带待推理数据和推理类型;根据推理类型调用相应的目标推理模型对待推理数据进行推理;在推理成功的情况下,将目标推理模型输出的推理结果返回给边缘节点,供边缘节点将接收到的推理结果发送给终端设备,和/或,将目标推理模型输出的推理结果返回给终端设备;在推理失败的情况下,将推理失败响应返回给边缘节点,供边缘节点将接收到的推理失败响应发送给终端设备,和/或,将推理失败响应返回给终端设备。终端设备用于根据接收到的推理任务进行数据采集,得到待推理数据;根据推理任务的推理类型调用相应的目标推理模型对待推理数据进行推理;在推理失败的情况下,根据待推理数据和推理类型生成推理请求并将推理请求发送给边缘节点和/或云端节点,供边缘节点和/或云端节点根据推理请求返回推理结果。边缘节点用于接收下级边缘节点和/或终端设备在推理失败的情况下发送的第一推理请求,第一推理请求携带待推理数据和推理类型;根据推理类型调用相应的目标推理模型对待推理数据进行推理;在推理成功的情况下,将目标推理模型输出的推理结果返回给相应的下级边缘节点和/或终端设备;在推理失败的情况下,根据待推理数据和推理类型生成第二推理请求,并将第二推理请求发送给上级边缘节点和/或云端节点,将上级边缘节点和/或云端节点返回的推理结果下发给相应的下级边缘节点和/或终端设备。
由此不难看出,智能分发网络实际是一个集中训练、分布式推理的网络,由云端中心,及中心节点进行推理模型的训练,将待推理数据、各级边缘节点或终端设备上传的待推理数据的特征信息集中到云端节点以在云端节点训练各类推理模型,而各级边缘节点和终端设备存储的推理模型来自于上级节点下发或主动向上级节点请求,在进行推理时,一旦当前节点推理失败,则向上级节点发送推理请求,直到请求被传达至云端节点,即优先使用终端设备本体识别,辅助以边缘识别、云端识别为补充的方式,以实现多级智能;提升了识别准确率以及响应速度,同时通过逐级处理减少了上行带宽,最终实现用户体验的提升。
此外,相对于内容分发网络(Content Delivery Network,CDN),智能分发网络能够实现智能的推理模型进行管理,且数据传输过程中分发的是智能应用镜像、应用运行配置管理以及应用关联数据的转移。更加复杂、更加灵活多变;并且通过智能分发网络,可以快速地将云端智能下沉到边缘,还可以快速的将边缘的智能转移至云端,使得特定智能可以更加自由、更加高效地运行在整个智能分发网络中,打破了云边端的应用鸿沟,还能够将云端智能下沉到边缘来换取带宽节省、降低时延,将边缘的智能转移至云端来换取更强的处理性能、更大的数据集合和数据共享,实现更高效的智能;以及,智能分发网络以终端设备为源点,自下而上的网络流量占据主要,考虑到智能机器的平均上行网络流量是平均下行网络流量的10-100倍,因此,可以充分利用上行流量,提高推理效率,可以有效的降低骨干网上行带宽,达到提升骨干网带宽利用率并节省成本的目的。
不难发现,本实施例与方法实施例相对应,本实施例可与方法实施例互相配合实施。方法实施例中提到的相关技术细节在本实施例中依然有效,为了减少重复,这里不再赘述。相应地,本实施例中提到的相关技术细节也可应用在方法实施例中。
值得一提的是,通过将利用智能分发网络中的边缘节点对待推理数据进行处理,减少了上传到智能分发网络云端的上行骨干网络流量,节省了带宽;针对智能分发网络中终端设备处理能力不足的情况,将数据在智能分发网络中的各级边缘节点进行处理,而智能分发网络中的边缘节点不需要训练推理模型,减少了算力的消耗;并且智能分发网络中的云端节点通过集中的训练,获取到更充足的样本空间,利用智能分发网络云端更强大的算力,训练出来的模型的准确率更高;智能分发网络边缘节点动态从云端获取特征信息库,以保证使用最新的特征信息库的。
还值得一提的是,本实施例中所涉及到的各模块均为逻辑模块,在实际应用中,一个逻辑单元可以是一个物理单元,也可以是一个物理单元的一部分,还可以以多个物理单元的组合实现。此外,为了突出本发明的创新部分,本实施例中并没有将与解决本发明所提出的技术问题关系不太密切的单元引入,但这并不表明本实施例中不存在其它的单元。
本发明实施例另一方面还提供了一种电子设备,如图9所示,包括:至少一个处理器901;以及,与至少一个处理器901通信连接的存储器902;其中,存储器902存储有可被至少一个处理器901执行的指令,指令被至少一个处理器901执行,以使至少一个处理器901能够执行上述任一方法实施例所描述的推理实现方法。
其中,存储器902和处理器901采用总线方式连接,总线可以包括任意数量的互联的总线和桥,总线将一个或多个处理器901和存储器902的各种电路连接在一起。总线还可以将诸如外围设备、稳压器和功率管理电路等之类的各种其他电路连接在一起,这些都是本领域所公知的,因此,本文不再对其进行进一步描述。总线接口在总线和收发机之间提供接口。收发机可以是一个元件,也可以是多个元件,比如多个接收器和发送器,提供用于在传输介质上与各种其他装置通信的单元。经处理器901处理的数据通过天线在无线介质上进行传输,进一步,天线还接收数据并将数据传输给处理器901。
处理器901负责管理总线和通常的处理,还可以提供各种功能,包括定时,外围接口,电压调节、电源管理以及其他控制功能。而存储器902可以被用于存储处理器901在执行操作时所使用的数据。
本发明实施方式另一方面还提供了一种计算机可读存储介质,存储有计算机程序。计算机程序被处理器执行时实现上述任一方法实施例所描述的推理实现方法。
即,本领域技术人员可以理解实现上述实施例方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序存储在一个存储介质中,包括若干指令用以使得一个设备(可以是单片机,芯片等)或处理器(processor)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
本领域的普通技术人员可以理解,上述各实施例是实现本发明的具体实施例,而在实际应用中,可以在形式上和细节上对其作各种改变,而不偏离本发明的精神和范围。
Claims (26)
1.一种推理实现方法,其特征在于,应用于边缘节点,包括:
接收下级边缘节点和/或终端设备在推理失败的情况下发送的第一推理请求,所述第一推理请求携带待推理数据和推理类型;
根据所述推理类型调用相应的目标推理模型对所述待推理数据进行推理;
在推理成功的情况下,将所述目标推理模型输出的推理结果返回给相应的所述下级边缘节点和/或所述终端设备;
在推理失败的情况下,根据所述待推理数据和所述推理类型生成第二推理请求,并将所述第二推理请求发送给上级边缘节点和/或云端节点,将所述上级边缘节点和/或所述云端节点返回的推理结果下发给相应的所述下级边缘节点和/或所述终端设备。
2.根据权利要求1所述的推理实现方法,其特征在于,所述根据所述推理类型调用相应的目标推理模型对所述待推理数据进行推理,包括:
根据所述推理类型在已存储的推理模型中进行匹配;
在匹配成功的情况下,将匹配到的推理模型作为所述目标推理模型并将所述待推理数据输入到所述目标推理模型中;
在匹配失败的情况下,根据所述推理类型向所述上级边缘节点和/或所述云端节点请求推理模型,将所述上级边缘节点和/或所述云端节点返回的推理模型作为所述目标推理模型并将所述待推理数据输入到所述目标推理模型中。
3.根据权利要求2所述的推理实现方法,其特征在于,所述匹配到的推理模型包括多个携带优先级标签的推理模型,所述将匹配到的推理模型作为所述目标推理模型,包括:
将所述优先级标签指示的优先级最高的推理模型作为所述目标推理模型。
4.根据权利要求3所述的推理实现方法,其特征在于,所述优先级标签是根据推理模型被存储的时长和/或推理模型的准确率设置的。
5.根据权利要求1至4中任一项所述的推理实现方法,其特征在于,所述方法还包括:
接收所述上级边缘节点和/或所述云端节点主动下发的推理模型并存储;和/或,
向所述下级边缘节点和/或所述终端设备主动下发推理模型。
6.根据权利要求1至4中任一项所述的推理实现方法,其特征在于,所述方法还包括:
根据预设的失效条件检测已存储的推理模型是否失效;所述失效条件包括已存储时间超过预设的有效时长和/或准确率低于预设阈值;
在检测到至少一个已存储的推理模型失效的情况下,删除失效的推理模型。
7.根据权利要求1至4中任一项所述的推理实现方法,其特征在于,所述根据所述推理类型调用相应的目标推理模型对所述待推理数据进行推理之后,所述方法还包括:
在推理成功的情况下,将所述待推理数据的特征信息上报给所述上级边缘节点和/或所述云端节点,以在所述云端节点根据所述待推理数据的特征信息离线训练推理模型。
8.根据权利要求1至4中任一项所述的推理实现方法,其特征在于,所述方法还包括:
接收所述下级边缘节点和/或所述终端设备在推理成功的情况下发送的所述待推理数据的特征信息;
将所述待推理数据的特征信息发送给所述上级边缘节点和/或所述云端节点。
9.一种推理实现方法,其特征在于,应用于终端设备,包括:
根据接收到的推理任务进行数据采集,得到待推理数据;
根据所述推理任务的推理类型调用相应的目标推理模型对所述待推理数据进行推理;
在推理失败的情况下,根据所述待推理数据和所述推理类型生成推理请求并将所述推理请求发送给边缘节点和/或云端节点,供所述边缘节点和/或云端节点根据所述推理请求返回推理结果。
10.根据权利要求9所述的推理实现方法,其特征在于,所述根据所述推理任务的推理类型调用相应的目标推理模型对所述待推理数据进行推理,包括:
根据所述推理类型在已存储的推理模型中进行匹配;
在匹配成功的情况下,将匹配到的推理模型作为所述目标推理模型并将所述待推理数据输入到所述目标推理模型中;
在匹配失败的情况下,根据所述推理类型向所述边缘节点和/或所述云端节点请求推理模型,将所述边缘节点和/或所述云端节点返回的推理模型作为所述目标推理模型并将所述待推理数据输入到所述目标推理模型中。
11.根据权利要求10所述的推理实现方法,其特征在于,所述匹配到的推理模型包括多个携带优先级标签的推理模型,所述将匹配到的推理模型作为所述目标推理模型,包括:
将所述优先级标签指示的优先级最高的推理模型作为所述目标推理模型。
12.根据权利要求11所述的推理实现方法,其特征在于,所述优先级标签是根据推理模型被存储的时长和/或推理模型的准确率设置的。
13.根据权利要求9至12中任一项所述的推理实现方法,其特征在于,所述方法还包括:
接收所述边缘节点和/或所述云端节点主动下发的推理模型并存储。
14.根据权利要求9至12中任一项所述的推理实现方法,其特征在于,所述方法还包括:
根据预设的失效条件检测已存储的推理模型是否失效;所述失效条件包括已存储时间超过预设的有效时长和/或准确率低于预设阈值;
在检测到至少一个已存储的推理模型失效的情况下,删除失效的推理模型。
15.根据权利要求9至12中任一项所述的推理实现方法,其特征在于,所述根据所述推理任务的推理类型调用相应的目标推理模型对所述待推理数据进行推理之后,所述方法还包括:
在推理成功的情况下,将所述待推理数据的特征信息经过所述边缘节点上报给云端节点,或者,将所述待推理数据的特征信息发送给所述云端节点,供所述云端节点根据接收到的所述待推理数据的特征信息离线训练推理模型。
16.一种推理实现方法,其特征在于,应用于云端节点,包括:
接收边缘节点和/或终端设备在推理失败的情况下发送的推理请求,所述推理请求携带待推理数据和推理类型;
根据所述推理类型调用相应的目标推理模型对所述待推理数据进行推理;
在推理成功的情况下,将所述目标推理模型输出的推理结果返回给所述边缘节点,供所述边缘节点将接收到的推理结果发送给终端设备,和/或,将所述目标推理模型输出的推理结果返回给所述终端设备;
在推理失败的情况下,将推理失败响应返回给所述边缘节点,供所述边缘节点将接收到的推理失败响应发送给所述终端设备,和/或,将所述推理失败响应返回给所述终端设备。
17.根据权利要求16所述的推理实现方法,其特征在于,所述根据所述推理类型调用相应的目标推理模型对所述待推理数据进行推理,包括:
根据所述推理类型在已存储的推理模型中进行匹配;
将匹配到的推理模型作为所述目标推理模型并将所述待推理数据输入到所述目标推理模型中。
18.根据权利要求17所述的推理实现方法,其特征在于,所述匹配到的推理模型包括多个携带优先级标签的推理模型,所述将匹配到的推理模型作为所述目标推理模型,包括:
将所述优先级标签指示的优先级最高的推理模型作为所述目标推理模型。
19.根据权利要求18所述的推理实现方法,其特征在于,所述优先级标签是根据推理模型的生成时间和/或推理模型的准确率设置的。
20.根据权利要求16至19中任一项所述的推理实现方法,其特征在于,所述方法还包括:
向所述边缘节点和/或所述终端设备主动下发推理模型。
21.根据权利要求16至19中任一项所述的推理实现方法,其特征在于,所述方法还包括:
根据预设的失效条件检测已存储的推理模型是否失效;所述失效条件包括已存储时间超过预设的有效时长和/或准确率低于预设阈值;
在检测到至少一个已存储的推理模型失效的情况下,删除失效的推理模型。
22.根据权利要求16至19中任一项所述的推理实现方法,其特征在于,所述方法还包括:
接收所述边缘节点和/或所述终端设备在推理成功的情况下发送的所述待推理数据的特征信息。
23.根据权利要求22所述的推理实现方法,其特征在于,所述方法还包括:
根据预设时长内接收到的属于不同所述推理类别的所述推理数据和/或所述推理数据的特征信息离线训练推理模型,得到不同所述推理类别的推理模型。
24.一种智能分发网络,其特征在于,所述智能分发网络包括一个云端节点、若干终端设备和若干边缘节点,所述边缘节点用于执行如权利要求1至8中任一项所述的推理实现方法,所述终端设备用于执行如权利要求9至15中任一项所述的推理实现方法,所述云端节点用于执行如权利要求16至23中任一项所述的推理实现方法。
25.一种电子设备,其特征在于,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至8中任一项所述的推理实现方法,或者,执行如权利要求9至15中任一项所述的推理实现方法,或者,执行如权利要求16至23中任一项所述的推理实现方法。
26.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至8中任一项所述的推理实现方法,或者,实现如权利要求9至15中任一项所述的推理实现方法,或者,实现如权利要求16至23中任一项所述的推理实现方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111413826.7A CN114330722B (zh) | 2021-11-25 | 2021-11-25 | 推理实现方法、网络、电子设备及存储介质 |
PCT/CN2022/103001 WO2023093053A1 (zh) | 2021-11-25 | 2022-06-30 | 推理实现方法、网络、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111413826.7A CN114330722B (zh) | 2021-11-25 | 2021-11-25 | 推理实现方法、网络、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114330722A true CN114330722A (zh) | 2022-04-12 |
CN114330722B CN114330722B (zh) | 2023-07-11 |
Family
ID=81047601
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111413826.7A Active CN114330722B (zh) | 2021-11-25 | 2021-11-25 | 推理实现方法、网络、电子设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN114330722B (zh) |
WO (1) | WO2023093053A1 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114885028A (zh) * | 2022-05-25 | 2022-08-09 | 国网北京市电力公司 | 业务调度方法、装置及计算机可读存储介质 |
WO2023093053A1 (zh) * | 2021-11-25 | 2023-06-01 | 达闼科技(北京)有限公司 | 推理实现方法、网络、电子设备及存储介质 |
WO2024011922A1 (zh) * | 2022-07-13 | 2024-01-18 | 卡奥斯工业智能研究院(青岛)有限公司 | 基于区块链的人工智能推理系统 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180119905A (ko) * | 2017-04-26 | 2018-11-05 | 에스케이텔레콤 주식회사 | 분산형 클라우드 기반 어플리케이션 실행 시스템, 이에 적용되는 장치 및 장치의 동작 방법 |
CN109086789A (zh) * | 2018-06-08 | 2018-12-25 | 四川斐讯信息技术有限公司 | 一种图像识别方法及系统 |
CN110096996A (zh) * | 2019-04-28 | 2019-08-06 | 深圳前海达闼云端智能科技有限公司 | 生物信息识别方法、装置、终端、系统及存储介质 |
CN110390246A (zh) * | 2019-04-16 | 2019-10-29 | 江苏慧中数据科技有限公司 | 一种边云环境中的视频分析方法 |
CN112348172A (zh) * | 2020-11-13 | 2021-02-09 | 之江实验室 | 一种基于端边云架构的深度神经网络协同推理方法 |
CN113056035A (zh) * | 2021-03-11 | 2021-06-29 | 深圳华声医疗技术股份有限公司 | 基于云计算的超声图像处理方法和超声系统 |
CN113139660A (zh) * | 2021-05-08 | 2021-07-20 | 北京首都在线科技股份有限公司 | 模型推理方法、装置、电子设备及存储介质 |
CN113259359A (zh) * | 2021-05-21 | 2021-08-13 | 重庆紫光华山智安科技有限公司 | 一种边缘节点能力补充方法、系统、介质及电子终端 |
CN113344208A (zh) * | 2021-06-25 | 2021-09-03 | 中国电信股份有限公司 | 数据推理方法、装置及系统 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109543829A (zh) * | 2018-10-15 | 2019-03-29 | 华东计算技术研究所(中国电子科技集团公司第三十二研究所) | 在终端和云端上混合部署深度学习神经网络的方法和系统 |
CN111104954B (zh) * | 2018-10-26 | 2023-11-14 | 华为云计算技术有限公司 | 一种对象分类的方法与装置 |
US11017050B1 (en) * | 2020-04-01 | 2021-05-25 | Vmware Inc. | Hybrid quantized decision model framework |
CN112241719A (zh) * | 2020-10-23 | 2021-01-19 | 杭州卷积云科技有限公司 | 基于边云卷积神经网络级联的监控视频目标实时查询方法 |
CN112419401A (zh) * | 2020-11-23 | 2021-02-26 | 上海交通大学 | 一种基于云边协同与深度学习的飞机表面缺陷检测系统 |
CN112732450B (zh) * | 2021-01-22 | 2022-07-05 | 清华大学 | 端-边-云协同框架下的机器人知识图谱生成系统及方法 |
CN114330722B (zh) * | 2021-11-25 | 2023-07-11 | 达闼科技(北京)有限公司 | 推理实现方法、网络、电子设备及存储介质 |
-
2021
- 2021-11-25 CN CN202111413826.7A patent/CN114330722B/zh active Active
-
2022
- 2022-06-30 WO PCT/CN2022/103001 patent/WO2023093053A1/zh unknown
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180119905A (ko) * | 2017-04-26 | 2018-11-05 | 에스케이텔레콤 주식회사 | 분산형 클라우드 기반 어플리케이션 실행 시스템, 이에 적용되는 장치 및 장치의 동작 방법 |
CN109086789A (zh) * | 2018-06-08 | 2018-12-25 | 四川斐讯信息技术有限公司 | 一种图像识别方法及系统 |
CN110390246A (zh) * | 2019-04-16 | 2019-10-29 | 江苏慧中数据科技有限公司 | 一种边云环境中的视频分析方法 |
CN110096996A (zh) * | 2019-04-28 | 2019-08-06 | 深圳前海达闼云端智能科技有限公司 | 生物信息识别方法、装置、终端、系统及存储介质 |
CN112348172A (zh) * | 2020-11-13 | 2021-02-09 | 之江实验室 | 一种基于端边云架构的深度神经网络协同推理方法 |
CN113056035A (zh) * | 2021-03-11 | 2021-06-29 | 深圳华声医疗技术股份有限公司 | 基于云计算的超声图像处理方法和超声系统 |
CN113139660A (zh) * | 2021-05-08 | 2021-07-20 | 北京首都在线科技股份有限公司 | 模型推理方法、装置、电子设备及存储介质 |
CN113259359A (zh) * | 2021-05-21 | 2021-08-13 | 重庆紫光华山智安科技有限公司 | 一种边缘节点能力补充方法、系统、介质及电子终端 |
CN113344208A (zh) * | 2021-06-25 | 2021-09-03 | 中国电信股份有限公司 | 数据推理方法、装置及系统 |
Non-Patent Citations (1)
Title |
---|
薛峰;方维维;: "EdgeMI:资源受限条件下深度学习多设备协同推理", 现代计算机 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023093053A1 (zh) * | 2021-11-25 | 2023-06-01 | 达闼科技(北京)有限公司 | 推理实现方法、网络、电子设备及存储介质 |
CN114885028A (zh) * | 2022-05-25 | 2022-08-09 | 国网北京市电力公司 | 业务调度方法、装置及计算机可读存储介质 |
CN114885028B (zh) * | 2022-05-25 | 2024-01-23 | 国网北京市电力公司 | 业务调度方法、装置及计算机可读存储介质 |
WO2024011922A1 (zh) * | 2022-07-13 | 2024-01-18 | 卡奥斯工业智能研究院(青岛)有限公司 | 基于区块链的人工智能推理系统 |
Also Published As
Publication number | Publication date |
---|---|
WO2023093053A1 (zh) | 2023-06-01 |
CN114330722B (zh) | 2023-07-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114330722B (zh) | 推理实现方法、网络、电子设备及存储介质 | |
US10965554B2 (en) | Data processing method and related device, and system | |
US11425628B2 (en) | Method and system for achieving auto adaptive clustering in a sensor network | |
US20200034747A1 (en) | System and method for distributed learning | |
CN113132490A (zh) | 一种基于强化学习的MQTT协议QoS机制选择方案 | |
CN110738156B (zh) | 一种基于消息中间件的人脸识别系统及方法 | |
CN110795558B (zh) | 标签获取方法和装置、存储介质及电子装置 | |
CN113656164B (zh) | 任务执行方法、系统、电子设备及计算机存储介质 | |
CN111813529B (zh) | 数据处理方法、装置、电子设备及存储介质 | |
CN110647396A (zh) | 端云协同低功耗带宽受限智能应用实现方法 | |
CN103685402A (zh) | 远程控制资源的方法、服务器和任务发起设备 | |
CN113873033B (zh) | 一种具有容错功能的智能边缘计算网关平台 | |
US20230297885A1 (en) | Big data-based modular ai engine server and driving method of the same | |
CN112653717B (zh) | 一种多云协作分布式系统和应用分发的方法 | |
CN110138670B (zh) | 一种基于动态路径的负载迁移方法 | |
CN107707383B (zh) | 放通处理方法、装置、第一网元及第二网元 | |
US20220019871A1 (en) | Method for Adapting a Software Application Executed in a Gateway | |
CN111124866A (zh) | 一种语音交互的方法和装置 | |
CN109144746B (zh) | 一种gft训练系统的消息异步分发系统及方法 | |
WO2023213270A1 (zh) | 模型训练处理方法、装置、终端及网络侧设备 | |
KR102439056B1 (ko) | 노드 레이블링 방법 및 장치 | |
CN112398893B (zh) | 一种机器人处理数据的方法及机器人 | |
CN110943973B (zh) | 数据流分类方法及装置、模型训练方法及装置和存储介质 | |
WO2024038555A1 (ja) | システム、装置、方法、及び非一時的なコンピュータ可読媒体 | |
CN111026538B (zh) | 一种app生态系统建立、使用方法、装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |