CN110135591A - 一种基于深度学习的损失值优化方法及设备 - Google Patents

一种基于深度学习的损失值优化方法及设备 Download PDF

Info

Publication number
CN110135591A
CN110135591A CN201910411382.XA CN201910411382A CN110135591A CN 110135591 A CN110135591 A CN 110135591A CN 201910411382 A CN201910411382 A CN 201910411382A CN 110135591 A CN110135591 A CN 110135591A
Authority
CN
China
Prior art keywords
penalty values
target
target areas
sub
integrated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910411382.XA
Other languages
English (en)
Inventor
肖月庭
阳光
郑超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Digital Kun (beijing) Network Technology Co Ltd
Shukun Beijing Network Technology Co Ltd
Original Assignee
Digital Kun (beijing) Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Digital Kun (beijing) Network Technology Co Ltd filed Critical Digital Kun (beijing) Network Technology Co Ltd
Priority to CN201910411382.XA priority Critical patent/CN110135591A/zh
Publication of CN110135591A publication Critical patent/CN110135591A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度学习的损失值优化方法及设备,包括:获取目标影像;将所述目标影像划分成若干个目标区域;对所述若干个目标区域分别进行损失值的计算,得到每个目标区域对应的子损失值;将所述若干个目标区域中所有目标区域所对应的子损失值加以整合,得到整合结果;通过深度学习优化所述整合结果,得到所述目标影像的损失值。

Description

一种基于深度学习的损失值优化方法及设备
技术领域
本发明属于深度学习技术领域,涉及一种基于深度学习的损失值优化方法及设备。
背景技术
深度学习是机器学习研究中的一个领域,其动机在于建立、模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据,例如图像,声音和文本。深度学习中损失函数是整个网络模型的“指挥棒”,通过损失函数对预测样本和真实样本标记产生的误差反向传播指导网络参数学习。
损失函数(loss function)是用来估量模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常使用L(Y,f(x))来表示,损失函数越小,模型的鲁棒性就越好。损失函数是经验风险函数的核心部分,也是结构风险函数重要组成部分,损失函数的结果直接决定了网络的预测结果。
而一个机器学习模型选择哪种损失函数,通常是凭借经验而定的,没有什么特定的标准,在实践中,普通的损失函数,如:CE Loss函数或Dice Loss函数,在对结果进行预测时,是以整个结果为对象来估量模型的预测值f(x)与真实值Y的不一致程度,在实际预测中,整体对象中容易存在部分结果相较于其他部分的结果预测较差的,普通的损失函数优化较差的部分结果。
发明内容
本发明提供一种基于深度学习的损失值优化方法及设备,对损失函数进行优化,提高损失函数对模型估量的准确性。
本发明一方面提供一种基于深度学习的损失值优化方法,包括:获取目标影像;将所述目标影像划分成若干个目标区域;对所述若干个目标区域分别进行损失值的计算,得到每个目标区域对应的子损失值;将所述若干个目标区域中所有目标区域所对应的子损失值加以整合,得到整合结果;通过深度学习优化所述整合结果,得到所述目标影像的损失值。
在一种可实施方式中,将所述若干个目标区域中所有目标区域所对应的子损失值加以整合,包括:依据所述子损失值判断对应的目标区域是否为鲁棒区块;将所述若干个目标区域中除判断为鲁棒区块的目标区域之外的所有目标区域所对应的子损失值加以整合。
在一种可实施方式中,将所述若干个目标区域中所有目标区域所对应的子损失值加以整合,得到整合结果,包括:确定所述若干个目标区域中每个目标区域的权重;根据所确定的每个目标区域的权重对所述若干个目标区域中所有目标区域所对应的子损失值加以整合,得到整合结果。
在一种可实施方式中,所述整合结果为所述所有目标区域所对应的子损失值的乘积或和值。
在一种可实施方式中,所述将所述目标影像划分成若干个目标区域,包括:确定所述目标区域的第一方向;沿所述第一方向进行目标区域的划分,得到若干个目标区域;其中,所述若干个目标区域的大小相同或不同。
本发明另一方面提供一种基于深度学习的损失值优化设备,包括:获取模块:用于获取目标影像;划分模块:用于将所述目标影像划分成若干个目标区域;计算模块:用于对所述若干个目标区域分别进行损失值的计算,得到每个目标区域对应的子损失值;整合模块:用于将所述若干个目标区域中所有目标区域所对应的子损失值加以整合,得到整合结果;优化模块:用于通过深度学习优化所述整合结果,得到所述目标影像的损失值
在一种可实施方式中,所述整合模块,包括:鲁棒判断子模块:用于依据所述子损失值判断对应的目标区域是否为鲁棒区块;区域整合子模块:用于将所述若干个目标区域中除判断为鲁棒区块的目标区域之外的所有目标区域所对应的子损失值加以整合。
在一种可实施方式中,所述整合模块,包括:确定权重子模块:用于确定所述若干个目标区域中每个目标区域的权重;确定整合子模块:用于根据所确定的每个目标区域的权重对所述若干个目标区域中所有目标区域所对应的子损失值加以整合,得到整合结果。
在一种可实施方式中,所述整合结果为所述所有目标区域所对应的子损失值的乘积或和值。
在一种可实施方式中,所述划分模块包括:确定子模块:用于确定所述目标区域的第一方向;划分子模块:用于沿所述第一方向进行目标区域的划分,得到若干个目标区域;其中,所述若干个目标区域的大小相同或不同。
本发明提供的一种基于深度学习的损失值优化方法及设备,通过将目标影像分割形成若干的目标区域,然后对目标区域分别进行损失值计算,再将损失值进行整合,得到的整合结果能够将损失值进行放大,使其相较于通过一般损失函数计算的损失值更加远离预期,从而能够使机器继续进行深度学习以优化损失值,在损失值优化至满足预期时,输出的预测结果也会更加准确。
附图说明
图1示出了本发明实施例一种基于深度学习的损失值优化方法的流程示意图;
图2示出了本发明实施例一种基于深度学习的损失值优化设备的结构示意图。
具体实施方式
为使本发明的目的、特征、优点能够更加的明显和易懂,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而非全部实施例。基于本发明中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1示出了本发明实施例一种基于深度学习的损失值优化方法的流程示意图。
参见图1,本发明实施例一方面提供一种基于深度学习的损失值优化方法,包括:步骤101,获取目标影像;步骤102,将目标影像划分成若干个目标区域;步骤103,对若干个目标区域分别进行损失值的计算,得到每个目标区域对应的子损失值;步骤104,将若干个目标区域中所有目标区域所对应的子损失值加以整合,得到整合结果;步骤105,通过深度学习优化整合结果,得到目标影像的损失值。
本发明实施例提供的方法旨在提高损失函数的准确性,减少由于损失函数不准确导致的预测结果不准确的情况发生。具体的,本优化方法在实施过程中,首先依据步骤101使机器获取通过人工输入目标影像。然后依据步骤102,将目标影像进行划分,形成若干目标区域,此处划分得到的目标区域的形状可以不做限定,即不同目标区域的形状不需要一致,可根据实际情况进行划分,为了方便计算,本实施例设置为将目标影像划分成为若干互相平行的目标区域。同样的,划分得到的目标区域的大小和数量也可以不做限定,当目标区域划分数量较多时,能够使输出的损失值更加准确;当目标区域划分的数量较少时,在损失值计算过程中,能够相对的减少机器的运算压力。
完成目标区域划分后,进行步骤103,分别对划分得到的目标区域进行损失值的计算,得到对应每个目标区域的子损失值,在计算不同目标区域的子损失值时,为了使每个目标区域的子损失值都能够尽可能的准确,不同目标区域可根据其实际情况选择不同的损失函数进行计算。例如,不同的目标区域可根据实际情况选择CE Loss或Dice Loss的其中一种作为损失函数进行损失值的计算,从而提高每个目标区域计算得到的子损失值的准确性。
计算得到每个区域的子损失值之后,通过步骤104将子损失值进行整合,得到整合结果。整合结果即为目标影像的整体损失值。此时得到的损失值,比较将整体的目标影像通过损失函数直接进行损失值计算得到的损失值要更加精确,能够更加准确的评估实际预测结果与真实预测结果的差距。具体的,由多个目标区域整合得到的损失值相较于将整个目标影像直接求取损失值能够将损失值在数值上进行放大。
通过步骤101至步骤104,起到了放大损失值的作用,由于损失值放大,由损失值得到的结果还未达到设定的损失值目标。如此,在步骤105中,机器会继续进行深度学习,以达到使计算所得的损失值达到设定的损失值的目的,当机器的深度学习使损失值大到需求范围内时,机器可以将预测结果输出,此时的预测结果精准度较高。
输入的对象可以是任一种类的图片或文字。为了方便理解,以下提供一种场景实施例。当需要对冠状动脉血管图像进行模型预测时,设定输入对象为冠状动脉血管图像,当机器获取冠状动脉图像数据后,对冠状动脉图像数据进行模型预测,得到模型预测的预测结果和损失值。机器得到损失值的方法具体为,首先机器将冠状动脉图像数据进行分割,得到若干冠状动脉图像数据的目标区域,本实施例具体将冠状动脉图像数据分割成四块,分别记做分块1、分块2、分块3和分块4。将四个分块分别计算Loss,分别对应得到Loss1、Loss2、Loss3和Loss4。假设Loss1为0.1、Loss2为0.1、Loss3为0.6、Loss4为0.1,将子损失值通过相乘整合得到的整合结果为0.0006,损失值为1-0.0006=0.9994;当采用相加方式求取平均的方式整合得到整合结果时,整合结果为(0.1+0.1+0.6+0.1)/4=0.225,损失值为0.775;此处两种整合方式所得到的整合结果所求取的损失值均较大。由于得到的损失值较大,机器会重新对冠状动脉图像数据进行模型预测,并得到新的模型预测的预测结果和损失值。此处的损失值同样按照本发明提供的方法获得,直到损失值满足机器输出预测结果的要求。
本发明实施例还提供该场景的对比实施例对比说明,当需要对冠状动脉血管图像进行模型预测时,设定输入对象为冠状动脉血管图像,当机器获取冠状动脉图像数据后,对冠状动脉图像数据进行模型预测,得到模型预测的预测结果和损失值。此时,机器得到损失值的方法具体为对整个冠状动脉图像数据计算损失,同样假设Loss1为0.2、Loss2为0.2、Loss3为0.6、Loss4为0.2的情况下,机器对整个冠状动脉图像数据计算损失得到的结果为(0.1+0.1+0.6+0.1)/4=0.225。相较于上面的对比实施例,此处损失值结果要远小于本发明实施例提供的方法计算的损失值。如果按照对整个冠状动脉图像数据计算损失的方法进行损失值获得,会导致机器对预测结果的判定错误,由此输出的冠状动脉图像预测结果上,部分位置,即损失值较大的目标区域中容易出现血管断裂、血管不清晰等问题,影响了预测结果的准确性。
而通过分块对损失值进行计算,并整合损失值,得到的整合值会相较于整体计算大,使机器能够重新进行预测,以缩小损失值。在损失值较小的情况下输出的预测结果具有更好的完整性和准确性,提高预测结果的可信度。
本方法实施例在步骤104,将若干个目标区域中所有目标区域所对应的子损失值加以整合,包括:首先,依据所述子损失值判断对应的目标区域是否为鲁棒区块;然后,将所述若干个目标区域中除判断为鲁棒区块的目标区域之外的所有目标区域所对应的子损失值加以整合。
由于不同目标区域具有不同的子损失值,而部分目标区域的子损失值较小,即为鲁棒性较好,最终输出的损失值的影响较小,将其判断为鲁棒区块;在进行损失值计算的时候,可以不加入判断为鲁棒区块的目标区域,直接对未被判定为鲁棒区块的损失值进行计算。
具体的,以上述场景实施例进行说明,当分块1、分块2、分块3和分块4的子损失值分别为0.05、0.05、0.5、0.05时,可将分块1、分块2、分块4作为鲁棒区块舍弃,此时,得到的整合值为0.5,即损失值为1-0.5=0.5。同样假设的情况下,机器对整个目标影像计算损失得到的损失值为(0.05+0.05+0.5+0.05)/4=0.1625。将鲁棒区块舍弃,能够降低运算数据,提高运算效率。
本方法实施例,在步骤104,将若干个目标区域中所有目标区域所对应的子损失值加以整合,得到整合结果,包括:首先,确定所述若干个目标区域中每个目标区域的权重;然后,根据所确定的每个目标区域的权重对所述若干个目标区域中所有目标区域所对应的子损失值加以整合,得到整合结果。
根据目标影像内具体内容的重要性程度,本发明实施例采取对不同目标区域不同设置权重的方式调整不同子损失值在整合结果中所达到的占比,使重要的目标区域对损失值的印象程度加大,进而提高了目标影像中重要的目标区域的准确性。
以冠状动脉血管图像为例,可以将靠近主动脉部分的目标区域的权重设置为0.8,将远离主动脉部分的目标区域的权重设置为0.2。从而使冠状动脉靠近主动脉部分的子损失值的变化对整体损失值的影响加大,从而确保了在冠状动脉靠近主动脉部分的预测结果的准确性要高于冠状动脉远离主动脉部分的预测结果。例如,当假设目标影像包括重要目标区域和不重要目标区域,其中,重要目标区域的子损失值为0.5,不重要目标区域的子损失值为0.1,当不加入权重采用求和方式计算整体损失值时,损失值为(0.5+0.1)/2=0.3;而加入权重后,整体损失值为0.8*0.5+0.2*0.1=0.42,使损失值更偏向于重要区域的子损失值。
本方法实施例中,整合结果为所有目标区域所对应的子损失值的乘积或和值。本发明实施例不对子损失值整合方式进行限定,可以根据实际需求选择合适的整合方式。
例如,以Loss1和Loss2指代由目标区域获得的损失值,以Loss指代由目标区域整合获得的损失值,即,整体的目标影像的损失值为Loss,将目标影像划分为两个目标区域,其中一个目标区域的损失值为Loss1,另一目标区域的损失值为Loss2。Loss1和Loss2的值域位于0~1之间。
计算过程如下:
Loss1=Log(Loss1)+1,Log(x)<0,Loss1=0;
Loss2=Log(Loss2)+1,Log(x)<0,Loss2=0。
当期望损失值越小表示实际预测结果越接近真实结果时:
整合结果为子损失值的乘积时,Loss=1-Loss1*Loss2;
整合结果为子损失值的和时,Loss=1-(Loss1+Loss2)/2。
当期望损失值为越大表示实际预测结果越接近真实结果时:
整合结果为子损失值的乘积时,Loss=Loss1*Loss2;
整合结果为子损失值的和值时,Loss=(Loss1+Loss2)/2。
在一种可实施方式中,将目标影像划分成若干个目标区域,包括:首先,确定目标区域的第一方向;然后,沿第一方向进行目标区域的划分,得到若干个目标区域;其中,若干个目标区域的大小相同或不同。
具体的,在本发明实施例中,在如图像或文字一类的目标影像中,在划分过程中,可以将同一内容的数据划入同一目标区域中,例如带文字的图像,可以将文字划为一个目标区域,图像部分划为另一个目标区域,由此,为了方便目标区域的划分,本发明实施例不限制每个目标区域的大小。
图2示出了本发明实施例一种基于深度学习的损失值优化设备的结构示意图。
参见图2,本发明实施例另一方面提供一种基于深度学习的损失值优化设备,包括:获取模块201:用于获取目标影像;划分模块202:用于将目标影像划分成若干个目标区域;计算模块203:用于对若干个目标区域分别进行损失值的计算,得到每个目标区域对应的子损失值;整合模块204:用于将若干个目标区域中所有目标区域所对应的子损失值加以整合,得到整合结果;优化模块205:用于通过深度学习优化整合结果,得到目标影像的损失值
在一种可实施方式中,整合模块204,包括:鲁棒判断子模块2041:用于依据子损失值判断对应的目标区域是否为鲁棒区块;区域整合子模块2042:用于将若干个目标区域中除判断为鲁棒区块的目标区域之外的所有目标区域所对应的子损失值加以整合。
在一种可实施方式中,整合模块204,包括:确定权重子模块2043:用于确定若干个目标区域中每个目标区域的权重;确定整合子模块2044:用于根据所确定的每个目标区域的权重对若干个目标区域中所有目标区域所对应的子损失值加以整合,得到整合结果。
在一种可实施方式中,整合结果为所有目标区域所对应的子损失值的乘积或和值。
在一种可实施方式中,划分模块202包括:确定子模块2021:用于确定目标区域的第一方向;划分子模块2022:用于沿第一方向进行目标区域的划分,得到若干个目标区域;其中,若干个目标区域的大小相同或不同。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。

Claims (10)

1.一种基于深度学习的损失值优化方法,其特征在于,包括:
获取目标影像;
将所述目标影像划分成若干个目标区域;
对所述若干个目标区域分别进行损失值的计算,得到每个目标区域对应的子损失值;
将所述若干个目标区域中所有目标区域所对应的子损失值加以整合,得到整合结果;
通过深度学习优化所述整合结果,得到所述目标影像的损失值。
2.根据权利要求1所述的方法,其特征在于,将所述若干个目标区域中所有目标区域所对应的子损失值加以整合,包括:
依据所述子损失值判断对应的目标区域是否为鲁棒区块;
将所述若干个目标区域中除判断为鲁棒区块的目标区域之外的所有目标区域所对应的子损失值加以整合。
3.根据权利要求1所述的方法,其特征在于,将所述若干个目标区域中所有目标区域所对应的子损失值加以整合,得到整合结果,包括:
确定所述若干个目标区域中每个目标区域的权重;
根据所确定的每个目标区域的权重对所述若干个目标区域中所有目标区域所对应的子损失值加以整合,得到整合结果。
4.根据权利要求1所述的方法,其特征在于,所述整合结果为所述所有目标区域所对应的子损失值的乘积或和值。
5.根据权利要求1所述的方法,其特征在于,所述将所述目标影像划分成若干个目标区域,包括:
确定所述目标区域的第一方向;
沿所述第一方向进行目标区域的划分,得到若干个目标区域;
其中,所述若干个目标区域的大小相同或不同。
6.一种基于深度学习的损失值优化设备,其特征在于,包括:
获取模块:用于获取目标影像;
划分模块:用于将所述目标影像划分成若干个目标区域;
计算模块:用于对所述若干个目标区域分别进行损失值的计算,得到每个目标区域对应的子损失值;
整合模块:用于将所述若干个目标区域中所有目标区域所对应的子损失值加以整合,得到整合结果;
优化模块:用于通过深度学习优化所述整合结果,得到所述目标影像的损失值。
7.根据权利要求6所述的设备,其特征在于,所述整合模块,包括:
鲁棒判断子模块:用于依据所述子损失值判断对应的目标区域是否为鲁棒区块;
区域整合子模块:用于将所述若干个目标区域中除判断为鲁棒区块的目标区域之外的所有目标区域所对应的子损失值加以整合。
8.根据权利要求6所述的设备,其特征在于,所述整合模块,包括:
确定权重子模块:用于确定所述若干个目标区域中每个目标区域的权重;
确定整合子模块:用于根据所确定的每个目标区域的权重对所述若干个目标区域中所有目标区域所对应的子损失值加以整合,得到整合结果。
9.根据权利要求6所述的设备,其特征在于,所述整合结果为所述所有目标区域所对应的子损失值的乘积或和值。
10.根据权利要求6所述的设备,其特征在于,所述划分模块包括:
确定子模块:用于确定所述目标区域的第一方向;
划分子模块:用于沿所述第一方向进行目标区域的划分,得到若干个目标区域;
其中,所述若干个目标区域的大小相同或不同。
CN201910411382.XA 2019-05-16 2019-05-16 一种基于深度学习的损失值优化方法及设备 Pending CN110135591A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910411382.XA CN110135591A (zh) 2019-05-16 2019-05-16 一种基于深度学习的损失值优化方法及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910411382.XA CN110135591A (zh) 2019-05-16 2019-05-16 一种基于深度学习的损失值优化方法及设备

Publications (1)

Publication Number Publication Date
CN110135591A true CN110135591A (zh) 2019-08-16

Family

ID=67574876

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910411382.XA Pending CN110135591A (zh) 2019-05-16 2019-05-16 一种基于深度学习的损失值优化方法及设备

Country Status (1)

Country Link
CN (1) CN110135591A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111242230A (zh) * 2020-01-17 2020-06-05 腾讯科技(深圳)有限公司 基于人工智能的图像处理方法及图像分类模型训练方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9652691B2 (en) * 2006-11-07 2017-05-16 The Curators Of The University Of Missouri Method of predicting crop yield loss due to N-deficiency
CN108550115A (zh) * 2018-04-25 2018-09-18 中国矿业大学 一种图像超分辨率重建方法
CN108615237A (zh) * 2018-05-08 2018-10-02 上海商汤智能科技有限公司 一种肺部图像处理方法及图像处理设备
CN109509149A (zh) * 2018-10-15 2019-03-22 天津大学 一种基于双通道卷积网络特征融合的超分辨率重建方法
CN109614508A (zh) * 2018-12-12 2019-04-12 杭州知衣科技有限公司 一种基于深度学习的服装图像搜索方法
CN109740451A (zh) * 2018-12-17 2019-05-10 南京理工大学 基于重要性加权的道路场景图像语义分割方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9652691B2 (en) * 2006-11-07 2017-05-16 The Curators Of The University Of Missouri Method of predicting crop yield loss due to N-deficiency
CN108550115A (zh) * 2018-04-25 2018-09-18 中国矿业大学 一种图像超分辨率重建方法
CN108615237A (zh) * 2018-05-08 2018-10-02 上海商汤智能科技有限公司 一种肺部图像处理方法及图像处理设备
CN109509149A (zh) * 2018-10-15 2019-03-22 天津大学 一种基于双通道卷积网络特征融合的超分辨率重建方法
CN109614508A (zh) * 2018-12-12 2019-04-12 杭州知衣科技有限公司 一种基于深度学习的服装图像搜索方法
CN109740451A (zh) * 2018-12-17 2019-05-10 南京理工大学 基于重要性加权的道路场景图像语义分割方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111242230A (zh) * 2020-01-17 2020-06-05 腾讯科技(深圳)有限公司 基于人工智能的图像处理方法及图像分类模型训练方法

Similar Documents

Publication Publication Date Title
CN107273490B (zh) 一种基于知识图谱的组合错题推荐方法
CN107563995A (zh) 一种多判别器误差反传的对抗网络方法
CN103442331B (zh) 终端设备位置确定方法和终端设备
CN106296669A (zh) 一种图像质量评价方法和装置
CN110909880B (zh) 一种基于深度知识追踪的众包任务预测方法
JP6347022B1 (ja) 機械学習装置、予測システム、及び、プログラム
KR20200003109A (ko) 샘플 가중치 설정방법 및 장치, 전자 기기
CN105225149A (zh) 一种征信评分确定方法及装置
CN110428911A (zh) 自适应测评方法及设备
CN109544700A (zh) 基于神经网络的点云数据的处理方法、装置和设备
CN111178537A (zh) 一种特征提取模型训练方法及设备
CN114881547A (zh) 一种互联网项目的团队绩效评估方法及装置
CN110135591A (zh) 一种基于深度学习的损失值优化方法及设备
CN117348831A (zh) 液晶显示屏的画面调校方法及系统
CN108345857A (zh) 一种基于深度学习的区域人群密度预测方法及装置
CN111277809A (zh) 一种图像色彩校正方法、系统、设备及介质
CN109634939A (zh) 一种缺失值的确定方法、装置及电子设备
CN110070120B (zh) 基于判别采样策略的深度度量学习方法及系统
CN110302539A (zh) 一种游戏策略计算方法、装置、系统及可读存储介质
CN114841461B (zh) 基于时序缺失感知和多源因素融合的空气质量集成预测方法
CN116510302A (zh) 虚拟对象异常行为的分析方法、装置及电子设备
CN111428125A (zh) 排序方法、装置、电子设备及可读存储介质
CN106611439A (zh) 一种dem重构算法的评价方法及装置
CN111210877A (zh) 一种推断物性参数的方法及装置
CN111352941A (zh) 依据答题结果维护题库品质的系统及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: 100102 No. 501 No. 12, 5th floor, No. 6, Wangjing Dongyuan District 4, Chaoyang District, Beijing

Applicant after: Shukun (Beijing) Network Technology Co.,Ltd.

Address before: 100102 No. 501 No. 12, 5th floor, No. 6, Wangjing Dongyuan District 4, Chaoyang District, Beijing

Applicant before: SHUKUN (BEIJING) NETWORK TECHNOLOGY Co.,Ltd.

CB02 Change of applicant information
CB02 Change of applicant information

Address after: Rooms 303, 304, 305, 321 and 322, building 3, No. 11, Chuangxin Road, science and Technology Park, Changping District, Beijing

Applicant after: Shukun Technology Co.,Ltd.

Address before: 100102 No. 501 No. 12, 5th floor, No. 6, Wangjing Dongyuan District 4, Chaoyang District, Beijing

Applicant before: Shukun (Beijing) Network Technology Co.,Ltd.

CB02 Change of applicant information