CN110533158B - 模型建构方法、系统及非易失性电脑可读取记录介质 - Google Patents

模型建构方法、系统及非易失性电脑可读取记录介质 Download PDF

Info

Publication number
CN110533158B
CN110533158B CN201910440952.8A CN201910440952A CN110533158B CN 110533158 B CN110533158 B CN 110533158B CN 201910440952 A CN201910440952 A CN 201910440952A CN 110533158 B CN110533158 B CN 110533158B
Authority
CN
China
Prior art keywords
connection
layers
neural network
network model
outputs
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910440952.8A
Other languages
English (en)
Other versions
CN110533158A (zh
Inventor
林政宪
杨东庭
杨宏毅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
HTC Corp
Original Assignee
HTC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by HTC Corp filed Critical HTC Corp
Publication of CN110533158A publication Critical patent/CN110533158A/zh
Application granted granted Critical
Publication of CN110533158B publication Critical patent/CN110533158B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Neurology (AREA)
  • Image Analysis (AREA)
  • Debugging And Monitoring (AREA)
  • Feedback Control In General (AREA)

Abstract

一种模型建构方法,其适用于用于影像识别处理的神经网络模型。此模型建构方法包含以下步骤:由处理器依据神经网络模型的多个输入以及多个输出更新神经网络模型的多个层之间的多个连接变数。多个输出代表多个影像识别结果。多个连接变数代表多个层中的每两者之间的多个连接强度。本实施可动态地训练是否保留或舍弃彼此不相邻的层之间的连接。

Description

模型建构方法、系统及非易失性电脑可读取记录介质
技术领域
本申请涉及一种神经网络模型的模型建构方法、模型建构系统及非易失性电脑可读取记录介质。具体而言,本申请涉及一种动态优化神经网络结构的模型建构方法、模型建构系统及非易失性电脑可读取记录介质。
背景技术
近年来,神经网络已经有效地应用于不同的技术领域。现有的神经网络训练方法需要预先定义模型架构。现有的神经网络训练方法不会学习各个层之间的连接关系,仅利用层之间的预定义连接路径,并不会动态搜索最佳模型架构。
发明内容
本申请的一实施方案涉及一种模型建构方法,其适用于用于影像识别处理的神经网络模型。此模型建构方法包含以下步骤:由处理器依据神经网络模型的多个输入以及多个输出更新神经网络模型的多个层之间的多个连接变数。多个输出代表多个影像识别结果。多个连接变数代表多个层中的每两者之间的多个连接强度。
于部分实施例中,其中该多个层中的该每两者彼此不相邻。
于部分实施例中,其中该多个层包含多个子层,其中该模型建构方法还包含:依据该神经网络模型的该多个输入以及该多个输出更新该多个子层之间的多个子连接变数,其中该多个子连接变数代表该多个子层中的每两者之间的多个子连接强度。
于部分实施例中,还包含:随机预设该多个连接变数。
于部分实施例中,还包含:计算该多个层中的一第一层的多个层输出的一分批变异数;以及依据该分批变异数更新该多个连接变数的一第一连接变数,其中该第一连接变数代表该多个层中的该第一层以及一第二层之间的一连接强度。
于部分实施例中,还包含:设定该多个连接变数中的一第一连接变数为一第一数值,其中该第一数值代表对应于该第一连接变数的一第一连接强度为高;设定该多个连接变数中的一第二连接变数为一第二数值,其中该第二数值代表对应于该第二连接变数的一第二连接强度为低;依据该第一连接变数以及该第二连接变数产生该多个输出中的一第一输出;以及依据该第一输出更新该第一连接变数以及该第二连接变数。
于部分实施例中,其中该第一连接变数以及该第二连接变数随机选择。
本申请的一实施方案涉及一种模型建构系统,适用于影像识别处理的神经网络模型。此模型建构系统包含存储器以及处理器。存储器用以储存至少一指令。处理器耦接于存储器。处理器用以存取并执行至少一指令以:依据神经网络模型的多个输入以及多个输出更新神经网络模型的多个层之间的多个连接变数。多个输出代表多个影像识别结果。多个连接变数代表多个层中的每两者之间的多个连接强度。
于部分实施例中,其中该多个层中的该每两者彼此不相邻。
本申请的一实施方案涉及一种非易失性电脑可读取记录介质,用以储存电脑程序,其中在执行电脑程序时,将致使一或多处理元件执行多个操作,该多个操作包含:依据神经网络模型的多个输入以及多个输出更新神经网络模型的多个层之间的多个连接变数,其中神经网络模型适用于影像识别处理,其中多个输出代表多个影像识别结果。其中多个连接变数代表多个层中的每两者之间的多个连接强度。
透过本申请的实施方式,可以动态地训练是否保留或舍弃彼此不相邻的层之间的连接。调整彼此不相邻的层之间的连接强度可以是动态地被训练。神经网络结构可以动态地达到更好的准确性和性能。
附图说明
图1为根据本申请一些实施例所示的模型建构系统;
图2为根据本发明一些实施例所示的模型建构方法的流程图;
图3为根据本申请一些实施例所示的神经网络模型;
图4为根据本发明一些实施例所示的图2中其中一个步骤的流程图;
图5为根据本发明一些实施例所示的图2中其中一个步骤的另一流程图;
图6为根据本申请的一些实施例所示的另一神经网络模型。
附图标记说明:
100:模型建构系统
110:存储器
130:处理器
200:模型建构方法
S210至S230:步骤300、600:神经网络模型
MI1至MIN:输入
MO1至MON:输出
L1至L5:层
V13至V35:连接变数
S230A、S230B:步骤
S232A至S234A、S232B至S238B:步骤
SL11至SL15、SL21至SL23:子层
SL31至SL33、SL41至SL44、SL51至SL53:子层
VL1121至VL4144:子连接变数
具体实施方式
以下将以附图及详细叙述清楚说明本揭示内容的精神,任何所属技术领域中具有通常知识者在了解本揭示内容的实施例后,当可由本揭示内容所教示的技术,加以改变及修饰,其并不脱离本揭示内容的精神与范围。
关于本文中所使用的“电性连接”,可指二或更多个元件相互直接有实体或电性接触,或是相互间接有实体或电性接触,而“电性连接”还可指二或更多个元件相互操作或动作。
关于本文中所使用的“第一”、“第二”、……等,并非特别指称次序或顺位的意思,也并非用以限定本发明,而仅为了区别以相同技术用语描述的元件或操作。
关于本文中所使用的“包含”、“包括”、“具有”、“含有”等等,均为开放性的用语,即意指包含但不限于。
关于本文中所使用的“及/或|,系包括所述事物的任一或全部组合。
关于本文中所使用的方向用语,例如:上、下、左、右、前或后等,仅是参考附图的方向。因此,使用的方向用语是用来说明并非用来限制本申请。
关于本文中所使用的用词(terms),除有特别注明外,通常具有每个用词使用在此领域中、在此揭露的内容中与特殊内容中的平常意义。某些用以描述本揭露的用词将于下或在此说明书的别处讨论,以提供本领域技术人员在有关本揭露的描述上额外的引导。
图1为根据本申请一些实施例所示的模型建构系统100。如图1所示,模型建构系统100包含存储器110以及处理器130。处理器130耦接于存储器110。
于一些实施例中,存储器110可以是闪存存储器、HDD、SSD(固态硬盘)、DRAM(动态随机存取存储器)或SRAM(静态随机存取存储器)。于一些实施例中,存储器110可以是存储有与机器学习方法相关联的至少一个指令的非易失性电脑可读取记录介质。处理器130可以存取和执行至少一个指令。
于一些实施例中,处理器130可以,但不限于是单个处理器或多个微处理器的集合,例如CPU或GPU。微处理器电性耦合到存储器110以便存取并根据至少一个指令,以执行上述机器学习方法。为了便于理解与说明,将在以下段落中描述机器学习方法的细节。
关于本发明的的实施方式的细节于以下参阅图2中的模型建构方法进行说明,其中图2适用于图1中的模型建构系统100的模型建构方法200的流程图。然而,本发明的实施方式并不以此为限制。
请参阅图2。图2为根据本发明一些实施例所示的模型建构方法200的流程图。然而,本发明的实施方式不以此为限制。
应注意到,模型建构方法200可应用于与图1中的模型建构系统100的结构相同或相似的系统。而为使叙述简单,以下将以图1为例进行对模型建构方法的叙述,然而本发明并不以图1的应用为限。
需注意的是,于一些实施例中,建构方法也可被实施为一电脑程序,并储存于一非暂态电脑可读取记录介质中,而使电脑、电子装置、或前述如图1中的处理器130读取此记录介质后执行此一操作方法。非暂态电脑可读取记录介质可为只读存储器、快闪存储器、软盘、硬盘、光盘、随身盘、磁带、可由网络存取的数据库或本领域技术人员可轻易想到的具有相同功能的非暂态电脑可读取记录介质。
另外,应了解到,在本实施方式中所提及的操作方法的操作,除特别叙明其顺序者外,均可依实际需要调整其前后顺序,甚至可同时或部分同时执行。
再者,在不同实施例中,这些操作亦可适应性地增加、置换、及/或省略。
请参阅图2。模型建构方法200包含以下步骤。
于步骤S210中,输入多个输入至神经网络模型并依据多个输入取得多个输出。于一些实施例中,步骤S210可由图1中的处理器130执行。
请同时参阅图3。图3为根据本申请一些实施例所示的神经网络模型300。如图3所示,神经网络模型300包含多个层L1至L5。多个连接变数V13至V35存在于多个层L1至L5之间。详细而言,连接变数V13至V35中的一者存在于多个层L1至L5中的两者之间。连接变数V13至V35中的每一者代表多个层L1至L5中的每两者之间的连接强度。
举例而言,连接变数V13存在于层L1和L3之间,且连接变数V13代表层L1和L3之间的连接强度,其余依此类推。
于步骤S230中,根据输入和输出更新神经网络模型的多个连接变数。于一些实施例中,步骤S230可由图1中的处理器130执行。依据神经网络模型300的输入MI1至MIN以及输出MO1至MON,处理器130更新连接变数V13至V35。
多个方法可用以实现步骤S230。请参阅图4。图4为根据本发明一些实施例所示的图2中的步骤S230的流程图S230A。流程S230A包含以下步骤。
于步骤S232A中,计算多个层中的一层的多个层输出的分批变异数。于一些实施例中,步骤S232A可由图1中的处理器130执行。请一并参阅图3。举例来说,假设当不同的层输入LI1至LI3输入到层L1时,相对应于层L1的层输出为层输出LO1至LO3。处理器130计算层输出LO1至LO3的分批变异数。
于步骤S234A中,依据分批变异数更新连接变数的第一连接变数,其中第一连接变数代表多个层中的一者与多个层中的另一者之间的连接强度。于一些实施例中,步骤S234A可由图1中的处理器130执行。
步骤S234A的一个范例如下。请一并参阅图3。举例而言,假设层L1的层输出LO1至LO3的分批变异数为分批变异数σ。依据分批变异数σ,处理器130更新层L1与其他层L2至L5之间的连接变数。也就是说,处理器130依据分批变异数σ更新层L1以及层L3之间的连接变数V13,处理器130依据分批变异数σ更新层L1以及层L4之间的连接变数V14,处理器130依据分批变异数σ更新层L1以及层L5之间的连接变数V15。
请参阅图5。图5为根据本申请的一些实施例所示的图2中的步骤S230的流程图S230B。步骤S230B包含以下步骤。
于步骤S232B中,设定第一连接变数为第一数值,其中第一数值代表对应于第一连接变数的第一连接强度为高。于一些实施例中,步骤S232B可由图1中的处理器130执行。
于步骤S234B中,设定第二连接变数为第二数值,其中第二数值代表对应于该第二连接变数的一第二连接强度为低。于一些实施例中,步骤S234B可由图1中的处理器130执行。
于步骤S236B中,依据第一连接变数以及第二连接变数产生第一输出。于一些实施例中,步骤S236B可由图1中的处理器130执行。
于步骤S238B中,依据第一输出更新第一连接变数以及第二连接变数。于一些实施例中,步骤S238B可由图1中的处理器130执行。
关于步骤S232B至S238B的范例如下所述。请一并参阅图3。假设代表两层之间的连接强度为高的第一数值为数值1,且代表两层之间的连接强度为低的第二数值为数值0。举例而言,于一实施例中,处理器130设定层L1与层L4之间的连接变数V14为数值1,且处理器130设定层L2与层L4之间的连接变数V24为数值0。
依据上述,于设定连接变数V13至V35中的至少一者后,处理器130输入输入MI1至神经网络模型300中并经由包含数值为1的连接变数V14和数值为0的连接变数V24的神经网络模型300,以产生对应于输入MI1的输出MO1。依据输出MO1,处理器130依据反向梯度更新连接变数V14与V24。举例而言,于一些实施例中,连接变数V14可被更新为数值0.5,而连接变数V24可被更新为1。
随同更新后的连接变数V14与V24,处理器130还输入输入MI2至神经网络模型300中并经由包含数值为0.5的连接变数V14与数值为1的连接变数V24的神经网络模型300,以产生对应于输入MI2的输出MO2。依据输出MO2,处理器130再次更新连接变数V14与V24。
于一些实施例中,依据输出MO1,处理器130产生反向梯度,其中反向梯度代表连接变数应该被调整的梯度。
应注意的是,于一些实施例中,于步骤S232B和S234B中,被设定为第一数值(举例而言,被设定为1)的至少一连接变数V13至V35由处理器130随机选择。同样地,被设定为第二数值(举例而言,被设定为0)的至少一连接变数V13至V35第二数值,由处理器130随机选择。
于一些实施例中,连接变数V13至V35的值为任二数值之间。举例而言,连接变数V13至V35为1与0之间,其中1代表最高的连接强度而0代表最低的连接强度。举另一例来说,连接变数V13至V35的值在-1与1之间,或其他任何数值。
于一些实施例中,连接变数V13至V35包含两种状态,举例而言,连接或不连接。举例而言,连接变数V13至V35可仅包含数值1和0,其中数值1代表对应的层互相连接,而数值0代表对应的层互相不连接。若是连接变数V13为1,对应的层L1和L3互相连接。若是连接变数V13为0,对应的层L1和L3互相不连接。
于一些实施例中,多个层L1至L5中互相相邻的两者原本即互相连接。于本申请的实施例中,多个层L1至L5中的两者之间的连接变数被训练。上述多个层L1至L5中的两者彼此不相邻。
于一些实施例中,在开始训练神经网络模型300之前,处理器130用以连接多个层L1至L5两两之间。也就是说,多个层L1至L5中的每两者最初由处理器130彼此连接。此外,对于每个连接关系,处理器130预设连接变数。举例而言,对于神经网络模型300,处理器连接多个层L1至L5中的每两者并预设连接变数V13至V35。于一些实施例中,连接变数V13至V35为随机预设。
请参阅图6。图6为根据本申请的一些实施例所示的神经网络模型600。如图6所示,神经网络模型600包含层L1至L5,且每一层L1至L5包含至少一子层。举例而言,层L1包含子层SL11至SL15,层L2包含子层SL21至SL23,其余依此类推。
如图6所示,子层SL11与子层SL21彼此连接,且子连接变数VL1121存在于子层SL11和子层SL21之间。子层SL22和子层SL31彼此连接,且子连接变数VL2231存在于子层SL22和子层SL31之间,其余依此类推。如上所述的子连接变数以及如图6中所示的子层之间的连接关系仅作为例示说明之用,本申请的实施方式并不以此为限。图6中的任意两个子层之间可互相连接,并包含子连接变数。子连接变数代表任意两个子层之间的连接强度。
于一些实施例中,如图1所示的处理器130依据输入至神经网络模型600的输入MI1至MIN以及对应的由神经网络模型600输出的输出MOI至MON,以更新子层SL11至SL53之间的子连接变数。
更新神经网络模型600的子连接变数的方法的细节与更新神经网络模型300的连接变数的方法类似,在此不再赘述。
应注意的是,不仅不同层的子层可以相互连接,而且同一层的子层也可以相互连接,如图6所示。
于一些实施例中,激活和更新彼此不相邻的层之间的连接变数的方式不限于图4和图5中提到的步骤。连接变数可为随机更新,经常性地更新,或使用预定义的公式更新。
于一些实施例中,神经网络模型的各层的大小不同,可以引入诸如池化、卷积或反卷积的方法以使特征尺寸匹配,并且也可以被应用于动态地更新层之间的连接变数的一些实施例中。
应注意的是,图3中的神经网络模型300以及图6中的神经网络模型600适用于影像识别处理。于一些实施例中,如图3与图6所述的输入MI1至MIN为待识别的影像,如图3与图6所述的输出MO1至MON为影像识别结果。透过上述实施例的步骤,神经网络模型300或600可由处理器自动更新神经网络模型300或600的层之间的连接,使得影像识别结果可以被改良为更准确或更正确。
透过上述实施例的步骤,于本申请的实施例中,可以动态地训练是否保留或舍弃彼此不相邻的层之间的连接。调整彼此不相邻的层之间的连接强度可以是动态地被训练。神经网络结构可以动态地达到更好的准确性和性能。
虽然本发明已以实施例揭露如上,然而以上说明并非用以限定本发明,任何本领域技术人员,在不脱离本发明的精神和范围内,应可作各种的更动与润饰,因此本发明的保护范围应以随附的权利要求范围所界定者为准。

Claims (9)

1.一种影像识别的模型建构方法,适用于用于影像识别处理的一神经网络模型,其特征在于,包含:
由一处理器依据该神经网络模型的多个输入以及多个输出更新该神经网络模型的多个层之间的多个连接变数,包含:
依据该多个层中的一第一层的多个层输出的一分批变异数更新该多个连接变数的一第一连接变数,
其中该多个输入是多个待辨识的影像,其中该多个输出代表多个影像识别结果,且该多个输出是依据该多个输入以及该神经网络模型所产生,其中该多个连接变数代表该多个层中的每两者之间的多个连接强度,其中该第一连接变数代表该多个层中的该第一层以及一第二层之间的一第一连接强度。
2.如权利要求1所述的模型建构方法,其特征在于,其中该多个层中的该每两者彼此不相邻。
3.如权利要求1所述的模型建构方法,其特征在于,其中该多个层包含多个子层,其中该模型建构方法还包含:
依据该神经网络模型的该多个输入以及该多个输出更新该多个子层之间的多个子连接变数,
其中该多个子连接变数代表该多个子层中的每两者之间的多个子连接强度。
4.如权利要求1所述的模型建构方法,其特征在于,还包含:
随机预设该多个连接变数。
5.如权利要求1所述的模型建构方法,其特征在于,还包含:
设定该多个连接变数中的一第二连接变数为一第一数值,其中该第一数值代表对应于该第二连接变数的一第二连接强度为高;
设定该多个连接变数中的一第三连接变数为一第二数值,其中该第二数值代表对应于该第三连接变数的一第三连接强度为低;
依据该第二连接变数以及该第三连接变数产生该多个输出中的一第一输出;以及
依据该第一输出更新该第二连接变数以及该第三连接变数。
6.如权利要求5所述的模型建构方法,其特征在于,其中该第二连接变数以及该第三连接变数随机选择。
7.一种影像识别的模型建构系统,适用于影像识别处理的一神经网络模型,其特征在于,包含:
一存储器,用以储存至少一指令;以及
一处理器,耦接于该存储器,其中该处理器用以存取并执行该至少一指令以:
依据该神经网络模型的多个输入以及多个输出更新该神经网络模型的多个层之间的多个连接变数,包含:
依据该多个层中的一第一层的多个层输出的一分批变异数更新该多个连接变数的一第一连接变数,其中该多个输入是多个待辨识的影像,其中该多个输出代表多个影像识别结果,且该多个输出是依据该多个输入以及该神经网络模型所产生,
其中该多个连接变数代表该多个层中的每两者之间的多个连接强度,其中该第一连接变数代表该多个层中的该第一层以及一第二层之间的一第一连接强度。
8.如权利要求7所述的模型建构系统,其特征在于,其中该多个层中的该每两者彼此不相邻。
9.一种非易失性电脑可读取记录介质,用以储存一电脑程序,其特征在于,在执行该电脑程序时,将致使一或多处理元件执行影像识别的多个操作,该多个操作包含:
依据一神经网络模型的多个输入以及多个输出更新该神经网络模型的多个层之间的多个连接变数,其中该神经网络模型适用于影像识别处理,包含:
依据该多个层中的一第一层的多个层输出的一分批变异数更新该多个连接变数的一第一连接变数,
其中该多个输入是多个待辨识的影像,其中该多个输出代表多个影像识别结果,且该多个输出是依据该多个输入以及该神经网络模型所产生,
其中该多个连接变数代表该多个层中的每两者之间的多个连接强度,
其中该第一连接变数代表该多个层中的该第一层以及一第二层之间的一第一连接强度。
CN201910440952.8A 2018-05-25 2019-05-24 模型建构方法、系统及非易失性电脑可读取记录介质 Active CN110533158B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201862676291P 2018-05-25 2018-05-25
US62/676,291 2018-05-25

Publications (2)

Publication Number Publication Date
CN110533158A CN110533158A (zh) 2019-12-03
CN110533158B true CN110533158B (zh) 2023-10-13

Family

ID=68614652

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910440952.8A Active CN110533158B (zh) 2018-05-25 2019-05-24 模型建构方法、系统及非易失性电脑可读取记录介质

Country Status (3)

Country Link
US (1) US11620509B2 (zh)
CN (1) CN110533158B (zh)
TW (1) TWI767122B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112784967B (zh) * 2021-01-29 2023-07-25 北京百度网讯科技有限公司 信息处理方法、装置以及电子设备

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8868852B2 (en) * 2010-07-07 2014-10-21 Marvell World Trade Ltd. Interface management control systems and methods for non-volatile semiconductor memory
US11093826B2 (en) * 2016-02-05 2021-08-17 International Business Machines Corporation Efficient determination of optimized learning settings of neural networks
US11055063B2 (en) * 2016-05-02 2021-07-06 Marvell Asia Pte, Ltd. Systems and methods for deep learning processor
KR101899101B1 (ko) * 2016-06-01 2018-09-14 서울대학교 산학협력단 인공 신경망 기반 예측 모델 생성 장치 및 방법
US10860923B2 (en) * 2016-12-20 2020-12-08 Samsung Electronics Co., Ltd. High-density neuromorphic computing element
TWI748035B (zh) * 2017-01-20 2021-12-01 日商半導體能源硏究所股份有限公司 顯示系統及電子裝置
WO2019022136A1 (ja) * 2017-07-25 2019-01-31 国立大学法人東京大学 学習方法、学習プログラム、学習装置及び学習システム
US11461383B2 (en) * 2017-09-25 2022-10-04 Equifax Inc. Dual deep learning architecture for machine-learning systems
SG11201912745WA (en) * 2017-10-16 2020-01-30 Illumina Inc Deep learning-based splice site classification
US11461628B2 (en) * 2017-11-03 2022-10-04 Samsung Electronics Co., Ltd. Method for optimizing neural networks
EP3756189A4 (en) * 2018-01-22 2021-09-29 Cancer Commons PLATFORMS TO PERFORM VIRTUAL TESTS
JP6865889B2 (ja) * 2018-02-28 2021-04-28 富士フイルム株式会社 学習装置、方法及びプログラム
US20190318469A1 (en) * 2018-04-17 2019-10-17 Coherent AI LLC Defect detection using coherent light illumination and artificial neural network analysis of speckle patterns
WO2019204146A1 (en) * 2018-04-18 2019-10-24 Sony Interactive Entertainment Inc. Context embedding for capturing image dynamics
WO2019210237A1 (en) * 2018-04-27 2019-10-31 Alibaba Group Holding Limited Method and system for performing machine learning
JP7240657B2 (ja) * 2018-05-15 2023-03-16 Tokyo Artisan Intelligence株式会社 ニューラルネットワーク回路装置、ニューラルネットワーク、ニューラルネットワーク処理方法およびニューラルネットワークの実行プログラム
CN110728274A (zh) * 2018-06-29 2020-01-24 通用电气公司 医疗设备计算机辅助扫描方法、医疗设备及可读存储介质
KR20210042696A (ko) * 2019-10-10 2021-04-20 삼성전자주식회사 모델 학습 방법 및 장치
US11341616B2 (en) * 2020-03-23 2022-05-24 Ge Precision Healthcare Methods and system for selective removal of streak artifacts and noise from images using deep neural networks

Also Published As

Publication number Publication date
US11620509B2 (en) 2023-04-04
TWI767122B (zh) 2022-06-11
CN110533158A (zh) 2019-12-03
US20190362230A1 (en) 2019-11-28
TW202004570A (zh) 2020-01-16

Similar Documents

Publication Publication Date Title
US10460230B2 (en) Reducing computations in a neural network
CN112559784B (zh) 基于增量学习的图像分类方法及系统
CN111507419B (zh) 图像分类模型的训练方法及装置
CN111738098B (zh) 一种车辆识别方法、装置、设备及存储介质
KR20210032140A (ko) 뉴럴 네트워크에 대한 프루닝을 수행하는 방법 및 장치
CN111562977B (zh) 神经网络模型拆分方法、装置、存储介质和计算机系统
WO2021051556A1 (zh) 深度学习权值更新方法、系统、计算机设备及存储介质
US11157213B2 (en) Parallel memory access and computation in memory devices
CN111291875B (zh) 用于确定存储器大小的方法和设备
CN114781272A (zh) 碳排放量预测方法、装置、设备及存储介质
WO2020015491A1 (zh) 驾驶设备决策的预测方法和装置
CN112183750A (zh) 神经网络模型训练方法、装置、计算机设备及存储介质
CN110533158B (zh) 模型建构方法、系统及非易失性电脑可读取记录介质
US10108513B2 (en) Transferring failure samples using conditional models for machine condition monitoring
CN114168318A (zh) 存储释放模型的训练方法、存储释放方法及设备
CN113222014A (zh) 图像分类模型训练方法、装置、计算机设备和存储介质
CN114065697A (zh) 驱动电路参数优化方法和装置、电子设备及存储介质
CN112257848B (zh) 确定逻辑核布局的方法、模型训练方法、电子设备、介质
CN113326832B (zh) 模型训练、图像处理方法、电子设备及存储介质
CN114001976B (zh) 控制误差的确定方法、装置、设备及存储介质
CN111527502B (zh) 用于部分数字再训练的系统和方法
CN112668639A (zh) 一种模型训练方法、装置、服务器及存储介质
US20220318634A1 (en) Method and apparatus for retraining compressed model using variance equalization
CN112906435A (zh) 视频帧优选方法及装置
CN114764612A (zh) 训练用于图像识别的神经网络的方法和设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant