CN107533664B - 通过分解的神经网络分类 - Google Patents

通过分解的神经网络分类 Download PDF

Info

Publication number
CN107533664B
CN107533664B CN201580077013.1A CN201580077013A CN107533664B CN 107533664 B CN107533664 B CN 107533664B CN 201580077013 A CN201580077013 A CN 201580077013A CN 107533664 B CN107533664 B CN 107533664B
Authority
CN
China
Prior art keywords
sub
neurons
input
classification
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201580077013.1A
Other languages
English (en)
Other versions
CN107533664A (zh
Inventor
丁科
罗春
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of CN107533664A publication Critical patent/CN107533664A/zh
Application granted granted Critical
Publication of CN107533664B publication Critical patent/CN107533664B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Neurology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

描述了一种分类系统,该分类系统可以包括神经网络分解逻辑(“NND”),该神经网络分解逻辑可以使用神经网络(“NN”)来执行分类。NND可以将分类决策分解为多个子决策空间。NND可以使用NN执行分类,所述NN具有比NND用于分类的神经元更少的神经元,和/或所述NN接受具有比输入到NND的特征向量更小的大小的特征向量。所述NND可以维护用于子决策空间的多个上下文,并且可以在这些上下文之间进行切换以便使用子决策空间执行分类。NND可以对来自子决策空间的结果进行组合以决定分类。通过将决策划分到子决策空间中,NND可以使用NN提供分类决策,该NN可能否则不适于特定的分类决策。也可以描述和/或请求保护其他实施例。

Description

通过分解的神经网络分类
技术领域
本公开涉及数据处理的领域,具体地涉及与通过分解执行神经网络分类相关联的装置、方法和存储介质。
背景技术
本文所提供的背景描述是为了在总体上呈现本公开的上下文。除非本文中另有指示,否则本章节中所描述的材料对于本申请的权利要求书而言并非现有技术,并且也并不承认包括在本章节中就为现有技术。
通常,要求计算系统将输入数据分类到类别中。在某些情况下,可以基于各种输入的融合来确定更高级别的信息。在某些情景中,来自与个人相关联的传感器的数据可以被合并或融合以确定与用户相关联的上下文。例如,来自运动传感器的数据可以被融合以由用户对身体活动进行分类,例如,步行、跑步、骑车、驾驶等。在另一个示例中,运动传感器数据可以被融合以对运动姿势进行分类,例如,对点击设备、轻击设备、举起和注视设备、绘制形状等的识别。在又一个示例中,从麦克风捕获的数据可以被融合,以对环境音频(例如,音乐、语音、人群存在、运动声音等)进行分类。尽管这些情景提供了复杂的传感器融合分类任务的某些示例,但是在其他情景中,可以使用其他数据执行分类或者可以执行分类以确定其他上下文。
在各种情景中,由于执行这种分类的复杂性,可能期望使用神经网络。诸如可穿戴设备或移动设备的某些计算平台提供神经网络计算逻辑,在某些情景中,神经网络计算逻辑可以是基于硬件的。然而,神经网络逻辑可能受限在某些情景中。例如,由计算平台提供的神经网络会包含用于神经网络计算的有限数量的神经元。在另一个示例中,神经网络会被限制为接受特定大小的输入。这可能证明在某些应用中是有问题的,例如,当可用输入数据的大小超过了由神经网络逻辑接受的输入大小时,或者当分类问题要求比神经网络逻辑中存在的神经元更多数量的神经元时。在神经网络逻辑在硬件中实现并且因而可能不容易扩展时,这些限制尤其难于处理。
附图说明
通过以下结合附图的详细描述,将容易理解实施例。为了便于描述,相同的参考标号指代相同的结构元件。在附图的图中,通过示例而非限制的方式示出了实施例。
图1示出了根据各种实施例针对使用本文描述的分解技术的分类系统的示例布置。
图2示出了根据各种实施例将分类问题分解为子决策空间的示例。
图3示出了根据各种实施例用于使用本文描述的分解技术进行分类的示例过程。
图4示出了根据各种实施例用于训练分类系统的示例过程。
图5示出了根据各种实施例用于确定到最近的神经元的距离的示例过程。
图6示出了根据各种实施例用于确定是否添加新的神经元的示例过程。
图7示出了根据各种实施例用于识别分类的示例过程。
图8示出了根据各种实施例适于实施本公开的各个方面的示例计算环境。
图9示出了根据各种实施例具有指令的示例存储介质,该指令被配置为使得装置能够实施本公开的各个方面。
具体实施方式
在以下详细描述中,参考形成本文一部分的附图,其中在所有附图中相同的标号指代相同的部件,并且通过说明的方式示出了可以实施的实施例。应该理解的是,在不偏离本公开的范围的情况下,可以利用其他实施例并且可以做出结构或逻辑上的变化。因此,以下详细描述不在限制意义上进行,并且实施例的范围由所附权利要求及其等同物限定。
可以将各种操作以最有助于理解所要求保护的主题的方式依次描述为多个离散动作或操作。然而,描述的顺序不应该被解释为暗示这些操作必须是依赖于顺序的。特别地,这些操作可以不按照呈现的顺序执行。所描述的操作可以按照与所描述的实施例不同的顺序执行。可以执行各种附加的操作和/或可以在附加实施例中省略所描述的操作。
为了本公开的目的,短语“A和/或B”意味着(A)、(B)或(A和B)。为了本公开的目的,短语“A、B和/或C”意味着(A)、(B)、(C)、(A和B)、(A和C)、(B和C)或(A、B和C)。
说明书可以使用短语“在一实施例中,”或“在实施例中,”这可以分别指代相同或不同实施例中的一个或多个。而且,参考本公开的实施例使用的术语“包括”、“包含”、“具有”等等是同义的。
正如本文使用的,术语“逻辑”和“模块”可以指代以下内容,或者以下内容的一部分或者包括以下内容:执行一个或多个软件或固件程序的专用集成电路(ASIC)、电子电路、处理器(共享、专用或群组)和/或存储器(共享、专用或群组),组合逻辑电路和/或提供所描述的功能的其他适合的部件。如本文所述,术语“逻辑”和“模块”可以指代如下所描述的片上系统或者该片上系统的一部分或包括该片上系统。
在各种实施例中,分类系统可以包括神经网络分解逻辑(“NND”),该NND可以被配置为使用神经网络(“NN”)执行分类。NND可以被配置为将分类决策分解为多个子决策空间。在这种实施例中,NND可以被配置为使用NN执行分类,该NN具有比NND用于分类的神经元更少的神经元,和/或该NN接受具有比输入到NND的特征向量更小的大小的特征向量。在各种实施例中,NND可以维护用于子决策空间的多个上下文,并且可以在这些上下文之间进行切换,以便使用子决策空间执行分类。在各种实施例中,NND可以对来自子决策空间的结果进行组合以决定分类。在各种实施例中,通过将决策划分为子决策空间,NND可以使用NN提供分类决策,该NN否则可能不适于特定的分类决策。
现在参考图1,根据各种实施例示出了使用如本文所描述的分解技术的分类系统100(“CI 100”)的示例布置。在各种实施例中,CI 100可以被配置为取得输入特征向量145并且输出分类190。在各种实施例中,CI 100可以在各种计算设备105上实现。例如,计算设备105可以包括以下设备中的一个或多个:移动设备、可穿戴设备、膝上型设备、桌面设备等。另外,为了更清楚说明的目的,尽管图1示出为包括单独设备的计算设备105,但是在各种实施例中,计算设备105的各方面可以跨多个设备划分、跨网络实现、和/或在基于云的分布中实现。下面将参考图8和图9进一步描述计算设备105的实施例。在各种实施例中,CI100可以被配置为执行各种分类决策(例如,如上所述,融合传感器数据以确定用于设备使用的上下文)。因此,图1示出了输入数据的多个示例,例如但不限于,设备数据110、可穿戴数据120和环境数据130。在各种实施例中,该数据中的一个或多个可以被接受作为到CI100的输入以执行分类决策。然而,可以认识到的是,尽管在图1中示出了数据的具体示例,但是在各种实施例中数据的不同组合或数据的不同类别可以完全用作到CI 100的输入。
在各种实施例中,计算设备100可以包括神经网络170(“NN 170”)。在某些实施例中,NN 170可以在硬件中实现(例如,在图1中所示)。例如,在各种实施例中,NN 170可以被实现为关联存储器的实现。在其他实施例中,NN 170可以全部地或部分地在软件中实现。在各种实施例中,NN170可以包括神经元的阵列,其中每个神经元存储n维参考特征向量。在这种实施例中,每个神经元可以表示用于给定分类的决策空间的一部分。转而,可以通过计算结果向量并且确定该结果向量到神经元的距离来确定分类决策。在各种实施例中,NN 170可以包括设定数量的神经元(例如,128个神经元),并且可以将诸如128个字节(如在图1中示例NN 170中示出的)的设定长度的特征向量作为输入。
在各种实施例中,CI 100可以包括神经网络分解逻辑150(“NND150”),该NND 150可以被配置为使用NN 170执行分类决策。在各种实施例中,NND 150可以被配置为将分类决策分解成子决策空间,该子决策空间可以在NN 170上执行。通过这种分解,NND 150可以提供使用比在NN 170中实现的神经元更多的神经元和/或使用比NN 170被配置为接受的特征向量更长的输入特征向量145来执行分类的能力。因此,在图1的示例中,尽管示例NN 170具有128个神经元并且取得128-字节的特征向量,但是CI 100可以将长度大于128字节(例如,500字节)的输入特征向量145作为输入,并且NND 150可以实现利用多于128个神经元(例如700个神经元)的分类决策。
在各种实施例中,NN 170可以利用上下文来指定要由NN 170执行的分类决策。在某些实施例中,针对独立的神经元,上下文可以包括以下中的一个或多个:中心特征向量、上下文类别、规范的类型和影响场(influence field)。上下文还可以包括最小和/或最大影响场和/或网络状态寄存器。神经网络上下文的这些和其他方面可以由本领域普通技术人员所理解。NND150可以被配置为在上下文之间切换,以便利用NN 170执行对分类决策的分解。
在各种实施例中,NND 150可以包括上下文的有序集合160。例如,在各种实施例中,上下文的集合160通过其排序可以提供针对子决策空间的顺序,使得其性能可能会增加分类决策命中的可能性的子决策空间在不太可能提供命中的其他子决策空间之前被用于分类。这种排序在下面会被更加详细地描述。在各种实施例中,CI 100还可以包括分解训练器180(“DT180”),其可以被配置为训练NND 150以分解分类决策并且提供分类190。在各种实施例中,DT 180可以被配置为对上下文的集合160中的上下文进行排序以便于随后的分解。在某些实施例中,DT 180可能不会位于CI 100中,或者甚至不会位于计算设备105中。相反,NND可以通过单独实体的动作进行训练,例如,在为用户部署计算设备105之前。下面可以描述训练的各种实施例。
现在参考图2,根据各种实施例示出了将分类问题分解成子决策空间的示例。在该示例中,NN 170取得大小为128字节的特征向量并且具有128个神经元。然而,NND 150取得大小大于128字节的输入特征向量,并且使用多于128个神经元执行分类。如图所示,由NND150使用的决策空间因此可以被分解成可以在NN 170上执行的128个神经元大小的子决策空间(例如,子决策空间200、210和220)。在所示的示例中,每个子决策空间可以取得大小为128字节的特征向量(例如,由NN 170接受的特征向量大小)。在各种实施例中,这些特征向量可以通过将输入特征向量划分为要由NN 170在其上进行操作的多个128字节大小的子特征向量来获得。在该示例中,存在N个子特征向量。在各种实施例中,输入特征向量可以被顺序地划分,使得输入特征向量被划分成具有由NN 170接受的大小的连续特征向量。因此,在图2的示例中,假定NN 170接受大小为128字节的特征向量,则大小为N的输入特征向量145被划分为字节0-127、128-255等。可以注意到的是,尽管输入特征向量145可以具有由NN170接受的特征向量的大小的倍数的长度,但是在某些实施例中,输入特征向量145可以不是该长度的整数倍数。例如,输入特征向量145可以具有320的长度,即使NN 170接受大小为128的特征向量。在这种情况下,输入特征向量可以用伪数据或边缘值(例如0)来增大,以便允许输入特征向量145的均匀划分。
进一步,每个子决策空间可以与由NND 150使用的神经元的总数量中的神经元的子集相关联;这些子集可以具有在NN 170中实现的神经元的大小。在该示例中,存在M个这种神经元的子集。因此,在图2的示例中,子决策空间200可以利用输入特征向量中的第一128个字节并且将其应用于由NND 150使用的第一128个神经元,而子决策空间210可以将输入特征向量的第二128个字节应用于那些相同的神经元。相反,子决策空间220可以将输入特征向量的第一128个字节应用于NND 150的128个神经元的第二子集。
现在参考图3,根据各种实施例示出了使用如本文所描述的分解技术进行分类的示例过程300。尽管图3以特定顺序示出了特定操作,但是在各种实施例中,操作可以被组合、被分割成多个部分、和/或被省略。在各种实施例中,过程300(以及子过程)的操作可以由CI 100、NND 150、NN 170和/或DT 180中的一个或多个来执行。该过程可以开始于操作320,其中DT 180(或其他训练实体)可以训练NND 150。下面参考图4的过程400描述过程320的操作的特定实施例。接下来,在操作330处,用户可以开始CI 100要针对其执行分类决策的活动,并且在操作340处,CI 100可以收集活动数据(例如,设备数据110、可穿戴数据120和环境数据130)。在其他实施例中,本文所描述的分类技术可能不关于活动而被执行,并且因此可以通过其他方式获得用于分类的数据。接下来,在操作350处,使用NN 170,NND 150可以根据输入活动(或其他)数据执行分类。下面参考图7的过程700描述操作350的过程的特定实施例。接下来,在操作360处,用户可以继续该活动,并且该过程可以返回到操作340以收集附加的活动数据。在其他实施例中,例如,当CI 100用于针对正在进行的活动数据以外的数据执行分类决策时,该过程可以结束。
现在参考图4,根据各种实施例示出了用于训练NND 150的示例过程400。在各种实施例中,过程400可以被执行以全部地或部分地实现图3的过程300的操作320。尽管图4以特定顺序示出了特定操作,但是在各种实施例中,操作可以被组合、被分割成多个部分和/或被省略。在各种实施例中,过程400(以及子过程)的操作可以由DT 180、NND 150和/或NN170中的一个或多个来执行。
该过程可以开始于操作410,其中DT 180可以获得训练输入特征向量和相关联的已知分类,该已知分类可以用作如可以理解的基础事实。在各种实施例中,DT 180可以使用被已知与特定基础事实分类相关联的这些训练输入特征向量,以便训练NND 150将来对输入特征向量进行正确地分类。例如,如果NND 150正在被训练以识别由持有设备的用户执行的运动姿势,则训练输入特征向量可以包括特征向量以及基础事实分类,该特征向量包括来自已知的真实世界姿势的数据,并且该基础事实分类是那些真实世界姿势应该与其相关联的分类。
接下来,在循环操作420处,DT 180可以进入针对每个训练输入特征向量的循环。在该循环中,在操作430处,NND 150可以使用NN 170确定到由NND 150实现的最近的神经元的距离。下面参考图5的过程500描述操作430的过程的特定实施例。接下来,在操作440处,DT 180可以确定是否向NND 150添加新的神经元。下面参考图6的过程600描述操作440的过程的特定实施例。接下来,在循环操作450处,DT 180可以利用下一个训练输入特征向量继续训练,并且可以重复在循环操作420处开始的该循环。当循环完成时,NND 150可以包含足够的神经元以及上下文以执行针对预期的输入数据的分类决策。然后,该过程可以结束。
现在参考图5,根据各种实施例示出了用于确定到最近的神经元的距离的示例过程500。在各种实施例中,过程500可以被执行以全部地或部分地实现图4的过程400的操作430(或下面所描述的图7的操作720)。因此,在各种实施例中,过程500可以用于确定针对输入特征向量的最近的神经元(并且因此潜在的是最近的分类),并且可以用于NND 150的训练以及随后由经训练的NND 150执行的分类两者。尽管图5以特定顺序示出了特定操作,但是在各种实施例中,操作可以被组合、被分割成多个部分和/或被省略。在各种实施例中,过程500(以及子过程)的操作可以由NND 150和/或NN 170中的一个或多个来执行。该过程可以开始于操作510,其中输入特征向量145可以被划分为子特征向量。如上文关于图2所讨论的,在操作510处,输入特征向量可以被划分成大小等于或小于由NN 170接受的特征向量的大小的子特征向量。在各种实施例中,可以通过将输入特征向量145分割为连续的子特征向量来执行该划分。在其他实施例中,可以利用划分输入特征向量145的其他方式。
接下来,在循环操作515处,NND 150可以进入针对NND 150的神经元的每个子集的第一循环。然后,在循环操作517处,NND 150可以进入针对每个子特征向量的第二循环。接下来,在第二循环内,NND 150可以切换到新的上下文,有效地选择新的子决策空间。在操作520处,NND 150然后可以将各种值加载到NN 170中,例如但不限于:中心特征向量、上下文类别、规范的类型和影响场(最小和/或最大影响场)和/或网络状态寄存器。接下来,在操作530处,NN 170可以确定到每个神经元的距离。该距离的确定可以使用已知的神经网络技术来执行。第二循环然后可以在循环操作535处针对下一个子特征向量重复。
在针对每个子特征向量完成了第二循环之后,在操作540处,NND 150可以执行到每个神经元先前确定的距离的向量和(vector sum)。因此,针对每个神经元的子集,向量和将具有在子特征向量中的每个子特征向量到每个神经元距离上的总距离。接下来,在操作550处,NND 150可以根据该向量和确定最小距离,例如,针对该神经元的子集到最近的神经元的距离。第一循环然后可以在循环操作555处重复。接下来,在操作560处,NND 150可以确定在第一循环的每次迭代结束时确定的距离中的最小距离。这将是任何神经元的子集到其最近的神经元的最小距离。然后,该过程可以结束。
在各种实施例中,可以通过以下伪代码中的一个或多个实现来实现过程500。在下面的伪代码中,值N可以指代输入特征向量145可以被划分的子特征向量的数量,并且值M可以指代神经元的子集的数量。此外,在该伪代码中,NN 170具有128个神经元并且取得128字节长度的特征向量:
T1.针对给定的新的特征向量,将特征向量依序划分为N个子特征向量,其中每个子特征向量长度是128字节;
T2.对于(i=0~M-1){
对于(j=0~N-1){
切换到第(i*N+j)个神经元网络上下文;
获得在该上下文中到每个神经元的距离向量
Figure BDA0001389648450000091
}
对于该上下文执行针对所有距离向量Dj的向量和,并且将该向量和表
示为
Figure BDA0001389648450000092
Figure BDA0001389648450000093
中找到最小距离作为
Figure BDA0001389648450000094
其中,每个li表示针对
当前神经元的子集到最近的神经元的距离;
}
T3.获得L=min(l0,l1,...lM-1)及其在决策空间中相关联的分类。
现在参考图6,根据各种实施例示出了用于确定是否添加新的神经元的示例过程600。在各种实施例中,过程600可以被执行以全部地或部分地实现图4的过程400的操作440。尽管图6以特定顺序示出了特定操作,但是在各种实施例中,操作可以被组合、被分割成多个部分和/或被省略。在各种实施例中,过程600(以及子过程)的操作可以由DT 180、NND 150和/或NN 170中的一个或多个来执行。该过程可以开始于决策操作615,其中DT 180可以确定到神经元的先前计算的距离是否在任何神经元的影响场内,以标识针对其NND150正在根据输入特征向量145进行决定的神经元。如果神经元被如此标识,则在判定操作625处,DT 180可以将与神经元相关联的分类和与由DT 180在操作410处获得的输入特征向量145相关联的分类基础事实进行比较。如果分类是相同的,则分类决策被正确地执行,并且然后该过程可以结束。如果分类是不相同的,则NND 150不正确地对输入特征向量145进行分类,并且因此,在操作650处,DT 180可以缩小所标识的神经元的影响场,以避免将来这种误标识,然后,该过程可以结束。
然而,如果在决策操作615处确定该距离没有在任何神经元的影响场内,则在决策操作625处,NND150需要新的神经元。因此,在决策操作625处,DT 180可以确定在神经元的子集中是否存在空间以接受新的神经元。如果存在,则在操作630处,如本领域普通技术人员所理解的,可以添加适当地对输入特征向量进行分类的新的神经元,并且然后该过程可以结束。如果不具有空间的子集,则在操作640处,可以创建新的子集,然后在操作630处,可以向该集合添加神经元,并且然后该操作可以结束。
现在参考图7,根据各种实施例示出了用于识别分类的示例过程700。在各种实施例中,过程700可以被执行以全部或部分地实现图3的过程300的操作350。尽管图7示出了特定顺序的特定操作,但是在各种实施例中,操作可以被组合、被分割成多个部分和/或被省略。在各种实施例中,过程700(以及子过程)的操作可以由NND 150和/或170NN中的一个或多个来执行,过程可以开始于操作710,其中CI可以获得输入特征向量145以进行分类。接下来,在操作720处,NND 150可以确定到最近的神经元的距离。上面参考图5的过程500描述了操作720的过程的特定实施例。接下来,在操作730处,NND 150可以根据操作720的过程基于哪个神经元最接近来决定特征向量分类。这种分类可以作为图1的分类190进行输出。
分类被完成之后,在操作740处,NND 150可以基于在操作720处获得分类的概率将来自NND150的神经元进行重新排序(re-sort)。接下来,在操作750处,NND 150可以基于神经元的重新排序的列表来修改神经元的子集,例如,通过依序地选择神经元。此外,在操作750处,子决策空间可以被修改以结合新的神经元的子集。然后,该过程可以结束。然而,应当注意的是,尽管在图7中示出了操作740和750在分类时立即发生,但是在各种实施例中,可以期望延迟对神经元的排序和对神经元的子集的确定直到稍后或者更早地执行这种重新排序。例如,一旦训练过程完成,可以使用训练向量基于该训练向量在被分类到其相关联的类别时的命中概率来执行初始神经元子集的重新排序。这种操作可以在更多的计算资源可用、更少的分类请求被接收时的时间期间随后发生。这种随后的重新排序可以作为对神经元子集重新排序优化的改进来执行。
现在参考图8,根据各种实施例示出了适用于实施本公开的各个方面的示例计算机,该计算机包括图3-7的过程。如图所示,计算机800可以包括一个或多个处理器或者处理器核心802,以及系统存储器804。为了本申请的目的,包括权利要求书,术语“处理器”和“处理器核心”可以被认为是同义的,除非上下文另外明确要求。另外,计算机800可以包括海量存储设备806(例如,软盘、硬驱、压缩盘只读存储器(CD-ROM)等),输入/输出设备808(例如,显示器、键盘、光标控制、远程控制、游戏控制器、图像捕获设备等)以及通信接口810(例如,网络接口卡、调制解调器、红外接收器、无线接收器(例如,蓝牙、Wi-Fi、近场通信、射频标识等)。这些元件可以经由系统总线812彼此耦合,该系统总线812可以表示一条或多条总线。在多条总线的情况下,它们可以通过一个或多个总线桥(未示出)进行桥接。
这些元件中的每个可以执行其在本领域中公知的常规功能。具体地,系统存储器804和海量存储设备806可以用于存储工作拷贝以及实现图1中所示的模块中的一个或多个模块的编程指令的永久拷贝,和/或与在图3-7中示出的技术相关联的操作(统称为计算逻辑822)。各种元件可以通过由(一个或多个)处理器802支持的汇编指令或高级语言(例如以可以被编译为这种指令的C语言为例)来实现。在各种实施例中,系统存储器804或海量存储装置806可以包括各种存储器实现(包括集成闪存),例如在片上系统、USB闪存驱动器和SD卡中以及在SATA SSD上实现。
编程指令的永久拷贝可以例如通过分配介质(未示出)(例如,压缩盘(CD))或通过通信接口810(来分配服务器(未示出))被放置到工厂中或现场中的永久存储设备806中。在实施例中,编程指令可以被存储在一个或多个计算机可读非暂时性存储介质中。在其它实施例中,编程指令(例如,信号)可以被编码在暂时性存储介质中。
这些元件810-812的数量、能力和/或容量可以变化。其组成以其它方式是已知的,并且因此将不再进行进一步描述。
图9示出了根据各种实施例具有指令的至少一个计算机可读存储介质902的示例,该指令被配置为实施与先前所描述的技术相关联的操作中的全部操作或选定操作。如图所示,至少一个计算机可读存储介质902可以包括多个编程指令904。编程指令904可以被配置为响应于编程指令的执行,使设备(例如,计算机800)能够执行例如图3-7的过程的各种操作,例如但不限于被执行以执行本文中所描述的分解和分类技术的各种操作。在替代实施例中,然而,编程指令904可以被设置在多个、至少一个计算机可读存储介质902上。
回到图8,对于一个实施例,处理器802中的至少一个可以与被配置为实施图3-7的过程的各方面的计算逻辑822封装到一起。对于一个实施例,处理器802中的至少一个可以与被配置为实施图3-7的过程的各方面的计算逻辑822封装到一起以形成系统级封装(SiP)。对于一个实施例,处理器802中的至少一个可以与被配置为实施图3-7的过程的各方面的计算逻辑822一起集成在同一管芯上。对于一个实施例,处理器802中的至少一个可以与被配置为实施图3-7的过程的各方面的计算逻辑822封装到一起以形成片上系统(SoC)。对于至少一个实施例,SoC可以用于,例如但不限于,计算平板(例如,Wi-Fi、蓝牙、蓝牙低能量、近场通信、射频标识(RFID)等)以及满足系统的功能性和非功能性要求所需的其它部件。
用于执行上述技术的计算机可读介质(包括至少一个计算机可读介质)、方法、装置、系统和设备是本文公开的实施例的说明性示例。另外,在上述的交互中的其它设备可以被配置为执行各种公开的技术。本文所描述的实施例的特定示例包括但不限于以下内容:
示例1可以包括一种用于分解分类决策的装置。所述装置可以包括一个或多个计算机处理器和神经网络逻辑,所述神经网络逻辑与所述一个或多个计算机处理器耦合或者在所述一个或多个计算机处理器上操作以执行特征向量的分类。所述神经网络逻辑可以使用第一数量的神经元对第一长度的特征向量进行操作。所述装置还可以包括神经网络分解逻辑,其用于在所述一个或多个计算机处理器上操作以利用所述神经网络逻辑通过使用第二数量的神经元来执行第二长度的输入特征向量的分类,其中,所述第二数量可以大于所述第一数量或者所述第二长度可以大于所述第一长度。
示例2可以包括示例1所述的装置,其中,所述神经网络分解逻辑可以用于通过输入特征向量的分类而在子决策空间上执行所述输入特征向量的分类,所述子决策空间使用所述第一数量的神经元对所述第一长度的特征向量进行操作。
示例3可以包括示例2所述的装置,其中,所述神经网络分解逻辑还可以用于维护针对所述神经网络逻辑的多个上下文。
示例4可以包括示例3所述的装置,其中,所述神经网络分解逻辑还可以用于在子决策空间上对输入特征向量进行分类期间在上下文之间进行切换。
示例5可以包括示例3所述的装置,其中,所述神经网络分解逻辑还可以用于将所述输入特征向量划分为子特征向量并且将所述第二数量的神经元划分为神经元子集。
示例6可以包括示例5所述的装置,其中,所述子特征向量可以是所述第一长度的向量。
示例7可以包括示例5所述的装置,其中,所述网络分解逻辑可以用于将第二数量的神经元划分为第一大小的神经元子集。
示例8可以包括示例7所述的装置,其中,网络分解逻辑可以用于在分类期间基于命中概率对所述神经元子集进行排序。
示例9可以包括示例1-8中任一示例所述的装置,其中,所述输入特征向量可以包括以下中的一个或多个:设备数据、运动姿势数据、或环境数据。
示例10可以包括示例1-9中任一示例所述的装置,其中,所述神经网络逻辑可以在硬件中实现。
示例11可以包括示例1-10中任一示例所述的装置,其中,所述神经网络逻辑可以包括与每个神经元相关联的参考向量。
示例12可以包括一种或多种计算机可读存储介质,其包括在所述计算机可读存储介质上写入的指令,响应于在可以包括神经网络逻辑的计算系统上的执行,所述指令使得所述计算系统执行针对输入特征向量的分类决策。所述指令可以使得计算系统通过使用所述神经网络逻辑在子决策空间上执行分类,其中,所述神经网络逻辑通过使用第一数量的神经元来执行第一长度的特征向量的分类。所述指令还可以使得所述计算系统基于在所述子决策空间上的分类来执行所述输入特征向量的分类,其中,所述输入特征向量的分类可以是通过使用可以大于所述第一数量的神经元的第二数量的神经元实现的,并且所述输入特征向量具有大于所述第一长度的第二长度。
示例13可以包括示例12所述的计算机可读存储介质,其中,执行在子决策空间上的分类可以包括在使用所述第二数量的神经元对所述第二长度的特征向量进行操作的子决策空间上执行分类。
示例14可以包括示例13所述的计算机可读存储介质,其中,执行所述输入特征向量的分类可以包括维护用于所述神经网络逻辑的多个上下文。
示例15可以包括示例14所述的计算机可读存储介质,其中,执行所述输入特征向量的分类还可以包括在子决策空间上的输入特征向量的分类期间在上下文之间进行切换。
示例16可以包括示例14所述的计算机可读存储介质,其中,执行所述输入特征向量的分类还可以包括将所述输入特征向量划分为子特征向量并且将所述第二数量的神经元划分为神经元子集。
示例17可以包括示例16所述的计算机可读存储介质,其中,所述子特征向量可以是所述第一长度的向量。
示例18可以包括示例16所述的计算机可读存储介质,其中,将所述第二数量的神经元划分为神经元子集可以包括将所述第二数量的神经元划分为第一大小的神经元子集。
示例19可以包括示例18所述的计算机可读存储介质,其中,执行所述输入特征向量的分类还可以包括在分类期间基于命中概率对所述神经元子集进行排序。
示例20可以包括示例12-19中任一示例所述的计算机可读存储介质,其中,所述输入特征向量可以包括以下中的一个或多个:设备数据、运动姿势数据、或环境数据。
示例21可以包括示例12-20中任一示例所述的计算机可读存储介质,其中,所述神经网络逻辑可以在硬件中实现。
示例22可以包括示例12-19中任一示例所述的计算机可读存储介质,其中,所述神经网络逻辑可以包括与每个神经元相关联的参考向量。
示例23可以包括一种用于执行针对输入特征向量的分类决策的计算机实现的方法。所述方法可以包括:由可以包括神经网络逻辑的计算系统通过使用所述神经网络逻辑执行子决策空间上的分类,其中,所述神经网络逻辑可以用于通过使用第一数量的神经元来执行第一长度的特征向量的分类。所述方法还可以包括基于在所述子决策空间上的分类,由所述计算系统执行所述输入特征向量的分类,其中,所述输入特征向量的分类是通过使用可以大于所述第一数量的神经元的第二数量的神经元实现的,并且所述输入特征向量具有大于所述第一长度的第二长度。
示例24可以包括示例23所述的方法,其中,执行在子决策空间上的分类包括:在使用所述第二数量的神经元对所述第二长度的特征向量进行操作的子决策空间上执行分类。
示例25可以包括示例24所述的方法,其中,执行所述输入特征向量的分类可以包括维护用于所述神经网络逻辑的多个上下文。
示例26可以包括示例25所述的方法,其中,执行所述输入特征向量的分类还可以包括在子决策空间上的输入特征向量的分类期间在上下文之间进行切换。
示例27可以包括示例25所述的方法,其中,执行所述输入特征向量的分类还可以包括将所述输入特征向量划分为子特征向量并且将所述第二数量的神经元划分为神经元子集。
示例28可以包括示例27所述的方法,其中,所述子特征向量可以是所述第一长度的向量。
示例29可以包括示例27所述的方法,其中,将所述第二数量的神经元划分为神经元子集可以包括将所述第二数量的神经元划分为第一大小的神经元子集。
示例30可以包括示例29所述的方法,其中,执行所述输入特征向量的分类还可以包括在分类期间基于命中概率对所述神经元子集进行排序。
示例31可以包括示例23-30中的任一示例所述的方法,其中,所述输入特征向量可以包括以下中的一个或多个:设备数据、运动姿势数据、或环境数据。
示例32可以包括示例23-31中任一示例所述的方法,其中,所述神经网络逻辑可以在硬件中实现。
示例33可以包括示例23-30中任一示例所述的方法,其中,所述神经网络逻辑可以包括与每个神经元相关联的参考向量。
示例34可以包括一种用于执行针对输入特征向量的分类决策的装置。所述装置包括:用于使用第一数量的神经元对第一长度的特征向量进行操作的神经网络逻辑;用于通过使用所述神经网络逻辑执行在子决策空间上的分类的模块;以及用于执行所述输入特征向量的分类的模块,其中,所述输入特征向量的分类是通过使用可以大于所述第一数量的神经元的第二数量的神经元实现的,并且所述输入特征向量具有大于所述第一长度的第二长度。
示例35可以包括示例34所述的装置,其中,用于执行在子决策空间上的分类的模块可以包括用于在使用所述第二数量的神经元对所述第二长度的特征向量进行操作的子决策空间上执行分类的模块。
示例36可以包括示例35所述的装置,其中,用于执行所述输入特征向量的分类的模块包括用于维护用于所述神经网络逻辑的多个上下文的模块。
示例37可以包括示例36所述的装置,其中,用于执行所述输入特征向量的分类的模块还可以包括用于在子决策空间上的输入特征向量的分类期间在上下文之间进行切换的模块。
示例38可以包括示例36所述的装置,其中,用于执行所述输入特征向量的分类的模块还可以包括:用于将所述输入特征向量划分为子特征向量的模块以及用于将所述第二数量的神经元划分为神经元子集的模块。
示例39可以包括示例38所述的装置,其中,所述子特征向量可以是所述第一长度的向量。
示例40可以包括示例38所述的装置,其中,用于将所述第二数量的神经元划分为神经元子集的模块可以包括用于将所述第二数量的神经元划分为第一大小的神经元子集的模块。
示例41可以包括示例40所述的装置,其中,用于执行所述输入特征向量的分类的模块还可以包括用于在分类期间基于命中概率对所述神经元子集进行排序的模块。
示例42可以包括示例34-41中任一示例所述的装置,其中,所述输入特征向量包括以下中的一个或多个:设备数据、运动姿势数据、或环境数据。
示例43可以包括示例34-42中任一示例所述的装置,其中,所述神经网络逻辑可以在硬件中实现。
示例44可以包括示例34-43中任一示例所述的装置,其中,所述神经网络逻辑可以包括与每个神经元相关联的参考向量。
虽然为了描述的目的在本文中对某些实施例进行了示出和描述,但是在不脱离本公开的范围的情况下,可以使用被计算以实现相同目的的各种替代和/或等同的实施例或实施方式来代替所示出的和所描述的实施例。本申请旨在涵盖本文所讨论的实施例的任何修改或变化。因此,很明显本文描述的实施例仅由权利要求书进行限定。
在本公开引述“一”或“第一”元件或其等同物的情况下,这种公开包括一个或多个这种元件,既不要求也不排除两个或更多个这种元件。进一步,用于所标识的元件的顺序指示符(例如,第一,第二或第三)被用于区分元件,并不指示或暗示这种元件的必须的或者限定的数目,并且也不指示这种元件的特定位置或顺序,除非另作特别陈述。

Claims (16)

1.一种用于对输入特征向量执行分类的装置,所述装置包括:
一个或多个计算机处理器;
第一神经网络,其用于在所述一个或多个计算机处理器上操作,从而通过将所述输入特征向量划分为多个子特征向量,从而根据所述输入特征向量确定多个子特征向量,所述多个子特征向量被分别布置在所述第一神经网络的决策空间的相应的子决策空间,所述第一神经网络被配置有第二数量的输入神经元,所述子决策空间包括所述第二数量的输入神经元的相应的神经元的子集;以及
第二神经网络,其与所述一个或多个计算机处理器耦合或者在所述一个或多个计算机处理器上操作,所述第二神经网络具有输入层,所述输入层被配置有第一数量的输入神经元,所述第二神经网络被重复使用来在所述相应的子决策空间上执行分类以生成分类输出,以便所述装置基于所述分类输出来执行对所述输入特征向量的分类,其中,所述执行包括:
(i)使用所述第二数量的输入神经元的神经元的第一子集来执行对第一子特征向量的分类,其中,所述多个子特征向量的特定的子特征向量被选择作为所述第一子特征向量,以及所述第二数量的输入神经元的神经元的特定子集被选择作为所述神经元的第一子集;
(ii)重复步骤(i)直到全部所述子特征向量分别通过所述第二数量的输入神经元的全部相应的神经元的子集而被分类;
其中,所述第二数量的输入神经元的数量大于所述输入神经元的所述第一数量,所述输入特征向量具有第一长度,所述第一长度大于所述输入层中所述输入神经元的所述第一数量,并且其中,所述多个子特征向量中的每个子特征向量具有第二长度,所述第二长度等于或小于所述输入层中的输入神经元的所述第一数量。
2.根据权利要求1所述的装置,其中,每个子决策空间的第二数量的神经元的每个子集具有不超过所述第一数量的子集大小。
3.根据权利要求2所述的装置,其中,所述第一神经网络还用于维护针对所述第二神经网络的多个上下文。
4.根据权利要求3所述的装置,其中,所述第一神经网络还用于在所述子决策空间的对所述输入特征向量的子特征向量的分类期间在上下文之间进行切换。
5.根据权利要求1所述的装置,其中,所述第一神经网络还用于基于由所述第二神经网络的重复使用所指示的相应的命中概率来对所述神经元的子集进行排序。
6.根据权利要求1-5中任一项所述的装置,其中,所述输入特征向量包括以下中的一个或多个:设备数据、运动姿势数据、或环境数据。
7.根据权利要求1-5中任一项所述的装置,其中,所述第二神经网络在硬件中实现。
8.根据权利要求1-5中任一项所述的装置,其中,所述第二神经网络包括与每个神经元相关联的参考向量。
9.一种用于由计算装置执行的使用第一神经网络对输入特征向量执行分类的方法,所述第一神经网络与第二神经网络一同布置,所述第二神经网络具有输入层,所述输入层被配置有第一数量的输入神经元,所述第一神经网络被配置有数量大于所述输入神经元的所述第一数量的第二数量的输入神经元,所述输入特征向量具有第一长度,所述第一长度大于所述输入层中的输入神经元的所述第一数量,所述方法包括:
由所述第一神经网络通过将所述输入特征向量划分为多个子特征向量,从而根据所述输入特征向量确定多个子特征向量,所述多个子特征向量中的每个子特征向量具有第二长度,所述第二长度等于或小于所述输入层中的输入神经元的所述第一数量,所述多个子特征向量被分别布置在所述第一神经网络的决策空间的相应的子决策空间,所述子决策空间包括所述第二数量的输入神经元的相应的神经元的子集;
通过重复使用所述第二神经网络来在所述相应的子决策空间上执行分类以生成分类输出,其中,所述执行包括:
(i)使用所述第二数量的输入神经元的神经元的第一子集来执行对第一子特征向量的分类,其中,所述多个子特征向量的特定的子特征向量被选择作为所述第一子特征向量,以及所述第二数量的输入神经元的神经元的特定子集被选择作为所述神经元的第一子集;
(ii)重复步骤(i)直到全部所述子特征向量分别通过所述第二数量的输入神经元的全部相应的神经元的子集而被分类;以及
基于针对所述多个子特征向量的来自所述第二神经网络的分类输出,由所述计算装置执行对所述输入特征向量的分类。
10.根据权利要求9所述的方法,其中,每个子决策空间的所述第二数量的输入神经元的每个子集具有不超过所述第一数量的子集大小。
11.根据权利要求10所述的方法,其中,执行对所述输入特征向量的分类包括维护针对所述第二神经网络的多个上下文。
12.根据权利要求11所述的方法,其中,执行对所述输入特征向量的分类还包括在所述子决策空间的对所述输入特征向量的子特征向量的分类期间在上下文之间进行切换。
13.根据权利要求9所述的方法,其中,执行对所述输入特征向量的分类还包括基于由所述第二神经网络的重复使用所指示的相应的命中概率来对所述神经元的子集进行排序。
14.根据权利要求9-13中任一项所述的方法,其中,所述第二神经网络在硬件中实现。
15.一种或多种计算机可读存储介质,包括在其上写入的指令,响应于在计算系统上执行,所述指令使得所述计算系统执行权利要求9-13中任一项所述的方法。
16.一种用于执行针对输入特征向量的分类决策的装置,所述装置包括:用于执行根据权利要求9-13中的任一项所述的方法的模块。
CN201580077013.1A 2015-03-26 2015-03-26 通过分解的神经网络分类 Active CN107533664B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2015/075125 WO2016149937A1 (en) 2015-03-26 2015-03-26 Neural network classification through decomposition

Publications (2)

Publication Number Publication Date
CN107533664A CN107533664A (zh) 2018-01-02
CN107533664B true CN107533664B (zh) 2023-04-28

Family

ID=56977720

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201580077013.1A Active CN107533664B (zh) 2015-03-26 2015-03-26 通过分解的神经网络分类

Country Status (4)

Country Link
US (1) US10915794B2 (zh)
EP (1) EP3274926A4 (zh)
CN (1) CN107533664B (zh)
WO (1) WO2016149937A1 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10226204B2 (en) * 2016-06-17 2019-03-12 Philips North America Llc Method for detecting and responding to falls by residents within a facility
CN109784364A (zh) * 2018-12-06 2019-05-21 南京蓝思信息科技有限公司 头部运动数据处理方法及装置
CN109697500B (zh) * 2018-12-29 2020-06-09 中科寒武纪科技股份有限公司 数据处理方法、装置、电子设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103559542A (zh) * 2013-10-31 2014-02-05 华北水利水电大学 基于先验知识的可拓神经网络模式识别方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7016885B1 (en) 2001-08-28 2006-03-21 University Of Central Florida Research Foundation, Inc. Self-designing intelligent signal processing system capable of evolutional learning for classification/recognition of one and multidimensional signals
US6983265B2 (en) * 2001-12-21 2006-01-03 International Business Machines Corporation Method to improve the data transfer rate between a computer and a neural network
US7892406B2 (en) * 2005-03-28 2011-02-22 Tokyo Electron Limited Ionized physical vapor deposition (iPVD) process
CN103000172A (zh) * 2011-09-09 2013-03-27 中兴通讯股份有限公司 信号分类方法和装置
US9484022B2 (en) * 2014-05-23 2016-11-01 Google Inc. Training multiple neural networks with different accuracy
CN104035563B (zh) * 2014-06-19 2017-05-10 北京工业大学 基于w‑pca和无监督ghsom的脑电信号识别方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103559542A (zh) * 2013-10-31 2014-02-05 华北水利水电大学 基于先验知识的可拓神经网络模式识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
A hierarchical neural network architecture for handwritten numeral recognition;Cao, J et al.;《ELSEVIER》;19970201;第30卷(第2期);第290页,左栏,第19-24行;第289页,右栏,第25-28行;图1 *
An application of data fusion technology in structural health monitoring and damage identification;Xiao Chun et al.;《SPIE》;20050516;全文 *

Also Published As

Publication number Publication date
US20180039863A1 (en) 2018-02-08
EP3274926A1 (en) 2018-01-31
US10915794B2 (en) 2021-02-09
CN107533664A (zh) 2018-01-02
EP3274926A4 (en) 2018-11-21
WO2016149937A1 (en) 2016-09-29

Similar Documents

Publication Publication Date Title
US11868895B2 (en) Dynamic processing element array expansion
US20220108224A1 (en) Technologies for platform-targeted machine learning
US20210081793A1 (en) Hardened deep neural networks through training from adversarial misclassified data
CN110741388B (zh) 对抗样本检测方法、装置、计算设备及计算机存储介质
Martín et al. CANDYMAN: Classifying Android malware families by modelling dynamic traces with Markov chains
EP3332362B1 (en) Detection of unknown classes and initialization of classifiers for unknown classes
Cheng et al. Temporal sequence modeling for video event detection
CA2993011C (en) Enforced sparsity for classification
Paliwal et al. A tri-gram based feature extraction technique using linear probabilities of position specific scoring matrix for protein fold recognition
US20160224903A1 (en) Hyper-parameter selection for deep convolutional networks
WO2017058479A1 (en) Selective backpropagation
CN107045503A (zh) 一种特征集确定的方法及装置
US11449803B2 (en) Data class analysis method and apparatus
EP3937076A1 (en) Activity detection device, activity detection system, and activity detection method
US11829848B2 (en) Adding negative classes for training classifier
CN107533664B (zh) 通过分解的神经网络分类
CN113961765B (zh) 基于神经网络模型的搜索方法、装置、设备和介质
CN105303163A (zh) 一种目标检测的方法及检测装置
Ha et al. Selective deep convolutional neural network for low cost distorted image classification
US20220051077A1 (en) System and method for selecting components in designing machine learning models
US20220076035A1 (en) Coarse-to-fine attention networks for light signal detection and recognition
US11461662B1 (en) Compilation time reduction for memory and compute bound neural networks
CN113792290B (zh) 拟态防御的裁决方法及调度系统
CN112771566A (zh) 图像处理装置和图像处理方法
US11651195B2 (en) Systems and methods for utilizing a machine learning model combining episodic and semantic information to process a new class of data without loss of semantic knowledge

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant