CN111242246B - 一种基于强化学习的图像分类方法 - Google Patents
一种基于强化学习的图像分类方法 Download PDFInfo
- Publication number
- CN111242246B CN111242246B CN202010340775.9A CN202010340775A CN111242246B CN 111242246 B CN111242246 B CN 111242246B CN 202010340775 A CN202010340775 A CN 202010340775A CN 111242246 B CN111242246 B CN 111242246B
- Authority
- CN
- China
- Prior art keywords
- data
- time
- module
- model
- memory model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及人工智能领域和计算机视觉领域,是一种基于强化学习和注意力机制的图像分类方法,它使用依次连接的卷积神经网络以及特征选择和分类模块。所述特征选择和分类模块包括工作模块和管理模块两个子模块,工作模块由长短时记忆模型和与之相连接的动作模型组成,管理模块使用LSTM模型。
Description
技术领域
本发明涉及人工智能领域和计算机视觉领域,是一种基于强化学习和注意力机制的图像分类方法。
背景技术
图像分类是计算机视觉研究中最基本的问题,是后续高层次视觉任务的基础。
近年来,受到人的视觉生物系统的启发,注意力机制越来越受到学术界和工业界研究的重视,并且取得了很多非常好的研究成果,在业界得到了广泛的应用。注意力机制attention从本质上讲和人类的选择性机制类似,核心目标也是从众多信息中选择出对当前任务更关键的信息。目前attention的形式主要分为软注意力Soft Attention和硬注意力Hard Attention两种形式。Soft Attention是参数化的,因此可导,能够被嵌入到模型中去,梯度可以直接反向传播到模型其他部分,这种方式简单直接,所以在目前的研究和应用中占据着主流地位。Hard Attention不会选择全部数据做为其输入,而是会依概率来采样一部分数据来进行计算,为了实现梯度的反向传播,需要采用蒙特卡洛采样的方法来估计梯度,然后利用强化学习算法进行训练,这种方法较为复杂,在业界的研究不是很多。
DeepMind 2014年针对经典的MNIST手写体数字识别提出了Recurrent Models ofVisual Attention(RAM)模型,RAM将 attention problem 看做是目标引导的序列决策过程,能够和视觉环境交互。在每一个时间点,智能体agent 只能根据有带宽限制的感知器来观察全局,即只能在一个局部区域或者狭窄的频域范围进行信息的提取。The agent 可以自主的控制如何布置感知器的资源,即:选择感知的位置区域。该agent也可以通过执行actions 来影响环境的真实状态。由于该环境只是部分可观察,所以他需要额外的信息来辅助其进行决定如何行动和如何最有效的布置感知器。每一步,agent 都会收到奖励或者惩罚,agent 的目标就是将奖励最大化。该模型可以看作是首次将强化学习应用到图像分类中,模型在设计上存在一些不足,比如需要固定的输入步长、缺少全局信息等,因此在应到其他复杂分类问题时效果不好。
Wang F等人在 arXiv发表的论文《 Residual Attention Network for ImageClassification》,提出了一种Residual attention network,是attention module的堆叠。在每个module中均使用bottom-up top-down结构,利用残差机制使得网络深度可以进一步扩展。这种注意力机制是可微的,可以通过反向传播训练。
Kelvin Xu等人在2015年发表的论文《Show, Attend and Tell: Neural ImageCaption Generation with Visual Attention》中,给出了Hard Attention和SoftAttention的定义。在 Hard Attention 机制中,权重αt,i所扮演的角色是图像区域ai在时刻t被选中作为输入decoder的信息的概率,有且仅有一个区域会被选中。为此,引入变量st,i,当区域i被选中时取值为1,否则为0。那么有
将st,i作为在产生第t个单词的时候需要关注位置信息的位置变量,满足参数为αt,i的多元贝努利分布
相比之下,在Soft Attention机制中,权重αt,i所扮演的角色是图像区域ai在时刻t的输入decode的信息中的所占的比例。既然这样,就将各区域ai与对应的权重αt,i做加权求和就可以得到:
该定义是参数化的,因此可导,可以直接用于训练,比较简单,因此成为研究的主流。
Hu J等人在arXiv发表了论文《Squeeze-and-Excitation Networks》,SENet的核心思想在于通过网络根据loss去学习特征权重,使得有效的特征图(feature map)权重大,无效或效果小的feature map权重小的方式训练模型达到更好的结果。
综上所述,Attention机制在计算机视觉研究中有了广泛的研究,它的本质是让模型能够像人类的视觉系统一样,更关注图像中重要的区域,而对那些不重要的信息尽可能忽略。
目前业界的研究应用主要以Soft Attention为主,Hard Attention的研究相对要少很多。这两种Attention机制各有各的优点,然而在图片分类任务实际需求中,还有明显的不足:
1.目前已有的hard attention框架或者需要标准的序列数据输入,或者采用固定长度的图像局部序列数据且这些数据缺少全局信息的控制,导致应用在复杂的图像分类任务时效果不好;
2.图像中有许多数据对于分类来说是冗余的,甚至可能只有很少一部分数据是有价值的,而Soft Attention机制需要所有的数据参与计算,这样不仅仅增加了不必要的计算量,而且还有可能引入噪声,影响分类结果;
3.Soft Attention机制在解释性上不够好,在图像分类任务中,有时候我们需要关注模型学习到了什么,或者是学习到图像中哪个区域是重要的,Soft Attention由于会对所有的区域生成一个权重分布,不像Hard Attention那样明确选择特定区域,因此在解释性上不如Hard Attention。
发明内容
针对上述现有技术中存在的不足,本发明的目的是提供一种基于强化学习的图像分类方法。它从注意力和强化学习入手,自动对输入的特征数据进行选择,然后利用这些选择的特征进行最终的分类,该方法不仅排除了大量的冗余噪声数据,提高了分类效果,而且有很好的可解释性。
为了达到上述发明目的,本发明的技术方案以如下方式实现:
一种基于强化学习的图像分类方法,它使用依次连接的卷积神经网络(CNN)以及特征选择和分类模块(FSCM)。所述特征选择和分类模块包括工作模块(worker)和管理模块(manager)两个子模块,工作模块由长短时记忆模型(LSTM)和与之相连接的动作模型组成,管理模块使用长短时记忆模型。其方法步骤为:
1)将输入图片经过卷积神经网络生成特征图,并按行序转为通道序列数据。
2)特征选择和分类模块中的工作模块利用长短时记忆模型对输入的当前数据(current data)依次进行处理,生成所有输入数据的权重概率分布。首先初始化工作模块中长短时记忆模型的h0为零向量,其中h0表示长短时记忆模型初始隐藏层状态,输入当前数据x0为第一个通道数据,初始化管理模块中长短时记忆模型的初始隐藏层状态为零向量。
3)将当前数据xt输入到工作模块,分为训练阶段与预测阶段:
A)训练阶段:工作模块采用近端策略优化算法(PPO)联合自适应时刻估计算法(Adam)的方式进行训练,管理模块采用自适应时刻估计算法进行训练。计算时引入全局信息,并将选择的序列数据最大长度设置为8,在此基础上引入一个终止动作(terminal),模型的具体定义为下式:
其中,ht-1表示前一时刻长短时记忆模型输出,ht表示当前时刻长短时记忆模型输出,xt表示当前时刻输入的某个通道数据,X表示输入的特征图(feature map),即所有的通道数据,x0表示一个512维的零向量,x1表示将数据矩阵x和数据矩阵x0按行序拼接,ot表示t时刻所有数据的权重分布,函数g(xt,i)表示对t时刻的数据做归一化,得到归一化后的第i个数据的输出,w、b为模型参数,xt,i表示t时刻第i个通道数据,xt,k表示t时刻第k个通道数据,L为x1数据通道数目,此分布可以看作196个通道数据选择状态和一个终止状态的联合分布,p(at,i=1)表示t时刻第i个数据被选中的概率,at,i表示t时刻第i个数据被选中的状态,取值0或1,1表示选中,0表示没有选中,ot,i 表示t时刻第i个数据被选中的概率。
动作模型采用硬注意力机制(hard attention)从权重概率分布中选择数据进行采样,其训练时采用如下方式采样:
获得当前应采取的动作(action)。
B)预测阶段:预测过程采用前向计算方式,工作模块从卷积神经网络输入的特征数据中进行自动选择。首先由长短时记忆模型按照公式(1)计算,然后动作模型采用硬注意力机制选取概率最大的权重值对应的数据,即:
获得当前应采取的动作,若动作不为终止动作,则跟据动作获得对应的通道数据,作为下一时刻待处理数据(next data)xt+1,执行步骤4),否则,执行步骤5)。
4)将下一时刻待处理数据xt+1赋值给当前数据,返回步骤3)。
5)将收集到的当前数据序列(current data sequence)送入到管理模块进行分类。
A)训练阶段:工作模块训练需要的奖励函数由管理模块提供,奖励函数定义如下:
其中,R表示随着时间t推移获得的累计奖励,st表示由x0…xt构成的输入数据序列,γ表示折扣因子,取值为0到1之间的数,γt表示折扣因子随着时间t推移进行指数衰减,R(st)表示当前时刻t,由序列st得到的奖励,manager(st)表示管理模块对st的预测结果,这里采用标签对应的对数概率值为输出,at表示t时刻采样的状态,T表示终止动作。
根据分类结果和公式(4)分别训练工作模块和管理模块。
B)预测阶段:将分类结果输出。
本发明由于采用了上述方法步骤,同现有技术相比具有如下优点:
1.模型自动选择图像的某些特征数据进行分类,很大程度上减少了冗余数据,提高了模型的性能和计算效率。
2.通过特征选择和分类模块,可以很直观看到图片哪些区域参与了分类任务,可以了解到模型学到了什么,相比于soft attention有更好的解释性。
3.工作模块处理输入数据增加了全局信息,因此可以生成更合理的采样分布,另外,引入终止状态使得模型更加灵活、高效。
下面结合附图和具体实施方式对本发明做进一步说明。
附图说明
图1为本发明方法整体流程图;
图2为本发明实施例中卷积神经网络结构示意图;
图3为本发明实施例中特征选择和分类模块流程图。
具体实施方式
参看图1至图3,本发明基于强化学习的图像分类方法,它使用依次连接的卷积神经网络以及特征选择和分类模块。特征选择和分类模块包括工作模块和管理模块两个子模块,工作模块由长短时记忆模型和与之相连接的动作模型组成,管理模块使用长短时记忆模型。其方法步骤为:
1)将输入图片经过卷积神经网络生成特征图,并按行序转为通道序列数据。
卷积神经网络包括13个卷积(conv)层,4个池化(pool)层。其中,输入图像大小为Num*3*224*224,所有的conv层卷积核的大小都为3*3,步长(stride),每层的通道数目如下:
conv1:16
conv2:64
conv3:128
conv4:64
conv5:128
conv6:256
conv7:128
conv8:256
conv9:512
conv10:512
conv11:256
conv12:512
conv13:512
池化层的核的大小为2*2,步长为2。卷积神经网络最后输出的特征图大小为14*14*512。
2)特征选择和分类模块中的工作模块利用长短时记忆模型对输入的当前数据依次进行处理生成所有输入数据的权重概率分布。首先,初始化工作模块中长短时记忆模型的h0为零向量,其中h0表示长短时记忆模型初始隐藏层状态,输入当前数据x0为第一个通道数据,初始化管理模块中长短时记忆模型的初始隐藏层状态为零向量。
3)将当前数据xt输入到工作模块,分为训练阶段与预测阶段:
A)训练阶段:工作模块采用近端策略优化算法联合自适应时刻估计算法的方式进行训练,管理模块采用自适应时刻估计算法进行训练。计算时引入全局信息,并将选择的序列数据最大长度设置为8,在此基础上引入一个终止动作,模型的具体定义为下式:
其中,ht-1表示前一时刻长短时记忆模型输出,ht表示当前时刻长短时记忆模型输出,xt表示当前时刻输入的某个通道数据,X表示输入的特征图,即所有的通道数据,x0表示一个512维的零向量,x1表示将数据矩阵x和数据矩阵x0按行序拼接,ot表示t时刻所有数据的权重分布,函数g(xt,i)表示对t时刻的数据做归一化,得到归一化后的第i个数据的输出,w、b为模型参数,xt,i表示t时刻第i个通道数据,xt,k表示t时刻第k个通道数据,L为x1数据通道数目,此分布可以看作196个通道数据选择状态和一个终止状态的联合分布,p(at,i=1)表示t时刻第i个数据被选中的概率,at,i表示t时刻第i个数据被选中的状态,取值0或1,1表示选中,0表示没有选中,ot,i 表示t时刻第i个数据被选中的概率;
动作模型采用硬注意力机制从权重概率分布中选择数据进行采样,其训练时采用如下方式采样:
获得当前应采取的动作。
B)预测阶段:预测过程采用前向计算方式,工作模块从卷积神经网络输入的特征数据中进行自动选择。首先由长短时记忆模型按照公式(1)计算,然后动作模型采用硬注意力机制选取概率最大的权重值对应的数据,即:
获得当前应采取的动作,若动作不为终止动作,则跟据动作获得对应的通道数据,作为下一时刻待处理数据xt+1,执行步骤4),否则,执行步骤5)。
4)将下一时刻待处理数据xt+1赋值给当前数据,返回步骤3)。
5)将收集到的数据序列送入到管理模块进行分类。
A)训练阶段:工作模块训练需要的奖励函数由管理模块提供,奖励函数定义如下:
其中,R表示随着时间t推移获得的累计奖励,st表示由x0…xt构成的输入数据序列,γ表示折扣因子,取值为0到1之间的数,γt表示折扣因子随着时间t推移进行指数衰减,R(st)表示当前时刻t,由序列st得到的奖励,manager(st)表示管理模块对st的预测结果,这里采用标签对应的对数概率值为输出,at表示t时刻采样的状态,T表示终止动作。
根据分类结果和公式(4)分别训练工作模块和管理模块。
B)预测阶段:将分类结果输出。
本发明实施例仅为说明本申请技术方案,本领域技术人员在本申请基础上所做的同类替代,如将卷积神经网络替换为结合其他深度学习模型或者机器学习的方案,将处理序列数据的长短时记忆模型替换为其他方法,或是将硬注意力机制采样方法替换为其他方法等均应属于本申请保护的范围。
Claims (1)
1.一种基于强化学习的图像分类方法,它使用依次连接的卷积神经网络以及特征选择和分类模块,所述特征选择和分类模块包括工作模块和管理模块两个子模块,工作模块由长短时记忆模型和与之相连接的动作模型组成,管理模块使用长短时记忆模型;其方法步骤为:
1)将输入图片经过卷积神经网络生成特征图,并按行序转为通道序列数据;
2)特征选择和分类模块中的工作模块利用长短时记忆模型对输入的当前数据依次进行处理,生成所有输入数据的权重概率分布,首先初始化工作模块中长短时记忆模型的h0为零向量,其中h0表示长短时记忆模型初始隐藏层状态,输入当前数据x0为第一个通道数据,初始化管理模块中长短时记忆模型的初始隐藏层状态为零向量;
3)将当前数据xt输入到工作模块,分为训练阶段与预测阶段:
A)训练阶段:工作模块采用近端策略优化算法联合自适应时刻估计算法的方式进行训练,管理模块采用自适应时刻估计算法进行训练;计算时引入全局信息,并将选择的序列数据最大长度设置为8,在此基础上引入一个终止动作,模型的具体定义为下式:
其中,ht-1表示前一时刻长短时记忆模型输出,ht表示当前时刻长短时记忆模型输出,xt表示当前时刻输入的某个通道数据,X表示输入的特征图,即所有的通道数据,x0表示一个512维的零向量,x1表示将数据矩阵x和数据矩阵x0按行序拼接,ot表示t时刻所有数据的权重分布,函数g(xt,i)表示对t时刻的数据做归一化,得到归一化后的第i个数据的输出,w、b为模型参数,xt,i表示t时刻第i个通道数据,xt,k表示t时刻第k个通道数据,L为x1数据通道数目,此分布可以看作196个通道数据选择状态和一个终止状态的联合分布,p(at,i=1)表示t时刻第i个数据被选中的概率,at,i表示t时刻第i个数据被选中的状态,取值0或1,1表示选中,0表示没有选中,ot,i 表示t时刻第i个数据被选中的概率;
动作模型采用硬注意力机制从权重概率分布中选择数据进行采样,其训练时采用如下方式采样:
获得当前应采取的动作;
B)预测阶段:预测过程采用前向计算方式,工作模块从卷积神经网络输入的特征数据中进行自动选择,首先由长短时记忆模型按照公式(1)计算,然后动作模型采用硬注意力机制选取概率最大的权重值对应的数据,即:
获得当前应采取的动作,若动作不为终止动作,则跟据动作获得对应的通道数据,作为下一时刻待处理数据xt+1,执行步骤4),否则,执行步骤5);
4)将下一时刻待处理数据xt+1赋值给当前数据,返回步骤3);
5)将收集到的当前数据序列送入到管理模块进行分类;
A)训练阶段:工作模块训练需要的奖励函数由管理模块提供,奖励函数定义如下:
其中,R表示随着时间t推移获得的累计奖励,st表示由x0…xt构成的输入数据序列,γ表示折扣因子,取值为0到1之间的数,γt表示折扣因子随着时间t推移进行指数衰减,R(st)表示当前时刻t,由序列st得到的奖励,manager(st)表示管理模块对st的预测结果,这里采用标签对应的对数概率值为输出,at表示t时刻采样的状态,T表示终止动作;
根据分类结果和公式(4)分别训练工作模块和管理模块;
B)预测阶段:将分类结果输出。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010340775.9A CN111242246B (zh) | 2020-04-27 | 2020-04-27 | 一种基于强化学习的图像分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010340775.9A CN111242246B (zh) | 2020-04-27 | 2020-04-27 | 一种基于强化学习的图像分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111242246A CN111242246A (zh) | 2020-06-05 |
CN111242246B true CN111242246B (zh) | 2020-07-28 |
Family
ID=70879055
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010340775.9A Active CN111242246B (zh) | 2020-04-27 | 2020-04-27 | 一种基于强化学习的图像分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111242246B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113139644B (zh) * | 2021-03-24 | 2024-02-09 | 北京科技大学顺德研究生院 | 一种基于深度蒙特卡洛树搜索的信源导航方法及装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107609460B (zh) * | 2017-05-24 | 2021-02-02 | 南京邮电大学 | 一种融合时空双重网络流和attention机制的人体行为识别方法 |
CN108829677B (zh) * | 2018-06-05 | 2021-05-07 | 大连理工大学 | 一种基于多模态注意力的图像标题自动生成方法 |
CN109902750A (zh) * | 2019-03-04 | 2019-06-18 | 山西大学 | 基于双向单注意力机制图像描述方法 |
-
2020
- 2020-04-27 CN CN202010340775.9A patent/CN111242246B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN111242246A (zh) | 2020-06-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113688723B (zh) | 一种基于改进YOLOv5的红外图像行人目标检测方法 | |
CN111581966B (zh) | 一种融合上下文特征方面级情感分类方法和装置 | |
CN109299237B (zh) | 基于行动者评论家强化学习算法的循环网络人机对话方法 | |
CN111507993A (zh) | 一种基于生成对抗网络的图像分割方法、装置及存储介质 | |
CN111279362A (zh) | 胶囊神经网络 | |
CN110458084B (zh) | 一种基于倒置残差网络的人脸年龄估计方法 | |
CN112541124B (zh) | 生成多任务模型的方法、装置、设备、介质及程序产品 | |
Xia et al. | Fully dynamic inference with deep neural networks | |
CN110770759A (zh) | 神经网络系统 | |
US20230274150A1 (en) | Performing Inference And Training Using Sparse Neural Network | |
Jiang et al. | Difnet: Semantic segmentation by diffusion networks | |
CN116306686B (zh) | 一种多情绪指导的共情对话生成方法 | |
WO2020152233A1 (en) | Action selection using interaction history graphs | |
CN112710310A (zh) | 一种视觉语言室内导航方法、系统、终端及应用 | |
CN111242246B (zh) | 一种基于强化学习的图像分类方法 | |
CN112560440A (zh) | 一种基于深度学习的面向方面级情感分析的句法依赖方法 | |
CN117094365A (zh) | 图文生成模型的训练方法、装置、电子设备及介质 | |
Ma et al. | Temporal pyramid recurrent neural network | |
CN110990630B (zh) | 一种基于图建模视觉信息的利用问题指导的视频问答方法 | |
CN115995002B (zh) | 一种网络构建方法及城市场景实时语义分割方法 | |
CN114648021A (zh) | 问答模型的训练方法、问答方法及装置、设备和存储介质 | |
CN114764593A (zh) | 一种模型训练方法、模型训练装置及电子设备 | |
CN113962332A (zh) | 基于自优化融合反馈的显著目标识别方法 | |
CN113052810A (zh) | 一种适用于移动应用的小巧医学影像病灶分割方法 | |
CN114638365B (zh) | 一种机器阅读理解推理方法及装置、电子设备、存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |