CN115114903B - 用户故事审核方法及装置 - Google Patents

用户故事审核方法及装置 Download PDF

Info

Publication number
CN115114903B
CN115114903B CN202210744203.6A CN202210744203A CN115114903B CN 115114903 B CN115114903 B CN 115114903B CN 202210744203 A CN202210744203 A CN 202210744203A CN 115114903 B CN115114903 B CN 115114903B
Authority
CN
China
Prior art keywords
matrix
word
user story
similarity
weight value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210744203.6A
Other languages
English (en)
Other versions
CN115114903A (zh
Inventor
党娜
刘洋
李�昊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bank of China Ltd
Original Assignee
Bank of China Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bank of China Ltd filed Critical Bank of China Ltd
Priority to CN202210744203.6A priority Critical patent/CN115114903B/zh
Publication of CN115114903A publication Critical patent/CN115114903A/zh
Application granted granted Critical
Publication of CN115114903B publication Critical patent/CN115114903B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Databases & Information Systems (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computing Systems (AREA)
  • Algebra (AREA)
  • Software Systems (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种用户故事审核方法及装置,涉及金融技术领域;其中该方法包括:对产品需求的文本信息进行分词处理、分句处理,得到多个分词和多个分句;根据每一分词在每一分句中的第一权重值构造第一矩阵;采用LAS语义分析模型合并第一矩阵中第一相似度大于第一预设相似度的列,得到第一矩阵对应的第二矩阵;根据每一分词在每一用户故事中的第三权重值,分别构造每一用户故事对应的第三矩阵;根据每一用户故事的第三矩阵、第二矩阵,计算每一用户故事与每一需求之间的第二相似度;确定每一用户故事对应的最大第二相似度,对应最大第二相似度小于第二预设相似度的用户故事审核不通过。本发明可以提高用户故事的审核效率。

Description

用户故事审核方法及装置
技术领域
本发明涉及金融技术领域,尤其涉及用户故事审核方法及装置。需要说明的是,本发明理财产品信息推送方法及装置可用于金融技术领域,也可用于除金融技术领域之外的任意领域,本发明理财产品信息推送方法及装置的应用领域不做限定。
背景技术
本部分旨在为权利要求书中陈述的本发明实施例提供背景或上下文。此处的描述不因为包括在本部分中就承认是现有技术。
敏捷开发的过程中,首先需要业务负责人将产品需求拆分成一个一个用户故事。目前都是业务负责人根据自己的经验进行拆分,不同业务负责人将产品需求拆分成用户故事的数量以及质量都不一样,导致拆分出来的用户故事质量不一致,用户故事拆分不准确,加大后期开发测试的难度。因此需要对业务负责人拆分的用户故事进行审核,目前的审核主要通过人工复核的方式,效率低,且审核结果受审核人员主观因素的影响,缺乏准确性。
发明内容
本发明实施例提供一种用户故事审核方法,用以提高用户故事的审核效率、以及审核准确性,该方法包括:
获取产品需求的文本信息,对所述文本信息进行分词处理、分句处理,得到多个分词和多个分句;
分别计算每一分词在每一分句中的第一权重值,根据每一分词在每一分句中的第一权重值构造第一矩阵;其中,所述第一矩阵的每一列代表一个分句,每一行代表一个分词,第一矩阵中的每个元素值为对应分词在对应分句中的第一权重值;
采用潜在LAS语义分析模型合并第一矩阵中第一相似度大于第一预设相似度的列,得到第一矩阵对应的第二矩阵;其中,所述第二矩阵中的每一列代表文本信息中的一个需求,每一行代表一个分词,第二矩阵的每个元素值代表对应分词在对应需求中的第二权重值;
计算每一分词在每一用户故事中的第三权重值,根据每一分词在每一用户故事中的第三权重值,分别构造每一用户故事对应的第三矩阵;其中,所述第三矩阵包含一列,第三矩阵的列代表该第三矩阵对应的用户故事,每行代表一个分词,第三矩阵中的每个元素值为对应分词在该第三矩阵对应的用户故事中的第三权重值;
根据每一用户故事的第三矩阵、以及所述第二矩阵,计算每一用户故事与每一需求之间的第二相似度;
从每个用户故事分别对应的各第二相似度中确定每一用户故事对应的最大第二相似度,对应最大第二相似度小于第二预设相似度的用户故事审核不通过。
本发明实施例还提供一种用户故事审核装置,用以提高用户故事的审核效率、以及审核准确性,该装置包括:
第一处理模块,用于获取产品需求的文本信息,对所述文本信息进行分词处理、分句处理,得到多个分词和多个分句;
第二处理模块,用于分别计算每一分词在每一分句中的第一权重值,根据每一分词在每一分句中的第一权重值构造第一矩阵;其中,所述第一矩阵的每一列代表一个分句,每一行代表一个分词,第一矩阵中的每个元素值为对应分词在对应分句中的第一权重值;
语义分析模块,用于采用潜在LAS语义分析模型合并第一矩阵中第一相似度大于第一预设相似度的列,得到第一矩阵对应的第二矩阵;其中,所述第二矩阵中的每一列代表文本信息中的一个需求,每一行代表一个分词,第二矩阵的每个元素值代表对应分词在对应需求中的第二权重值;
第三处理模块,用于计算每一分词在每一用户故事中的第三权重值,根据每一分词在每一用户故事中的第三权重值,分别构造每一用户故事对应的第三矩阵;其中,所述第三矩阵包含一列,第三矩阵的列代表该第三矩阵对应的用户故事,每行代表一个分词,第三矩阵中的每个元素值为对应分词在该第三矩阵对应的用户故事中的第三权重值;
第四处理模块,根据每一用户故事的第三矩阵、以及所述第二矩阵,计算每一用户故事与每一需求之间的第二相似度;
审核模块,用于从每个用户故事分别对应的各第二相似度中确定每一用户故事对应的最大第二相似度,对应最大第二相似度小于第二预设相似度的用户故事审核不通过。
本发明实施例还提供一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述用户故事审核方法。
本发明实施例还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述用户故事审核方法。
本发明实施例还提供一种计算机程序产品,所述计算机程序产品包括计算机程序,所述计算机程序被处理器执行时实现上述用户故事审核方法。
本发明实施例中,获取产品需求的文本信息,对所述文本信息进行分词处理、分句处理,得到多个分词和多个分句;分别计算每一分词在每一分句中的第一权重值,根据每一分词在每一分句中的第一权重值构造第一矩阵;其中,所述第一矩阵的每一列代表一个分句,每一行代表一个分词,第一矩阵中的每个元素值为对应分词在对应分句中的第一权重值;采用潜在LAS语义分析模型合并第一矩阵中第一相似度大于第一预设相似度的列,得到第一矩阵对应的第二矩阵;其中,所述第二矩阵中的每一列代表文本信息中的一个需求,每一行代表一个分词,第二矩阵的每个元素值代表对应分词在对应需求中的第二权重值;计算每一分词在每一用户故事中的第三权重值,根据每一分词在每一用户故事中的第三权重值,分别构造每一用户故事对应的第三矩阵;其中,所述第三矩阵包含一列,第三矩阵的列代表该第三矩阵对应的用户故事,每行代表一个分词,第三矩阵中的每个元素值为对应分词在该第三矩阵对应的用户故事中的第三权重值;根据每一用户故事的第三矩阵、以及所述第二矩阵,计算每一用户故事与每一需求之间的第二相似度;从每个用户故事分别对应的各第二相似度中确定每一用户故事对应的最大第二相似度,对应最大第二相似度小于第二预设相似度的用户故事审核不通过。这样,根据用户故事和产品需求包含的各需求之间的相似度,确定该产品需求对应的用户故事拆分是否准确、合理,提高用户故事的审核效率、以及审核准确性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1为本发明实施例中提供的一种用户故事审核方法的流程图;
图2为本发明实施例中提供的一种分别计算每一分词在每一分句中的第一权重值的方法流程图;
图3为本发明实施例中提供的一种在确定文本信息的每一分词分别在每一用户故事中的第三权重的方法流程图;
图4为本发明实施例中提供的一种采用潜在LAS语义分析模型合并第一矩阵中第一相似度大于第一预设相似度列,得到第一矩阵对应的第二矩阵的方法流程图;
图5为本发明实施例中提供的一种用户故事审核装置的示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚明白,下面结合附图对本发明实施例做进一步详细说明。在此,本发明的示意性实施例及其说明用于解释本发明,但并不作为对本发明的限定。
本申请技术方案中对数据的获取、存储、使用、处理等均符合国家法律法规的相关规定。
本文中术语“和/或”,仅仅是描述一种关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中术语“至少一种”表示多种中的任意一种或多种中的至少两种的任意组合,例如,包括A、B、C中的至少一种,可以表示包括从A、B和C构成的集合中选择的任意一个或多个元素。
在本说明书的描述中,所使用的“包含”、“包括”、“具有”、“含有”等,均为开放性的用语,即意指包含但不限于。参考术语“一个实施例”、“一个具体实施例”、“一些实施例”、“例如”等的描述意指结合该实施例或示例描述的具体特征、结构或者特点包含于本申请的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。各实施例中涉及的步骤顺序用于示意性说明本申请的实施,其中的步骤顺序不作限定,可根据需要作适当调整。
经研究发现,敏捷开发的过程中,首先需要业务负责人将产品需求拆分成一个一个用户故事。目前都是业务负责人根据自己的经验进行拆分,不同业务负责人将产品需求拆分成用户故事的数量以及质量都不一样,导致拆分出来的用户故事质量不一致,用户故事拆分不准确,加大后期开发测试的难度。因此需要对业务负责人拆分的用户故事进行审核,目前的审核主要通过人工复核的方式,效率低,且审核结果受审核人员主观因素的影响,缺乏准确性。
针对上述研究,本发明实施例提供一种用户故事审核方法,如图1所示,包括:
S101:获取产品需求的文本信息,对所述文本信息进行分词处理、分句处理,得到多个分词和多个分句;
S102:分别计算每一分词在每一分句中的第一权重值,根据每一分词在每一分句中的第一权重值构造第一矩阵;其中,所述第一矩阵的每一列代表一个分句,每一行代表一个分词,第一矩阵中的每个元素值为对应分词在对应分句中的第一权重值;
S103:采用潜在LAS语义分析模型合并第一矩阵中第一相似度大于第一预设相似度的列,得到第一矩阵对应的第二矩阵;其中,所述第二矩阵中的每一列代表文本信息中的一个需求,每一行代表一个分词,第二矩阵的每个元素值代表对应分词在对应需求中的第二权重值;
S104:计算每一分词在每一用户故事中的第三权重值,根据每一分词在每一用户故事中的第三权重值,分别构造每一用户故事对应的第三矩阵;其中,所述第三矩阵包含一列,第三矩阵的列代表该第三矩阵对应的用户故事,每行代表一个分词,第三矩阵中的每个元素值为对应分词在该第三矩阵对应的用户故事中的第三权重值;
S105:根据每一用户故事的第三矩阵、以及所述第二矩阵,计算每一用户故事与每一需求之间的第二相似度;
S106:从每个用户故事分别对应的各第二相似度中确定每一用户故事对应的最大第二相似度,对应最大第二相似度小于第二预设相似度的用户故事审核不通过。
本发明实施例中,获取产品需求的文本信息,对所述文本信息进行分词处理、分句处理,得到多个分词和多个分句;分别计算每一分词在每一分句中的第一权重值,根据每一分词在每一分句中的第一权重值构造第一矩阵;其中,所述第一矩阵的每一列代表一个分句,每一行代表一个分词,第一矩阵中的每个元素值为对应分词在对应分句中的第一权重值;采用潜在LAS语义分析模型合并第一矩阵中第一相似度大于第一预设相似度的列,得到第一矩阵对应的第二矩阵;其中,所述第二矩阵中的每一列代表文本信息中的一个需求,每一行代表一个分词,第二矩阵的每个元素值代表对应分词在对应需求中的第二权重值;计算每一分词在每一用户故事中的第三权重值,根据每一分词在每一用户故事中的第三权重值,分别构造每一用户故事对应的第三矩阵;其中,所述第三矩阵包含一列,第三矩阵的列代表该第三矩阵对应的用户故事,每行代表一个分词,第三矩阵中的每个元素值为对应分词在该第三矩阵对应的用户故事中的第三权重值;根据每一用户故事的第三矩阵、以及所述第二矩阵,计算每一用户故事与每一需求之间的第二相似度;从每个用户故事分别对应的各第二相似度中确定每一用户故事对应的最大第二相似度,对应最大第二相似度小于第二预设相似度的用户故事审核不通过。这样,根据用户故事和产品需求包含的各需求之间的相似度,确定该产品需求对应的用户故事拆分是否准确、合理,提高用户故事的审核效率、以及审核准确性。
下面对上述用户故事审核方法加以详细说明。
针对上述S101,例如可以才采用下述任一种方法对产品需求的文本信息进行分词处理:正向最大匹配分词算法、逆向最大匹配分词算法、双向最大匹配分词算法、最少切分分词算法等。
此外,对产品信息的文本信息进行分句处理时,例如可以根据预设符号,将文本信息从预设符号处进行拆分得到对应的多个分句。
其中,预设符号例如包括:句号、感叹号等。
另外,为了进一步加强对文本信息进行分词、分句的效率,本发明一实施例中,对所述文本信息进行分词处理、分句处理之前还包括:根据预设的停用词库,删除所述文本信息中的停用词。
此处,停用词例如为文本信息中包含的和用户故事审核过程无关的词汇,预先将这些无关的词汇保存在停用词库中。
针对上述S102,对文本信息分词处理会得到多个分词,另外对文本信息进行分句处理也会得到多个分句,每个分句中会包含部分或全部上述得到的多个分词,分句的语义表达通过分词实现,不同分词对分句的语义表达贡献不同,因此,进一步计算每个分词在每一分句中的第一权重值。计算每个分词在每一分句中的第一权重值时例如可以采用词频-逆文本频率指数(term frequency–inverse document frequency,TF-IDF)算法。
具体的,如图2所示,为本发明实施例提供的一种分别计算每一分词在每一分句中的第一权重值的方法流程图,包括:
S201:统计每一分词在每一分句中出现的第一次数;
S202:统计每一分词在所述文本信息中出现的第二次数;
S203:分别利用每一分词在每一分句中出现的第一次数,除以该分词对应的第二次数,得到每一分词在每一分句中的第一权重值。
例如,文本信息分词后一共得到2个分词(分词1、分词2),文本信息进行分句后一共得到3个分句(分句1、分句2、分句3),分词1在分句1中出现的次数为2次,在分句2中出现的次数为0次,在分句3中出现的次数为1次,分词1在文本信息中出现的次数为3次;分词2在分句1中出现的次数为2次,在分句2中出现的次数为1次,在分句3中出现的次数为1次,分词2在文本信息中出现的次数为4次;则分词1在分句1中的第一次数为1,在文本信息中的第二次数为3,分词1在分句1中的第一权重为:分词1在分句2中的第一次数为0,在文本信息中的第二次数为3,分词1在分句2中的第一权重值为:0;分词1在分句3中的第一次数为2,在文本信息中的第二次数为3,分词1在分句3中的第一权重值为:/>分词2在分句1中的第一次数为2,在文本信息中的第二次数为4,分词2在分句1中的第一权重值为:/>分词2在分句2中的第一次数为1,在文本信息中的第二次数为4,分词2在分句2中的第一权重值为:/>分词2在分句3中的第一次数为1,在文本信息中的第二次数为4,分词2在分句3中的第一权重值为:
对应的,针对上述S104,如图3所示,在确定文本信息的每一分词分别在每一用户故事中的第三权重时,例如可以采用下述方法:
S301:统计每一分词在每一用户故事中出现的第三次数;
S302:统计每一分词在所述文本信息对应的所有用户故事中的第四出现次数;
S303:分别利用每一分词在每一用户故事中出现的第三次数,除以该分词对应的第四次数,得到每一分词在每一用户故事中的第三权重值。
进一步,根据每一分词在每一分句中的第一权重值构造第一矩阵。
其中,所述第一矩阵的每一列代表一个分句,每一行代表一个分词,第一矩阵中的每个元素值为对应分词在对应分句中的第一权重值,也即,第一矩阵的列数等于所述文本信息的分句数量,第一矩阵的行数等于文本信息的分词数量。
例如,文本信息一共得到2个分词(分词1、分词2),文本信息进行分句后一共得到3个分句(分句1、分句2、分句3),其中分词1在分句1中的第一权重值为X11,在分句2中的第一权重值为X12,在分句3中的第一权重为X13,分词2在分句1中的第一权重值为X21,在分句2中的第一权重值为X22,在分句3中的第一权重值为X23,得到的第一矩阵就为:其中,第一列代表分句1,第二列代表分句2,第3列代表分句3,第1行代表分词1,第2行代表分词2,第1行第1列对应的元素值为分词1在分句1中的第一权重值。
针对上述S103,产品需求的文本信息中包含多个需求,文本信息拆分得到的多个分句中某些分句表达的语义相似,其可能对应于同一个需求,因此可以预先根据产品需求的文本信息确定其中包含的需求数量,然后采用潜在(listen,attend and spell,LAS)语义分析模型合并第一矩阵中第一相似度大于第一预设相似度的列,得到第一矩阵对应的第二矩阵,这样,第二矩阵中的每一列代表文本信息中的一个需求,每一行代表一个分词,第二矩阵的每个元素值代表对应分词在对应需求中的第二权重值。
具体的,如图4所示,为本发明实施例提供的一种采用潜在LAS语义分析模型合并第一矩阵中第一相似度大于第一预设相似度列,得到第一矩阵对应的第二矩阵的方法流程图,包括:
S401:预先根据文本信息确定文本信息中包含的需求数量;
S402:根据文本信息中包含的需求数量,采用LAS语义分析模型对第一矩阵进行奇异值分解;
S403:根据奇异值分解实现第一矩阵中第一相似度大于第一预设相似度的列,得到第一矩阵对应的第二矩阵。
例如,第一矩阵为一个m行n列的矩阵Xm×n,预先根据文本信息确定文本信息中包含的需求数量为k,则对Xm×n进行奇异值分解,可以将Xm×n分解为一个m行k列的矩阵Um×k(第二矩阵)和一个k行k列的矩阵Pk×k和一个k行n列的矩阵即/>其中,T代表矩阵中的转置符号。其中,m代表文本信息拆分得到的分词数量,n代表文本信息拆分得到的分句的数量,分解得到的Um×k就为第二矩阵,k就为将Xm×n矩阵中第一相似度大于第一预设相似度的列合并后得到的矩阵的列数,Um×k中的每一列代表一个用户需求,每一行代表一个分词,每个元素值代表对应分词在对应需求中的第二权重值。
针对上述S105,根据每一用户故事的第三矩阵、以及所述第二矩阵,计算每一用户故事与每一需求之间的第二相似度,例如包括:分别计算第二矩阵每一列与每一第三矩阵第三相似度,将每一第三矩阵与第二矩阵每一列的第三相似度作为对应用户故事与对应需求之间的第二相似度。
示例性的,第二矩阵为其中/>代表需求1,/>代表需求2,一个用户故事的第三矩阵为/>则分别计算/>和/>的第三相似度S1,以及/>和/>的第三相似度S2,将S1作为该用户故事与需求1的第二相似度,将S2作为该用户故事与需求2的第二相似度。
本发明一实施例中,计算第二矩阵每一列与每一第三矩阵第三相似度时,例如可以采用下述公式计算第二矩阵每一列与每一第三矩阵第三相似度:其中,Xi代表第三矩阵第i行的元素值,Yi代表第二矩阵的对应列的第i行的元素值,m代表第三矩阵、第二矩阵的总行数,等于文本信息拆分得到的分词数量。
针对上述S106,每个用户故事与每个需求都会计算出一个第二相似度,当文本信息中包含多个需求时,一个用户故事会对应多个第二相似度,从每个用户故事分别对应的各第二相似度中确定每一用户故事对应的最大第二相似度,对应最大第二相似度小于第二预设相似度的用户故事审核不通过。
本发明实施例中还提供了一种用户故事审核装置,如下面的实施例所述。由于该装置解决问题的原理与用户故事审核方法相似,因此该装置的实施可以参见用户故事审核方法的实施,重复之处不再赘述。
如图5所示,为本发明实施例提供的一种用户故事审核装置的示意图,包括:
第一处理模块501,用于获取产品需求的文本信息,对所述文本信息进行分词处理、分句处理,得到多个分词和多个分句;
第二处理模块502,用于分别计算每一分词在每一分句中的第一权重值,根据每一分词在每一分句中的第一权重值构造第一矩阵;其中,所述第一矩阵的每一列代表一个分句,每一行代表一个分词,第一矩阵中的每个元素值为对应分词在对应分句中的第一权重值;
语义分析模块503,用于采用潜在LAS语义分析模型合并第一矩阵中第一相似度大于第一预设相似度的列,得到第一矩阵对应的第二矩阵;其中,所述第二矩阵中的每一列代表文本信息中的一个需求,每一行代表一个分词,第二矩阵的每个元素值代表对应分词在对应需求中的第二权重值;
第三处理模块504,用于计算每一分词在每一用户故事中的第三权重值,根据每一分词在每一用户故事中的第三权重值,分别构造每一用户故事对应的第三矩阵;其中,所述第三矩阵包含一列,第三矩阵的列代表该第三矩阵对应的用户故事,每行代表一个分词,第三矩阵中的每个元素值为对应分词在该第三矩阵对应的用户故事中的第三权重值;
第四处理模块505,根据每一用户故事的第三矩阵、以及所述第二矩阵,计算每一用户故事与每一需求之间的第二相似度;
审核模块506,用于从每个用户故事分别对应的各第二相似度中确定每一用户故事对应的最大第二相似度,对应最大第二相似度小于第二预设相似度的用户故事审核不通过。
在一种可能的实施方式中,还包括:文本信息预处理模块,用于根据预设的停用词库,删除所述文本信息中的停用词。
在一种可能的实施方式中,第二处理模块,具体用于统计每一分词在每一分句中出现的第一次数;统计每一分词在所述文本信息中出现的第二次数;分别利用每一分词在每一分句中出现的第一次数,除以该分词对应的第二次数,得到每一分词在每一分句中的第一权重值。
在一种可能的实施方式中,第三处理模块,具体用于统计每一分词在每一用户故事中出现的第三次数;统计每一分词在所述文本信息对应的所有用户故事中的第四出现次数;分别利用每一分词在每一用户故事中出现的第三次数,除以该分词对应的第四次数,得到每一分词在每一用户故事中的第三权重值。
在一种可能的实施方式中,语义分析模块,具体用于预先根据文本信息确定文本信息中包含的需求数量;根据文本信息中包含的需求数量,采用LAS语义分析模型对第一矩阵进行奇异值分解;根据奇异值分解实现第一矩阵中第一相似度大于第一预设相似度的列,得到第一矩阵对应的第二矩阵。
在一种可能的实施方式中,第四处理模块,具体用于分别计算第二矩阵每一列与每一第三矩阵第三相似度,将每一第三矩阵与第二矩阵每一列的第三相似度作为对应用户故事与对应需求之间的第二相似度。
基于前述发明构思,本发明还提出了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现前述用户故事审核方法。
本发明实施例还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述用户故事审核方法。
本发明实施例还提供一种计算机程序产品,所述计算机程序产品包括计算机程序,所述计算机程序被处理器执行时实现上述用户故事审核方法。
本发明实施例中,获取产品需求的文本信息,对所述文本信息进行分词处理、分句处理,得到多个分词和多个分句;分别计算每一分词在每一分句中的第一权重值,根据每一分词在每一分句中的第一权重值构造第一矩阵;其中,所述第一矩阵的每一列代表一个分句,每一行代表一个分词,第一矩阵中的每个元素值为对应分词在对应分句中的第一权重值;采用潜在LAS语义分析模型合并第一矩阵中第一相似度大于第一预设相似度的列,得到第一矩阵对应的第二矩阵;其中,所述第二矩阵中的每一列代表文本信息中的一个需求,每一行代表一个分词,第二矩阵的每个元素值代表对应分词在对应需求中的第二权重值;计算每一分词在每一用户故事中的第三权重值,根据每一分词在每一用户故事中的第三权重值,分别构造每一用户故事对应的第三矩阵;其中,所述第三矩阵包含一列,第三矩阵的列代表该第三矩阵对应的用户故事,每行代表一个分词,第三矩阵中的每个元素值为对应分词在该第三矩阵对应的用户故事中的第三权重值;根据每一用户故事的第三矩阵、以及所述第二矩阵,计算每一用户故事与每一需求之间的第二相似度;从每个用户故事分别对应的各第二相似度中确定每一用户故事对应的最大第二相似度,对应最大第二相似度小于第二预设相似度的用户故事审核不通过。这样,根据用户故事和产品需求包含的各需求之间的相似度,确定该产品需求对应的用户故事拆分是否准确、合理,提高用户故事的审核效率、以及审核准确性。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (13)

1.一种用户故事审核方法,其特征在于,包括:
获取产品需求的文本信息,对所述文本信息进行分词处理、分句处理,得到多个分词和多个分句;
分别计算每一分词在每一分句中的第一权重值,根据每一分词在每一分句中的第一权重值构造第一矩阵;其中,所述第一矩阵的每一列代表一个分句,每一行代表一个分词,第一矩阵中的每个元素值为对应分词在对应分句中的第一权重值;
采用潜在LAS语义分析模型合并第一矩阵中第一相似度大于第一预设相似度的列,得到第一矩阵对应的第二矩阵;其中,所述第二矩阵中的每一列代表文本信息中的一个需求,每一行代表一个分词,第二矩阵的每个元素值代表对应分词在对应需求中的第二权重值;
计算每一分词在每一用户故事中的第三权重值,根据每一分词在每一用户故事中的第三权重值,分别构造每一用户故事对应的第三矩阵;其中,所述第三矩阵包含一列,第三矩阵的列代表该第三矩阵对应的用户故事,每行代表一个分词,第三矩阵中的每个元素值为对应分词在该第三矩阵对应的用户故事中的第三权重值;
根据每一用户故事的第三矩阵、以及所述第二矩阵,计算每一用户故事与每一需求之间的第二相似度;
从每个用户故事分别对应的各第二相似度中确定每一用户故事对应的最大第二相似度,对应最大第二相似度小于第二预设相似度的用户故事审核不通过。
2.如权利要求1所述的用户故事审核方法,其特征在于,对所述文本信息进行分词处理、分句处理之前还包括:
根据预设的停用词库,删除所述文本信息中的停用词。
3.如权利要求1所述的用户故事审核方法,其特征在于,分别计算每一分词在每一分句中的第一权重值,包括:
统计每一分词在每一分句中出现的第一次数;
统计每一分词在所述文本信息中出现的第二次数;
分别利用每一分词在每一分句中出现的第一次数,除以该分词对应的第二次数,得到每一分词在每一分句中的第一权重值。
4.如权利要求3所述的用户故事审核方法,其特征在于,计算每一分词在每一用户故事中的第三权重值,包括:
统计每一分词在每一用户故事中出现的第三次数;
统计每一分词在所述文本信息对应的所有用户故事中的第四出现次数;
分别利用每一分词在每一用户故事中出现的第三次数,除以该分词对应的第四次数,得到每一分词在每一用户故事中的第三权重值。
5.如权利要求1所述的用户故事审核方法,其特征在于,采用潜在LAS语义分析模型合并第一矩阵中第一相似度大于第一预设相似度列,得到第一矩阵对应的第二矩阵,包括:
预先根据文本信息确定文本信息中包含的需求数量;
根据文本信息中包含的需求数量,采用LAS语义分析模型对第一矩阵进行奇异值分解;
根据奇异值分解实现第一矩阵中第一相似度大于第一预设相似度的列,得到第一矩阵对应的第二矩阵。
6.如权利要求1所述的用户故事审核方法,其特征在于,根据每一用户故事的第三矩阵、以及所述第二矩阵,计算每一用户故事与每一需求之间的第二相似度,包括:
分别计算第二矩阵每一列与每一第三矩阵第三相似度,将每一第三矩阵与第二矩阵每一列的第三相似度作为对应用户故事与对应需求之间的第二相似度。
7.一种用户故事审核装置,其特征在于,包括:
第一处理模块,用于获取产品需求的文本信息,对所述文本信息进行分词处理、分句处理,得到多个分词和多个分句;
第二处理模块,用于分别计算每一分词在每一分句中的第一权重值,根据每一分词在每一分句中的第一权重值构造第一矩阵;其中,所述第一矩阵的每一列代表一个分句,每一行代表一个分词,第一矩阵中的每个元素值为对应分词在对应分句中的第一权重值;
语义分析模块,用于采用潜在LAS语义分析模型合并第一矩阵中第一相似度大于第一预设相似度的列,得到第一矩阵对应的第二矩阵;其中,所述第二矩阵中的每一列代表文本信息中的一个需求,每一行代表一个分词,第二矩阵的每个元素值代表对应分词在对应需求中的第二权重值;
第三处理模块,用于计算每一分词在每一用户故事中的第三权重值,根据每一分词在每一用户故事中的第三权重值,分别构造每一用户故事对应的第三矩阵;其中,所述第三矩阵包含一列,第三矩阵的列代表该第三矩阵对应的用户故事,每行代表一个分词,第三矩阵中的每个元素值为对应分词在该第三矩阵对应的用户故事中的第三权重值;
第四处理模块,用于根据每一用户故事的第三矩阵、以及所述第二矩阵,计算每一用户故事与每一需求之间的第二相似度;
审核模块,用于从每个用户故事分别对应的各第二相似度中确定每一用户故事对应的最大第二相似度,对应最大第二相似度小于第二预设相似度的用户故事审核不通过。
8.如权利要求7所述的用户故事审核装置,其特征在于,还包括:文本信息预处理模块,用于根据预设的停用词库,删除所述文本信息中的停用词。
9.如权利要求7所述的用户故事审核装置,其特征在于,第二处理模块,具体用于统计每一分词在每一分句中出现的第一次数;
统计每一分词在所述文本信息中出现的第二次数;
分别利用每一分词在每一分句中出现的第一次数,除以该分词对应的第二次数,得到每一分词在每一分句中的第一权重值。
10.如权利要求9所述的用户故事审核装置,其特征在于,第三处理模块,具体用于统计每一分词在每一用户故事中出现的第三次数;
统计每一分词在所述文本信息对应的所有用户故事中的第四出现次数;
分别利用每一分词在每一用户故事中出现的第三次数,除以该分词对应的第四次数,得到每一分词在每一用户故事中的第三权重值。
11.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至6任一所述方法。
12.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1至6任一所述方法。
13.一种计算机程序产品,其特征在于,所述计算机程序产品包括计算机程序,所述计算机程序被处理器执行时实现权利要求1至6任一所述方法。
CN202210744203.6A 2022-06-28 2022-06-28 用户故事审核方法及装置 Active CN115114903B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210744203.6A CN115114903B (zh) 2022-06-28 2022-06-28 用户故事审核方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210744203.6A CN115114903B (zh) 2022-06-28 2022-06-28 用户故事审核方法及装置

Publications (2)

Publication Number Publication Date
CN115114903A CN115114903A (zh) 2022-09-27
CN115114903B true CN115114903B (zh) 2024-05-24

Family

ID=83330944

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210744203.6A Active CN115114903B (zh) 2022-06-28 2022-06-28 用户故事审核方法及装置

Country Status (1)

Country Link
CN (1) CN115114903B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006331245A (ja) * 2005-05-30 2006-12-07 Nippon Telegr & Teleph Corp <Ntt> 情報検索装置、情報検索方法およびプログラム
CN108197111A (zh) * 2018-01-10 2018-06-22 华南理工大学 一种基于融合语义聚类的文本自动摘要方法
CN110033022A (zh) * 2019-03-08 2019-07-19 腾讯科技(深圳)有限公司 文本的处理方法、装置和存储介质
CN111767724A (zh) * 2020-06-11 2020-10-13 安徽旅贲科技有限公司 一种文本相似度计算方法及系统
WO2021043076A1 (zh) * 2019-09-06 2021-03-11 平安科技(深圳)有限公司 网络发布数据处理方法、装置、计算机设备和存储介质
CN112989038A (zh) * 2021-02-08 2021-06-18 浙江连信科技有限公司 句子级用户画像生成方法、装置及存储介质
CN113836274A (zh) * 2021-11-25 2021-12-24 平安科技(深圳)有限公司 基于语义解析的摘要提取方法、装置、设备及介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006331245A (ja) * 2005-05-30 2006-12-07 Nippon Telegr & Teleph Corp <Ntt> 情報検索装置、情報検索方法およびプログラム
CN108197111A (zh) * 2018-01-10 2018-06-22 华南理工大学 一种基于融合语义聚类的文本自动摘要方法
CN110033022A (zh) * 2019-03-08 2019-07-19 腾讯科技(深圳)有限公司 文本的处理方法、装置和存储介质
WO2021043076A1 (zh) * 2019-09-06 2021-03-11 平安科技(深圳)有限公司 网络发布数据处理方法、装置、计算机设备和存储介质
CN111767724A (zh) * 2020-06-11 2020-10-13 安徽旅贲科技有限公司 一种文本相似度计算方法及系统
CN112989038A (zh) * 2021-02-08 2021-06-18 浙江连信科技有限公司 句子级用户画像生成方法、装置及存储介质
CN113836274A (zh) * 2021-11-25 2021-12-24 平安科技(深圳)有限公司 基于语义解析的摘要提取方法、装置、设备及介质

Also Published As

Publication number Publication date
CN115114903A (zh) 2022-09-27

Similar Documents

Publication Publication Date Title
US10134297B2 (en) Systems and methods for determining text complexity
JP6929539B2 (ja) ノン・ファクトイド型質問応答システム及び方法並びにそのためのコンピュータプログラム
US20130018892A1 (en) Visually Representing How a Sentiment Score is Computed
CN110390052B (zh) 搜索推荐方法、ctr预估模型的训练方法、装置及设备
CN104182059A (zh) 自然语言的生成方法及系统
CN102646091B (zh) 依存关系标注方法、装置和系统
CN106445915B (zh) 一种新词发现方法及装置
Berry Empirical evaluation of tools for hairy requirements engineering tasks
CN107729555B (zh) 一种海量大数据分布式预测方法及系统
EP4155973A1 (en) Sorting model training method and apparatus, and electronic device
CN110413961A (zh) 基于分类模型进行文本评分的方法、装置和计算机设备
EP3660693A1 (en) Knowledge verification method, knowledge verification device, and storage medium
US20120150534A1 (en) Computer-Implemented Systems and Methods for Determining a Difficulty Level of a Text
JP5682448B2 (ja) 因果単語対抽出装置、因果単語対抽出方法および因果単語対抽出用プログラム
CN109543175B (zh) 一种查找同义词的方法及装置
CN114154252B (zh) 新能源汽车动力电池系统失效模式的风险评估方法及装置
CN116561260A (zh) 一种基于语言模型的习题生成方法、设备及介质
CN114036914A (zh) 一种表格数据处理方法、装置、电子设备及存储介质
CN114239589A (zh) 语义理解模型的鲁棒性评估方法、装置及计算机设备
CN115114903B (zh) 用户故事审核方法及装置
CN116186331B (zh) 图表解读方法及系统
US20060095841A1 (en) Methods and apparatus for document management
JP2021022292A (ja) 情報処理装置、プログラム及び情報処理方法
CN112926320B (zh) 一种基于主题词优化的文本关键内容智能抽取方法及系统
CN112989795A (zh) 一种文本信息提取方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant