CN107256455A - 一种生涯规划测试方法及系统 - Google Patents

一种生涯规划测试方法及系统 Download PDF

Info

Publication number
CN107256455A
CN107256455A CN201710398916.0A CN201710398916A CN107256455A CN 107256455 A CN107256455 A CN 107256455A CN 201710398916 A CN201710398916 A CN 201710398916A CN 107256455 A CN107256455 A CN 107256455A
Authority
CN
China
Prior art keywords
topic
user
audio
technical ability
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710398916.0A
Other languages
English (en)
Inventor
蒋直平
于健昕
王剑飞
谭运
潘云鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Central South University
Original Assignee
Central South University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Central South University filed Critical Central South University
Priority to CN201710398916.0A priority Critical patent/CN107256455A/zh
Publication of CN107256455A publication Critical patent/CN107256455A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/10Speech classification or search using distance or distortion measures between unknown speech and reference templates
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • G10L15/142Hidden Markov Models [HMMs]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Educational Administration (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Operations Research (AREA)
  • Game Theory and Decision Science (AREA)
  • Marketing (AREA)
  • Probability & Statistics with Applications (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明提供一种生涯规划测试方法及系统,包括:对工作者所需要的技能进行分类,并构建预先获取的题目与所述技能的对应关系;通过语音识别,获取用户给出的所述题目的答题结果;根据所述题目的编号和所述题目的答题结果,获取所述题目的得分;根据所述题目的得分,计算同一类的所述技能对应的题目的总分,并获取分析结果。本发明直接从工作者所需要的技能出发,对所述技能进行分类,每类技能对应有相应的题目,根据用户使用语音识别技术给出的题目的答案,获取题目的得分,统计每类技能对应的题目的总分,根据所述总分针对每类技能给出分析结果,从而提高测试的准确性,使用户通过测试对自己的技能有准确认识。

Description

一种生涯规划测试方法及系统
技术领域
本发明涉及计算机技术领域,更具体地,涉及一种生涯规划测试 方法及系统。
背景技术
生涯规划测试,也称为职业规划测试,简称职业测试,是职业规 划的前提条件。生涯规划测试包括:性格、职业倾向、潜能、天赋等 测试。通过生涯规划测试,可以清晰地了解到:职业问题的症结在哪 里、为什么会有这些问题、自己的性格与天赋是什么等,从而更全面 深刻地认识自己在职业生涯中的优势和不足。
目前的生涯规划测试大部分为仅针对性格的测试,如卡特尔性格 测试、九型人格测试等。目前全球最为著名和权威的性格测试为MBTI 性格测试,由美国的心理学家Katherine Cook Briggs和她的心理学家女 儿Isabel Briggs Myers根据瑞士著名的心理分析学家Carl G.Jung的心 理类型理论和她们对于人类性格差异的长期观察和研究而著成。MBTI 是一种迫选型、自我报告式的性格评估理论模型。根据性格和职业之 间的联系衡量和描述人们在获取信息、做出决策、对待生活等方面的 心理活动规律,从而推荐合适的职业。
但是,一方面仅通过回答测评软件或书面的测试题确定的性格类 型准确性不高,从而使得根据性格与职业的关系,衡量出的心理活动 规律的准确性也不高,另一方面仅根据确定的性格类型给出笼统的建 议,让被测试者无所适从。
发明内容
为克服上述生涯规划测试的准确性不高的问题,本发明提供了一 种生涯规划测试方法及系统。
根据本发明的一个方面,提供一种生涯规划测试方法,包括:
对工作者所需要的技能进行分类,并构建预先获取的题目与所述 技能的对应关系;
通过语音识别,获取用户给出的所述题目的答题结果;
根据所述题目的编号和所述题目的答题结果,获取所述题目的得 分;
根据所述题目的得分,计算同一类的所述技能对应的题目的总分, 并获取分析结果。
具体地,通过语音识别,获取用户给出的所述题目的答题结果, 具体包括:
采集用户对所述题目作答时的音频信息;
将所述用户的音频信息与标准音频信息进行相似度计算,其中, 所述标准音频信息与所述题目的每一个答题结果相对应;
将与所述用户的音频信息的相似度最高的标准音频信息对应的答 题结果作为所述用户给出的答题结果。
具体地,在将所述用户的音频信息与标准音频信息进行相似度计 算之前,还包括:
对采集的用户的音频信息进行滤波处理。
具体地,将所述用户的音频信息与标准音频信息进行相似度计算, 包括:
对滤波处理后的音频信息进行分段,获取多段用户的子音频信息;
对所述标准音频信息进行分段,获取多段标准子音频信息;
计算每一段所述用户的子音频信息与对应的每一段所述标准子音 频信息之间的相似度。
具体地,将所述用户的音频信息与标准音频信息进行相似度计算, 还包括:
将每一段所述用户的子音频信息输入HMM声学模型中,输出多 组特征向量;
将每一段所述标准子音频信息输入HMM声学模型中,输出多组 特征向量,其中,一段所述用户的子音频信息和一段所述标准子音频 信息分别对应一组特征向量。
具体地,根据所述题目的得分,计算同一类的所述技能对应的题 目的总分,并获取分析结果,包括:
将同一类的所述技能对应的题目的总分与预设阈值进行比较;
根据比较结果,获取对应的分析结果。
还包括:
获取所述用户的信息;
将所述用户的信息、所述题目的编号和所述题目的答题结果保存 在数据库中。
根据本发明的另一方面,提供一种生涯规划测试系统,包括:
构建模块,用于对工作者所需要的技能进行分类,构建预先获取 的题目与所述技能的对应关系;
识别模块,用于通过语音识别,获取用户给出的所述题目的答题 结果;
获取模块,用于所述题目的编号和所述题目的答题结果,获取所 述题目的得分;
分析模块,用于根据所述题目的得分,计算同一类的所述技能对 应的题目的总分,并获取分析结果。
具体地,所述识别模块包括:
采集子模块,用于采集用户对所述题目作答时的音频信息;
计算子模块,用于将所述用户的音频信息与标准音频信息进行相 似度计算,将与所述用户的音频信息的相似度最高的标准音频信息对 应的答题结果作为所述用户给出的答题结果。
具体地,所述分析模块包括:
比较子模块,用于将同一类的所述技能对应的题目的总分与预设 阈值进行比较;
分析子模块,用于根据比较结果,获取对应的分析结果。
本发明提出一种生涯规划测试方法及装置,直接从工作者所需要 的技能出发,对所述技能进行分类,每类技能对应有相应的题目,根 据用户使用语音识别技术给出的题目的答案,获取题目的得分,统计 每类技能对应的题目的总分,根据所述总分针对每类技能给出分析结 果,从而提高测试的准确性,使用户通过测试对自己的技能有准确认 识。
附图说明
图1为本发明实施例提供的生涯规划测试方法流程图;
图2为本发明实施例提供的生涯规划测试系统结构图;
图3为本发明又一实施例提供的生涯规划测试系统结构图;
图4为本发明又一实施例提供的生涯规划测试系统结构图。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细 描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
图1为本发明实施例提供的生涯规划测试方法流程图,包括:S1, 对工作者所需要的技能进行分类,并构建预先获取的题目与所述技能 的对应关系;S2,通过语音识别,获取用户给出的所述题目的答题结 果;S3,根据所述题目的编号和所述题目的答题结果,获取所述题目 的得分;S4,根据所述题目的得分,计算同一类的所述技能对应的题 目的总分,并获取分析结果。
具体地,S1中,列出工作者所需要的技能,根据所述技能之间的 共同点,对所述技能进行分类,从而可以获取到每项技能的类别。中, 预先获取题库,根据题库中的题目所涉及的技能,生成所述题目与所 述技能之间的对应关系,所述对应关系包括所述题目、所述题目对应 的技能和所述技能的类别。S2中,用户使用语音对所述题目进行作答, 获取所述用户对所述题目进行作答的音频信息,采用语音识别即使获 取用户给出的所述题目的答题结果。S3中,所述题目的编号用于唯一 标识所述题目,所述题目的答题结果为用户给出的答题结果。用户可 以在测试界面上选择出答题结果。服务器根据所述题目的编号在数据库中查询到所述题目和所述题目的答题结果对应的得分。S4中,同一 类的所述技能是指具有相同类别的技能。根据所述题目的得分和所述 技能的类别,可以计算出具有相同类别的所述技能对应的题目的总分。 根据具有相同类别的所述技能对应的题目的总分,获取具有相同类别 的所述技能对应的分析结果,所述分析结果可以包括对所述技能的评 价和提升技能的建议。
表1为技能分类表。表1中的第二列为工作者所需要的技能,第 一列为对所述技能进行分类得到的所述技能的类别。本实施例中不限 于表1中的技能和技能的类别。表2为统计同一类别的技能对应的题 目的总分表。
表1技能分类表
本实施例直接从工作者所需要的技能出发,对所述技能进行分类, 每类技能对应有相应的题目,根据用户使用语音识别技术给出的题目 的答案,获取题目的得分,统计每类技能对应的题目的总分,根据所 述总分针对每类技能给出分析结果,从而提高测试的准确性,使用户 通过测试对自己的技能有准确认识。
表2为分数统计表
在上述实施例的基础上,本实施例中通过语音识别,获取用户给 出的所述题目的答题结果,具体包括:采集用户对所述题目作答时的 音频信息;将所述用户的音频信息与标准音频信息进行相似度计算, 其中,所述标准音频信息与所述题目的每一个答题结果相对应;将与 所述用户的音频信息的相似度最高的标准音频信息对应的答题结果作 为所述用户给出的答题结果。
具体地,在将所述用户的音频信息与标准音频信息进行相似度计 算之前,对采集的用户的音频信息进行滤波处理,以消除音频信息中 的噪音。可以使用维纳滤波法进行滤波处理,本实施例不限于滤波处 理的方法。使用音频采集工具采集用户对所述题目进行作答的音频信 息,所述音频采集工具可以为麦克风、话筒等。每个题目对应的用户 的音频信息只与该题目对应的不同答题结果的标准音频信息进行相似 度计算。将所述用户的音频信息与标准音频信息进行相似度计算可以 包括:对滤波处理后的音频信息进行分段,获取多段用户的子音频信 息;对所述标准音频信息进行分段,获取多段标准子音频信息;计算每一段所述用户的子音频信息与对应的每一段所述标准子音频信息之 间的相似度。其中,所述用户的子音频信息与所述标准子音频信息的 段数相同。将每一段所述用户的子音频信息与对应的每一段所述标准 子音频信息之间的相似度相加,得到用户的音频信息与所述标准音频 信息之间的相似度。
本实施例对所述用户的音频信息和所述标准音频信息进行分段处 理,计算每一段所述用户的子音频信息与对应的每一段所述标准子音 频信息之间的相似度,提供了语音识别的准确性。此外,使用语音识 别获取用户对所述题目的答题结果,提供了用户答题的效率,避免了 人为的误操作。
在上述实施例的基础上,本实施例中将所述用户的音频信息与标 准音频信息进行相似度计算,还包括:将每一段所述用户的子音频信 息输入HMM声学模型中,输出多组特征向量;将每一段所述标准子 音频信息输入HMM声学模型中,输出多组特征向量,其中,一段所 述用户的子音频信息和一段所述标准子音频信息分别对应一组特征向 量。
具体地,将每一段所述用户的子音频信息输入HMM声学模型, 并利用梅尔倒谱系数分析所述每一段用户的子音频信息,得到与所述 每一段用户的子音频信息对应的一组特征向量。所述HMM声学模型 可以为隐马尔科夫声学模型。同样地,将每一段所述标准子音频输入 HMM声学模型,输出与所述每一段标准子音频信息对应的一组特征向 量。对每一段所述用户的子音频信息对应的特征向量与每一段所述标 准子音频信息对应的特征向量进行相似度计算,获取每一段所述用户 的子音频信息与对应的每一段所述标准子音频信息之间的相似度。
本实施例对所述用户的音频信息和所述标准音频信息进行分段处 理,计算每一段所述用户的子音频信息与对应的每一段所述标准子音 频信息之间的相似度,提供了语音识别的准确性。此外,使用语音识 别获取用户对所述题目的答题结果,提供了用户答题的效率,避免了 人为的误操作。
在上述实施例的基础上,本实施例中根据所述题目的得分,计算 同一类的所述技能对应的题目的总分,并获取分析结果,包括:将同 一类的所述技能对应的题目的总分与预设阈值进行比较;根据比较结 果,获取对应的分析结果。
具体地,将同一类的所述技能对应的题目的总分与预设阈值进行 比较,所述预设阈值可以为多个阈值。根据比较结果获取相应的分析 结果。还可以根据同一类的所述技能对应的题目的总分,生成条形图。 所述条形图的横轴上标注技能的类别,纵轴上标注该类别对应的题目 的总分。使用条形图能清楚明了地看出对同一类技能的掌握情况。表3 为分析结果表。表3中为组织技能类别的技能对应的题目的总分33与 预设阈值22和43进行比较。首先将33与22进行比较,再将总33与 43比较,得出总分33位于24-43分数段内。获取对应的分析结果为“您 的组织技能较弱,您可以通过下列活动提高此能力:建立机构目标;和机构成员有效合作;排列工作任务的优先级;催化团体讨论;给予 建设性的反馈”。表3中每种类别对应的分数段可以不同。本实施例中 不限于表3中给出的类别、分数段和分析结果。
本实施例中通过将同一类的所述技能对应的题目的总分与预设阈 值进行比较,根据比较结果针对每类技能给出分析结果,从而提高了 生涯规划测试的准确性,使用户通过测试对自己的技能有准确认识。
在上述实施例的基础上,本实施例中还包括:获取所述用户的信 息;将所述用户的信息、所述题目的编号和所述题目的答题结果保存 在数据库中。
表3分析结果表
具体地,用户在进入职业生涯规划测试界面之前,需要进行登录。 根据用户的登录信息可以在数据库中查找到所述用户的所有信息,包 括用户名、性别、职业等。所述题目的编号为显示在生涯规划测试界 面上的题目的编号。所述题目的答题结果是用户给出的。可以将所述 用户的信息、所述题目的编号和所述题目的答案保存在数据库中,也 可以以其他方式保存,以供生涯规划师后期进行调用分析,针对每个 用户的具体情况提出解决方案。
本实施例中通过获取所述用户的信息,将所述用户的信息、所述 题目的编号和所述题目的答题结果保存在数据库中,以供生涯规划师 后期进行调用分析,针对每个用户的具体情况提出解决方案。
图2为本发明实施例提供的生涯规划测试系统结构图,如图2所 示,包括构建模块1、识别模块2、获取模块3、和分析模块4,其中:
所述构建模块1用于对工作者所需要的技能进行分类,构建预先 获取的题目与所述技能的对应关系;所述识别模块2用于通过语音识 别,获取用户给出的所述题目的答题结果;所述获取模块3用于所述 题目的编号和所述题目的答题结果,获取所述题目的得分;所述分析 模块4用于根据所述题目的得分,计算同一类的所述技能对应的题目 的总分,并获取分析结果。
具体地,列出工作者所需要的技能,根据所述技能之间的共同点, 对所述技能进行分类,从而可以获取到每项技能的类别。预先获取题 库,所述构建模块1根据题库中的题目所涉及的技能,生成所述题目 与所述技能之间的对应关系,所述对应关系包括所述题目、所述题目 对应的技能和所述技能的类别。用户使用语音对所述题目进行作答, 所述识别模块2获取所述用户对所述题目进行作答的音频信息,采用 语音识别即使获取用户给出的所述题目的答题结果。所述题目的编号 用于唯一标识所述题目,所述题目的答题结果为用户给出的答题结果。 用户可以在测试界面上选择出答题结果。所述获取模块3根据所述题 目的编号在数据库中查询到所述题目和所述题目的答题结果对应的得 分。同一类的所述技能是指具有相同类别的技能。所述分析模块4根 据所述题目的得分和所述技能的类别,计算出具有相同类别的所述技 能对应的题目的总分。根据具有相同类别的所述技能对应的题目的总 分,获取具有相同类别的所述技能对应的分析结果,所述分析结果可 以包括对所述技能的评价和提升技能的建议。所述生涯规划测试系统 可以运行于基于Android平台的手机、平板电脑等多种设备上。该系统 可以与求职招聘系统进行关联。用户可以根据测试结果对自己缺少的 技能进行培养,满足职业的需求。
本实施例直接从工作者所需要的技能出发,对所述技能进行分类, 每类技能对应有相应的题目,根据用户使用语音识别技术给出的题目 的答案,获取题目的得分,统计每类技能对应的题目的总分,根据所 述总分针对每类技能给出分析结果,从而提高测试的准确性,使用户 通过测试对自己的技能有准确认识。
图3为本发明又一实施例提供的生涯规划测试系统结构图,如图3 所示,所述识别模块2包括:采集子模块21和计算子模块22,其中:
所述采集子模块21用于采集用户对所述题目作答时的音频信息; 所述计算子模块22用于将所述用户的音频信息与标准音频信息进行相 似度计算,将与所述用户的音频信息的相似度最高的标准音频信息对 应的答题结果作为所述用户给出的答题结果。
具体地,在将所述用户的音频信息与标准音频信息进行相似度计 算之前,对采集的用户的音频信息进行滤波处理,以消除音频信息中 的噪音。可以使用维纳滤波法进行滤波处理,本实施例不限于滤波处 理的方法。所述采集子模块21通过音频采集工具采集用户对所述题目 进行作答的音频信息,所述音频采集工具可以为麦克风、话筒等。每 个题目对应的用户的音频信息只与该题目对应的不同答题结果的标准 音频信息进行相似度计算。所述计算子模块22将所述用户的音频信息 与标准音频信息进行相似度计算可以包括:对滤波处理后的音频信息 进行分段,获取多段用户的子音频信息;对所述标准音频信息进行分 段,获取多段标准子音频信息;计算每一段所述用户的子音频信息与 对应的每一段所述标准子音频信息之间的相似度。其中,所述用户的 子音频信息与所述标准子音频信息的段数相同。将每一段所述用户的 子音频信息与对应的每一段所述标准子音频信息之间的相似度相加, 得到用户的音频信息与所述标准音频信息之间的相似度。
本实施例对所述用户的音频信息和所述标准音频信息进行分段处 理,计算每一段所述用户的子音频信息与对应的每一段所述标准子音 频信息之间的相似度,提供了语音识别的准确性。此外,使用语音识 别获取用户对所述题目的答题结果,提供了用户答题的效率,避免了 人为的误操作。
图4为本发明又一实施例提供的生涯规划测试系统结构图,如图4 所示,在上述实施例的基础上,所述分析模块4包括比较子模块41和 分析子模块42,其中:
所述比较子模块41用于将同一类的所述技能对应的题目的总分与 预设阈值进行比较;所述分析子模块42用于根据比较结果,获取对应 的分析结果。
具体地,所述比较子模块41将同一类的所述技能对应的题目的总 分与预设阈值进行比较,所述预设阈值可以为多个阈值。所述分析子 模块42根据比较结果获取相应的分析结果。还可以根据同一类的所述 技能对应的题目的总分,生成条形图。所述条形图的横轴上标注技能 的类别,纵轴上标注该类别对应的题目的总分。使用条形图能清楚明 了地看出对同一类技能的掌握情况。
本实施例中通过将同一类的所述技能对应的题目的总分与预设阈 值进行比较,根据比较结果针对每类技能给出分析结果,从而提高了 生涯规划测试的准确性,使用户通过测试对自己的技能有准确认识。
最后,本申请的方法仅为较佳的实施方案,并非用于限定本发明 的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同 替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种生涯规划测试方法,其特征在于,包括:
对工作者所需要的技能进行分类,并构建预先获取的题目与所述技能的对应关系;
通过语音识别,获取用户给出的所述题目的答题结果;
根据所述题目的编号和所述题目的答题结果,获取所述题目的得分;
根据所述题目的得分,计算同一类的所述技能对应的题目的总分,并获取分析结果。
2.根据权利要求1所述的生涯规划测试方法,其特征在于,通过语音识别,获取用户给出的所述题目的答题结果,具体包括:
采集用户对所述题目作答时的音频信息;
将所述用户的音频信息与标准音频信息进行相似度计算,其中,所述标准音频信息与所述题目的每一个答题结果相对应;
将与所述用户的音频信息的相似度最高的标准音频信息对应的答题结果作为所述用户给出的答题结果。
3.根据权利要求2所述的生涯规划测试方法,其特征在于,在将所述用户的音频信息与标准音频信息进行相似度计算之前,还包括:
对采集的用户的音频信息进行滤波处理。
4.根据权利要求3所述的生涯规划测试方法,其特征在于,将所述用户的音频信息与标准音频信息进行相似度计算,包括:
对滤波处理后的音频信息进行分段,获取多段用户的子音频信息;
对所述标准音频信息进行分段,获取多段标准子音频信息;
计算每一段所述用户的子音频信息与对应的每一段所述标准子音频信息之间的相似度。
5.根据权利要求4所述的生涯规划测试方法,其特征在于,将所述用户的音频信息与标准音频信息进行相似度计算,还包括:
将每一段所述用户的子音频信息输入HMM声学模型中,输出多组特征向量;
将每一段所述标准子音频信息输入HMM声学模型中,输出多组特征向量,其中,一段所述用户的子音频信息和一段所述标准子音频信息分别对应一组特征向量。
6.根据权利求1所述的生涯规划测试方法,其特征在于,根据所述题目的得分,计算同一类的所述技能对应的题目的总分,并获取分析结果,包括:
将同一类的所述技能对应的题目的总分与预设阈值进行比较;
根据比较结果,获取对应的分析结果。
7.根据权利要求1所述的生涯规划测试方法,其特征在于,还包括:
获取所述用户的信息;
将所述用户的信息、所述题目的编号和所述题目的答题结果保存在数据库中。
8.一种生涯规划测试系统,其特征在于,包括:
构建模块,用于对工作者所需要的技能进行分类,构建预先获取的题目与所述技能的对应关系;
识别模块,用于通过语音识别,获取用户给出的所述题目的答题结果;
获取模块,用于所述题目的编号和所述题目的答题结果,获取所述题目的得分;
分析模块,用于根据所述题目的得分,计算同一类的所述技能对应的题目的总分,并获取分析结果。
9.根据权利要求8所述的生涯规划测试系统,其特征在于,所述识别模块包括:
采集子模块,用于采集用户对所述题目作答时的音频信息;
计算子模块,用于将所述用户的音频信息与标准音频信息进行相似度计算,将与所述用户的音频信息的相似度最高的标准音频信息对应的答题结果作为所述用户给出的答题结果。
10.根据权利要求8或9所述的生涯规划测试系统,其特征在于,所述分析模块包括:
比较子模块,用于将同一类的所述技能对应的题目的总分与预设阈值进行比较;
分析子模块,用于根据比较结果,获取对应的分析结果。
CN201710398916.0A 2017-05-31 2017-05-31 一种生涯规划测试方法及系统 Pending CN107256455A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710398916.0A CN107256455A (zh) 2017-05-31 2017-05-31 一种生涯规划测试方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710398916.0A CN107256455A (zh) 2017-05-31 2017-05-31 一种生涯规划测试方法及系统

Publications (1)

Publication Number Publication Date
CN107256455A true CN107256455A (zh) 2017-10-17

Family

ID=60028060

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710398916.0A Pending CN107256455A (zh) 2017-05-31 2017-05-31 一种生涯规划测试方法及系统

Country Status (1)

Country Link
CN (1) CN107256455A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109872604A (zh) * 2019-04-12 2019-06-11 郑州铁路职业技术学院 一种模块组合型简历制作教学方法
CN112989125A (zh) * 2019-12-13 2021-06-18 庞韶云 一种彩析决策思维分析方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080071746A1 (en) * 2006-09-14 2008-03-20 David Joseph Concordia Method For Interactive Employment Searching, Rating, And Selecting of Employment Listing
CN102034475A (zh) * 2010-12-08 2011-04-27 中国科学院自动化研究所 一种运用计算机对开放式短对话进行交互式评分的方法
US20130346332A1 (en) * 2007-05-11 2013-12-26 Agero Connected Services, Inc. Multi-Modal Automation for Human Interactive Skill Assessment
CN106683664A (zh) * 2016-11-22 2017-05-17 中南大学 无线充电的语音开启方法及系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080071746A1 (en) * 2006-09-14 2008-03-20 David Joseph Concordia Method For Interactive Employment Searching, Rating, And Selecting of Employment Listing
US20130346332A1 (en) * 2007-05-11 2013-12-26 Agero Connected Services, Inc. Multi-Modal Automation for Human Interactive Skill Assessment
CN102034475A (zh) * 2010-12-08 2011-04-27 中国科学院自动化研究所 一种运用计算机对开放式短对话进行交互式评分的方法
CN106683664A (zh) * 2016-11-22 2017-05-17 中南大学 无线充电的语音开启方法及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109872604A (zh) * 2019-04-12 2019-06-11 郑州铁路职业技术学院 一种模块组合型简历制作教学方法
CN112989125A (zh) * 2019-12-13 2021-06-18 庞韶云 一种彩析决策思维分析方法

Similar Documents

Publication Publication Date Title
Hemmerling et al. Voice data mining for laryngeal pathology assessment
CN107229719A (zh) 一种职业生涯价值观评价方法及系统
US20130166291A1 (en) Emotional and/or psychiatric state detection
CN103294199B (zh) 一种基于脸部肌音信号的无声信息识别系统
US9443193B2 (en) Systems and methods for generating automated evaluation models
US9262941B2 (en) Systems and methods for assessment of non-native speech using vowel space characteristics
CN103054586B (zh) 一种基于汉语言语测听动态词表的汉语言语自动测听方法
JP7389421B2 (ja) 精神・神経系疾患を推定する装置
CN107239897A (zh) 一种人格职业类型测试方法及系统
Bryan et al. Using national education longitudinal data sets in school counseling research
CN106063699A (zh) 一种基于眼动技术的医疗器械说明书可用性评估方法
Chebbi et al. On the use of pitch-based features for fear emotion detection from speech
CN109461441A (zh) 一种自适应、无监督式的课堂教学活动智能感知方法
CN103605721A (zh) 一种心理压力评估中针对个体差异的分类方法
CN107256455A (zh) 一种生涯规划测试方法及系统
CN114255783A (zh) 声音分类模型的构建方法、声音分类方法和系统
CN103578480A (zh) 负面情绪检测中的基于上下文修正的语音情感识别方法
Flores et al. Depression screening using deep learning on follow-up questions in clinical interviews
CN103839047A (zh) 一种人体运动轨迹的识别方法及装置
Sultana et al. A non-hierarchical approach of speech emotion recognition based on enhanced wavelet coefficients and K-means clustering
KR20210034288A (ko) 통화 감정 분석 장치 및 방법
CN108470564A (zh) 根据音频识别人格特征的人工智能方法
CN111768058A (zh) 一种基础智力测评装置
Denny et al. Irish attitudes to immigration during and after the boom
Chintalapudi et al. Speech emotion recognition using deep learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20171017