CN112214115B - 输入方式的识别方法、装置、电子设备及存储介质 - Google Patents

输入方式的识别方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN112214115B
CN112214115B CN202011023203.4A CN202011023203A CN112214115B CN 112214115 B CN112214115 B CN 112214115B CN 202011023203 A CN202011023203 A CN 202011023203A CN 112214115 B CN112214115 B CN 112214115B
Authority
CN
China
Prior art keywords
input mode
target input
content
target
gesture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011023203.4A
Other languages
English (en)
Other versions
CN112214115A (zh
Inventor
陈蒙蒙
陈巍
高崇杰
舒忠明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hanhai Information Technology Shanghai Co Ltd
Original Assignee
Hanhai Information Technology Shanghai Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hanhai Information Technology Shanghai Co Ltd filed Critical Hanhai Information Technology Shanghai Co Ltd
Priority to CN202011023203.4A priority Critical patent/CN112214115B/zh
Publication of CN112214115A publication Critical patent/CN112214115A/zh
Application granted granted Critical
Publication of CN112214115B publication Critical patent/CN112214115B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/194Calculation of difference between files
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations
    • G06Q10/06393Score-carding, benchmarking or key performance indicator [KPI] analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Development Economics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Strategic Management (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Economics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Educational Administration (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Tourism & Hospitality (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • General Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Quality & Reliability (AREA)
  • Operations Research (AREA)
  • Marketing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请公开了一种输入方式的识别方法、装置、电子设备及存储介质,属于互联网技术领域。方法包括:获取待识别的目标输入方式对应的指标信息,目标输入方式对应的指标信息包括目标输入方式的姿态信息、速度信息、任一输入方式对应的输入区域的显示概率以及内容匹配度中的至少一种,内容匹配度用于指示按照目标输入方式输入内容时的声音数据对应的内容和提交内容之间的匹配度;基于目标输入方式对应的指标信息,确定目标输入方式对应的综合指标;根据目标输入方式对应的综合指标,确定目标输入方式的类别。上述方法在识别输入方式时,考虑的信息较为全面,使得确定的目标输入方式的类别的准确性更高,目标输入方式的识别的灵活性更高。

Description

输入方式的识别方法、装置、电子设备及存储介质
技术领域
本申请实施例涉及互联网技术领域,特别涉及一种输入方式的识别方法、装置、电子设备及存储介质。
背景技术
随着互联网技术的飞速发展,越来越多的智能设备不仅支持打字输入方式,还支持语音输入方式。因此,亟需一种输入方式的识别方法,以使得产品研发人员准确的获知用户的输入方式。
相关技术中,以识别评价内容的输入方式为例,响应于电子设备接收到用户提交的评价内容时,获取用户输入评价内容的时刻对应的音频数据,将该音频数据转换为文本内容,计算该文本内容和用户提交的评价内容之间的相似度。当该相似度大于目标阈值时,确定用户提交的评价内容的输入方式为语音输入;反之,确定用户提交的评价内容的输入方式为打字输入。
然而,上述输入方式的识别过程依赖于电子设备的麦克风权限,只有在麦克风权限开启时,才可以获取到音频数据,基于音频数据,对输入方式进行识别,导致输入方式的识别过程较为局限,灵活性较低。
发明内容
本申请实施例提供了一种输入方式的识别方法、装置、电子设备及存储介质,可用于解决相关技术中的问题。所述技术方案如下:
一方面,本申请实施例提供了一种输入方式的识别方法,所述方法包括:
获取待识别的目标输入方式对应的指标信息,所述目标输入方式对应的指标信息包括所述目标输入方式的姿态信息、速度信息、任一输入方式对应的输入区域的显示概率以及内容匹配度中的至少一种,所述内容匹配度用于指示按照所述目标输入方式输入内容时的声音数据对应的内容和提交内容之间的匹配度;
基于所述目标输入方式对应的指标信息,确定所述目标输入方式对应的综合指标;
根据所述目标输入方式对应的综合指标,确定所述目标输入方式的类别。
在一种可能的实现方式中,所述获取待识别的目标输入方式对应的指标信息,包括下述至少一项:
基于按照所述目标输入方式输入内容时所述电子设备的姿态坐标,获取所述目标输入方式的姿态信息;
获取任一输入方式对应的输入区域的显示概率;
根据所述目标输入方式的输入速度,获取所述目标输入方式的速度信息;
响应于接收到提交请求,获取内容匹配度。
在一种可能的实现方式中,所述基于按照所述目标输入方式输入内容时所述电子设备的姿态坐标,获取所述目标输入方式的姿态信息,包括:
获取按照所述目标输入方式输入内容时所述电子设备的姿态坐标、语音输入方式的标准姿态坐标和打字输入方式的标准姿态坐标;
基于所述电子设备的姿态坐标和所述语音输入方式的标准姿态坐标,计算第一距离,所述第一距离用于指示所述电子设备的姿态坐标和所述语音输入方式的标准姿态坐标之间的偏差;
基于所述电子设备的姿态坐标和所述打字输入方式的标准姿态坐标,计算第二距离,所述第二距离用于指示所述电子设备的姿态坐标和所述打字输入方式的标准姿态坐标之间的偏差;
基于所述第一距离和所述第二距离,确定所述目标输入方式的姿态信息。
在一种可能的实现方式中,所述获取任一输入方式对应的输入区域的显示概率,包括:
在输入过程中,获取输入界面图像;
对所述输入界面图像进行识别,得到所述输入界面图像中任一输入方式对应的输入区域的显示概率。
在一种可能的实现方式中,所述根据所述目标输入方式的输入速度,获取所述目标输入方式的速度信息,包括:
确定目标输入速度;
根据所述目标输入方式的输入时长和按照所述目标输入方式输入的内容数值,计算所述目标输入方式的输入速度;
根据所述目标输入方式的输入速度和所述目标输入速度,确定所述目标输入方式的速度信息。
在一种可能的实现方式中,所述响应于接收到提交请求,获取内容匹配度,包括:
响应于接收到提交请求,获取按照所述目标输入方式输入内容时的声音数据;
对所述声音数据进行转换,得到所述声音数据对应的内容;
基于所述声音数据对应的内容和所述提交内容,确定内容匹配度。
在一种可能的实现方式中,所述基于所述目标输入方式对应的指标信息,确定所述目标输入方式对应的综合指标,包括:
获取所述指标信息对应的权重参数;
根据所述指标信息以及所述指标信息对应的权重参数,确定所述目标输入方式对应的综合指标。
在一种可能的实现方式中,所述根据所述指标信息以及所述指标信息对应的权重参数,确定所述目标输入方式对应的综合指标,包括:
根据所述指标信息以及所述指标信息对应的权重参数,按照下述公式确定所述目标输入方式对应的综合指标Score:
Score=S0*W0+S1*W1+S2*W2+S3*W3
其中,所述S0为所述姿态信息,所述W0为所述姿态信息对应的权重参数,所述S1为所述速度信息,所述W1为所述速度信息对应的权重参数,所述S2为所述任一输入方式对应的输入区域的显示概率,所述W2为所述任一输入方式对应的输入区域的显示概率对应的权重参数,所述S3为所述内容匹配度,所述W3为所述内容匹配度对应的权重参数。
在一种可能的实现方式中,所述根据所述目标输入方式对应的综合指标,确定所述目标输入方式的类别,包括:
响应于所述目标输入方式对应的综合指标大于参考综合指标,确定所述目标输入方式的类别为语音输入;
响应于所述目标输入方式对应的综合指标不大于所述参考综合指标,确定所述目标输入方式的类别为打字输入。
另一方面,本申请实施例提供了一种输入方式的识别装置,所述装置包括:
获取模块,用于获取待识别的目标输入方式对应的指标信息,所述目标输入方式对应的指标信息包括所述目标输入方式的姿态信息、速度信息、任一输入方式对应的输入区域的显示概率以及内容匹配度中的至少一种,所述内容匹配度用于指示按照所述目标输入方式输入内容时的声音数据对应的内容和提交内容之间的匹配度;
确定模块,用于基于所述目标输入方式对应的指标信息,确定所述目标输入方式对应的综合指标;
所述确定模块,还用于根据所述目标输入方式对应的综合指标,确定所述目标输入方式的类别。
在一种可能的实现方式中,所述获取模块,用于基于按照所述目标输入方式输入内容时所述电子设备的姿态坐标,获取所述目标输入方式的姿态信息;获取任一输入方式对应的输入区域的显示概率;根据所述目标输入方式的输入速度,获取所述目标输入方式的速度信息;响应于接收到提交请求,获取内容匹配度。
在一种可能的实现方式中,所述获取模块,用于获取按照所述目标输入方式输入内容时所述电子设备的姿态坐标、语音输入方式的标准姿态坐标和打字输入方式的标准姿态坐标;基于所述电子设备的姿态坐标和所述语音输入方式的标准姿态坐标,计算第一距离,所述第一距离用于指示所述电子设备的姿态坐标和所述语音输入方式的标准姿态坐标之间的偏差;基于所述电子设备的姿态坐标和所述打字输入方式的标准姿态坐标,计算第二距离,所述第二距离用于指示所述电子设备的姿态坐标和所述打字输入方式的标准姿态坐标之间的偏差;基于所述第一距离和所述第二距离,确定所述目标输入方式的姿态信息。
在一种可能的实现方式中,所述获取模块,用于在输入过程中,获取输入界面图像;对所述输入界面图像进行识别,得到所述输入界面图像中任一输入方式对应的输入区域的显示概率。
在一种可能的实现方式中,所述获取模块,用于确定目标输入速度;根据所述目标输入方式的输入时长和按照所述目标输入方式输入的内容数值,计算所述目标输入方式的输入速度;根据所述目标输入方式的输入速度和所述目标输入速度,确定所述目标输入方式的速度信息。
在一种可能的实现方式中,所述获取模块,用于响应于接收到提交请求,获取按照所述目标输入方式输入内容时的声音数据;对所述声音数据进行转换,得到所述声音数据对应的内容;基于所述声音数据对应的内容和所述提交内容,确定内容匹配度。
在一种可能的实现方式中,所述确定模块,用于获取所述指标信息对应的权重参数;根据所述指标信息以及所述指标信息对应的权重参数,确定所述目标输入方式对应的综合指标。
在一种可能的实现方式中,所述确定模块,用于根据所述指标信息以及所述指标信息对应的权重参数,按照下述公式确定所述目标输入方式对应的综合指标Score:
Score=S0*W0+S1*W1+S2*W2+S3*W3
其中,所述S0为所述姿态信息,所述W0为所述姿态信息对应的权重参数,所述S1为所述速度信息,所述W1为所述速度信息对应的权重参数,所述S2为所述任一输入方式对应的输入区域的显示概率,所述W2为所述任一输入方式对应的输入区域的显示概率对应的权重参数,所述S3为所述内容匹配度,所述W3为所述内容匹配度对应的权重参数。
在一种可能的实现方式中,所述确定模块,用于响应于所述目标输入方式对应的综合指标大于参考综合指标,确定所述目标输入方式的类别为语音输入;响应于所述目标输入方式对应的综合指标不大于所述参考综合指标,确定所述目标输入方式的类别为打字输入。
另一方面,本申请实施例提供了一种电子设备,所述电子设备包括处理器和存储器,所述存储器中存储有至少一条程序代码,所述至少一条程序代码由所述处理器加载并执行,以实现上述任一所述的输入方式的识别方法。
另一方面,还提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一条程序代码,所述至少一条程序代码由处理器加载并执行,以实现上述任一所述的输入方式的识别方法。
另一方面,还提供了一种计算机程序或计算机程序产品,所述计算机程序或计算机程序产品中存储有至少一条计算机指令,所述至少一条计算机指令由处理器加载并执行,以实现上述任一所述的输入方式的识别方法。
本申请实施例提供的技术方案至少带来如下有益效果:
本申请实施例提供的技术方案在确定目标输入方式的类别时,考虑的信息较为全面,使得确定的目标输入方式的类别的准确性更高。而且,本申请的方案不需要获取电子设备的麦克风权限,可以在麦克风权限关闭的情况下,识别出目标输入方式的类别,使得目标输入方式的识别的灵活性更高。由于不需要获取麦克风权限,还可以保证电子设备中用户数据的安全性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种输入方式的识别方法的实施环境示意图;
图2是本申请实施例提供的一种输入方式的识别方法的流程图;
图3是本申请实施例提供的一种目标输入方式的姿态信息的获取过程的流程图;
图4是本申请实施例提供的一种任一输入方式对应的输入区域的显示概率的获取过程的流程图;
图5是本申请实施例提供的一种输入界面图像的示意图;
图6是本申请实施例提供的另一种输入界面图像的示意图;
图7是本申请实施例提供的一种目标输入方式的速度信息的获取过程的流程图;
图8是本申请实施例提供的一种内容匹配度的获取过程的流程图;
图9是本申请实施例提供的一种输入方式的识别装置的结构示意图;
图10是本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
图1是本申请实施例提供的一种输入方式的识别方法的实施环境示意图,如图1所示,该实施环境包括:电子设备101。
电子设备101可以是智能手机、游戏主机、台式计算机、平板电脑、电子书阅读器、MP3(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)播放器、MP4(Moving Picture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器和膝上型便携计算机中的至少一种。电子设备101用于执行本申请提供的输入方式的识别方法。
电子设备101可以泛指多个电子设备中的一个,本实施例仅以电子设备101来举例说明。本领域技术人员可以知晓,上述电子设备101的数量可以更多或更少。比如上述电子设备101可以仅为一个,或者上述电子设备101为几十个或几百个,或者更多数量,本申请实施例对电子设备的数量和设备类型不加以限定。
基于上述实施环境,本申请实施例提供了一种输入方式的识别方法,以图2所示的本申请实施例提供的一种输入方式的识别方法的流程图为例,该方法可由图1中的电子设备101执行。如图2所示,该方法包括下述步骤:
在步骤201中,获取待识别的目标输入方式对应的指标信息。
其中,目标输入方式对应的指标信息包括但不限于目标输入方式的姿态信息、速度信息、任一输入方式对应的输入区域的显示概率以及内容匹配度中的至少一种。内容匹配度用于指示按照目标输入方式输入内容时的声音数据对应的内容和提交内容之间的匹配度。
在一种可能的实现方式中,目前输入方式包括语音输入和打字输入,为了准确的识别用户使用电子设备进行内容输入时使用的是哪一种输入方式,电子设备获取用户输入内容时使用的目标输入方式对应的指标信息,确定用户使用的目标输入方式对应的类别。
在一种可能的实现方式中,电子设备获取目标输入方式的姿态信息的过程如下述图3所示的方法流程,在此不再赘述,姿态信息指示的分值越高,目标输入方式的类别越倾向于语音输入方式。电子设备获取任一输入方式对应的输入区域的显示概率的过程如下述图4所示的方法流程,在此不再赘述,显示概率指示的分值越高,目标输入方式的类别越倾向于语音输入方式。电子设备获取目标输入方式的速度信息的过程如下述图7所示的方法流程,在此不再赘述,速度信息指示的分值越高,目标输入方式的类别越倾向于语音输入方式。电子设备获取内容匹配度的过程如下述图8所示的方法流程,在此不再赘述,内容匹配度指示的分值越高,目标输入方式的类别越倾向于语音输入方式。
示例性地,电子设备获取到的目标输入方式的姿态信息指示的分值为100,获取到的目标输入方式的速度信息指示的分值为75,获取到的任一输入方式对应的输入区域的显示概率指示的分值为60,获取到的内容匹配度指示的分值为75。
需要说明的是,目标输入方式对应的指标信息包括姿态信息、速度信息、任一输入方式对应的输入区域的显示概率和内容匹配度中的一个或多个,本申请实施例对指标信息的个数和指标信息的组成形式不加以限定。
还需要说明的是,姿态信息、速度信息、任一输入方式对应的输入区域的显示概率和内容匹配度还可以用除分值之外的其它形式进行表示,本申请实施例对指标信息的表示形式不加以限定。
在步骤202中,基于目标输入方式对应的指标信息,确定目标输入方式的综合指标。
在一种可能的实现方式中,确定出目标输入方式对应的指标信息之后,根据指标信息,确定目标输入方式的综合指标包括下述步骤2021至步骤2022。
步骤2021、获取指标信息对应的权重参数。
在一种可能的实现方式中,指标信息包括但不限于上述姿态信息、速度信息、任一输入方式对应的输入区域的显示概率和内容匹配度。
在一种可能的实现方式中,每个指标信息的权重参数为用户设置的,或者为计算机设备随机匹配的,本申请实施例对此不加以限定。
示例性地,目标输入方式的姿态信息对应的权重参数为0.2,速度信息对应的权重参数为0.3,任一输入方式对应的输入区域的显示概率对应的权重参数为0.2,内容匹配度对应的权重参数为0.3。
需要说明的是,当目标输入方式对应的指标信息还包括其它信息时,需要为其他信息分配一个权重参数,分配权重参数的规则是所有指标信息的权重参数相加为1。
步骤2022、根据指标信息以及指标信息对应的权重参数,确定目标输入方式对应的综合指标。
在一种可能的实现方式中,根据指标信息以及指标信息对应的权重参数,按照下述公式(1)确定目标输入方式对应的综合指标Score:
Score=S0*W0+S1*W1+S2*W2+S3*W3 (1)
上述公式(1)中,S0为姿态信息,W0为姿态信息对应的权重参数,S1为速度信息,W1为速度信息对应的权重参数,S2为任一输入方式对应的输入区域的显示概率,W2为任一输入方式对应的输入区域的显示概率对应的权重参数,S3为内容匹配度,W3为内容匹配度对应的权重参数。
示例性地,以上述步骤201中获取的目标输入方式的指标信息以及本步骤202中确定的指标信息对应的权重参数,按照上述公式(1)确定目标输入方式的综合指标为Score=100*0.2+75*0.3+60*0.2+75*0.3=77,也即是目标输入方式的综合指标为77。
在步骤203中,根据目标输入方式对应的综合指标,确定目标输入方式的类别。
在一种可能的实现方式中,目标输入方式对应的指标信息均在0至100之内,为每个指标信息分配了权重参数,基于目标输入方式对应的指标信息以及每个指标信息的权重参数,确定的目标输入方式对应的综合指标也应该在0至100之内。为了使目标输入方式的识别更加准确,设置一个参考综合指标,该参考综合指标用于确定目标输入方式的类别。
在一种可能的实现方式中,目标输入方式对应的指标信息指示的分值越高,目标输入方式对应的综合指标指示的分值也就越高,目标输入方式的类别越倾向于语音输入方式。相反,目标输入方式对应的指标信息指示的分值越低,目标输入方式对应的综合指标指示的分值也就越低,目标输入方式的类别越倾向于打字输入。因此,根据目标输入方式对应的综合指标以及参考综合指标,确定目标输入方式的类别,包括下述两种情况。
情况一、响应于目标输入方式对应的综合指标大于参考综合指标,确定目标输入方式的类别为语音输入。
示例性地,目标输入方式对应的综合指标为77,参考综合指标为50,由于目标输入方式对应的综合指标大于参考综合指标,因此将目标输入方式的类别确定为语音输入。
情况二、响应于目标输入方式对应的综合指标不大于参考综合指标,确定目标输入方式的类别为打字输入。
示例性地,目标输入方式对应的综合指标为77,参考综合指标为80,由于目标输入方式对应的综合指标小于参考综合指标,因此将目标输入方式的类别确定为打字输入。
需要说明的是,该参考综合指标可以基于经验进行确定,也可以根据实施环境进行调整,本申请实施例对该参考综合指标的确定方式和数值大小不做限定。
上述方法在确定目标输入方式的类别时,考虑的信息较为全面,使得确定的目标输入方式的类别的准确性更高。而且,本申请的方案不需要获取电子设备的麦克风权限,可以在麦克风权限关闭的情况下,识别出目标输入方式的类别,使得目标输入方式的识别的灵活性更高。由于不需要获取麦克风权限,还可以保证电子设备中用户数据的安全性。
在本申请示例性实施例中,响应于目标输入方式对应的指标信息包括目标输入方式的姿态信息,基于按照目标输入方式输入内容时电子设备的姿态坐标,获取目标输入方式的姿态信息。如图3所示为本申请实施例提供的一种目标输入方式的姿态信息的获取过程的流程图,该过程包括下述步骤301至步骤304。
步骤301、获取按照目标输入方式输入内容时电子设备的姿态坐标、语音输入方式的标准姿态坐标和打字输入方式的标准姿态坐标。
在一种可能的实现方式中,用户在使用电子设备进行内容输入时,采用的输入方式不同,电子设备的设备姿态也会有所不同。示例性地,以电子设备为智能手机为例,用户使用打字输入方式在智能手机上进行内容输入时,智能手机的设备姿态一般为斜向上正对用户脸部,且智能手机的左右两侧呈对称状态。而用户使用语音输入方式在智能手机上进行内容输入时,用户一般使用单手,而且智能手机的屏幕偏向拿智能手机的那只手的方向,而且智能手机的左右两侧呈不对称状态。
在一种可能的实现方式中,电子设备中安装有陀螺仪(角速度传感器),陀螺仪用于确定电子设备的姿态坐标,当用户按照目标输入方式进行内容输入时,电子设备启动陀螺仪功能,获取电子设备的姿态坐标。示例性地,电子设备的姿态坐标为(0.1,0.1,0.1),本申请仅以电子设备的姿态坐标为三维坐标为例进行说明,并不用来限制电子设备的姿态坐标的表示形式。
在一种可能的实现方式中,电子设备中还存储有语音输入的标准姿态坐标和打字输入的标准姿态坐标,该语音输入的标准姿态坐标和打字输入的标准姿态坐标为产品研发人员根据多个用户的使用经验进行确定的,产品研发人员将该语音输入方式的标准姿态坐标和打字输入方式的标准姿态坐标存储在电子设备中,以便电子设备随时提取语音输入的标准姿态坐标和打字输入的标准姿态坐标,从而进行后续的目标输入方式的类别的确定。示例性地,语音输入的标准姿态坐标为(0.177797,0.156504,-0.120306),打字输入的标准姿态坐标为(0.088366,-0.040457,0.254452)。当然,语音输入方式的标准姿态坐标和打字输入方式的标准姿态坐标还可以是其他表示形式,本申请实施例对此不加以限定。
步骤302、基于电子设备的姿态坐标和语音输入方式的标准姿态坐标,计算第一距离,第一距离用于指示电子设备的姿态坐标和语音输入方式的标准姿态坐标之间的偏差。
在一种可能的实现方式中,确定出电子设备的姿态坐标之后,计算电子设备的姿态坐标和语音输入方式的标准姿态坐标之间的距离,例如欧式距离,将该距离作为第一距离。
在一种可能的实现方式中,基于下述公式(2)计算电子设备的姿态坐标和语音输入方式的标准姿态坐标之间的距离。
上述公式(2)中,(X1,Y1,Z1)为电子设备的姿态坐标,(X2,Y2,Z2)为语音输入方式的标准姿态坐标或者打字输入方式的标准姿态坐标。
示例性地,以上述步骤301确定的电子设备的姿态坐标和语音输入方式的姿态坐标为例,按照上述公式(2)计算,得到第一距离为0.25。
需要说明的是,上述仅以电子设备的姿态坐标和语音输入方式的标准姿态坐标之间的欧式距离作为第一距离,还可以以其他方式确定第一距离,本申请实施例对此不加以限定。
步骤303、基于电子设备的姿态坐标和打字输入方式的标准姿态坐标,计算第二距离,第二距离用于指示电子设备的姿态坐标和打字输入方式的标准姿态坐标之间的偏差。
在一种可能的实现方式中,基于电子设备的姿态坐标和打字输入方式的标准姿态坐标,计算第二距离的过程与上述步骤302中基于电子设备的姿态坐标和语音输入方式的标准姿态坐标,计算第一距离的过程一致,在此不再赘述。
示例性地,以上述步骤301中确定的电子设备的姿态坐标和打字输入方式的标准姿态坐标为例,按照公式(2)计算,得到第二距离为0.24。
步骤304、基于第一距离和第二距离,确定目标输入方式的姿态信息。
在一种可能的实现方式中,确定出第一距离和第二距离之后,基于第一距离和第二距离,确定目标输入方式的姿态信息包括下述两种情况:
情况一、响应于第一距离大于第二距离时,将第一数值确定为目标输入方式的姿态信息。
情况二、响应于第一距离不大于第二距离,将第二数值确定为目标输入方式的姿态信息,第一数值大于第二数值。
示例性地,第一距离大于第二距离时,目标输入方式的姿态信息为100,第一距离不大于第二距离时,目标输入方式的姿态信息为0。
需要说明的是,第一数值和第二数值还可以为0至100之内的其他数值,只要保证第一数值和第二数值不一致,且第一数值大于第二数值即可,本申请实施例对此不加以限定。
在本申请示例性实施例中,响应于目标输入方式对应的指标信息包括任一输入方式对应的输入区域的显示概率,按照图4所示的流程图获取任一输入方式对应的输入区域的显示概率,该过程包括下述步骤401和步骤402。
步骤401、在输入过程中,获取输入界面图像。
在一种可能的实现方式中,响应于用户在电子设备上使用目标输入方式输入内容时,电子设备调用电子设备的截屏功能获取输入界面图像。当用户使用打字输入方式输入内容时,输入界面图像中显示有打字输入方式的显示区域;当用户使用语音输入方式输入内容时,输入界面图像中显示有语音输入方式的显示区域。如图5所示为本申请实施例提供的一种输入界面图像的示意图,该图5中输入界面图像中显示有打字输入方式的显示区域,如图5中的键盘。如图6所示为本申请实施例提供的另一种输入界面图像的示意图,在该图6中显示有语音输入方式的显示区域,如图6中的声纹区域。
步骤402、对输入界面图像进行识别,得到输入界面图像中任一输入方式对应的输入区域的显示概率。
在一种可能的实现方式中,响应于获取到输入界面图像,电子设备基于图像处理技术,对该输入界面图像进行识别,从而使电子设备得到输入界面图像中任一输入方式对应的输入区域的概率。
由于概率为0-1之间的数值,为了使后续目标输入方式的综合指标的确定更加准确,确定出概率之后,按照下述公式(3)中的公式确定输入界面图像中任一输入方式对应的输入区域的显示概率P:
P=p*100 (3)
上述公式(3)中,p为输入界面图像中任一输入方式对应的输入区域的概率。
示例性地,获取到输入界面图像之后,对该输入界面图像进行识别,得到该输入界面图像中任一输入方式对应的输入区域的概率为0.60,基于该概率和上述公式(3),得到输入界面图像中任一输入方式对应的输入区域的显示概率为60。
需要说明的是,该图像处理技术可以为基于感知哈希算法的图像处理技术,也可以为基于直方图算法的图像处理技术,或者为其它任何可以进行图像处理的技术,本申请实施例对此不加以限定。
在本申请示例性实施例中,响应于目标输入方式对应的指标信息中包括目标输入方式的速度信息,根据目标输入方式的输入速度,获取目标输入方式的速度信息。如图7所示为本申请实施例提供的一种目标输入方式的速度信息的获取过程的流程图,该过程包括下述步骤701至步骤703。
步骤701、确定目标输入速度。
在一种可能的实现方式中,目标输入速度对应的数值为用户基于经验设置的数值,目标输入速度对应的数值也可以基于不同的人群进行调整,本申请实施例对此不加以限定。
示例性地,目标输入速度对应的数值为400字/分钟。
步骤702、根据目标输入方式的输入时长和按照目标输入方式输入的内容数值,计算目标输入方式的输入速度。
在一种可能的实现方式中,由于打字输入方式和语音输入方式的输入速度之间存在巨大差异,因此,为了使目标输入方式的类别的确定更加准确,还需要确定目标输入方式的输入速度。
在一种可能的实现方式中,根据目标输入方式的输入时长和按照目标输入方式输入的内容数值,按照下述公式(4)计算目标输入方式的输入速度V。
上述公式(4)中,A为按照目标输入方式输入的内容数值,单位为字;T为目标输入方式的输入时长,单位为分钟。
示例性地,目标输入方式的输入时长为2分钟,按照目标输入方式输入的内容数值为600字,按照上述公式(4)。计算目标输入方式的输入速度为也即是目标输入方式的输入速度为300字/分钟。
步骤703、根据目标输入方式的输入速度和目标输入速度,确定目标输入方式的速度信息。
在一种可能的实现方式中,根据上述步骤701确定的目标输入速度和上述步骤702确定的目标输入方式的输入速度,按照下述公式(5)计算目标输入方式的速度信息S1
上述公式(5)中,U为目标输入速度,V为目标输入方式的输入速度。
示例性地,目标输入速度为400字/分钟,目标输入方式的输入速度为300字/分钟,按照上述公式(5)计算目标输入方式的速度信息为也即是目标输入方式的速度信息为75。
如图8所示为本申请实施例提供的一种内容匹配度的获取过程的流程图,该获取过程包括下述步骤801至步骤803。
步骤801、响应于接收到提交请求,获取按照目标输入方式输入内容时的声音数据。
在一种可能的实现方式中,该声音数据为对加速度传感器数据进行解析之后得到的声音数据。用户通过声波震动发出声音,电子设备接收到用户的声波震动之后,电子设备中的加速度传感器也会跟着震动,电子设备将该震动数据确定为加速度传感器数据,电子设备中存储有每一个时刻的加速度传感器数据。响应于电子设备接收到内容提交请求,电子设备确定提交请求对应的时间,基于该时间,从存储空间中提取该时间对应的加速度传感器数据。
在一种可能的实现方式中,电子设备获取加速度传感器数据之后,将该加速度传感器数据输入循环神经网络(Recurrent Neural Network,RNN),RNN对该加速度传感器数据进行处理,得到该加速度传感器数据对应的声音数据。
需要说明的是,电子设备获取每一时刻的加速度传感器数据不需要获取麦克风权限,也即是不需要经过用户同意,因此,相较于获取麦克风权限获取音频数据的方式,加速度传感器数据的获取更加灵活,而且在用户关闭麦克风权限的时候,也可以获取到加速度传感器数据。
步骤802、对声音数据进行转换,得到声音数据对应的内容。
在一种可能的实现方式中,响应于获取到声音数据,电子设备对该声音数据进行转换,得到该声音数据对应的内容。
示例性地,电子设备获取到声音数据之后,利用电子设备的语音转文字功能,将声音数据转换为文字内容。
步骤803、基于声音数据对应的内容和提交内容,确定内容匹配度。
在一种可能的实现方式中,获取到声音数据对应的内容和提交内容之后,在声音数据对应的内容中确定与提交内容一样的内容为目标内容,基于目标内容的数值和提交内容的数值,按照下述公式(6)确定内容匹配度S3
上述公式(6)中,M为目标内容的数值,N为提交内容的数值。
示例性地,在声音数据对应的内容中确定的目标内容的数值为90字,提交内容的数值为120字,按照上述公式(6)计算内容匹配度为
需要说明的是,还可以采用其他方式确定内容匹配度,本申请实施例对此不加以限定。
图9所示为本申请实施例提供的一种输入方式的识别装置的结构示意图,如图9所示,该装置包括:
获取模块901,用于获取待识别的目标输入方式对应的指标信息,该目标输入方式对应的指标信息包括该目标输入方式的姿态信息、速度信息、任一输入方式对应的输入区域的显示概率以及内容匹配度中的至少一种,该内容匹配度用于指示按照该目标输入方式输入内容时的声音数据对应的内容和提交内容之间的匹配度;
确定模块902,用于基于该目标输入方式对应的指标信息,确定该目标输入方式对应的综合指标;
该确定模块902,还用于根据该目标输入方式对应的综合指标,确定该目标输入方式的类别。
在一种可能的实现方式中,该获取模块901,用于基于按照该目标输入方式输入内容时该电子设备的姿态坐标,获取该目标输入方式的姿态信息;获取任一输入方式对应的输入区域的显示概率;根据该目标输入方式的输入速度,获取该目标输入方式的速度信息;响应于接收到提交请求,获取内容匹配度。
在一种可能的实现方式中,该获取模块901,用于获取按照该目标输入方式输入内容时该电子设备的姿态坐标、语音输入方式的标准姿态坐标和打字输入方式的标准姿态坐标;基于该电子设备的姿态坐标和该语音输入方式的标准姿态坐标,计算第一距离,该第一距离用于指示该电子设备的姿态坐标和该语音输入方式的标准姿态坐标之间的偏差;基于该电子设备的姿态坐标和该打字输入方式的标准姿态坐标,计算第二距离,该第二距离用于指示该电子设备的姿态坐标和该打字输入方式的标准姿态坐标之间的偏差;基于该第一距离和该第二距离,确定该目标输入方式的姿态信息。
在一种可能的实现方式中,该获取模块901,用于在输入过程中,获取输入界面图像;对该输入界面图像进行识别,得到该输入界面图像中任一输入方式对应的输入区域的显示概率。
在一种可能的实现方式中,该获取模块901,用于确定目标输入速度;根据该目标输入方式的输入时长和按照该目标输入方式输入的内容数值,计算该目标输入方式的输入速度;根据该目标输入方式的输入速度和该目标输入速度,确定该目标输入方式的速度信息。
在一种可能的实现方式中,该获取模块901,用于响应于接收到提交请求,获取按照该目标输入方式输入内容时的声音数据;对该声音数据进行转换,得到该声音数据对应的内容;基于该声音数据对应的内容和该提交内容,确定内容匹配度。
在一种可能的实现方式中,该确定模块902,用于获取该指标信息对应的权重参数;根据该指标信息以及该指标信息对应的权重参数,确定该目标输入方式对应的综合指标。
在一种可能的实现方式中,该确定模块902,用于根据该指标信息以及该指标信息对应的权重参数,按照下述公式确定该目标输入方式对应的综合指标Score:
Score=S0*W0+S1*W1+S2*W2+S3*W3
其中,该S0为该姿态信息,该W0为该姿态信息对应的权重参数,该S1为该速度信息,该W1为该速度信息对应的权重参数,该S2为该任一输入方式对应的输入区域的显示概率,该W2为该任一输入方式对应的输入区域的显示概率对应的权重参数,该S3为该内容匹配度,该W3为该内容匹配度对应的权重参数。
在一种可能的实现方式中,该确定模块902,用于响应于该目标输入方式对应的综合指标大于参考综合指标,确定该目标输入方式的类别为语音输入;响应于该目标输入方式对应的综合指标不大于该参考综合指标,确定该目标输入方式的类别为打字输入。
上述装置在确定目标输入方式的类别时,考虑的信息较为全面,使得确定的目标输入方式的类别的准确性更高。而且,本申请的方案不需要获取电子设备的麦克风权限,可以在麦克风权限关闭的情况下,识别出目标输入方式的类别,使得目标输入方式的识别的灵活性更高。由于不需要获取麦克风权限,还可以保证电子设备中用户数据的安全性。
需要说明的是:上述实施例提供的输入方式的识别装置在进行输入方式的识别时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将输入方式的识别装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的输入方式的识别装置与输入方式的识别方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图10是本申请实施例提供的一种电子设备的结构示意图。该电子设备1000可以是:智能手机、平板电脑、MP3(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)播放器、MP4(Moving Picture Experts Group Audio LayerIV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。电子设备1000还可能被称为用户设备、便携式电子设备、膝上型电子设备、台式电子设备等其他名称。
通常,电子设备1000包括有:一个或多个处理器1001和一个或多个存储器1002。
处理器1001可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器1001可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器1001也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器1001可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器1001还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器1002可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器1002还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器1002中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器1001所执行以实现本申请中方法实施例提供的输入方式的识别方法。
在一些实施例中,电子设备1000还可选包括有:外围设备接口1003和至少一个外围设备。处理器1001、存储器1002和外围设备接口1003之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口1003相连。具体地,外围设备包括:射频电路1004、显示屏1005、摄像头组件1006、音频电路1007、定位组件1008和电源1009中的至少一种。
外围设备接口1003可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器1001和存储器1002。在一些实施例中,处理器1001、存储器1002和外围设备接口1003被集成在同一芯片或电路板上;在一些其他实施例中,处理器1001、存储器1002和外围设备接口1003中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路1004用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路1004通过电磁信号与通信网络以及其他通信设备进行通信。射频电路1004将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路1004包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路1004可以通过至少一种无线通信协议来与其它电子设备进行通信。该无线通信协议包括但不限于:城域网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路1004还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏1005用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏1005是触摸显示屏时,显示屏1005还具有采集在显示屏1005的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器1001进行处理。此时,显示屏1005还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏1005可以为一个,设置电子设备1000的前面板;在另一些实施例中,显示屏1005可以为至少两个,分别设置在电子设备1000的不同表面或呈折叠设计;在一些实施例中,显示屏1005可以是柔性显示屏,设置在电子设备1000的弯曲表面上或折叠面上。甚至,显示屏1005还可以设置成非矩形的不规则图形,也即异形屏。显示屏1005可以采用LCD(Liquid Crystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件1006用于采集图像或视频。可选地,摄像头组件1006包括前置摄像头和后置摄像头。通常,前置摄像头设置在电子设备的前面板,后置摄像头设置在电子设备的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件1006还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路1007可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器1001进行处理,或者输入至射频电路1004以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在电子设备1000的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器1001或射频电路1004的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路1007还可以包括耳机插孔。
定位组件1008用于定位电子设备1000的当前地理位置,以实现导航或LBS(Location Based Service,基于位置的服务)。定位组件1008可以是基于美国的GPS(Global Positioning System,全球定位系统)、中国的北斗系统、俄罗斯的格雷纳斯系统或欧盟的伽利略系统的定位组件。
电源1009用于为电子设备1000中的各个组件进行供电。电源1009可以是交流电、直流电、一次性电池或可充电电池。当电源1009包括可充电电池时,该可充电电池可以支持有线充电或无线充电。该可充电电池还可以用于支持快充技术。
在一些实施例中,电子设备1000还包括有一个或多个传感器1010。该一个或多个传感器1010包括但不限于:加速度传感器1011、陀螺仪传感器1012、压力传感器1011、指纹传感器1014、光学传感器1015以及接近传感器1016。
加速度传感器1011可以检测以电子设备1000建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器1011可以用于检测重力加速度在三个坐标轴上的分量。处理器1001可以根据加速度传感器1011采集的重力加速度信号,控制显示屏1005以横向视图或纵向视图进行用户界面的显示。加速度传感器1011还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器1012可以检测电子设备1000的机体方向及转动角度,陀螺仪传感器1012可以与加速度传感器1011协同采集用户对电子设备1000的3D动作。处理器1001根据陀螺仪传感器1012采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器1011可以设置在电子设备1000的侧边框和/或显示屏1005的下层。当压力传感器1011设置在电子设备1000的侧边框时,可以检测用户对电子设备1000的握持信号,由处理器1001根据压力传感器1011采集的握持信号进行左右手识别或快捷操作。当压力传感器1011设置在显示屏1005的下层时,由处理器1001根据用户对显示屏1005的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器1014用于采集用户的指纹,由处理器1001根据指纹传感器1014采集到的指纹识别用户的身份,或者,由指纹传感器1014根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器1001授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器1014可以被设置电子设备1000的正面、背面或侧面。当电子设备1000上设置有物理按键或厂商Logo时,指纹传感器1014可以与物理按键或厂商Logo集成在一起。
光学传感器1015用于采集环境光强度。在一个实施例中,处理器1001可以根据光学传感器1015采集的环境光强度,控制显示屏1005的显示亮度。具体地,当环境光强度较高时,调高显示屏1005的显示亮度;当环境光强度较低时,调低显示屏1005的显示亮度。在另一个实施例中,处理器1001还可以根据光学传感器1015采集的环境光强度,动态调整摄像头组件1006的拍摄参数。
接近传感器1016,也称距离传感器,通常设置在电子设备1000的前面板。接近传感器1016用于采集用户与电子设备1000的正面之间的距离。在一个实施例中,当接近传感器1016检测到用户与电子设备1000的正面之间的距离逐渐变小时,由处理器1001控制显示屏1005从亮屏状态切换为息屏状态;当接近传感器1016检测到用户与电子设备1000的正面之间的距离逐渐变大时,由处理器1001控制显示屏1005从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图10中示出的结构并不构成对电子设备1000的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
在示例性实施例中,还提供了一种计算机可读存储介质,该存储介质中存储有至少一条程序代码,该至少一条程序代码由处理器加载并执行,以实现上述任一种输入方式的识别方法。
可选地,上述计算机可读存储介质可以是只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、只读光盘(Compact Disc Read-OnlyMemory,CD-ROM)、磁带、软盘和光数据存储设备等。
在示例性实施例中,还提供了一种计算机程序或计算机程序产品,该计算机程序或计算机程序产品中存储有至少一条计算机指令,该至少一条计算机指令由处理器加载并执行,以实现上述任一种输入方式的识别方法。
应当理解的是,在本文中提及的“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
以上所述仅为本申请的示例性实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (10)

1.一种输入方式的识别方法,其特征在于,所述方法应用于电子设备,所述方法包括:
获取待识别的目标输入方式对应的指标信息,所述目标输入方式对应的指标信息包括所述目标输入方式的姿态信息、速度信息、任一输入方式对应的输入区域的显示概率以及内容匹配度中的至少一种,所述内容匹配度用于指示按照所述目标输入方式输入内容时的声音数据对应的内容和提交内容之间的匹配度;
基于所述目标输入方式对应的指标信息,确定所述目标输入方式对应的综合指标;
根据所述目标输入方式对应的综合指标,确定所述目标输入方式的类别;
其中,所述获取待识别的目标输入方式对应的指标信息,包括下述至少一项:
基于按照所述目标输入方式输入内容时所述电子设备的姿态坐标,获取所述目标输入方式的姿态信息;
获取任一输入方式对应的输入区域的显示概率;
根据所述目标输入方式的输入速度,获取所述目标输入方式的速度信息;
响应于接收到提交请求,获取内容匹配度;
其中,所述基于按照所述目标输入方式输入内容时所述电子设备的姿态坐标,获取所述目标输入方式的姿态信息,包括:
获取按照所述目标输入方式输入内容时所述电子设备的姿态坐标、语音输入方式的标准姿态坐标和打字输入方式的标准姿态坐标;
基于所述电子设备的姿态坐标和所述语音输入方式的标准姿态坐标,计算第一距离,所述第一距离用于指示所述电子设备的姿态坐标和所述语音输入方式的标准姿态坐标之间的偏差;
基于所述电子设备的姿态坐标和所述打字输入方式的标准姿态坐标,计算第二距离,所述第二距离用于指示所述电子设备的姿态坐标和所述打字输入方式的标准姿态坐标之间的偏差;
基于所述第一距离和所述第二距离,确定所述目标输入方式的姿态信息。
2.根据权利要求1所述的方法,其特征在于,所述获取任一输入方式对应的输入区域的显示概率,包括:
在输入过程中,获取输入界面图像;
对所述输入界面图像进行识别,得到所述输入界面图像中任一输入方式对应的输入区域的显示概率。
3.根据权利要求1所述的方法,其特征在于,所述根据所述目标输入方式的输入速度,获取所述目标输入方式的速度信息,包括:
确定目标输入速度;
根据所述目标输入方式的输入时长和按照所述目标输入方式输入的内容数值,计算所述目标输入方式的输入速度;
根据所述目标输入方式的输入速度和所述目标输入速度,确定所述目标输入方式的速度信息。
4.根据权利要求1所述的方法,其特征在于,所述响应于接收到提交请求,获取内容匹配度,包括:
响应于接收到提交请求,获取按照所述目标输入方式输入内容时的声音数据;
对所述声音数据进行转换,得到所述声音数据对应的内容;
基于所述声音数据对应的内容和所述提交内容,确定内容匹配度。
5.根据权利要求1-4任一所述的方法,其特征在于,所述基于所述目标输入方式对应的指标信息,确定所述目标输入方式对应的综合指标,包括:
获取所述指标信息对应的权重参数;
根据所述指标信息以及所述指标信息对应的权重参数,确定所述目标输入方式对应的综合指标。
6.根据权利要求5所述的方法,其特征在于,所述根据所述指标信息以及所述指标信息对应的权重参数,确定所述目标输入方式对应的综合指标,包括:
根据所述指标信息以及所述指标信息对应的权重参数,按照下述公式确定所述目标输入方式对应的综合指标Score:
Score=S0*W0+S1*W1+S2*W2+S3*W3
其中,所述S0为所述姿态信息,所述W0为所述姿态信息对应的权重参数,所述S1为所述速度信息,所述W1为所述速度信息对应的权重参数,所述S2为所述任一输入方式对应的输入区域的显示概率,所述W2为所述任一输入方式对应的输入区域的显示概率对应的权重参数,所述S3为所述内容匹配度,所述W3为所述内容匹配度对应的权重参数。
7.根据权利要求1-4任一所述的方法,其特征在于,所述根据所述目标输入方式对应的综合指标,确定所述目标输入方式的类别,包括:
响应于所述目标输入方式对应的综合指标大于参考综合指标,确定所述目标输入方式的类别为语音输入;
响应于所述目标输入方式对应的综合指标不大于所述参考综合指标,确定所述目标输入方式的类别为打字输入。
8.一种输入方式的识别装置,其特征在于,所述装置包括:
获取模块,用于获取待识别的目标输入方式对应的指标信息,所述目标输入方式对应的指标信息包括所述目标输入方式的姿态信息、速度信息、任一输入方式对应的输入区域的显示概率以及内容匹配度中的至少一种,所述内容匹配度用于指示按照所述目标输入方式输入内容时的声音数据对应的内容和提交内容之间的匹配度;
确定模块,用于基于所述目标输入方式对应的指标信息,确定所述目标输入方式对应的综合指标;
所述确定模块,还用于根据所述目标输入方式对应的综合指标,确定所述目标输入方式的类别;
其中,获取待识别的目标输入方式对应的指标信息,包括下述至少一项:
基于按照所述目标输入方式输入内容时电子设备的姿态坐标,获取所述目标输入方式的姿态信息;
获取任一输入方式对应的输入区域的显示概率;
根据所述目标输入方式的输入速度,获取所述目标输入方式的速度信息;
响应于接收到提交请求,获取内容匹配度;
其中,基于按照所述目标输入方式输入内容时所述电子设备的姿态坐标,获取所述目标输入方式的姿态信息,包括:
获取按照所述目标输入方式输入内容时所述电子设备的姿态坐标、语音输入方式的标准姿态坐标和打字输入方式的标准姿态坐标;
基于所述电子设备的姿态坐标和所述语音输入方式的标准姿态坐标,计算第一距离,所述第一距离用于指示所述电子设备的姿态坐标和所述语音输入方式的标准姿态坐标之间的偏差;
基于所述电子设备的姿态坐标和所述打字输入方式的标准姿态坐标,计算第二距离,所述第二距离用于指示所述电子设备的姿态坐标和所述打字输入方式的标准姿态坐标之间的偏差;
基于所述第一距离和所述第二距离,确定所述目标输入方式的姿态信息。
9.一种电子设备,其特征在于,所述电子设备包括处理器和存储器,所述存储器中存储有至少一条程序代码,所述至少一条程序代码由所述处理器加载并执行,以实现如权利要求1至7任一所述的输入方式的识别方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有至少一条程序代码,所述至少一条程序代码由处理器加载并执行,以实现如权利要求1至7任一所述的输入方式的识别方法。
CN202011023203.4A 2020-09-25 2020-09-25 输入方式的识别方法、装置、电子设备及存储介质 Active CN112214115B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011023203.4A CN112214115B (zh) 2020-09-25 2020-09-25 输入方式的识别方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011023203.4A CN112214115B (zh) 2020-09-25 2020-09-25 输入方式的识别方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN112214115A CN112214115A (zh) 2021-01-12
CN112214115B true CN112214115B (zh) 2024-04-30

Family

ID=74051854

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011023203.4A Active CN112214115B (zh) 2020-09-25 2020-09-25 输入方式的识别方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN112214115B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114816633A (zh) * 2022-04-22 2022-07-29 维沃移动通信有限公司 信息显示方法、装置及电子设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102103454A (zh) * 2008-05-15 2011-06-22 杭州惠道科技有限公司 实时预测用户输入的人机界面
CN106782553A (zh) * 2016-12-09 2017-05-31 深圳市金立通信设备有限公司 语音输入方法、及终端设备
CN107918518A (zh) * 2016-10-11 2018-04-17 阿里巴巴集团控股有限公司 互动操作方法、装置、终端设备和操作系统
CN110502126A (zh) * 2019-05-28 2019-11-26 华为技术有限公司 输入方法及电子设备
CN111061369A (zh) * 2019-12-13 2020-04-24 腾讯科技(深圳)有限公司 交互方法、装置、设备及存储介质
CN111582993A (zh) * 2020-05-13 2020-08-25 汉海信息技术(上海)有限公司 获取目标对象的方法、装置、电子设备及存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI634473B (zh) * 2014-10-29 2018-09-01 富智康(香港)有限公司 掌上型電子裝置的輸入法自動切換系統及方法
US20190332663A1 (en) * 2016-07-22 2019-10-31 Huawei Technologies Co., Ltd. Candidate-item presentation method and terminal device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102103454A (zh) * 2008-05-15 2011-06-22 杭州惠道科技有限公司 实时预测用户输入的人机界面
CN107918518A (zh) * 2016-10-11 2018-04-17 阿里巴巴集团控股有限公司 互动操作方法、装置、终端设备和操作系统
CN106782553A (zh) * 2016-12-09 2017-05-31 深圳市金立通信设备有限公司 语音输入方法、及终端设备
CN110502126A (zh) * 2019-05-28 2019-11-26 华为技术有限公司 输入方法及电子设备
CN111061369A (zh) * 2019-12-13 2020-04-24 腾讯科技(深圳)有限公司 交互方法、装置、设备及存储介质
CN111582993A (zh) * 2020-05-13 2020-08-25 汉海信息技术(上海)有限公司 获取目标对象的方法、装置、电子设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
综合目标识别的输入信息源研究;陆强强;章新华;;现代防御技术;20061020(第05期);100-104 *

Also Published As

Publication number Publication date
CN112214115A (zh) 2021-01-12

Similar Documents

Publication Publication Date Title
CN110222789B (zh) 图像识别方法及存储介质
CN108363982B (zh) 确定对象数量的方法及装置
CN111127509B (zh) 目标跟踪方法、装置和计算机可读存储介质
CN110705614A (zh) 模型训练方法、装置、电子设备及存储介质
CN110909264B (zh) 信息处理方法、装置、设备及存储介质
CN110675473B (zh) 生成gif动态图的方法、装置、电子设备及介质
CN109977570B (zh) 车身噪声确定方法、装置及存储介质
CN111931712B (zh) 人脸识别方法、装置、抓拍机及系统
CN112214115B (zh) 输入方式的识别方法、装置、电子设备及存储介质
CN111341317B (zh) 唤醒音频数据的评价方法、装置、电子设备及介质
CN110853124B (zh) 生成gif动态图的方法、装置、电子设备及介质
CN108831423B (zh) 提取音频数据中主旋律音轨的方法、装置、终端及存储介质
CN111488895B (zh) 对抗数据生成方法、装置、设备及存储介质
CN113408809B (zh) 汽车的设计方案评价方法、装置及计算机存储介质
CN113744736B (zh) 命令词识别方法、装置、电子设备及存储介质
CN112365088B (zh) 行程关键点的确定方法、装置、设备及可读存储介质
CN112560472B (zh) 一种识别敏感信息的方法及装置
CN112990424B (zh) 神经网络模型训练的方法和装置
CN111128115B (zh) 信息验证方法、装置、电子设备及存储介质
CN114595019A (zh) 应用程序的主题设置方法、装置、设备及存储介质
CN112487162A (zh) 确定文本语义信息的方法、装置、设备以及存储介质
CN112132472A (zh) 资源管理方法、装置、电子设备及计算机可读存储介质
CN111723348B (zh) 人机识别方法、装置、设备及存储介质
CN111753154B (zh) 用户数据处理方法、装置、服务器及计算机可读存储介质
CN112925903B (zh) 文本分类的方法、装置、电子设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant