CN110825475A - 一种输入方法及电子设备 - Google Patents
一种输入方法及电子设备 Download PDFInfo
- Publication number
- CN110825475A CN110825475A CN201911056775.XA CN201911056775A CN110825475A CN 110825475 A CN110825475 A CN 110825475A CN 201911056775 A CN201911056775 A CN 201911056775A CN 110825475 A CN110825475 A CN 110825475A
- Authority
- CN
- China
- Prior art keywords
- user
- information
- input
- key
- key information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/31—Indexing; Data structures therefor; Storage structures
- G06F16/313—Selection or weighting of terms for indexing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/335—Filtering based on additional data, e.g. user or group profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/54—Interprogram communication
- G06F9/543—User-generated data transfer, e.g. clipboards, dynamic data exchange [DDE], object linking and embedding [OLE]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Computational Linguistics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明实施例提供了一种输入方法及电子设备,涉及通信技术领域,以解决在输入常用信息或者电子设备已知的信息时,用户耗时秏力,操作重复、繁琐的问题。其中,所述输入方法,包括:在目标输入场景中,接收用户的第一输入;响应于所述第一输入,基于所述用户在电子设备上的操作信息,获取所述用户的行为特征信息;根据所述用户的行为特征信息,获取与所述用户的行为特征信息关联的用户历史数据;根据所述用户历史数据,获取所述用户历史数据中的与所述目标输入场景关联的关键信息;显示所述关键信息。本发明实施例中的输入方法应用于电子设备中。
Description
技术领域
本发明实施例涉及通信技术领域,尤其涉及一种输入方法及电子设备。
背景技术
随着电子设备的普及和发展,人们的衣食住行都开始离不开电子设备。
其中,在使用电子设备的过程中,用户会输入很多各式各样的信息。例如,注册账号时会填写自己的住址、身份证号、邮箱信息等;又如,寄件时会输入收件地址、电话号码等;又如,查询快递时会输入快速单号;又如,登录应用时会输入验证码;又如,对换礼包时会输入礼包码;等等。
其中,在输入场景中,用户输入的信息可能是一些常用信息,或者电子设备已知的信息,但用户重新输入,或者来回复制,导致用户耗时秏力,操作重复、繁琐。
发明内容
本发明实施例提供一种输入方法及电子设备,以解决在输入常用信息或者电子设备已知的信息时,用户耗时秏力,操作重复、繁琐的问题。
为了解决上述技术问题,本发明是这样实现的:
本发明实施例提供了一种输入方法,应用于电子设备,包括:在目标输入场景中,接收用户的第一输入;响应于所述第一输入,基于所述用户在所述电子设备上的操作信息,获取所述用户的行为特征信息;根据所述用户的行为特征信息,获取与所述用户的行为特征信息关联的用户历史数据;根据所述用户历史数据,获取所述用户历史数据中的与所述目标输入场景关联的关键信息;显示所述关键信息。
本发明实施例还提供了一种电子设备,包括:第一输入接收模块,用于在目标输入场景中,接收用户的第一输入;第一输入响应模块,用于响应于所述第一输入,基于所述用户在所述电子设备上的操作信息,获取所述用户的行为特征信息;历史数据获取模块,用于根据所述用户的行为特征信息,获取与所述用户的行为特征信息关联的用户历史数据;关键信息获取模块,用于根据所述用户历史数据,获取所述用户历史数据中的与所述目标输入场景关联的关键信息;关键信息显示模块,用于显示所述关键信息。
本发明实施例还提供了一种电子设备,包括处理器,存储器,存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现所述输入方法的步骤。
本发明实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现所述输入方法的步骤。
这样,在本发明实施例的目标输入场景中,用户可通过第一输入切换至智能输入模式。在智能输入模式中,电子设备可基于用户在电子设备上的操作信息,例如用户输入信息的输入操作信息、用户使用应用的使用应用操作信息等,获取用户的行为特征信息,并基于获取的用户的行为特征信息,获取与用户的行为特征信息关联的用户历史数据。例如,用户在输入操作中输入的信息、用户在使用应用操作中浏览的内容、显示的内容等。进一步地,根据获取的这些用户历史数据,提取出一些关键信息,例如地址、电话、问候语等,并结合当前的目标输入场景,匹配到一些关联性较强的关键信息进行显示。可见,在智能输入模式中,输入界面显示的关键信息与用户操作行为相关、与当前场景相关,从而与用户当前想输入的信息较为接近,进而用户可直接在输入界面中选择要输入的关键信息,以完成输入。本实施例中的输入方法相比于现有技术,用户在输入常用信息或者电子设备的已知信息时,无需重复输入、复制粘贴等操作,极大地简化了用户操作,节省用户时间。
附图说明
图1是本发明实施例的输入方法的流程图之一;
图2是本发明实施例的输入方法的操作示意图之一;
图3是本发明实施例的输入方法的操作示意图之二;
图4是本发明实施例的输入方法的流程图之二;
图5是本发明实施例的输入方法的流程图之三;
图6是本发明实施例的输入方法的操作示意图之三;
图7是本发明实施例的输入方法的流程图之四;
图8是本发明实施例的输入方法的流程图之五;
图9是本发明实施例的输入方法的操作示意图之四;
图10是本发明实施例的电子设备的框图之一;
图11是本发明实施例的电子设备的框图之二。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参见图1,示出了本发明一个实施例的输入方法的流程图,应用于电子设备,包括:
步骤S1:在目标输入场景中,接收用户的第一输入。
本实施例中的输入方法用于用户输入信息,应用于输入场景中。
例如,在输入场景中,电子设备的屏幕弹出输入界面,用户可对输入界面进行第一输入,从而在该步骤中接收用户的第一输入。
其中,第一输入包括基于屏幕的触摸手势动作和/或隔空手势动作,且在一次第一输入中,包括的手势动作数量不限,形式不限。
参见图2,例如,在输入场景中,电子设备的屏幕弹出输入界面的普通模式(参见图2中的左图所示),普通模式用于用户实现常规输入。具体地,普通模式下的输入界面包括文本框区域和键盘区域,用户可通常手写、拼音、复制等方式,最终在文本框区域输入信息。
进一步地,用户可通过在输入界面的上方区域进行向右或者向左滑动的手势动作,切换至输入界面的智能模式(参见图2中的右图所示),智能模式用于用户实现本实施例中的输入方法。
其中,用户可通过在输入界面的上方区域进行向右或者向左滑动的手势动作,在智能模式和普通模式之间进行切换。
因此,在上述实例中,第一输入包括用户在输入界面的上方区域进行向右或者向左滑动的手势动作。
步骤S2:响应于第一输入,基于用户在电子设备上的操作信息,获取用户的行为特征信息。
其中,用户在电子设备上的操作信息至少包括输入操作信息和使用应用操作信息。
首先,响应于第一输入,切换至输入界面的智能模式。
在智能模式中,电子设备可基于用户在电子设备上的操作信息,获取用户的行为特征信息,用户的行为特征信息包括实时跟踪的能够体现出用户操作行为的信息。如,用户的输入行为信息、使用应用行为信息等。
优选地,用户的行为特征信息优选为与文本相关的行为特征信息。
步骤S3:根据用户的行为特征信息,获取与用户的行为特征信息关联的用户历史数据。
进一步地,根据获取的用户的行为特征信息,获取用户历史数据,即实时跟踪的用户行为所产生的数据。
对应地,用户历史数据优选为与文本相关的用户历史数据。
例如,基于用户的每次文本框输入、复制文本、最近使用应用页面的行为,获取这些行为中的特征文本内容等,经实时分析后形成与用户的行为特征信息关联的用户历史数据。
特别地,在输入方法中,文本信息的输入场景较多,优选获取与文本相关的用户历史数据,但本实施例不限于获取更多形式的用户历史数据,如还可获取与表情图像相关的用户历史数据等。
步骤S4:根据用户历史数据,获取用户历史数据中的与目标输入场景关联的关键信息。
优选地,一方面,以成熟的大数据、神经语言程序学(Neuro-LinguisticProgramming,简称NLP)技术为基础,统计用户历史输入和全体用户输入分布,区分出用户的个性化输入数据,结合命名实体识别(Named Entity Recognition,NER)技术,将特定信息,例如地址、电话、验证码等区分出来,作为关键信息。
优选地,另一方面,在用户浏览的、或者历史运行的应用页面中,选择特征文本做处理,抽取出人名、地名、数字串、码串、整句等,作为关键信息。
具体地,应用页面的特征文本内容包括淘宝的快递单号和地址、浏览器的链接、接收短信的验证码等,具体应用页面的特征文本内容由大数据统计得出并不断反馈强化。
在该步骤中,可根据目标输入场景获取关键信息,也可在获取关键信息后,只提取部分与目标输入场景关联的关键信息。
例如,目标输入场景与注册账号相关,则获取的关键信息包括注册账号时需要的地址、邮箱等;又如,目标输入场景与聊天相关,则获取的关键信息包括聊天时需要的问候语等。
步骤S5:显示关键信息。
在输入界面的智能模式中,显示关键信息。
进一步可参考地,用户可通过如点击、拖动等手势动作选择关键信息,以完成当前目标输入场景的信息输入。
进一步可参考地,用户还可通过对应的手势动作对所选择的关键信息进行修改,以完成当前目标输入场景的信息输入。例如,用户直接选取整句形式的关键信息,并基于特定环境对整句进行删改。
参见图3,示例性地,用户在当前显示的关键信息中选择了“地址xxxxxx”,从而在输入框区域写入“地址xxxxxx”,使得用户完成信息输入。
进一步地,用户还可点击“发送”,以进一步实现对输入信息的后续处理。
需要说明的是,本实施例仅针对输入方法进行详细说明,不包括对输入信息的后续处理方式进行限定。
这样,在本发明实施例的目标输入场景中,用户可通过第一输入切换至智能输入模式。在智能输入模式中,电子设备可基于用户在电子设备上的操作信息,例如用户输入信息的输入操作信息、用户使用应用的使用应用操作信息等,获取用户的行为特征信息,并基于获取的用户的行为特征信息,获取与用户的行为特征信息关联的用户历史数据。例如,用户在输入操作中输入的信息、用户在使用应用操作中浏览的内容、显示的内容等。进一步地,根据获取的这些用户历史数据,提取出一些关键信息,例如地址、电话、问候语等,并结合当前的目标输入场景,匹配到一些关联性较强的关键信息进行显示。可见,在智能输入模式中,输入界面显示的关键信息与用户操作行为相关、与当前场景相关,从而与用户当前想输入的信息较为接近,进而用户可直接在输入界面中选择要输入的关键信息,以完成输入。本实施例中的输入方法相比于现有技术,用户在输入常用信息或者电子设备的已知信息时,无需重复输入、复制粘贴等操作,极大地简化了用户操作,节省用户时间。
在图1所示实施例的基础上,图4示出了本发明另一个实施例的输入方法的流程图,步骤S3至少包括以下任一项:
步骤S31:根据用户的行为特征信息,获取与用户的输入行为特征信息关联的历史输入数据。
优选地,本实施例可实时跟踪用户操作行为,以获取对应的行为特征信息,从而基于行为特征信息,识别出用户的输入行为,进而获取输入行为中产生的历史输入数据,即与用户的输入行为特征信息关联的历史输入数据。
其中,用户的输入行为如,打字行为、语音行为等,从而可获取用户在打字行为、语音行为等中输入的信息,作为历史输入数据。对于在语音行为等中输入的信息,可自动转换为文字信息进行获取。
步骤S32:根据用户的行为特征信息,获取与用户的使用应用行为特征信息关联的历史应用数据。
优选地,本实施例可实时跟踪用户操作行为,以获取对应的行为特征信息,从而基于行为特征信息,识别出用户的使用应用行为,进而获取使用应用行为中产生的历史应用数据,即与用户的使用应用行为特征信息关联的历史应用数据。
其中,用户的使用应用行为如,用户启动应用的行为、用户浏览应用的行为、保留后台运行应用的行为等,从而可获取启动应用的行为、用户使用应用的行为、保持后台运行应用的行为等中,应用中的一些特征信息,作为历史应用数据。
在本实施例中,优选至少获取用户的输入行为特征信息和用户的使用应用行为特征信息两方面关联的用户历史数据。在更多的实施例中,还可从更多的方面去获取用户历史数据,以使得获取的用户历史数据更为全面。
另外,在更多的实施例中,还可获取大数据中,与大多数用户行为特征信息关联的用户历史数据,以使得获取的用户历史数据更为全面,丰富所显示的关键信息。
在本实施例中,优选从用户的输入行为,以及用户使用应用的行为两方面,获取与用户行为关联的用户历史数据,再从用户历史数据中提取关键信息,使得智能模式下显示的关键信息与用户的行为强相关,能够满足用户在当前输入场景中的输入需求,避免用户手动选取复制、往返跳转多次操作。
在图1所示实施例的基础上,图5示出了本发明另一个实施例的输入方法的流程图,步骤S4包括:
步骤S41:根据用户历史数据,获取用户历史数据中的多个关键文本信息。
步骤S42:获取目标输入场景的目标场景信息。
优选地,采用上下文环境理解的人工智能(Artificial Intelligence,简称AI)技术,获取目标场景信息,目标场景信息包括当前界面所显示的内容特征、当前界面所显示的应用类型等信息。
优选地,目标场景信息为与语境相关的信息。
步骤S43:根据目标场景信息,获取多个关键文本信息的权重值。
优选地,当用户调出输入界面的智能模式的时候,电子设备会调用相关用户历史数据,提取多个关键文本信息,形成信息库,结合当前上下文应用使用环境计算出各个关键文本信息的权重值,以得到各个关键文本信息的候选排序。
例如,在注册页面中,给予手机、邮箱、地址等更多的权重;在游戏页面中,给予验证码、礼包码、常用游戏聊天等更多的权重;微信输入“地址”’后,给予多个地址等更多的权重;等等。
步骤S5包括:
步骤S51:根据关键文本信息的权重值,显示关键文本信息。
在该步骤中,根据多个关键文本信息的权重值,以得到各个关键文本信息的候选排序,从而根据各个关键文本信息的候选排序,显示关键文本信息。
例如,按照多个关键文本信息的权重值从大到小的顺序,依次显示多个关键文本信息。
优选地,可选择部分关键信息进行显示,用户可通过指定的手势动作切换当前界面所显示的关键信息。
参见图6,例如,用户可在输入界面的键盘区域,进行向左或者向右的滑动手势动作,切换当前显示的关键信息。
在本实施例中,在特定的目标输入场景,结合当前的目标场景信息,如结合当前页面的语境、上下文等,给出更加符合当前场景的候选关键信息,显示结果更加精确,避免用户手动输入或者来回复制粘贴等操作。
在图1所示实施例的基础上,图7示出了本发明另一个实施例的输入方法的流程图,步骤S4之后,还包括:
步骤S6:识别关键信息中的隐私信息。
优选地,可根据大数据中海量的用户历史数据,统计区分哪些是共用信息,哪些是个人的隐私信息,隐私信息如用户私密的人名、密码等。
优选地,也可根据应用特征和文本特征,统计区分哪些是共用信息,哪些是个人的隐私信息。
因此,为了尊重用户隐私,姓名、密码等隐私信息,一方面,可在获取关键信息后,识别并滤除关键信息中的隐私信息;另一方面,可在获取用户历史数据的过程中识别并滤除隐私信息。
其中,滤除隐私信息的方案更适用于对于加入体验计划的用户,这部分用户可以使用云端服务,用户操作行为会不断反馈优化整个系统模型;而没有选择加入的用户可以下载本地特征库,可采用不滤除隐私信息的方案,用户操作行为也会定时更新,但不用担心数据上传隐私问题,还可使用户快捷输入一些隐私信息。
对应地,步骤S5包括:
步骤S52:显示滤除隐私信息后的关键信息。
在本实施例中,为了防止用户历史数据中的隐私信息泄露,可在提取关键信息后,识别并滤除掉用户的隐私信息,以确保本实施例中的输入法的安全性。
在图1所示实施例的基础上,图8示出了本发明另一个实施例的输入方法的流程图,步骤S4之后,还包括:
步骤S7:将用户历史数据中的关键信息分类为多种输入类型。
在本实施例中,对分析得出的关键信息做整合处理,以及时分类记录更新。
优选地,输入类型至少包括个人信息类型、近期使用类型、历史使用类型和收藏信息类型中的任一种。
对应地,关键信息包括个人信息、最近信息、历史信息和收藏信息。
对应地,步骤S5包括:
步骤S53:显示多种输入类型。
参见图9,基于对关键信息的分类处理,获取到多种输入类型,从而在智能模式中显示对应的“近期”、“历史”、“个人”和“收藏”选项。其中,每个选项中均包括多个匹配的关键信息。
步骤S54:接收用户对目标输入类型的第二输入。
其中,第二输入包括基于屏幕的触摸手势动作和/或隔空手势动作,且在一次第二输入中,包括的手势动作数量不限,形式不限。
例如,用户可通过点击任一类型的选项的手势动作,选择目标输入类型。
参见图9,左图当前显示的目标输入类型为“个人信息类型”,用户点击“近期使用类型”后,切换至右图,显示的目标输入类型为“近期信息类型”。
步骤S55:响应于第二输入,显示目标输入类型中包括的目标关键信息。
示例性地,当目标输入类型为近期使用类型时,最近应用的页面抽取信息会得到展示;当目标输入类型为历史使用类型时,用户输入、复制最多的一批信息会更靠前的展示;当目标输入类型为个人信息类型时,用户个人的一些信息会得到展示;当目标输入类型为收藏信息类型时,用户在平时收藏的一些信息会得到展示。
其中,收藏信息不限于来自任一应用中,可以是输入法应用中的收藏,也可以是其它应用中的收藏。例如,用户可对输入界面当前显示的任一关键信息,通过手指拖拽至收藏信息类型,完成对该关键信息的收藏。
在本实施例中,通过对关键信息的分析分类处理,生成最近常输入、历史常输入、用户个人信息输入、收藏信息输入四个候选栏,不仅使得关键信息保留覆盖广、全自动,且分类精细,便于用户快速选择,从而简化用户操作,节省时间。
综上,对于现有技术中的输入方法存在的问题,如用户手动输入、手动复制粘贴,耗时耗力;手动管理常用输入,耗费精力,容易因用户的惰性而一直没有使用,而且对于一次性的转达信息没有解决办法;只能解决几个固定模式的及时短信的关键信息抽取问题;语音识别存在生僻字词识别率不高、口音和噪声环境鲁棒性的非短期技术难题,需要配合人工修改;等等一些不方便使用或覆盖场景少的问题。本发明实施例能够实现一种智能快速输入特定信息的方法。从用户角度来说,新的操作用户界面(User Interface,简称UI)方便简洁,大量智能候选,拖动选择即可,功能使用便捷,享受全自动智能服务,极大减少了用户的操作频次和复杂度。从技术角度来说,本方法实现的基础技术模块成熟,结合数据和人工优化是可以实现的。
特别地,结合未来AI技术的突破,随着用户的各种电子设备操作行为和高级智能外设的互通,智能输入法的推荐输入的覆盖场景和精准度会有极大的想象空间。
图10示出了本发明另一个实施例的电子设备的框图,包括:
第一输入接收模块10,用于在目标输入场景中,接收用户的第一输入;
第一输入响应模块20,用于响应于第一输入,基于用户在电子设备上的操作信息,获取用户的行为特征信息;
历史数据获取模块30,用于根据用户的行为特征信息,获取与用户的行为特征信息关联的用户历史数据;
关键信息获取模块40,用于根据用户历史数据,获取用户历史数据中的与目标输入场景关联的关键信息;
关键信息显示模块50,用于显示关键信息。
这样,在本发明实施例的目标输入场景中,用户可通过第一输入切换至智能输入模式。在智能输入模式中,电子设备可基于用户在电子设备上的操作信息,例如用户输入信息的输入操作信息、用户使用应用的使用应用操作信息等,获取用户的行为特征信息,并基于获取的用户的行为特征信息,获取与用户的行为特征信息关联的用户历史数据。例如,用户在输入操作中输入的信息、用户在使用应用操作中浏览的内容、显示的内容等。进一步地,根据获取的这些用户历史数据,提取出一些关键信息,例如地址、电话、问候语等,并结合当前的目标输入场景,匹配到一些关联性较强的关键信息进行显示。可见,在智能输入模式中,输入界面显示的关键信息与用户操作行为相关、与当前场景相关,从而与用户当前想输入的信息较为接近,进而用户可直接在输入界面中选择要输入的关键信息,以完成输入。本实施例中的输入方法相比于现有技术,用户在输入常用信息或者电子设备的已知信息时,无需重复输入、复制粘贴等操作,极大地简化了用户操作,节省用户时间。
优选地,历史数据获取模块30至少包括以下任一项:
历史输入数据获取单元,用于根据用户的行为特征信息,获取与用户的输入行为特征信息关联的历史输入数据;
历史应用数据获取单元,用于根据用户的行为特征信息,获取与用户的使用应用行为特征信息关联的历史应用数据。
优选地,关键信息获取模块40包括:
文本信息获取单元,用于根据用户历史数据,获取用户历史数据中的多个关键文本信息;
场景信息获取单元,用于获取目标输入场景的目标场景信息;
权重值获取单元,用于根据目标场景信息,获取多个关键文本信息的权重值;
关键信息显示模块50包括:
文本信息显示单元,用于根据关键文本信息的权重值,显示关键文本信息。
优选地,电子设备还包括:
隐私信息识别模块,用于识别关键信息中的隐私信息;
关键信息显示模块50包括:
滤除显示单元,用于显示滤除隐私信息后的关键信息。
优选地,电子设备还包括:
关键信息分类模块,用于将用户历史数据中的关键信息分类为多种输入类型;
关键信息显示模块50包括:
类型显示单元,用于显示多种输入类型;
第二输入接收单元,用于接收用户对目标输入类型的第二输入;
第二输入响应单元,用于响应于第二输入,显示目标输入类型中包括的目标关键信息;
其中,输入类型至少包括个人信息类型、近期使用类型、历史使用类型和收藏信息类型中的任一种。
本发明实施例提供的电子设备能够实现图1至图9的方法实施例中电子设备实现的各个过程,为避免重复,这里不再赘述。
图11为实现本发明各个实施例的一种电子设备的硬件结构示意图,该电子设备100包括但不限于:射频单元101、网络模块102、音频输出单元103、输入单元104、传感器105、显示单元106、用户输入单元107、接口单元108、存储器109、处理器110、以及电源111等部件。本领域技术人员可以理解,图11中示出的电子设备结构并不构成对电子设备的限定,电子设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。在本发明实施例中,电子设备包括但不限于手机、平板电脑、笔记本电脑、掌上电脑、车载电子设备、可穿戴设备、以及计步器等。
其中,处理器110,用于控制输入单元104在目标输入场景中,接收用户的第一输入;响应于第一输入,基于用户在电子设备上的操作信息,获取用户的行为特征信息;根据用户的行为特征信息,获取与用户的行为特征信息关联的用户历史数据;根据用户历史数据,获取用户历史数据中的与目标输入场景关联的关键信息;
显示单元106,用于显示关键信息。
这样,在本发明实施例的目标输入场景中,用户可通过第一输入切换至智能输入模式。在智能输入模式中,电子设备可基于用户在电子设备上的操作信息,例如用户输入信息的输入操作信息、用户使用应用的使用应用操作信息等,获取用户的行为特征信息,并基于获取的用户的行为特征信息,获取与用户的行为特征信息关联的用户历史数据。例如,用户在输入操作中输入的信息、用户在使用应用操作中浏览的内容、显示的内容等。进一步地,根据获取的这些用户历史数据,提取出一些关键信息,例如地址、电话、问候语等,并结合当前的目标输入场景,匹配到一些关联性较强的关键信息进行显示。可见,在智能输入模式中,输入界面显示的关键信息与用户操作行为相关、与当前场景相关,从而与用户当前想输入的信息较为接近,进而用户可直接在输入界面中选择要输入的关键信息,以完成输入。本实施例中的输入方法相比于现有技术,用户在输入常用信息或者电子设备的已知信息时,无需重复输入、复制粘贴等操作,极大地简化了用户操作,节省用户时间。
应理解的是,本发明实施例中,射频单元101可用于收发信息或通话过程中,信号的接收和发送,具体的,将来自基站的下行数据接收后,给处理器110处理;另外,将上行的数据发送给基站。通常,射频单元101包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器、双工器等。此外,射频单元101还可以通过无线通信系统与网络和其他设备通信。
电子设备通过网络模块102为用户提供了无线的宽带互联网访问,如帮助用户收发电子邮件、浏览网页和访问流式媒体等。
音频输出单元103可以将射频单元101或网络模块102接收的或者在存储器109中存储的音频数据转换成音频信号并且输出为声音。而且,音频输出单元103还可以提供与电子设备100执行的特定功能相关的音频输出(例如,呼叫信号接收声音、消息接收声音等等)。音频输出单元103包括扬声器、蜂鸣器以及受话器等。
输入单元104用于接收音频或视频信号。输入单元104可以包括图形处理器(Graphics Processing Unit,GPU)1041和麦克风1042,图形处理器1041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像数据进行处理。处理后的图像帧可以显示在显示单元106上。经图形处理器1041处理后的图像帧可以存储在存储器109(或其它存储介质)中或者经由射频单元101或网络模块102进行发送。麦克风1042可以接收声音,并且能够将这样的声音处理为音频数据。处理后的音频数据可以在电话通话模式的情况下转换为可经由射频单元101发送到移动通信基站的格式输出。
电子设备100还包括至少一种传感器105,比如光传感器、运动传感器以及其他传感器。具体地,光传感器包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板1061的亮度,接近传感器可在电子设备100移动到耳边时,关闭显示面板1061和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别电子设备姿态(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;传感器105还可以包括指纹传感器、压力传感器、虹膜传感器、分子传感器、陀螺仪、气压计、湿度计、温度计、红外线传感器等,在此不再赘述。
显示单元106用于显示由用户输入的信息或提供给用户的信息。显示单元106可包括显示面板1061,可以采用液晶显示器(Liquid Crystal Display,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置显示面板1061。
用户输入单元107可用于接收输入的数字或字符信息,以及产生与电子设备的用户设置以及功能控制有关的键信号输入。具体地,用户输入单元107包括触控面板1071以及其他输入设备1072。触控面板1071,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板1071上或在触控面板1071附近的操作)。触控面板1071可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器110,接收处理器110发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板1071。除了触控面板1071,用户输入单元107还可以包括其他输入设备1072。具体地,其他输入设备1072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆,在此不再赘述。
进一步的,触控面板1071可覆盖在显示面板1061上,当触控面板1071检测到在其上或附近的触摸操作后,传送给处理器110以确定触摸事件的类型,随后处理器110根据触摸事件的类型在显示面板1061上提供相应的视觉输出。虽然在图11中,触控面板1071与显示面板1061是作为两个独立的部件来实现电子设备的输入和输出功能,但是在某些实施例中,可以将触控面板1071与显示面板1061集成而实现电子设备的输入和输出功能,具体此处不做限定。
接口单元108为外部装置与电子设备100连接的接口。例如,外部装置可以包括有线或无线头戴式耳机端口、外部电源(或电池充电器)端口、有线或无线数据端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。接口单元108可以用于接收来自外部装置的输入(例如,数据信息、电力等等)并且将接收到的输入传输到电子设备100内的一个或多个元件或者可以用于在电子设备100和外部装置之间传输数据。
存储器109可用于存储软件程序以及各种数据。存储器109可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器109可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
处理器110是电子设备的控制中心,利用各种接口和线路连接整个电子设备的各个部分,通过运行或执行存储在存储器109内的软件程序和/或模块,以及调用存储在存储器109内的数据,执行电子设备的各种功能和处理数据,从而对电子设备进行整体监控。处理器110可包括一个或多个处理单元;优选的,处理器110可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器110中。
电子设备100还可以包括给各个部件供电的电源111(比如电池),优选的,电源111可以通过电源管理系统与处理器110逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
另外,电子设备100包括一些未示出的功能模块,在此不再赘述。
优选的,本发明实施例还提供一种电子设备,包括处理器110,存储器109,存储在存储器109上并可在所述处理器110上运行的计算机程序,该计算机程序被处理器110执行时实现上述输入方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
本发明实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述输入方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。其中,所述的计算机可读存储介质,如只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台电子设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本发明的保护之内。
Claims (12)
1.一种输入方法,应用于电子设备,其特征在于,包括:
在目标输入场景中,接收用户的第一输入;
响应于所述第一输入,基于所述用户在所述电子设备上的操作信息,获取所述用户的行为特征信息;
根据所述用户的行为特征信息,获取与所述用户的行为特征信息关联的用户历史数据;
根据所述用户历史数据,获取所述用户历史数据中的与所述目标输入场景关联的关键信息;
显示所述关键信息。
2.根据权利要求1所述的方法,其特征在于,所述根据所述用户的行为特征信息,获取与所述用户的行为特征信息关联的用户历史数据,至少包括以下任一项:
根据所述用户的行为特征信息,获取与所述用户的输入行为特征信息关联的历史输入数据;
根据所述用户的行为特征信息,获取与所述用户的使用应用行为特征信息关联的历史应用数据。
3.根据权利要求1所述的方法,其特征在于,所述根据所述用户历史数据,获取所述用户历史数据中的与所述目标输入场景关联的关键信息,包括:
根据所述用户历史数据,获取所述用户历史数据中的多个关键文本信息;
获取所述目标输入场景的目标场景信息;
根据所述目标场景信息,获取所述多个关键文本信息的权重值;
所述显示所述关键信息,包括:
根据所述关键文本信息的权重值,显示所述关键文本信息。
4.根据权利要求1所述的方法,其特征在于,所述根据所述用户历史数据,获取所述用户历史数据中的与所述目标输入场景关联的关键信息之后,还包括:
识别所述关键信息中的隐私信息;
所述显示所述关键信息,包括:
显示滤除所述隐私信息后的所述关键信息。
5.根据权利要求1所述的方法,其特征在于,所述根据所述用户历史数据,获取所述用户历史数据中的与所述目标输入场景关联的关键信息之后,还包括:
将所述用户历史数据中的关键信息分类为多种输入类型;
所述显示所述关键信息,包括:
显示所述多种输入类型;
接收所述用户对目标输入类型的第二输入;
响应于所述第二输入,显示所述目标输入类型中包括的目标关键信息;
其中,所述输入类型至少包括个人信息类型、近期使用类型、历史使用类型和收藏信息类型中的任一种。
6.一种电子设备,其特征在于,包括:
第一输入接收模块,用于在目标输入场景中,接收用户的第一输入;
第一输入响应模块,用于响应于所述第一输入,基于所述用户在所述电子设备上的操作信息,获取所述用户的行为特征信息;
历史数据获取模块,用于根据所述用户的行为特征信息,获取与所述用户的行为特征信息关联的用户历史数据;
关键信息获取模块,用于根据所述用户历史数据,获取所述用户历史数据中的与所述目标输入场景关联的关键信息;
关键信息显示模块,用于显示所述关键信息。
7.根据权利要求6所述的电子设备,其特征在于,所述历史数据获取模块至少包括以下任一项:
历史输入数据获取单元,用于根据所述用户的行为特征信息,获取与所述用户的输入行为特征信息关联的历史输入数据;
历史应用数据获取单元,用于根据所述用户的行为特征信息,获取与所述用户的使用应用行为特征信息关联的历史应用数据。
8.根据权利要求6所述的电子设备,其特征在于,所述关键信息获取模块包括:
文本信息获取单元,用于根据所述用户历史数据,获取所述用户历史数据中的多个关键文本信息;
场景信息获取单元,用于获取所述目标输入场景的目标场景信息;
权重值获取单元,用于根据所述目标场景信息,获取所述多个关键文本信息的权重值;
所述关键信息显示模块包括:
文本信息显示单元,用于根据所述关键文本信息的权重值,显示所述关键文本信息。
9.根据权利要求6所述的电子设备,其特征在于,所述电子设备还包括:
隐私信息识别模块,用于识别所述关键信息中的隐私信息;
所述关键信息显示模块包括:
滤除显示单元,用于显示滤除所述隐私信息后的所述关键信息。
10.根据权利要求6所述的电子设备,其特征在于,所述电子设备还包括:
关键信息分类模块,用于将所述用户历史数据中的关键信息分类为多种输入类型;
所述关键信息显示模块包括:
类型显示单元,用于显示所述多种输入类型;
第二输入接收单元,用于接收所述用户对目标输入类型的第二输入;
第二输入响应单元,用于响应于所述第二输入,显示所述目标输入类型中包括的目标关键信息;
其中,所述输入类型至少包括个人信息类型、近期使用类型、历史使用类型和收藏信息类型中的任一种。
11.一种电子设备,其特征在于,包括处理器,存储器,存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至5中任一项所述的输入方法的步骤。
12.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至5中任一项所述的输入方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911056775.XA CN110825475A (zh) | 2019-10-31 | 2019-10-31 | 一种输入方法及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911056775.XA CN110825475A (zh) | 2019-10-31 | 2019-10-31 | 一种输入方法及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110825475A true CN110825475A (zh) | 2020-02-21 |
Family
ID=69552028
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911056775.XA Pending CN110825475A (zh) | 2019-10-31 | 2019-10-31 | 一种输入方法及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110825475A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112818205A (zh) * | 2021-01-27 | 2021-05-18 | 游艺星际(北京)科技有限公司 | 页面处理方法、装置、电子设备、存储介质及产品 |
CN113805707A (zh) * | 2020-06-17 | 2021-12-17 | 北京搜狗科技发展有限公司 | 一种输入方法、装置和用于输入的装置 |
CN116501233A (zh) * | 2023-04-19 | 2023-07-28 | 广州致远仪器有限公司 | 软键盘交互方法、设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100017390A1 (en) * | 2008-07-16 | 2010-01-21 | Kabushiki Kaisha Toshiba | Apparatus, method and program product for presenting next search keyword |
CN105528338A (zh) * | 2014-09-30 | 2016-04-27 | 上海触乐信息科技有限公司 | 智能预测的输入方法和系统 |
CN106445189A (zh) * | 2016-12-16 | 2017-02-22 | 北京小米移动软件有限公司 | 候选词显示方法及装置 |
CN108733226A (zh) * | 2017-04-13 | 2018-11-02 | 北京搜狗科技发展有限公司 | 一种信息推荐的方法及装置 |
CN109101152A (zh) * | 2018-07-26 | 2018-12-28 | 维沃移动通信有限公司 | 一种信息输入方法及终端 |
CN110362737A (zh) * | 2018-04-08 | 2019-10-22 | 优视科技有限公司 | 推荐内容的推送方法、装置和服务器 |
-
2019
- 2019-10-31 CN CN201911056775.XA patent/CN110825475A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100017390A1 (en) * | 2008-07-16 | 2010-01-21 | Kabushiki Kaisha Toshiba | Apparatus, method and program product for presenting next search keyword |
CN105528338A (zh) * | 2014-09-30 | 2016-04-27 | 上海触乐信息科技有限公司 | 智能预测的输入方法和系统 |
CN106445189A (zh) * | 2016-12-16 | 2017-02-22 | 北京小米移动软件有限公司 | 候选词显示方法及装置 |
CN108733226A (zh) * | 2017-04-13 | 2018-11-02 | 北京搜狗科技发展有限公司 | 一种信息推荐的方法及装置 |
CN110362737A (zh) * | 2018-04-08 | 2019-10-22 | 优视科技有限公司 | 推荐内容的推送方法、装置和服务器 |
CN109101152A (zh) * | 2018-07-26 | 2018-12-28 | 维沃移动通信有限公司 | 一种信息输入方法及终端 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113805707A (zh) * | 2020-06-17 | 2021-12-17 | 北京搜狗科技发展有限公司 | 一种输入方法、装置和用于输入的装置 |
CN112818205A (zh) * | 2021-01-27 | 2021-05-18 | 游艺星际(北京)科技有限公司 | 页面处理方法、装置、电子设备、存储介质及产品 |
CN112818205B (zh) * | 2021-01-27 | 2023-10-31 | 游艺星际(北京)科技有限公司 | 页面处理方法、装置、电子设备、存储介质及产品 |
CN116501233A (zh) * | 2023-04-19 | 2023-07-28 | 广州致远仪器有限公司 | 软键盘交互方法、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110798397B (zh) | 文件发送方法、装置和电子设备 | |
CN109743464A (zh) | 桌面背景显示方法、移动终端及计算机可读存储介质 | |
CN110830363B (zh) | 一种信息分享方法及电子设备 | |
CN110674662A (zh) | 一种扫描方法及终端设备 | |
CN110888705B (zh) | 处理未读消息角标的方法及电子设备 | |
CN110703972B (zh) | 一种文件控制方法及电子设备 | |
CN109669748A (zh) | 一种显示界面处理方法及移动终端 | |
CN109753202B (zh) | 一种截屏方法和移动终端 | |
CN109271262B (zh) | 一种显示方法和终端 | |
CN109495638B (zh) | 一种信息显示方法及终端 | |
CN110825475A (zh) | 一种输入方法及电子设备 | |
CN109166164B (zh) | 一种表情图片的生成方法及终端 | |
CN108446339B (zh) | 一种应用图标的分类方法及移动终端 | |
CN108600544A (zh) | 一种单手控制方法及终端 | |
CN111125307A (zh) | 一种聊天记录查询方法及电子设备 | |
CN110703967B (zh) | 一种短信的处理方法及其终端设备 | |
CN109542311B (zh) | 一种文件处理方法及电子设备 | |
CN108762641B (zh) | 一种文本编辑方法及终端设备 | |
CN108628534B (zh) | 一种字符展示方法及移动终端 | |
CN108959585B (zh) | 一种表情图片获取方法和终端设备 | |
CN111694497B (zh) | 页面组合方法和电子设备 | |
CN111290673B (zh) | 一种消息处理方法及电子设备 | |
CN108255374A (zh) | 一种文件的打开方法及终端设备 | |
CN109739406B (zh) | 一种文件发送方法及终端 | |
CN108595104B (zh) | 一种文件处理方法及终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200221 |
|
RJ01 | Rejection of invention patent application after publication |