CN109361814A - 一种控制方法及电子设备 - Google Patents

一种控制方法及电子设备 Download PDF

Info

Publication number
CN109361814A
CN109361814A CN201811116112.8A CN201811116112A CN109361814A CN 109361814 A CN109361814 A CN 109361814A CN 201811116112 A CN201811116112 A CN 201811116112A CN 109361814 A CN109361814 A CN 109361814A
Authority
CN
China
Prior art keywords
input
content
input content
time
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811116112.8A
Other languages
English (en)
Inventor
万喜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Beijing Ltd
Original Assignee
Lenovo Beijing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Beijing Ltd filed Critical Lenovo Beijing Ltd
Priority to CN201811116112.8A priority Critical patent/CN109361814A/zh
Publication of CN109361814A publication Critical patent/CN109361814A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72436User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for text messaging, e.g. short messaging services [SMS] or e-mails
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72433User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for voice messaging, e.g. dictaphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72439User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for image or video messaging

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请公开了一种控制方法及电子设备,方法包括:采集用户的行为数据;基于所述行为数据,获得第一输入内容;对输入区域中的输入内容基于所述第一输入内容进行处理,得到目标内容。可见,本申请中是基于用户行为数据对输入内容进行处理,而无需用户进行手动操作输入就可以得到新的目标内容,由此减少用户操作,降低操作复杂度,达到提高输入效率的目的。

Description

一种控制方法及电子设备
技术领域
本申请涉及计算机技术领域,尤其涉及一种处理方法及电子设备。
背景技术
当前用户在电子设备如手机的输入场景下会使用多种输入方式,包括语音、文字、图片、表情等多种内容。而用户在输入状态下基本是当前想法的表达,往往会实时变换,而此时需要用户手动删除已经输入的一部分内容,再重新输入新的内容,等等,由此导致输入效率较低。
发明内容
有鉴于此,本申请提供一种控制方法及电子设备,用以解决现有技术中输入效率较低的技术问题。
本申请提供了一种控制方法,包括:
采集用户的行为数据;
基于所述行为数据,获得第一输入内容;
对输入区域中的输入内容基于所述第一输入内容进行处理,得到目标内容。
上述方法,优选的,所述行为数据包括:用户的语音数据或面部状态数据。
上述方法,优选的,基于所述行为数据,获得第一输入内容,包括:
对所述行为数据中的语音数据进行语音识别,以得到与所述语音数据相对应的内容作为第一输入内容。
上述方法,优选的,基于所述行为数据,获得第一输入内容,包括:
对所述行为数据中的面部状态数据进行解析,以得到与所述面部状态数据相对应的内容作为第一输入内容。
上述方法,优选的,对输入区域中的输入内容基于所述第一输入内容进行处理,得到目标内容,包括:
获取所述输入内容中包含的至少一组已输入内容及其分别对应的第一输入时刻;
获取所述第一输入内容的第二输入时刻;
基于所述第一输入时刻和所述第二输入时刻,利用所述第一输入内容对满足预设的时刻条件的已输入内容进行处理,得到目标内容。
上述方法,优选的,所述满足预设的时刻条件的已输入内容,包括:
所述第一输入时刻与所述第二输入时刻之间的时间差低于预设时间阈值的已输入内容。
上述方法,优选的,利用所述第一输入内容对满足预设的时刻条件的已输入内容进行处理,得到目标内容,包括:
获得所述第一输入内容与满足预设的时刻条件的已输入内容之间的相似度值;
基于所述第一输入内容,对满足预设的时刻条件且对应相似度值大于预设相似阈值的已输入内容进行修改处理,得到目标内容。
上述方法,优选的,利用所述第一输入内容对满足预设的时刻条件的已输入内容进行处理,得到目标内容,包括:
将满足预设的时刻条件的已输入内容中的至少部分内容替换为所述第一输入内容中的至少部分内容,得到目标内容;
其中,所述方法还包括:
若所述输入内容中没有满足所述时刻条件的已输入内容或者所述已输入内容中没有相应相似度值大于预设相似阈值的已输入内容,将所述第一输入内容添加到所述输入内容之后。
本申请还提供了一种电子设备,包括:
存储器,用于存储应用程序及所述应用程序执行所产生的数据;
处理器,用于执行所述应用程序,以实现以下功能:采集用户的行为数据;基于所述行为数据,获得第一输入内容;对输入区域中的输入内容基于所述第一输入内容进行处理,得到目标内容。
本申请还提供了一种电子设备,包括:
输入装置,用于采集用户的行为数据;
控制器,用于基于所述行为数据,获得第一输入内容;对输入区域中的输入内容基于所述第一输入内容进行处理,得到目标内容。
从上述技术方案可以看出,本申请公开的一种控制方法及电子设备,通过对用户的行为数据进行采集并基于行为数据来获得第一输入内容,从而对输入区域中的输入内容基于第一输入内容进行处理,从而得到目标内容。可见,本申请中是基于用户行为数据对输入内容进行处理,而无需用户进行手动操作输入就可以得到新的目标内容,由此减少用户操作,降低操作复杂度,达到提高输入效率的目的。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例一提供的一种控制方法的流程图;
图2-图5分别为本申请实施例的示例图;
图6为本申请实施例一的部分流程图;
图7a为本申请实施例的另一示例图;
图7b为本申请实施例一的另一部分流程图;
图8-图13分别为本申请实施例的其他示例图;
图14为本申请实施例二提供的一种电子设备的结构示意图;
图15为本申请实施例三提供的一种电子设备的结构示意图;
图16-图18分别为本申请实施例的其他示例图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
参考图1所示,为本申请实施例一提供的一种控制方法的流程图,本实施例中的控制方法适用于对输入区域中的输入内容进行处理。
例如,用户通过电子设备上的聊天应用进行通信时,在聊天应用的聊天输入界面中具有输入区域,如图2中所示,该输入区域中具有已经输入完成的输入内容,本实施例中用以对输入区域中的输入内容进行处理;
或者,用户使用电子设备上的直播网站或者视频播放应用时,在直播网站或视频播放应用的弹幕界面具有输入区域,如图3中所示,该输入区域中具有已经输入完成的输入内容,本实施例中用以对输入区域中的输入内容进行处理。
需要说明的是,输入区域中的输入内容在处理完成之后,可以通过自动发送或者在用户的操作下发送给其他电子设备中的用户
具体的,本实施例中可以包括以下步骤:
步骤101:采集用户的行为数据。
其中,本实施例中可以采用音频采集设备如麦克风和/或摄像头等采集用户的行为数据。该行为数据表征用户对输入内容进行处理的操作意图,如修改、删除或者添加等操作意图。
步骤102:基于行为数据,获得第一输入内容。
其中,本实施例中所获得的第一输入内容为与行为数据所对应的内容,具体的,本实施例中可以对行为数据进行解析识别,以得到相应的第一输入内容。
步骤103:对输入区域中的输入内容基于第一输入内容进行处理,得到目标内容。
其中,本实施例中可以对输入区域中的输入内容基于第一输入内容进行修改、删除或添加等操作,以得到目标内容。
另外,本实施例中可以将目标内容作为输入内容展示在输入区域中,并通过自动发送或者在用户操作下发送到其他电子设备上。
由上述方案可知,本申请实施例一提供的一种控制方法,通过对用户的行为数据进行采集并基于行为数据来获得第一输入内容,从而对输入区域中的输入内容基于第一输入内容进行处理,从而得到目标内容。可见,本实施例中是基于用户行为数据对输入内容进行处理,而无需用户进行手动操作输入就可以得到新的目标内容,由此减少用户操作,降低操作复杂度,达到提高输入效率的目的。
在一种实现方式中,本实施例中所采集到的用户的行为数据可以为用户的语音数据或者面部状态数据。相应的,本实施例中可以利用麦克风等语音采集设备采集用户的语音数据,如图4中所示,如用户讲话的语音数据;可以利用摄像头等图像采集设备采集用户的面部图像作为面部状态数据,如图5中所示,如用户的五官形状或状态的图像数据,眯眯眼、张大嘴、鼓脸、皱眉等面部状态的图像数据。
相应的,在一种实现方式中,本实施例在基于行为数据获得第一输入内容时,具体可以通过以下方式实现:
对行为数据中的语音数据进行语音识别,以得到与语音数据相对应的内容作为第一输入内容。
例如,本实施例中可以通过语音识别算法对语音数据进行语音识别,已得到语音数据中的字符和/或表情内容等作为第一输入内容,如“开心”或开心的表情符号等内容。
在另一种实现方式中,本实施例在基于行为数据获得第一输入内容时,具体可以通过以下方式实现:
对行为数据中的面部状态数据进行解析,以得到与面部状态数据相对应的内容作为第一输入内容。
例如,本实施例中可以通过图像识别算法对面部状态数据中的图像进行轮廓、人像、脸型或表情识别,以识别出用户的五官表情或者表情对应的文本作为第一输入内容,如“苦恼”或者苦恼的表情符号等内容。
在一种实现方式中,本实施例在对输入区域中的输入内容基于第一输入内容进行处理时,具体可以通过以下方式实现,如图6中所示:
步骤601:获取输入内容中包含的至少一组已输入内容及其分别对应的第一输入时刻。
其中,输入区域中的输入内容是由至少一组已输入内容组成,而这些已输入内容之间可以根据语言分词规则进行划分,如名词、动词、连接词等属性或者事件、人物、时间等属性的语言分词规则。
其中,每组已输入内容分别具有自己的第一输入时刻,该第一输入时刻是指已输入内容被输入到输入区域的时刻。
步骤602:获取第一输入内容的第二输入时刻。
其中,第二输入时刻可以为第一输入内容所对应的用户的行为数据的采集时刻,也可以为第一输入内容的获得时刻。
步骤603:基于第一输入时刻和第二输入时刻,利用第一输入内容对满足预设的时刻条件的已输入内容进行处理,得到目标内容。
也就是说,本实施例中可以基于各已输入内容的第一输入时刻与第二输入时刻之间的时刻关联,确定满足时刻条件的已输入内容,进而利用第一输入内容对满足时刻条件的已输入内容进行处理,得到目标内容。
例如,在输入区域的输入内容中,存在部分已输入内容满足时刻条件,此时利用第一输入内容对这些满足时刻条件的已输入内容进行处理,得到目标内容;或者,在输入区域的输入内容中,所有的已输入内容均满足时刻条件,此时利用第一输入内容对这些所有的已输入内容进行处理,得到目标内容。
在具体实现中,预设的时刻条件可以为第一输入时刻与第二输入时刻之间的时间差低于预设的时间阈值,也就是说,已输入内容与第一输入内容之间的输入时间间隔低于时间阈值,相应的,满足预设的时刻条件的已输入内容是指:第一输入时刻与第二输入时刻之间的时间差低于预设时间阈值的已输入内容,也就是说,满足时刻条件的已输入内容即为:输入内容中与第一输入内容之间的输入时间间隔低于时间阈值的已输入内容。
如图7a中所示,在电子设备上的聊天输入应用的输入界面上,具有输入区域,该输入区域的输入内容中有输入内容中已输入内容“我们”、“十点半”和“广场集合”中,“十点半”和“广场集合”的输入时刻与第一输入内容的第二输入时刻之间的时间差低于时间阈值,如2秒阈值等,此时,利用第一输入内容对“十点半”和“广场集合”的已输入内容进行处理,得到目标内容。
在具体实现中,本实施例在利用第一输入内容对满足预设的时刻条件的已输入内容进行处理时,具体可以通过以下步骤实现,如图7b中所示:
步骤701:获得第一输入内容与满足预设的时刻条件的已输入内容之间的相似度值。
其中,本实施例中可以利用深度学习算法等方式对第一输入内容与满足预设时刻条件的已输入内容进行相似度值计算,以得到相似度值,表征第一输入内容与满足预设的时刻条件的已输入内容之间的相似程度。
步骤702:基于第一输入内容,对满足预设的时刻条件且对应相似度值大于预设相似阈值的已输入内容进行修改处理,得到目标内容。
也就是说,本实施例中在对输入时刻进行比对确定满足时刻条件的已输入内容之后,对这些满足预设时刻条件的已输入内容与第一输入内容之间的相似度值进行计算,从而在满足预设时刻条件的已输入内容中找到与第一输入内容相似度值大于预设相似阈值如40%的已输入内容,再对找到的已输入内容利用第一输入内容进行修改处理,得到目标内容。
如图8中所示,在电子设备上的聊天输入应用的输入界面上,具有输入区域,该输入区域的输入内容中有已输入内容“我们”、“十点半”和“广场集合”中,“十点半”和“广场集合”的输入时刻与第一输入内容的第二输入时刻之间的时间差低于时间阈值,之后,计算第一输入内容“教学楼集合”与满足输入时刻时间差低于时间阈值的已输入内容“十点半”和“广场集合”之间的相似度值,分别为0和50%,由此可以确定利用第一输入内容“教学楼集合”对已输入内容“广场集合”进行修改处理,得到目标内容。
如图9中所示,在电子设备的视频播放应用的弹幕界面上,具有弹幕输入框,该弹幕输入框的输入内容中有已输入内容:“看到主演好开心”、“微笑表情符号”、“微笑表情符号”“看到反派不爽”、“难过表情符号”、“难过表情符号”、“难过表情符号”,其中,“看到反派不爽”、“难过表情符号”、“难过表情符号”、“难过表情符号”的输入时刻与第一输入内容“大哭表情符号”的输入时刻之间的时间差低于时间阈值,之后,计算这些已输入内容与第一输入内容之间的相似度值,分别为0、70%、70%、70%,由此,可以确定利用第一输入内容“大哭表情符号”对已输入内容“难过表情符号”、“难过表情符号”、“难过表情符号”进行修改处理,得到目标内容。
在一种实现中,本实施例中在利用第一输入内容对满足预设的时刻条件的已输入内容进行处理时,可以通过以下方式实现:
将满足预设的时刻条件的已输入内容中的至少部分内容替换为第一输入内容中的至少部分内容,进而得到目标内容。
例如,对图7a中所确定的满足预设的时刻条件的已输入内容“十点半”和“广场集合”利用第一输入内容“教学楼集合”进行替换处理,例如,将“教学楼集合”替换“广场集合”,即替换部分内容,进而得到目标内容“我们”、“十点半”和“教学楼集合”,即目标内容,如图10中所示。
或者,本实施例中在利用第一输入内容对满足预设的时刻条件且对应相似度值大于预设相似阈值的已输入内容进行修改时,具体可以通过以下方式实现:
将满足预设的时刻条件且对应相似度值大于预设相似阈值的已输入内容中的至少部分内容替换为第一输入内容中的至少部分内容,进而得到目标内容。
例如,对图8中所确定的满足输入时刻时间差低于时间阈值且相似度值满足相似阈值的已输入内容“广场集合”利用第一输入内容“教学楼集合”进行替换,例如,将“教学楼集合”替换“广场集合”,即替换全部内容,进而得到目标内容:“我们”、“十点半”和“教学楼集合”,如图11中所示。
或者,对图9中所确定的满足时刻条件且相似度值大于相似阈值的已输入内容“难过表情符号”、“难过表情符号”、“难过表情符号”替换为第一输入内容“大哭表情符号”,即全部替换,进而得到目标内容:“看到主演好开心”、“微笑表情符号”、“微笑表情符号”“看到反派不爽”、“大哭表情符号”、“大哭表情符号”、“大哭表情符号”,如图12中所示。
基于以上实现方案,如果输入内容中没有满足时刻条件的已输入内容或者已输入内容中没有相似度值大于预设相似阈值的已输入内容,那么本实施例中可以将第一输入内容添加到输入内容之后,如图13中所示,在输入内容中“我们十点半广场集合”没有与第一输入内容“不要迟到”之间满足时刻条件或者即使满足时刻条件而相似度值小于预设相似阈值的已输入内容,此时,第一输入内容“不要迟到”放到输入内容之后,得到新的输入内容“我们十点半广场集合,不要迟到”。
参考图14,为本申请实施例二提供的一种电子设备的结构示意图,该电子设备可以通过输入界面为用户提供输入区域,使得用户能够在输入区域中输入相应的输入内容。如聊天应用、直播网站及视频播放等应用中,展示输入区域为用户提供输入服务。
在本实施例中,该电子设备可以包括以下结构:
存储器1401,用于存储应用程序及所述应用程序执行所产生的数据。
其中,存储器1401可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM),存储器包括至少一个存储芯片。
处理器1402,用于执行所述应用程序,以实现以下功能:采集用户的行为数据;基于所述行为数据,获得第一输入内容;对输入区域中的输入内容基于所述第一输入内容进行处理,得到目标内容。
其中,所述行为数据包括:用户的语音数据或面部状态数据。相应的,处理器1402基于所述行为数据,获得第一输入内容,具体可以包括:对所述行为数据中的语音数据进行语音识别,以得到与所述语音数据相对应的内容作为第一输入内容,或者,对所述行为数据中的面部状态数据进行解析,以得到与所述面部状态数据相对应的内容作为第一输入内容。
而处理器1402对输入区域中的输入内容基于所述第一输入内容进行处理,得到目标内容,具体可以通过以下方式实现:
获取所述输入内容中包含的至少一组已输入内容及其分别对应的第一输入时刻;获取所述第一输入内容的第二输入时刻;基于所述第一输入时刻和所述第二输入时刻,利用所述第一输入内容对满足预设的时刻条件的已输入内容进行处理,得到目标内容。
具体的,所述满足预设的时刻条件的已输入内容,可以为:所述第一输入时刻与所述第二输入时刻之间的时间差低于预设时间阈值的已输入内容。
相应的,处理器1402利用所述第一输入内容对满足预设的时刻条件的已输入内容进行处理,得到目标内容,具体为:
获得所述第一输入内容与满足预设的时刻条件的已输入内容之间的相似度值;基于所述第一输入内容,对满足预设的时刻条件且对应相似度值大于预设相似阈值的已输入内容进行修改处理,得到目标内容。
基于以上实现,处理器1402利用所述第一输入内容对满足预设的时刻条件的已输入内容进行处理,得到目标内容,具体可以为:
将满足预设的时刻条件的已输入内容中的至少部分内容替换为所述第一输入内容中的至少部分内容,得到目标内容。
另外,本实施例中,处理器1402还用于:若所述输入内容中没有满足所述时刻条件的已输入内容或者所述已输入内容中没有相应相似度值大于预设相似阈值的已输入内容,将所述第一输入内容添加到所述输入内容之后。
由上述方案可知,本申请实施例二提供的一种电子设备,通过对用户的行为数据进行采集并基于行为数据来获得第一输入内容,从而对输入区域中的输入内容基于第一输入内容进行处理,从而得到目标内容。可见,本实施例中是基于用户行为数据对输入内容进行处理,而无需用户进行手动操作输入就可以得到新的目标内容,由此减少用户操作,降低操作复杂度,达到提高输入效率的目的。
需要说明的是,本实施例中处理器1402的具体实现方式可以参考前文中相应内容,此处不再详述。
参考图15,为本申请实施例三提供的一种电子设备的结构示意图,该电子设备可以通过输入界面为用户提供输入区域,使得用户能够在输入区域中输入相应的输入内容。如聊天应用、直播网站及视频播放等应用中,展示输入区域为用户提供输入服务。
在本实施例中,该电子设备可以包括以下结构:
输入装置1501,用于采集用户的行为数据。
其中,输入装置1501可以为麦克风和/或摄像头等能够采用用户行为数据的设备,如采集语音数据和面部状态数据等。
控制器1502,用于基于所述行为数据,获得第一输入内容;对输入区域中的输入内容基于所述第一输入内容进行处理,得到目标内容。
其中,所述行为数据包括:用户的语音数据或面部状态数据。相应的,控制器1502基于所述行为数据,获得第一输入内容,具体可以包括:对所述行为数据中的语音数据进行语音识别,以得到与所述语音数据相对应的内容作为第一输入内容,或者,对所述行为数据中的面部状态数据进行解析,以得到与所述面部状态数据相对应的内容作为第一输入内容。
而控制器1502对输入区域中的输入内容基于所述第一输入内容进行处理,得到目标内容,具体可以通过以下方式实现:
获取所述输入内容中包含的至少一组已输入内容及其分别对应的第一输入时刻;获取所述第一输入内容的第二输入时刻;基于所述第一输入时刻和所述第二输入时刻,利用所述第一输入内容对满足预设的时刻条件的已输入内容进行处理,得到目标内容。
具体的,所述满足预设的时刻条件的已输入内容,可以为:所述第一输入时刻与所述第二输入时刻之间的时间差低于预设时间阈值的已输入内容。
相应的,控制器1502利用所述第一输入内容对满足预设的时刻条件的已输入内容进行处理,得到目标内容,具体为:
获得所述第一输入内容与满足预设的时刻条件的已输入内容之间的相似度值;基于所述第一输入内容,对满足预设的时刻条件且对应相似度值大于预设相似阈值的已输入内容进行修改处理,得到目标内容。
基于以上实现,控制器1502利用所述第一输入内容对满足预设的时刻条件的已输入内容进行处理,得到目标内容,具体可以为:
将满足预设的时刻条件的已输入内容中的至少部分内容替换为所述第一输入内容中的至少部分内容,得到目标内容。
另外,本实施例中,控制器1502还用于:若所述输入内容中没有满足所述时刻条件的已输入内容或者所述已输入内容中没有相应相似度值大于预设相似阈值的已输入内容,将所述第一输入内容添加到所述输入内容之后。
由上述方案可知,本申请实施例三提供的一种电子设备,通过对用户的行为数据进行采集并基于行为数据来获得第一输入内容,从而对输入区域中的输入内容基于第一输入内容进行处理,从而得到目标内容。可见,本实施例中是基于用户行为数据对输入内容进行处理,而无需用户进行手动操作输入就可以得到新的目标内容,由此减少用户操作,降低操作复杂度,达到提高输入效率的目的。
需要说明的是,本实施例中控制器1502的具体实现方式可以参考前文中相应内容,此处不再详述。
以下对本实施例在具体应用的实现进行举例说明:
以弹幕这种需要即时快速输入的场景为例,如图16中所示,在用户使用视频应用或者直播应用观看视频或直播内容时,通过摄像头采集用户的脸部情绪数据(表情、面部状态数据)来表征用户所需要表达的弹幕内容,并通过匹配对应的表情来识别得到输入的内容(表情、文字等),例如,在视频弹幕输入状态下,播放到感动的剧情时,本实施例中的摄像头会捕获到用户难受的表情,从而根据表情来匹配得到“难受表情符号”或者文字,从而基于这些匹配得到输入内容对弹幕输入框中已经输入的内容进行修改,如替换之前1秒中内所输入的“开心表情符号”,从而对弹幕输入框中的输入内容进行实时更新,进而在自动发送或者用户操作下进行发送,展示在视频播放屏幕上。由此,本实施例中能够随着用户表情的变化,可以快速的输入或者修改相应的弹幕,用户只需要操作确认发送即可。
以语音输入的场景为例,如图17及图18中所示,在用户使用聊天应用且用户在语音输入状态下时,通过识别用户的语音内容即可快速转成文字,当在一定的时间内(未发送输入内容前),用户再次输入下一条语音输入,此时,本实施例中判断间隔时间的相关性并比对上下两条语音输入的内容的相关性,从而在间隔时间低于时间阈值且内容相似度大于相似阈值时,将下一条语音输入的内容替换上一条语音输入的内容。例如,上一条语音输入并在输入框状态转为文字“我们等会11点半见面”,而间隔5秒后语音输入:“11点半在地铁站A口见面”,基于本实施例中的方案,认为两条语音输入时间相关且内容相关,此时直接修改上一条语音输入的内容为:“我们等会11点半在地铁站A口见面”,由此,用户前后发出内容被识别类似,即可直接替换前一句的内容做实时内容修改,而无需用户删除之前的内容,省去反复按赊销及编辑的操作,从而实现快速替换内容,提高输入效率。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (10)

1.一种控制方法,包括:
采集用户的行为数据;
基于所述行为数据,获得第一输入内容;
对输入区域中的输入内容基于所述第一输入内容进行处理,得到目标内容。
2.根据权利要求1所述的方法,其特征在于,所述行为数据包括:用户的语音数据或面部状态数据。
3.根据权利要求2所述的方法,其特征在于,基于所述行为数据,获得第一输入内容,包括:
对所述行为数据中的语音数据进行语音识别,以得到与所述语音数据相对应的内容作为第一输入内容。
4.根据权利要求2所述的方法,其特征在于,基于所述行为数据,获得第一输入内容,包括:
对所述行为数据中的面部状态数据进行解析,以得到与所述面部状态数据相对应的内容作为第一输入内容。
5.根据权利要求1所述的方法,其特征在于,对输入区域中的输入内容基于所述第一输入内容进行处理,得到目标内容,包括:
获取所述输入内容中包含的至少一组已输入内容及其分别对应的第一输入时刻;
获取所述第一输入内容的第二输入时刻;
基于所述第一输入时刻和所述第二输入时刻,利用所述第一输入内容对满足预设的时刻条件的已输入内容进行处理,得到目标内容。
6.根据权利要求5所述的方法,其特征在于,所述满足预设的时刻条件的已输入内容,包括:
所述第一输入时刻与所述第二输入时刻之间的时间差低于预设时间阈值的已输入内容。
7.根据权利要求5或6所述的方法,其特征在于,利用所述第一输入内容对满足预设的时刻条件的已输入内容进行处理,得到目标内容,包括:
获得所述第一输入内容与满足预设的时刻条件的已输入内容之间的相似度值;
基于所述第一输入内容,对满足预设的时刻条件且对应相似度值大于预设相似阈值的已输入内容进行修改处理,得到目标内容。
8.根据权利要求7所述的方法,其特征在于,利用所述第一输入内容对满足预设的时刻条件的已输入内容进行处理,得到目标内容,包括:
将满足预设的时刻条件的已输入内容中的至少部分内容替换为所述第一输入内容中的至少部分内容,得到目标内容;
其中,所述方法还包括:
若所述输入内容中没有满足所述时刻条件的已输入内容或者所述已输入内容中没有相应相似度值大于预设相似阈值的已输入内容,将所述第一输入内容添加到所述输入内容之后。
9.一种电子设备,包括:
存储器,用于存储应用程序及所述应用程序执行所产生的数据;
处理器,用于执行所述应用程序,以实现以下功能:采集用户的行为数据;基于所述行为数据,获得第一输入内容;对输入区域中的输入内容基于所述第一输入内容进行处理,得到目标内容。
10.一种电子设备,包括:
输入装置,用于采集用户的行为数据;
控制器,用于基于所述行为数据,获得第一输入内容;对输入区域中的输入内容基于所述第一输入内容进行处理,得到目标内容。
CN201811116112.8A 2018-09-25 2018-09-25 一种控制方法及电子设备 Pending CN109361814A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811116112.8A CN109361814A (zh) 2018-09-25 2018-09-25 一种控制方法及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811116112.8A CN109361814A (zh) 2018-09-25 2018-09-25 一种控制方法及电子设备

Publications (1)

Publication Number Publication Date
CN109361814A true CN109361814A (zh) 2019-02-19

Family

ID=65351483

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811116112.8A Pending CN109361814A (zh) 2018-09-25 2018-09-25 一种控制方法及电子设备

Country Status (1)

Country Link
CN (1) CN109361814A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110609723A (zh) * 2019-08-21 2019-12-24 维沃移动通信有限公司 一种显示控制方法及终端设备
CN110636377A (zh) * 2019-09-20 2019-12-31 北京达佳互联信息技术有限公司 视频处理方法、装置、存储介质、终端及服务器

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004226741A (ja) * 2003-01-23 2004-08-12 Nissan Motor Co Ltd 情報提供装置
CN103049458A (zh) * 2011-10-17 2013-04-17 北京搜狗科技发展有限公司 一种修正用户词库的方法和系统
CN103716454A (zh) * 2012-10-08 2014-04-09 三星电子株式会社 利用语音识别执行预设操作模式的方法和设备
CN104412258A (zh) * 2014-05-22 2015-03-11 华为技术有限公司 应用文本信息进行通信的方法及装置
CN105487799A (zh) * 2015-11-27 2016-04-13 小米科技有限责任公司 内容转换方法及装置
CN105988769A (zh) * 2015-02-12 2016-10-05 中兴通讯股份有限公司 一种混合输入的方法和装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004226741A (ja) * 2003-01-23 2004-08-12 Nissan Motor Co Ltd 情報提供装置
CN103049458A (zh) * 2011-10-17 2013-04-17 北京搜狗科技发展有限公司 一种修正用户词库的方法和系统
CN103716454A (zh) * 2012-10-08 2014-04-09 三星电子株式会社 利用语音识别执行预设操作模式的方法和设备
CN104412258A (zh) * 2014-05-22 2015-03-11 华为技术有限公司 应用文本信息进行通信的方法及装置
CN105988769A (zh) * 2015-02-12 2016-10-05 中兴通讯股份有限公司 一种混合输入的方法和装置
CN105487799A (zh) * 2015-11-27 2016-04-13 小米科技有限责任公司 内容转换方法及装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110609723A (zh) * 2019-08-21 2019-12-24 维沃移动通信有限公司 一种显示控制方法及终端设备
US11989390B2 (en) 2019-08-21 2024-05-21 Vivo Mobile Communication Co., Ltd. Display control method and terminal device
CN110636377A (zh) * 2019-09-20 2019-12-31 北京达佳互联信息技术有限公司 视频处理方法、装置、存储介质、终端及服务器

Similar Documents

Publication Publication Date Title
CN105446146B (zh) 基于语义分析的智能终端控制方法、系统及智能终端
CN108920640B (zh) 基于语音交互的上下文获取方法及设备
CN113052085B (zh) 视频剪辑方法、装置、电子设备以及存储介质
CN110418095B (zh) 虚拟场景的处理方法、装置、电子设备及存储介质
CN111643900B (zh) 一种展示画面控制方法、装置、电子设备和存储介质
EP4300431A1 (en) Action processing method and apparatus for virtual object, and storage medium
WO2022127486A1 (zh) 界面主题切换方法及装置、终端、存储介质
CN107133567B (zh) 一种创可贴广告点位选取方法及装置
WO2020215776A1 (zh) 多媒体数据的处理方法以及装置
CN103747177A (zh) 视频拍摄的处理方法及装置
JP6814604B2 (ja) 会議情報表示システム、会議情報表示方法および会議情報表示プログラム
CN107025423A (zh) 情绪估计装置以及情绪估计方法
CN109361814A (zh) 一种控制方法及电子设备
CN113886641A (zh) 数字人生成方法、装置、设备及介质
CN113129893B (zh) 一种语音识别方法、装置、设备及存储介质
CN112274909A (zh) 应用运行控制方法和装置、电子设备及存储介质
US11819996B2 (en) Expression feedback method and smart robot
CN112055257B (zh) 视频课堂的互动方法、装置、设备及存储介质
CN110349577A (zh) 人机交互方法、装置、存储介质及电子设备
KR102345729B1 (ko) 영상 생성 방법 및 장치
JP6693710B2 (ja) 映像解析装置及び映像解析方法
JP5847646B2 (ja) テレビ制御装置、テレビ制御方法及びテレビ制御プログラム
CN110460903A (zh) 基于语音分析对节目评论的方法、装置和计算机设备
CN111383326A (zh) 一种多维虚拟人物实现的方法及其装置
CN109547853A (zh) 一种视频播放控制方法以及控制装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20190219