CN106372059B - 信息输入方法和装置 - Google Patents
信息输入方法和装置 Download PDFInfo
- Publication number
- CN106372059B CN106372059B CN201610770021.0A CN201610770021A CN106372059B CN 106372059 B CN106372059 B CN 106372059B CN 201610770021 A CN201610770021 A CN 201610770021A CN 106372059 B CN106372059 B CN 106372059B
- Authority
- CN
- China
- Prior art keywords
- input
- expression picture
- voice messaging
- user
- expression
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 230000036651 mood Effects 0.000 claims abstract description 44
- 238000013136 deep learning model Methods 0.000 claims description 10
- 238000012549 training Methods 0.000 claims description 6
- 238000006116 polymerization reaction Methods 0.000 claims description 4
- 238000013135 deep learning Methods 0.000 claims 1
- 230000006854 communication Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 3
- 241000218631 Coniferophyta Species 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000012905 input function Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/63—Querying
- G06F16/632—Query formulation
- G06F16/634—Query by example, e.g. query by humming
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
- G06F3/0236—Character input methods using selection techniques to select from displayed items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
- G06F3/0237—Character input methods using prediction or retrieval techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/274—Converting codes to words; Guess-ahead of partial word inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2201/00—Electronic components, circuits, software, systems or apparatus used in telephone systems
- H04M2201/34—Microprocessors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2201/00—Electronic components, circuits, software, systems or apparatus used in telephone systems
- H04M2201/40—Electronic components, circuits, software, systems or apparatus used in telephone systems using speech recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Signal Processing (AREA)
- Child & Adolescent Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请公开了信息输入方法和装置。该方法的一具体实施方式包括:接收用户输入的语音信息,语音信息与待输入到应用的输入区域的内容相关联;将与语音信息相关联的表情图片作为候选结果,表情图片包括:多个用户在输入与语音信息语义相关联的语音信息的历史输入中输入到应用的输入区域的次数大于次数阈值的表情图片;将用户从候选结果中选取出的表情图片输入到应用的输入区域中。实现了在用户通过语音输入时,能够精准理解用户语音输入的语义,根据说话的内容、情绪,智能推荐匹配的表情图片,帮助用户进行快速的表情图片的输入,缩短了用户查找表情图片的繁琐操作,为用户提供便利。
Description
技术领域
本申请涉及计算机领域,具体涉及输入法领域,尤其涉及信息输入方法和装置。
背景技术
目前,一些输入法提供语音输入的功能。用户在利用输入法语音输入功能进行输入时,通常采用的方式为:将输入的语音转化为语句后进行输入。
然而,当采用方式进行语音输入时,无法满足诸如用户在输入时在不同的情况下需要输入不同类型的表情图片的需求,语音输入功能较为单一。
发明内容
本申请提供了信息输入方法和装置,用于解决上述背景技术部分存在的技术问题。
第一方面,本申请提供了信息输入方法,该方法包括:接收用户输入的语音信息,语音信息与待输入到应用的输入区域的内容相关联;将与语音信息相关联的表情图片作为候选结果,表情图片包括:多个用户在输入与语音信息语义相关联的语音信息的历史输入中输入到应用的输入区域的次数大于次数阈值的表情图片;将用户从候选结果中选取出的表情图片输入到应用的输入区域中。
第二方面,本申请提供了信息输入装置,该装置包括:接收单元,配置用于接收用户输入的语音信息,语音信息与待输入到应用的输入区域的内容相关联;选取单元,配置用于将与语音信息相关联的表情图片作为候选结果,表情图片包括:多个用户在输入与语音信息语义相关联的语音信息的历史输入中输入到应用的输入区域的次数大于次数阈值的表情图片;输入单元,配置用于将用户从候选结果中选取出的表情图片输入到应用的输入区域中。
本申请提供的信息输入方法和装置,通过接收用户输入的语音信息,语音信息与待输入到应用的输入区域的内容相关联;将与语音信息相关联的表情图片作为候选结果,表情图片包括:多个用户在输入与语音信息语义相关联的语音信息的历史输入中输入到应用的输入区域的次数大于次数阈值的表情图片;将用户从候选结果中选取出的表情图片输入到应用的输入区域中。实现了在用户通过语音输入时,能够精准理解用户语音输入的语义,根据说话的内容、情绪,智能推荐匹配的表情图片,帮助用户进行快速的表情图片的输入,缩短了用户查找表情图片的繁琐操作,为用户提供便利。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是可以应用于本申请的信息输入方法或装置的实施例的示例性系统架构图;
图2示出了根据本申请的信息输入方法的一个实施例的流程图;
图3示出了根据本申请的信息输入方法的另一个实施例的流程图;
图4示出了根据本申请的信息输入装置的一个结构示意图;
图5是适于用来实现本申请实施例的信息输入装置的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用于本申请的信息输入方法或装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供传输链路的介质。网络104可以包括各种连接类型,例如有线、无线传输链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯应用,例如、输入法类应用、浏览器类应用、搜索类应用、文字处理类应用等。
终端设备101、102、103可以是具有显示屏并且支持网络通信的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving Picture ExpertsGroup Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving PictureExperts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。
服务器105可以获取海量的表情图片,向终端设备101、102、103上的输入法类应用发送海量的表情图片。终端101、102、103上的输入法类应用可以记录用户输入的语音信息,建立语音信息与上屏的表情图片的对应关系。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
请参考图2,其示出了根据本申请的信息输入方法的一个实施例的流程200。需要说明的是,本申请实施例所提供的信息输入方法可以由图1中的终端设备101、102、103执行,相应地,信息输入装置可以设置于终端设备101、102、103中。该方法包括以下步骤:
步骤201,接收用户输入的语音信息。
在本实施例中,用户的语音信息与待输入到应用的输入区域的内容相关联。例如,当用户之间在通过即时通讯应用聊天时,需要在即时通讯应用的输入区域输入内容时,可以通过语音输入设备例如麦克风输入语音信息。
步骤202,将与语音信息相关联的表情图片作为候选结果。
在本实施例中,与用户输入的语音信息相关联的表情图片包括:多个用户在输入与语音信息语义相关联的语音信息的历史输入中输入到应用的输入区域的次数大于次数阈值的表情图片。
在本实施例中,可以将多个用户在输入语义相关联的语音信息时,选择上屏比较多的表情图片作为候选结果推荐给当前输入语音信息的用户。
在本实施例的一些可选的实现方式中,还包括:获取多个用户的历史输入信息,历史输入信息包括:历史输入中输入的语音信息、输入到应用的输入区域的表情图片;确定语义相关联的多个语音信息;聚合语义相关联的多个语音信息对应的表情图片;从表情图片中选取出对应的输入次数大于次数阈值的表情图片。
在本实施例中,为了在用户通过语音输入的过程中将与语音信息相关联的表情图片作为候选结果,向用户推荐表情图片,可以预先建立海量的用户输入的语音信息与海量的表情图片的对应关系。
在本实施例中,步骤201中的用户可以是指当前输入语音信息的用户。可以在通过步骤201接收当前用户输入的语音信息之前,预先获取海量用户在历史输入中曾经输入过的语音信息和输入语音信息时选择输入到应用的输入区域(例如即时通讯应用的输入区域)的表情图片即上屏的表情图片。可以从海量用户的历史输入中查找出语义相关联的语音信息,得到多个语音信息集合。每一个语音信息集合中包含多个用户输入的语音相关联的语音信息。同时,可以聚合多个用户在输入语音信息集合中的语音信息时,选择的上屏的表情图片,得到表情图片集合。
从而,可以建立由语义相关联的语音信息组成的语音信息集合与表情图片集合的对应关系,每一个语音信息集合对应一个表情图片集合。语音信息集合与表情图片集合的对应关系可以表示出多个用户在输入语义相关联的语音信息时,选择了哪些表情图片上屏。进一步地,可以查找出语音信息集合对应的表情图片集合中上屏次数大于次数阈值的表情图片。即查找出多个用户在输入语义相关联的语音信息时,选择上屏比较多的表情图片。
在预先建立了建立海量的用户输入的语音信息与海量的表情图片的对应关系之后,当步骤201中的当前用户进行语音输入时,可以查找出与当前用户输入的语音信息相关联的语音信息,确定与当前用户输入的语音信息相关联的语音信息所属的语音信息集合。然后,可以查找出语音信息集合对应的表情图片集合中上屏次数大于次数阈值的表情图片。即查找出多个用户在输入语义相关联的语音信息时,上屏比较多的图片作为候选结果。
例如,多个用户在历史输入中通过语音输入“好闲啊”、“本周工作提前完成了”等语义相关联的语音信息时,上屏的表情图片均为轻松类型的表情图片“咖啡”,即输入次数大于次数阈值的表情图片“咖啡”。
当步骤201中的用户在当前输入中通过语音输入“轻松的周五下午”时,由于“轻松的周五下午”与“好闲啊”、“本周工作提前完成了”的语义相关关联,可以将“好闲啊”、“本周工作提前完成了”对应的上屏的表情图片即表情图片“咖啡”作为候选结果推荐给当前输入语音信息的用户。
步骤203,将用户从候选结果中选取出的表情图片输入到应用的输入区域中。
在本实施例中,在通过步骤202将与语音信息相关联的表情图片作为候选结果之后,可以用户从候选结果中选取出的表情图片输入到应用的输入区域中。即用户可以选取查找出多个用户在输入与通过步骤201输入的语义相关联的语音信息时,上屏比较多的图片作为候选结果输入到应用的输入区域中。
例如,当用户之间通过即时通讯应用进行聊天时,当前用户输入的语音信息“轻松的周五下午”与之前多个用户输入的语音信息“好闲啊”、“本周工作提前完成了”等语音信息在语义上相关联,并且之前多个用户在输入“好闲啊”、“本周工作提前完成了”等语音信息时选择上屏的表情图片均为表情图片“咖啡”,即上屏的次数大于次数阈值,则候选结果可以包含表情图片“咖啡”。当前通过语音输入“轻松的周五下午”的用户可以从候选结果中选择表情图片“咖啡”进行上屏。
在本实施例中,可以由输入法执行本实施例中的上述步骤201-203。输入法能够在用户通过语音输入时,精准理解用户语音输入的语义,根据说话的内容、情绪,智能推荐匹配的表情图片,帮助用户进行快速的表情图片的输入,缩短了用户查找表情图片的繁琐操作,为用户提供便利。
请参考图3,其示出了根据本申请的信息输入方法的另一个实施例的流程300。需要说明的是,本申请实施例所提供的信息输入方法可以由图1中的终端设备101、102、103执行。该方法包括以下步骤:
步骤301,接收用户输入的语音信息。
在本实施例中,用户的语音信息与待输入到应用的输入区域的内容相关联。例如,当用户需要在应用的输入区域输入内容时,可以通过语音输入设备例如麦克风输入语音信息。
步骤302,将与语音信息对应的语义识别结果相关联的表情图片作为候选结果。
在本实施例中,在通过步骤301接收用户输入的语音信息之后,可以对语音信息进行语义识别,得到语音信息对应的语句。然后,可以采用规则匹配方式对语句进行语义识别,得到语义识别结果。
在本实施例中,可以采用规则匹配方式对输入的语音信息对应的语句进行语义识别,得到语义识别结果。语义识别结果包括:指示用户的心情的心情类型。例如,可以预先设置包含与指示用户的心情类型的关键词的规则匹配模版,针对用户不同的类型的心情,设置相应的类型的规则匹配模版。当用户输入的语音信息对应的语句与规则匹配模版匹配时,则可以根据规则匹配模版的类型,确定用户的心情的心情类型。
在本实施例中,可以预先建立每一种心情类型与表情图片的对应关系。根据每一种心情类型与表情图片的对应关系,确定通过对用户输入的语音信息进行语义识别得到的用户的心情的心情类型对应的表情图片。从而,可以将心情类型对应的表情图片作为候选结果。例如,用户输入“好闲啊”时,可以通过语义识别,识别出用户的心情的心情类型为轻松类型,可以将属于轻松类型的表情图片例如表情图片“咖啡”作为候选结果。
在本实施例中,可以采用以下方式建立海量表情图片与心情类型的对应关系:预先获取多个表情图片,对多个表情图片进行标注,得到表情图片的标注信息,表情图片的标注信息可以指示表情图片对应的用户的心情的心情类型。例如,可以将用户的心情的心情类型开心类型划分为特别开心、比较开心等子类型。可以利用表情图片和标注信息作为样本数据,对深度学习模型进行训练。例如,可以将心情类型开心的各个子类型的表情图片和各个子类型的表情图片的标注信息作为样本数据,对深度学习模型进行训练。在利用多个表情图片和多个表情图片的标注信息对深度学习模型进行训练之后,深度学习模型可以学习到表情图片的特征与心情类型的对应关系。可以利用训练后的深度学习模型识别海量表情图片对应的心情类型,建立海量表情图片与心情类型的对应关系。
在本实施例中,步骤301中的用户可以是指当前输入语音信息的用户。可以在通过步骤301接收当前用户输入的语音信息之前,预先获取海量用户在历史输入中曾经输入过的语音信息和输入语音信息时选择输入到应用的输入区域(例如即时通讯应用的输入区域)的表情图片即上屏的表情图片。可以从海量用户的历史输入中查找出语义相关联的语音信息,得到多个语音信息集合。每一个语音信息集合中包含多个用户输入的语音相关联的语音信息。同时,可以聚合多个用户在输入语音信息集合中的语音信息时,选择的上屏的表情图片,得到表情图片集合。
从而,可以建立由语义相关联的语音信息组成的语音信息集合与表情图片集合的对应关系,每一个语音信息集合对应一个表情图片集合。语音信息集合与表情图片集合的对应关系可以表示出多个用户在输入语义相关联的语音信息时,选择了哪些表情图片上屏。进一步地,可以查找出语音信息集合对应的表情图片集合中上屏次数大于次数阈值的表情图片。即查找出多个用户在输入语义相关联的语音信息时,选择上屏比较多的表情图片。
在预先建立了建立海量的用户输入的语音信息与海量的表情图片的对应关系之后,当步骤301中的当前用户进行语音输入时,可以查找出与当前用户输入的语音信息相关联的语音信息,确定与当前用户输入的语音信息相关联的语音信息所属的语音信息集合。然后,可以查找出语音信息集合对应的表情图片集合中上屏次数大于次数阈值的表情图片。即查找出多个用户在输入语义相关联的语音信息时,上屏比较多的图片作为候选结果。
例如,多个用户在历史输入中通过语音输入“好闲啊”、“本周工作提前完成了”等语义相关联的语音信息时,可以通过语义识别,识别出用户的心情类型为轻松类型,推荐轻松类型的表情图片作为候选结果,轻松类型的表情图片中包含表情图片“咖啡”。当输入“好闲啊”、“本周工作提前完成了”等语义相关联的语音信息的用户均选择表情图片“咖啡”上屏时,可以记录用户选择上屏的表情图片“咖啡”。
从而,当步骤301中的当前用户通过语音输入“轻松的周五下午”时,由于当前用户通过语音输入的“轻松的周五下午”与“好闲啊”、“本周工作提前完成了”等语音信息的语义相关联,可以将“好闲啊”、“本周工作提前完成了”等语音信息对应的上屏的表情图片“咖啡”作为候选结果推荐给当前通过语音输入“轻松的周五下午”的用户。
步骤303,将用户从候选结果中选取出的表情图片输入到应用的输入区域中。
在本实施例中,在通过步骤302将与语音信息相关联的表情图片作为候选结果之后,可以用户从候选结果中选取出的表情图片输入到应用的输入区域中。即用户可以选取查找出多个用户在输入与通过步骤301输入的语义相关联的语音信息时,上屏比较多的图片作为候选结果输入到应用的输入区域中。
例如,当用户之间通过即时通讯应用进行聊天时,当前用户输入的语音信息“轻松的周五下午”与之前多个用户输入的语音信息“好闲啊”、“本周工作提前完成了”等语音信息在语义上相关联,并且之前多个用户在输入“好闲啊”、“本周工作提前完成了”等语音信息时选择上屏的表情图片均为表情图片“咖啡”,即上屏的次数大于次数阈值,则候选结果可以包含表情图片“咖啡”。当前用户可以在通过语义输入“轻松的周五下午”时,选择候选结果中的表情图片“咖啡”进行上屏。
在本实施例中,可以由输入法执行本实施例中的上述步骤301-303。输入法能够在用户通过语音输入时,精准理解用户语音输入的语义,根据说话的内容、情绪,智能推荐匹配的表情图片,帮助用户进行快速的表情图片的输入,缩短了用户查找表情图片的繁琐操作,为用户提供便利。
请参考图4,作为对上述各图所示方法的实现,本申请提供了一种信息输入装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图4所示,本实施例的信息输入装置400包括:接收单元401,选取单元402,输入单元403。其中,接收单元401配置用于接收用户输入的语音信息,语音信息与待输入到应用的输入区域的内容相关联;选取单元402配置用于将与语音信息相关联的表情图片作为候选结果,表情图片包括:多个用户在输入与语音信息语义相关联的语音信息的历史输入中输入到应用的输入区域的次数大于次数阈值的表情图片;输入单元403配置用于将用户从候选结果中选取出的表情图片输入到输入区域中。
在本实施例的一些可选的实现方式中,装置400还包括:语音识别单元(未示出),配置用于在将与语音信息相关联的表情图片作为候选结果之前,对语音信息进行语音识别,得到语音信息对应的语句;语义识别单元(未示出),配置用于采用规则匹配方式对语句进行语义识别,得到语义识别结果,语义识别结果包括:指示用户的心情的心情类型;表情图片确定单元(未示出),配置用于将心情类型对应的表情图片作为与语音信息相关联的表情图片。
在本实施例的一些可选的实现方式中,装置400还包括:信息获取单元(未示出),配置用于获取多个表情图片的标注信息,标注信息指示表情图片对应的心情类型;训练单元(未示出),配置用于利用表情图片和标注信息作为样本数据,对深度学习模型进行训练;表情类型识别单元(未示出),配置用于利用训练后的深度学习模型识别海量表情图片对应的心情类型;建立单元,配置用于建立海量表情图片与心情类型的对应关系。
在本实施例的一些可选的实现方式中,装置400还包括:历史输入信息获取单元(未示出),配置用于在接收用户输入的语音信息之前,获取多个用户的历史输入信息,历史输入信息包括:历史输入中输入的语音信息、输入到应用的输入区域的表情图片;关联语音信息确定单元(未示出),配置用于确定语义相关联的多个语音信息;表情图片聚合单元(未示出),配置用于聚合语义相关联的多个语音信息对应的表情图片;表情图片选取单元(未示出),配置用于从表情图片中选取出对应的输入次数大于次数阈值的表情图片。
在本实施例的一些可选的实现方式中,装置400还包括:输入法执行单元(未示出),配置用于利用输入法接收用户输入的语音信息。
图5示出了适于用来实现本申请实施例的信息输入装置的计算机系统的结构示意图。
如图5所示,计算机系统500包括中央处理单元(CPU)501,其可以根据存储在只读存储器(ROM)502中的程序或者从存储部分508加载到随机访问存储器(RAM)503中的程序而执行各种适当的动作和处理。在RAM503中,还存储有系统500操作所需的各种程序和数据。CPU501、ROM502以及RAM503通过总线504彼此相连。输入/输出(I/O)接口505也连接至总线504。
以下部件连接至I/O接口505:包括键盘、鼠标等的输入部分506;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分507;包括硬盘等的存储部分508;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分509。通信部分509经由诸如因特网的网络执行通信处理。驱动器510也根据需要连接至I/O接口505。可拆卸介质511,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器510上,以便于从其上读出的计算机程序根据需要被安装入存储部分508。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括有形地包含在机器可读介质上的计算机程序,所述计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分509从网络上被下载和安装,和/或从可拆卸介质511被安装。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,所述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
作为另一方面,本申请还提供了一种非易失性计算机存储介质,该非易失性计算机存储介质可以是上述实施例中所述装置中所包含的非易失性计算机存储介质;也可以是单独存在,未装配入终端中的非易失性计算机存储介质。上述非易失性计算机存储介质存储有一个或者多个程序,当所述一个或者多个程序被一个设备执行时,使得所述设备:接收用户输入的语音信息,所述语音信息与待输入到应用的输入区域的内容相关联;将与所述语音信息相关联的表情图片作为候选结果,所述表情图片包括:多个用户在输入与所述语音信息语义相关联的语音信息的历史输入中输入到应用的输入区域的次数大于次数阈值的表情图片;将所述用户从候选结果中选取出的表情图片输入到应用的输入区域中。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离所述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (8)
1.一种信息输入方法,其特征在于,所述方法包括:
接收用户输入的语音信息,所述语音信息与待输入到应用的输入区域的内容相关联;
将与所述语音信息相关联的表情图片作为候选结果,所述表情图片包括:多个用户在输入与所述语音信息语义相关联的语音信息的历史输入中输入到应用的输入区域的次数大于次数阈值的表情图片;
将所述用户从候选结果中选取出的表情图片输入到应用的输入区域中,在接收用户输入的语音信息之前,所述方法还包括:获取多个用户的历史输入信息,所述历史输入信息包括:历史输入中输入的语音信息、输入到应用的输入区域的表情图片;确定语义相关联的多个语音信息;聚合语义相关联的多个语音信息对应的表情图片;从所述表情图片中选取出对应的输入次数大于次数阈值的表情图片。
2.根据权利要求1所述的方法,其特征在于,在将与所述语音信息相关联的表情图片作为候选结果之前,所述方法还包括:
对所述语音信息进行语音识别,得到语音信息对应的语句;
采用规则匹配方式对所述语句进行语义识别,得到语义识别结果,所述语义识别结果包括:指示用户的心情的心情类型;
将所述心情类型对应的表情图片作为与所述语音信息相关联的表情图片。
3.根据权利要求2所述的方法,其特征在于,所述方法还包括:
获取多个表情图片的标注信息,所述标注信息指示表情图片对应的心情类型;
利用所述表情图片和所述标注信息作为样本数据,对深度学习模型进行训练;
利用训练后的深度学习模型识别海量表情图片对应的心情类型;
建立海量表情图片与心情类型的对应关系。
4.根据权利要求1所述的方法,其特征在于,所述接收用户输入的语音信息包括:
利用输入法接收用户输入的语音信息。
5.一种信息输入装置,其特征在于,所述装置包括:
接收单元,配置用于接收用户输入的语音信息,所述语音信息与待输入到应用的输入区域的内容相关联;
选取单元,配置用于将与所述语音信息相关联的表情图片作为候选结果,所述表情图片包括:多个用户在输入与所述语音信息语义相关联的语音信息的历史输入中输入到应用的输入区域的次数大于次数阈值的表情图片;
输入单元,配置用于将所述用户从候选结果中选取出的表情图片输入到应用的输入区域中,所述装置还包括:历史输入信息获取单元,配置用于在接收用户输入的语音信息之前,获取多个用户的历史输入信息,所述历史输入信息包括:历史输入中输入的语音信息、输入到应用的输入区域的表情图片;关联语音信息确定单元,配置用于确定语义相关联的多个语音信息;表情图片聚合单元,配置用于聚合语义相关联的多个语音信息对应的表情图片;表情图片选取单元,配置用于从所述表情图片中选取出对应的输入次数大于次数阈值的表情图片。
6.根据权利要求5所述的装置,其特征在于,所述装置还包括:
语音识别单元,配置用于在将与所述语音信息相关联的表情图片作为候选结果之前,对所述语音信息进行语音识别,得到语音信息对应的语句;
语义识别单元,配置用于采用规则匹配方式对所述语句进行语义识别,得到语义识别结果,所述语义识别结果包括:指示用户的心情的心情类型;
表情图片确定单元,配置用于将所述心情类型对应的表情图片作为与所述语音信息相关联的表情图片。
7.根据权利要求6所述的装置,其特征在于,所述装置还包括:
信息获取单元,配置用于获取多个表情图片的标注信息,所述标注信息指示表情图片对应的心情类型;
训练单元,配置用于利用所述表情图片和所述标注信息作为样本数据,对深度学习模型进行训练;
表情类型识别单元,配置用于利用训练后的深度学习模型识别海量表情图片对应的心情类型;
建立单元,配置用于建立海量表情图片与心情类型的对应关系。
8.根据权利要求5所述的装置,其特征在于,所述装置还包括:
输入法执行单元,配置用于利用输入法接收用户输入的语音信息。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610770021.0A CN106372059B (zh) | 2016-08-30 | 2016-08-30 | 信息输入方法和装置 |
EP17155430.6A EP3291224A1 (en) | 2016-08-30 | 2017-02-09 | Method and apparatus for inputting information |
US15/429,353 US10210865B2 (en) | 2016-08-30 | 2017-02-10 | Method and apparatus for inputting information |
KR1020170018938A KR101909807B1 (ko) | 2016-08-30 | 2017-02-10 | 메시지 입력 방법 및 장치 |
JP2017023271A JP6718828B2 (ja) | 2016-08-30 | 2017-02-10 | 情報入力方法および装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610770021.0A CN106372059B (zh) | 2016-08-30 | 2016-08-30 | 信息输入方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106372059A CN106372059A (zh) | 2017-02-01 |
CN106372059B true CN106372059B (zh) | 2018-09-11 |
Family
ID=57902432
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610770021.0A Active CN106372059B (zh) | 2016-08-30 | 2016-08-30 | 信息输入方法和装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10210865B2 (zh) |
EP (1) | EP3291224A1 (zh) |
JP (1) | JP6718828B2 (zh) |
KR (1) | KR101909807B1 (zh) |
CN (1) | CN106372059B (zh) |
Families Citing this family (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10057358B2 (en) * | 2016-12-09 | 2018-08-21 | Paypal, Inc. | Identifying and mapping emojis |
CN106873800A (zh) * | 2017-02-20 | 2017-06-20 | 北京百度网讯科技有限公司 | 信息输出方法和装置 |
CN106888158B (zh) * | 2017-02-28 | 2020-07-03 | 天翼爱动漫文化传媒有限公司 | 一种即时通信方法和装置 |
CN106886606A (zh) * | 2017-03-21 | 2017-06-23 | 联想(北京)有限公司 | 用于根据用户语音推荐表情的方法和系统 |
CN109213332B (zh) * | 2017-06-29 | 2022-11-08 | 北京搜狗科技发展有限公司 | 一种表情图片的输入方法和装置 |
CN107153496B (zh) * | 2017-07-04 | 2020-04-28 | 北京百度网讯科技有限公司 | 用于输入表情图标的方法和装置 |
CN110019885B (zh) * | 2017-08-01 | 2021-10-15 | 北京搜狗科技发展有限公司 | 一种表情数据推荐方法及装置 |
CN107450746A (zh) * | 2017-08-18 | 2017-12-08 | 联想(北京)有限公司 | 一种表情符号的插入方法、装置和电子设备 |
CN107479723B (zh) * | 2017-08-18 | 2021-01-15 | 联想(北京)有限公司 | 一种表情符号的插入方法、装置和电子设备 |
CN107609092B (zh) * | 2017-09-08 | 2021-03-09 | 北京百度网讯科技有限公司 | 智能应答方法和装置 |
CN109814730B (zh) * | 2017-11-20 | 2023-09-12 | 北京搜狗科技发展有限公司 | 输入方法和装置、用于输入的装置 |
CN108335226A (zh) * | 2018-02-08 | 2018-07-27 | 江苏省农业科学院 | 农业种质资源信息实时智能采集系统 |
US11310176B2 (en) | 2018-04-13 | 2022-04-19 | Snap Inc. | Content suggestion system |
CN108733651A (zh) * | 2018-05-17 | 2018-11-02 | 新华网股份有限公司 | 表情符号预测方法及模型构建方法、装置、终端 |
CN109033423A (zh) * | 2018-08-10 | 2018-12-18 | 北京搜狗科技发展有限公司 | 同传字幕显示方法及装置、智能会议方法、装置及系统 |
CN110910898B (zh) * | 2018-09-15 | 2022-12-30 | 华为技术有限公司 | 一种语音信息处理的方法和装置 |
CN109525725B (zh) * | 2018-11-21 | 2021-01-15 | 三星电子(中国)研发中心 | 一种基于情绪状态的信息处理方法和装置 |
CN109683726B (zh) * | 2018-12-25 | 2022-08-05 | 北京微播视界科技有限公司 | 字符输入方法、装置、电子设备及存储介质 |
CN109697290B (zh) * | 2018-12-29 | 2023-07-25 | 咪咕数字传媒有限公司 | 一种信息处理方法、设备及计算机存储介质 |
CN111489131A (zh) * | 2019-01-25 | 2020-08-04 | 北京搜狗科技发展有限公司 | 一种信息推荐方法及装置 |
US20220121817A1 (en) * | 2019-02-14 | 2022-04-21 | Sony Group Corporation | Information processing device, information processing method, and information processing program |
CN110149549B (zh) * | 2019-02-26 | 2022-09-13 | 腾讯科技(深圳)有限公司 | 信息的显示方法及装置 |
KR102381737B1 (ko) * | 2019-03-22 | 2022-03-31 | 박정길 | 보이스 이모티콘 편집 방법 및 보이스 이모티콘 편집 방법을 실행시키는 프로그램이 기록된 기록 매체 |
CN112416139A (zh) * | 2019-08-21 | 2021-02-26 | 北京搜狗科技发展有限公司 | 输入方法和装置、用于输入的装置 |
US11335360B2 (en) * | 2019-09-21 | 2022-05-17 | Lenovo (Singapore) Pte. Ltd. | Techniques to enhance transcript of speech with indications of speaker emotion |
CN113051427A (zh) * | 2019-12-10 | 2021-06-29 | 华为技术有限公司 | 一种表情制作方法和装置 |
CN112148133B (zh) * | 2020-09-10 | 2024-01-23 | 北京百度网讯科技有限公司 | 确定推荐表情的方法、装置、设备和计算机存储介质 |
KR102310588B1 (ko) * | 2021-02-10 | 2021-10-13 | 주식회사 인피닉 | 인공지능 학습을 위한 스켈레톤 데이터 생성 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램 |
KR102343036B1 (ko) * | 2021-02-10 | 2021-12-24 | 주식회사 인피닉 | 작업 가이드를 제공할 수 있는 어노테이션 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램 |
KR102310587B1 (ko) * | 2021-02-10 | 2021-10-13 | 주식회사 인피닉 | 연속된 이미지들에 대한 스켈레톤 데이터 생성 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램 |
CN113297359B (zh) * | 2021-04-23 | 2023-11-28 | 阿里巴巴新加坡控股有限公司 | 交互信息的方法以及装置 |
KR102695017B1 (ko) * | 2021-08-30 | 2024-08-16 | 박정훈 | 반려동물 이미지에서 학습한 표정을 이용한 커뮤니케이션 서비스 시스템 및 방법 |
US11657558B2 (en) * | 2021-09-16 | 2023-05-23 | International Business Machines Corporation | Context-based personalized communication presentation |
CN118715524A (zh) * | 2022-01-27 | 2024-09-27 | Oppo广东移动通信有限公司 | 语义通信的传输方法、终端设备 |
CN115641837A (zh) * | 2022-12-22 | 2023-01-24 | 北京资采信息技术有限公司 | 一种智能机器人对话意图识别方法和系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101183294A (zh) * | 2007-12-17 | 2008-05-21 | 腾讯科技(深圳)有限公司 | 表情输入方法及装置 |
CN104076944A (zh) * | 2014-06-06 | 2014-10-01 | 北京搜狗科技发展有限公司 | 一种聊天表情输入的方法和装置 |
CN104298429A (zh) * | 2014-09-25 | 2015-01-21 | 北京搜狗科技发展有限公司 | 一种基于输入的信息展示方法和输入法系统 |
CN104335607A (zh) * | 2011-12-19 | 2015-02-04 | 机械地带有限公司 | 用于识别和建议表情符号的系统和方法 |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003129711A (ja) | 2001-10-26 | 2003-05-08 | Matsushita Electric Works Ltd | 電気錠制御装置 |
JP2006048352A (ja) * | 2004-08-04 | 2006-02-16 | Matsushita Electric Ind Co Ltd | キャラクタ映像表示機能付き通信端末およびその制御方法 |
JP2007003669A (ja) | 2005-06-22 | 2007-01-11 | Murata Mach Ltd | 文書作成装置 |
US7983910B2 (en) * | 2006-03-03 | 2011-07-19 | International Business Machines Corporation | Communicating across voice and text channels with emotion preservation |
JP2008129711A (ja) | 2006-11-17 | 2008-06-05 | Sky Kk | 入力文字変換システム |
KR100902861B1 (ko) | 2007-11-20 | 2009-06-16 | 경원대학교 산학협력단 | 수신된 문자메시지를 아바타에 의하여 음성으로 출력하는이동통신단말기 및 그 제어방법 |
KR100941598B1 (ko) | 2007-11-27 | 2010-02-11 | (주)씨앤에스 테크놀로지 | 감정적 콘텐츠 효과를 포함하는 전화 통신 서비스를제공하는 VoIP 전화 통신 시스템 및 방법 |
US8756527B2 (en) * | 2008-01-18 | 2014-06-17 | Rpx Corporation | Method, apparatus and computer program product for providing a word input mechanism |
JP2009277015A (ja) * | 2008-05-14 | 2009-11-26 | Fujitsu Ltd | 入力支援プログラム、入力支援装置および入力支援方法 |
US8351581B2 (en) * | 2008-12-19 | 2013-01-08 | At&T Mobility Ii Llc | Systems and methods for intelligent call transcription |
US9015033B2 (en) * | 2010-10-26 | 2015-04-21 | At&T Intellectual Property I, L.P. | Method and apparatus for detecting a sentiment of short messages |
EP2704024B1 (en) * | 2011-04-26 | 2017-09-06 | NEC Corporation | Input assistance device, input asssistance method, and program |
US9348808B2 (en) * | 2011-12-12 | 2016-05-24 | Empire Technology Development Llc | Content-based automatic input protocol selection |
KR20130069263A (ko) * | 2011-12-18 | 2013-06-26 | 인포뱅크 주식회사 | 정보처리 방법 및 시스템과 기록매체 |
WO2013094982A1 (ko) | 2011-12-18 | 2013-06-27 | 인포뱅크 주식회사 | 정보처리 방법 및 시스템과 기록매체 |
US20140108308A1 (en) * | 2012-07-13 | 2014-04-17 | Social Data Technologies, LLC | System and method for combining data for identifying compatibility |
US20150100537A1 (en) * | 2013-10-03 | 2015-04-09 | Microsoft Corporation | Emoji for Text Predictions |
US20150262238A1 (en) * | 2014-03-17 | 2015-09-17 | Adobe Systems Incorporated | Techniques for Topic Extraction Using Targeted Message Characteristics |
US10008204B2 (en) * | 2014-06-30 | 2018-06-26 | Clarion Co., Ltd. | Information processing system, and vehicle-mounted device |
JP6122816B2 (ja) * | 2014-08-07 | 2017-04-26 | シャープ株式会社 | 音声出力装置、ネットワークシステム、音声出力方法、および音声出力プログラム |
US10924444B2 (en) * | 2014-12-02 | 2021-02-16 | Facebook, Inc. | Device, method, and graphical user interface for managing customer relationships using a lightweight messaging platform |
KR101733011B1 (ko) * | 2015-06-18 | 2017-05-08 | 라인 가부시키가이샤 | 소셜 네트워크 서비스 기반 추천 정보 제공 장치 및 이를 이용한 방법 |
US20180077095A1 (en) * | 2015-09-14 | 2018-03-15 | X Development Llc | Augmentation of Communications with Emotional Data |
US10157224B2 (en) * | 2016-02-03 | 2018-12-18 | Facebook, Inc. | Quotations-modules on online social networks |
-
2016
- 2016-08-30 CN CN201610770021.0A patent/CN106372059B/zh active Active
-
2017
- 2017-02-09 EP EP17155430.6A patent/EP3291224A1/en not_active Ceased
- 2017-02-10 JP JP2017023271A patent/JP6718828B2/ja active Active
- 2017-02-10 KR KR1020170018938A patent/KR101909807B1/ko active IP Right Grant
- 2017-02-10 US US15/429,353 patent/US10210865B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101183294A (zh) * | 2007-12-17 | 2008-05-21 | 腾讯科技(深圳)有限公司 | 表情输入方法及装置 |
CN104335607A (zh) * | 2011-12-19 | 2015-02-04 | 机械地带有限公司 | 用于识别和建议表情符号的系统和方法 |
CN104076944A (zh) * | 2014-06-06 | 2014-10-01 | 北京搜狗科技发展有限公司 | 一种聊天表情输入的方法和装置 |
CN104298429A (zh) * | 2014-09-25 | 2015-01-21 | 北京搜狗科技发展有限公司 | 一种基于输入的信息展示方法和输入法系统 |
Also Published As
Publication number | Publication date |
---|---|
EP3291224A1 (en) | 2018-03-07 |
KR20180025121A (ko) | 2018-03-08 |
US10210865B2 (en) | 2019-02-19 |
CN106372059A (zh) | 2017-02-01 |
JP6718828B2 (ja) | 2020-07-08 |
KR101909807B1 (ko) | 2018-10-18 |
US20180061407A1 (en) | 2018-03-01 |
JP2018036621A (ja) | 2018-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106372059B (zh) | 信息输入方法和装置 | |
CN105654950B (zh) | 自适应语音反馈方法和装置 | |
EP3095113B1 (en) | Digital personal assistant interaction with impersonations and rich multimedia in responses | |
CN105929980B (zh) | 用于信息输入的方法和装置 | |
CN107863108B (zh) | 信息输出方法和装置 | |
US10956480B2 (en) | System and method for generating dialogue graphs | |
CN107430858A (zh) | 传送标识当前说话者的元数据 | |
US10743104B1 (en) | Cognitive volume and speech frequency levels adjustment | |
CN108121800A (zh) | 基于人工智能的信息生成方法和装置 | |
CN110956956A (zh) | 基于策略规则的语音识别方法及装置 | |
CN106789543A (zh) | 会话中实现表情图像发送的方法和装置 | |
CN108268450B (zh) | 用于生成信息的方法和装置 | |
CN104035995A (zh) | 群标签生成方法及装置 | |
CN109313668B (zh) | 构建会话理解系统的系统和方法 | |
CN105549760B (zh) | 信息输入方法和装置 | |
CN108038243A (zh) | 音乐推荐方法、装置、存储介质及电子设备 | |
CN108900612A (zh) | 用于推送信息的方法和装置 | |
CN110059172A (zh) | 基于自然语言理解的推荐答案的方法和装置 | |
CN110232920A (zh) | 语音处理方法和装置 | |
US20160112572A1 (en) | Conference call management system | |
CN109710939A (zh) | 用于确定主题的方法和装置 | |
CN108509442B (zh) | 搜索方法和装置、服务器以及计算机可读存储介质 | |
CN117130983A (zh) | 文件存储方法、装置、电子设备及存储介质 | |
CN113177419A (zh) | 文本改写方法、装置、存储介质及电子设备 | |
CN117332062A (zh) | 一种数据处理方法和相关装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |