CN110100244B - 电子装置及其控制方法 - Google Patents
电子装置及其控制方法 Download PDFInfo
- Publication number
- CN110100244B CN110100244B CN201780078439.8A CN201780078439A CN110100244B CN 110100244 B CN110100244 B CN 110100244B CN 201780078439 A CN201780078439 A CN 201780078439A CN 110100244 B CN110100244 B CN 110100244B
- Authority
- CN
- China
- Prior art keywords
- user
- word
- specific
- electronic device
- recommended
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/19—Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
- G10L15/197—Probabilistic grammars, e.g. word n-grams
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
- G06F3/0237—Character input methods using prediction or retrieval techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/274—Converting codes to words; Guess-ahead of partial word inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/02—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail using automatic reactions or user delegation, e.g. automatic replies or chatbot-generated messages
Abstract
提供了一种电子装置和控制方法。所述电子装置包括:存储单元,用于存储基于用户的词典;输入单元,用于接收输入的句子,其中,所述输入的句子包括用户特定词语和通过基于神经网络的语言模型学习的至少一个词语;以及处理器,用于基于所述输入的句子的语义信息确定所述用户特定词语的概念类别,将所述用户特定词语添加到所述基于用户的词典以执行更新,并且当与学习的所述至少一个词语的语义信息相应的文本被输入时,将所述用户特定词语提供为能够在所述文本之后被输入的自动补全推荐词语。
Description
技术领域
本公开涉及一种电子装置及其控制方法,更具体地讲,涉及使用未在基于神经网络的语言模型中学习的用户特定词语的语义词语嵌入来提供基于用户的词典的电子装置及其控制方法。
背景技术
随着物联网(IoT)装置的越来越多的使用,正在开发在智能装置中对用户更方便的字符输入方法。
例如,智能装置提供有通过使用虚拟键盘的词语自动补全功能和下一个词语预测功能。
通常,通过使用虚拟键盘的词语自动补全功能和下一个词语预测功能使用N-gram模型或神经网络语言模型。
N-gram模型可仅考虑输入词语的顺序而不按照神经网络中的学习语法考虑输入词语的语义含义来预测将被输入的下一个词语。因此,容易将词语添加到N-gram模型的语言模型,但通过预测将被输入的下一个词语而推荐的词语的顺序在语义上是不连贯的。
另一方面,作为使用神经网络方法预测下一个词语并推荐自动补全词语的方法的语义词语嵌入基于词语的语义含义将具有相似含义的词语转换为相似的矢量值并在矢量空间上将转换的词语放置在彼此邻近的位置。因此,在神经网络方法中,自动补全推荐词语的顺序在语义上是连贯的。
然而,语义词语嵌入仅针对在神经网络语言模型中学习的词语分析含义,并且提供为自动补全推荐词语。因此,当未包括在常规的神经网络语言模型(例如,包括在词典中的词汇)中的用户特定词语被输入到用户终端时,存在如下问题:即使用户特定词语具有与在神经网络语言模型中学习的词语相似的含义,用户特定词语也不被提供为自动补全推荐词语。
发明内容
技术问题
本公开提供一种电子装置及其控制方法,该电子装置用于基于在用户终端中使用的用户特定词语的语义词语嵌入来提供基于用户的词典,并且当使用神经网络语言模型时,将所述用户特定词语提供为自动补全推荐词语以提高输入功能的精确度。
技术方案
根据本公开的一方面,一种用于支持个性化服务的电子装置包括:存储器,存储基于用户的词典;输入器,被配置为接收句子的输入,其中,所述句子包括用户特定词语和通过基于神经网络的语言模型学习的至少一个词语;以及处理器,被配置为:当所述用户特定词语未包括在基于神经网络的语言模型中时,基于输入的句子的语义信息确定所述用户特定词语的概念类别,将所述用户特定词语添加到所述基于用户的词典以更新所述基于用户的词典,并且当与学习的所述至少一个词语的语义信息相应的文本被输入时,将所述用户特定词语提供为在所述文本之后被输入的自动补全推荐词语。
根据本公开的另一方面,一种用于支持电子装置的个性化服务的控制方法包括:接收句子的输入,其中,所述句子包括用户特定词语和通过基于神经网络的语言模型学习的至少一个词语;基于输入的句子的语义信息确定所述用户特定词语的概念类别;将所述用户特定词语添加到基于用户的词典并更新所述基于用户的词典;以及当与学习的所述至少一个词语的语义信息相应的文本被输入时,将所述用户特定词语提供为在所述文本之后被输入的自动补全推荐词语。
有益效果
基于上述实施例,根据本公开的电子装置及其控制方法可在未通过神经网络语言模型学习的用户特定词语被输入时基于所述用户特定词语的语义含义将所述用户特定词语添加到基于用户的词典,并且更新所述基于用户的词典,从而支持电子装置的个性化。
此外,基于根据本公开的实施例的所述基于用户的词典,所述用户特定词语可被提供为自动输入推荐词语,从而向用户提供扩展的输入生产。
此外,根据本公开的电子装置及其控制方法可在由相同用户使用的多个电子装置之间共享基于用户的语言模型,从而向用户提供便利的输入生产。
附图说明
图1是根据本公开的实施例的提供基于用户的语言模型的系统的示图。
图2是根据本公开的实施例的电子装置的简化框图。
图3是用于解释根据本公开的实施例的在常规的神经网络语言模型中预测将被输入的自动补全词语的方法的示图。
图4a和图4b是用于解释通过常规的N-gram算法推荐将被输入的自动补全词语的方法的示图。
图5a和图5b是示出根据本公开的实施例的在神经网络中将用户特定词语推荐为将被输入的自动补全词语的方法的示图。
图6是用于描述根据本公开的实施例的存储在基于用户的词典中的用户特定词语的概念类别的示图。
图7是用于描述根据本公开的实施例的在神经网络语言模型的空间矢量上确定用户特定词语的概念类别的方法的示图。
图8是示出根据本公开的实施例的提供基于用户的语言模型的方法的流程图。
图9是根据本公开的实施例的电子装置的详细框图。
具体实施方式
将对本公开中使用的术语进行简略地描述,并将对本公开进行详细地描述。
在本公开中,术语“模块”或“部件”可执行至少一个功能或操作并且可被实现为硬件、软件或硬件和软件的组合。此外,除了必须被实现为特定硬件的“模块”或“部件”以外,多个“模块”或多个“部件”可被实现为集成为至少一个模块的至少一个处理器(未示出)。
在本公开中,术语“文本”可包括至少一个词汇、词语、字符等,并且可包括一个或更多个词语的子句、句子等。
在本公开中,术语“词语”可以是每种语言的数字、字符、特殊字符和字母中的至少一个的语义概念的单元。
现在将详细参照本公开的实施例(其示例在附图中被示出),其中,贯穿全文,相同的附图标号表示相同的元件。然而,本公开可以以许多不同形式实施并且不限于在此描述的实施例。为了可以更充分地理解本公开,贯穿本说明书使用相同的附图标号以避免冗余。
图1是根据本公开的实施例的提供基于用户的语言模型的系统的示图。
参照图1,系统10可包括电子装置100、服务器200以及连接电子装置100与服务器200的有线和/或无线网络300。
例如,电子装置100可以是智能装置,诸如可穿戴手表100-1、智能电话100-2、平板PC 100-3和头戴式显示器100-4。电子装置100可使用有线和/或无线通信方法远程地控制其他电子装置。电子装置100-1、100-2、100-3和100-4可使用有线和/或无线通信方法彼此共享数据。上述示例仅是说明本公开,但不限于此。
根据本公开的实施例,电子装置100可包括包含未在神经网络语言模型中被学习的用户特定词语的基于用户的词典。此外,电子装置100-1、100-2、100-3和100-4可彼此共享基于用户的词典。
服务器200可包括服务服务器200-1和服务数据库200-2。服务服务器200-1可以是向电子装置100提供应用服务的服务器。服务数据库200-2可应服务服务器200-1的请求提供神经网络(NN)数据。服务数据库200-2可被包括在服务服务器200-1中或者可存在于外部。服务数据库200-2可在不通过服务服务器200-1的情况下应电子装置100的请求提供NN数据。例如,服务数据库200-1可以是基于云的服务器,但不限于此。
服务数据库200可被包括在电子装置100中并且可被单独地实现而不用被包括在电子装置100中。
在本公开中,服务器200将被描述为基于云的服务数据库200-2的示例。服务器200可存储各种基于神经网络的语言模型(LM)。
图2是根据本公开的实施例的电子装置的简化框图。
参照图2,电子装置100包括通信器210、存储器230、输入器240和处理器250。根据实施例,可省略或改变图2中所示的组件中的一些组件,并且还可添加其他组件。
通信器210根据各种类型的有线和/或无线通信方法与各种类型的外部装置执行通信。在图9中对各种通信方法进行详细描述。
根据本公开的实施例,通信器210可与用户期望使用的其他电子装置进行通信以与其他电子装置共享基于用户的语言模型信息。此外,通信器210可与基于云的服务器进行通信并与提供应用服务的服务器进行通信。
存储器220可存储电子装置100的各种数据信息。存储器230可存储基于用户的词典。基于用户的词典可存储未通过神经网络语言模型学习的用户特定词语。用户特定词语可包括至少一个字符、字母、词汇等。
输入器240可包括可从用户接收文本的输入的键盘、鼠标、指针、触控笔、用于输入语音命令的麦克风等,但不限于此。
例如,键盘可以是虚拟的键盘。虚拟的键盘可在电子装置100的显示器上实现。
根据本公开的实施例,输入器240可接收用户特定词语和包括通过基于神经网络的语言模型学习的至少一个词语的句子。
处理器250可基于通过神经网络语言模型学习的至少一个词语的语义信息确定(或识别)包括在从输入器210输入的句子中的用户特定词语的概念类别,并且针对确定的(或识别的)概念类别中的每一个将用户特定词语添加到基于用户的词典,并更新基于用户的词典。
当与学习的至少一个词语的语义信息相应的文本被输入时,处理器250可将用户特定词语提供为在文本之后可被输入的自动补全推荐词语。
处理器250可将用户特定词语连同从基于神经网络的语言模型推荐的至少一个词语一起提供为自动补全推荐词语。
处理器250可将具有指定的优先级的上限数量的词语提供为自动补全推荐词语。
处理器250可将用户特定词语作为输入值发送到神经网络,并将用户特定词语投射在与确定的概念类别相应的基于神经网络的语言模型的空间矢量上。
空间矢量可以是在神经网络推荐模型中被推荐为将被输入的自动补全词语的至少一个词语所位于的概念类别空间。
处理器250可确定(或识别)用户特定词语的矢量和推荐的至少一个词语的矢量之间的余弦相似度,并且当确定的(或识别的)相似度大于或等于指定的值时,将包括推荐的至少一个词语的概念类别确定为用户特定词语的概念类别。
当用户特定词语的优先级基于确定的相似度被包括在指定的较高优先级中时,处理器250可将用户特定词语提供为自动补全推荐词语。
处理器250可通过通信器210响应于来自另一终端装置的请求基于用户的语言模型信息的信号向所述另一终端装置提供基于用户的词典信息。
处理器250可向从电子装置100认证的其他终端装置提供基于用户的词典信息。
当在指定的时间段期间用户特定词语的使用频率小于或等于指定的次数时,处理器250可从基于用户的词典删除用户特定词语。
图3是用于解释根据本公开的实施例的在常规的神经网络语言模型中预测将被输入的自动补全词语的方法的示图。
常规的基于神经网络的语言模型可通过语义词语嵌入来预测自动输入词语。
参照图3,例如,当在电子装置100中输入的句子是“Meet you at the”401时,神经网络语言模型分析“Meet you at the”401的含义。当基于通过用户从电子装置100输入的句子“at the_”400的使用的频率和使用的句子的含义确定“at the_”指示“地点”时,神经网络可进行预测并使用自动输入词语402向装置100提供指示地点的“airport”、“hotel”、“office”等。
通常,神经网络可通过使用神经网络中的语义词语嵌入算法根据具有相似含义的词语的矢量余弦相似度预测自动补全词语。
也就是说,在基于神经网络的语义词语嵌入方法中,可以看出推荐的高优先级词语(airport、hotel以及office)的含义(例如,地点)是相似的。
然而,在基于神经网络的语义词语嵌入算法中,仅在基于神经网络的语言模型中学习的词语可被预测为自动补全词语并被提供给电子装置100。因此,即使用户特定词语被频繁地输入到电子装置100,未通过神经网络语言模型学习的基于用户终端的用户特定词语也不被推荐为自动输入词语402。
图4a和4b是用于解释通过常规的N-gram算法推荐将被输入的自动补全词语的方法的示图。
图4a是示出电子装置100接收包括未在常规的语言模型中学习的用户特定词语的句子的示图。
参照图4a,电子装置100在“Meet you at the”之后从用户接收不同于在基于神经网络的或基于N-gram的语言模型中推荐的词语“hotel”、“office”和“airport”的“Galbijip”。此时,当“Galbijip”未存储在神经网络语言模型中时,然后当下次输入具有相似的语义含义的词语(诸如“Meet you at”或者“Meet you at the”)时,电子装置100可能不将“Galbijip”提供为自动补全推荐词语。
图4b是示出使用N-gram算法将用户特定词语推荐为自动补全词语的方法。
参照图4b,当按照与在图4a中输入的“Meet you at the”中一样的顺序(Meet、you、at、the)输入相同的词语时,电子装置100可将用户先前在“Meet you at the”之后输入的“Galbijip”推荐为自动补全词语。也就是说,在N-gram方法中,可基于各个词语“Meet”、“you”、“at”和“the”以及所述各个词语的输入顺序预测将被输入的自动补全词语。
然而,在常规的N-gram方法中,不同于基于神经网络的算法,当向“Meet”的位置输入具有与“Meet you at the”相似的语义含义的“See”时,由于仅根据“See”、“you”和“at”的顺序对各个词语进行识别和分析,所以不能确定“See you at”与“Meet you at”具有相似的含义。因此,作为用户特定词语的“Galbijip”可能不作为推荐词语被提供给电子装置100来作为“See you at”之后的自动输入词语。
此外,对于另一示例,当向电子装置100输入文本“Go to”时,因为N-gram方法不确定“Go to”的语义含义但是确定“Go”和“to”的输入顺序以及各个词语,所以被推荐为自动补全词语的词语(play、picnic、school、there)的含义不存在相似度。此外,电子装置100可以不进行预测并且不将作为用户特定词语的“Galbijip”推荐为在“Go to”之后将被输入的自动输入词语。
也就是说,不同于以上参照图3描述的语义词语嵌入方法,如图4b中所示,可以看出:在N-gram方法中,推荐的词语的含义不存在相似度。在N-gram方法中,当输入“Meet youat”、“See you at”或“Go to”时,包括在基于输入文本的语义含义具有相似含义的概念类别中的词语不被推荐为自动补全词语。
图5a和图5b是示出根据本公开的实施例的在神经网络中将用户特定词语推荐为自动补全词语的方法的示图。
图5a是示出根据本公开的实施例的在神经网络中将用户特定词语预测为自动补全词语的方法的示图。
参照图5a,如参照图4a所述,电子装置100可在被配置为在神经网络学习的词语的文本501之后输入作为用户特定词语的“Galbijip”502,该用户特定词语不是在神经网络中被预测并被推荐的自动补全词语中的一个。
根据本公开的实施例,当通过神经网络语言模型向电子装置100输入具有与“Meetyou at the”501相似的含义的文本“See you at”503时,电子装置100可预测在“at the_”400中的“at the”之后将被输入的词语504并将词语504提供为自动补全词语。
此外,电子装置100可确定“See you at”503的语义含义与“Meet you at the”501相似,并将作为用户特定词语的“Galbijip”连同从基于神经网络的语言模型推荐的“hotel”和“office”一起提供为在“See you at the”503之后将被输入的自动补全词语。
也就是说,根据本公开的实施例,电子装置100可确定用户独特词语(Galbijip)的概念类别与“hotel”和“office”的概念类别相同。例如,电子装置100可基于通过用户输入的句子的语义含义将“Galbijip”确定为包括在概念类别“地点”中的词语。因此,可将“Galbijip”连同包括在在神经网络语言模型中提供的地点概念类别中的“hotel”和“office”一起预测并推荐为自动补全词语。
图5b是示出根据本公开的实施例的当向电子装置100输入具有相似含义的文本时将用户特定词语推荐并提供为自动补全词语的示图。
参照图5b,当输入与通过神经网络语言模型学习的至少一个词语的语义信息相应的文本时,电子装置100可将用户特定词语连同从基于神经网络的语言模型推荐的至少一个词语一起提供为在文本之后可被输入的自动补全推荐词语。
例如,当如图5b中所示向电子装置100重新输入图5a中所示的“Meet you at”时,电子装置100可基于“Meet you at”的语义信息提供意为接下来可被输入的“地点”或“时间”的自动补全推荐词语“6:00”、“Galbijip”、“Park”和“The place”。
对于另一示例,当向电子装置100输入“See you at the”时,随后电子装置100可基于“See you at the”的语义信息提供意为接下来可被输入的“地点”或“时间”的自动补全推荐词语“Night”、“The place”、“Galbijip”和“Park”。
对于另一示例,当向电子装置100输入“Go to”时,电子装置100可基于“Go to”的语义信息提供意为接下来可被输入的“地点”的自动补全推荐词语“Yummy house”、“Galbijip”、“Starbucks”和“there”。
在上述实施例中,在图5a的操作中,“Galbijip”可以是存储在基于用户的语言模型中的概念类别“地点”中的用户特定词语,并且可以是作为推荐的词语被包括在具有指定的优先级的高级别中的词语。
如上所述,电子装置100可将具有指定的优先级的上限数量的词语提供为自动补全推荐词语。在图5b中,提供了四个推荐单元,但这仅仅是实施例,不限于此。此外,可以以各种方式实现和修改提供推荐词语的GUI(图形用户界面)。
图6是用于描述根据本公开的实施例的基于用户的词典的概念类别的示图。
电子装置100可从用户接收包括用户特定词语和通过服务器200的基于神经网络的语言模型310学习的至少一个词语的句子。
例如,句子可不同地包括“Meet you at the Galbijip”、“See you at the PFC”和“Go to Anna's home”等。
电子装置100可基于通过神经网络语言模型学习的至少一个词语的语义信息确定用户特定词语的概念类别。
例如,“Meet you at the”、“See you at the”和“Go to”可以是包括通过神经网络语言模型(英语)310学习的词语的文本。通过神经网络语义词语嵌入算法在“Meet youat the”的“at the_”400中的“at the”之后将被输入的词语可包括意味着地点350的词语(例如,airport、hotel、office、home等)。
此外,在“at the_”400中的“at the”之后将被输入的词语可包括意味着时间360的词语(例如,end、ame、next等)
因此,基于通过神经网络语言模型310学习的至少一个词语350、360的概念类别(地点、时间),电子装置100可将“Galbijip”、“PFC”和“Anna's home”的概念类别分类并存储为基于用户的词典330中的“地点”,并更新基于用户的词典330。
例如,当由用户向电子装置100输入的诸如“Galbijip”、“PFC”、“Anna's home”等的特定词语与包括在服务器200的神经网络语言模型310的地点类别中的词语350的余弦相似度高时,“Galbijip”、“PFC”和“Anna's home”的概念类别可以被分类为类别“地点”,并被存储在电子装置100的基于用户的词典330中。
对于另一示例,当“PFC”和包括在服务器200的神经网络语言模型310中的词语中的包括在时间类别中的词语360的余弦相似度高时,可在电子装置100的基于用户的词典330的时间类别中添加并更新用户特定词语“PFC”。
上述的示例仅是用于解释本公开的实施例,并且不限于此,并且可通过包括在各种概念类别中的各种词语来实现。
图7是用于描述根据本公开的实施例的确定基于用户的语言模型的概念类别的方法的示图。
包括在神经网络语言模型中的词语可具有各自的空间矢量值。参照在图7的左侧的示图,可以看出,存储在神经网络语言模型中的地点概念类别空间上的词语具有各自的位置矢量。
当在矢量空间上的每个词语的余弦相似度更接近“0”值时,可确定在神经网络方法中含义是相似的。
例如,在图7的左侧的示图中,hotel、airport和office是离“0”最近的词语。因此,如图4a中所示,在常规的神经网络系统中,在地点类别中具有高优先级的“airport”、“hotel”和“office”可被预测为在“Meet you at the”之后可被输入的自动补全推荐词语。
根据本公开的实施例,电子装置100可将用户特定词语投影到被推荐为在图5a和图5b中描述的自动补全词语的存储在神经网络语言模型中的词语的概念类别空间矢量中。电子装置100可将用户特定词语作为输入值发送到神经网络以将用户特定词语投影到与包括用户特定词语的概念类别相应的基于神经网络的语言模型的空间矢量。
因此,如在图7的右侧的示图中所示,用户特定词语701和在神经网络语言模型中被推荐为自动补全词语的至少一个词语可在相同空间矢量上位于各自相应的矢量中。
例如,用户特定词语701的矢量可位于在“地点”概念类别空间矢量上的余弦相似度值是“0”值的位置。也就是说,作为在句子(诸如作为图5a和图5b中的示例并被输入到电子装置100的“Meet you at the”、“See you at”等)之后将被输入的词语,“Galbijip”可以是与在地点概念类别中的学习的句子的含义具有语义上最高相似度的词语。此外,可以看出,在“Galbijip”701之后,hotel的余弦相似度接近于0,并且在hotel之后,office的余弦相似度接近于0。因此,如图5a中所示,具有高优先级的“Galbijip”、“hotel”和“office”可被提供为在“See you at the”之后将被输入的自动输入推荐词语。
此外,电子装置100可确定在用户特定词语的矢量与从基于神经网络的语言模型将被输入的被推荐为自动补全词语的至少一个词语的矢量之间的余弦相似度,并且当确定的余弦相似度大于或等于指定的值时,电子装置100可将包括所推荐的至少一个词语的概念类别确定为所述用户特定词语的概念类别。
例如,当用户特定词语“PCF”被同时投影到神经网络语言模型的“地点”概念类别和“时间”概念类别时,然后,位于“地点”概念类别中的通过神经网络语言模型学习的词语的矢量与矢量“PCF”之间的余弦相似度和位于“时间”概念类别中的通过神经网络语言模型学习的词语的矢量与矢量“PCF”之间的余弦相似度可具有不同的值。
此时,具有更接近于“0”的余弦相似度的概念类别可被确定为“PCF”的概念类别。因此,电子装置100可将所述用户特定词语添加到所述用户特定词语的确定的概念类别并将所述用户特定词语存储在基于用户的词典中。
图8是示出根据本公开的实施例的提供基于用户的语言模型的方法的流程图。
在步骤S801中,电子装置100可接收包括用户特定词语和通过基于神经网络(NN)的语言模型(LM)学习的词语的句子。
在步骤S802中,电子装置100可基于在基于NN的LM中学习的词语的语义信息确定所述用户特定词语的概念类别。在本公开中,在上面对确定概念类别的方法进行了详细描述,因此这里省略对确定概念类别的方法的描述。
在步骤S803中,电子装置100可通过针对每个确定的概念类别将用户特定词语添加到基于用户的词典来更新基于用户的词典。
因此,根据上述的实施例,电子装置100可提供在用户终端中被频繁使用的基于用户的词典。
在步骤S805中,可由用户将与通过基于NN的LM学习的词语的语义信息相应的文本输入到电子装置100。
在步骤S807中,电子装置100可基于输入的文本的语义含义从基于用户的词典将用户特定词语提供为可在输入的文本之后被输入的自动补全推荐词语。
此外,根据本公开的实施例,电子装置100可从另一终端装置接收对基于用户的词典信息的请求。电子装置100可将基于用户的词典信息提供给所述另一终端装置。
例如,电子装置100可以是智能电话并且所述另一终端装置可以是智能电视。用户可使用智能电话的虚拟键盘在智能电视的屏幕上输入文本。此时,智能电视可向智能电话请求智能电话的基于用户的词典信息。
根据本公开的实施例,当所述另一终端装置从电子装置100被认证了时,电子装置100可提供基于用户的语言模型。
例如,当智能电话100针对智能电视认证了数据共享时,智能电话100可将与智能电话100相应的基于用户的词典信息提供给智能电视。
因此,即使未向智能电视输入所述用户特定词语,基于输入到智能电视的句子的含义信息,包括在与智能电话100相应的基于用户的词典中的所述用户特定词语可作为自动补全推荐词语被提供给智能电视。
可选地,电子装置100可响应于所述另一终端装置的请求将电子装置100的基于用户的词典信息作为小尺寸的文本信息文件提供给所述另一终端装置。例如,电子装置100可产生作为个性化词典的基于用户的词典并将基于用户的词典存储在电子装置100中。
根据本公开的实施例,当在指定的时间段期间在基于用户的词典中存储的用户特定词语的使用频率小于或等于指定的次数时,电子装置100可从基于用户的语言模型删除所述用户特定词语。此时,所述指定的时间段和所述指定的次数可被不同地实现。作为结果,可有效地确保电子装置100的存储器容量。
图9是根据本公开的实施例的电子装置100的详细框图。
如图9中所示,电子装置100可包括图像获取器910、图像处理器920、显示器930、通信器940、存储器950、音频处理器960、音频输出器970、传感器980和处理器990中的至少一个。另一方面,在图9中示出的电子装置100的结构仅仅是示例,不一定限于上述框图。
根据实施例,可省略或改变在图9中示出的组件中的一些组件,并且还可添加其他组件。
存储器950可包括用于驱动电子装置100的各种程序模块,但是要意识到,可根据电子装置100的类型和特性省略、修改或添加各种程序模块中的一些。
存储器950可包括内部存储器或外部存储器。内部存储器可包括易失性存储器和非易失性存储器中的至少一个。易失性存储器可包括例如动态随机存取存储器(DRAM)、静态随机存取存储器(SRAM)、同步动态随机存取存储器(SDRAM)等。非易失性存储器可包括例如一次性可编程ROM(OTPROM)、可编程ROM(PROM)、可擦除可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)、掩膜式ROM、闪速ROM、NAN闪存、NOR闪存等。此外,内部存储器可以是固态驱动器(SSD)。
外部存储器可包括闪存驱动器、紧凑闪存(CF)、安全数字(SD)、微型安全数字(micro-SD)、迷你安全数字(mini-SD)、极速数字(xD)或记忆棒。外部存储器可经由各种接口被功能性地结合到电子装置100。此外,电子装置100还可包括诸如硬盘驱动器的存储装置。
图像获取器910可通过各种资源获得图像数据。例如,图像获取器910可从外部服务器接收图像数据,并且可从位于电子装置100外部的装置接收图像数据。
可选地,图像获取器910可通过捕捉外部环境获得图像数据。例如,图像获取器910可被实现为捕捉电子装置100的外部环境的相机。可在图像处理器920中处理通过图像获取器910获得的图像数据。
图像处理器920是对通过图像获取器910接收的图像数据执行处理的组件。图像处理器920可对图像数据执行各种类型的图像处理,诸如解码、缩放、噪声过滤、帧率转换、分辨率转换等。
显示器930可包括触摸屏或柔性屏。
通信器940是根据各种类型的通信方法与各种类型的外部装置执行通信的组件。通信器940可包括Wi-Fi芯片941、蓝牙芯片942、无线通信芯片943和NFC芯片944中的至少一个。处理器990可使用通信器940与外部服务器或各种外部装置进行通信。
具体地讲,Wi-Fi芯片941和蓝牙芯片942的每一个可使用WiFi方法或蓝牙方法执行通信。当使用WiFi芯片941或蓝牙芯片942时,各种类型的连接信息(诸如SSID、会话密钥等)可被首先发送和接收,并且可被用于发送和接收各种类型的信息。
无线通信芯片943指的是根据各种通信标准(诸如IEEE、Zigbee、3G(第三代)、3GPP(第三代合作伙伴项目)、LTE(长期演进)等)执行通信的芯片。NFC芯片944指的是通过使用各种RF-ID频带(诸如135kHz、13.56MHz、433MHz、860MHz至960MHz、2.45GHz等)中的13.56MHz频带的NFC(近场通信)方法进行操作的芯片。
存储器950可被实现为非易失性存储器、易失性存储器、闪存、硬盘驱动器(HDD)或固态驱动器(SSD)。存储器950可通过处理器990被访问,并且可通过处理器990执行数据的读取/写入/修改/删除/更新等。在本公开中的术语存储器可包括存储器950、处理器990中的ROM 992、RAM 991或安装在电子装置100中的存储器卡(未示出)(例如,微型SD卡和记忆棒)。
此外,存储器950可存储用于配置在显示器930的显示区域上将被显示的各种屏幕的程序和数据。
音频处理器960是对图像内容的音频数据执行处理的组件。音频处理器960可对音频数据执行各种类型的处理,诸如解码和缩放、噪声过滤等。通过音频处理器960处理的音频数据可被输出到音频输出器970。
具体地讲,音频输出器970可被实现为扬声器,但这仅仅是实施例,并且音频输出器970可被实现为能够输出音频数据的输出端子。
传感器980可包括能够感测各种用户交互的多个传感器。传感器980可包括各种传感器,诸如运动传感器、陀螺仪传感器、加速度传感器、气压计、热传感器、湿度传感器、超声传感器等。上述示例仅仅是实施例,但是不限于此。
也就是说,传感器980可基于电子装置100感测状态改变,产生相应的感测信号并向处理器990发送感测信号。
麦克风(未示出)可接收用于通过电子装置100控制电子装置100和另一终端装置中的至少一个的用户语音,并通过语音识别模块识别所述用户语音。随后,麦克风可向处理器990发送识别的结果。此时,语音识别模块可位于处理器990的一部分上或在电子装置100的外部而非麦克风上。
处理器990(或处理器)可使用存储在存储器950中的各种程序来控制电子装置100的整体操作。
处理器990可包括RAM 991、ROM 992、图形处理器993、主CPU 994、第一接口995-1至第n接口995-n和总线996。此时,RAM 991、ROM 992、图形处理器993、主CPU 994、第一接口995-1至第n接口995-n等可通过总线996彼此连接。
RAM 991存储O/S和应用程序。具体而言,当启动电子装置100时,O/S可被存储在RAM 991中并且通过用户选择的各种应用数据可被存储在RAM991中。
ROM 992存储用于启动系统等的命令集。当输入开启命令并供电时,主CPU 994根据存储在ROM 992中的指令将存储在存储器950中的O/S复制到RAM 991,执行O/S并启动系统。当完成启动时,主CPU 994将存储在存储器950中的各种应用程序复制到RAM 991,执行复制到RAM 991的应用程序并执行各种操作。
图形处理器993产生包括各种对象(诸如项目、图像、文本等)的屏幕。
主CPU 994访问存储器950并使用存储在存储器950中的O/S执行启动。主CPU 994使用存储在存储器950中的各种程序、内容、数据等执行各种操作。
第一接口995-1至第n接口995-n被连接到上述各种组件。第一接口995-1至第n接口995-n中的一个可以是通过网络连接到外部装置的网络接口。
根据各种实施例的装置(例如,模块或电子装置100)或方法(例如,操作)可通过至少一个计算机(例如,处理器990)来执行,其中,所述至少一个计算机(例如,处理器990)运行包括在计算机可读存储介质中维护的程序中的至少一个程序中的指令。
程序可被存储在计算机可读存储介质(诸如硬盘、软盘、磁性介质(例如,磁带)、光学介质(例如,紧凑盘只读存储器(CD-ROM)、数字多功能盘(DVD))、磁光介质(例如,光磁盘)、硬件装置(例如,只读存储器(ROM)、随机存取存储器(RAM)等))上。
存储介质通常作为电子装置100的结构的一部分被包括,但可通过电子装置100的一端口被安装或者可被包括在位于电子装置100外部的外部装置(例如,云端、服务器或其他电子装置)中。此外,程序可被存储在多个存储介质中。此时,多个存储介质中的至少一部分可位于电子装置100的外部装置中。
尽管已经示出并描述了本公开的实施例,但是本公开不限于上述特定实施例,而是在不脱离如在权利要求中所要求的本公开的精神和范围的情况下,可由本公开所属领域的技术人员对本公开的实施例进行不同地修改。另外,这样的修改也应被理解为落在本公开的范围内。
Claims (11)
1.一种用于支持个性化服务的电子装置,所述电子装置包括:
存储器,存储基于用户的词典;
输入器,被配置为接收句子的输入,其中,所述句子包括用户特定词语和通过基于神经网络的语言模型学习的至少一个词语;
处理器,被配置为:
通过执行以下操作基于所输入的句子的语义信息识别所述用户特定词语的概念类别:
将所述用户特定词语投影到存储在基于神经网络的语言模型中的至少一个词语的概念类别矢量空间中,其中,所述至少一个词语被推荐为针对包括除了所述用户特定词语之外的词语的所输入的句子的至少一个自动补全词语,以及
在所述用户特定词语的矢量与所述至少一个自动补全词语的矢量之间的计算的相似度大于或等于相似度阈值的情况下,将所述用户特定词语的概念类别确定为所述至少一个自动补全词语的概念类别,
将所述用户特定词语添加到所述基于用户的词典以更新所述基于用户的词典,并且
当与学习的所述至少一个词语的语义信息相应的文本被输入时,将所述用户特定词语提供为在所述文本之后被输入的自动补全推荐词语。
2.如权利要求1所述的电子装置,其中,处理器还被配置为将所述用户特定词语连同从基于神经网络的语言模型推荐的至少一个词语一起提供为在所述文本之后被输入的所述自动补全推荐词语。
3.如权利要求2所述的电子装置,其中,处理器还被配置为将具有指定的优先级的上限数量的词语提供为所述自动补全推荐词语。
4.如权利要求3所述的电子装置,其中,处理器还被配置为:当所述用户特定词语的优先级基于所述识别的相似度被包括在所述指定的优先级中时,将所述用户特定词语提供为所述自动补全推荐词语。
5.如权利要求1所述的电子装置,还包括:通信器,被配置为与外部装置执行通信,
其中,处理器还被配置为:响应于来自另一终端装置的请求基于用户的词典信息的信号,通过通信器将所述基于用户的词典信息提供给所述另一终端装置。
6.如权利要求5所述的电子装置,其中,处理器还被配置为向从电子装置认证了的所述另一终端装置提供所述基于用户的词典信息。
7.如权利要求1所述的电子装置,其中,处理器还被配置为:当在指定的时间段期间所述用户特定词语的使用频率小于或等于指定次数时,从所述基于用户的词典删除所述用户特定词语。
8.一种用于支持电子装置的个性化服务的控制方法,所述控制方法包括:
接收句子的输入,其中,所述句子包括用户特定词语和通过基于神经网络的语言模型学习的至少一个词语;
通过执行以下步骤基于所输入的句子的语义信息识别所述用户特定词语的概念类别:
将所述用户特定词语投影到存储在基于神经网络的语言模型中的至少一个词语的概念类别矢量空间中,其中,所述至少一个词语被推荐为针对包括除了所述用户特定词语之外的词语的所输入的句子的至少一个自动补全词语,以及
在所述用户特定词语的矢量与所述至少一个自动补全词语的矢量之间的计算的相似度大于或等于相似度阈值的情况下,将所述用户特定词语的概念类别确定为所述至少一个自动补全词语的概念类别;
将所述用户特定词语添加到基于用户的词典以更新所述基于用户的词典;以及
当与学习的所述至少一个词语的语义信息相应的文本被输入时,将所述用户特定词语提供为自动补全推荐词语。
9.如权利要求8所述的控制方法,其中,所述提供步骤还包括将所述用户特定词语连同从基于神经网络的语言模型推荐的至少一个词语一起提供为在所述文本之后被输入的所述自动补全推荐词语。
10.如权利要求9所述的控制方法,其中,所述提供步骤包括将具有指定的优先级的上限数量的词语提供为所述自动补全推荐词语。
11.如权利要求8所述的控制方法,其中,所述提供步骤包括:当所述用户特定词语的优先级基于所述识别的相似度被包括在指定的优先级中时,将所述用户特定词语提供为所述自动补全推荐词语。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160134882A KR102617717B1 (ko) | 2016-10-18 | 2016-10-18 | 전자 장치 및 그 제어 방법 |
KR10-2016-0134882 | 2016-10-18 | ||
PCT/KR2017/002572 WO2018074681A1 (ko) | 2016-10-18 | 2017-03-09 | 전자 장치 및 그 제어 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110100244A CN110100244A (zh) | 2019-08-06 |
CN110100244B true CN110100244B (zh) | 2023-08-01 |
Family
ID=62018795
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780078439.8A Active CN110100244B (zh) | 2016-10-18 | 2017-03-09 | 电子装置及其控制方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11024300B2 (zh) |
EP (1) | EP3522036B1 (zh) |
KR (1) | KR102617717B1 (zh) |
CN (1) | CN110100244B (zh) |
WO (1) | WO2018074681A1 (zh) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108428446B (zh) * | 2018-03-06 | 2020-12-25 | 北京百度网讯科技有限公司 | 语音识别方法和装置 |
KR102592907B1 (ko) * | 2018-06-22 | 2023-10-23 | 삼성전자주식회사 | 텍스트 입력 디바이스 및 그 방법 |
US11398918B1 (en) * | 2018-10-22 | 2022-07-26 | Wells Fargo Bank, N.A. | Passive user authentication |
KR20200098068A (ko) * | 2019-02-11 | 2020-08-20 | 삼성전자주식회사 | 단어 추천 방법 및 그 전자 장치 |
US11574026B2 (en) * | 2019-07-17 | 2023-02-07 | Avanade Holdings Llc | Analytics-driven recommendation engine |
KR20210050952A (ko) | 2019-10-29 | 2021-05-10 | 삼성전자주식회사 | 뉴럴 네트워크를 이용하여 실험 조건을 최적화하는 장치 및 방법 |
US11657071B1 (en) * | 2020-03-13 | 2023-05-23 | Wells Fargo Bank N.A. | Mapping disparate datasets |
CN111382340A (zh) * | 2020-03-20 | 2020-07-07 | 北京百度网讯科技有限公司 | 信息识别方法、信息识别装置和电子设备 |
US10915697B1 (en) * | 2020-07-31 | 2021-02-09 | Grammarly, Inc. | Computer-implemented presentation of synonyms based on syntactic dependency |
US11696153B2 (en) * | 2020-08-13 | 2023-07-04 | Samsung Electronics Co., Ltd. | Transfer learning of network traffic prediction model among cellular base stations |
JP2022051113A (ja) * | 2020-09-18 | 2022-03-31 | 富士フイルムビジネスイノベーション株式会社 | 情報出力装置、質問生成装置、及びプログラム |
CN112949280B (zh) * | 2021-03-02 | 2023-07-07 | 中国联合网络通信集团有限公司 | 一种数据处理方法和装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07271774A (ja) * | 1994-03-30 | 1995-10-20 | Sharp Corp | 文章入力装置 |
CN104375989A (zh) * | 2014-12-01 | 2015-02-25 | 国家电网公司 | 自然语言文本关键词关联网络构建系统 |
CN104376842A (zh) * | 2013-08-12 | 2015-02-25 | 清华大学 | 神经网络语言模型的训练方法、装置以及语音识别方法 |
CN105654946A (zh) * | 2014-12-02 | 2016-06-08 | 三星电子株式会社 | 用于语音识别的设备和方法 |
CN105917327A (zh) * | 2013-12-11 | 2016-08-31 | 触摸式有限公司 | 用于将文本输入到电子设备中的系统和方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8180633B2 (en) * | 2007-03-08 | 2012-05-15 | Nec Laboratories America, Inc. | Fast semantic extraction using a neural network architecture |
KR101354020B1 (ko) * | 2007-08-08 | 2014-01-22 | 에스케이 텔레콤주식회사 | 메시지 작성을 위한 단어 db 생성 방법, 단어 자동 완성방법 및 그를 위한 단말기 |
KR101495183B1 (ko) * | 2008-12-01 | 2015-02-24 | 엘지전자 주식회사 | 단말기 및 그 제어 방법 |
KR101140724B1 (ko) | 2009-08-31 | 2012-05-04 | 서울시립대학교 산학협력단 | 개념 네트워크 기반 사용자 프로파일 구성 방법 및 시스템과 이를 이용한 개인화 질의 확장 시스템 |
KR20120070782A (ko) | 2010-12-22 | 2012-07-02 | 에스케이 텔레콤주식회사 | 단어 학습 서비스 시스템 및 방법 |
KR101388569B1 (ko) | 2011-08-10 | 2014-04-23 | 한국전자통신연구원 | 연속어 음성인식 시스템에서 언어모델의 고유 명사 추가 장치 및 방법 |
KR101337786B1 (ko) * | 2011-10-26 | 2013-12-06 | (주)정글시스템 | 한글 문장을 자동으로 완성하기 위한 한글 입력기 및 자동 문장 완성 방법 |
US8868592B1 (en) * | 2012-05-18 | 2014-10-21 | Google Inc. | Providing customized autocomplete data |
US9229924B2 (en) * | 2012-08-24 | 2016-01-05 | Microsoft Technology Licensing, Llc | Word detection and domain dictionary recommendation |
US9558743B2 (en) * | 2013-03-15 | 2017-01-31 | Google Inc. | Integration of semantic context information |
US9208779B2 (en) * | 2013-09-06 | 2015-12-08 | Google Inc. | Mixture of n-gram language models |
US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
WO2016068455A1 (ko) | 2014-10-30 | 2016-05-06 | 주식회사 플런티코리아 | 적응적인 키보드 인터페이스를 제공하기 위한 방법 및 시스템, 대화 내용과 연동되는 적응적 키보드를 이용한 답변 입력 방법 |
-
2016
- 2016-10-18 KR KR1020160134882A patent/KR102617717B1/ko active IP Right Grant
-
2017
- 2017-03-09 US US16/342,771 patent/US11024300B2/en active Active
- 2017-03-09 CN CN201780078439.8A patent/CN110100244B/zh active Active
- 2017-03-09 EP EP17862695.8A patent/EP3522036B1/en active Active
- 2017-03-09 WO PCT/KR2017/002572 patent/WO2018074681A1/ko unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07271774A (ja) * | 1994-03-30 | 1995-10-20 | Sharp Corp | 文章入力装置 |
CN104376842A (zh) * | 2013-08-12 | 2015-02-25 | 清华大学 | 神经网络语言模型的训练方法、装置以及语音识别方法 |
CN105917327A (zh) * | 2013-12-11 | 2016-08-31 | 触摸式有限公司 | 用于将文本输入到电子设备中的系统和方法 |
CN104375989A (zh) * | 2014-12-01 | 2015-02-25 | 国家电网公司 | 自然语言文本关键词关联网络构建系统 |
CN105654946A (zh) * | 2014-12-02 | 2016-06-08 | 三星电子株式会社 | 用于语音识别的设备和方法 |
Non-Patent Citations (6)
Title |
---|
基于低维语义向量模型的语义相似度度量;蔡圆媛等;《中国科学技术大学学报》;20160915(第09期);全文 * |
基于搜索引擎的词汇语义相似度计算方法;陈海燕;《计算机科学》;20150115(第01期);全文 * |
基于语义分布相似度的翻译模型领域自适应研究;姚亮等;《山东大学学报(理学版)》;20160531(第07期);全文 * |
基于语义理解的文本情感分类方法研究;闻彬等;《计算机科学》;20100615(第06期);全文 * |
基于语义网分析的在线学习智能答疑方法研究;贾思宇等;《情报杂志》;20120918(第09期);全文 * |
面向特定领域的理解型中文自动文摘系统;李蕾等;《计算机研究与发展》;20000415(第04期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
WO2018074681A1 (ko) | 2018-04-26 |
EP3522036A4 (en) | 2019-10-30 |
KR102617717B1 (ko) | 2023-12-27 |
EP3522036B1 (en) | 2021-02-17 |
US20200058298A1 (en) | 2020-02-20 |
KR20180042577A (ko) | 2018-04-26 |
US11024300B2 (en) | 2021-06-01 |
CN110100244A (zh) | 2019-08-06 |
EP3522036A1 (en) | 2019-08-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110100244B (zh) | 电子装置及其控制方法 | |
CN109243432B (zh) | 话音处理方法以及支持该话音处理方法的电子设备 | |
US10986046B2 (en) | Apparatus and method for generating summary of conversation storing | |
KR102451437B1 (ko) | 크라우드 소싱에 기초해서 디지털 퍼스널 어시스턴트에 대한 언어 이해 분류기 모델을 업데이트하는 기법 | |
US20160164815A1 (en) | Terminal device and data processing method thereof | |
US11386895B2 (en) | Speech processing method and apparatus therefor | |
CN107291704B (zh) | 处理方法和装置、用于处理的装置 | |
US11972761B2 (en) | Electronic device for sharing user-specific voice command and method for controlling same | |
US10952075B2 (en) | Electronic apparatus and WiFi connecting method thereof | |
KR102345625B1 (ko) | 자막 생성 방법 및 이를 수행하는 장치 | |
US11151995B2 (en) | Electronic device for mapping an invoke word to a sequence of inputs for generating a personalized command | |
US11705110B2 (en) | Electronic device and controlling the electronic device | |
US11437024B2 (en) | Information processing method and apparatus therefor | |
US20190163436A1 (en) | Electronic device and method for controlling the same | |
KR102567003B1 (ko) | 전자 장치 및 그 동작방법 | |
US11817097B2 (en) | Electronic apparatus and assistant service providing method thereof | |
US11217249B2 (en) | Information processing method and apparatus therefor | |
KR20210001905A (ko) | 전자 장치 및 그 제어 방법 | |
KR20200129346A (ko) | 디스플레이 장치 및 이의 제어 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |