CN1708784A - 用于在手持电子设备中编辑文本的方法和系统 - Google Patents

用于在手持电子设备中编辑文本的方法和系统 Download PDF

Info

Publication number
CN1708784A
CN1708784A CNA2003801024751A CN200380102475A CN1708784A CN 1708784 A CN1708784 A CN 1708784A CN A2003801024751 A CNA2003801024751 A CN A2003801024751A CN 200380102475 A CN200380102475 A CN 200380102475A CN 1708784 A CN1708784 A CN 1708784A
Authority
CN
China
Prior art keywords
word
grammer
speech recognition
text
subclass
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA2003801024751A
Other languages
English (en)
Other versions
CN1708784B (zh
Inventor
K·哈洛南
S·萨希斯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nokia Technologies Oy
Original Assignee
Nokia Oyj
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nokia Oyj filed Critical Nokia Oyj
Publication of CN1708784A publication Critical patent/CN1708784A/zh
Application granted granted Critical
Publication of CN1708784B publication Critical patent/CN1708784B/zh
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • G10L15/19Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Document Processing Apparatus (AREA)
  • Telephonic Communication Services (AREA)
  • Stored Programmes (AREA)

Abstract

在手持电子设备(10)中使用话音命令将动态生成的小量语法(150)用于文本编辑,在所述手持电子设备中,存储器需求不允许使用大量的语法(130)。然而,所述文本使用大量语法口授(140),这些大量语法可以驻留在所述电子设备(10)或者远程站点(20)中。当编辑会话开始时,将在口授文本中的字添加到所述小量语法中(202)。照这样,可以定位要被删除或者取代的字。当话音命令调用文本修改字时,如果可能的话从所述小量语法中获取该字(216)。否则从所述大量语法中获取该字(224)。在编辑会话期间(218),当使用更多的文本修改字修改所述文本时,这些字也将被添加到所述小量语法中(226)。在编辑会话结束时,删除动态生成的所述小量语法部分(230)。

Description

用于在手持电子设备中编辑文本的方法和系统
技术领域
本发明一般涉及语音识别,尤其是涉及利用话音命令编辑被识别的文本。
技术背景
语音识别在电子设备中变得越来越普通了。利用具有多模式界面,即由语音识别能力增强的可视电话显示的移动终端,用户不仅能够使用话音命令来激活确定的电话功能,而且用户还可以通过口授(dictation)来输入诸如SMS(短消息服务)这样的文本。这样一种设备使用本地自动语音识别(ASR)引擎来处理语音或者将语音发送到驻留在网络中的远端ASR引擎。用于口授的语音识别引擎通常使用大量的语法,该语法包括好几万个字以顾及用于口授文本的合理的一系列内容和范围。例如,用户可能要发送一种烹饪法,或者表达一种政治观点。
在口授之后,很普遍的是用户将希望编辑由语音识别引擎识别和转录的文本,要么校正不准确的识别结果,要么改变内容。一般来说,终端设备不具有一个很大容量的存储器。口授和编辑处理都需要很大量的语法,在终端设备中再现这些语法是不切实际的。
应当注意在本公开内容中使用的“词汇表”称为被识别的字或者短语的列表,词汇表的子集被称为“语法”。除了字和短语之外,语法可以包括编辑规则和命令。
在桌上型或者膝上型电子设备中,诸如鼠标、操纵杆或者触模板这样的指示设备通常用于定位在文本中要被编辑的一个字或者多个字。在终端设备中,这样的指示设备可能不切实际,因而很少提供。在电话的盘(pad)上,通常提供用于定位在文本中要被编辑的字母的箭头键。然而,使用箭头键移动光标到编辑位置非常慢且不方便。因此,提供一种使用话音命令进行文本编辑的方法和系统是有优势的而且是所希望的。
为了避免使用用于语音识别的大量语法,Masters(美国专利No.6301561)公开了一种在选择无线电台时使用的分立的语音识别系统,其中少量的默认语法具有少量的第一层次的字或者话语,该第一层次的字或者话语中的每一个表示第二层次的字或者话语的一个子集。第二层次的字或者话语中的每一个表示第三层次的字或者话语的一个子集等等。当用户通过话音选择第一层次的字的其中一个时,将由所选第一层次的字表示的第二层次子集中的多个字或者话语添加到语法中,从而扩大了语法。当用户通过话音进一步选择第二层次的字的其中一个时,由所选第二层次的字表示的第三层次子集中的多个字或者话语又被添加到语法中,从而进一步扩大了语法。第二和第三层次的字或者话语被存储在词汇表中,该词汇表具有一个可由语音识别引擎识别的预定义话语的完整列表。这样,实际上用于执行功能的语法仅包括在词汇表中预定义话语的一小部分。正如在Masters中所公开的,尽管该语音识别在通过保持小量语法(small grammar)来减少语音识别所需时间方面是有用的,但是其有用性被限制到某种诸如选择无线电台这样的应用,其中预定义字或者话语的一个小集合用来识别城市,在有限的词汇表中的广播频率足以适合于这些目的。然而,有限词汇表的这种类型通常不足以编辑文本、以及难以预测的范围和内容。
因此,提供一种用于在小型电子设备中编辑文本的方法和系统是有优势的而且是所希望的,其中在该手持电子设备中,存储器需求不允许在该设备中实现大量的语法。
发明内容
本发明的主要目的是提供一种在手持电子设备中使用的文本编辑方法和系统,其中在该手持电子设备中,存储器需求不允许使用大量语法(large grammar)来进行文本编辑和其他语音识别目的。可以通过使用设备中的小量语法来实现这个目的。尽管对于口授来说通常要求大量的语法,但小量语法在编辑口授文本时会产生比大量语法更快更准确的结果。该小量语法最初包括命令字的一个预定义集合。当用户第一次口授文本时,将所有的口授字添加到该小量语法中。当用户结束口授并开始编辑时,使用该小量语法。只有在该小量语法中不能找到编辑所需的文字时,才使用大量语法。该设备还可以包括其他的预定义字集合,这些预定义字与在需要时可以被添加到该小量语法中的号码、星期几、月份、联系人姓名等相关。
此外,利用该小量语法,可以在设备中使用本地ASR(自动语音识别)引擎,而且除了在添加新字时外,不需要将话音数据发送到远程站点或移动网络。利用大量语法,远端ASR更加切实可行。
因此,根据本发明的第一方面,提供了一种在编辑会话期间在手持电子设备中修改文本的方法,该文本包括多个第三字,其中该文本的至少一部分使用第一语法进行口授,该第一语法包括多个第一字,以及其中该手持电子设备包括少于该第一语法的第二语法,该第二语法包括多个第二字用于编辑目的。该方法特征在于:
向第二语法提供第三字,以使得该第二字包括某些或者全部第三字。
优选地,第二语法包括多条话音可识别命令,以及可以激活至少其中一条话音可识别命令以修改文本,以及当被激活的话音可识别命令指定一个用于修改该文本的文本修改字时,
如果该文本修改字是第二字的其中一个,则从第二语法获取该文本修改字;否则
从第一语法中的第一字获取文本修改字。
有利地,将从第一字中获取的文本修改字包括在第二语法中,以使得该第二字还包括所述已获取的字以便进一步使用。
有利地,第一字包括与多个等级相关的字的多个子集,以及该话音可识别命令包括用于指定等级的多个等级命令,其中:
当该被激活的话音可识别命令包括其中一个等级命令时,向第二语法提供与在所述一个等级命令中指定的等级相关联的字的子集,以允许第二字进一步包括所述字的子集,以及
当该被激活的话音可识别命令还包括其中一个不同的等级命令时,向第二语法提供与在所述一个不同等级命令中指定的等级相关联的字的不同子集,以允许第二字进一步包括所述字的不同子集。
优选地,当该被激活的话音可识别命令还包括该等级命令中不同的一个等级命令时,从第二语法中删除所述字的子集以减少第二语法的尺寸。
有利地,可以将第一语法设置在手持电子设备中或者与该手持电子设备可操作地相连的远程站点中。
有利地,当第一语法被设置到远程站点中时,为了包括与该多个等级相关联的字的子集,该手持电子设备还包括一个词汇表。
有利地,第三字与多个字的位置相关联,以及该话音可识别命令包括用于指定字的位置的至少一个位置命令,以便基于所指定的字的位置来修改文本。
优选地,当终止编辑会话时,就删除在第二语法中增加的字。
根据本发明的第二方面,提供了一种具有可修改文本的手持电子设备,该可修改文本包括多个第三字,其中使用第一语法口授至少所述文本的一部分,该第一语法包括多个第一字。该设备特征在于:
话音输入模块;以及
存储器模块,可操作地与该话音输入模块相连,其中该存储器模块包括:
第二语法,其包括多个第二字和至少其中一个第三字,该第二语法少于第一语法。
有利地,该存储器模块还包括多条话音可识别命令,可以通过用于修改文本的话音输入模块来激活这些话音可识别命令,其中当被激活的话音可识别命令指定一个用于修改文本的文本修改字时,如果该文本修改字是第二字的其中一个,则从第二语法中获取该文本修改字,否则从在第一语法中的第一字获取该文本修改字。
优选地,第二字还包括从第一字中获取的文本修改字,以便进一步使用。
一旦结合附图1到4b来阅读说明书,本发明就将变得清楚。
附图说明
图1是示出了根据本发明的具有语音识别和文本编辑能力的电子设备的框图。
图2是示出了根据本发明的最佳模式的具有语音识别和文本编辑能力的电子设备的框图。
图3a是示出了在文本口授和编辑期间在小量语法中的改变的框图。
图3b是示出了小量语法不同版本的框图。
图4a是示出了根据本发明的文本编辑方法的流程图。
图4b是示出了在如图4a所示的本发明的方法中某些附加步骤的流程图段。
具体实施方式
图1是示出了根据本发明的具有语音识别和文本编辑能力的电子设备10的框图。正如所示出的,设备10具有话音输入模块110,其允许用户使用话音命令来口授和编辑文本。通过话音输入模块110输入的语音可以在本地处理、或者可以被发送到远程站点或者用于语音识别的网络。正如在图1中所示出的,在自动语音识别(ASR)引擎120中执行语音识别,该ASR使用大量的口授语法130。该大量的口授语法130通常被加载到ASR引擎120的存储器中。如果想要的话,通常就在设备10上显示识别结果或者已识别的文本140,以允许用户读取并编辑。在设备10中执行的文本格式中的小量语法150最初仅包括口授编辑命令集合,诸如“删除”和“移动”以启动该编辑过程。当识别结果开始出现时,在已识别文本中的所有字都被添加到该小量语法150中。随着口授的继续进行,该语法也逐渐增长。
如果用户想要编辑口授文本140,则用户可以通过使用一个专用话音命令或者小键盘命令来触发一个编辑模式。作为选择,编辑是一种缺省模式。为了举例说明的目的,可以通过使用下面的话音命令序列来编辑口授文本140。这里,引号中的“-”表示在话语之间的短暂停顿。
-“删除-very”,用于删除字“very”
-“移动-tomorrow-到-morning前”,用于将字“tomorrow”移到字“morning”之前
-“到-year-前添加-June”,用于将字“June”添加到字“year”之前。如果“June”尚不在该小量语法150中,则大量语法130就必须用于识别“June”。通过识别用于调用诸如“June”这样的文本修改字的“添加”命令、而不是通过诸如“删除”、“移动”这样的其他命令来触发该大量语法130的使用。话音命令“添加-June-在-year前”可以用来代替“到-year-前添加-June”。
如图1所示,设备10还包括编辑软件程序170,其使用小量语法来编辑被口授的文本140。然而,正如下面所描述的,该软件程序170也可以是小量语法150的一部分。
下面是在JSGF(Java语音语法格式)中动态构建的语法文件的一个例子。其表示在用户口授句子“This dictaion is fun”的点处的语法文件。公共规则(public rule)<edit>(编辑)是使用该口授应用程序的主要规则,其由编辑命令组成。规则<place>(位置)和<word>(字)是用于解释规则<edit>的内部规则。规则<edit>具有用于删除、移动和添加字的选项,而规则<place>通过参考被口授的字来进一步定义编辑应当发生的位置。规则<word>是语法的变化部分,收集口授的所有被识别的字。
语法编辑;
public<edit>=删除<word>
  |move<word><place>
  |go<place>添加
<place>=(before|after)<word>
<word>=<NULL>∥最初的空规则
  this       ∥首先被识别的字,在线添加
  dictation ∥第二字,当识别时添加
  is       ∥动态添加和删除行
  fun     ∥当口授进行时
基于用户用于编辑文本的命令再一次更新语法文件。一旦关闭口授和编辑会话,就会删除动态生成的语法部分,而且该语法文件将回复到原始设置,即仅包括被口授的编辑命令。
还可能在设备10中包括具有少量预定义字或者短语集合的有限的词汇表160,这些预定义的字或者短语集合诸如是用于“星期几”的字、用于“一天中的时间”的字,号码、字母表、联系人名单的姓名。照这样,可以通过特定的话音命令调用字或者短语的一个特定集合并且将其添加到小量语法中。例如,用户可以使用话音命令“激活-星期几”将“周日”、“周一”…添加到用于编辑目的的小量语法150中。这就意味着该小量语法的增长是通过编辑某口授文本所需的字来部分地确定的。仅将落入到由“激活”命令调用的某些种类中的那些字添加到该小量语法中(参见图3a和3b)。如果大量语法驻留到电子设备10当中,则词汇表160可能就是该大量语法130的一部分。
如图2所示,如果电子设备10′是移动终端等,则最好在用于编辑目的的移动终端中包括本地ASR 124。当用户口授诸如SMS消息这样的消息时,用户的语音会被发送到使用大量语法130进行语音识别的移动网络20的远程ASR 122中。识别结果作为口授文本140由远程ASR 122返回。除了驻留在小量语法150中的基本编辑命令语法之外,还在小量语法150或者词汇表160中提供用于像号码、星期几、一年的月份等这样的标准使用的一个标准语法集合。移动终端还可能具有自学习机制,通过该自学习机制,在词汇表160或者小量语法150中建立并存储来自电话联系方式数据库180的一个姓名和电话号码列表。为了编辑的目的,如果话音输入包括在小量语法150或者词汇表160中未能发现的字,则仅需要将编辑模式中的移动终端链接到网络驻留的ASR122。
因为移动终端等在存储器和处理能力方面受限制,所以最好在编辑阶段仅使用在SMS口授应用程序范围内的一个有限语法集合。出于相同的原因,可能不希望保存在一个SMS会话中动态生成的语法以便在其他以后的SMS会话中使用。所以,最好是一旦结束口授和编辑会话,就从该小量语法150中删除动态生成的语法部分,并且该语法文件回复到仅包括口授编辑命令的原始设置。
为了例示在用户和移动终端中的激活部件之间的交互作用,下面根据本发明给出SMS会话的一个例子。
实体:用户,LASR(本地ASR),RASR(远程ASR服务器)
初始步骤:
用户发起SMS应用程序。用户使用软键来激活SMS口授。SMS应用程序目前具有多模式能力,并且允许用户使用键盘和语音二者来输入文本。
编辑步骤:
I.用户:“I will be home at around 10.30 on Sunday”
  RASR:I will be home at around 10.30 on Sunday
LASR目前已构建了一个动态语法,看上去像:
<Session Gram>=I:will:be:home:at:around:10.30:on:Sunday日
用户想要编辑目前显示的文本。其按压Edit(编辑)软键。
II.用户:到10.30
光标目前定位于“10.30”之前。
III.用户:激活时间
时间语法(随电话所载运的)目前变为活动。现在无论用户说什么都将被解释为时间。如果用户想输入号码而不是时间,则他可以说类似于“激活号码”。
IV.用户:改变到11.30
本地ASR基于时间语法来识别该时间并且用“11.30”来代替“10.30”。
V.用户:到Sunday
光标目前位于“Sunday”之前。
VI.用户:激活星期几
“星期几”语法现在被激活。
VII.用户:改变到Saturday
现在由本地ASR来识别“Saturday”并且代替“Sunday”。
VIII.用户:SMS起始(表示SMS开始)
光标目前定位于“I”之前。
IX.用户:激活联系方式
联系方式语法(借助于应用程序通过使用驻留的联系方式数据库来构建)变为活动。
X.用户:添加Laura逗号
“Laura,”被添加到“I”之前。
如果用户不去激活任何预加载的语法,诸如“时间”、“星期几”等,则基于网络的ASR将被用于识别。
终止步骤:
一旦完成了SMS,用户就可以使用话音命令、键盘上的规则按键或者软键将SMS发送到一个或者多个所希望的接收者。
图3a和3b示出了在如上所述的编辑过程期间,小量语法150中的内容如何生长。如图3a所示,小量语法150a仅包括在SMS会话中进行口授之前的默认命令集合,诸如“移动”、“删除”、“激活”。当用户在步骤I对消息进行口授并且已识别的结果被返回到终端设备10′之后,小量语法150b还包括被口授的文本。
在步骤II,话音命令“到”不调用仍未包括在小量语法150b中的文本修改字。在这个步骤不需要将字添加到小量语法中。
在步骤III,话音命令“激活”调用至少一个与“时间”相关的字或者话语用于修改被口授文本。相应地,将与“时间”相关的字的一个预定义集合添加到小量语法150c中。
在步骤IV和V,不需要新的字。所以,该小量语法不会增长。
在步骤VI,话音命令“激活”调用至少一个与“星期几”相关的字或者话语用于修改被口授文本。相应地,将与“星期几”相关的字的一个预定义集合添加到小量语法150d中。
同样,在步骤IX之后,将与“联系方式”相关的字的一个预定义集合添加到小量语法150e中。
当编辑会话结束时,该小量语法回复到最初的形式150a。
正如在图3a中所能看到的,小量语法随着编辑步骤而逐渐地增长。这意味着小量语法150e总是大于或至少等于小量语法150d,小量语法150d总是大于或至少等于小量语法150c。作为选择,当使用新的“激活”话音命令时,可以在小量语法中删除响应于在先编辑步骤需求而被添加到该小量语法的预定义语法集。如图3b所示,在步骤VI,当与“星期几”相关的字的一个新预定义集合被添加到该小量语法150d中时,从该小量语法中删除与“时间”相关的字的预定义集合。同样,在步骤IX之后,小量语法150e包括与“联系方式”相关的字的预定义集合,但其不再包括在“时间”和“星期几”集合中的字。照这样,小量语法实际上不会逐渐地增长,而是根据编辑需要动态地增长。对该方案的折衷是,如果话音命令调用在先前删除集合中的文本修改字,则必须将该已删除的集合再次添加到小量语法中。
图4a和4b的流程图示出了在根据本发明的手持电子设备中使用的文本编辑方法。在口授了文本之后,将识别结果显示给用户。用户可以判定是否编辑文本。如果编辑,则如图4a的流程200所示,在步骤202开始编辑会话。在步骤202,将已识别文本添加到小量语法中。在步骤216,当用户使用话音可识别命令修改文本时,如果话音命令(诸如“移动”、“删除”、“到”)不去调用文本修改字,则在步骤218修改被口授的文本。如果编辑会话继续,则该过程环回到步骤216。然而,如步骤222所判定的,如果话音命令(诸如“添加”、“插入”、“拼出”)调用一个或多个文本修改字,则将在步骤218使用在小量语法中的文本修改字来修改文本。如果在该小量语法中不能发现文本修改字(或号码、字母表),则在步骤224从大量语法中获取文本修改字。在步骤226将所获取的字添加到小量语法中,并且在步骤218再次修改被口授的文本。该过程自身重复直到用户在步骤220想要结束编辑会话为止。当结束编辑会话时,重新设置小量语法,所以要在步骤230从小量语法中删除被添加的字,包括被口授的文本。
有利地,如图4b所示,在编辑会话中,还可以执行在步骤202到步骤216之间的多个步骤。这些步骤用于将多个字添加到用于编辑目的的小量语法中。特别是,可以将大量语法130或者词汇表160中的某些字输入到不同等级的多个子集中。例如,可以将字“Monday”、“Tuesday”…输入到与称为“星期几”的等级相关的子集中。当话音命令(等级命令)指定一个等级时,将与该等级相关联的字的子集添加到小量语法中。此外,某些话音命令,诸如“GoTo”、“Home”、“Gobefore”与文本中要被编辑的字的位置相关。这些命令被称为位置命令。当被激活的话音命令是位置命令时,光标将移到在位置命令中指定的位置。所以,如果话音命令是等级命令,如步骤208所确定的,则在步骤210将与在等级命令中指定的等级相关的字的子集添加到小量语法中。如果该话音命令是位置命令,如步骤212所确定的,则在步骤214将光标移动到如位置命令中所指定的字的位置。
总的来说,根据本发明的修改文本的方法使用动态生成的用于编辑目的的小量语法。该方法的步骤包括,为了修改文本而激活至少其中一个所述话音可识别命令。当被激活的话音可识别命令调用一个或多个文本修改字时,如果在小量语法中找到这些字,则获取它们。否则,从大量语法中获取这些字。在存储器受限的移动终端或者小型手持电子设备中,最好在诸如移动网络这样的远程站点保持大量语法。然而,在存储器足够大的电子设备中,可能在该设备中保持大量语法。无论怎样,小量语法都将被用于文本编辑,除非在该小量语法中不能找到文本修改字。
因此,尽管参照优选实施例描述了本发明,但是本领域的普通技术人员应该理解,可以进行形式和细节方面的多种前述和其他的改变、省略或者背离而不脱离本发明的范围。

Claims (23)

1.一种在编辑会话中在手持电子设备(10)中修改文本(140)的方法,所述文本包括多个第三字,其中所述文本的至少一部分使用第一语法(130)口授,所述第一语法包括多个第一字,以及其中所述手持电子设备包括少于所述第一语法的第二语法(150),所述第二语法包括多个第二字用于编辑目的,所述方法的特征在于:
向所述第二语法提供所述第三字,以使得所述第二字包括某些或者全部第三字。
2.根据权利要求1的方法,其中所述第二语法包括多条话音可识别命令,以及为了修改所述文本,可以激活所述话音可识别命令中的至少一条,所述方法的特征在于:
当被激活的话音可识别命令指定用于修改所述文本的文本修改字时,
如果所述文本修改字是所述第二字的其中一个,则从所述第二语法获取所述文本修改字,否则
从所述第一语法中的第一字获取所述文本修改字。
3.根据权利要求2的方法,进一步的特征在于:
将从所述第一字获取的所述文本修改字包括在所述第二语法中,以使得所述第二字还包括所述已获取的字以便进一步使用。
4.根据权利要求1的方法,其中所述第二语法包括多条话音可识别命令,以及为了修改所述文本,可以激活所述话音可识别命令中的至少一条,所述方法的特征在于:
所述第一字包括与多个等级相关联的字的多个子集,以及所述话音可识别命令包括用于指定至少其中一个等级的至少一个等级命令,其中当所述被激活的话音可识别命令包括所述等级命令时,向所述第二语法提供与在所述等级命令中指定的等级相关联的字的子集,以允许所述第二字进一步包括所述字的子集。
5.根据权利要求1的方法,其中所述第二语法包括多条话音可识别命令,以及为了修改所述文本,可以激活所述话音可识别命令中的至少一条,所述方法的特征在于:
所述第一字包括与多个等级相关联的字的多个子集,以及所述话音可识别命令包括用于指定等级的多个等级命令,其中
当所述被激活的话音可识别命令包括其中一个所述等级命令时,向所述第二语法提供与在所述一个等级命令中指定的等级相关联的字的子集,以允许所述第二字进一步包括所述字的子集,以及
当所述被激活的话音可识别命令还包括其中一个不同的等级命令时,向所述第二语法提供与在所述一个不同的等级命令中指定的等级相关联的字的不同子集,以允许所述第二字进一步包括所述字的不同子集。
6.根据权利要求5的方法,进一步的特征在于:
当所述被激活的话音可识别命令还包括其中一个不同的等级命令时,为了减少所述第二语法的大小,从所述第二语法中删除所述字的子集。
7.根据权利要求1的方法,其中所述手持电子设备(10)可操作地与远程站点(20)相连,所述方法进一步的特征在于:
所述第一语法被设置在所述远程站点中。
8.根据权利要求7的方法,其中所述第二语法包括多条话音可识别命令,以及为了修改所述文本,可以激活所述话音可识别命令中的至少一条,所述方法的特征在于:
所述手持电子设备(10)还包括第三语法(160),所述第三语法包括与多个等级相关联的字的多个子集,以及所述话音可识别命令包括用于将至少一个字指定到所述等级的至少一个等级命令,其中当所述被激活的话音可识别命令包括所述等级命令时,向所述第二语法提供与所述等级命令中的等级相关联的字的子集,以使得所述第二字还包括所述字的子集。
9.根据权利要求7的方法,其中所述第二语法包括多条话音可识别命令,以及为了修改所述文本,可以激活所述话音可识别命令中的至少一条,所述方法的特征在于:
所述手持电子设备(10)还包括第三语法(160),所述第三语法包括与多个等级相关联的字的多个子集,以及所述话音可识别命令包括用于指定所述等级的多个等级命令,其中
当所述被激活的话音可识别命令包括其中一个所述等级命令时,向所述第二语法提供与在所述一个等级命令中指定的等级相关联的字的子集,以使得所述第二字进一步包括所述字的子集,以及
当所述被激活的话音可识别命令还包括其中一个不同的等级命令时,向所述第二语法提供与在所述一个不同的等级命令中指定的等级相关联的字的不同子集,以使得所述第二字进一步包括所述字的不同子集。
10.根据权利要求9的方法,进一步的特征在于:
当所述被激活的话音可识别命令还包括其中一个不同的等级命令时,为了减少所述第二语法的尺寸,从所述第二语法中删除所述字的子集。
11.根据权利要求1的方法,其中所述第二语法包括多条话音可识别命令,以及为了修改所述文本,可以激活所述话音可识别命令中的至少一条,所述方法的特征在于:
所述第三字与多个字的位置相关联,以及
所述话音可识别命令包括用于指定所述字的位置的至少一个位置命令,其中
当所述至少一个被激活的话音可识别命令包括所述位置命令、并且识别至少其中一个要被取代的所述第三字时,所述文本修改字基于已指定的字的位置来取代所述至少一个已识别的第三字。
12.根据权利要求2的方法,其中所述第二语法包括多条话音可识别命令,以及为了修改所述文本,可以激活所述话音可识别命令中的至少一条,所述方法的特征在于:
所述第三字与多个字的位置相关联,以及
所述话音可识别命令包括用于指定字的位置的至少一个位置命令,以便利用在所述被指定字的位置处的文本修改字来修改所述文本,以响应被激活的话音可识别命令。
13.根据权利要求1的方法,其中所述第二语法包括多条话音可识别命令,以及为了修改所述文本,可以激活所述话音可识别命令中的至少一条,所述方法的特征在于:
所述第三字与多个字的位置相关联,以及所述话音可识别命令包括用于指定字的位置的至少一个位置命令,以便删除在所述被指定字的位置处的至少其中一个第三字,以响应所述被激活的话音可识别命令。
14.根据权利要求1的方法,包括终止所述编辑会话的步骤,所述方法的特征在于:
在所述终止步骤之后,从所述第二语法中删除所述第三字。
15.根据权利要求3的方法,包括终止所述编辑会话的步骤,所述方法的特征在于:
在所述终止步骤之后,从所述第二语法中删除所述已获取的文本修改字。
16.根据权利要求4的方法,包括终止所述编辑会话的步骤,所述方法的特征在于:
在所述终止步骤之后,从所述第二语法中删除所述字的子集。
17.根据权利要求8的方法,包括终止所述编辑会话的步骤,所述方法的特征在于:
在所述终止步骤之后,从所述第二语法中删除所述字的子集。
18.一种具有可修改文本(140)的手持电子设备(10),所述可修改文本包括多个第三字,其中至少所述文本的一部分使用第一语法(130)口授,所述第一语法包括多个第一字,所述设备的特征在于:
话音输入模块;以及
存储器模块,可操作地与所述话音输入模块相连,其中所述存储器模块包括:
第二语法,其包括多个第二字和至少其中一个第三字,所述第二语法少于所述第一语法。
19.根据权利要求18的手持电子设备,其中所述第一语法被包括在所述存储器模块中。
20.根据权利要求18的手持电子设备,其中所述存储器模块还包括多条话音可识别命令,可以通过所述话音输入模块来激活这些话音可识别命令以便修改文本,其中
当所述被激活的话音可识别命令指定一个文本修改字用于修改所述文本时,如果所述文本修改字是第二字的其中一个,则从所述第二语法中获取所述文本修改字,否则从在所述第一语法中的所述第一字中获取所述文本修改字。
21.根据权利要求20的手持电子设备,其中所述第二字还包括从所述第一字获取文本修改字以便进一步使用。
22.根据权利要求20的手持电子设备,其中将所述第一语法设置在远程站点中,所述远程站点可操作地与所述手持电子设备相连,以允许从在所述第一语法中的所述第一字获取所述文本修改字。
23.根据权利要求22的手持电子设备,进一步包括第三语法(160),所述第三语法包括与多个等级相关联的字的多个子集,其中
所述话音可识别命令包括用于指定至少其中一个所述等级的至少一个等级命令,以及当
所述被激活的话音可识别命令包括所述等级命令时,向所述第二语法提供与在所述等级命令中指定的所述等级相关联的字的子集,以使得所述第二字进一步包括所述字的子集。
CN2003801024751A 2002-10-29 2003-10-24 用于在手持电子设备中编辑文本的方法和系统 Expired - Lifetime CN1708784B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US10/284,997 US7003457B2 (en) 2002-10-29 2002-10-29 Method and system for text editing in hand-held electronic device
US10/284,997 2002-10-29
PCT/IB2003/004715 WO2004040551A1 (en) 2002-10-29 2003-10-21 Method and system for text editing in hand-held electronic device

Publications (2)

Publication Number Publication Date
CN1708784A true CN1708784A (zh) 2005-12-14
CN1708784B CN1708784B (zh) 2012-05-30

Family

ID=32107600

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2003801024751A Expired - Lifetime CN1708784B (zh) 2002-10-29 2003-10-24 用于在手持电子设备中编辑文本的方法和系统

Country Status (8)

Country Link
US (1) US7003457B2 (zh)
EP (1) EP1556855B1 (zh)
KR (1) KR100734409B1 (zh)
CN (1) CN1708784B (zh)
AT (1) ATE452399T1 (zh)
DE (1) DE60330591D1 (zh)
ES (1) ES2334907T3 (zh)
WO (1) WO2004040551A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103177724A (zh) * 2013-03-19 2013-06-26 华为终端有限公司 语音控制文本操作的方法、装置及终端
CN103714048A (zh) * 2012-09-29 2014-04-09 国际商业机器公司 用于校正文本的方法和系统
CN110321534A (zh) * 2018-03-28 2019-10-11 科大讯飞股份有限公司 一种文本编辑方法、装置、设备及可读存储介质

Families Citing this family (86)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7003463B1 (en) 1998-10-02 2006-02-21 International Business Machines Corporation System and method for providing network coordinated conversational services
US7366673B2 (en) 2001-06-15 2008-04-29 International Business Machines Corporation Selective enablement of speech recognition grammars
AU2003214512A1 (en) * 2003-04-07 2004-11-01 Nokia Corporation Method and device for providing speech-enabled input in an electronic device having a user interface
JP4466564B2 (ja) * 2003-09-08 2010-05-26 日本電気株式会社 文書作成閲覧装置、文書作成閲覧ロボットおよび文書作成閲覧プログラム
US9083798B2 (en) * 2004-12-22 2015-07-14 Nuance Communications, Inc. Enabling voice selection of user preferences
US7917365B2 (en) 2005-06-16 2011-03-29 Nuance Communications, Inc. Synchronizing visual and speech events in a multimodal application
US8090584B2 (en) * 2005-06-16 2012-01-03 Nuance Communications, Inc. Modifying a grammar of a hierarchical multimodal menu in dependence upon speech command frequency
US20060287865A1 (en) * 2005-06-16 2006-12-21 Cross Charles W Jr Establishing a multimodal application voice
US20060287858A1 (en) * 2005-06-16 2006-12-21 Cross Charles W Jr Modifying a grammar of a hierarchical multimodal menu with keywords sold to customers
US8073700B2 (en) 2005-09-12 2011-12-06 Nuance Communications, Inc. Retrieval and presentation of network service results for mobile device using a multimodal browser
US8719034B2 (en) 2005-09-13 2014-05-06 Nuance Communications, Inc. Displaying speech command input state information in a multimodal browser
WO2007066433A1 (ja) * 2005-12-07 2007-06-14 Mitsubishi Electric Corporation 音声認識装置
US20070274297A1 (en) * 2006-05-10 2007-11-29 Cross Charles W Jr Streaming audio from a full-duplex network through a half-duplex device
US7848314B2 (en) * 2006-05-10 2010-12-07 Nuance Communications, Inc. VOIP barge-in support for half-duplex DSR client on a full-duplex network
US9208785B2 (en) * 2006-05-10 2015-12-08 Nuance Communications, Inc. Synchronizing distributed speech recognition
US7676371B2 (en) 2006-06-13 2010-03-09 Nuance Communications, Inc. Oral modification of an ASR lexicon of an ASR engine
US8332218B2 (en) 2006-06-13 2012-12-11 Nuance Communications, Inc. Context-based grammars for automated speech recognition
US8374874B2 (en) 2006-09-11 2013-02-12 Nuance Communications, Inc. Establishing a multimodal personality for a multimodal application in dependence upon attributes of user interaction
US8145493B2 (en) * 2006-09-11 2012-03-27 Nuance Communications, Inc. Establishing a preferred mode of interaction between a user and a multimodal application
US8073697B2 (en) 2006-09-12 2011-12-06 International Business Machines Corporation Establishing a multimodal personality for a multimodal application
US7957976B2 (en) 2006-09-12 2011-06-07 Nuance Communications, Inc. Establishing a multimodal advertising personality for a sponsor of a multimodal application
US8086463B2 (en) 2006-09-12 2011-12-27 Nuance Communications, Inc. Dynamically generating a vocal help prompt in a multimodal application
WO2008067562A2 (en) * 2006-11-30 2008-06-05 Rao Ashwin P Multimodal speech recognition system
US9830912B2 (en) 2006-11-30 2017-11-28 Ashwin P Rao Speak and touch auto correction interface
US7827033B2 (en) 2006-12-06 2010-11-02 Nuance Communications, Inc. Enabling grammars in web page frames
US20080154604A1 (en) * 2006-12-22 2008-06-26 Nokia Corporation System and method for providing context-based dynamic speech grammar generation for use in search applications
US8069047B2 (en) * 2007-02-12 2011-11-29 Nuance Communications, Inc. Dynamically defining a VoiceXML grammar in an X+V page of a multimodal application
US8150698B2 (en) * 2007-02-26 2012-04-03 Nuance Communications, Inc. Invoking tapered prompts in a multimodal application
US7801728B2 (en) 2007-02-26 2010-09-21 Nuance Communications, Inc. Document session replay for multimodal applications
US9208783B2 (en) * 2007-02-27 2015-12-08 Nuance Communications, Inc. Altering behavior of a multimodal application based on location
US20080208586A1 (en) * 2007-02-27 2008-08-28 Soonthorn Ativanichayaphong Enabling Natural Language Understanding In An X+V Page Of A Multimodal Application
US7809575B2 (en) * 2007-02-27 2010-10-05 Nuance Communications, Inc. Enabling global grammars for a particular multimodal application
US8713542B2 (en) * 2007-02-27 2014-04-29 Nuance Communications, Inc. Pausing a VoiceXML dialog of a multimodal application
US8938392B2 (en) * 2007-02-27 2015-01-20 Nuance Communications, Inc. Configuring a speech engine for a multimodal application based on location
US7822608B2 (en) * 2007-02-27 2010-10-26 Nuance Communications, Inc. Disambiguating a speech recognition grammar in a multimodal application
US7840409B2 (en) * 2007-02-27 2010-11-23 Nuance Communications, Inc. Ordering recognition results produced by an automatic speech recognition engine for a multimodal application
US8949266B2 (en) 2007-03-07 2015-02-03 Vlingo Corporation Multiple web-based content category searching in mobile search application
US10056077B2 (en) * 2007-03-07 2018-08-21 Nuance Communications, Inc. Using speech recognition results based on an unstructured language model with a music system
US8886545B2 (en) 2007-03-07 2014-11-11 Vlingo Corporation Dealing with switch latency in speech recognition
US8843376B2 (en) * 2007-03-13 2014-09-23 Nuance Communications, Inc. Speech-enabled web content searching using a multimodal browser
US7945851B2 (en) * 2007-03-14 2011-05-17 Nuance Communications, Inc. Enabling dynamic voiceXML in an X+V page of a multimodal application
US8515757B2 (en) * 2007-03-20 2013-08-20 Nuance Communications, Inc. Indexing digitized speech with words represented in the digitized speech
US8670987B2 (en) * 2007-03-20 2014-03-11 Nuance Communications, Inc. Automatic speech recognition with dynamic grammar rules
US20080235029A1 (en) * 2007-03-23 2008-09-25 Cross Charles W Speech-Enabled Predictive Text Selection For A Multimodal Application
US8909532B2 (en) * 2007-03-23 2014-12-09 Nuance Communications, Inc. Supporting multi-lingual user interaction with a multimodal application
US8788620B2 (en) * 2007-04-04 2014-07-22 International Business Machines Corporation Web service support for a multimodal client processing a multimodal application
US8862475B2 (en) * 2007-04-12 2014-10-14 Nuance Communications, Inc. Speech-enabled content navigation and control of a distributed multimodal browser
US8725513B2 (en) * 2007-04-12 2014-05-13 Nuance Communications, Inc. Providing expressive user interaction with a multimodal application
US8457946B2 (en) * 2007-04-26 2013-06-04 Microsoft Corporation Recognition architecture for generating Asian characters
KR20090020265A (ko) * 2007-08-23 2009-02-26 삼성전자주식회사 휴대 단말기 및 그 메시지 작성 방법
US9349367B2 (en) * 2008-04-24 2016-05-24 Nuance Communications, Inc. Records disambiguation in a multimodal application operating on a multimodal device
US8082148B2 (en) 2008-04-24 2011-12-20 Nuance Communications, Inc. Testing a grammar used in speech recognition for reliability in a plurality of operating environments having different background noise
US8229081B2 (en) * 2008-04-24 2012-07-24 International Business Machines Corporation Dynamically publishing directory information for a plurality of interactive voice response systems
US8121837B2 (en) 2008-04-24 2012-02-21 Nuance Communications, Inc. Adjusting a speech engine for a mobile computing device based on background noise
US8214242B2 (en) * 2008-04-24 2012-07-03 International Business Machines Corporation Signaling correspondence between a meeting agenda and a meeting discussion
US9922640B2 (en) 2008-10-17 2018-03-20 Ashwin P Rao System and method for multimodal utterance detection
US8380513B2 (en) * 2009-05-19 2013-02-19 International Business Machines Corporation Improving speech capabilities of a multimodal application
US8290780B2 (en) 2009-06-24 2012-10-16 International Business Machines Corporation Dynamically extending the speech prompts of a multimodal application
US8510117B2 (en) * 2009-07-09 2013-08-13 Nuance Communications, Inc. Speech enabled media sharing in a multimodal application
US8416714B2 (en) * 2009-08-05 2013-04-09 International Business Machines Corporation Multimodal teleconferencing
US8494852B2 (en) * 2010-01-05 2013-07-23 Google Inc. Word-level correction of speech input
US9292161B2 (en) * 2010-03-24 2016-03-22 Microsoft Technology Licensing, Llc Pointer tool with touch-enabled precise placement
US8704783B2 (en) 2010-03-24 2014-04-22 Microsoft Corporation Easy word selection and selection ahead of finger
US9953653B2 (en) * 2011-01-07 2018-04-24 Nuance Communications, Inc. Configurable speech recognition system using multiple recognizers
WO2012161359A1 (ko) * 2011-05-24 2012-11-29 엘지전자 주식회사 사용자 인터페이스 방법 및 장치
US9317196B2 (en) 2011-08-10 2016-04-19 Microsoft Technology Licensing, Llc Automatic zooming for text selection/cursor placement
CN103186523B (zh) * 2011-12-30 2017-05-10 富泰华工业(深圳)有限公司 电子设备及其自然语言分析方法
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
WO2014055076A1 (en) 2012-10-04 2014-04-10 Nuance Communications, Inc. Improved hybrid controller for asr
US9190057B2 (en) 2012-12-12 2015-11-17 Amazon Technologies, Inc. Speech model retrieval in distributed speech recognition systems
US9390079B1 (en) 2013-05-10 2016-07-12 D.R. Systems, Inc. Voice commands for report editing
WO2015093655A1 (ko) * 2013-12-19 2015-06-25 주식회사 큐키 전자 장치, 문자 수정 방법 및 이를 수행하기 위한 프로그램을 포함하는 컴퓨터로 판독 가능한 기록매체
WO2015093656A1 (ko) * 2013-12-19 2015-06-25 주식회사 큐키 전자 장치, 오타 수정 방법 및 이를 수행하기 위한 프로그램을 포함하는 컴퓨터로 판독 가능한 기록매체
US9448991B2 (en) * 2014-03-18 2016-09-20 Bayerische Motoren Werke Aktiengesellschaft Method for providing context-based correction of voice recognition results
CN105869632A (zh) * 2015-01-22 2016-08-17 北京三星通信技术研究有限公司 基于语音识别的文本修订方法和装置
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
JP2016181018A (ja) * 2015-03-23 2016-10-13 ソニー株式会社 情報処理システムおよび情報処理方法
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US10971157B2 (en) 2017-01-11 2021-04-06 Nuance Communications, Inc. Methods and apparatus for hybrid speech recognition processing
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK179560B1 (en) 2017-05-16 2019-02-18 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5027406A (en) * 1988-12-06 1991-06-25 Dragon Systems, Inc. Method for interactive speech recognition and training
DE4412930A1 (de) * 1994-04-15 1995-10-19 Philips Patentverwaltung Verfahren zum Ermitteln einer Folge von Wörtern
US5875448A (en) * 1996-10-08 1999-02-23 Boys; Donald R. Data stream editing system including a hand-held voice-editing apparatus having a position-finding enunciator
US6665639B2 (en) * 1996-12-06 2003-12-16 Sensory, Inc. Speech recognition in consumer electronic products
US5909667A (en) * 1997-03-05 1999-06-01 International Business Machines Corporation Method and apparatus for fast voice selection of error words in dictated text
AU758006B2 (en) * 1997-05-06 2003-03-13 Speechworks International, Inc. System and method for developing interactive speech applications
US6301560B1 (en) * 1998-01-05 2001-10-09 Microsoft Corporation Discrete speech recognition system with ballooning active grammar
KR100308274B1 (ko) * 1998-09-22 2001-11-15 구자홍 가변어휘인식시스템
WO2000043990A1 (en) * 1999-01-05 2000-07-27 Koninklijke Philips Electronics N.V. Speech recognition device including a sub-word memory
WO2000058946A1 (en) * 1999-03-26 2000-10-05 Koninklijke Philips Electronics N.V. Client-server speech recognition
US6360201B1 (en) * 1999-06-08 2002-03-19 International Business Machines Corp. Method and apparatus for activating and deactivating auxiliary topic libraries in a speech dictation system
CN1315721A (zh) * 2000-03-23 2001-10-03 韦尔博泰克有限公司 客户服务器语音信息传送系统与方法
US6912498B2 (en) * 2000-05-02 2005-06-28 Scansoft, Inc. Error correction in speech recognition by correcting text around selected area
KR100427681B1 (ko) * 2000-06-19 2004-04-27 인터내셔널 비지네스 머신즈 코포레이션 분산 데이터 처리 시스템에 있어서 동적 문서 생성용콤포넌트 모델 정의 장치 및 방법

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103714048A (zh) * 2012-09-29 2014-04-09 国际商业机器公司 用于校正文本的方法和系统
US9484031B2 (en) 2012-09-29 2016-11-01 International Business Machines Corporation Correcting text with voice processing
US9502036B2 (en) 2012-09-29 2016-11-22 International Business Machines Corporation Correcting text with voice processing
CN103714048B (zh) * 2012-09-29 2017-07-21 国际商业机器公司 用于校正文本的方法和系统
CN103177724A (zh) * 2013-03-19 2013-06-26 华为终端有限公司 语音控制文本操作的方法、装置及终端
CN110321534A (zh) * 2018-03-28 2019-10-11 科大讯飞股份有限公司 一种文本编辑方法、装置、设备及可读存储介质
CN110321534B (zh) * 2018-03-28 2023-11-24 科大讯飞股份有限公司 一种文本编辑方法、装置、设备及可读存储介质

Also Published As

Publication number Publication date
KR20050061571A (ko) 2005-06-22
ATE452399T1 (de) 2010-01-15
EP1556855A4 (en) 2006-01-18
US7003457B2 (en) 2006-02-21
WO2004040551A8 (en) 2004-08-26
ES2334907T3 (es) 2010-03-17
EP1556855B1 (en) 2009-12-16
EP1556855A1 (en) 2005-07-27
US20040083109A1 (en) 2004-04-29
KR100734409B1 (ko) 2007-07-03
DE60330591D1 (de) 2010-01-28
CN1708784B (zh) 2012-05-30
WO2004040551A1 (en) 2004-05-13

Similar Documents

Publication Publication Date Title
CN1708784A (zh) 用于在手持电子设备中编辑文本的方法和系统
CN101164102B (zh) 自动扩展移动通信设备的话音词汇的方法和装置
CN1249667C (zh) 声控服务
CN1761959A (zh) 在移动电话系统中存储和检索多媒体数据和相关注释数据
CN1711586A (zh) 声音识别用辞典编制装置和声音识别装置
CN1260931A (zh) 带有位置图标的主叫线路识别
CN1287269C (zh) 信息终端设备和操作支持方法
CN1290901A (zh) 用于提供随机输入源生成的文本的替换方式的方法和系统
CN1591315A (zh) 用于高级交互接口的语义对象同步理解
CN101032155A (zh) 用于在通信设备中帮助选择联系人的装置和方法
CN1703923A (zh) 一种便携式数字移动通讯设备及其语音控制方法和系统
CN1610874A (zh) 移动通信装置、移动通信装置的显示控制方法及其程序
CN1788481A (zh) 移动通信装置外壳及其操作方法
CN1274440A (zh) 信息处理装置和方法、及信息提供媒体
CN1798170A (zh) 用于在无线终端中处理日程相关事件的设备和方法
CN1685303A (zh) 在电子装置的用户界面中输入单词的方法及装置
CN1622055A (zh) 用于移动终端的应用数据管理方法和其中使用的移动终端
CN105391730A (zh) 一种信息反馈方法、装置及系统
CN1677418A (zh) 电子邮件创建装置及其方法、程序和便携式终端
CN1759390A (zh) 使用浏览器上载文件
CN1592329A (zh) 便携式终端设备及用于指定其功能的方法和程序
CN1263327C (zh) 带有自适应用户接口的移动电话
CN1734446A (zh) 信息设备远程操作系统和信息设备
CN1829364A (zh) 通信终端以及对该通信终端插入符号的方法
CN101043347A (zh) 备忘录业务实现系统、实现方法及备忘录应用服务器

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CI01 Publication of corrected invention patent application

Correction item: Application Date

Correct: 20031021

False: 20031024

Number: 22

Volume: 28

CI03 Correction of invention patent

Correction item: Application Date

Correct: 20031021

False: 20031024

Number: 22

Page: The title page

Volume: 28

ERR Gazette correction

Free format text: CORRECT: APPLICATION DATE; FROM: 2003.10.24 TO: 2003.10.21

C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20160113

Address after: Espoo, Finland

Patentee after: NOKIA TECHNOLOGIES OY

Address before: Espoo, Finland

Patentee before: NOKIA Corp.

CX01 Expiry of patent term
CX01 Expiry of patent term

Granted publication date: 20120530