RU2004120266A - Совместное использование пошагового языка разметки и объектно ориентированного инструментального средства разработки - Google Patents
Совместное использование пошагового языка разметки и объектно ориентированного инструментального средства разработки Download PDFInfo
- Publication number
- RU2004120266A RU2004120266A RU2004120266/09A RU2004120266A RU2004120266A RU 2004120266 A RU2004120266 A RU 2004120266A RU 2004120266/09 A RU2004120266/09 A RU 2004120266/09A RU 2004120266 A RU2004120266 A RU 2004120266A RU 2004120266 A RU2004120266 A RU 2004120266A
- Authority
- RU
- Russia
- Prior art keywords
- field
- computer
- readable medium
- module
- recognition
- Prior art date
Links
- 238000000034 method Methods 0.000 claims 14
- 230000009977 dual effect Effects 0.000 claims 1
- 230000007717 exclusion Effects 0.000 claims 1
- 230000000977 initiatory effect Effects 0.000 claims 1
- 230000002452 interceptive effect Effects 0.000 claims 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/60—Software deployment
- G06F8/65—Updates
- G06F8/656—Updates while running
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/487—Arrangements for providing information services, e.g. recorded voice services or time announcements
- H04M3/493—Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
- H04M1/72445—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for supporting Internet browser applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/74—Details of telephonic subscriber devices with voice recognition means
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Signal Processing (AREA)
- Computer Security & Cryptography (AREA)
- General Health & Medical Sciences (AREA)
- Telephonic Communication Services (AREA)
- User Interface Of Digital Computer (AREA)
- Machine Translation (AREA)
Claims (38)
1. Машиночитаемый носитель, имеющий команды, которые при исполнении на компьютере, предписывают компьютеру обрабатывать информацию, причем команды содержат пошаговый модуль, включающий в себя команды, исполняемые в определенном порядке на основании алгоритма выполнения; и объектно ориентированный модуль, включающий в себя по меньшей мере один объект, имеющий временной триггер для инициализации операции, ассоциированной с командами.
2. Машиночитаемый носитель по п.1, в котором алгоритм выполнения автоматически вызывает временной триггер, когда встречается по меньшей мере один объект.
3. Машиночитаемый носитель по п.1, в котором пошаговый модуль является модулем расширенного языка разметки для речи (VoiceXML), выполняющим алгоритм интерпретации формы.
4. Машиночитаемый носитель по п.1, в котором объектно ориентированный модуль является модулем спецификации языковых тэгов для речевых приложений (SALT), имеющим языковые тэги речевых приложений.
5. Машиночитаемый носитель по п.1, в котором временной триггер инициализирует событие распознавания речи.
6. Машиночитаемый носитель по п.1, в котором временной триггер инициализирует событие распознавания двухтонального многочастотного набора телефонного номера (DTMF).
7. Машиночитаемый носитель по п.1, в котором временной триггер инициализирует событие отправки сообщения.
8. Машиночитаемый носитель по п.1, в котором пошаговый модуль объявляет первое поле и второе поле, и в котором объектно ориентированный модуль инициализирует событие распознавания для получения речевых входных данных от пользователя и заполняет первое поле первой частью речевых входных данных и заполняет второе поле второй частью речевых входных данных.
9. Машиночитаемый носитель по п.8, в котором с первым полем ассоциирована первая грамматика, а со вторым полем ассоциирована вторая грамматика.
10. Машиночитаемый носитель по п.1, в котором объектно ориентированный модуль инициализирует событие распознавания, имеющее множество грамматик, для получения результата распознавания и ассоциирует результат распознавания с по меньшей мере одной из упомянутого множества грамматик.
11. Машиночитаемый носитель по п.1, в котором пошаговый модуль объявляет первое поле и второе поле, и в котором объектно ориентированный модуль инициализирует событие распознавания для получения входных данных, имеющих речевые входные данные и входные данные DTMF от пользователя, и ассоциирует речевые входные данные с первым полем, а входные данные DTMF со вторым полем.
12. Машиночитаемый носитель по п.1, в котором пошаговый модуль объявляет поле, и в котором объектно ориентированный модуль инициализирует событие распознавания для получения результата распознавания от пользователя для заполнения поля и выполняет приглашение для воспроизведения этого поля пользователю.
13. Машиночитаемый носитель по п.1, в котором объектно ориентированный модуль выполняет событие отправки сообщения для соединения с удаленным приложением.
14. Машиночитаемый носитель по п.13, в котором объектно ориентированный модуль принимает результат на основании события отправки сообщения и воспроизводит этот результат пользователю.
15. Машиночитаемый носитель по п.1, в котором алгоритм выполнения автоматически переходит к последующей команде после завершения операции.
16. Машиночитаемый носитель по п.1, в котором триггер представляет собой одно из индикации ошибки, исключения, распознавания и нераспознавания.
17. Машиночитаемый носитель по п.1, в котором триггер представляет собой завершение команды воспроизведения.
18. Машиночитаемый носитель по п.1, в котором триггер представляет собой прием сообщения.
19. Машиночитаемый носитель, имеющий страницу разметки, исполняемую компьютером, которая при исполнении предписывает компьютеру обрабатывать информацию, причем страница разметки содержит модуль расширяемого языка для речи (VoiceXML), имеющий исполняемые команды VoiceXML; и модуль спецификации языковых тэгов для речевых приложений (SALT), имеющий языковые тэги речевых приложений для исполнения команд, ассоциированных с модулем VoiceXML.
20. Машиночитаемый носитель по п.19, в котором модуль VoiceXML объявляет первое поле и второе поле, и в котором модуль SALT инициализирует событие распознавания для получения речевых входных данных от пользователя и заполняет первое поле VoiceXML первой частью речевых входных данных и заполняет второе поле VoiceXML второй частью речевых входных данных.
21. Машиночитаемый носитель по п.20, в котором с первым полем VoiceXML ассоциирована первая грамматика, а со вторым полем VoiceXML ассоциирована вторая грамматика.
22. Машиночитаемый носитель по п.19, в котором модуль SALT инициализирует событие распознавания, имеющее множество грамматик, для получения результата распознавания и ассоциирует результат распознавания с по меньшей мере одной из упомянутого множества грамматик.
23. Машиночитаемый носитель по п.19, в котором модуль VoiceXML объявляет первое поле и второе поле, и в котором модуль SALT инициализирует событие распознавания для получения входных данных, имеющих речевые входные данные и входные данные двухтонального многочастотного набора телефонного номера (DTMF) от пользователя, и ассоциирует речевые входные данные с первым полем, а входные данные DTMF со вторым полем.
24. Машиночитаемый носитель по п.19, в котором модуль VoiceXML объявляет поле, и в котором модуль SALT инициализирует событие распознавания для получения результата распознавания от пользователя для заполнения этого поля и выполняет приглашение в странице разметки для воспроизведения данного поля пользователю.
25. Машиночитаемый носитель по п.19, в котором модуль SALT выполняет событие отправки сообщения для соединения с удаленным приложением.
26. Машиночитаемый носитель по п.25, в котором модуль SALT принимает результат на основании события отправки сообщения и воспроизводит этот результат пользователю.
27. Способ обеспечения интерактивного пользовательского интерфейса, содержащий этапы, на которых создают пошаговый диалог, исполняющий команды в определенном порядке, причём упомянутые команды включают в себя объекты для обработки событий, ассоциированных с по меньшей мере одним из распознавания, приглашения и отправки сообщения; и выполняют объектно ориентированную операцию, когда встречается объект, ассоциированный с командами, для обеспечения по меньшей мере одного, но не всех из событий в диалоге, ассоциированных с распознаванием, приглашением и сообщением.
28. Способ по п.27, в котором объектно ориентированная операция является событием распознавания речи.
29. Способ по п.27, в котором объектно ориентированная операция является событием распознавания двухтонального многочастотного набора телефонного номера (DTMF).
30. Способ по п.27, в котором пошаговый диалог воплощают в модуле расширяемого языка разметки для речи (VoiceXML).
31. Способ по п.27, в котором объектно ориентированную операцию воплощают в модуле спецификации языковых тэгов речевых приложений (SALT).
32. Способ по п.27, в котором при создании пошагового диалога объявляют первое поле и второе поле, а выполнение объектно ориентированной операции включает в себя событие распознавания, которое получает речевые входные данные от пользователя и заполняет поле первой частью речевых входных данных и заполняет второе поле второй частью речевых входных данных.
33. Способ по п.32, в котором выполнение операции дополнительно инициирует первую грамматику, ассоциированную с первым полем, и вторую грамматику, ассоциированную со вторым полем.
34. Способ по п.27, в котором операция инициализирует событие распознавания, имеющее множество грамматик, для получения результата распознавания и ассоциирует результат распознавания с по меньшей мере одной из множества грамматик.
35. Способ по п.27, в котором при создании пошагового диалога объявляют первое поле и второе поле, и в котором выполнение объектно ориентированной операции включает в себя инициализацию события распознавания для получения входных данных, имеющих речевые входные данные и входные данные DTMF от пользователя, и ассоциирует речевые входные данные с первым полем, а входные данные DTMF со вторым полем.
36. Способ по п.27, в котором при создании пошагового диалога объявляют поле, и в котором выполнение объектно ориентированной операции включает в себя инициализацию события распознавания для получения результата распознавания от пользователя для заполнения поля и выполнения приглашения для воспроизведения поля пользователю.
37. Способ по п.27, в котором операция является событием отправки сообщения для соединения с удаленным приложением.
38. Способ по п.37, в котором операция дополнительно принимает результат на основании события отправки сообщения и воспроизводит этот результат пользователю.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US10/613,631 | 2003-07-03 | ||
US10/613,631 US7729919B2 (en) | 2003-07-03 | 2003-07-03 | Combining use of a stepwise markup language and an object oriented development tool |
Publications (2)
Publication Number | Publication Date |
---|---|
RU2004120266A true RU2004120266A (ru) | 2006-01-10 |
RU2379745C2 RU2379745C2 (ru) | 2010-01-20 |
Family
ID=33490844
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2004120266/09A RU2379745C2 (ru) | 2003-07-03 | 2004-07-02 | Совместное использование пошагового языка разметки и объектно ориентированного инструментального средства разработки |
Country Status (10)
Country | Link |
---|---|
US (1) | US7729919B2 (ru) |
EP (1) | EP1501268A1 (ru) |
JP (1) | JP2005025760A (ru) |
KR (1) | KR101098716B1 (ru) |
CN (1) | CN100576171C (ru) |
AU (1) | AU2004202630A1 (ru) |
BR (1) | BRPI0402462A (ru) |
CA (1) | CA2471292C (ru) |
MX (1) | MXPA04006532A (ru) |
RU (1) | RU2379745C2 (ru) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2504829C2 (ru) * | 2008-04-01 | 2014-01-20 | Майкрософт Корпорейшн | Системы и способы для управления мультимедийными операциями в удаленных сеансах |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8849892B2 (en) * | 2004-06-10 | 2014-09-30 | Verizon Patent And Licensing Inc. | Method and system for brokering messages in a distributed system |
US7986954B1 (en) * | 2004-06-25 | 2011-07-26 | Nortel Networks Limited | Wireless communication network having a broadcast system for information distribution |
US7739117B2 (en) * | 2004-09-20 | 2010-06-15 | International Business Machines Corporation | Method and system for voice-enabled autofill |
US7630900B1 (en) * | 2004-12-01 | 2009-12-08 | Tellme Networks, Inc. | Method and system for selecting grammars based on geographic information associated with a caller |
US7805704B2 (en) * | 2005-03-08 | 2010-09-28 | Microsoft Corporation | Development framework for mixing semantics-driven and state-driven dialog |
US20070115920A1 (en) * | 2005-10-18 | 2007-05-24 | Microsoft Corporation | Dialog authoring and execution framework |
US7814501B2 (en) * | 2006-03-17 | 2010-10-12 | Microsoft Corporation | Application execution in a network based environment |
US8632636B1 (en) * | 2006-07-18 | 2014-01-21 | Oral Health Technologies, LLC | Wet wiper articles and methods for cleaning removable dental appliances |
US8417529B2 (en) * | 2006-12-27 | 2013-04-09 | Nuance Communications, Inc. | System and methods for prompting user speech in multimodal devices |
WO2009105652A2 (en) * | 2008-02-22 | 2009-08-27 | Vocollect, Inc. | Voice-activated emergency medical services communication and documentation system |
US8255225B2 (en) | 2008-08-07 | 2012-08-28 | Vocollect Healthcare Systems, Inc. | Voice assistant system |
US20110113352A1 (en) * | 2009-11-06 | 2011-05-12 | Research In Motion Limited | Portable electronic device and method of web page rendering |
US20110109634A1 (en) * | 2009-11-06 | 2011-05-12 | Research In Motion Limited | Portable electronic device and method of information rendering on portable electronic device |
US9485330B2 (en) | 2012-07-30 | 2016-11-01 | Tencent Technology (Shenzhen) Company Limited | Web browser operation method and system |
CN103577444B (zh) * | 2012-07-30 | 2017-04-05 | 腾讯科技(深圳)有限公司 | 一种操控浏览器的方法及系统 |
US9953646B2 (en) | 2014-09-02 | 2018-04-24 | Belleau Technologies | Method and system for dynamic speech recognition and tracking of prewritten script |
US10199041B2 (en) * | 2014-12-30 | 2019-02-05 | Honeywell International Inc. | Speech recognition systems and methods for maintenance repair and overhaul |
US11340925B2 (en) | 2017-05-18 | 2022-05-24 | Peloton Interactive Inc. | Action recipes for a crowdsourced digital assistant system |
EP3635578A4 (en) | 2017-05-18 | 2021-08-25 | Aiqudo, Inc. | SYSTEMS AND PROCEDURES FOR CRWODSOURCING ACTIONS AND COMMANDS |
US11043206B2 (en) | 2017-05-18 | 2021-06-22 | Aiqudo, Inc. | Systems and methods for crowdsourced actions and commands |
US10838746B2 (en) | 2017-05-18 | 2020-11-17 | Aiqudo, Inc. | Identifying parameter values and determining features for boosting rankings of relevant distributable digital assistant operations |
US11056105B2 (en) * | 2017-05-18 | 2021-07-06 | Aiqudo, Inc | Talk back from actions in applications |
US10768954B2 (en) | 2018-01-30 | 2020-09-08 | Aiqudo, Inc. | Personalized digital assistant device and related methods |
US10991369B1 (en) * | 2018-01-31 | 2021-04-27 | Progress Software Corporation | Cognitive flow |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05502539A (ja) | 1990-09-19 | 1993-04-28 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 主データファイル及び制御ファイルが記録された記録担体、その記録方法及び装置、及びその読取装置 |
US6119151A (en) * | 1994-03-07 | 2000-09-12 | International Business Machines Corp. | System and method for efficient cache management in a distributed file system |
WO1997033221A2 (en) * | 1996-03-05 | 1997-09-12 | Philips Electronics N.V. | Transaction system based on a bidirectional speech channel through status graph building and problem detection for thereupon providing feedback to a human user person |
US6236967B1 (en) * | 1998-06-19 | 2001-05-22 | At&T Corp. | Tone and speech recognition in communications systems |
US6246983B1 (en) * | 1998-08-05 | 2001-06-12 | Matsushita Electric Corporation Of America | Text-to-speech e-mail reader with multi-modal reply processor |
US6314402B1 (en) * | 1999-04-23 | 2001-11-06 | Nuance Communications | Method and apparatus for creating modifiable and combinable speech objects for acquiring information from a speaker in an interactive voice response system |
US6510414B1 (en) * | 1999-10-05 | 2003-01-21 | Cisco Technology, Inc. | Speech recognition assisted data entry system and method |
US6922411B1 (en) * | 2000-09-29 | 2005-07-26 | Voxeo Corporation | Networked computer telephony system driven by web-based applications |
US6941266B1 (en) * | 2000-11-15 | 2005-09-06 | At&T Corp. | Method and system for predicting problematic dialog situations in a task classification system |
WO2002044887A2 (en) * | 2000-12-01 | 2002-06-06 | The Trustees Of Columbia University In The City Of New York | A method and system for voice activating web pages |
US20030149565A1 (en) * | 2001-03-09 | 2003-08-07 | Chang Steve S. | System, method and computer program product for spelling fallback during large-scale speech recognition |
US7610547B2 (en) * | 2001-05-04 | 2009-10-27 | Microsoft Corporation | Markup language extensions for web enabled recognition |
JP2004530982A (ja) | 2001-05-04 | 2004-10-07 | ユニシス コーポレーション | Webサーバからの音声アプリケーション情報の動的な生成 |
US20030055651A1 (en) * | 2001-08-24 | 2003-03-20 | Pfeiffer Ralf I. | System, method and computer program product for extended element types to enhance operational characteristics in a voice portal |
AR037082A1 (es) * | 2001-10-12 | 2004-10-20 | Back Office Service Solutions | Procedimiento para determinacion de caudal y corte de fluidos y caudalimetro sensor de corte empleado |
US7177814B2 (en) * | 2002-02-07 | 2007-02-13 | Sap Aktiengesellschaft | Dynamic grammar for voice-enabled applications |
US7178149B2 (en) * | 2002-04-17 | 2007-02-13 | Axeda Corporation | XML scripting of soap commands |
US7590542B2 (en) * | 2002-05-08 | 2009-09-15 | Douglas Carter Williams | Method of generating test scripts using a voice-capable markup language |
US7295984B2 (en) * | 2002-05-09 | 2007-11-13 | Qwest Communications International Inc. | Systems and methods for providing voice and data interfaces to web services-based applications |
JP3814566B2 (ja) * | 2002-06-20 | 2006-08-30 | キヤノン株式会社 | 情報処理装置、情報処理方法、制御プログラム |
US20040061717A1 (en) * | 2002-09-30 | 2004-04-01 | Menon Rama R. | Mechanism for voice-enabling legacy internet content for use with multi-modal browsers |
US7184523B2 (en) * | 2002-10-31 | 2007-02-27 | Comverse, Inc. | Voice message based applets |
US8001709B2 (en) * | 2002-12-31 | 2011-08-23 | Nvoq Incorporated | Data device to speech service bridge |
US7783475B2 (en) * | 2003-01-31 | 2010-08-24 | Comverse, Inc. | Menu-based, speech actuated system with speak-ahead capability |
-
2003
- 2003-07-03 US US10/613,631 patent/US7729919B2/en not_active Expired - Fee Related
-
2004
- 2004-06-14 CA CA2471292A patent/CA2471292C/en not_active Expired - Fee Related
- 2004-06-15 EP EP04014016A patent/EP1501268A1/en not_active Ceased
- 2004-06-16 AU AU2004202630A patent/AU2004202630A1/en not_active Abandoned
- 2004-06-29 BR BR0402462-1A patent/BRPI0402462A/pt not_active IP Right Cessation
- 2004-06-30 CN CN200410063247A patent/CN100576171C/zh not_active Expired - Fee Related
- 2004-07-01 JP JP2004195947A patent/JP2005025760A/ja active Pending
- 2004-07-02 MX MXPA04006532A patent/MXPA04006532A/es not_active Application Discontinuation
- 2004-07-02 RU RU2004120266/09A patent/RU2379745C2/ru not_active IP Right Cessation
- 2004-07-02 KR KR1020040051690A patent/KR101098716B1/ko active IP Right Grant
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2504829C2 (ru) * | 2008-04-01 | 2014-01-20 | Майкрософт Корпорейшн | Системы и способы для управления мультимедийными операциями в удаленных сеансах |
Also Published As
Publication number | Publication date |
---|---|
US20050004800A1 (en) | 2005-01-06 |
CN1577267A (zh) | 2005-02-09 |
JP2005025760A (ja) | 2005-01-27 |
EP1501268A1 (en) | 2005-01-26 |
CA2471292A1 (en) | 2005-01-03 |
RU2379745C2 (ru) | 2010-01-20 |
KR20050004129A (ko) | 2005-01-12 |
MXPA04006532A (es) | 2005-04-19 |
AU2004202630A1 (en) | 2005-01-20 |
BRPI0402462A (pt) | 2005-05-24 |
CA2471292C (en) | 2012-05-15 |
KR101098716B1 (ko) | 2011-12-23 |
CN100576171C (zh) | 2009-12-30 |
US7729919B2 (en) | 2010-06-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2004120266A (ru) | Совместное использование пошагового языка разметки и объектно ориентированного инструментального средства разработки | |
JP4768970B2 (ja) | 音声アプリケーション言語タグとともに実装される理解同期意味オブジェクト | |
JP4768969B2 (ja) | 高度対話型インターフェースに対する理解同期意味オブジェクト | |
CN108287820B (zh) | 一种文本表示的生成方法及装置 | |
KR101131278B1 (ko) | 대화 로그를 이용한 학습 기반 대화 시스템 성능 향상 방법 및 그 장치 | |
RU2011130550A (ru) | Основанные на языке разметки выбор и использование распознавателей для обработки произнесения | |
CA3158930A1 (en) | Arousal model generating method, intelligent terminal arousing method, and corresponding devices | |
CN105120373B (zh) | 语音传输控制方法及系统 | |
US9378735B1 (en) | Estimating speaker-specific affine transforms for neural network based speech recognition systems | |
CN110992955A (zh) | 一种智能设备的语音操作方法、装置、设备及存储介质 | |
CN110399306B (zh) | 软件模块自动化测试方法及装置 | |
CN109473104A (zh) | 语音识别网络延时优化方法及装置 | |
CN111428867A (zh) | 基于可逆分离卷积的模型训练方法、装置和计算机设备 | |
CN106601242A (zh) | 操作事件的执行方法及装置、终端 | |
CN108831444B (zh) | 用于语音对话平台的语义资源训练方法及系统 | |
WO2019076120A1 (zh) | 一种图像处理的方法、装置、存储介质及电子装置 | |
CN111081254B (zh) | 一种语音识别方法和装置 | |
CN110610698A (zh) | 一种语音标注方法及装置 | |
US20050071170A1 (en) | Dissection of utterances into commands and voice data | |
CN111722893A (zh) | 一种电子设备图形用户界面交互方法、装置和终端设备 | |
CN107886940B (zh) | 语音翻译处理方法及装置 | |
US9583095B2 (en) | Speech processing device, method, and storage medium | |
CN111488731B (zh) | 文件生成方法、装置、计算机设备以及存储介质 | |
US7451086B2 (en) | Method and apparatus for voice recognition | |
US20090326940A1 (en) | Automated voice-operated user support |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
MM4A | The patent is invalid due to non-payment of fees |
Effective date: 20130703 |