RU2018112505A - Поддержание контекстной информации между пользовательскими взаимодействиями с голосовым помощником - Google Patents
Поддержание контекстной информации между пользовательскими взаимодействиями с голосовым помощником Download PDFInfo
- Publication number
- RU2018112505A RU2018112505A RU2018112505A RU2018112505A RU2018112505A RU 2018112505 A RU2018112505 A RU 2018112505A RU 2018112505 A RU2018112505 A RU 2018112505A RU 2018112505 A RU2018112505 A RU 2018112505A RU 2018112505 A RU2018112505 A RU 2018112505A
- Authority
- RU
- Russia
- Prior art keywords
- user
- additional
- voice input
- input
- interface
- Prior art date
Links
- 230000003993 interaction Effects 0.000 title claims 10
- 238000000034 method Methods 0.000 claims 16
- 230000001755 vocal effect Effects 0.000 claims 3
- 230000003213 activating effect Effects 0.000 claims 2
- 230000004044 response Effects 0.000 claims 2
- 230000004913 activation Effects 0.000 claims 1
- 230000007774 longterm Effects 0.000 claims 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9537—Spatial or temporal dependent retrieval, e.g. spatiotemporal queries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/54—Interprogram communication
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/041—Abduction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/06—Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/60—Substation equipment, e.g. for use by subscribers including speech amplifiers
- H04M1/6033—Substation equipment, e.g. for use by subscribers including speech amplifiers for providing handsfree use or a loudspeaker mode in telephone sets
- H04M1/6041—Portable telephones adapted for handsfree use
- H04M1/6075—Portable telephones adapted for handsfree use adapted for handsfree use in a vehicle
- H04M1/6083—Portable telephones adapted for handsfree use adapted for handsfree use in a vehicle by interfacing with the vehicle audio system
- H04M1/6091—Portable telephones adapted for handsfree use adapted for handsfree use in a vehicle by interfacing with the vehicle audio system including a wireless interface
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
- H04M1/7243—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72448—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72484—User interfaces specially adapted for cordless or mobile telephones wherein functions are triggered by incoming communication events
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Acoustics & Sound (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Signal Processing (AREA)
- Business, Economics & Management (AREA)
- Quality & Reliability (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Business, Economics & Management (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Entrepreneurship & Innovation (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- Marketing (AREA)
- Operations Research (AREA)
- Tourism & Hospitality (AREA)
- Strategic Management (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- User Interface Of Digital Computer (AREA)
Claims (83)
1. Способ запуска приложения на пользовательском устройстве с использованием цифрового помощника, содержащий этапы, на которых, в электронном устройстве, содержащем процессор и память, хранящую инструкции для исполнения процессором:
предоставляют в пользовательском устройстве графический пользовательский интерфейс, включающий в себя, по меньшей мере, отчасти основывающийся на речи разговорный интерфейс для взаимодействия с пользователем, причем графический пользовательский интерфейс отображает, по меньшей мере, часть разговорного взаимодействия между пользователем и пользовательским устройством;
получают контекстную информацию, связанную с взаимодействием между пользователем и пользовательским устройством;
принимают речевой ввод от пользователя через разговорный интерфейс;
обрабатывают речевой ввод для определения намерения пользователя, ассоциированного с речевым вводом; и
по определению того, что намерение пользователя, ассоциированного с речевым вводом, заключается в активации программного приложения, установленного в пользовательском устройстве:
активируют программное приложение в пользовательском устройстве внешним образом по отношению к графическому пользовательскому интерфейсу, включающему в себя разговорный интерфейс, и
выдают ответ на основе намерения пользователя и контекстной информации.
2. Способ по п.1, в котором упомянутое получение контекстной информации дополнительно содержит этапы, на которых:
принимают дополнительный речевой ввод через разговорный интерфейс до приема упомянутого речевого ввода; и
обрабатывают этот дополнительный речевой ввод для получения контекстной информации.
3. Способ по п.1, в котором упомянутая обработка речевого ввода для определения намерения пользователя, ассоциированного с речевым вводом, дополнительно содержит этап, на котором разрешают неоднозначность речевого ввода с использованием контекстной информации.
4. Способ по п.1, дополнительно содержащий этапы, на которых:
принимают дополнительный речевой ввод от пользователя через разговорный интерфейс;
обрабатывают этот дополнительный речевой ввод для определения дополнительного намерения пользователя, ассоциированного с данным дополнительным речевым вводом; и
на основе дополнительного намерения пользователя, которое было определено:
получают другой пользовательский ввод, относящийся к этому дополнительному намерению пользователя, через разговорный интерфейс и
выполняют задачу для осуществления данного дополнительного намерения пользователя в пределах разговорного интерфейса.
5. Способ по п.1, дополнительно содержащий этапы, на которых:
принимают дополнительный речевой ввод от пользователя через разговорный интерфейс;
обрабатывают этот дополнительный речевой ввод для определения дополнительного намерения пользователя, ассоциированного с данным дополнительным речевым вводом; и
по определению того, что это дополнительное намерение пользователя, ассоциированное с дополнительным речевым вводом, заключается в активации дополнительного программного приложения, установленного в пользовательском устройстве, активируют это дополнительное программное приложение в пользовательском устройстве вне разговорного интерфейса.
6. Способ по п.1, в котором упомянутое получение контекстной информации дополнительно содержит этапы, на которых:
принимают неречевой ввод от пользователя до упомянутого речевого ввода; и
обрабатывают этот неречевой ввод для получения контекстной информации.
7. Способ по п.1, в котором речевой ввод содержит команду активировать программное приложение, установленное в пользовательском устройстве.
8. Способ по п.1, в котором упомянутое отображение, по меньшей мере, части разговорного взаимодействия включает в себя отображение перефразирования пользовательского ввода.
9. Система, содержащая:
один или более процессоров;
память, хранящую инструкции, каковые инструкции приспособлены для исполнения одним или более процессорами и предписания одному или более процессорам выполнять операции, содержащие, в электронном устройстве, содержащем процессор и память, хранящую инструкции для исполнения процессором:
предоставление, в устройстве, графического пользовательского интерфейса, включающего в себя, по меньшей мере, отчасти основывающийся на речи разговорный интерфейс для взаимодействия с пользователем, причем графический пользовательский интерфейс отображает, по меньшей мере, часть разговорного взаимодействия между пользователем и пользовательским устройством;
получение контекстной информации, связанной с взаимодействием между пользователем и пользовательским устройством;
прием речевого ввода от пользователя через разговорный интерфейс;
обработку речевого ввода для определения намерения пользователя, ассоциированного с речевым вводом; и
по определению того, что намерение пользователя, ассоциированного с речевым вводом, заключается в активации программного приложения, установленного в пользовательском устройстве:
активацию программного приложения в пользовательском устройстве внешним образом по отношению к графическому пользовательскому интерфейсу, включающему в себя разговорный интерфейс, и
выдачу ответа на основе намерения пользователя и контекстной информации.
10. Система по п.9, в которой упомянутое получение контекстной информации дополнительно содержит:
прием дополнительного речевого ввода через разговорный интерфейс до приема упомянутого речевого ввода; и
обработку этого дополнительного речевого ввода для получения контекстной информации.
11. Система по п.9, в которой упомянутая обработка речевого ввода для определения намерения пользователя, ассоциированного с речевым вводом, дополнительно содержит разрешение неоднозначности речевого ввода с использованием контекстной информации.
12. Система по п.9, в которой упомянутые операции дополнительно содержат:
прием дополнительного речевого ввода от пользователя через разговорный интерфейс;
обработку этого дополнительного речевого ввода для определения дополнительного намерения пользователя, ассоциированного с данным дополнительным речевым вводом; и
на основе дополнительного намерения пользователя, которое было определено:
получение другого пользовательского ввода, относящегося к этому дополнительному намерению пользователя, через разговорный интерфейс и
выполнение задачи для осуществления данного дополнительного намерения пользователя в пределах разговорного интерфейса.
13. Система по п.9, в которой упомянутые операции дополнительно содержат:
прием дополнительного речевого ввода от пользователя через разговорный интерфейс;
обработку этого дополнительного речевого ввода для определения дополнительного намерения пользователя, ассоциированного с данным дополнительным речевым вводом; и
по определению того, что это дополнительное намерение пользователя, ассоциированное с дополнительным речевым вводом, заключается в активации дополнительного программного приложения, установленного в пользовательском устройстве, активацию этого дополнительного программного приложения в пользовательском устройстве вне разговорного интерфейса.
14. Система по п.9, в которой упомянутое получение контекстной информации дополнительно содержит:
прием неречевого ввода от пользователя до упомянутого речевого ввода; и
обработку этого неречевого ввода для получения контекстной информации.
15. Система по п.9, при этом речевой ввод содержит команду активировать программное приложение, установленное в пользовательском устройстве.
16. Система по п.9, в которой упомянутое отображение, по меньшей мере, части разговорного взаимодействия включает в себя отображение перефразирования пользовательского ввода.
17. Долговременный машиночитаемый носитель, на котором сохранены одна или более программ, содержащие инструкции, которые при их исполнении электронным устройством предписывают данному устройству:
предоставлять в пользовательском устройстве графический пользовательский интерфейс, включающий в себя, по меньшей мере, отчасти основывающийся на речи разговорный интерфейс для взаимодействия с пользователем, причем графический пользовательский интерфейс отображает, по меньшей мере, часть разговорного взаимодействия между пользователем и пользовательским устройством;
получать контекстную информацию, связанную с взаимодействием между пользователем и пользовательским устройством;
принимать речевой ввод от пользователя через разговорный интерфейс;
обрабатывать речевой ввод для определения намерения пользователя, ассоциированного с речевым вводом; и
по определению того, что намерение пользователя, ассоциированного с речевым вводом, заключается в активации программного приложения, установленного в пользовательском устройстве:
активировать программное приложение в пользовательском устройстве внешним образом по отношению к графическому пользовательскому интерфейсу, включающему в себя разговорный интерфейс, и
выдавать ответ на основе намерения пользователя и контекстной информации.
18. Машиночитаемый носитель по п.17, в котором упомянутые инструкции дополнительно предписывают устройству:
принимать дополнительный речевой ввод через разговорный интерфейс до приема упомянутого речевого ввода; и
обрабатывать этот дополнительный речевой ввод для получения контекстной информации.
19. Машиночитаемый носитель по п.17, в котором упомянутая обработка речевого ввода для определения намерения пользователя, ассоциированного с речевым вводом, дополнительно содержит разрешение неоднозначности речевого ввода с использованием контекстной информации.
20. Машиночитаемый носитель по п.17, в котором упомянутые инструкции дополнительно предписывают устройству:
принимать дополнительный речевой ввод от пользователя через разговорный интерфейс;
обрабатывать этот дополнительный речевой ввод для определения дополнительного намерения пользователя, ассоциированного с данным дополнительным речевым вводом; и
на основе дополнительного намерения пользователя, которое было определено:
получать другой пользовательский ввод, относящийся к этому дополнительному намерению пользователя, через разговорный интерфейс и
выполнять задачу для осуществления данного дополнительного намерения пользователя в пределах разговорного интерфейса.
21. Машиночитаемый носитель по п.17, в котором упомянутые инструкции дополнительно предписывают устройству:
принимать дополнительный речевой ввод от пользователя через разговорный интерфейс;
обрабатывать этот дополнительный речевой ввод для определения дополнительного намерения пользователя, ассоциированного с данным дополнительным речевым вводом; и
по определению того, что это дополнительное намерение пользователя, ассоциированное с дополнительным речевым вводом, заключается в активации дополнительного программного приложения, установленного в пользовательском устройстве, активировать это дополнительное программное приложение в пользовательском устройстве вне разговорного интерфейса.
22. Машиночитаемый носитель по п.17, в котором упомянутое получение контекстной информации дополнительно содержит:
прием неречевого ввода от пользователя до упомянутого речевого ввода; и
обработку этого неречевого ввода для получения контекстной информации.
23. Машиночитаемый носитель по п.17, при этом речевой ввод содержит команду активировать программное приложение, установленное в пользовательском устройстве.
24. Машиночитаемый носитель по п.17, в котором упомянутое отображение, по меньшей мере, части разговорного взаимодействия включает в себя отображение перефразирования пользовательского ввода.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US29577410P | 2010-01-18 | 2010-01-18 | |
US61/295,774 | 2010-01-18 | ||
US12/987,982 US9318108B2 (en) | 2010-01-18 | 2011-01-10 | Intelligent automated assistant |
US12/987,982 | 2011-01-10 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2015120954A Division RU2653250C2 (ru) | 2010-01-18 | 2015-06-02 | Поддержание контекстной информации между пользовательскими взаимодействиями с голосовым помощником |
Publications (3)
Publication Number | Publication Date |
---|---|
RU2018112505A true RU2018112505A (ru) | 2019-10-10 |
RU2018112505A3 RU2018112505A3 (ru) | 2021-09-02 |
RU2785950C2 RU2785950C2 (ru) | 2022-12-15 |
Family
ID=
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2018511095A5 (ru) | ||
US20140379334A1 (en) | Natural language understanding automatic speech recognition post processing | |
US8706505B1 (en) | Voice application finding and user invoking applications related to a single entity | |
EP3567585A1 (en) | Information processing device and information processing method | |
US20200151258A1 (en) | Method, computer device and storage medium for impementing speech interaction | |
CA2814300C (en) | Post processing of natural language asr | |
RU2011150255A (ru) | Коснитесь любого места, чтобы говорить | |
NZ770836A (en) | Headless task completion within digital personal assistants | |
US9240183B2 (en) | Reference signal suppression in speech recognition | |
US8255218B1 (en) | Directing dictation into input fields | |
JP2011513795A5 (ru) | ||
US20110264452A1 (en) | Audio output of text data using speech control commands | |
US9224404B2 (en) | Dynamic audio processing parameters with automatic speech recognition | |
RU2011130550A (ru) | Основанные на языке разметки выбор и использование распознавателей для обработки произнесения | |
WO2008067562A3 (en) | Multimodal speech recognition system | |
US10102852B2 (en) | Personalized speech synthesis for acknowledging voice actions | |
KR20200121845A (ko) | 텍스트 독립 화자 인식 | |
TW201737125A (zh) | 回應產生裝置、對話控制系統以及回應產生方法 | |
JP2018533790A (ja) | 音声クエリの検索結果のプリフェッチ処理 | |
JPWO2016103358A1 (ja) | 音声認識装置及び音声認識方法 | |
RU2014122484A (ru) | Система и способ обработки речевого запроса пользователя | |
RU2018112505A (ru) | Поддержание контекстной информации между пользовательскими взаимодействиями с голосовым помощником | |
JP2009104047A (ja) | 情報処理方法及び情報処理装置 | |
EP3891730B1 (en) | Technique for generating a command for a voice-controlled electronic device | |
Khalil et al. | Mobile-free driving with Android phones: System design and performance evaluation |