RU2018112505A - Поддержание контекстной информации между пользовательскими взаимодействиями с голосовым помощником - Google Patents

Поддержание контекстной информации между пользовательскими взаимодействиями с голосовым помощником Download PDF

Info

Publication number
RU2018112505A
RU2018112505A RU2018112505A RU2018112505A RU2018112505A RU 2018112505 A RU2018112505 A RU 2018112505A RU 2018112505 A RU2018112505 A RU 2018112505A RU 2018112505 A RU2018112505 A RU 2018112505A RU 2018112505 A RU2018112505 A RU 2018112505A
Authority
RU
Russia
Prior art keywords
user
additional
voice input
input
interface
Prior art date
Application number
RU2018112505A
Other languages
English (en)
Other versions
RU2785950C2 (ru
RU2018112505A3 (ru
Inventor
Томас Роберт ГРУБЕР
Адам Джон ЧЕЙЕР
Даг КИТТЛОС
Дидье Рене ГУДЗЗОНИ
Кристофер Дин БРИГЕМ
Original Assignee
Эппл Инк.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=44304930&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=RU2018112505(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Эппл Инк. filed Critical Эппл Инк.
Publication of RU2018112505A publication Critical patent/RU2018112505A/ru
Publication of RU2018112505A3 publication Critical patent/RU2018112505A3/ru
Application granted granted Critical
Publication of RU2785950C2 publication Critical patent/RU2785950C2/ru

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9537Spatial or temporal dependent retrieval, e.g. spatiotemporal queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/54Interprogram communication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/041Abduction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/60Substation equipment, e.g. for use by subscribers including speech amplifiers
    • H04M1/6033Substation equipment, e.g. for use by subscribers including speech amplifiers for providing handsfree use or a loudspeaker mode in telephone sets
    • H04M1/6041Portable telephones adapted for handsfree use
    • H04M1/6075Portable telephones adapted for handsfree use adapted for handsfree use in a vehicle
    • H04M1/6083Portable telephones adapted for handsfree use adapted for handsfree use in a vehicle by interfacing with the vehicle audio system
    • H04M1/6091Portable telephones adapted for handsfree use adapted for handsfree use in a vehicle by interfacing with the vehicle audio system including a wireless interface
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72484User interfaces specially adapted for cordless or mobile telephones wherein functions are triggered by incoming communication events
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Acoustics & Sound (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Quality & Reliability (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Business, Economics & Management (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Tourism & Hospitality (AREA)
  • Strategic Management (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • User Interface Of Digital Computer (AREA)

Claims (83)

1. Способ запуска приложения на пользовательском устройстве с использованием цифрового помощника, содержащий этапы, на которых, в электронном устройстве, содержащем процессор и память, хранящую инструкции для исполнения процессором:
предоставляют в пользовательском устройстве графический пользовательский интерфейс, включающий в себя, по меньшей мере, отчасти основывающийся на речи разговорный интерфейс для взаимодействия с пользователем, причем графический пользовательский интерфейс отображает, по меньшей мере, часть разговорного взаимодействия между пользователем и пользовательским устройством;
получают контекстную информацию, связанную с взаимодействием между пользователем и пользовательским устройством;
принимают речевой ввод от пользователя через разговорный интерфейс;
обрабатывают речевой ввод для определения намерения пользователя, ассоциированного с речевым вводом; и
по определению того, что намерение пользователя, ассоциированного с речевым вводом, заключается в активации программного приложения, установленного в пользовательском устройстве:
активируют программное приложение в пользовательском устройстве внешним образом по отношению к графическому пользовательскому интерфейсу, включающему в себя разговорный интерфейс, и
выдают ответ на основе намерения пользователя и контекстной информации.
2. Способ по п.1, в котором упомянутое получение контекстной информации дополнительно содержит этапы, на которых:
принимают дополнительный речевой ввод через разговорный интерфейс до приема упомянутого речевого ввода; и
обрабатывают этот дополнительный речевой ввод для получения контекстной информации.
3. Способ по п.1, в котором упомянутая обработка речевого ввода для определения намерения пользователя, ассоциированного с речевым вводом, дополнительно содержит этап, на котором разрешают неоднозначность речевого ввода с использованием контекстной информации.
4. Способ по п.1, дополнительно содержащий этапы, на которых:
принимают дополнительный речевой ввод от пользователя через разговорный интерфейс;
обрабатывают этот дополнительный речевой ввод для определения дополнительного намерения пользователя, ассоциированного с данным дополнительным речевым вводом; и
на основе дополнительного намерения пользователя, которое было определено:
получают другой пользовательский ввод, относящийся к этому дополнительному намерению пользователя, через разговорный интерфейс и
выполняют задачу для осуществления данного дополнительного намерения пользователя в пределах разговорного интерфейса.
5. Способ по п.1, дополнительно содержащий этапы, на которых:
принимают дополнительный речевой ввод от пользователя через разговорный интерфейс;
обрабатывают этот дополнительный речевой ввод для определения дополнительного намерения пользователя, ассоциированного с данным дополнительным речевым вводом; и
по определению того, что это дополнительное намерение пользователя, ассоциированное с дополнительным речевым вводом, заключается в активации дополнительного программного приложения, установленного в пользовательском устройстве, активируют это дополнительное программное приложение в пользовательском устройстве вне разговорного интерфейса.
6. Способ по п.1, в котором упомянутое получение контекстной информации дополнительно содержит этапы, на которых:
принимают неречевой ввод от пользователя до упомянутого речевого ввода; и
обрабатывают этот неречевой ввод для получения контекстной информации.
7. Способ по п.1, в котором речевой ввод содержит команду активировать программное приложение, установленное в пользовательском устройстве.
8. Способ по п.1, в котором упомянутое отображение, по меньшей мере, части разговорного взаимодействия включает в себя отображение перефразирования пользовательского ввода.
9. Система, содержащая:
один или более процессоров;
память, хранящую инструкции, каковые инструкции приспособлены для исполнения одним или более процессорами и предписания одному или более процессорам выполнять операции, содержащие, в электронном устройстве, содержащем процессор и память, хранящую инструкции для исполнения процессором:
предоставление, в устройстве, графического пользовательского интерфейса, включающего в себя, по меньшей мере, отчасти основывающийся на речи разговорный интерфейс для взаимодействия с пользователем, причем графический пользовательский интерфейс отображает, по меньшей мере, часть разговорного взаимодействия между пользователем и пользовательским устройством;
получение контекстной информации, связанной с взаимодействием между пользователем и пользовательским устройством;
прием речевого ввода от пользователя через разговорный интерфейс;
обработку речевого ввода для определения намерения пользователя, ассоциированного с речевым вводом; и
по определению того, что намерение пользователя, ассоциированного с речевым вводом, заключается в активации программного приложения, установленного в пользовательском устройстве:
активацию программного приложения в пользовательском устройстве внешним образом по отношению к графическому пользовательскому интерфейсу, включающему в себя разговорный интерфейс, и
выдачу ответа на основе намерения пользователя и контекстной информации.
10. Система по п.9, в которой упомянутое получение контекстной информации дополнительно содержит:
прием дополнительного речевого ввода через разговорный интерфейс до приема упомянутого речевого ввода; и
обработку этого дополнительного речевого ввода для получения контекстной информации.
11. Система по п.9, в которой упомянутая обработка речевого ввода для определения намерения пользователя, ассоциированного с речевым вводом, дополнительно содержит разрешение неоднозначности речевого ввода с использованием контекстной информации.
12. Система по п.9, в которой упомянутые операции дополнительно содержат:
прием дополнительного речевого ввода от пользователя через разговорный интерфейс;
обработку этого дополнительного речевого ввода для определения дополнительного намерения пользователя, ассоциированного с данным дополнительным речевым вводом; и
на основе дополнительного намерения пользователя, которое было определено:
получение другого пользовательского ввода, относящегося к этому дополнительному намерению пользователя, через разговорный интерфейс и
выполнение задачи для осуществления данного дополнительного намерения пользователя в пределах разговорного интерфейса.
13. Система по п.9, в которой упомянутые операции дополнительно содержат:
прием дополнительного речевого ввода от пользователя через разговорный интерфейс;
обработку этого дополнительного речевого ввода для определения дополнительного намерения пользователя, ассоциированного с данным дополнительным речевым вводом; и
по определению того, что это дополнительное намерение пользователя, ассоциированное с дополнительным речевым вводом, заключается в активации дополнительного программного приложения, установленного в пользовательском устройстве, активацию этого дополнительного программного приложения в пользовательском устройстве вне разговорного интерфейса.
14. Система по п.9, в которой упомянутое получение контекстной информации дополнительно содержит:
прием неречевого ввода от пользователя до упомянутого речевого ввода; и
обработку этого неречевого ввода для получения контекстной информации.
15. Система по п.9, при этом речевой ввод содержит команду активировать программное приложение, установленное в пользовательском устройстве.
16. Система по п.9, в которой упомянутое отображение, по меньшей мере, части разговорного взаимодействия включает в себя отображение перефразирования пользовательского ввода.
17. Долговременный машиночитаемый носитель, на котором сохранены одна или более программ, содержащие инструкции, которые при их исполнении электронным устройством предписывают данному устройству:
предоставлять в пользовательском устройстве графический пользовательский интерфейс, включающий в себя, по меньшей мере, отчасти основывающийся на речи разговорный интерфейс для взаимодействия с пользователем, причем графический пользовательский интерфейс отображает, по меньшей мере, часть разговорного взаимодействия между пользователем и пользовательским устройством;
получать контекстную информацию, связанную с взаимодействием между пользователем и пользовательским устройством;
принимать речевой ввод от пользователя через разговорный интерфейс;
обрабатывать речевой ввод для определения намерения пользователя, ассоциированного с речевым вводом; и
по определению того, что намерение пользователя, ассоциированного с речевым вводом, заключается в активации программного приложения, установленного в пользовательском устройстве:
активировать программное приложение в пользовательском устройстве внешним образом по отношению к графическому пользовательскому интерфейсу, включающему в себя разговорный интерфейс, и
выдавать ответ на основе намерения пользователя и контекстной информации.
18. Машиночитаемый носитель по п.17, в котором упомянутые инструкции дополнительно предписывают устройству:
принимать дополнительный речевой ввод через разговорный интерфейс до приема упомянутого речевого ввода; и
обрабатывать этот дополнительный речевой ввод для получения контекстной информации.
19. Машиночитаемый носитель по п.17, в котором упомянутая обработка речевого ввода для определения намерения пользователя, ассоциированного с речевым вводом, дополнительно содержит разрешение неоднозначности речевого ввода с использованием контекстной информации.
20. Машиночитаемый носитель по п.17, в котором упомянутые инструкции дополнительно предписывают устройству:
принимать дополнительный речевой ввод от пользователя через разговорный интерфейс;
обрабатывать этот дополнительный речевой ввод для определения дополнительного намерения пользователя, ассоциированного с данным дополнительным речевым вводом; и
на основе дополнительного намерения пользователя, которое было определено:
получать другой пользовательский ввод, относящийся к этому дополнительному намерению пользователя, через разговорный интерфейс и
выполнять задачу для осуществления данного дополнительного намерения пользователя в пределах разговорного интерфейса.
21. Машиночитаемый носитель по п.17, в котором упомянутые инструкции дополнительно предписывают устройству:
принимать дополнительный речевой ввод от пользователя через разговорный интерфейс;
обрабатывать этот дополнительный речевой ввод для определения дополнительного намерения пользователя, ассоциированного с данным дополнительным речевым вводом; и
по определению того, что это дополнительное намерение пользователя, ассоциированное с дополнительным речевым вводом, заключается в активации дополнительного программного приложения, установленного в пользовательском устройстве, активировать это дополнительное программное приложение в пользовательском устройстве вне разговорного интерфейса.
22. Машиночитаемый носитель по п.17, в котором упомянутое получение контекстной информации дополнительно содержит:
прием неречевого ввода от пользователя до упомянутого речевого ввода; и
обработку этого неречевого ввода для получения контекстной информации.
23. Машиночитаемый носитель по п.17, при этом речевой ввод содержит команду активировать программное приложение, установленное в пользовательском устройстве.
24. Машиночитаемый носитель по п.17, в котором упомянутое отображение, по меньшей мере, части разговорного взаимодействия включает в себя отображение перефразирования пользовательского ввода.
RU2018112505A 2010-01-18 2018-04-09 Поддержание контекстной информации между пользовательскими взаимодействиями с голосовым помощником RU2785950C2 (ru)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US29577410P 2010-01-18 2010-01-18
US61/295,774 2010-01-18
US12/987,982 US9318108B2 (en) 2010-01-18 2011-01-10 Intelligent automated assistant
US12/987,982 2011-01-10

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
RU2015120954A Division RU2653250C2 (ru) 2010-01-18 2015-06-02 Поддержание контекстной информации между пользовательскими взаимодействиями с голосовым помощником

Publications (3)

Publication Number Publication Date
RU2018112505A true RU2018112505A (ru) 2019-10-10
RU2018112505A3 RU2018112505A3 (ru) 2021-09-02
RU2785950C2 RU2785950C2 (ru) 2022-12-15

Family

ID=

Also Published As

Publication number Publication date
JP2014222511A (ja) 2014-11-27
RU2012144605A (ru) 2014-04-27
EP2526511A2 (en) 2012-11-28
CA2793743A1 (en) 2011-07-21
JP2014222513A (ja) 2014-11-27
CA2954559A1 (en) 2011-07-21
JP5948372B2 (ja) 2016-07-06
JP6353711B2 (ja) 2018-07-04
BR122012028974B1 (pt) 2021-03-23
US9548050B2 (en) 2017-01-17
JP6498725B2 (ja) 2019-04-10
US20220254338A1 (en) 2022-08-11
RU2012144639A (ru) 2014-05-10
US20120016678A1 (en) 2012-01-19
BR122012028973A2 (pt) 2019-07-30
US20130185074A1 (en) 2013-07-18
RU2541221C2 (ru) 2015-02-10
US9117447B2 (en) 2015-08-25
KR20130000423A (ko) 2013-01-02
JP2014222514A (ja) 2014-11-27
JP2018116728A (ja) 2018-07-26
JP2013517566A (ja) 2013-05-16
KR20120138826A (ko) 2012-12-26
KR101962243B1 (ko) 2019-03-27
CA3077914A1 (en) 2011-07-21
JP2014222516A (ja) 2014-11-27
RU2012144648A (ru) 2014-05-10
KR20120137434A (ko) 2012-12-20
JP6193181B2 (ja) 2017-09-06
JP6027052B2 (ja) 2016-11-16
KR20120138827A (ko) 2012-12-26
BR122012028969A2 (pt) 2019-07-30
MX2012008369A (es) 2012-09-12
US8706503B2 (en) 2014-04-22
KR20220088514A (ko) 2022-06-27
JP5957038B2 (ja) 2016-07-27
BR122012028965B1 (pt) 2021-03-23
US20130111487A1 (en) 2013-05-02
RU2012144640A (ru) 2014-05-10
CA2793248A1 (en) 2011-07-21
CA2793741A1 (en) 2011-07-21
RU2653250C2 (ru) 2018-05-07
KR101511832B1 (ko) 2015-04-15
CA2787351A1 (en) 2011-07-21
JP2024056744A (ja) 2024-04-23
CA2793743C (en) 2015-10-06
CA3077914C (en) 2023-08-01
KR20120137435A (ko) 2012-12-20
KR102297492B1 (ko) 2021-09-03
JP2014222512A (ja) 2014-11-27
EP3131023A1 (en) 2017-02-15
KR20120137425A (ko) 2012-12-20
RU2541208C2 (ru) 2015-02-10
RU2556416C2 (ru) 2015-07-10
CN105808200A (zh) 2016-07-27
CA2787351C (en) 2015-12-08
KR20210111347A (ko) 2021-09-10
US8660849B2 (en) 2014-02-25
KR102147926B1 (ko) 2020-08-25
KR20200101996A (ko) 2020-08-28
CA3000109C (en) 2020-06-23
CA2791791A1 (en) 2011-07-21
KR101654580B1 (ko) 2016-09-06
JP2020173835A (ja) 2020-10-22
KR101555742B1 (ko) 2015-09-25
KR20120137440A (ko) 2012-12-20
CA2793118A1 (en) 2011-07-21
MX2022015432A (es) 2023-01-11
US20120245944A1 (en) 2012-09-27
US20130110520A1 (en) 2013-05-02
RU2012144637A (ru) 2014-05-10
KR101588081B1 (ko) 2016-01-25
KR102410557B1 (ko) 2022-06-22
JP5956511B2 (ja) 2016-07-27
BR122012028971B1 (pt) 2021-03-23
US20130111348A1 (en) 2013-05-02
US20170178626A1 (en) 2017-06-22
RU2012144644A (ru) 2014-05-10
JP6828962B2 (ja) 2021-02-10
BR122012028966B1 (pt) 2021-04-06
US8903716B2 (en) 2014-12-02
BR122012028970A2 (pt) 2019-07-30
RU2015120954A (ru) 2016-12-27
KR20200035486A (ko) 2020-04-03
CA2792412C (en) 2015-12-22
RU2541202C2 (ru) 2015-02-10
US8670979B2 (en) 2014-03-11
JP5973500B2 (ja) 2016-08-23
BR122012028972B1 (pt) 2021-03-23
KR101511833B1 (ko) 2015-04-14
US11423886B2 (en) 2022-08-23
CA3000109A1 (en) 2011-07-21
CA2793002A1 (en) 2011-07-21
BR122012028970B1 (pt) 2021-03-23
AU2011205426A1 (en) 2012-08-23
JP2017224300A (ja) 2017-12-21
JP6175413B2 (ja) 2017-08-02
MX338784B (es) 2016-05-02
BR122012028972A2 (pt) 2020-09-01
JP2014222515A (ja) 2014-11-27
CA2954559C (en) 2018-12-04
CA2791791C (en) 2016-10-18
RU2544787C2 (ru) 2015-03-20
CN102792320B (zh) 2016-02-24
BR122012028969B1 (pt) 2021-01-05
CN102792320A (zh) 2012-11-21
US20130110518A1 (en) 2013-05-02
KR101588080B1 (ko) 2016-01-25
EP3454227A1 (en) 2019-03-13
BR122012028973B1 (pt) 2021-03-23
BR122012028965A2 (pt) 2018-03-27
CA2793118C (en) 2017-08-08
CA2792570C (en) 2016-05-31
CA2792412A1 (en) 2011-07-21
KR101593739B1 (ko) 2016-02-12
MX348250B (es) 2017-06-05
BR112012017826B1 (pt) 2021-01-05
CA2793248C (en) 2016-11-01
BR122012028968A2 (pt) 2019-07-30
BR112012017826A2 (pt) 2017-09-26
JP7213206B2 (ja) 2023-01-26
MX2022015433A (es) 2023-01-11
KR20120120316A (ko) 2012-11-01
AU2011205426B2 (en) 2014-01-16
US8731942B2 (en) 2014-05-20
US8892446B2 (en) 2014-11-18
BR122012028966A2 (pt) 2019-07-30
US9318108B2 (en) 2016-04-19
KR20120136417A (ko) 2012-12-18
CA3203167A1 (en) 2011-07-21
CA2793002C (en) 2016-06-21
KR20160105995A (ko) 2016-09-08
WO2011088053A3 (en) 2012-01-19
JP6356501B2 (ja) 2018-07-11
BR112012017826A8 (pt) 2020-09-01
KR101555743B1 (ko) 2015-09-25
US20220383864A1 (en) 2022-12-01
KR102096222B1 (ko) 2020-04-01
JP2014222509A (ja) 2014-11-27
US10706841B2 (en) 2020-07-07
RU2541219C2 (ru) 2015-02-10
KR102537767B1 (ko) 2023-05-31
JP2014222510A (ja) 2014-11-27
RU2012135502A (ru) 2014-02-27
JP2014222517A (ja) 2014-11-27
US20200279556A1 (en) 2020-09-03
CA2792442C (en) 2016-05-17
CA2793741C (en) 2016-05-31
US20130185081A1 (en) 2013-07-18
RU2546606C2 (ru) 2015-04-10
RU2012144647A (ru) 2014-05-10
KR101511831B1 (ko) 2015-04-14
CN105808200B (zh) 2019-09-10
CA2792442A1 (en) 2011-07-21
GB201213633D0 (en) 2012-09-12
US8799000B2 (en) 2014-08-05
BR122012028974A2 (pt) 2019-07-30
RU2546604C2 (ru) 2015-04-10
EP2526511A4 (en) 2016-12-21
US20130117022A1 (en) 2013-05-09
JP2022163036A (ja) 2022-10-25
KR20190032641A (ko) 2019-03-27
KR20120137424A (ko) 2012-12-20
US20130110505A1 (en) 2013-05-02
BR122012028966B8 (pt) 2021-11-30
KR101577493B1 (ko) 2015-12-14
US8930191B2 (en) 2015-01-06
RU2012144643A (ru) 2014-05-10
KR20230079478A (ko) 2023-06-07
GB2490444A (en) 2012-10-31
RU2012144606A (ru) 2014-05-10
CA2792570A1 (en) 2011-07-21
WO2011088053A2 (en) 2011-07-21
US20130110519A1 (en) 2013-05-02
KR101775708B1 (ko) 2017-09-06
BR122012028971A2 (pt) 2019-07-30
MX342072B (es) 2016-09-13
BR122012028968B1 (pt) 2021-03-23
US20130110515A1 (en) 2013-05-02
RU2018112505A3 (ru) 2021-09-02
KR20170104006A (ko) 2017-09-13
RU2546605C2 (ru) 2015-04-10
US8942986B2 (en) 2015-01-27

Similar Documents

Publication Publication Date Title
JP2018511095A5 (ru)
US20140379334A1 (en) Natural language understanding automatic speech recognition post processing
US8706505B1 (en) Voice application finding and user invoking applications related to a single entity
EP3567585A1 (en) Information processing device and information processing method
US20200151258A1 (en) Method, computer device and storage medium for impementing speech interaction
CA2814300C (en) Post processing of natural language asr
RU2011150255A (ru) Коснитесь любого места, чтобы говорить
NZ770836A (en) Headless task completion within digital personal assistants
US9240183B2 (en) Reference signal suppression in speech recognition
US8255218B1 (en) Directing dictation into input fields
JP2011513795A5 (ru)
US20110264452A1 (en) Audio output of text data using speech control commands
US9224404B2 (en) Dynamic audio processing parameters with automatic speech recognition
RU2011130550A (ru) Основанные на языке разметки выбор и использование распознавателей для обработки произнесения
WO2008067562A3 (en) Multimodal speech recognition system
US10102852B2 (en) Personalized speech synthesis for acknowledging voice actions
KR20200121845A (ko) 텍스트 독립 화자 인식
TW201737125A (zh) 回應產生裝置、對話控制系統以及回應產生方法
JP2018533790A (ja) 音声クエリの検索結果のプリフェッチ処理
JPWO2016103358A1 (ja) 音声認識装置及び音声認識方法
RU2014122484A (ru) Система и способ обработки речевого запроса пользователя
RU2018112505A (ru) Поддержание контекстной информации между пользовательскими взаимодействиями с голосовым помощником
JP2009104047A (ja) 情報処理方法及び情報処理装置
EP3891730B1 (en) Technique for generating a command for a voice-controlled electronic device
Khalil et al. Mobile-free driving with Android phones: System design and performance evaluation