BRPI1010584B1 - método para fornecer funcionalidade de entrada para um módulo de interação de reconhecimento de voz - Google Patents
método para fornecer funcionalidade de entrada para um módulo de interação de reconhecimento de voz Download PDFInfo
- Publication number
- BRPI1010584B1 BRPI1010584B1 BRPI1010584A BRPI1010584A BRPI1010584B1 BR PI1010584 B1 BRPI1010584 B1 BR PI1010584B1 BR PI1010584 A BRPI1010584 A BR PI1010584A BR PI1010584 A BRPI1010584 A BR PI1010584A BR PI1010584 B1 BRPI1010584 B1 BR PI1010584B1
- Authority
- BR
- Brazil
- Prior art keywords
- touch
- anywhere
- user
- module
- mobile computing
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 230000003993 interaction Effects 0.000 title claims abstract description 29
- 230000007246 mechanism Effects 0.000 claims abstract description 55
- 230000000007 visual effect Effects 0.000 claims abstract description 26
- 230000003213 activating effect Effects 0.000 claims description 3
- 230000004044 response Effects 0.000 claims description 3
- 230000009471 action Effects 0.000 description 10
- 238000003825 pressing Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000012790 confirmation Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000000875 corresponding effect Effects 0.000 description 2
- 238000010079 rubber tapping Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000003032 molecular docking Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 235000013550 pizza Nutrition 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/22—Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/74—Details of telephonic subscriber devices with voice recognition means
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
método para fornecer funcionalidade de entrada para um módulo de interação de reconhecimento de voz a presente invenção refere-se à uma interface de usuário para fornecer interação de pressionar para falar através da utilização de um módulo de tocar em qualquer lugar para falar em um dispositivo de computação móvel. após receber uma indicação de um toque em qualquer lugar na tela de uma interface de tela sensível a toque, o módulo de tocar em qualquer lugar para falar ativa o mecanismo de escuta de um módulo de reconhecimento de voz para aceitar entrada de usuário audível e exibe realimentação visual dinâmica de um nível de som medido da entrada audível recebida. o módulo de tocar em qualquer lugar para falar também pode fornecer a um usuário uma experiência de reconhecimento de voz conveniente e mais preciso por utilizar e aplicar os dados em relação a um contexto do toque (por exemplo, relativo à localização na interface visual) em correlação com a entrada audível falada.
Description
Relatório Descritivo da Patente de Invenção para “MÉTODO PARA FORNECER FUNCIONALIDADE DE ENTRADA PARA UM MÓDULO DE INTERAÇÃO DE RECONHECIMENTO DE VOZ”
ANTECEDENTES DA INVENÇÃO [0001] Dispositivos de computação móveis como telefones móveis e assistentes pessoais digitais, se tornaram uma tecnologia ubíqua na sociedade atual. Tais dispositivos fornecem atualmente interfaces que permitem a um usuário interagir com várias aplicações móveis através de uma pluralidade de mecanismos de entrada (por exemplo, teclado numérico, teclado QWERTY, tela sensível a toque, reconhecimento de voz, etc.). Recentemente, houve um aumento de tecnologias de reconhecimento de voz para entrada. Com reconhecimento de voz, os comandos de voz do usuário são capturados como arquivos de áudio e processados através de um módulo de reconhecimento de voz incorporado localizado no dispositivo móvel ou transferidos através de uma conexão sem fio para um servidor onde são processados. Um método de engatar um mecanismo de ouvir de um módulo de reconhecimento de voz é através de um modelo de interação de pressionar para falar, que permite a um usuário sinalizar quando a aplicação deve iniciar e parar gravação através de um mecanismo de entrada. Muitas aplicações móveis utilizam uma tecla de hardware existente em um dispositivo, tecla macia, ou um limite definido de um botão em uma interface de tela sensível a toque como um mecanismo de entrada para engatar o mecanismo de ouvir de um módulo de reconhecimento de voz.
[0002] A entrada através de teclas macias ou interfaces de hardware dedicadas, como botões, rodas de rolagem etc., pode ser incômoda devido a uma variedade de fatores não limitados a tamanhos de botões pequenos, botões difíceis de identificar ou referenciar, e/ou usuários tendo um ponto cego para uma localização de botão
Petição 870190110079, de 29/10/2019, pág. 4/36
2/25 (por exemplo, localizado no lado de um dispositivo móvel). Mesmo se um botão for identificável, referenciável, disponível para uma dada aplicação, e em um local ergonômico, um usuário pode estar envolvido em outra tarefa (por exemplo, caminhando, dirigindo, etc.) (que pode tornar difícil olhar seu dispositivo móvel e/ou difícil de alvejar o botão. Ao utilizar uma interface de hardware dedicado como um botão para iniciar o modo de ouvir de reconhecimento de voz, devido a sua localização no dispositivo, a pressão do mesmo pode cobrir o microfone que pode afetar adversamente o desempenho de reconhecimento de voz.
[0003] Muitos dispositivos de comutação móveis utilizam atualmente interfaces de tela sensível ao toque. Uma tela sensível a toque pode ter objetos gráficos selecionáveis que correspondem a botões de calcar de telefones tradicionais, teclas de um teclado tradicional, e várias tarefas móveis. Telas sensíveis a toque e dispositivos de entrada compreendendo telas sensíveis a toque são às vezes difíceis de operar. Por exemplo, um usuário que utiliza a ponta de seu dedo para ativar a tela sensível a toque, pode facilmente tocar a área de superfície ativa da tela sensível a toque em uma posição onde o usuário não pretendeu ativar a tela sensível a toque. Em muitos casos, tal ativação não pretendida resulta em uma função não pretendida sendo realizada.
[0004] É com relação a essas e outras considerações que a presente invenção foi feita.
SUMÁRIO DA INVENÇÃO [0005] As modalidades da presente invenção são dirigidas à provisão de uma interface de usuário em um dispositivo de comutação móvel para fornecer uma quantidade máxima de área alvo em uma tela para iniciar a ação de ouvir de um módulo de reconhecimento de voz. De acordo com modalidades, um usuário pode pressionar em qualquer
Petição 870190110079, de 29/10/2019, pág. 5/36
3/25 lugar na tela sensível a toque de um dispositivo de computação móvel para ativar a escuta em interação de reconhecimento de voz. Em vez de buscar um botão difícil de localizar ou pressionar uma tela eletrostática pequena que requer que um usuário olhe seu dispositivo de computação móvel, toda a tela sensível a toque é o mecanismo de entrada para ativar o dispositivo de escuta de um módulo de reconhecimento de voz.
[0006] De acordo com uma modalidade, quando um dispositivo de computação móvel recebe uma indicação de um toque em qualquer lugar na interface de sua tela sensível a toque, o mecanismo de escuta é ativado e habilitado para receber entrada de voz, e uma confirmação em resposta ao recebimento de uma indicação de um toque em qualquer lugar na interface de tela sensível a toque pode ser gerada para notificar um usuário de que o mecanismo de escuta foi ativado. De acordo com outra modalidade, realimentação visual indicando um nível de som medido de entrada de voz recebida pode ser feita na tela sensível a toque no local no qual o toque é recebido.
[0007] De acordo com outra modalidade d presente invenção, o contexto do display (tela) pode ser também utilizado como uma entrada além de entrada de voz para completar um conjunto de tarefas. Por exemplo, a entrada contextual adicional pode auxiliar a estreitar resultados de busca para fornecer ao usuário uma experiência aperfeiçoada de reconhecimento de voz.
[0008] Essas e outras características e vantagens serão evidentes a partir de uma leitura da seguinte descrição detalhada e um exame dos desenhos associados. Deve ser entendido que tanto a descrição geral acima como a seguinte descrição detalhada são explanatórias somente e não são restritivas da invenção como reivindicada.
[0009] Esse sumário é fornecido para introduzir uma seleção de conceitos em uma forma simplificada que são adicionalmente descritos
Petição 870190110079, de 29/10/2019, pág. 6/36
4/25 abaixo na descrição detalhada. Esse sumário não pretende identificar aspectos chaves ou aspectos essenciais da matéria reivindicada, nem é destinado como um meio auxiliar para determinar o escopo da matéria reivindicada.
BREVE DESCRIÇÃO DOS DESENHOS [00010] A figura 1 é um diagrama de um dispositivo de computação móvel de exemplo.
[00011] A figura 2 é um diagrama de blocos simplificado que ilustra componentes de um dispositivo de computação móvel que pode servir como um ambiente operacional exemplar para modalidades da presente invenção.
[00012] A figura 3 é um diagrama de bloco simplificado de uma arquitetura de computação para utilizar um módulo de tocar em qualquer lugar para falar para engajar o mecanismo de escuta em interação de reconhecimento de voz em um dispositivo de computação móvel.
[00013] A figura 4 é um fluxograma lógico que ilustra um método para engajar o mecanismo de escuta em interação de reconhecimento de voz utilizando um módulo de tocar em qualquer lugar para falar.
[00014] A figura 5 é uma ilustração de realimentação visual de exemplo fornecida por um módulo de tocar em qualquer lugar para falar.
[00015] A figura 6 é uma ilustração de um display de medidor de volume de exemplo fornecido por um módulo de tocar em qualquer lugar para falar.
[00016] A figura 7 é um fluxograma lógico que ilustra um método para engajar o mecanismo de escuta em interação de reconhecimento de voz utilizando um módulo de tocar em qualquer lugar para falar em combinação com identificar e utilizar dados contextuais de um toque.
DESCRIÇÃO DETALHADA [00017] Como descrito resumidamente acima, as modalidades da
Petição 870190110079, de 29/10/2019, pág. 7/36
5/25 presente invenção são dirigidas a engajar um mecanismo de escuta em interação de reconhecimento de voz em um dispositivo de computação móvel. Por pressionar em qualquer área dada de uma tela de um dispositivo de computação móvel, um módulo de tocar em qualquer lugar para falar (TATS) ativa o mecanismo de escuta de um módulo de reconhecimento de voz para aceitar a entrada falada de um usuário de modo que o módulo de reconhecimento de voz possa converter as palavras faladas em entrada legível por máquina. As aplicações de reconhecimento de voz podem ser utilizadas em dispositivos de computação móveis para uma variedade de tarefas incluindo, porém não limitados a discagem de voz (por exemplo, “Telefonar para Bob”), abrir busca na rede (por exemplo, Pizza San Francisco Califórnia” para encontrar pizzarias em San Francisco) e processamento de voz para texto (por exemplo, mensagens de texto e e-mails).
[00018] Muitos métodos de entrada existem para engajar o mecanismo de escuta em interação de reconhecimento de voz em um dispositivo de computação móvel, cada possuindo seu próprio conjunto de desvantagens e às vezes apresentando dificuldades que superam os benefícios de utilizar reconhecimento de voz. Muitos usuários utilizam reconhecimento de voz porque estão utilizando seu dispositivo de computação móvel em um ambiente de distração (isto é, enquanto caminham ou dirigem), tornando difícil olhar a tela de seu dispositivo para realizar uma tarefa utilizando teclas de hardware, teclas macias, ou limites definidos de um botão em uma interface de tela sensível a toque. As modalidades da presente invenção utilizam a quantidade máxima de área alvo em uma tela de um dispositivo de computação móvel para ativar o mecanismo de escuta, fornecendo utilização sem interação de visão. Iniciar o modo de escuta de reconhecimento de voz com modalidades da presente invenção não requer que um usuário olhe a tela de seu dispositivo para saber se está tocando em uma área
Petição 870190110079, de 29/10/2019, pág. 8/36
6/25 alvo específico, nem terá de olhar ou sentir um botão tátil para assegurar que está pressionando o botão correto.
[00019] Quando um usuário pressiona e segura a tela de um dispositivo de computação móvel com seu dedo, caneta ou outro dispositivo de seleção, um módulo de toque em qualquer lugar para falar pode fornecer uma indicação visual, audível ou tátil, ou uma combinação dos três para indicar que o mecanismo de escuta é ativado e o módulo de reconhecimento de voz está pronto para capturar entrada de voz. Quando uma indicação de que o usuário terminou com sua entrada de voz é recebida, o módulo de tocar em qualquer lugar para falar pode fornecer outra indicação (visual, audível ou tátil ou uma combinação das três) para indicar que o mecanismo de escuta está desativado. O módulo de reconhecimento de voz pode processar os dados localmente no dispositivo ou remotamente através de uma conexão sem fio para um servidor onde pode ser processado. A aplicação de reconhecimento de voz pode receber então a saída reconhecida e pode então ativar uma aplicação dada, exibir informações dadas, ou executar uma tarefa dada que o usuário indicou através da aplicação de reconhecimento de voz.
[00020] De acordo com outra modalidade, o módulo TATS pode ser também implementado como uma “camada” acima de uma interface de usuário existente. Quando implementado como uma “camada” acima de uma interface de usuário existente, o módulo TATS pode utilizar tanto informações sensíveis a contexto da interface visual além de comandos de voz ilimitados para ajudar um usuário a completar um conjunto de tarefas. Com base no contexto de uma tela de um dispositivo móvel, e/ou local em uma tela onde um usuário toca, uma determinação pode ser feita com relação ao contexto da entrada de voz do usuário. Por exemplo, se um usuário está visualizando um mapa em seu dispositivo de computação móvel, ele pode tocar em uma área es
Petição 870190110079, de 29/10/2019, pág. 9/36
7/25 pecífica da interface de mapa e falar “cinemas”. O módulo TATS pode receber a entrada falar “cinemas”, bem como o local ciente de contexto na interface de mapa onde o usuário tocou para recuperar informações relevantes a cinemas em uma proximidade da área geográfica correlacionada à área tocada da interface de mapa. Para outro exemplo, por tocar em uma imagem ou uma página de rede e falar, “enviar para Bob”, um usuário pode enviar o objeto tocado para um contato reconhecido, Bob.
[00021] A seguinte descrição detalhada se refere aos desenhos em anexo. Sempre que possível, os mesmos números de referência são utilizados no desenho e na seguinte descrição para se referir aos elementos iguais ou similares. Embora modalidades da invenção possam ser descritas, modificações, adaptações e outras implementações são possíveis. Por exemplo, substituição, adição ou modificações podem ser feitas aos elementos ilustrados nos desenhos, e os métodos descritos aqui podem ser modificados por substituir, reordenar ou adicionar estágios aos métodos revelados. Por conseguinte, a seguinte descrição detalhada não limita a invenção, porém em vez disso, o escopo adequado da invenção é definido pelas reivindicações apensas.
[00022] Deve ser reconhecido que várias modalidades da presente invenção podem ser implementadas (1) como uma seqüência de atos implementados por computado ou módulos de programa que rodam em um sistema de computação e/ou (2) como circuitos de lógica de máquina interconectados ou módulos de circuito no sistema de computação. A implementação é uma questão de escolha dependente das exigências de desempenho do sistema de computação implementando a invenção. Por conseguinte, operações lógicas incluindo algoritmos relacionados podem ser mencionadas variadamente como operações, dispositivos estruturais, atos ou módulos. Será reconhecido por uma pessoa versada na técnica que essas operações, dispositivos estrutu
Petição 870190110079, de 29/10/2019, pág. 10/36
8/25 rais, atos e módulos podem ser implementados em software, firmware, lógica digital de propósito especial, e qualquer combinação dos mesmos sem desviar do espírito e escopo da presente invenção como mencionado nas reivindicações expostas aqui.
[00023] O que segue é uma descrição de um dispositivo de computação móvel apropriado, por exemplo, um telefone móvel com o qual as modalidades da invenção podem ser postas em prática. Com referência à figura 1, um dispositivo de computação móvel de exemplo 100 para implementar a modalidade é ilustrado. Em uma configuração básica, o dispositivo de computação móvel 100 é um computador portátil tendo tanto elementos de entrada como elementos de saída. Os elementos de entrada podem incluir display de tela sensível ao toque 105 e botões de entrada 115 que permitem ao usuário entrar informações em dispositivo de computação móvel 100. O dispositivo de computação móvel 100 também pode incorporar um elemento de entrada lateral opcional 125 que permite entrada adicional pelo usuário. O elemento de entrada lateral opcional 125 pode ser um comutador giratório, um botão, ou qualquer outro tipo de elemento de entrada manual. Em modalidades alternativas, o dispositivo de computação móvel 100 pode incorporar um número maior ou menor de elementos de entrada. Por exemplo, o display 105 pode não ser uma tela sensível ao toque em algumas modalidades. Ainda em outra modalidade alternativa, o dispositivo de computação móvel é um sistema de telefone portátil, como um telefone celular tendo display 105 e botões de entrada 115. O dispositivo de computação móvel 100 pode incluir também um bloco de teclas opcional 115. O bloco de teclas opcional 115 pode ser um bloco de teclas físico ou um bloco de teclas “macio” gerado no display de tela sensível ao toque.
[00024] O dispositivo de computação móvel 100 incorpora elementos de saída, como display 105, que podem exibir uma interface gráfiPetição 870190110079, de 29/10/2019, pág. 11/36
9/25 ca de usuário (GUI). Outros elementos de saída incluem alto-falante 130 e luz LED 120. Adicionalmente, o dispositivo de computação móvel 100 pode incorporar um módulo de vibração (não mostrado), que faz com que o dispositivo de computação móvel 100 vibre para notificar o usuário de um evento. Ainda em outra modalidade, o dispositivo de computação móvel 100 pode incorporar uma tomada de fone de cabeça (não mostrado) para fornecer outro meio de fornecer sinais de saída.
[00025] Embora descrito aqui em combinação com o dispositivo de computação móvel 100, em modalidades alternativas a invenção é utilizada em uma combinação com qualquer número de sistemas de computador, como em ambientes de desktop, sistemas de computador de laptop ou notebook, sistemas multiprocessadores, meios eletrônicos de consumidor programáveis ou baseados em microprocessador, PCs de rede, minicomputadores, comutadores de grande porte e similares. As modalidades da invenção podem ser também postas em prática em ambientes de computação distribuídos onde tarefas são realizadas por dispositivos de processamento remoto que são ligados através de uma rede de comunicação em um ambiente de computação distribuído; programas podem ser localizados em dispositivos de armazenagem de memória tanto local como remoto. Para resumir, qualquer sistema de computador tendo uma pluralidade de sensores de ambiente, uma pluralidade de elementos de saída para fornecer notificações para um usuário e uma pluralidade de tipos de evento de notificação pode incorporar modalidades da presente invenção.
[00026] A figura 2 é um diagrama de blocos que ilustra componentes de um dispositivo de computação móvel utilizado em uma modalidade, como o dispositivo de computação mostrado na figura 1. Isto é, o dispositivo de computação móvel 100 (figura 1) pode incorporar o sistema 200 para implementar algumas modalidades. Por exemplo, o
Petição 870190110079, de 29/10/2019, pág. 12/36
10/25 sistema 200 pode ser utilizado na implementação de um “smart phone” que pode rodar uma ou mais aplicações similares àquelas de um computador notebook ou de mesa como, por exemplo, navegador, e-mail, programação, envio instantâneo de mensagem, e aplicações de tocador de mídia. O sistema 200 pode executar um Sistema Operacional (OS) como WINDOWS XP®, WINDOWS CE® disponível da MICROSOFT CORPORATION, Redmond, Washington. Em algumas modalidades, o sistema 200 é integrado como um dispositivo de computação, como um assistente pessoal digital integrado (PDA) e telefone sem fio.
[00027] Um ou mais programas de aplicação 266 pode ser carregado na memória 262 e rodar em ou em associação ao sistema operacional 264. Os exemplos de programas de aplicação incluem programas de discador de telefone, programas de e-mail, programas PIM (gerenciamento de informações pessoais), programas de processamento de texto, programas de planilhas, programas de navegador na Internet, programas de envio de mensagens, e assim por diante. O sistema 200 também inclui armazenagem não volátil 268 na memória 262. A armazenagem não volátil 268 pode ser utilizada para armazenar informações persistentes que não devem ser perdidas se o sistema 200 for desligado. As aplicações 266 podem utilizar e armazenar informações em uma armazenagem não volátil 268, como e-mail ou outras mensagens utilizadas por uma aplicação de e-mail, e similares. Uma aplicação de sincronização (não mostrada) também reside no sistema 200 e é programada para interagir com uma aplicação de sincronização correspondente residente em um computador hospedeiro para manter as informações armazenadas na armazenagem não volátil 268 sincronizada com informações correspondentes armazenadas no computador hospedeiro. Como deve ser reconhecido, outras aplicações podem ser carregadas na memória 262 e rodar no dispositivo 100.
Petição 870190110079, de 29/10/2019, pág. 13/36
11/25 [00028] De acordo com uma modalidade, a aplicação de tocar em qualquer lugar para falar 265 é operativa para ativar um mecanismo de escuta de um módulo de reconhecimento de voz operativo para receber informações de voz de um usuário para uso em uma variedade de aplicações como descrito abaixo.
[00029] O sistema 200 tem uma fonte de energia 270 que pode ser implementada como uma ou mais baterias. A fonte de energia 270 poderia incluir ainda uma fonte de energia eterna, como um adaptador CA ou uma base de encaixe acionada que suplementa ou recarregada as baterias.
[00030] O sistema 200 pode incluir também um radio 272 que executa a função de transmitir e receber comunicações de radiofreqüência. O radio 272 facilita conectividade sem fio entre o sistema 200 e o “mundo externo”, através de uma portadora de comunicação ou fornecedor de serviço. As transmissões para e a partir do rádio 272 são conduzidas sob controle de OS 264. Em outras palavras, as comunicações recebidas pelo rádio 272 podem ser disseminadas para programas de aplicação 266 através de OS 264, e vice versa.
[00031] O rádio 272 permite que o sistema 200 se comunique com outros dispositivos de computação, como através de uma rede. O rádio 272 é um exemplo de mídia de comunicação. Mídia de comunicação pode ser incorporada tipicamente por instruções legíveis por computador, estruturas de dados, módulos de programa, ou outros dados em um sinal de dados modulado, como uma onda portadora ou outro mecanismo de transporte, e inclui qualquer mídia de distribuição de informações. O termo “sinal de dados modulado” significa um sinal que tem uma ou mais de suas características definida ou alterada de tal modo a codificar informações no sinal. Como exemplo, e não limitação, a mídia de comunicação inclui mídia cabeada como conexão cabeada direta ou rede cabeada, e mídia sem fio como mídia acústica,
Petição 870190110079, de 29/10/2019, pág. 14/36
12/25
RF, infravermelha e outra mídia sem fio. O termo mídia legível por computador como utilizado aqui inclui tanto mídia de armazenagem como mídia de comunicação.
[00032] Essa modalidade do sistema 200 é mostrada com dois tipos de dispositivos de saída de notificação; LED 120 que pode ser utilizado para fornecer notificações visuais e uma interface de áudio 274 que pode ser utilizada com alto-falante 130 para fornecer notificações de áudio. Esses dispositivos podem ser acoplados diretamente à fonte de energia 270 de modo que quando ativados, permanecem ligados por uma duração determinada pelo mecanismo de notificação embora o processador 260 e outros componentes poderiam ser fechados para conservar energia de bateria. O LED 120 pode ser programado para permanecer ligado indefinidamente até que o usuário aja para indicar o estado ligado do dispositivo. A interface de áudio 274 é utilizada para fornecer sinais audíveis para e receber sinais audíveis do usuário. Por exemplo, além de ser acoplada ao alto-falante 130, a interface de áudio 274 pode ser também acoplada a um microfone para receber entrada audível, de modo a facilitar uma conversa telefônica. De acordo com modalidades da presente invenção, o microfone também pode servir como um sensor de áudio para facilitar o controle de notificações, como será descrito abaixo.
[00033] O sistema 200 pode incluir ainda interface de vídeo 276 que permite que uma operação de uma câmera a bordo 135 grave imagens fixas, fluxo de vídeo e similar.
[00034] Um sistema de implementar dispositivo de computação móvel 200 pode ter características ou funcionalidade adicionais. Por exemplo, o dispositivo pode incluir também dispositivos de armazenagem de dados adicionais (removíveis e/ou não removíveis) como discos magnéticos, discos ópticos, ou fita. Tal armazenagem adicional é ilustrada na figura 2 pela armazenagem 268. Mídia de armazenagem
Petição 870190110079, de 29/10/2019, pág. 15/36
13/25 de computador pode incluir mídia volátil e não volátil, removível e não removível implementada em qualquer método ou tecnologia para armazenagem de informações, como instruções legíveis por computador, estruturas de dados, módulos de programa ou outros dados. [00035] Dados/informações geradas ou capturadas pelo dispositivo 100 e armazenadas através do sistema 200 podem ser armazenadas localmente no dispositivo 100, como descrito acima, ou os dados podem ser armazenados em qualquer número de mídia de armazenagem que pode ser acessada pelo dispositivo através do rádio 272 ou através de uma conexão cabeada entre o dispositivo 100 e um dispositivo de computação separado 330 associado ao dispositivo 100, por exemplo, um computador servidor em uma rede de computação distribuída 320 como a Internet. Como deve ser reconhecido tais dados/informações podem ser acessadas através do dispositivo 100 via rádio 272 ou via uma rede de computação distribuída 320. Similarmente, tais dados/informações podem ser prontamente transferidas entre os dispositivos de computação para armazenagem e uso de acordo com meio de armazenagem e transferência de dados/informações bem conhecidos, incluindo correio eletrônico e sistemas de partilhar informações/dados colaborativos.
[00036] A figura 3 é um diagrama de blocos simplificado de uma arquitetura de computação para utilizar um módulo de tocar em qualquer lugar para falar (TATS) 265 para iniciar a escuta de um módulo de reconhecimento de voz 330 em um dispositivo de computação móvel 100. De acordo com uma modalidade, após uma indicação de um toque em uma tela 106 de um dispositivo de computação móvel 100 ser recebida pelo módulo TATS 265, um processo de reconhecimento de voz, pelo qual entrada audível recebida é reconhecida, pode ser realizado através de arquitetura de reconhecimento de voz como ilustrado na figura 4. Como deve ser reconhecido, a arquitetura de reco
Petição 870190110079, de 29/10/2019, pág. 16/36
14/25 nhecimento de voz 330 ilustrada na figura 4 pode ser integrada com o módulo TATS 265, ou a arquitetura de reconhecimento de voz ilustrada na figura 4 pode ser chamada pelo módulo TATS 265 para obter reconhecimento de entrada audível.
[00037] De acordo com uma modalidade, após a entrada audível dada ser reconhecida como uma seqüência de texto, por exemplo, “Pizza New York city” e identificada como associada a uma tarefa dada, por exemplo, busca na rede, um módulo de ação 340 pode ser ativado para passar a seqüência de texto reconhecida para uma fonte de informações local 310 ou através de uma rede de computação distribuída 320 para uma fonte remota 350 para recuperação de informações aplicáveis à seqüência de texto. Por exemplo, se a entrada audível, “Bob” for reconhecida pelo módulo de reconhecimento 330 como um contato no livro de endereços de usuário ou lista de contatos, então o módulo de ação 340 pode passar a seqüência de texto identificada para todas as fontes de informações contidas na fonte local 310 e/ou uma fonte remota 350 através de uma rede de computação distribuída 320 para obter informações disponíveis associadas à seqüência de texto selecionada. De acordo com uma modalidade, o módulo de ação 340 pode fornecer opções para um usuário executar uma tarefa móvel referente ao contato reconhecido. Com referência novamente ao exemplo acima onde um usuário fala “Bob” e a entrada é reconhecida como um contato no livro de endereços do usuário, o módulo de ação 340 pode fornecer opções para o usuário executar uma ação, por exemplo, fazer uma chamada, ou enviar um e-mail ou uma mensagem instantânea para o contato reconhecido, Bob.
[00038] Informações que casam a seqüência de texto a partir de cada fonte disponível podem ser retornadas ao módulo TATS 265 para fornecimento a um usuário para uso subseqüente em uma aplicação de software desejada ou tarefa móvel. Por exemplo, se for verificado
Petição 870190110079, de 29/10/2019, pág. 17/36
15/25 que a entrada audível “Bob” corresponde a dois casamentos possíveis, “Bob Smith” e “Bob Davis”, então as duas entradas casadas podem ser apresentadas ao usuário em uma interface de usuário exibida em seu dispositivo de computação móvel 100 para permitir ao usuário selecionar sua entrada pretendida. Após o usuário selecionar sua entrada pretendida, então a seqüência de texto selecionada pode ser passada para uma ou mais aplicações de software ou móveis como descrito em mais detalhe abaixo. Como deve ser reconhecido, o módulo de reconhecimento de voz 330 pode ser programado para reconhecer muitos tipos de dados, por exemplo, comandos, endereços, localizações geográficas, títulos de livros, títulos de filmes, etc. se opções forem apresentadas a um usuário que não casam com a entrada pretendida do usuário, o usuário pode pressionar e reter a tela 105 de um dispositivo de computação móvel 100 para fornecer novamente entrada audível, ou pode pressionar fora da área dos casamentos exibidos para evitar ter de retornar a uma tela de entrada anterior para pressionar e falar.
[00039] A figura 4 é um fluxograma lógico que ilustra um método para fornecer um módulo de tocar em qualquer lugar para falar (TATS) 265 para engajar o mecanismo de escuta em interação de reconhecimento de voz em um dispositivo de computação móvel 100. Tendo descrito um ambiente operacional exemplar e aspectos de modalidades da presente invenção acima com relação às figuras 1-3, é vantajoso descrever uma operação de exemplo de uma modalidade da presente invenção. Com referência a seguir à figura 4, o método 400 começa na operação de iniciar 405 e prossegue para a operação 410 onde o módulo TATS 265 é selecionado e aberto por um usuário. Um usuário pode abrir o módulo TATS 265 através de métodos de entrada conhecidos, por exemplo, tocar em um ícone ou seqüência de texto que representa o módulo TATS 265 na tela 105 de um dispositivo de
Petição 870190110079, de 29/10/2019, pág. 18/36
16/25 computação móvel 100.
[00040] Após o módulo TATS 265 ser aberto, o método prossegue para a operação 415 onde o módulo TATS recebe uma indicação de um toque em qualquer lugar na tela sensível a toque 105 de um dispositivo de computação móvel 100. Como deve ser reconhecido, um toque pode ser um toque do dedo de um usuário ou por intermédio de um dispositivo, como uma caneta. De acordo com modalidades da invenção, o toque recebido é o método pelo qual o modo de escuta é habilitado em interação de reconhecimento de voz. Isto é, modalidades da presente invenção habilitam um usuário a tocar em qualquer lugar na tela sensível a toque 105 do dispositivo 100 para indicar para o módulo de reconhecimento de voz para começar a ouvir entrada audível. As modalidades da presente invenção permitem que um usuário toque em qualquer lugar na tela 105 do dispositivo 100 para engajar o mecanismo de escuta, ao contrário da interação pressionar para falar através de um método de entrada alternativo como um elemento de entrada lateral por fio 125, que pode ser um comutador giratório, um botão, ou qualquer outro tipo de elemento de entrada manual, botões de entrada de hardware 115, teclas macias, limites definidos de um botão em uma interface de tela sensível a toque 105, ou outros elementos de entrada conhecidos.
[00041] De acordo com uma modalidade, um toque pode ser um componente de um modelo de interação de pressionar e reter, onde um usuário toca a tela 105 para ativar a escuta, mantém seu dedo (ou outro mecanismo utilizado para a interface de tela sensível a toque) na tela enquanto está fornecendo entrada audível, e então libera seu dedo ou outro mecanismo de toque para desativar escuta. De acordo com outra modalidade, um toque pode ser um modelo de interação de pressionar e liberar, que como no modelo anterior, um usuário toca a tela 105 para ativar a escuta; entretanto, após liberar seu dedo ou ou
Petição 870190110079, de 29/10/2019, pág. 19/36
17/25 tro mecanismo de toque, a aplicação de reconhecimento de voz 330 permanece no modo de escuta. O mecanismo de escuta pode se desativado através de uma indicação de um toque subseqüente, se silêncio for determinado para um dado período de tempo, ou através de outro método pelo qual uma indicação de fim de voz é detectável por uma aplicação dada.
[00042] Após uma indicação de um toque ser recebida pelo módulo TATS 265, na operação 420, realimentação pode ser dada para confirmar o recebimento do toque. De acordo com uma modalidade e como ilustrado na figura 5, em associação à figura 4, a realimentação 505 pode ser realimentação visual (por exemplo, display animado na tela 105), realimentação audível (por exemplo, tom audível tocado através do alto-falante 130), realimentação tátil (por exemplo, vibração) ou uma combinação dos três. De acordo com uma modalidade, a realimentação visual 505 pode indicar onde na tela 105 o usuário tocou. Por exemplo, como ilustrado na figura 5, uma imagem 505 pode ser exibida na tela 105 para alertar o usuário de que uma indicação de um toque foi recebido no local onde a imagem é exibida. A realimentação pode alertar o usuário de que o módulo TATS 265 recebeu uma entrada de toque, e, por conseguinte, o mecanismo de escuta foi ativado como mostrado na operação 425 como ilustrado na figura 4. De acordo com uma modalidade, o módulo TATS 265 pode enviar realimentação confirmando o recebimento de um toque para o usuário (operação 420) e ativar o mecanismo de escuta (operação 425) simultaneamente. De acordo com outra modalidade, a operação 420 pode ocorrer antes da operação 425. De acordo com outra modalidade, a operação 425 pode ocorrer antes da operação 420.
[00043] Após o mecanismo de escuta ser ativado, o módulo de reconhecimento de voz 330 está pronto para receber entrada audível a partir do usuário. Na operação 430, o usuário pode falar, e sua ex
Petição 870190110079, de 29/10/2019, pág. 20/36
18/25 pressão falada pode ser recebida pelo mecanismo de escuta. Como deve ser reconhecido por aqueles versados na técnica, o reconhecimento de voz é uma tecnologia conhecida que não será discutida extensamente aqui.
[00044] Na operação 431, enquanto a expressão falada está sendo recebida 430, realimentação visual de um nível de som medido da expressão falada pode ser exibido na tela. Com referência à figura 6 em associação à figura 4, a realimentação pode ser um medidor de volume 605. De acordo com uma modalidade, o medidor de volume pode ser feito como uma série de anéis concêntricos que emanam de uma posição tocada à medida que mais volume é detectado. De acordo com outra modalidade, os anéis concêntricos podem alterar a cor ou sombreamento à medida que o volume aumenta. Como ilustrado na figura 6, um medidor e volume de exemplo 605 é exibido na tela 105 de um dispositivo de computação móvel 100 refletindo o volume no qual o usuário está falando. Nesse exemplo, o volume no qual o usuário está falando é mostrado como sendo detectado em um nível de volume de três de um máximo de cinco níveis. Se o usuário falar mais alto, o anel externo seguinte pode mudar de cor ou sombreamento para deixar o usuário saber que o volume de sua voz aumentou. Se o usuário falar mais suavemente, o número de anéis coloridos ou sombeados pode diminuir para deixar o usuário saber que o volume de sua voz diminuiu. O display animado é um modo de fornecer realimentação visual e auxiliar a auto-correção.
[00045] Com referência ainda à figura 4, após o usuário terminar sua expressão falada, na operação 435, uma indicação para terminar o modo de escuta é recebido. Como descrito anteriormente, de acordo com uma modalidade, um modelo de interação de pressionar e reter pode ser utilizado onde um usuário toca a tela 105 para ativar a escuta, mantém seu dedo (ou outro mecanismo utilizado para a interface
Petição 870190110079, de 29/10/2019, pág. 21/36
19/25 de tela sensível a toque) na tela enquanto ele está fornecendo entrada audível, e então libera seu dedo ou outro mecanismo sensível a toque para indicar para o módulo TATS 265 para desativar escuta. De acordo com outra modalidade, um modelo de interação de pressionar e liberar pode ser utilizado, onde a indicação para terminar escuta pode ser através de uma indicação de um toque subseqüente. De acordo com outra modalidade, silêncio detectado para um dado período de tempo pode ser a indicação para o mecanismo de escuta terminar escuta. Como deve ser reconhecido, outros métodos podem ser utilizados para indicar que o usuário terminou de falar e para a aplicação sair do modo de escuta.
[00046] Após uma indicação ser recebida para terminar a escuta, na operação 440, o mecanismo de escuta é desativado, e o módulo de reconhecimento de voz 330 não mais recebe entrada audível até receber uma indicação para ativar novamente o mecanismo de escuta. Na operação 445, o módulo TATS 265 confirma que recebeu uma indicação para desativar escuta e subseqüentemente o mecanismo de escuta é desativado. De acordo com uma modalidade, a confirmação pode ser realimentação visual, realimentação audível, realimentação tátil, ou uma combinação dos três. De acordo com uma modalidade, as operações 440 e 445 podem ocorrer simultaneamente. De acordo com outra modalidade, a operação 440 pode ocorrer antes da operação 445. De acordo com outra modalidade, a operação 440 pode ocorrer após a operação 445.
[00047] Na operação 450, a entrada audível recebida é enviada para um módulo de reconhecimento de voz, onde pode ser traduzida em sinais digitais, analisado e determinado o que o usuário falou. O módulo de reconhecimento de voz 330 pode ser incorporado no dispositivo de computação móvel 100 ou localizado remotamente e acessado através de uma conexão sem fio a um servidor. Após reconhecimento
Petição 870190110079, de 29/10/2019, pág. 22/36
20/25 de voz, pode ser enviado para um módulo de ação 340 para executar a função pretendida reconhecida do usuário. Por exemplo, foi determinado que o usuário falou, “Movie listings; Dalas, Texas”. O módulo de ação 340 pode enviar os dados para um motor de busca através de uma conexão sem fio para recuperar informações de listagem de filmes atuais na área de Dallas, Texas. Na operação 455, os dados recuperados podem ser então enviados para o usuário e exibidos na tela 105 do dispositivo de computação móvel. De acordo com uma modalidade, os dados recuperados podem exigir a utilização de outras aplicações móveis. Por exemplo, para buscar listagens de filmes, para recuperar os dados fornecidos, uma aplicação de navegador pode necessitar ser habilitada. O método termina na operação 460.
[00048] Como descrito resumidamente anteriormente, uma modalidade da presente invenção inclui utilizar informações sensíveis a contexto da interface visual além de comandos de voz ilimitados para ajudar um usuário a completar um conjunto de tarefas. A figura 7 é um fluxograma lógico que ilustra um método para fornecer um módulo de tocar em qualquer lugar para falar (TATS) 265 para engajar o mecanismo de escuta em interação de reconhecimento de voz em um dispositivo de computação móvel 100 onde um contexto da tela onde um usuário tocou pode ser identificado e utilizado em combinação com entrada audível recebida.
[00049] De acordo com uma modalidade, o módulo TATS 265 pode ser operativo para utilizar os dados associados a um toque para não somente engajar o mecanismo de escuta de um módulo de reconhecimento de voz 330, como também engajar o mecanismo de escuta no contexto de um local ou outros dados contextuais que estão sendo tocados. Com base no contexto da tela 105 do dispositivo móvel 100, e/ou o local na tela 105 onde um usuário toca, o módulo TATS 265 pode determinar o contexto da entrada de voz do usuário. Por conse
Petição 870190110079, de 29/10/2019, pág. 23/36
21/25 guinte, o usuário recebe mais informações direcionadas. Por exemplo, se um usuário está vendo um mapa em seu dispositivo de comutação móvel 100, e toca em uma área específica da interface de mapa e fala, “café”, o módulo TATS 265 pode receber a entrada falada, “café”, bem como o local ciente de contexto na interface do mapa onde o usuário tocou a tela sensível a toque para recuperar informações relevantes a café e o local especificado pela área tocada da interface de mapa. Se o usuário está vendo o mesmo mapa como no exemplo anterior e fala “café”, porém toca em um ponto diferente na interface de m apa, os resultados retornados podem ser diferentes porque a entrada de local contextual mudou. A implementação de dados visuais contextuais com dados falados pode habilitar um vasto conjunto de aplicações possíveis. Por exemplo, falar um comando de instrução (por exemplo, “zoom in”) enquanto toca em uma interface de mapa pode produzir resultados diferentes do que falar uma expressão destinada como uma consulta de busca.
[00050] Com referência então à figura 7, o método 700 começa na operação iniciar 706 e prossegue para a operação 710 onde o módulo TATS 265 é selecionado e aberto por um usuário. Um usuário pode abrir o módulo TATS 265 através de métodos de entrada conhecidos, por exemplo, tocar em um ícone ou seqüência de texto que representa o módulo TATS 265 na tela 105 de um dispositivo de computação móvel 100.
[00051] Após o módulo TATS 265 ser aberto, o método prossegue para a operação 715 onde o módulo TATS recebe uma indicação de um toque em uma área contextual da tela sensível a toque 105 de um dispositivo de computação móvel 100. Como deve ser reconhecido, um toque pode ser um toque do dedo de um usuário ou por intermédio de um dispositivo, como uma caneta. De acordo com modalidades da invenção, o toque recebido é o método pelo qual o modo de escuta é
Petição 870190110079, de 29/10/2019, pág. 24/36
22/25 habilitado em interação de reconhecimento de voz. As modalidades da presente invenção habilitam um usuário a tocar em uma área contextual na tela sensível a toque 105 do dispositivo 100 para indicar para o módulo de reconhecimento de voz para começar a escutar entrada audível.
[00052] De acordo com uma modalidade, o toque pode ser um componente de um modelo de interação de pressionar e reter, onde um usuário toca a tela 105 para ativar a escuta, mantém seu dedo (ou outro mecanismo utilizado para a interface de tela sensível a toque) na área contextual da tela enquanto está fornecendo entrada audível, e então libera seu dedo ou outro mecanismo de toque para desativar escuta. De acordo com outra modalidade, um toque pode ser um modelo de interação de pressionar e liberar, que como no modelo anterior, um usuário toca a área contextual da tela 105 para ativar a escuta; entretanto, após liberar seu dedo ou outro mecanismo de toque, a aplicação de reconhecimento de voz 330 permanece no modo de escuta. O mecanismo de escuta pode ser desativado através de uma indicação de um toque subseqüente, se silêncio for determinado por um dado período de tempo, ou através de outro método pelo qual uma indicação de término de fala é detectável por uma dada aplicação.
[00053] Após uma indicação de um toque ser recebida pelo módulo TATS 265, na operação 725, a realimentação pode ser dada para confirmar o recebimento do toque. De acordo com uma modalidade, a realimentação 505 pode ser realimentação visual (por exemplo, display animado na tela 105), realimentação audível (por exemplo, tom audível tocado através de alto-falante 130), realimentação tátil (por exemplo, vibração) ou uma combinação dos três. De acordo com uma modalidade, a realimentação visual 505 pode indicar onde na tela 105 o usuário tocou. Por exemplo, com referência novamente à figura 5, uma imagem 505 pode ser exibida na tela 105 para alertar ao usuário de
Petição 870190110079, de 29/10/2019, pág. 25/36
23/25 que uma indicação de um toque foi recebida no local onde a imagem é exibida. A realimentação 505 pode alertar o usuário de que o módulo TATS 265 recebeu uma entrada de toque, e, por conseguinte, o mecanismo de escuta foi ativado como mostrado na operação 725 como ilustrado na figura 7. De acordo com uma modalidade, o módulo TATS 265 pode enviar realimentação confirmando o recebimento de um toque para o usuário (operação 720) e ativar o mecanismo de escuta (operação 725) simultaneamente. De acordo com outra modalidade, a operação 720 pode ocorrer antes da operação 725. De acordo com outra modalidade, a operação 725 pode ocorrer antes da operação 720.
[00054] Após ativação do mecanismo de escuta, o módulo de reconhecimento de voz 330 está pronto para receber entrada audível a partir do usuário. Na operação 730, o usuário pode falar, e sua expressão falada pode ser recebida pelo mecanismo de escuta. Como deve ser reconhecido por aqueles versados na técnica, o reconhecimento de voz é uma tecnologia conhecida que não será discutida extensamente aqui.
[00055] Na operação 731, enquanto a expressão falada está sendo recebida 730, como descrito anteriormente com referência à operação 431 na figura 4, a realimentação visual 605 de um nível de som medido da expressão falada pode ser exibida na tela 105 feito como centrada em torno de uma área na tela sensível a toque 105 na qual o toque é recebido.
[00056] Continuando para a operação 732, o módulo TATS 265 pode identificar os dados contextuais do toque e determinar uma identificação do toque em associação aos dados contextuais identificados. Na operação 733, a identificação do toque pode ser passada para o módulo TATS 265. Por exemplo, se um usuário estiver vendo um mapa de uma cidade, ele/ela pode tocar uma área específica do mapa e
Petição 870190110079, de 29/10/2019, pág. 26/36
24/25 falar uma expressão. A área específica do mapa exibido na interface de tela onde o usuário tocou pode ser lida e identificada como uma latitude e longitude específicas nas quais utilizar em combinação com dados falados recebidos para executar uma função pretendida reconhecida pelo usuário.
[00057] Na operação 735, uma indicação para terminar o modo de escuta é recebida. Por conseguinte, na operação 740, o mecanismo de escuta é desativado e na operação 745, uma confirmação é dada de que o mecanismo de escuta foi desativado.
[00058] Na operação 750, a entrada audível recebida é enviada para um módulo de reconhecimento de voz, onde pode ser traduzido em dados digitais, analisados em combinação com os dados contextuais identificados do toque, e determinado o que o usuário falou. O módulo de reconhecimento de voz 330 pode ser incorporado no dispositivo de computação móvel 100 ou localizado remotamente e acessado através de uma conexão sem fio para um servidor. Após a voz ser reconhecida, pode ser enviada para um módulo de ação 340 para executar a função pretendida reconhecida do usuário. De acordo com uma modalidade, a identificação e utilização dos dados contextuais do toque podem ocorrer em vários estágios no processo, e não necessariamente na operação 750.
[00059] Na operação 755, os dados recuperados podem ser então enviados para o usuário e exibidos na tela 105 do dispositivo de computação móvel. De acordo com uma modalidade, os dados recuperados podem exigir a utilização de outras aplicações móveis. O método termina na operação 760.
[00060] De acordo com uma modalidade, uma interação de pressionar e reter pode habilitar certas funções de reconhecimento de voz; enquanto alternativamente, uma interação de pressionar e liberar pode habilitar outras funcionalidades. Por exemplo, se um usuário tocar seu
Petição 870190110079, de 29/10/2019, pág. 27/36
25/25 dedo na tela 105 de seu dispositivo móvel 100 e então mover seu dedo para fora da tela 105, o módulo TATS 265 pode habilitar o mecanismo de escuta para interação de reconhecimento de voz. Entretanto, se ele tocar seu dedo na tela 105 de seu dispositivo móvel e deixar seu dedo na tela 105, o módulo TATS 265 pode habilitar o mecanismo de escuta para interação de reconhecimento de voz no contexto do toque. De acordo com esse exemplo, uma ação de pressionar e reter faz a distinção para o módulo TATS 265 para aplicar o contexto da interface visual além da entrada audível. Deve ser reconhecido que outros métodos podem existir para distinguir entre aplicações de interação pretendida.
[00061] Embora a invenção tenha sido descrita com relação a várias modalidades, aqueles com conhecimentos comuns na técnica entenderão que muitas modificações podem ser feitas na mesma compreendidas no escopo das reivindicações que seguem.
Claims (12)
- REIVINDICAÇÕES1. Método para fornecer funcionalidade de entrada para um módulo de interação de reconhecimento de voz caracterizado pelo fato de que compreende:receber (415) uma indicação de um toque em qualquer lugar em uma interface de tela sensível ao toque de um dispositivo de computação móvel;após receber uma indicação de um toque em qualquer lugar na interface de tela sensível ao toque, ativar (425) um mecanismo de escuta de um módulo de reconhecimento de voz; e exibir (431) realimentação visual dinâmica de um nível de som medido de uma expressão falada recebida pelo módulo de reconhecimento de voz, em que a realimentação visual exibida é feita como centrada em torno de uma área na tela sensível a toque na qual um toque é recebido.
- 2. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende ainda gerar (420) uma confirmação em resposta ao recebimento de uma indicação de um toque em qualquer lugar na interface de tela sensível ao toque do dispositivo de computação móvel.
- 3. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que receber (415) uma indicação de um toque em qualquer lugar em uma interface de tela sensível a toque de um dispositivo de computação móvel inclui receber uma indicação de um toque e reter em qualquer lugar em uma interface de tela sensível a toque de um dispositivo de computação móvel.
- 4. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que ativar o mecanismo de escuta de um módulo de reconhecimento de voz compreende:determinar se a interface de tela sensível a toque recebeuPetição 870190110079, de 29/10/2019, pág. 29/362/3 (415) um toque; e ativar (425) o mecanismo de escuta.
- 5. Método, de acordo com a reivindicação 2, caracterizado pelo fato de que confirmar (420) recebimento da indicação de um toque em qualquer lugar na interface de tela sensível ao toque tem a forma de realimentação visual.
- 6. Método, de acordo com a reivindicação 2, caracterizado pelo fato de que confirmar (420) recebimento da indicação de um toque em qualquer lugar na interface de tela sensível a toque tem a forma de realimentação tátil.
- 7. Método, de acordo com a reivindicação 2, caracterizado pelo fato de que confirmar (420) recebimento da indicação de um toque em qualquer lugar na interface de tela sensível ao toque tem a forma de realimentação tátil.
- 8. Método, de acordo com a reivindicação 2, caracterizado pelo fato de que confirmar (420) recebimento da indicação de um toque em qualquer lugar na interface de tela sensível a toque tem a forma de uma combinação de realimentação audível, visual e/ou tátil.
- 9. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que o toque em qualquer lugar em uma interface de tela sensível ao toque é um toque dentro de uma contextual na interface de tela sensível ao toque do dispositivo de computação móvel compreendendo:após receber a indicação do toque em uma área contextual na interface de tela sensível a toque:identificar (732) os dados contextuais do toque e determinar uma identificação do toque em associação aos dados contextuais identificados;passar (733) a identificação do toque para uma ou mais aplicações de software;Petição 870190110079, de 29/10/2019, pág. 30/363/3 ativar (725) um mecanismo de escuta de um módulo de reconhecimento de fala;receber (730) uma expressão falada;utilizar (750) a identificação do toque em associação aos dados contextuais identificados 750, e causar uma execução de uma funcionalidade de uma ou mais aplicações de software com base nos dados contextuais identificados; e exibir (731) realimentação visual dinâmica de um nível de som medido de uma expressão falada recebida pelo módulo de reconhecimento de voz, em que a realimentação visual exibida é feita como centrada em torno de uma área na tela sensível a toque na qual um toque em uma área contextual é recebida.
- 10. Método, de acordo com a reivindicação 9, caracterizado pelo fato de que ainda compreende gerar (720) uma confirmação em resposta ao recebimento de uma indicação de um toque em uma área contextual na interface de tela sensível a toque do dispositivo de computação móvel.
- 11. Método, de acordo com a reivindicação 10, caracterizado pelo fato de que confirmar (720) o recebimento de indicação de um toque em uma área contextual na interface de tela sensível a toque pode estar na forma de realimentação audível, realimentação visual, realimentação tátil, ou qualquer combinação das três.
- 12. Método, de acordo com a reivindicação 9, caracterizado pelo fato de que a etapa de receber (715) uma indicação de um toque em uma área contextual em uma interface de tela sensível a toque de um dispositivo de computação móvel inclui receber uma indicação de um toque e reter em uma área contextual na interface de tela sensível a toque em uma interface de tela sensível a toque de um dispositivo de computação móvel.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/482,429 US8412531B2 (en) | 2009-06-10 | 2009-06-10 | Touch anywhere to speak |
PCT/US2010/038213 WO2010144732A2 (en) | 2009-06-10 | 2010-06-10 | Touch anywhere to speak |
Publications (2)
Publication Number | Publication Date |
---|---|
BRPI1010584A2 BRPI1010584A2 (pt) | 2016-03-15 |
BRPI1010584B1 true BRPI1010584B1 (pt) | 2020-01-28 |
Family
ID=43307159
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
BRPI1010584A BRPI1010584B1 (pt) | 2009-06-10 | 2010-06-10 | método para fornecer funcionalidade de entrada para um módulo de interação de reconhecimento de voz |
Country Status (10)
Country | Link |
---|---|
US (1) | US8412531B2 (pt) |
EP (1) | EP2440988B1 (pt) |
CN (1) | CN102460346A (pt) |
AU (1) | AU2010258675B2 (pt) |
BR (1) | BRPI1010584B1 (pt) |
CA (1) | CA2760993C (pt) |
HK (1) | HK1169725A1 (pt) |
RU (1) | RU2526758C2 (pt) |
TW (1) | TWI497406B (pt) |
WO (1) | WO2010144732A2 (pt) |
Families Citing this family (170)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US10002189B2 (en) | 2007-12-20 | 2018-06-19 | Apple Inc. | Method and apparatus for searching using an active ontology |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
KR20090107365A (ko) * | 2008-04-08 | 2009-10-13 | 엘지전자 주식회사 | 이동 단말기 및 그 메뉴 제어방법 |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US10706373B2 (en) | 2011-06-03 | 2020-07-07 | Apple Inc. | Performing actions associated with task items that represent tasks to perform |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US20110126094A1 (en) * | 2009-11-24 | 2011-05-26 | Horodezky Samuel J | Method of modifying commands on a touch screen user interface |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
US20110246194A1 (en) * | 2010-03-30 | 2011-10-06 | Nvoq Incorporated | Indicia to indicate a dictation application is capable of receiving audio |
US20110283241A1 (en) * | 2010-05-14 | 2011-11-17 | Google Inc. | Touch Gesture Actions From A Device's Lock Screen |
US20120089392A1 (en) * | 2010-10-07 | 2012-04-12 | Microsoft Corporation | Speech recognition user interface |
KR101275582B1 (ko) * | 2010-12-31 | 2013-06-17 | 엘지전자 주식회사 | 휴대 단말기의 동작방법 |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US9368107B2 (en) * | 2011-04-20 | 2016-06-14 | Nuance Communications, Inc. | Permitting automated speech command discovery via manual event to command mapping |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
EP2721607A1 (en) * | 2011-06-15 | 2014-04-23 | Bone Tone Communications (Israel) Ltd. | System, device and method for detecting speech |
US20130218836A1 (en) * | 2012-02-22 | 2013-08-22 | Microsoft Corporation | Deep Linking From Task List Based on Intent |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
CN103294183B (zh) * | 2012-03-05 | 2017-03-01 | 联想(北京)有限公司 | 终端设备及其对压力进行反馈的方法 |
EP2833980A4 (en) * | 2012-04-03 | 2016-01-13 | Senseapp Internat Ltd | MULTI-PURPOSE HOUSING FOR COMPUTER DEVICE |
US10417037B2 (en) | 2012-05-15 | 2019-09-17 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
KR101987255B1 (ko) * | 2012-08-20 | 2019-06-11 | 엘지이노텍 주식회사 | 음성 인식 장치 및 이의 음성 인식 방법 |
TWI468983B (zh) * | 2012-09-21 | 2015-01-11 | Univ Nat Chiao Tung | 服務啟動方法及系統 |
KR20150104615A (ko) | 2013-02-07 | 2015-09-15 | 애플 인크. | 디지털 어시스턴트를 위한 음성 트리거 |
US10795528B2 (en) * | 2013-03-06 | 2020-10-06 | Nuance Communications, Inc. | Task assistant having multiple visual displays |
US10783139B2 (en) | 2013-03-06 | 2020-09-22 | Nuance Communications, Inc. | Task assistant |
US10652394B2 (en) | 2013-03-14 | 2020-05-12 | Apple Inc. | System and method for processing voicemail |
US10748529B1 (en) | 2013-03-15 | 2020-08-18 | Apple Inc. | Voice activated device for use with a voice-based digital assistant |
KR101437572B1 (ko) * | 2013-05-09 | 2014-09-04 | (주)오픈벡스 | 휴대단말기의 보이스 토크 제어방법 |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
EP3008641A1 (en) | 2013-06-09 | 2016-04-20 | Apple Inc. | Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant |
CN104301497A (zh) * | 2013-07-15 | 2015-01-21 | 中兴通讯股份有限公司 | 一种来电界面的显示方法及装置 |
KR102089444B1 (ko) | 2013-07-25 | 2020-03-16 | 삼성전자 주식회사 | 음성 인식 기능을 지원하는 전자 기기의 음성 입력 제어 방법 및 장치 장치 |
CN105453026A (zh) | 2013-08-06 | 2016-03-30 | 苹果公司 | 基于来自远程设备的活动自动激活智能响应 |
US10296160B2 (en) | 2013-12-06 | 2019-05-21 | Apple Inc. | Method for extracting salient dialog usage from live data |
CN105934791B (zh) | 2014-01-31 | 2019-11-22 | 惠普发展公司,有限责任合伙企业 | 语音输入命令 |
CN104754395A (zh) * | 2014-02-26 | 2015-07-01 | 苏州乐聚一堂电子科技有限公司 | 声感视觉特效系统及声感视觉特效处理方法 |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
TWI566107B (zh) | 2014-05-30 | 2017-01-11 | 蘋果公司 | 用於處理多部分語音命令之方法、非暫時性電腦可讀儲存媒體及電子裝置 |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US10698995B2 (en) | 2014-08-28 | 2020-06-30 | Facetec, Inc. | Method to verify identity using a previously collected biometric image/data |
US10915618B2 (en) | 2014-08-28 | 2021-02-09 | Facetec, Inc. | Method to add remotely collected biometric images / templates to a database record of personal information |
CA3186147A1 (en) | 2014-08-28 | 2016-02-28 | Kevin Alan Tussy | Facial recognition authentication system including path parameters |
US11256792B2 (en) | 2014-08-28 | 2022-02-22 | Facetec, Inc. | Method and apparatus for creation and use of digital identification |
US10614204B2 (en) | 2014-08-28 | 2020-04-07 | Facetec, Inc. | Facial recognition authentication system including path parameters |
US10803160B2 (en) | 2014-08-28 | 2020-10-13 | Facetec, Inc. | Method to verify and identify blockchain with user question data |
US9953646B2 (en) | 2014-09-02 | 2018-04-24 | Belleau Technologies | Method and system for dynamic speech recognition and tracking of prewritten script |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
CN107077846B (zh) | 2014-10-24 | 2021-03-16 | 索尼互动娱乐股份有限公司 | 控制装置、控制方法、程序和信息存储介质 |
WO2016063621A1 (ja) * | 2014-10-24 | 2016-04-28 | 株式会社ソニー・コンピュータエンタテインメント | 制御装置、制御方法、プログラム及び情報記憶媒体 |
US9904450B2 (en) | 2014-12-19 | 2018-02-27 | At&T Intellectual Property I, L.P. | System and method for creating and sharing plans through multimodal dialog |
US9633661B1 (en) * | 2015-02-02 | 2017-04-25 | Amazon Technologies, Inc. | Speech-responsive portable speaker |
US10152299B2 (en) | 2015-03-06 | 2018-12-11 | Apple Inc. | Reducing response latency of intelligent automated assistants |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US20160378747A1 (en) | 2015-06-29 | 2016-12-29 | Apple Inc. | Virtual assistant for media playback |
USD803233S1 (en) * | 2015-08-14 | 2017-11-21 | Sonos, Inc. | Display device with animated graphical user interface element |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US20170076626A1 (en) * | 2015-09-14 | 2017-03-16 | Seashells Education Software, Inc. | System and Method for Dynamic Response to User Interaction |
USD803245S1 (en) * | 2015-10-08 | 2017-11-21 | Smule, Inc. | Display screen or portion thereof with graphical user interface |
USD800752S1 (en) * | 2015-10-08 | 2017-10-24 | Smule, Inc. | Display screen or portion thereof with animated graphical user interface |
WO2017061149A1 (ja) * | 2015-10-08 | 2017-04-13 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
USD800751S1 (en) * | 2015-10-08 | 2017-10-24 | Smule, Inc. | Display screen or portion thereof with animated graphical user interface |
USD801999S1 (en) * | 2015-10-08 | 2017-11-07 | Smule, Inc. | Display screen or portion thereof with graphical user interface |
USD800753S1 (en) * | 2015-10-08 | 2017-10-24 | Smule, Inc. | Display screen or portion thereof with animated graphical user interface |
USD855629S1 (en) * | 2015-10-23 | 2019-08-06 | Sony Corporation | Display panel or screen or portion thereof with an animated graphical user interface |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10956666B2 (en) | 2015-11-09 | 2021-03-23 | Apple Inc. | Unconventional virtual assistant interactions |
FR3044436B1 (fr) | 2015-11-27 | 2017-12-01 | Thales Sa | Procede d'utilisation d'un dispositif d'interface homme-machine pour aeronef comportant une unite de reconnaissance de la parole |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
CN106855780A (zh) * | 2015-12-09 | 2017-06-16 | 阿里巴巴集团控股有限公司 | 输入操作的处理方法、装置和智能终端 |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
USD798902S1 (en) * | 2016-04-20 | 2017-10-03 | Google Inc. | Display screen with animated graphical user interface |
USD987653S1 (en) | 2016-04-26 | 2023-05-30 | Facetec, Inc. | Display screen or portion thereof with graphical user interface |
USD803870S1 (en) * | 2016-05-25 | 2017-11-28 | Microsoft Corporation | Display screen with animated graphical user interface |
US11227589B2 (en) | 2016-06-06 | 2022-01-18 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
US10474753B2 (en) | 2016-09-07 | 2019-11-12 | Apple Inc. | Language identification using recurrent neural networks |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US11281993B2 (en) | 2016-12-05 | 2022-03-22 | Apple Inc. | Model and ensemble compression for metric learning |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
US11204787B2 (en) | 2017-01-09 | 2021-12-21 | Apple Inc. | Application integration with a digital assistant |
US10909371B2 (en) * | 2017-01-19 | 2021-02-02 | Samsung Electronics Co., Ltd. | System and method for contextual driven intelligence |
DK201770383A1 (en) | 2017-05-09 | 2018-12-14 | Apple Inc. | USER INTERFACE FOR CORRECTING RECOGNITION ERRORS |
US10417266B2 (en) | 2017-05-09 | 2019-09-17 | Apple Inc. | Context-aware ranking of intelligent response suggestions |
US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
US10395654B2 (en) | 2017-05-11 | 2019-08-27 | Apple Inc. | Text normalization based on a data-driven learning network |
DK201770439A1 (en) | 2017-05-11 | 2018-12-13 | Apple Inc. | Offline personal assistant |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
US11301477B2 (en) | 2017-05-12 | 2022-04-12 | Apple Inc. | Feedback analysis of a digital assistant |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK201770429A1 (en) | 2017-05-12 | 2018-12-14 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
DK201770432A1 (en) | 2017-05-15 | 2018-12-21 | Apple Inc. | Hierarchical belief states for digital assistants |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
US20180336275A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Intelligent automated assistant for media exploration |
US10403278B2 (en) | 2017-05-16 | 2019-09-03 | Apple Inc. | Methods and systems for phonetic matching in digital assistant services |
US20180336892A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Detecting a trigger of a digital assistant |
DK179560B1 (en) | 2017-05-16 | 2019-02-18 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
US10311144B2 (en) | 2017-05-16 | 2019-06-04 | Apple Inc. | Emoji word sense disambiguation |
US10657328B2 (en) | 2017-06-02 | 2020-05-19 | Apple Inc. | Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling |
US10445429B2 (en) | 2017-09-21 | 2019-10-15 | Apple Inc. | Natural language understanding using vocabularies with compressed serialized tries |
US10755051B2 (en) | 2017-09-29 | 2020-08-25 | Apple Inc. | Rule-based natural language processing |
US10636424B2 (en) | 2017-11-30 | 2020-04-28 | Apple Inc. | Multi-turn canned dialog |
US10733982B2 (en) | 2018-01-08 | 2020-08-04 | Apple Inc. | Multi-directional dialog |
JP1618244S (pt) * | 2018-01-31 | 2019-01-21 | ||
US10733375B2 (en) | 2018-01-31 | 2020-08-04 | Apple Inc. | Knowledge-based framework for improving natural language understanding |
JP7023743B2 (ja) * | 2018-02-28 | 2022-02-22 | シャープ株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US10789959B2 (en) | 2018-03-02 | 2020-09-29 | Apple Inc. | Training speaker recognition models for digital assistants |
US10592604B2 (en) | 2018-03-12 | 2020-03-17 | Apple Inc. | Inverse text normalization for automatic speech recognition |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
US10909331B2 (en) | 2018-03-30 | 2021-02-02 | Apple Inc. | Implicit identification of translation payload with neural machine translation |
USD890773S1 (en) * | 2018-04-03 | 2020-07-21 | Samsung Electronics Co., Ltd. | Display screen or portion thereof with transitional graphical user interface |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
US10984780B2 (en) | 2018-05-21 | 2021-04-20 | Apple Inc. | Global semantic word embeddings using bi-directional recurrent neural networks |
CN108804010B (zh) * | 2018-05-31 | 2021-07-30 | 北京小米移动软件有限公司 | 终端控制方法、装置及计算机可读存储介质 |
US11386266B2 (en) | 2018-06-01 | 2022-07-12 | Apple Inc. | Text correction |
DK201870355A1 (en) | 2018-06-01 | 2019-12-16 | Apple Inc. | VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS |
DK179822B1 (da) | 2018-06-01 | 2019-07-12 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
US10496705B1 (en) | 2018-06-03 | 2019-12-03 | Apple Inc. | Accelerated task performance |
US11010561B2 (en) | 2018-09-27 | 2021-05-18 | Apple Inc. | Sentiment prediction from textual data |
US10839159B2 (en) | 2018-09-28 | 2020-11-17 | Apple Inc. | Named entity normalization in a spoken dialog system |
US11170166B2 (en) | 2018-09-28 | 2021-11-09 | Apple Inc. | Neural typographical error modeling via generative adversarial networks |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
US11475898B2 (en) | 2018-10-26 | 2022-10-18 | Apple Inc. | Low-latency multi-speaker speech recognition |
USD916724S1 (en) * | 2018-10-30 | 2021-04-20 | Juul Labs, Inc. | Display screen or portion thereof with animated graphical user interface |
US11638059B2 (en) | 2019-01-04 | 2023-04-25 | Apple Inc. | Content playback on multiple devices |
CN109857326A (zh) * | 2019-02-01 | 2019-06-07 | 思特沃克软件技术(西安)有限公司 | 一种车载触摸屏及其控制方法 |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
USD914701S1 (en) * | 2019-03-29 | 2021-03-30 | Snap Inc. | Display screen or portion thereof with a transitional graphical user interface |
US11423908B2 (en) | 2019-05-06 | 2022-08-23 | Apple Inc. | Interpreting spoken requests |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
US11475884B2 (en) | 2019-05-06 | 2022-10-18 | Apple Inc. | Reducing digital assistant latency when a language is incorrectly determined |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
US11289073B2 (en) | 2019-05-31 | 2022-03-29 | Apple Inc. | Device text to speech |
DK201970510A1 (en) | 2019-05-31 | 2021-02-11 | Apple Inc | Voice identification in digital assistant systems |
DK180129B1 (en) | 2019-05-31 | 2020-06-02 | Apple Inc. | USER ACTIVITY SHORTCUT SUGGESTIONS |
US11496600B2 (en) | 2019-05-31 | 2022-11-08 | Apple Inc. | Remote execution of machine-learned models |
US11360641B2 (en) | 2019-06-01 | 2022-06-14 | Apple Inc. | Increasing the relevance of new available information |
WO2021056255A1 (en) | 2019-09-25 | 2021-04-01 | Apple Inc. | Text detection using global geometry estimators |
USD952661S1 (en) * | 2020-10-12 | 2022-05-24 | Apple Inc. | Display screen or portion thereof with animated graphical user interface |
USD973082S1 (en) * | 2021-04-20 | 2022-12-20 | Apple Inc. | Display screen or portion thereof with graphical user interface |
USD995553S1 (en) * | 2021-04-28 | 2023-08-15 | Hyperconnect LLC | Display panel with animated graphical user interface |
USD978894S1 (en) * | 2021-06-05 | 2023-02-21 | Apple Inc. | Display screen or portion thereof with animated graphical user interface |
Family Cites Families (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5487671A (en) * | 1993-01-21 | 1996-01-30 | Dsp Solutions (International) | Computerized system for teaching speech |
US6115482A (en) * | 1996-02-13 | 2000-09-05 | Ascent Technology, Inc. | Voice-output reading system with gesture-based navigation |
FI981154A (fi) | 1998-05-25 | 1999-11-26 | Nokia Mobile Phones Ltd | Menetelmä ja laite puheen tunnistamiseksi |
GB9814398D0 (en) * | 1998-07-02 | 1998-09-02 | Nokia Mobile Phones Ltd | Electronic apparatus |
US6232957B1 (en) * | 1998-09-14 | 2001-05-15 | Microsoft Corporation | Technique for implementing an on-demand tool glass for use in a desktop user interface |
US7720682B2 (en) | 1998-12-04 | 2010-05-18 | Tegic Communications, Inc. | Method and apparatus utilizing voice input to resolve ambiguous manually entered text input |
US6233560B1 (en) | 1998-12-16 | 2001-05-15 | International Business Machines Corporation | Method and apparatus for presenting proximal feedback in voice command systems |
US7292986B1 (en) | 1999-10-20 | 2007-11-06 | Microsoft Corporation | Method and apparatus for displaying speech recognition progress |
US8287374B2 (en) * | 2000-07-07 | 2012-10-16 | Pryor Timothy R | Reconfigurable control displays for games, toys, and other applications |
CN1300929A (zh) * | 2000-11-14 | 2001-06-27 | 陈远燮 | 一种数字多功能家用电冰箱 |
JP3919210B2 (ja) * | 2001-02-15 | 2007-05-23 | アルパイン株式会社 | 音声入力案内方法及び装置 |
US6990180B2 (en) * | 2001-04-05 | 2006-01-24 | Nokia Mobile Phones Limited | Short voice message (SVM) service method, apparatus and system |
KR100457509B1 (ko) | 2001-07-07 | 2004-11-17 | 삼성전자주식회사 | 터치스크린과 음성인식을 통해 동작 제어되는 정보단말기 및 그의 명령 실행 방법 |
US7249023B2 (en) * | 2003-03-11 | 2007-07-24 | Square D Company | Navigated menuing for industrial human machine interface via speech recognition |
US7200559B2 (en) * | 2003-05-29 | 2007-04-03 | Microsoft Corporation | Semantic object synchronous understanding implemented with speech application language tags |
US7542026B2 (en) * | 2003-11-03 | 2009-06-02 | International Business Machines Corporation | Apparatus method and system for improved feedback of pointing device event processing |
EP1560199B1 (en) | 2004-01-29 | 2008-07-09 | Harman Becker Automotive Systems GmbH | Multimodal data input |
US20050198265A1 (en) * | 2004-01-30 | 2005-09-08 | Peter Veprek | Method and apparatus for information notification |
US20050197843A1 (en) * | 2004-03-07 | 2005-09-08 | International Business Machines Corporation | Multimodal aggregating unit |
US7672845B2 (en) | 2004-06-22 | 2010-03-02 | International Business Machines Corporation | Method and system for keyword detection using voice-recognition |
CN100585546C (zh) | 2004-08-02 | 2010-01-27 | 皇家飞利浦电子股份有限公司 | 数据处理系统、压力敏感触摸屏以及便于用户与数据处理系统相互作用的方法 |
CN1885976A (zh) * | 2005-06-24 | 2006-12-27 | 英华达(上海)电子有限公司 | 将声音在手机显示屏上图形化显示并播放的方法 |
US20070112571A1 (en) | 2005-11-11 | 2007-05-17 | Murugappan Thirugnana | Speech recognition at a mobile terminal |
WO2007073798A1 (en) | 2005-12-27 | 2007-07-05 | Koninklijke Kpn N.V. | Call routing based on context sensitive speech recognition |
US20070266077A1 (en) * | 2006-03-31 | 2007-11-15 | Alcatel | Presence and preference-enabled push to talk telephony system |
US20080109222A1 (en) | 2006-11-04 | 2008-05-08 | Edward Liu | Advertising using extracted context sensitive information and data of interest from voice/audio transmissions and recordings |
US20090192898A1 (en) * | 2006-11-29 | 2009-07-30 | E-Meal, Llc | Remote Ordering System |
US8219406B2 (en) * | 2007-03-15 | 2012-07-10 | Microsoft Corporation | Speech-centric multimodal user interface design in mobile technology |
US20080317219A1 (en) | 2007-06-21 | 2008-12-25 | Siemens Communications, Inc. | Method and apparatus for context based voice dialing |
DE102008051756A1 (de) | 2007-11-12 | 2009-05-14 | Volkswagen Ag | Multimodale Benutzerschnittstelle eines Fahrerassistenzsystems zur Eingabe und Präsentation von Informationen |
US8195220B2 (en) * | 2008-02-01 | 2012-06-05 | Lg Electronics Inc. | User interface for mobile devices |
US8065143B2 (en) * | 2008-02-22 | 2011-11-22 | Apple Inc. | Providing text input using speech data and non-speech data |
CN101295223A (zh) * | 2008-06-06 | 2008-10-29 | 马晶 | 实现快捷操作的系统及其操作方法、通讯终端及使用方法 |
-
2009
- 2009-06-10 US US12/482,429 patent/US8412531B2/en active Active
-
2010
- 2010-04-20 TW TW099112393A patent/TWI497406B/zh not_active IP Right Cessation
- 2010-06-10 WO PCT/US2010/038213 patent/WO2010144732A2/en active Application Filing
- 2010-06-10 EP EP10786862.2A patent/EP2440988B1/en active Active
- 2010-06-10 BR BRPI1010584A patent/BRPI1010584B1/pt active IP Right Grant
- 2010-06-10 CN CN2010800263948A patent/CN102460346A/zh active Pending
- 2010-06-10 AU AU2010258675A patent/AU2010258675B2/en active Active
- 2010-06-10 CA CA2760993A patent/CA2760993C/en active Active
- 2010-06-10 RU RU2011150255/08A patent/RU2526758C2/ru active
-
2012
- 2012-10-18 HK HK12110374.1A patent/HK1169725A1/xx not_active IP Right Cessation
Also Published As
Publication number | Publication date |
---|---|
AU2010258675B2 (en) | 2014-05-29 |
CA2760993C (en) | 2016-08-02 |
EP2440988A2 (en) | 2012-04-18 |
TWI497406B (zh) | 2015-08-21 |
EP2440988B1 (en) | 2014-11-19 |
EP2440988A4 (en) | 2013-08-28 |
TW201044265A (en) | 2010-12-16 |
CN102460346A (zh) | 2012-05-16 |
HK1169725A1 (en) | 2013-02-01 |
CA2760993A1 (en) | 2010-12-16 |
US20100318366A1 (en) | 2010-12-16 |
WO2010144732A3 (en) | 2011-03-24 |
US8412531B2 (en) | 2013-04-02 |
BRPI1010584A2 (pt) | 2016-03-15 |
AU2010258675A1 (en) | 2011-11-24 |
RU2011150255A (ru) | 2013-06-20 |
WO2010144732A2 (en) | 2010-12-16 |
RU2526758C2 (ru) | 2014-08-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
BRPI1010584B1 (pt) | método para fornecer funcionalidade de entrada para um módulo de interação de reconhecimento de voz | |
US11954403B1 (en) | Systems and methods for communicating notifications and textual data associated with applications | |
US9111538B2 (en) | Genius button secondary commands | |
US8543397B1 (en) | Mobile device voice activation | |
US20140006944A1 (en) | Visual UI Guide Triggered by User Actions | |
US20130252571A1 (en) | Speech recognition based emergency situation alert service in mobile terminal | |
US9661133B2 (en) | Electronic device and method for extracting incoming/outgoing information and managing contacts | |
AU2010254812A1 (en) | Contextual voice commands | |
BRPI0619055A2 (pt) | método para iniciar uma ligação de comunicação de um primeiro terminal de comunicação para um segundo terminal de comunicação, e, terminal de comunicação | |
KR20070088029A (ko) | 이동 단말기에서 사용자 인터페이스 제공 장치 및 방법 | |
CN104954550B (zh) | 通信方法及通信系统 | |
JP2014049140A (ja) | 使用者デバイスで入力文字を利用した知能型サービス提供方法及び装置 | |
KR20130071136A (ko) | 사용자 디바이스에서 단축번호 제공 방법 및 장치 | |
US10764418B2 (en) | Method, device and medium for application switching | |
WO2014055181A1 (en) | Systems and methods for providing a voice agent user interface | |
CN104660819B (zh) | 移动设备以及访问移动设备中文件的方法 | |
WO2017166635A1 (zh) | 一种联系人创建方法、装置及移动设备 | |
AU2018250484A1 (en) | Contextual voice commands | |
US20240220194A1 (en) | Systems and Methods for Communicating Notifications and Textual Data Associated with Applications | |
US20140350929A1 (en) | Method and apparatus for managing audio data in electronic device | |
AU2014221287A1 (en) | Contextual voice commands |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
B25A | Requested transfer of rights approved |
Owner name: MICROSOFT TECHNOLOGY LICENSING, LLC (US) |
|
B06F | Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette] | ||
B06U | Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette] | ||
B09A | Decision: intention to grant [chapter 9.1 patent gazette] | ||
B16A | Patent or certificate of addition of invention granted [chapter 16.1 patent gazette] |
Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 10/06/2010, OBSERVADAS AS CONDICOES LEGAIS. |