BR102014003021A2 - Método de operação de canal de comunicação sem fio e sistema de terminal portátil - Google Patents

Método de operação de canal de comunicação sem fio e sistema de terminal portátil Download PDF

Info

Publication number
BR102014003021A2
BR102014003021A2 BR102014003021-2A BR102014003021A BR102014003021A2 BR 102014003021 A2 BR102014003021 A2 BR 102014003021A2 BR 102014003021 A BR102014003021 A BR 102014003021A BR 102014003021 A2 BR102014003021 A2 BR 102014003021A2
Authority
BR
Brazil
Prior art keywords
content
user
criterion
terminal
fact
Prior art date
Application number
BR102014003021-2A
Other languages
English (en)
Inventor
Ahn Jihyun
Kim Sora
Kim Jinyong
Kim Hyunkyoun
Kim Heewoon
Ahn Yumi
Original Assignee
Samsung Electronics Co, Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co, Ltd filed Critical Samsung Electronics Co, Ltd
Publication of BR102014003021A2 publication Critical patent/BR102014003021A2/pt

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/175Static expression
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/24Speech recognition using non-acoustical features
    • G10L15/25Speech recognition using non-acoustical features using position of the lips, movement of the lips or face analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/74Details of telephonic subscriber devices with voice recognition means

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Engineering & Computer Science (AREA)
  • Environmental & Geological Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

método de operação de canal de comunicação sem fio e sistema de terminal portátil são fornecidos um terminal habilitado para a função de conversação vocal e um método de controle de conversação vocal, para fornecer conteúdo distinto baseado no estado emocional corrente, idade e sexo do usuário. o terminal móvel que suporta uma função de conversação vocal inclui uma unidade de visualização, uma unidade de processamento de áudio, que seleciona conteúdo correspondente a um primeiro critério associado a um usuário em resposta a uma entrada de usuário, determina um esquema de fornecimento de conteúdo baseado em um segundo critério associado ao usuário, e fornece o conteúdo selecionado através da unidade de visualização e unidade de processamento de áudio de acordo com o esquema de fornecimento de conteúdo.

Description

(54) Título: MÉTODO DE OPERAÇÃO DE CANAL DE COMUNICAÇÃO SEM FIO E SISTEMA DE TERMINAL PORTÁTIL (51) Int. Cl.: G06F 3/16; G06F 17/00; G06F 3/01; G06F 3/048; G10L 15/22; (...) (30) Prioridade Unionista: 07/02/2013 KR 102013-0013757 (73) Titular(es): SAMSUNG ELECTRONICS CO, LTD (72) Inventor(es): JIHYUN AHN; SORA KIM; JINYONG KIM; HYUNKYOUN KIM; HEEWOON KIM; YUMI AHN (74) Procurador(es): ORLANDO DE SOUZA (57) Resumo: MÉTODO DE OPERAÇÃO DE CANAL DE COMUNICAÇÃO SEM FIO E SISTEMA DE TERMINAL PORTÁTIL São fornecidos um terminal habilitado para a função de conversação vocal e um método de controle de conversação vocal, para fornecer conteúdo distinto baseado no estado emocional corrente, idade e sexo do usuário. O terminal móvel que suporta uma função de conversação vocal inclui uma unidade de visualização, uma unidade de processamento de áudio, que seleciona conteúdo correspondente a um primeiro critério associado a um usuário em resposta a uma entrada de usuário, determina um esquema de fornecimento de conteúdo baseado em um segundo critério associado ao usuário, e fornece o conteúdo selecionado através da unidade de visualização e unidade de processamento de áudio de acordo com o esquema de fornecimento de conteúdo.
110RADIOCOMUIN1CAÇÃO
120^T
UNIDADE DE CÂMERA
UNIDADE DE CONTROLE
MÓDULO DE SELEÇÃO
DE PROCESSAMENTO I ! MÓDULO DE FORNECIMENTO D
I unidade de armazenamento L 160
1/24
MÉTODO DE OPERAÇÃO DE CANAL DE COMUNICAÇÃO SEM FIO E SISTEMA DE TERMINAL PORTÁTIL
FUNDAMENTOS DA INVENÇÃO
1. Campo da Invenção [001] A presente invenção refere-se a um terminal móvel habilitado para a função de conversação vocal e método de controle de conversação vocal e, mais particularmente, a um terminal habilitado para a função de conversação vocal e método de controle de conversação vocal para produzir nitidamente conteúdo de acordo com uma emoção corrente, idade e sexo do usuário.
2. Descrição da Técnica Correlata [002] A função convencional de conversação vocal opera de tal modo que uma resposta a uma questão de um usuário é selecionada a partir de um conjunto básico de respostas fornecidas pelo fabricante do terminal. Consequentemente, a função de conversação vocal é limitada pelo fato da mesma questão ser respondida com a mesma resposta independentemente do usuário. Isto significa que quando múltiplos usuários utilizam o terminal móvel habilitado para a função de conversação vocal, a função convencional de conversação vocal não fornece uma resposta otimizada por usuário.
SUMÁRIO DA INVENÇÃO [003] A presente invenção foi feita para solucionar ao menos os problemas e inconvenientes descritos acima, e para fornecer ao menos as vantagens descritas abaixo. Consequentemente, um aspecto da presente invenção fornece um terminal móvel para produzir conteúdo que reflita o
2/24 estado emocional corrente, idade e sexo de um usuário, e um método de controle de conversação vocal do mesmo.
[004] De acordo com um aspecto da presente invenção, é
fornecido um terminal móvel que suporta terminal inclui uma função de de
conversação vocal. 0 uma unidade
visualização, uma unidade de processamento de áudio, e uma
unidade de controle configurada para selecionar conteúdo correspondente ao primeiro critério associado a um usuário em resposta a uma entrada de usuário, determinar um esquema de fornecimento de conteúdo baseado em um segundo critério associado ao usuário, e fornecer o conteúdo selecionado através da unidade de visualização e unidade de processamento de áudio de acordo com o esquema de fornecimento de conteúdo.
[005] De acordo com outro aspecto da presente invenção, é fornecido um método de conversação vocal de um terminal móvel. O método inclui selecionar conteúdo correspondente a um primeiro critério associado a um usuário em resposta a uma entrada de usuário, determinar um esquema de fornecimento de conteúdo baseado em um segundo critério associado ao usuário, e fornecer o conteúdo selecionado através de uma unidade de visualização e de uma unidade de processamento de áudio do terminal móvel de acordo com o esquema de fornecimento de conteúdo.
BREVE DESCRIÇÃO DOS DESENHOS [006] Os acima e outros aspectos, recursos e vantagens de modalidades da presente invenção tornar-se-ão evidentes a partir da descrição detalhada a seguir considerada em conjunto com os desenhos anexos, nos quais:
3/24 [007] a FIG. 1 é um diagrama de blocos que ilustra uma configuração do terminal móvel 100 de acordo com uma modalidade da presente invenção;
[008] a FIG. 2 é um fluxograma que ilustra um método de controle de função de conversação vocal de acordo com uma modalidade da presente invenção;
[009] a FIG. 3 é uma tabela que mapeia estados emocionais e conteúdos para uso no método de controle de conversação vocal de acordo com uma modalidade da presente invenção;
[010] as FIGS. 4 e 5 são diagramas de exibições de tela que ilustram fornecimento de conteúdo com base em um primeiro critério de acordo com uma modalidade da presente invenção;
[011] a FIG. 6 é um fluxograma que ilustra detalhes da etapa de aquisição do primeiro critério da FIG. 2;
[012] a FIG. 7 é uma tabela que mapeia estados emocionais e conteúdos para uso no método de controle de conversação vocal de acordo com uma modalidade da presente invenção;
[013] as FIGS. 8 e 9 são diagramas de exibições de tela que ilustram fornecimento de conteúdo com base no primeiro critério de acordo com uma modalidade da presente invenção;
[014] a FIG. 10 é uma tabela que mapeia estados emocionais e conteúdos para uso no método de controle de função de conversação vocal de acordo com uma modalidade da presente invenção;
[015] a FIG. 11 é um diagrama de exibições de tela que ilustram fornecimento de conteúdo com base no primeiro
4/24 critério de acordo com uma modalidade da presente invenção;
e [016] a FIG. 12 é um diagrama esquemático que ilustra um sistema para função de conversação vocal do terminal móvel de acordo com uma modalidade da presente invenção.
DESCRIÇÃO DETALHADA DE MODALIDADES DA PRESENTE INVENÇÃO [017] A presente invenção será descrita mais completamente doravante com referência aos desenhos anexos, nos quais são mostradas modalidades ilustrativas da invenção. Esta invenção pode, contudo, ser concretizada em muitas diferentes formas e não deve ser considerada como limitada às modalidades apresentadas aqui. Ao invés, estas modalidades são fornecidas de modo que a descrição desta invenção seja minuciosa e completa, e transmitirá completamente o âmbito da invenção para aqueles versados na técnica. A presente invenção será definida pelas reivindicações apensas.
[018] Embora sejam usados números ordinais, estes termos são usados apenas para distinguir um elemento, componente, região, camada ou seção de outro. Portanto, um primeiro elemento, componente, região, camada ou seção discutido abaixo poderá ser denominado segundo elemento, componente, região, camada ou seção sem divergir dos ensinamentos do conceito inventivo. Descrições deverão ser entendidas como incluindo qualquer ou todas as combinações de um ou mais dos itens listados quando os itens são descritos pela utilização do termo e/ou ou similar.
[019] A FIG. 1 é um diagrama de blocos que ilustra uma configuração do terminal móvel 100 de acordo com uma modalidade da presente invenção.
5/24 [020] Com referência à FIG. 1, o terminal móvel 100 inclui uma unidade de radiocomunicação 110, uma unidade de câmera 120, uma unidade de medição de localização 130, uma unidade de processamento de áudio 140, uma unidade de exibição 160 e uma unidade de controle 170.
[021] A unidade de radiocomunicação 110 transmite/recebe sinais de rádio que transportam dados. A unidade de radiocomunicação 110 pode incluir um transmissor de Radiofrequência (RF) configurado para aumentar a frequência e amplificar os sinais de transmissão, e um receptor de RF configurado para amplificar ruído baixo e baixar a frequência dos sinais recebidos. A unidade de radiocomunicação 110 transfere os dados recebidos por um canal de rádio para a unidade de controle 170 e transmite os dados produzidos pela unidade de controle 170 pelo canal de rádio.
[022] A unidade de câmera 120 recebe sinais de vídeo. A unidade de câmera 120 processa os quadros de vídeo de imagens estáticas e em movimento obtidas por um sensor de imagem no modo de vídeo conferência ou modo de filmagem de imagem. A unidade de câmera 120 pode fornecer o quadro de vídeo processado para a unidade de exibição 150. O quadro de vídeo processado pela unidade de câmera 120 pode ser armazenado na unidade de armazenamento e/ou transmitido externamente por meio da unidade de radiocomunicação 110.
[023] A unidade de câmera 120 pode incluir dois ou mais módulos de câmera dependendo da implementação do terminal móvel 100. Por exemplo, o terminal móvel 100 pode incluir uma câmera virada para a mesma direção da tela da unidade
6/24 de visualização 150 e outra câmera virada para a direção oposta da tela.
[024] A unidade de medição de localização 130 pode ser munida de um módulo de recepção de sinal de satélite para medir a localização corrente do terminal móvel 100 com base nos sinais recebidos dos satélites. Por meio da unidade de radiocomunicação 110, a unidade de medição de localização 130 pode também medir a localização corrente do terminal móvel 100 com base nos sinais recebidos do equipamento de radiocomunicação interno ou externo dentro de uma instalação.
[025] A unidade de processamento de áudio 140 pode ser munida de um pacote de codificadores/decodificadores que inclui um codificador/decodificador de dados para processamento de pacotes de dados e codificador/decodificador de áudio para processamento de sinal de áudio tal como voz. A unidade de processamento de áudio 140 pode converter sinais digitais de áudio em sinais analógicos de áudio por meio do codificador/decodificador de áudio de modo a fornecer o sinal analógico através de um alto-falante (SPK) e converter a entrada de sinal analógico através de um microfone (MIC) nos sinais digitais de áudio.
[026] A unidade de exibição 150 exibe menus, dados de entrada, informações sobre configuração de funções, etc. para o usuário em um modo visual. A unidade de exibição 150 exibe uma tela de inicialização, uma tela de espera, uma tela de menu, uma tela de telefonia, e outras telas de execução de aplicativos.
[027] A unidade de exibição 150 pode ser implementada com um Visor de Cristal Liquido (LCD), Diodos Orgânicos
7/24
Emissores de Luz (OLED), OLED de Matriz Ativa (AMOLED), visor flexível, e um visor Tridimensional (3D).
[028] A unidade de armazenamento 160 armazena programas e dados necessários para a operação do terminal móvel 100 e pode ser dividida em uma região de programas e uma região de dados. A região de programas pode armazenar programas básicos para controlar toda a operação do terminal móvel 100, um Sistema Operacional (OS) para inicializar o terminal móvel 100, aplicativos de reprodução de conteúdo de multimídia, e outros aplicativos para execução de funções ótimas tais como conversação vocal, câmera, reprodução de áudio, e reprodução de vídeo. A região de dados pode armazenar os dados gerados no estado de utilização do terminal móvel 100 tais como imagens estáticas e em movimento, agenda telefônica, e dados de áudio.
[029] A unidade de controle 170 controla todas as operações dos componentes do terminal móvel 100. A unidade de controle 170 recebe a entrada de fala de um usuário através da unidade de processamento de áudio 140 e controla a unidade de exibição 150 para exibir o conteúdo correspondente à fala do usuário na função de conversação vocal executada de acordo com a manipulação do usuário. A unidade de controle 170 pode também reproduzir o conteúdo correspondente à fala do usuário através da unidade de processamento de áudio 140. Aqui, o conteúdo pode incluir ao menos uma dos conteúdos de multimídia tal como texto, imagem, áudio, filme, e vídeo clipe, e informações tais como condições meteorológicas, localizações recomendadas, e contato favorito.
8/24 [030] Em maior detalhe, a unidade de controle 170 reconhece a fala do usuário para obter o texto correspondente. Em seguida, a unidade de controle 170 recupera o conteúdo correspondente ao texto e fornece o conteúdo através de ao menos uma dentre a unidade de exibição 150 e a unidade de processamento de áudio 140. Finalmente, a unidade de controle 170 pode verificar o significado do texto para recuperar o conteúdo correspondente entre os conteúdos correlatos armazenados na unidade de armazenamento 160. Deste modo, usando comunicação interativa de voz, o usuário pode ser munido de uma informação pretendida através do conteúdo correlato armazenado. Por exemplo, se o usuário disser Condições meteorológicas de hoje? o terminal móvel 100 recebe a entrada de fala do usuário através da unidade de processamento de áudio 140. Em seguida o terminal móvel 100 recupera o conteúdo (informações sobre condições meteorológicas) correspondente ao texto condições meteorológicas de hoje obtido da fala do usuário e fornece o conteúdo recuperado através de ao menos uma dentre a unidade de exibição 150 e a unidade de processamento de áudio 140.
[031] Particularmente, em uma modalidade da presente invenção, a unidade de controle 170 pode selecionar o conteúdo a ser fornecido através da unidade de exibição e/ou da unidade de processamento de áudio 140 dependendo da emoção corrente, idade e sexo do usuário. Com a finalidade de realizar isto, a unidade de controle 170, de acordo com uma modalidade da presente invenção, pode incluir um módulo
9/24 de seleção de conteúdo 171 e um módulo de fornecimento de conteúdo 175.
[032] A FIG. 2 é um fluxograma que ilustra um método de controle de função de conversação vocal de acordo com uma modalidade da presente invenção.
[033] Com referência à FIG. 2, se a função de conversação vocal for executada na etapa S210, o módulo de seleção de conteúdo 171 obtém um primeiro critério associado ao usuário na etapa S220. Aqui, o primeiro critério pode incluir o estado emocional corrente do usuário. O estado emocional indica um humor ou sensação tal como alegria, tristeza, raiva, surpresa, etc.
[034] O módulo de seleção de conteúdo 171 determina se a entrada de fala de um usuário é detectada na etapa S230. Se a entrada de fala de um usuário for detectada através da unidade de processamento de áudio 140, o módulo de seleção de conteúdo 171 seleciona o conteúdo correspondente à entrada de fala do usuário com base no primeiro critério na etapa S240. Em maior detalhe, o módulo de seleção de conteúdo 171 obtém a frase a partir da fala do usuário. Em seguida, o módulo de seleção de conteúdo 171 recupera os conteúdos correspondentes à frase. Em seguida, o módulo de seleção de conteúdo 171 seleciona um dos conteúdos usando as informações sobre estado emocional predeterminadas com base no primeiro critério. Aqui, as informações sobre conteúdo específico-estado emocional podem ser préconfiguradas e armazenadas na unidade de armazenamento 160. O módulo de seleção de conteúdo 171 pode também recuperar primeiro os conteúdos com base no primeiro critério e em
10/24 seguida selecionar um dos conteúdos correspondentes às frases.
[035] Caso contrário, se não for detectada qualquer entrada de fala do usuário na etapa S230, o módulo de seleção de conteúdo 171 seleciona o conteúdo com base no primeiro critério na etapa S250.
[036] Se o conteúdo for selecionado, o módulo de fornecimento de conteúdo 175 obtém um segundo critério associado ao usuário na etapa S260. Aqui, o segundo critério pode incluir ao menos um dentre a idade e sexo do usuário. A idade do usuário pode ser a idade exata do usuário ou uma de grupos predeterminados de idades. Por exemplo, a idade do usuário pode ser indicada com um número exato tal como 30 ou 50, ou com um grupo de idades tais como 20's, 50's, criança, adulto, e idoso.
[037] Em detalhe, o módulo de fornecimento de conteúdo recebe a imagem do rosto do usuário da unidade de câmera 120. O módulo de fornecimento de conteúdo 175 pode obter o segundo critério automaticamente a partir da imagem do rosto do usuário com base nas informações médias de rostos de grupos por idade ou por sexo armazenadas na unidade de armazenamento 160. O módulo de fornecimento de conteúdo 175 recebe também a entrada de fala do usuário através da unidade de processamento de áudio 140. Em seguida, o módulo de fornecimento de conteúdo 175 pode obter o segundo critério a partir da fala do usuário usando as informações médias de falas de grupos por idade ou por sexo. O módulo de fornecimento de conteúdo 175 pode também obter o segundo critério com base nas palavras que constituem as frases obtidas da fala do usuário. Neste momento, o módulo de
11/24 fornecimento de conteúdo 175 pode obter o segundo critério usando as palavras de grupos por idade ou por sexo. Por exemplo, se uma frase Eu quero novas geleias jim for obtida a partir da fala do usuário, é possível julgar o usuário como uma criança com base na palavra geleias jim.
[038] O módulo de fornecimento de conteúdo 175 pode obter o segundo critério com base tanto na imagem do rosto como na fala do usuário. Embora a descrição seja direcionada ao caso onde o módulo de fornecimento de conteúdo 175 obtém o segundo critério com base na imagem do rosto e na fala do usuário, as diversas modalidades da presente invenção não são limitadas a esta, mas podem ser concretizadas para o usuário introduzir o segundo critério. Neste caso, a entrada do segundo critério pelo usuário pode ser armazenada na unidade de armazenamento 160. O módulo de fornecimento de conteúdo 175 realiza funções predeterminadas com base no segundo critério armazenado na unidade de armazenamento 160.
[039] Se o segundo critério for obtido, o módulo de fornecimento de conteúdo 175 determina um esquema de fornecimento de conteúdo com base no segundo critério na etapa S270. Isto é, o módulo de fornecimento de conteúdo 175 determina o esquema de fornecimento de conteúdo pela mudança das palavras que constituem o conteúdo selecionado pelo módulo de seleção de conteúdo 171, velocidade de fornecimento do conteúdo selecionado e tamanho da saída do conteúdo selecionado.
[040] Em maior detalhe, o módulo de fornecimento de conteúdo 175 pode mudar as palavras que constituem o conteúdo selecionado para palavras adequadas para o segundo
12/24 critério com base nas informações de palavras de grupos por idade ou informações sobre palavras por sexo. Por exemplo, se o conteúdo incluir Loja de pijamas e se o usuário pertencer ao grupo de idade crianças, o módulo de fornecimento de conteúdo 175 muda a palavra Pijamas pela palavra Jim jams (geleias jim) apropriada para crianças.
[041] 0 módulo de fornecimento de conteúdo 175 determina a velocidade de fornecimento do conteúdo selecionado com base nas informações de velocidade de fornecimento dos grupos por idade ou nas informações de velocidade de fornecimento por sexo armazenadas na unidade de armazenamento 160. Por exemplo, se o usuário pertencer ao grupo de idade de criança ou idoso, o módulo de fornecimento de conteúdo 175 pode diminuir a velocidade de reprodução da fala do conteúdo selecionado.
[042] O módulo de fornecimento de conteúdo 175 também determina o tamanho da saída do conteúdo selecionado com base nas informações de tamanho de saída dos grupos por
idade ou nas informações de tamanho de saída por sexo. Por
exemplo, se o usuário pertencer ao grupo de idade de
idoso, o módulo de fornecimento de conteúdo 175 pode
aumentar o volume de saída do conteúdo selecionado e o tamanho da exibição (por exemplo, tamanho da fonte) do conteúdo selecionado com base nas informações de.tamanho de saída dos grupos por idade. A unidade de armazenamento 160 armazena uma tabela que contém um mapeamento do grupo de idades ou sexo para o esquema de fornecimento de conteúdo (velocidade e tamanho do fornecimento de conteúdo), e o módulo de fornecimento de conteúdo 175 determina o esquema de fornecimento do conteúdo selecionado com base nos dados
13/24 armazenados no mapeamento da tabela. Se o esquema de fornecimento de conteúdo for selecionado, o módulo de fornecimento de conteúdo 175 fornece o conteúdo selecionado pelo módulo de seleção de conteúdo 171 através da unidade de exibição 150 e unidade de processamento de áudio 140 de acordo com o esquema de fornecimento de conteúdo na etapa
S280.
[043] Depois, se for detectada uma solicitação de término de função de conversação vocal na etapa S290, a unidade de controle 170 termina a função de conversação vocal. Se não for detectada uma solicitação de término de função de conversação vocal na etapa S290, a unidade de controle 170 retorna o procedimento para a etapa S220.
[044] Como descrito acima, o método de controle de conversação vocal da invenção seleciona o conteúdo adequado para o estado emocional corrente do usuário e determina o esquema de fornecimento de conteúdo de acordo com a idade e/ou sexo do usuário de modo a fornecer ao usuário o conteúdo customizado. O método torna possível fornecer funcionalidade de conversação vocal mais realística.
[045] Entretanto, se a frase obtida a partir da entrada de fala do usuário através da unidade de processamento de áudio 140 for uma solicitação para mudança do esquema de fornecimento de conteúdo, o módulo de fornecimento de conteúdo 175 muda o esquema de fornecimento de conteúdo de acordo com a frase. Por exemplo, após o conteúdo ter sido fornecido de acordo com o esquema de fornecimento de conteúdo determinado com base no segundo critério, se o usuário disser a frase Você pode falar mais rápido e mais silenciosamente?, o módulo de fornecimento de conteúdo 175
14/24 aumenta a velocidade de reprodução da fala de um grau e diminui o volume de áudio de um grau.
[046] O módulo de fornecimento de conteúdo 175 pode armazenar o esquema de fornecimento de conteúdo alterado na unidade de armazenamento 160. Depois, o módulo de fornecimento de conteúdo 175 muda o esquema de fornecimento de conteúdo determinado com base no segundo critério usando o histórico de esquema de fornecimento de conteúdo previamente armazenado. O módulo de fornecimento de conteúdo 175 pode fornecer o conteúdo selecionado de acordo com o esquema de fornecimento de conteúdo alterado.
[047] Um procedimento de fornecimento de conteúdo de acordo com uma modalidade da invenção é descrito doravante com referência às FIGS. 3 a 5.
[048] A FIG. 3 é uma tabela que mapeia estados emocionais e conteúdos para uso no método de controle de conversação vocal de acordo com uma modalidade da presente invenção. As FIGS. 4 e 5 são diagramas de exibições de tela que ilustram fornecimento de conteúdo com base no primeiro critério de acordo com uma modalidade da presente invenção.
[049] Com referência à FIG. 3, os conteúdos são prémapeados para os estados emocionais. O estado emocional alegria é mapeado para o conteúdo A, o estado emocional tristeza para o conteúdo B, o estado emocional raiva para o conteúdo Ceo estado emocional surpresa para o conteúdo D. Estes estados emocionais e conteúdos são prémapeados e armazenados na unidade de armazenamento 160.
[050] O módulo de seleção de conteúdo 171 pode selecionar o conteúdo adequado para o primeiro critério
15/24 (estado emocional corrente do usuário) dentre conteúdos por estado emocional.
[051] Com referência à FIG. 4, com base na frase UT obtida a partir da entrada de fala do usuário através da unidade de processamento de áudio 140 e no primeiro critério (estado emocional corrente do usuário), o módulo de seleção de conteúdo 171 seleciona o conteúdo Ά (ATI) para o estado emocional alegria e o conteúdo B (AT2) para o estado emocional tristeza.
[052] Com referência à FIG. 5, o módulo de seleção de conteúdo 171 seleciona o conteúdo C (ATI) para o estado emocional raiva e o conteúdo D (AT2) para o estado emocional surpresa, com base no primeiro critério (estado emocional corrente do usuário).
[053] Embora a FIG. 3 seja direcionada a um mapeamento de um item de conteúdo por estado emocional, a presente invenção não é limitada a este, mas pode ser concretizada para mapear múltiplos itens de conteúdo por estado emocional. Neste caso, o módulo de seleção de conteúdo 171 pode selecionar um dos múltiplos conteúdos correspondentes ao primeiro critério (estado emocional corrente do usuário) aleatoriamente.
[054] Os conteúdos podem ser agrupados por estado emocional. Um grupo de conteúdos representa um conjunto de conteúdos que possuem a mesma/similar propriedade. Por exemplo, um grupo de conteúdos pode ser classificado dentro de um dentre grupo de conteúdos de filmes de ação, grupo de conteúdos de música R&B, etc. Neste caso, o módulo de seleção de conteúdo 171 pode selecionar um dos conteúdos do
16/24 grupo de conteúdos que satisfaz o primeiro critério (estado emocional corrente do usuário) aleatoriamente.
[055] A FIG. 6 é um fluxograma que ilustra detalhes da etapa de aquisição do primeiro critério da FIG. 2.
[056] Com referência à FIG. 6, o módulo de seleção de conteúdo 171 obtém a imagem do rosto de um usuário a partir da unidade de câmera 120 na etapa S310 e detecta a área do rosto a partir da imagem do rosto na etapa S320. Isto é, o módulo de seleção de conteúdo 171 detecta a área do rosto tendo olhos, nariz e boca.
[057] Em seguida, o módulo de seleção de conteúdo 171 extrai os pontos fiduciais dos olhos, nariz e boca na etapa S330 e reconhece a expressão facial com base nos pontos fiduciais na etapa S340. Isto é, o módulo de seleção de conteúdo 171 reconhece a expressão corrente do usuário com base nas informações de pontos fiduciais por expressão armazenadas na unidade de armazenamento 160.
[058] Depois, o módulo de seleção de conteúdo 171 recupera automaticamente o primeiro critério com base na expressão determinada com base nas informações de expressão por estado emocional na etapa S350. Aqui, as informações de expressão por estado emocional podem ser pré-configuradas e armazenadas na unidade de armazenamento 160.
[059] Embora a descrição seja destinada ao caso onde o módulo de seleção de conteúdo 171 obtém o primeiro critério com base na imagem do rosto do usuário, a presente invenção não é limitada a este, mas pode ser concretizada para o usuário introduzir o primeiro critério.
17/24 [060] Outro procedimento de fornecimento de conteúdo de acordo com uma modalidade da presente invenção é descrito doravante com referência às FIGS. 7 a 9.
[061] A FIG. 7 é uma tabela que mapeia estados emocionais e conteúdos para uso no método de controle de conversação vocal de acordo com uma modalidade da presente invenção. As FIGS. 8 e 9 são diagramas de exibições de tela que ilustram fornecimento de conteúdo com base no primeiro critério de acordo com uma modalidade da presente invenção.
[062] O módulo de seleção de conteúdo 171 pode selecionar conteúdo com base no primeiro critério (estado emocional corrente do usuário) usando o histórico de reprodução de conteúdo anterior do usuário. O histórico de reprodução de conteúdo anterior está armazenado na unidade de armazenamento 160 e é atualizado sempre que o conteúdo é reproduzido de acordo com a manipulação do usuário.
[063] Com referência à FIG. 7, os números de reproduções ou dos itens de conteúdo respectivos são armazenados na unidade de armazenamento 160. O conteúdo Al é reproduzido três vezes, o conteúdo A2 dez vezes, o conteúdo BI cinco vezes, o conteúdo B2 duas vezes, o
conteúdo conteúdo Cl oito vezes, Dl duas vezes o conteúdo C2 quinze D2 uma vezes, o vez. Os
e o conteúdo
conteúdos Al e A2 são mapeados para o estado emocional
alegria , os conteúdos BI e B2 para o estado emocional
tristeza , os conteúdos Cl e C2 para o estado emocional
raiva, e os conteúdos Dl e D2 para o estado emocional
surpresa (vide FIG. 3).
[064] 0 módulo de seleção de conteúdo 171 pode
selecionar um dos múltiplos conteúdos adequados para o
18/24 primeiro critério (estado emocional corrente do usuário) com base no histórico de reproduções anteriores do conteúdo.
[065] Com referência à FIG. 8, se o primeiro critério (estado emocional corrente do usuário) for alegria, o módulo de seleção de conteúdo 171 seleciona o conteúdo A2 (ATI), o qual foi reproduzido mais frequentemente dentre os conteúdos Al e A2 mapeados para o primeiro critério (estado emocional corrente do usuário). Se o primeiro critério (estado emocional corrente do usuário) for tristeza, o módulo de seleção de conteúdo 171 seleciona o conteúdo BI (AT2), o qual foi reproduzido mais frequentemente dentre os conteúdos BI e B2 mapeados para o primeiro critério (estado emocional corrente do usuário).
[066] Neste momento, o módulo de seleção de conteúdo 171 pode selecionar os múltiplos conteúdos mapeados para o primeiro critério (estado emocional corrente do usuário). Em seguida o módulo de fornecimento de conteúdo 175 pode determinar as posições de saída dos múltiplos conteúdos com base no histórico de reproduções passadas dos conteúdos.
[067] Com referência à FIG. 9, se o primeiro critério (estado emocional corrente do usuário) for alegria, o módulo de seleção de conteúdo 171 seleciona ambos os conteúdos Al e A2 como os conteúdos (ATI) que satisfazem o primeiro critério (estado emocional corrente do usuário). Em seguida o módulo de fornecimento de conteúdo 175 dispõe o conteúdo Al debaixo do conteúdo A2 (ATI) que foi reproduzido mais frequentemente. Se o primeiro critério (estado emocional corrente do usuário) for tristeza, o módulo de seleção de conteúdo 171 seleciona ambos os
19/24 conteúdos BI e B2 como os conteúdos (AT2) que satisfazem o primeiro critério (estado emocional corrente do usuário). Em seguida o módulo de fornecimento de conteúdo 175 dispõe o conteúdo B2 debaixo do conteúdo BI (AT2) que foi reproduzido mais frequentemente.
[068] Outro procedimento de fornecimento de conteúdo de acordo com uma modalidade da presente invenção é descrito doravante com referência às FIGS. 10 e 11.
[069] A FIG. 10 é uma tabela que mapeia estados emocionais e conteúdos para uso no método de controle de conversação vocal de acordo com uma modalidade da presente invenção. A FIG. 11 é um diagrama de exibições de tela que ilustram fornecimento de conteúdo com base no primeiro critério de acordo com uma modalidade da presente invenção.
[070] O módulo de seleção de conteúdo 171 pode selecionar o conteúdo com base no primeiro critério (estado emocional corrente do usuário) e no histórico de fornecimento de conteúdo baseado no estado emocional anterior do usuário. O histórico de fornecimento de conteúdo baseado no estado emocional anterior do usuário está armazenado na unidade de armazenamento 160 e é atualizado sempre que o conteúdo é fornecido de acordo com o estado emocional do usuário enquanto a função de conversação vocal é ativada.
[071] Com referência à FIG. 10, os números de vezes das saídas anteriores baseadas no estado emocional dos conteúdos estão armazenados na unidade de armazenamento
160. O conteúdo Al foi fornecido três vezes, o conteúdo A2 oito vezes, o conteúdo BI quatro vezes, o conteúdo B2 uma
20/24 vez, o conteúdo Cl três vezes, o conteúdo C2 onze vezes, o conteúdo Dl duas vezes, e o conteúdo D2 cinco vezes.
[072] O módulo de seleção de conteúdo 171 pode selecionar um dos múltiplos conteúdos mapeados para o primeiro critério (estado emocional corrente do usuário) usando o histórico de fornecimento de conteúdo baseado no estado emocional anterior.
[073] Com referência à FIG. 11, se o primeiro critério (estado emocional corrente do usuário) for alegria, o módulo de seleção de conteúdo 171 seleciona o conteúdo A2 que foi fornecido mais frequentemente em associação com o estado emocional anterior do usuário como o conteúdo (ATI) correspondente ao primeiro critério entre os conteúdos Al e A2. Se o primeiro critério (estado emocional corrente do usuário) for tristeza, o módulo de seleção de conteúdo 171 seleciona o conteúdo BI que foi fornecido mais frequentemente em associação com o estado emocional anterior do usuário como o conteúdo (AT2) correspondente ao primeiro critério (estado emocional corrente do usuário) entre os conteúdos BI e B2.
[074] O módulo de seleção de conteúdo 171 pode selecionar todos os conteúdos mapeados para satisfazer o primeiro critério (estado emocional corrente do usuário). Em seguida o módulo de fornecimento de conteúdo 175 determina as posições de saida dos múltiplos conteúdos usando o histórico de fornecimento de conteúdo baseado no estado emocional anterior. Por exemplo, se o primeiro critério (estado emocional corrente do usuário) for alegria, o módulo de seleção de conteúdo 171 seleciona ambos os conteúdos Al e A2 como os conteúdos
21/24 correspondentes ao primeiro critério (estado emocional corrente do usuário). Em seguida o módulo de fornecimento de conteúdo 175 dispõe o conteúdo Al debaixo do conteúdo A2 que foi reproduzido mais frequentemente de acordo com o estado emocional anterior do usuário.
[075] Outro procedimento de fornecimento de conteúdo de acordo com uma modalidade da presente invenção é descrito doravante.
[076] O módulo de seleção de conteúdo 171 pode selecionar conteúdos com base no primeiro critério (estado emocional corrente do usuário) usando informações de localização corrente do terminal móvel 100 que são obtidas através da unidade de medição de localização 130. Em maior detalhe, o módulo de seleção de conteúdo 171 obtém múltiplos conteúdos com base no primeiro critério (estado emocional corrente do usuário). Em seguida o módulo de seleção de conteúdo 171 seleciona o conteúdo associado à área dentro de um raio predeterminado ao redor da localização corrente do terminal móvel dentre os conteúdos obtidos. Por exemplo, se o conteúdo são informações referentes a lugares recomendados (restaurante, café, etc.), o módulo de seleção de conteúdo 171 pode selecionar o conteúdo adequado para a localização corrente do terminal móvel 100 com base nas informações sobre localização corrente do terminal móvel.
[077] Evidentemente, o módulo de seleção de conteúdo 171 pode obter múltiplos conteúdos associados à área dentro de um raio predeterminado ao redor da localização corrente do terminal móvel e em seguida selecionar o conteúdo que
22/24 satisfaz o primeiro critério (estado emocional corrente do usuário) entre os conteúdos obtidos.
[078] Embora a descrição tenha sido destinada ao caso onde a unidade de controle 170, módulo de seleção de conteúdo 171, e módulo de fornecimento de conteúdo 175 são configurados separadamente e responsáveis por diferentes funções, a presente invenção não é limitada a este, mas pode ser concretizada de tal modo que a unidade de controle, o módulo de seleção de conteúdo e o módulo de fornecimento de conteúdo funcionem em um modo integrado.
[079] A FIG. 12 é um diagrama esquemático que ilustra um sistema para função de conversação vocal do terminal móvel de acordo com uma modalidade da presente invenção.
[080] Uma vez que o terminal móvel 100 aqui é idêntico ao terminal móvel descrito acima com referência à FIG. 1, uma descrição detalhada do terminal móvel 100 é omitida aqui. O terminal móvel 100 de acordo com uma modalidade da presente invenção está conectado a um servidor 200 através de uma rede de comunicação sem fio 300.
[081] Nas modalidades descritas acima, a unidade de controle 170 do terminal móvel 100 realiza a operação de aquisição do primeiro critério, a operação de seleção de conteúdo baseada no primeiro critério, a operação de aquisição do segundo critério, e a operação de determinação do esquema de fornecimento de conteúdo.
[082] Nesta modalidade, contudo, a unidade de controle 170 do terminal móvel 100 permuta dados com o servidor por meio da unidade de radiocomunicação 110, e realiza a operação de aquisição do primeiro critério, a operação de seleção de conteúdo baseada no primeiro critério, a
23/24 operação de aquisição do segundo critério, e a operação de determinação do esquema de fornecimento de conteúdo.
[083] Por exemplo, a unidade de controle 170 do terminal móvel 100 fornece ao servidor 200 a entrada da imagem do rosto do usuário através da unidade de câmera 120 e a entrada de fala do usuário através da unidade de processamento de áudio 140. Em seguida o servidor 200 obtém os primeiro e segundo critérios baseados na imagem da face do usuário e na fala do usuário. O servidor 200 fornece ao terminal móvel 100 os primeiro e segundo critérios obtidos.
[084] Embora a descrição tenha sido feita sob a consideração de um único usuário, a presente invenção não é limitada a isto, e pode também ser aplicada ao caso onde diversos usuários utilizam o terminal móvel 100. Neste caso, é necessário adicionar uma operação para identificar o usuário corrente do terminal móvel 100. O histórico de esquema de fornecimento de conteúdo anterior do usuário, o histórico de reprodução de conteúdo anterior do usuário e o histórico de fornecimento de conteúdo baseado no estado emocional anterior do usuário podem ser armazenados por usuário. Consequentemente, mesmo quando múltiplos usuários utilizam o terminal móvel 100, é possivel fornecer conteúdo especifico de usuário.
[085] Como descrito acima, o terminal móvel habilitado para a função de conversação vocal e o método de controle de conversação vocal da presente invenção são capazes de selecionar qualquer conteúdo adequado para o estado emocional corrente do usuário e determinar um esquema de fornecimento de conteúdo de acordo com a idade e sexo do usuário. Consequentemente, é possivel fornecer os conteúdos
24/24 customizados para usuário individual. Consequentemente, a presente invenção é capaz de implementar função realistica de conversação vocal.
[086] Embora modalidades da invenção tenham sido descritas em detalhe acima, uma pessoa versada na técnica compreenderá e entenderá que muitas variações e modificações do conceito inventivo básico descrito aqui ainda cairão dentro do espírito e âmbito da invenção como definida nas reivindicações a seguir e suas equivalentes.
1/6

Claims (27)

  1. REIVINDICAÇÕES
    1. Terminal móvel que suporta uma função de conversação vocal, o terminal caracterizado por compreender:
    uma unidade de visualização;
    uma unidade de processamento de áudio;
    uma unidade de controle configurada para selecionar conteúdo correspondente a um primeiro critério associado a um usuário em resposta a uma entrada de usuário, determinar um esquema de fornecimento de conteúdo baseado em um segundo critério associado ao usuário, e fornecer o conteúdo selecionado através da unidade de visualização e unidade de processamento de áudio de acordo com o esquema de fornecimento de conteúdo.
  2. 2. Terminal, de acordo com a reivindicação 1, caracterizado pelo fato do primeiro critério ser um estado emocional corrente do usuário, e o segundo critério ser informações de usuário que incluem ao menos uma dentre a idade e sexo do usuário.
  3. 3. Terminal, de acordo com a reivindicação 1, caracterizado pelo fato da unidade de controle selecionar o conteúdo correspondente ao primeiro critério, o conteúdo correspondente compreendendo ao menos um conteúdo predeterminado de acordo com o estado emocional do usuário.
  4. 4. Terminal, de acordo com a reivindicação 1, caracterizado pelo fato da unidade de controle selecionar o conteúdo com base no primeiro critério e no histórico de reprodução de conteúdo anterior do usuário.
  5. 5. Terminal, de acordo com a reivindicação 1, caracterizado pelo fato da unidade de controle selecionar o
    2/6 conteúdo com base no primeiro critério e nas informações sobre localização corrente do terminal.
  6. 6. Terminal, de acordo com a reivindicação 1, caracterizado pelo fato da unidade de controle selecionar o conteúdo com base no histórico de fornecimento de conteúdo em associação com estados emocionais anteriores do usuário.
  7. 7. Terminal, de acordo com a reivindicação 1, caracterizado pelo fato da unidade de processamento de áudio receber fala do usuário, e a unidade e controle selecionar o conteúdo correspondente a uma frase obtida da fala com base no primeiro critério.
  8. 8. Terminal, de acordo com a reivindicação 7, caracterizado pelo fato da unidade de controle obter um segundo critério com base nas palavras que constituem a frase.
  9. 9. Terminal, de acordo com a reivindicação 1, caracterizado pelo fato da unidade de controle mudar ao menos uma das palavras que constituem o conteúdo, velocidade de saída do conteúdo e tamanho de saída do conteúdo com base no segundo critério e fornecer o conteúdo de acordo com o esquema de fornecimento de conteúdo.
    10. Terminal, de acordo com a reivindicação 1, caracterizado pelo fato da unidade de processamento de áudio receber fala do usuário, e a unidade de controle mudar, quando uma frase obtida a partir da fala for uma solicitação para mudar o esquema de fornecimento de conteúdo, o esquema de fornecimento de conteúdo. 11. Terminal, de acordo com a reivindicação 1,
    caracterizado pelo fato da unidade de controle mudar o esquema de fornecimento de conteúdo determinado com base no
    3/6
    segundo critério usando histórico de esquema de fornecimento de conteúdo anterior do usuário e fornecer o conteúdo de acordo com o esquema de fornecimento de conteúdo alterado. 12. Terminal, de acordo com a reivindicação 1,
    caracterizado por compreender ainda uma unidade de câmera que captura uma imagem de rosto do usuário, onde a unidade de controle automaticamente obtém o primeiro critério com base na imagem de rosto do usuário.
  10. 13. Terminal, de acordo com a reivindicação 12, caracterizado pelo fato da unidade de controle obter o primeiro critério a partir de informações predeterminadas de expressões por estado emocional com base nas expressões faciais obtidas a partir da imagem do rosto do usuário.
  11. 14. Terminal, de acordo com a reivindicação 1, caracterizado por compreender ainda uma unidade de câmera que obtém uma imagem do rosto do usuário, onde a unidade de processamento de áudio recebe fala do usuário e a unidade de controle automaticamente obtém o segundo critério com base em ao menos um dentre a imagem do rosto e fala do usuário.
  12. 15. Terminal, de acordo com a reivindicação 1, caracterizado pelo fato da unidade de controle receber os primeiro e segundo critérios através da unidade de processamento de áudio.
  13. 16. Método de conversação vocal de um terminal móvel, o método caracterizado por compreender:
    selecionar conteúdo correspondente a um primeiro critério associado a um usuário em resposta a uma entrada de usuário;
    4/6 determinar um esquema de fornecimento de conteúdo baseado em um segundo critério associado ao usuário; e fornecer o conteúdo selecionado através de uma unidade de visualização e de uma unidade de processamento de áudio do terminal móvel de acordo com o esquema de fornecimento de conteúdo.
  14. 17. Método, de acordo com a reivindicação 16, caracterizado pelo fato do primeiro critério ser um estado emocional corrente do usuário, e o segundo critério ser informações sobre o usuário incluindo ao menos uma dentre idade e sexo do usuário.
  15. 18. Método, de acordo com a reivindicação 16, caracterizado pelo fato da seleção do conteúdo compreender selecionar o conteúdo correspondente ao primeiro critério, o conteúdo correspondente compreendendo ao menos um conteúdo predeterminado de acordo com o estado emocional do usuário.
  16. 19. Método, de acordo com a reivindicação 16, caracterizado pelo fato da seleção do conteúdo compreender selecionar o conteúdo com base no primeiro critério e no histórico de reprodução de conteúdo anterior do usuário.
  17. 20. Método, de acordo com a reivindicação 16, caracterizado pelo fato da seleção do conteúdo compreender selecionar o conteúdo com base no primeiro critério e nas informações sobre localização corrente do terminal.
  18. 21. Método, de acordo com a reivindicação 16, caracterizado pelo fato da seleção do conteúdo compreender selecionar o conteúdo com base no histórico de fornecimento de conteúdo em associação com estados emocionais anteriores do usuário.
    5/6
  19. 22. Método, de acordo com a reivindicação 16, caracterizado por compreender ainda receber fala do usuário, onde a seleção do conteúdo compreende selecionar o conteúdo correspondente a uma frase obtida da fala com base no primeiro critério.
  20. 23. Método, de acordo com a reivindicação 22, caracterizado por compreender ainda a aquisição de um segundo critério com base nas palavras que constituem a frase.
  21. 24. Método, de acordo com a reivindicação 16, caracterizado pelo fato da determinação do esquema de fornecimento de conteúdo compreender mudar ao menos uma das palavras que constituem o conteúdo, velocidade de saída do conteúdo e tamanho de saída do conteúdo com base no segundo critério, e fornecer o conteúdo de acordo com o esquema de fornecimento de conteúdo.
  22. 25. Método, de acordo com a reivindicação 24, caracterizado por compreender ainda receber fala do usuário, e onde a determinação do esquema de fornecimento de conteúdo compreende mudar, quando uma frase obtida a partir da fala for uma solicitação para mudar o esquema de fornecimento de conteúdo, o esquema de fornecimento de conteúdo.
  23. 26. Método, de acordo com a reivindicação 16, caracterizado pelo fato da determinação do esquema de fornecimento de conteúdo compreender mudar o esquema de fornecimento de conteúdo determinado com base no segundo critério usando histórico de esquema de fornecimento de conteúdo anterior do usuário.
    6/6
  24. 27. Método, de acordo com a reivindicação 16, caracterizado por compreender ainda:
    receber uma imagem do rosto do usuário; e obter automaticamente o primeiro critério com base na imagem do rosto do usuário.
  25. 28. Método, de acordo com a reivindicação 27, caracterizado pelo fato da aquisição do primeiro critério compreender a aquisição do primeiro critério a partir de informações predeterminadas de expressões por estado emocional com base nas expressões faciais obtidas a partir da imagem do rosto do usuário.
  26. 29. Método, de acordo com a reivindicação 16, caracterizado por compreender ainda:
    receber ao menos um dentre uma imagem do rosto e fala do usuário; e obter automaticamente o segundo critério com base em ao menos um dentre uma imagem do rosto e fala do usuário.
  27. 30. Método, de acordo com a reivindicação 16, caracterizado por compreender ainda receber os primeiro e segundo critérios através da unidade de processamento de áudio.
    1/12
BR102014003021-2A 2013-02-07 2014-02-07 Método de operação de canal de comunicação sem fio e sistema de terminal portátil BR102014003021A2 (pt)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2013-0013757 2013-02-07
KR1020130013757A KR102050897B1 (ko) 2013-02-07 2013-02-07 음성 대화 기능을 구비한 휴대 단말기 및 이의 음성 대화 방법

Publications (1)

Publication Number Publication Date
BR102014003021A2 true BR102014003021A2 (pt) 2018-04-10

Family

ID=50072918

Family Applications (1)

Application Number Title Priority Date Filing Date
BR102014003021-2A BR102014003021A2 (pt) 2013-02-07 2014-02-07 Método de operação de canal de comunicação sem fio e sistema de terminal portátil

Country Status (10)

Country Link
US (1) US20140222432A1 (pt)
EP (1) EP2765762B1 (pt)
JP (1) JP6541934B2 (pt)
KR (1) KR102050897B1 (pt)
CN (1) CN103984408A (pt)
AU (1) AU2014200660B2 (pt)
BR (1) BR102014003021A2 (pt)
CA (1) CA2842005A1 (pt)
RU (1) RU2661791C2 (pt)
TW (1) TWI628650B (pt)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL313175A (en) * 2013-03-11 2024-07-01 Magic Leap Inc System and method for augmentation and virtual reality
NZ735754A (en) 2013-03-15 2019-04-26 Magic Leap Inc Display system and method
US10431209B2 (en) * 2016-12-30 2019-10-01 Google Llc Feedback controller for data transmissions
KR102340251B1 (ko) * 2014-06-27 2021-12-16 삼성전자주식회사 데이터 관리 방법 및 그 방법을 처리하는 전자 장치
JP6596865B2 (ja) * 2015-03-23 2019-10-30 日本電気株式会社 電話機、電話システム、電話機の音量設定方法、及びプログラム
JP6601069B2 (ja) * 2015-09-01 2019-11-06 カシオ計算機株式会社 対話制御装置、対話制御方法及びプログラム
KR20170034154A (ko) * 2015-09-18 2017-03-28 삼성전자주식회사 콘텐츠 제공 방법 및 이를 수행하는 전자 장치
CN105700682A (zh) * 2016-01-08 2016-06-22 北京乐驾科技有限公司 基于视觉和语音的智能性别、情绪识别检测系统及方法
CN115834774A (zh) * 2016-02-25 2023-03-21 皇家飞利浦有限公司 用于确定呼叫的优先级水平和/或对话持续时间的设备、系统和方法
EP3493534B1 (en) 2016-07-28 2023-04-05 Sony Group Corporation Information processing device, information processing method, and program
US10276149B1 (en) * 2016-12-21 2019-04-30 Amazon Technologies, Inc. Dynamic text-to-speech output
CN106873800A (zh) * 2017-02-20 2017-06-20 北京百度网讯科技有限公司 信息输出方法和装置
US20180350371A1 (en) * 2017-05-31 2018-12-06 Lenovo (Singapore) Pte. Ltd. Adjust output settings based on an identified user
US10983753B2 (en) 2017-06-09 2021-04-20 International Business Machines Corporation Cognitive and interactive sensor based smart home solution
JP7073640B2 (ja) * 2017-06-23 2022-05-24 カシオ計算機株式会社 電子機器、感情情報取得システム、プログラム及び感情情報取得方法
CN108920129A (zh) * 2018-07-27 2018-11-30 联想(北京)有限公司 信息处理方法和信息处理系统
EP4276520A3 (en) 2018-08-31 2024-01-24 Magic Leap, Inc. Spatially-resolved dynamic dimming for augmented reality device
CN109637519B (zh) * 2018-11-13 2020-01-21 百度在线网络技术(北京)有限公司 语音交互实现方法、装置、计算机设备及存储介质
WO2020136725A1 (ja) * 2018-12-25 2020-07-02 クックパッド株式会社 サーバ装置、情報処理端末、システム、方法およびプログラム
JP2022517207A (ja) 2019-01-11 2022-03-07 マジック リープ, インコーポレイテッド 種々の深度における仮想コンテンツの時間多重化された表示
KR20200111853A (ko) 2019-03-19 2020-10-05 삼성전자주식회사 전자 장치 및 전자 장치의 음성 인식 제어 방법
KR102388465B1 (ko) * 2020-02-26 2022-04-21 최갑천 가상 콘텐츠 생성 방법
JP7469211B2 (ja) 2020-10-21 2024-04-16 東京瓦斯株式会社 対話型コミュニケーション装置、コミュニケーションシステム及びプログラム
CN113380240B (zh) * 2021-05-07 2022-04-12 荣耀终端有限公司 语音交互方法和电子设备

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08255150A (ja) * 1995-03-17 1996-10-01 Toshiba Corp 情報公開装置及びマルチモーダル情報入出力システム
JPH10326176A (ja) * 1997-05-23 1998-12-08 Oki Hokuriku Syst Kaihatsu:Kk 音声対話制御方法
JP2001215993A (ja) * 2000-01-31 2001-08-10 Sony Corp 対話処理装置および対話処理方法、並びに記録媒体
WO2002034478A1 (fr) * 2000-10-23 2002-05-02 Sony Corporation Robot pourvu de jambes, procede de commande du comportement d"un tel robot, et support de donnees
US6964023B2 (en) * 2001-02-05 2005-11-08 International Business Machines Corporation System and method for multi-modal focus detection, referential ambiguity resolution and mood classification using multi-modal input
JP2003046980A (ja) * 2001-08-02 2003-02-14 Matsushita Electric Ind Co Ltd 要求応答方法、装置及びプログラム
US9374451B2 (en) * 2002-02-04 2016-06-21 Nokia Technologies Oy System and method for multimodal short-cuts to digital services
JP2004310034A (ja) * 2003-03-24 2004-11-04 Matsushita Electric Works Ltd 対話エージェントシステム
JP2005065252A (ja) * 2003-07-29 2005-03-10 Fuji Photo Film Co Ltd 携帯電話機
US7881934B2 (en) * 2003-09-12 2011-02-01 Toyota Infotechnology Center Co., Ltd. Method and system for adjusting the voice prompt of an interactive system based upon the user's state
JP2005157494A (ja) * 2003-11-20 2005-06-16 Aruze Corp 会話制御装置及び会話制御方法
JP2005275601A (ja) * 2004-03-23 2005-10-06 Fujitsu Ltd 音声による情報検索システム
JP2006048663A (ja) * 2004-06-30 2006-02-16 Metallic House Inc 商品・サービス受発注システム及び商品・サービス受発注方法、並びにサーバ装置及び端末装置
JP2006146630A (ja) * 2004-11-22 2006-06-08 Sony Corp コンテンツ選択再生装置、コンテンツ選択再生方法、コンテンツ配信システムおよびコンテンツ検索システム
US8214214B2 (en) * 2004-12-03 2012-07-03 Phoenix Solutions, Inc. Emotion detection device and method for use in distributed systems
EP1854263B1 (en) * 2005-02-04 2011-05-25 Qualcomm Incorporated Secure bootstrapping for wireless communications
US7490042B2 (en) * 2005-03-29 2009-02-10 International Business Machines Corporation Methods and apparatus for adapting output speech in accordance with context of communication
US7672931B2 (en) * 2005-06-30 2010-03-02 Microsoft Corporation Searching for content using voice search queries
US20070288898A1 (en) * 2006-06-09 2007-12-13 Sony Ericsson Mobile Communications Ab Methods, electronic devices, and computer program products for setting a feature of an electronic device based on at least one user characteristic
KR20090085376A (ko) * 2008-02-04 2009-08-07 삼성전자주식회사 문자 메시지의 음성 합성을 이용한 서비스 방법 및 장치
JP2010057050A (ja) * 2008-08-29 2010-03-11 Sharp Corp 情報端末装置、情報配信装置、情報配信システム及びプログラム
ATE557388T1 (de) * 2008-12-19 2012-05-15 Koninkl Philips Electronics Nv Verfahren und system zur anpassung von kommunikation
US8340974B2 (en) * 2008-12-30 2012-12-25 Motorola Mobility Llc Device, system and method for providing targeted advertisements and content based on user speech data
JP2010181461A (ja) * 2009-02-03 2010-08-19 Olympus Corp デジタルフォトフレーム、情報処理システム、プログラム及び情報記憶媒体
KR101625668B1 (ko) * 2009-04-20 2016-05-30 삼성전자 주식회사 전자기기 및 전자기기의 음성인식방법
US10540976B2 (en) * 2009-06-05 2020-01-21 Apple Inc. Contextual voice commands
US8439265B2 (en) * 2009-06-16 2013-05-14 Intel Corporation Camera applications in a handheld device
US20120011477A1 (en) * 2010-07-12 2012-01-12 Nokia Corporation User interfaces
KR101916107B1 (ko) * 2011-12-18 2018-11-09 인포뱅크 주식회사 통신 단말 및 그 통신 단말의 정보처리 방법
CN102541259A (zh) * 2011-12-26 2012-07-04 鸿富锦精密工业(深圳)有限公司 电子设备及其根据脸部表情提供心情服务的方法

Also Published As

Publication number Publication date
EP2765762A1 (en) 2014-08-13
KR20140100704A (ko) 2014-08-18
TWI628650B (zh) 2018-07-01
RU2661791C2 (ru) 2018-07-19
CA2842005A1 (en) 2014-08-07
JP6541934B2 (ja) 2019-07-10
JP2014153715A (ja) 2014-08-25
RU2014104373A (ru) 2015-08-20
AU2014200660A1 (en) 2014-08-21
EP2765762B1 (en) 2019-07-10
US20140222432A1 (en) 2014-08-07
CN103984408A (zh) 2014-08-13
AU2014200660B2 (en) 2019-05-16
TW201435857A (zh) 2014-09-16
KR102050897B1 (ko) 2019-12-02

Similar Documents

Publication Publication Date Title
BR102014003021A2 (pt) Método de operação de canal de comunicação sem fio e sistema de terminal portátil
US11915696B2 (en) Digital assistant voice input integration
CN106465074B (zh) 数字助手在通信中的使用
US9164984B2 (en) Delay in video for language translation
US9686627B2 (en) Multidimensional virtual learning system and method
US20140181695A1 (en) Controlling delivery of notifications in real-time communications based on communication channel state
US9560316B1 (en) Indicating sound quality during a conference
CN105244048A (zh) 音频播放控制方法和装置
BRPI0706212A2 (pt) classificação de interlocutores em uma conferência baseada em rede
US11876632B2 (en) Audio transcription for electronic conferencing
CN110989889A (zh) 信息展示方法、信息展示装置和电子设备
US20210390148A1 (en) Configuring output controls on a per-online identity and/or a per-online resource basis
WO2019144260A1 (en) Reminder method and apparatus and electronic device
US11443737B2 (en) Audio video translation into multiple languages for respective listeners
JP2019145944A (ja) 音響出力システム、音響出力方法及びプログラム
JP2017111339A (ja) 音声再生装置、音声再生方法及びプログラム
CN111225318A (zh) 音频调节方法及装置、电子设备
US20240113905A1 (en) Audio transcription for electronic conferencing
JP2023176404A (ja) バーチャルアシスタント装置及びバーチャルアシスタント装置用のプログラム

Legal Events

Date Code Title Description
B03A Publication of a patent application or of a certificate of addition of invention [chapter 3.1 patent gazette]
B08F Application dismissed because of non-payment of annual fees [chapter 8.6 patent gazette]
B08K Patent lapsed as no evidence of payment of the annual fee has been furnished to inpi [chapter 8.11 patent gazette]