BRPI0716106A2 - Métodos de medição da resposta emocional e da preferência de escolha - Google Patents
Métodos de medição da resposta emocional e da preferência de escolha Download PDFInfo
- Publication number
- BRPI0716106A2 BRPI0716106A2 BRPI0716106-9A BRPI0716106A BRPI0716106A2 BR PI0716106 A2 BRPI0716106 A2 BR PI0716106A2 BR PI0716106 A BRPI0716106 A BR PI0716106A BR PI0716106 A2 BRPI0716106 A2 BR PI0716106A2
- Authority
- BR
- Brazil
- Prior art keywords
- data
- consumer
- visual stimulus
- emotional
- interest
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0201—Market modelling; Market analysis; Collecting market data
- G06Q30/0203—Market surveys; Market polls
Description
"MÉTODOS DE MEDIÇÃO PA RESPOSTA EMOCIONAL E DA PREFERÊNCIA
DE ESCOLHA"
CAMPO DA INVENÇÃO
A presente invenção se refere genericamente a métodos de condução de pesquisa do consumidor.
ANTECEDENTES DA INVENÇÃO
Existe uma necessidade continua de métodos de medição da resposta emocional e da preferência de escolha de um consumidor em relação aos produtos de uma empresa 10 com o objetivo de conduzir pesquisa do consumidor, como análise de atividade de escolha e/ou de compra, análise de uso e análise de beneficio do produto, e de fornecer retroinformação correta, consciente ou subconsciente, do consumidor, em relação aos produtos de uma empresa com o 15 objetivo de. Há, também, uma necessidade de se apresentar modelos melhores e mais corretos de análises do consumidor que evitem erros e ineficiências associadas aos métodos atuais.
Consulte, por exemplo, as patentes US n°s 20 2003/0032890, 2005/0243054, 2005/0289582, 5.676.138, 6.190.314, 6.309.342, 6.572.562, 6.638.217, 7.046.924, 7.249.603 e WO n°s 97/01984 e 2007/043954; e Lindsey, Jeff; www. jefflindsay.com/market-research.shtml intitulada "The Historie Use of Computerized Tools for Marketing e Market 25 Research: A Brief Survey."
SUMÁRIO DA INVENÇÃO
A presente invenção tenta atender a estas e a outras necessidades, fornecendo, em um primeiro aspecto da invenção, um método que compreende as seguintes etapas: apresentar um estimulo visual a um consumidor, coletar dados de movimentos dos olhos do consumidor de forma livre durante a apresentação do estímulo visual ao consumidor e coletar dados biométricos não-oculares do 5 consumidor de forma livre durante a apresentação do estimulo visual ao consumidor.
Um outro aspecto da invenção fornece um método de obtenção de dados de pesquisa do consumidor, que compreende as seguintes etapas: apresentar um estímulo 10 visual a um consumidor, definir uma área de interesse (Area of Interest - AOI) no estímulo visual, coletar dados de movimentos dos olhos do consumidor durante a apresentação do estimulo visual, coletar dados biométricos do consumidor durante a apresentação do 15 estímulo visual e associar os dados biométricos e os dados de movimentos dos olhos coletados em relação à área de interesse.
Um outro aspecto da invenção fornece um método de obtenção de dados de pesquisa do consumidor, que 20 compreende as seguintes etapas: apresentar um estímulo visual a um consumidor, definir uma área de interesse no estímulo visual, coletar dados de movimentos dos olhos do consumidor durante a apresentação do estímulo visual ao consumidor e em relação à área de interesse, coletar 25 dados biométricos do consumidor durante a apresentação do estímulo visual ao consumidor, converter os dados biométricos coletados em dados métricos emocionais e associar os dados métricos emocionais e os dados de movimentos dos olhos coletados em relação à área de interesse.
Um outro aspecto da invenção fornece um método de obtenção de dados de pesquisa do consumidor, que 5 compreende as seguintes etapas: apresentar um estimulo visual a um consumidor, coletar dados de direção do rosto do consumidor de forma livre durante a apresentação do estímulo visual e coletar dados biométricos não-oculares do consumidor de forma livre durante a apresentação do 10 estímulo visual.
São também fornecidos sistemas e softwares.
DESCRIÇÃO DETALHADA DA INVENÇÃO
O termo "consumidor(es)" é usado em seu sentido mais amplo e se refere a um mamífero, geralmente ser humano, que inclui, mas não se limita a, um comprador, um usuário, um beneficiário, ou um observador ou um espectador de produtos ou serviços, que observa ou vê por meio de pelo menos um sentido fisiológico como: sentido visual, através de revistas, sinal, virtual, TV; sentido auditivo, através de música, fala, ruído branco; sentido olfativo, através de odor, aroma, odores desagradáveis; ou, sentido tátil, entre outros. 0 consumidor pode, também, estar envolvido em um teste (real ou simulado) e nesse caso pode ser chamado de sujeito de pesquisa. Em uma modalidade, o consumidor é um observador de outro indivíduo que está usando o produto ou o serviço. A observação pode ser ao vivo ou através de fotografia ou vídeo.
O termo "comprador" é usado em seu sentido mais amplo e refere-se a um indivíduo que está considerando a escolha ou a compra de um produto para uso imediato ou futuro, para si mesmo ou para outra pessoa. Um comprador pode fazer comparações entre produtos de consumo. Um comprador pode receber informações e impressões por vários 5 métodos. Os métodos visuais podem incluir, mas não se limitam a, um produto ou a sua embalagem no interior de uma loja de varejo, uma foto ou descrição de um produto ou embalagem, o uso ou os benefícios de um produto descrito ou exibido em um web site, um meio eletrônico ou elétrico, 10 como televisão, vídeos, painéis iluminados & outdoors & telas, ou, em formato impresso, como anúncios ou informações em outdoors, pôsteres, telas, materiais em "pontos de venda" POP (point-of-purchase), cupons, panfletos, letreiros, banners, páginas ou inserções em 15 revistas ou jornais, circulares, malas diretas, etc. Um comprador é às vezes induzido a comprar sem planejamento prévio, ou decide fazê-lo por causa de um comercial de programa de televisão ou de uma inserção do produto em filmes de longa metragem, etc. Resumidamente, o comprador 20 / consumidor / sujeito de pesquisa pode ser chamado de "ela" para fins de eficiência, mas incluirá coletivamente os compradores / consumidores / sujeitos de pesquisa do sexo masculino e feminino.
0 termo "observador" é usado em seu sentido 25 mais amplo e refere-se a um receptor de comunicação visual, onde o produto é uma informação de entretenimento que inclui notícias ou informações necessárias para decisões. Similares aos exemplos do comprador, os métodos visuais podem incluir, mas não se limitam a, websites; um meio eletrônico ou elétrico, como televisão, videos, painéis iluminados & outdoors & telas; ou, formas impressas. 0 meio visual pode ser complementado por outros estímulos sensoriais, como o estímulo auditivo, entre outros.
0 termo "análise do consumidor" é usado em seu sentido mais amplo e refere-se à pesquisa que envolve a reação do consumidor a produtos da empresa em situações como: a escolha e/ou a compra, a análise do modo de uso e 10 os benefícios do uso dos produtos. Existem atualmente muitas técnicas, com desvantagens significativas, para tentar compreender a resposta emocional ou o interesse de escolha de um ou mais produtos, ou uma tarefa envolvendo um ou mais produtos. Consulte, por exemplo, a patente US 15 n° 2007/0005425.
0 termo "produto (s)" é usado em seu sentido mais amplo e refere-se a qualquer produto, grupos de produtos, serviços, comunicações, entretenimento, ambientes, organizações, sistemas, ferramentas, e 20 similares. As formas e as marcas de produtos exemplificadoras são descritas no website da empresa The Procter & Gamble www.pg.com e nos links do site. Deve ser entendido que os produtos de consumo que fazem parte de categorias de produtos diferentes das mencionadas acima 25 são, também, contemplados pela presente invenção, e que marcas e formas alternativas de produto, diferentes das apresentadas no site acima mencionado, também são abrangidas pela presente invenção. O termo "indicador(es) de resposta emocional" se refere à uma medição de um processo ou de um estado biológico ou fisiológico de um ser humano ou de um mamífero que se acredita estar conectado ou 5 influenciado, pelo menos em parte, pela condição emocional do ser humano ou do mamífero em um determinado momento ou ao longo de um período de tempo. Este indicador pode também estar conectado ou influenciado por apenas uma das sensações internas em um determinado 10 momento ou período de tempo, mesmo se várias sensações internas estejam presentes; ou, pode estar conectado à qualquer combinação de sensações presentes. Adicionalmente, o grau de impacto ou de importância que uma determinada sensação exerce no indicador de resposta 15 emocional pode variar de pessoa para pessoa ou em virtude de outros fatores situacionais, por exemplo, o fato da pessoa estar sentindo fome, ou até mesmo fatores ambientais, como a temperatura do ambiente.
0 termo "estado (s) emocional (is)" refere-se à 20 coleta de sensações internas do consumidor em um determinado momento ou ao longo de um período de tempo. Deve-se considerar que múltiplas sensações podem estar presentes, como ansiedade e medo, ou ansiedade e prazer, entre outras.
0 termo "equipamento de formação de imagens" é
usado em seu sentido mais amplo e refere-se a um aparelho para ver imagens de estímulo visual, incluindo, mas não se limitando a, desenhos, animações, representações em computador, fotografias e textos, entre outros. As imagens podem ser representações de objetos físicos reais, de imagens virtuais, ou de textos ou gráficos artísticos, e similares. As imagens podem ser estáticas, dinamicamente alteradas ou transformadas, como no sequenciamento de um 5 conjunto de imagens estáticas, ou podem mostrar movimentos, e similares. As imagens podem ser apresentadas ou expostas de diferentes formas incluindo, mas não se limitando a, a mídia impressa ou pintada, como em papel, pôsteres, telas, paredes, pisos, lonas, e similares. As 10 imagens podem ser apresentadas ou expostas através de técnicas de formação de imagens por luz e expostas para serem vistas pelo consumidor em um monitor de computador, uma tela de plasma, uma tela LCD, CRT, uma tela de projeção, fogscreen, um tela d'água, um óculos especial 15 (goggles) , capacetes ou óculos com tela de exibição de imagem, ou qualquer estrutura adicional que permite que uma imagem seja exibida, entre outras. Também são adequadas as técnicas de imagens projetadas "no ar", como imagens holográficas, e outras. Um exemplo de um meio para 20 exibir um ambiente de realidade virtual, bem como para receber retroinformação para o ambiente, é descrito nas patentes US n° 6.425.764 e US n° 2006/0066509 Al.
Em uma modalidade, um método é fornecido nas seguintes etapas: apresentar um estímulo visual a um 25 consumidor, coletar o rastreamento da posição da cabeça e/ou o rastreamento da direção do rosto do consumidor durante a apresentação do estímulo visual ao consumidor, opcionalmente, coletar dados de movimentos dos olhos do consumidor durante a apresentação de um estímulo visual ao consumidor, coletar dados biométricos do consumidor enquanto apresenta o estimulo visual ao consumidor durante a apresentação do estímulo visual ao consumidor. Para os propósitos da presente invenção, o termo "dados de direção 5 do rosto" refere-se à determinação do campo de visão para onde o rosto do consumidor está voltado em relação ao ambiente visual disponível que o circunda. Sem se ater à teoria, esta abordagem oferece uma estimativa (por razões de eficiência) da possibilidade do consumidor estar vendo 10 o estímulo visual (incluindo qualquer área de interesse) . Os dados de direção do rosto podem ser coletados por vários meios conhecidos incluindo o rastreamento da posição da cabeça e o rastreamento do rosto. Por exemplo, os dados de direção do rosto podem ser obtidos por meio de 15 rastreamento remoto por vídeo, por rastreamento remoto por onda eletromagnética, ou colocando-se um sensor (es) fixo (s) ou ponto (s) de rastreamento na cabeça ou no rosto do consumidor ou próximo(s) aos mesmos.
0 termo "estimulo visual" é usado em seu 20 sentido mais amplo e refere-se a qualquer imagem virtual ou não virtual, incluindo, mas não se limitando a, um produto, um objeto, um estímulo, e similares, que um indivíduo pode ver com os olhos. Em uma modalidade, um estímulo não-visual (por exemplo, odor, som, e similares) 25 é substituído pelo estímulo visual ou é apresentado concomitantemente com o estímulo visual. Em uma modalidade, o estímulo visual pode ser arquivado para análise como uma imagem física (por exemplo, fotografia) ou uma imagem digital. O termo "medição(ões) fisiológica(s)" , para uso na presente invenção, em seu sentido amplo inclui tanto as medições biológicas como as medições da linguagem corporal, as quais avaliam as respostas autônomas do 5 consumidor bem como as respostas aprendidas, sejam elas executados consciente ou subconscientemente,
frequentemente executadas como um hábito aprendido. As medições fisiológicas são às vezes chamadas de "expressões biométricas" ou "dados biométricos". 10 Consulte, por exemplo, as patentes US n° 5.676.138, US n° 6.190.314, US n° 6.309.342, US n° 7.249.603 e US n° 2005/028 9582. Para propósitos de clarificação, os termos "medição fisiológica," "expressão biométrica" e "dados biométricos" são usados de forma intercambiável na 15 presente invenção. Ά linguagem corporal, entre outras coisas, pode comunicar estados emocionais de forma nãoverbal através de gestos corporais, de posturas, de expressões corporais ou faciais, e similares. Genericamente, os algoritmos para medições fisiológicas 20 podem ser usados para implementar modalidades da presente invenção. Algumas modalidades podem capturar apenas um ou um par de medição (ões) fisiológica (s) para reduzir custos, enquanto outras modalidades podem capturar múltiplas medições para maior precisão. Muitas técnicas 25 de conversão de medições fisiológicas ou de dados biométricos em dados métricos emocionais (por exemplo, tipo de emoção ou niveis emocionais) têm sido descritas. Consulte, por exemplo, a patente US n° 2005/0289582, parágrafos 37 a 44, e as referências citadas na mesma. Exemplos podem incluir os modelos de Markov ocultos (Hidden Markov Models), redes neurais, e técnicas lógicas difusas. Consulte, por exemplo, Comm. ACM, vol. 37, n° 3, pp. 77 a 84, março 1994. Para propósitos de clarificação, 5 a definição do termo "dados métricos emocionais" inclui os termos "emoção", "tipo de emoção" e "nível emocional".
Sem se ater à teoria, acredita-se geralmente que cada emoção pode causar uma resposta física detectável no corpo. Há diferentes sistemas e 10 categorizações de "emoções". Para os propósitos desta inovação, qualquer conjunto ou mesmo um novo conjunto derivado de definições e hierarquias de emoções pode ser usado e é reconhecido por capturar pelo menos um elemento de emoção humana. Consulte, por exemplo, a patente US n° 15 2003/0028383.
0 termo "linguagem corporal", para uso na presente invenção, em seu sentido mais amplo inclui formas de comunicação que utilizam movimentos do corpo ou gestos, ao invés de, ou além de, sons, linguagem verbal, 20 ou outras formas de comunicação. A linguagem corporal faz parte da categoria de paralinguagem que, para os propósitos da presente invenção, descreve todas as formas de comunicação diferentes da linguagem verbal do ser humano ou do mamífero. Estas incluem, mas não se limitam 25 a, os movimentos mais sutis de muitos consumidores, incluindo o piscar de olhos e o ligeiro movimentos das sobrancelhas. Exemplos de dados de linguagem corporal incluem os dados da eletromiografia facial ou os dados de expressão facial com base no que o consumidor vê. Consulte, por exemplo, as patentes US n° 2 0 05/0289582, US n° 5.436.638 e US n° 7.227.976.
O termo "paralinguagem" ou "elemento (s) paralinguístico (s)" refere-se aos elementos não-verbais de comunicação usados para modificar o significado e representar a emoção. A paralinguagem pode ser expressa consciente ou inconscientemente e inclui entonação da voz, volume, entonação da fala, entre outros. A paralinguagem pode também compreender os sons produzidos verbalmente. Em comunicações unicamente textuais, como em emails, em salas de chat e em mensagens instantâneas, os elementos paralinguísticos podem ser expressos através de emoticons, de fontes e escolhas de cores, de capitalização, de uso de caracteres abstratos ou não-alfabéticos, dentre outros. Um exemplo de avaliação da paralinguagem é fornecido por um equipamento para análise de camadas de voz, que pode incluir a determinação do estado emocional de um indivíduo. Um exemplo é descrito na patente US n° 6.638.217. Um outro exemplo é descrito no pedido publicado PCT WO 97/01984 (PCT/IL96/00027).
A "análise de camadas de voz" ou "LVA" (Layered Voice Analysis) é amplamente definida como qualquer meio de detecção do estado mental e/ou de configuração emocional de voz, ou do segmento de voz, de um falante em 25 um dado momento pela detecção do conteúdo emocional do discurso do falante. Alguns exemplos não-limitadores de produtos de "análise de camadas de voz" comercialmente disponíveis incluem os obtidos junto à Nemesysco Ltd., Zuran, Israel, como LVA 6.50, TiPi 6,40, GKl e SCAl. Consulte, por exemplo, a patente US n° 6.638.217. Sem se ater à teoria, a "análise de camadas de voz" identifica vários tipos de níveis de estresse, processos cognitivos, e/ou reações emocionais que se refletem nas propriedades 5 da voz. Em uma modalidade, a "análise de camadas de voz" divide um segmento de voz em: (i) parâmetros emocionais, ou (ii) categorias de emoções. Em outra modalidade, a "análise de camadas de voz" analisa um nível de excitação ou um nível de atenção em um segmento de voz. Em outra 10 modalidade, a voz é gravada por um gravador que é, a seguir, analisada pela "análise de camadas de voz". Exemplos de dispositivos de gravação incluem: um computador através de um microfone, telefone, televisão, rádio, gravador de voz (digital ou analógico), 15 computador-para-computador, vídeos, DT, DVD, ou similares. Quanto menos comprimida for a amostra de voz, maior será a probabilidade da "análise de camadas de voz" ser correta. A voz pode ser gravada ou analisada no mesmo idioma ou em um idioma diferente do idioma nativo do 20 investigador. Alternativamente, a voz não é gravada, mas analisada enquanto o consumidor / comprador / sujeito de pesquisa está falando.
Uma vantagem potencial da "análise de camadas de voz" é que ela pode ser executada sem se ater ao 25 idioma da fala. Por exemplo, uma abordagem da "análise de camadas de voz" é a utilização dos dados referentes à qualquer som (ou ausência do mesmo) que o consumidor / comprador / sujeito de pesquisa produz durante o teste. Estes sons podem incluir entonações, pausas, suspiros, um "err" ou "hmm" ou um inspirar ou expirar agudo da respiração. Certamente palavras podem, também, fazer parte da análise. A frequência do som (ou a ausência do mesmo) pode ser usada como parte da análise.
Um aspecto da invenção permite a utilização da "análise de camadas de voz" em pesquisa do consumidor ou de mercado incluindo a análise de consumidor. A "análise de camadas de voz" pode ser usada com ou sem outros indicadores de resposta emocional ou outras medições fisiológicas. Em uma modalidade adicional, os dados qualitativos podem também ser obtidos do consumidor / comprador / sujeito de pesquisa. Alguns exemplos nãolimitadores de dados qualitativos são um questionário escrito ou uma entrevista oral (pessoa a pessoa ou pelo telefone ou pela Internet). Em uma modalidade, pelo menos um aspecto da pesquisa do consumidor ou da pesquisa de mercado é realizado com o consumidor / comprador / sujeito de pesquisa, em casa usando a Internet. Em ainda outra modalidade, o consumidor / comprador / sujeito de pesquisa submete sua voz ao pesquisador pelo telefone ou através da Internet. Os dados qualitativos podem ser subsequentemente usados para apoiar as conclusões extraídas da "análise de camadas de voz" (conclusões essas formadas independentemente dos dados qualitativos).
Em uma modalidade, o "entusiasmo" que um consumidor sente por uma imagem ou por um aspecto da imagem pode ser medido através do uso de um "medidor de entusiasmo," (Passion Meter) conforme fornecido pela Unitec, Genebra, Suíça e descrito na publicação da patente norte-americana reivindicando o beneficio, pedido provisório US n° 60/823.531, depositado em 25 de agosto de 2006 (e a publicação não-provisória norteamericana reivindicando o benefício do mesmo). Outros 5 exemplos podem incluir os descritos em "The Evaluative Movement Assessment (EMA)" - Brendl, Markman, e Messner (2005), Journal of Experimental Social Psychology, Volume 41 (4), pp. 346 a 368.
Genericamente, as respostas e as medições 10 autônomas incluem, mas não se limitam a, alterações ou indicações da temperatura corporal, por exemplo, medida por termometria infravermelha ou condutiva, do fluxo sanguíneo facial, da impedância da pele, do eletroencefalograma (EEG), do eletrocardiograma (EKG), da 15 pressão sanguínea, do tempo de trânsito sanguíneo, da frequência cardíaca, do fluxo sanguíneo periférico, da transpiração ou suor, da variabilidade da frequência cardíaca SDNN, da resposta galvânica da pele, da dilatação da pupila, do volume e do ritmo respiratório 20 por inspiração/expiração ou uma média desses movimentos, dos movimentos peristálticos do trato digestivo, da motilidade do intestino grosso, e da ereção dos pêlos, isto é, a pele arrepiada ou o estado erétil dos pêlos do corpo, das sacadas, da temperatura biofeedback, entre 25 outros. Consulte, por exemplo, a patente US n° 2007/010066. As respostas e as medições autônomas podem também incluir: temperatura corporal (termometria condutiva ou IR), fluxo sanguíneo facial, a impedância de pele, qEEG (eletroencefalografia quantificada), motilidade estomacal, e estado erétil do pêlo, entre outros. Medições fisiológicas adicionais podem ser realizadas como eletromiografia facial, viscosidade e volume de saliva, medição da atividade de amilase 5 salivar, metabolismo corporal, localização e intensidade da atividade cerebral, isto é, medidas por fMRI ou EEG.
Em uma modalidade, os dados biométricos compreendem os dados cardíacos. As técnicas de monitoramento cardiovascular e de obtenção de outros dados 10 cardíacos são descritas na patente US n° 2003/0149344. Um monitor comercial pode incluir o medidor de pulsação cardíaca TANITA 6102. Uma outra abordagem refere-se à eletrocardiografia (que utiliza um monitor Holter). Uma abordagem adicional refere-se ao uso de um radar UWB.
Em outra modalidade, os dados biométricos podem
ser oculares ou não-oculares. Os dados biométricos oculares são os dados obtidos dos olhos do consumidor durante a pesquisa. Exemplos incluem os dados de rastreamento da dilatação da pupila, da piscadela e do olho.
As medições fisiológicas adicionais são: eletromiografia do rosto ou de outros músculos; viscosidade e volume de saliva; atividade da amilase salivar; função biológica corporal, por exemplo, 25 metabolismo através de análise de sangue, de amostras de urina ou saliva com o objetivo de avaliar alterações nas respostas induzidas pelo sistema nervoso, por exemplo, marcadores químicos podem ser medidos para obtenção de dados fisiológicos relacionados aos níveis de hormônios neuroendócrinos ou endócrinos liberados; atividade de funcionamento do cérebro. A atividade de funcionamento cerebral (por exemplo, a localização e a intensidade) pode ser medida pelo fMRI, um equipamento de formação de imagens médicas, neste caso, imagens do cérebro. Uma lista não-exaustiva de tecnologias relacionadas à formação de imagens médicas que pode ser útil para a compreensão da atividade funcional do cérebro (outras tecnologias podem ser usadas para observar outras métricas fisiológicas como o uso de ultrassom para medir os movimentos do coração ou dos pulmões), inclui: fMRI (formação de imagens por ressonância magnética funcional), MRI (formação de imagens por ressonância magnética MRI), radiografia, fluoroscopia, CT (tomografia computadorizada), ultrassonografia, medicina nuclear, PET (tomografia por emissão de pósitrons), OT (topografia óptica), NIRS (espectroscopia no infravermelho próximo), como em oximetria, e fNIR (formação de imagens no infravermelho próximo funcional).
Outro exemplo de monitoramento da atividade funcional do cérebro pode incluir a "interface cérebromáquina" desenvolvida por Hitachi, Inc., que mede o fluxo sanguíneo do cérebro. Um exemplo adicional inclui o "NIRS" (Near Infrared Spectroscopy) ou espectroscopia no infravermelho próximo. Ainda, um outro exemplo é o eletroencefalograma (EEG). Consulte também, por exemplo, a patente US n° 6.572.562.
Deve ser considerado que as medições e as alterações da linguagem corporal incluem todas as expressões faciais, por exemplo, o monitoramento dos músculos da boca, dos olhos, do pescoço e da mandibula, as contrações musculares voluntárias e involuntárias, os tecidos, as cartilagem, a estrutura óssea, o posicionamento 5 dos membros do corpo e a atividade gestual, os padrões de movimentos dos membros, por exemplo, o bater dos pés, os movimentos da cabeça, por exemplo, os movimentos de rotação ou de inclinação da cabeça, o posicionamento da cabeça em relação ao corpo e em relação ao estímulo aplicado, a 10 tensão das cordas vocais e a tonalidade resultante, o volume vocal (decibéis), e a velocidade da fala. Podem ser usados métodos e aparelhos não-invasivos para monitorar a linguagem corporal, como as expressões faciais ou as alterações vocais. Por exemplo, pode ser usado um 15 equipamento de fotografia e vídeo digitais que correlaciona as alterações de expressão facial com o software de análise de elementos faciais, ou o Facial Action Coding System (Sistema de codificação da atividade facial), de Ekman, em: http://face-and-emotion.com/dataface/facs/description.j sp 20 ou www.paulekman.com. Consulte por exemplo, a patente US n° 2003/0032890.
0 termo "preferência de escolha" refere-se a uma decisão tomada por um consumidor na escolha do produto com base na preferência ou não, no grau de atração, na 25 probabilidade de compra ou de uso, entre outros fatores. Pode referir-se adicionalmente a ter ou a escolher, consciente ou inconscientemente, uma opinião que pode ser expressa abertamente, ou não, a outro indivíduo (através de comunicação escrita ou oral). O termo "consulta" ou "consulta de preferência de escolha" refere-se a qualquer interação com um indivíduo que resulta na identificação, pelo indivíduo, de um único estímulo ou de um qrupo específico de estímulos dentre uma ampla seleção de estímulos· 0 estímulo identificado pode ser uma representação física ou virtual daquele estímulo, por exemplo, a embalagem em um ambiente de loja de varejo real ou virtual, um elemento daquele estímulo, por exemplo, a cor da embalagem, o aroma do produto contido na embalagem, a foto ou o texto, ou pode ser um resultado do uso daquele estímulo, por exemplo, a cor dos cabelos resultante do uso da tintura para cabelos. A "consulta" ou "a consulta de preferência de escolha" pode ser realizada por qualquer meio, por exemplo, verbal, oral ou escrito, e pode ser realizada conscientemente, por exemplo, quando experimentada, ou inconscientemente, por exemplo, quando uma pessoa age automaticamente em resposta a um determinado estímulo e em um determinado contexto. Uma "consulta" pode resultar na escolha ou na rejeição de um estímulo, enquanto que a "consulta de preferência de escolha" resulta na identificação de um estímulo ou um grupo de estímulos com associações positivas. Uma "consulta de preferência de escolha" pode ou não estar relacionada a uma intenção de compra.
0 termo "consumidor com capacidade comunicativa limitada" refere-se aos mamíferos que não podem articular de forma compreensível aos pesquisadores. Exemplos podem incluir um bebê que não possui desenvolvimento da comunicação, seres humanos adultos com capacidade de comunicação deficiente (por exemplo, baixo QI, invalidez física), ou animais de estimação (por exemplo, cães, gatos, cavalos). Na espécie humana, o termo "consumidor com capacidade comunicativa limitada" refere-se a bebês, a algumas crianças pequenas e aos adultos com deficiências, como por doença, lesão ou idade avançada, que possuem capacidade limitada de comunicação consciente, quando comparada à capacidade dos seres humanos adultos normais. A pesquisa de consumidor tem encontrado dificuldades para determinar as respostas emocionais e as preferências de escolha desses consumidores com capacidade comunicativa limitada frente aos produtos e aos produtos propostos.
A presente invenção refere-se a métodos de resposta emocional e de preferência de escolha para a condução de pesquisa de consumidor. Deve ser considerado que a presente invenção pode ser aplicada a um sujeito de pesquisa quando este está avaliando um produto de consumo, seja em um ambiente virtual ou um ambiente real, sendo que o ambiente (virtual ou real) é escolhido entre: residência, escritório, instalação de teste, restaurante, área de entretenimento, área externa, área interna ou loja de varejo. Consulte, por exemplo, as patentes US n° 7.006.982, US n° 2002/0161651, US n° 2006/0010030, US n° 6.810.300, US n° 7.099.734, US n° 2003/0200129 e US n° 2006/0149634. Como resultado, o local e o uso do sistema de resposta emocional e de escolha não se limitam a um determinado ambiente. O ambiente pode ser móvel, isto é, pode ser movido e configurado para o uso na residência do consumidor, em uma loja de varejo, em um centro comercial, no estacionamento de um centro comercial, em um edifício comunitário, em uma convenção, em um show, e 5 similares. Deve ser considerado também que os sistemas de resposta emocional e de preferência de escolha podem compreender um equipamento de formação de imagens virtuais ou físicas, ou combinação dos mesmos, o qual fornece pelo menos um estímulo visual. Em uma modalidade, 10 o estímulo visual compreende um ambiente de loja real. Por outro lado, um "ambiente de loja real" significa que o ambiente não é virtual ou real. A loja pode ser uma loja em funcionamento ou um protótipo (para teste) . Alguns exemplos de diferentes formatos de lojas são: uma 15 cadeia de abastecimento, um canal de distribuição, um armazém de depósito, uma loja com grande movimento.
Por exemplo, fora do ambiente interno da loja de varejo, um equipamento formação de imagens pode exibir imagens visuais, por exemplo, imagens virtuais, 20 fotográficas, ou físicas, de prateleiras com produtos existentes, ou potenciais, para conduzir a pesquisa de consumidor relacionada aos produtos vendidos no ambiente de varejo. Essa formação visual de imagens pode incluir representações humanas ou avatares, como outros usuários 25 do produto, ou compradores, ou funcionários, como empregados de lojas de varejo, ou outros mamíferos. Uma vantagem desse equipamento de formação de imagens é permitir uma avaliação mais rápida e/ou um entendimento mais profundo da reação do consumidor a um produto de consumo especifico, uma vez que o ambiente virtual pode aparentar real para o consumidor. A reação do consumidor em tempo real, no momento em que ele vê o produto de consumo, é um elemento que determina a decisão de compra do produto, seja da empresa ou do concorrente, e é chamado de o "primeiro momento da verdade" (FMOT - First Moment of True).
Dois componentes adicionais podem também influenciar a decisão do consumidor de realizar a compra ou não. Um deles é qualquer experiência anterior de uso do produto e é chamado de o "segundo momento da verdade (SMOT - Second Moment of Truth) . O "segundo momento da verdade" SMOT é a avaliação do uso do produto pelo consumidor ou uma experiência de uso por outra pessoa que tenha sido relatada ao consumidor, como por informação direta, sala de bate-papo na Internet, resenhas e comentários sobre o produto, e similares. Em uma modalidade, o estimulo visual é estático ou não-estático. Em outra modalidade, o estimulo compreende a participação do consumidor (por exemplo, conduzindo, observando, etc..) em uma tarefa associada ao uso do produto. Exemplos de tarefas associadas ao uso do produto podem incluir os descritos na patente US n° 7.249.603 (que define "tarefa") e 2007/0100666 (que relaciona os "tipos de atividades" na tabela 2B) . 0 "segundo momento da verdade" refere-se ao tempo de uso do produto e à duração dos benefícios do produto por um período após a utilização ou aplicação do mesmo, como em uma experiência de uso ou em situações associadas ao produto. Outro componente é o "momento 'zero' da verdade" (ZMOT - Zero Moment of Truth) que se refere à interação com uma representação do produto ou com uma informação sobre o produto fora do ambiente de compra no varejo. O "momento 5 'zero' da verdade" pode ocorrer quando o consumidor recebe ou vê um anúncio ou testa uma amostra (o que também pode servir como uma experiência de segundo momento da verdade). Para um varejista, o "momento 'zero' da verdade" pode ser os materiais comerciais pré-lançados 10 no mercado que são compartilhados pelo fabricante antes do produto ser lançado à venda.
0 "primeiro momento da verdade", o "segundo momento da verdade" e o "momento 'zero1 da verdade" pode envolver a aparência estética, a equidade da marca, as 15 comunicações textuais e/ou sensoriais, e os benefícios ao consumidor, entre outros. Outros fatores incluem a aparência do produto no ponto de venda ou em um anúncio, a aparência visual (logotipo, direitos autorais, marcas registradas, ou slogans, entre outros), características 20 olfativas (odor) e aurais (som) comunicadas por e em apoio à equidade da marca, e a comunicação gráfica, verbal, pictórica ou textual ao consumidor, como valor, preço unitário, desempenho, prestígio, conveniência. A comunicação está, também, centralizada na forma como ela é 25 transmitida ao consumidor, por exemplo, através de um desenho, um logotipo, um texto, fotos, imagens, e similares. 0 equipamento de formação de imagens físicas ou virtuais permite que uma empresa avalie esses fatores. O equipamento de formação de imagens virtuais oferece à empresa, ao fabricante, ao anunciante, ou ao varejista, a habilidade de poder examinar rapidamente um grande número de fatores que podem afetar a reação do consumidor a um produto em cada ou em todos os "momentos da verdade", por exemplo, o primeiro momento da verdade, o segundo momento da verdade e o momento "zero" da verdade, e permite que sejam usados um maior número de consumidores para avaliação do produto. Por exemplo, as equipes de desenvolvimento de projeto da empresa podem avaliar um grande número de consumidores e manter os dados salvos em um amplo banco de dados para posterior avaliação. Um outro beneficio do equipamento de formação de imagens virtuais é permitir que a empresa tenha custos mais baixos de desenvolvimento, uma vez que ela não precisa fazer continuamente protótipos físicos onerosos, isto é, produtos, embalagens, ambientes de loja, exposições de mercadoria, etc. com reproduções virtuais. Por exemplo, um equipamento de formação de imagens de alta resolução e de grande escala permite que uma empresa gere imagens virtuais através do computador, de imagens fotográficas, ou de imagens de fotoshop de vários protótipos sem ter que produzi-los fisicamente.
Um benefício adicional do equipamento de formação de imagens virtuais, quando usado em conjunto com o rastreamento dos olhos e com um sistema de resposta emocional e de escolha, é a capacidade de detectar o estado emocional do consumidor em relação a um produto proposto, um slogan proposto de anúncio, etc. O equipamento de formação de imagens virtuais permite que uma empresa utilize técnicas melhores e mais rápidas de inovação para avaliar a atratividade de vários de seus anúncios e os elementos e/ou os métodos de in-store merchandising empregados. 0 equipamento de formação de imagens virtuais pode ser usado em uma loja de varejo ou em um ambiente varejista virtual in vitro. Consulte, por exemplo, as patentes US n°s 6.026.377, 6.304.855 e 5.848.399. Em outra modalidade, a imagem pode responder interativamente com o consumidor. Consulte, por exemplo, a patente US n° 6.128.004.
O equipamento de formação de imagens de um ambiente interno da loja permite que o consumidor tenha uma sensação realística semelhante a uma experiência física de escolha e/ou de compra. Ele pode também permitir que um consumidor forneça uma retroinformação e responda, em tempo real, ao equipamento de formação de imagens ou ao equipamento de formação de imagens dentro da loja, incluindo imagens produzidas em tamanho real. Por exemplo, o equipamento de formação de imagens virtuais dentro da loja pode armazenar o número de vezes que o consumidor pega um produto e o coloca de volta na prateleira, durante quanto tempo o consumidor olha o produto, e a localização precisa na prateleira dos produtos escolhidos pelo consumidor. 0 equipamento de formação de imagens virtuais dentro da loja pode adicionalmente ser configurado para armazenar e monitorar todas as respostas do consumidor ao produto, por exemplo, as ações orais, escritas, físicas, ou involuntárias, além de dados coletados por um aparelho de rastreamento ocular. Como indicado acima, um equipamento de formação de imagens pode ser usado com outros aparelhos, como um aparelho de rastreamento ocular, um aparelho de 5 rastreamento da cabeça, e/ou um dispositivo fisiológico para medir pelo menos uma resposta fisiológica.
0 equipamento de formação de imagens fornece à empresa, ao fabricante, ao anunciante, ou ao varejista, um retroinformação de melhor qualidade em relação ao 10 comportamento e às reações do consumidor aos seus produtos. A maioria das tomadas de decisões e das reações do consumidor aos produtos de consumo ocorrem subconscientemente e não podem ser facilmente determinadas por conhecimento consciente ou interrogatório direto. O 15 estudo das variações na atividade de rastreamento ocular e do(s) indicador (es) fisiológico (s) de um consumidor (como a atividade elétrica cerebral) analisadas em tempo real, possibilitam uma compreensão maior do que o consumidor está subconscientemente pensando ou sentindo. O 20 nível e a amplitude de atenção, e a extensão e os tipos de emoções geradas pelo produto podem ser facilmente medidos usando-se o equipamento de formação de imagens virtuais com os equipamentos fisiológicos e o aparelho de rastreamento ocular apresentados. Como resultado, não 25 somente as reações conscientes, mas também as reações inconscientes, são medidas e avaliadas. Embora o estudo em tempo real forneça um entendimento mais rápido, o mesmo pode ser realizado posteriormente, ao serem observados os dados armazenados da atividade de rastreamento ocular e do (s) indicador (s) fisiológico (s) de um consumidor.
Os métodos de obtenção de dados de movimentos dos olhos são descritos nas patentes US n° 2005/0243054 Al, US n° 7.046.924, US n° 4.950.069, US n° 4.836.670 e US n° 4.595.990. A IBM desenvolveu uma câmera "Blue Eyes" capaz de obter dados de movimentos oculares. Um exemplo é o Eyetracking, Inc., San Diego, CA, EUA. A video-oculografia (VOG) utiliza óculos transparentes especiais para medir a posição dos olhos em relação à cabeça. As técnicas podem incluir eletro-oculografia, reflexão da córnea, rastreamento das pálpebras, da pupila e dos lombos, e lentes de contato. Consulte, por exemplo, a patente US n° 2005/0243054, col. 4, Ϊ 58 et seq. Os tipos de dados de movimentos oculares podem incluir fixação do olhar, direção do olhar, trajetória do olhar, tempo de permanência do olhar. Os dados de movimentos oculares se referem à imagem exibida ao consumidor enquanto os dados são obtidos. Durante o teste, a imagem pode ser armazenada ou arquivada por métodos bem conhecidos de imagens estáticas e nãoestáticas.
O dispositivo fisiológico e o equipamento de formação de imagens podem combinar respostas neurológicas, pesquisas motivacionais e reações fisiológicas, ou similares, para fornecer uma análise profunda e detalhada da reação de um consumidor a um produto ou a um ambiente. Os niveis de entusiasmo, de envolvimento, de comprometimento, de atração, de graus de memorização e de atribuição e associação à marca, e de indices de predisposição e consideração podem todos ser medidos e avaliados em níveis variados de intensidade. 0 dispositivo fisiológico e equipamento de formação de imagens permite que a empresa obtenha com especificidade o grau de 5 entusiasmo e o grau de comprometimento. No que se refere ao exemplo de modelo de análise do comprador, atualmente é possível capturar com maior precisão e rapidez uma resposta emocional a um produto de consumo, que pode ser um elemento envolvendo a formação de opinião e, um elemento provável de 10 decisão de escolha, a decisão de usar ou não, de recomendar ou não, de escolher ou não para com compra. Por sua vez, isso permite que uma empresa desenvolva estratégias "primeiro momento da verdade" para parar, interromper e cancelar a venda de um produto da empresa em uma loja.
Por exemplo, em uma modalidade, o sistema de
resposta emocional e de escolha compreende pelo menos um equipamento de formação de imagens, pelo menos um aparelho de rastreamento ocular usado para monitorar e rastrear os movimentos oculares do consumidor em resposta a um produto 20 e pelo menos um dispositivo fisiológico que mede o estado emocional ou a sensação do consumidor em relação a um produto de consumo. Coletivamente, o pelo menos um aparelho de rastreamento ocular e o pelo menos um dispositivo fisiológico formam um aparelho de resposta 25 emocional. 0 pelo menos equipamento de formação de imagens fornece pelo menos um estímulo visual ao consumidor. O estímulo visual pode ser virtual, real, fotográfico, ou holográfico, uma combinação dos mesmos, entre outros. Uma característica do sistema de seleção de resposta emocional apresentado é que as medidas obtidas do consumidor de um ou ambos os aparelhos de rastreamento ocular e/ou do dispositivo fisiológico, ou da análise derivativa de um ou ambos os dados, como uma atribuição de resposta emocional, podem ser usadas em tempo real para manipular e alterar as imagens mostradas. Isso pode ser realizado através do uso de um software de análise integrada, ou pode ser conduzido por um observador de teste que monitora os dados do consumidor em tempo real, entre outros métodos. Por exemplo, se parecer que a atenção do consumidor é atraída aos produtos azuis, então, uma empresa ou um pesquisador pode imediatamente alterar seu produto apresentado de vermelho para azul, para avaliar a reação do consumidor. A habilidade para manipular, modificar e alterar as imagens apresentadas é uma poderosa ferramenta de mercado, todavia, a presente invenção permite que uma empresa o faça em tempo real. Isto pode ser feito não apenas com a cor do produto, mas com o formato, o texto, o tamanho, o preço, o lugar na prateleira ou com qualquer outra forma de informação ou arranjo visual possível. Alternativamente, a retroinformação poderia ser usada, em conjunto com o estímulo visual ou independente do estimulo visual, para alterar o ambiente.
Um aspecto da invenção é analisar de um modo mais dissimulado, o elemento de resposta emocional em combinação com o elemento de atenção do modelo de análise do consumidor, seja em resposta a um estímulo unicamente visual ou em resposta a um estimulo visual em combinação com pelo menos um estímulo suplementar. Para medir o elemento de atenção, um aparelho de rastreamento ocular ou um aparelho de rastreamento de cabeça pode ser usado. Para medir o elemento de resposta emocional, um aparelho de resposta emocional pode ser usado para fornecer a habilidade para compreender um ou mais fatores emocionais que causam uma resposta fisiológica e/ou uma mudança em um consumidor. O aparelho de resposta emocional mede pelo menos uma medição fisiológica. Uma medição fisiológica pode incluir respostas biológicas, respostas expressas por linguagem corporal, e/ou paralinguagem, entre outras.
A provável resposta emocional é estimada comparando-se a medição fisiológica e, opcionalmente, os dados de posição dos movimentos ocular com um modelo ou um conjunto de dados pré-determinados que associa um estado emocional, ou estados emocionais, às medições. Em alguns casos pode ser útil usar múltiplas medições fisiológicas para se verificar o estado ou os estados emocionais prováveis. Opcionalmente, um relatório estatístico de confiança pode ser obtido para cada estado emocional ou agregado de estados. Opcionalmente, na probabilidade de ser comparar múltiplos estados emocionais prováveis, um relatório comparativo pode ser gerado.
O aparelho de rastreamento ocular ou o aparelho de rastreamento da cabeça pode ser usado pelo consumidor, ou pode ser um conjunto de sensores fixos (ou sensores em posições conhecidas, fixos ou em movimentos) colocado remotamente em relação ao consumidor e que monitora os movimentos oculares ou de cabeça quando ele vê o estimulo visual. 0 aparelho de rastreamento ocular pode compreender, ainda, um dispositivo de memória separado que armazena os dados obtidos de rastreamento dos movimentos dos olhos do consumidor e/ou dos movimentos da cabeça, que pode estar localizado no consumidor ou em um ponto remoto em relação a ele. O dispositivo de memória pode ser conectado eletronicamente ou remotamente a um sistema de armazenamento ou computador separado para transferir os dados. 0 dispositivo de memória pode compreender, ainda, um disco de memória, cartucho, ou outra estrutura para facilitar a transferência de dados, por exemplo, o cartão de memória flash. 0 aparelho de rastreamento ocular pode também ser configurado para transferir remotamente dados para um sistema separado de captura e armazenamento de dados, por exemplo, através de tecnologia Bluetooth.
Um exemplo de um aparelho de rastreamento ocular que pode ser usado com esta invenção é o Olho Móvel, da ASL, que consiste em um sistema de rastreamento ocular de forma livre, usado quando uma total liberdade de movimentos é necessária, e video com um cursor recoberto. Este sistema é criado para ser facilmente usado por um indivíduo ativo. A óptica do rastreamento ocular é extremamente leve e sem obstrução, e o dispositivo de registro é pequeno o suficiente para ser usado em uma esteira. A imagem do olho e a imagem da cena são fornecidas e gravadas no dispositivo de registro.
Em um aspecto da invenção, um, dois, três, quatro, cinco, ou mais tipos de dados biométricos são obtidos de forma livre do consumidor. 0 termo "livre" significa que os dispositivos de coleta biométrica coletam os dados do consumidor sem que o consumidor esteja conectado, por fios ou cordões ou similares, a uma peça separada do equipamento. 0 consumidor poderá caminhar ou mover-se sem a restrição de um fio conectado a ele (salvo em algumas modalidades em que ele está em uma área confinada, como sentado em frente a um monitor de vídeo). Para fins de esclarecimento, os fios que são conectados a um transmissor fixado ao consumidor (como "microfone sem fio") é ainda considerado "livre", como o termo é definido na presente invenção. Em uma modalidade, os dados de movimentos dos olhos são obtidos de forma livre. Outros exemplos de formas livres de obtenção de dados biométricos incluem um sistema de detecção que é colocado no consumidor, como um sensor reflexivo ou transmissor de ondas, ou parte de um material que é consultado ou examinado por um dispositivo do equipamento através de, por exemplo, transmissão de uma onda eletromagnética que pode ou não transportar dados codificados no interior da onda ou seqüências de ondas transmitidas) . Em um outro exemplo, as formas livres incluem a obtenção de dados biométricos por meios remotos.
Em um outro aspecto da invenção, são obtidos remotamente um, dois, três, quatro, cinco, ou mais tipos de dados biométricos. O termo "remotamente" ou "remoto" significa que nenhum equipamento está ligado no consumidor, ou é carregado por ele, para a obtenção de dados biométricos. Por exemplo, os dados cardíacos podem ser obtidos remotamente por meio de um radar de banda ultra-iarga (UWB radar) para detecção das batidas do coração e da taxa de respiração. Chia, Microwave Conference, Voi. 3, outubro de 2005.
Sem se ater à teoria, os dados obtidos de forma
livre são melhores, uma vez que o ambiente de teste é mais parecido com a "vida real", ou seja, equipamentos dispersivos ou desconfortáveis não estão tipicamente no, ou conectados ao, consumidor. 0 uso desses dados também 10 facilita o emprego de outros meios de teste que podem exigir que o consumidor participe de pesquisas de uso do produto ou que visite uma loja varejista (comercial ou prototípica) , o que não é bem adequado a métodos controlados.
Pelo menos um dispositivo fisiológico é
empregado para medir o estado emocional do consumidor. Por exemplo, a resposta fisiológica do pulso sanguíneo de um consumidor pode ser aferida quando ele vê o estímulo visual, ao mesmo tempo em gue se faz a captura dos dados 20 da movimentação dos olhos. Os dados obtidos da medição do dispositivo fisiológico são sincronizados ao elemento que está prendendo a atenção do observador em determinado momento, ou ao longo de um certo período, através de um software de computador. Ainda que seja útil registrar a 25 hora, a sincronização não precisa necessariamente refletir a hora real, uma vez que o mais importante é associar os dados coletados que tenham ocorrido ao mesmo tempo ou no mesmo intervalo de tempo. Isto possibilita um posterior análise e compreensão do estado emocional dos vários elementos na trajetória do olhar do consumidor. Outro aspecto desta invenção é que certas medições emocionais, por exemplo, medida da pressão sanguínea, podem ser usadas para indicar tópicos ou áreas, por 5 exemplo, elementos visuais, para uma pesquisa posterior, como questionários, caso o valor, ou valores, medido atinja, exceda ou seja menor que algum nível predeterminado designado pelo pesquisador.
0 dispositivo fisiológico pode ser usado no consumidor, ou pode ser um conjunto de sensores fixos, ou um sensor único, colocado remotamente do consumidor e que monitora suas respostas fisiológicas quando ele vê o estímulo visual. Por exemplo, o dispositivo fisiológico pode ser uma câmera infravermelha remotamente localizada que monitora as alterações da temperatura do corpo ou o dispositivo fisiológico pode ser simplesmente um relógio de pulso do consumidor que monitora a frequência cardíaca do seu usuário. Deve-se valorizar o fato de que em uma modalidade exemplificadora, o dispositivo fisiológico é remoto. Em outras palavras, o consumidor não fica constrito pela fiação física, por exemplo, cabos elétricos que limitam seus movimentos ou pela interação com o estímulo visual.
0 dispositivo fisiológico pode compreender, 25 ainda, um dispositivo de memória separado, localizado no consumidor ou distante dele, que armazena os dados obtidos do rastreamento das alterações fisiológicas do consumidor. 0 dispositivo de memória pode então ser conectado eletrônica ou remotamente a um computador em separado ou a um sistema de armazenamento para transferência dos dados. 0 dispositivo de memória pode compreender, ainda, um disco de memória, um cartucho, ou uma outra estrutura para facilitar a transferência de dados, por exemplo, o cartão de memória flash. 0 dispositivo fisiológico pode também ser configurado para transferir remotamente dados de um sistema de captura e armazenamento de dados separado, por exemplo, através de tecnologia Bluetooth. De qualquer modo, o resultado final é que os dados do dispositivo de rastreamento da movimentação dos olhos e do dispositivo fisiológico são transferidos para um aparelho separado que é configurado para, entre outras funções, correlacionar, avaliar, e/ou sincronizar ambos os conjuntos de dados. Para fins de uma descrição simplificada, o aparelho separado é descrito como um aparelho de captura de dados. O aparelho de captura de dados pode ser um computador separado, um laptop, um banco de dados, um servidor ou qualquer outro dispositivo eletrônico configurado para correlacionar, avaliar, e/ou sincronizar dados do dispositivo fisiológico e do aparelho de rastreamento da movimentação dos olhos.
O aparelho de captura de dados pode compreender, ainda, informações armazenadas ou bancos de dados adicionais. Por exemplo, os estados emocionais prováveis conhecidos associados a certos valores medidos, fisiológicos ou de movimentação dos olhos, ou valores derivados, como os de análises intermediárias, podem ser armazenados e pesquisados em uma tabela em um banco de dados e, então, associados temporaimente, isto é, sincronizados com os elementos vistos de cada intervalo ou em qualquer intervalo ou ao longo de um periodo de tempo, gravados durante o período em que o consumidor está vendo o estímulo visual. Deve-se valorizar o fato de que uma determinada medição fisiológica pode também indicar duas ou mais respostas emocionais possíveis, isoladas ou em combinação. Nestes casos, todas as respostas emocionais possíveis podem ser associadas a um determinado intervalo de tempo no banco de dados.
Outro banco de dados ou informação armazenada adicionais podem ser os estados de escolha conhecidos associados a certos estados emocionais, fisiológicos ou valores de medição de movimentação dos olhos, ou derivados de valores, como de análises intermediárias que podem ser armazenados, pesquisados em uma tabela no banco de dados e, então, associados temporaimente, isto é, sincronizados com os elementos vistos a cada ou em qualquer intervalo, ou ao longo de um período de tempo, registrados durante o período em que o consumidor está vendo o estímulo visual.
Em um outro aspecto da invenção, é possível realizar a medição e o rastreamento de múltiplos dados fisiológicos, como o de medição do pulso sanguíneo e da voz, com subsequente associação do momento de entrada no dispositivo de captação Aos valores medidos, uma sensação possível, ou sensações possíveis, ou um estado emocional, ou estados emocionais, pode então ser designada a cada intervalo de tempo e associada ao intervalo de tempo no banco de dados. As sensações registradas em cada caso podem ser comparadas entre si para produzir um novo valor de uma sensação mais provável ou de um estado emocional mais provável, com base nas referências cruzadas de sensações individuais no banco de dados, ou em uma sub-rotina de análise baseada em um modelo ou correlação criados anteriormente com as medições das respostas emocionais envolvidas. Em outras palavras, os dados obtidos do aparelho de rastreamento da movimentação dos olhos e do dispositivo fisiológico podem ser usados em conjunto com outras informações armazenadas no banco de dados no sistema de rastreamento de dados para gerar dados processados. Os dados processados estão em um formato sincronizado.
Em todos os casos, quer um ou mais estados emocionais sejam avaliados, as sensações designadas de modelos, de correlações, de monografias, de tabelas de pesquisa, de bancos de dados e similares podem ser ajustadas internamente para um consumidor especifico, ou diferentes fatores ambientais, conhecidos ou supostos, podem também ser usados para modificar a correspondência entre o valor da sensação ou da emoção. Em alquns casos, uma medição de "controle" conduzida previamente, durante ou depois do teste de observação, como uma resposta específica do consumidor a estímulos, perguntas, declarações controladas e similares, pode ser usada para modificar a correspondência do valor emocional naquele caso. Alternativamente, um modelo anterior de perfil ou perfis de resposta fisiológica específica pode ser usado como o "controle".
Em uma modalidade, um questionário é apresentado ao consumidor para fins de obtenção de uma 5 resposta. 0 questionário compreende, dentre outras, uma ou mais questões psicométricas, psicográficas e demográficas. As respostas podem ser obtidas antes, durante ou depois, ou uma combinação dos mesmos, do momento em que o estímulo visual é apresentado ao 10 consumidor. 0 sistema de resposta emocional e de preferência de escolha pode ainda obter retroinformação da resposta do consumidor às perguntas feitas, opcionalmente perguntadas após o teste e então obtidas no momento ou posteriormente pelo sistema resposta emocional 15 ou de escolha. Os dados também podem ser correlacionados com as medições psicométricas, como medições de traços de personalidade para intensificar a confiabilidade dos métodos e do sistema de respostas emocionais e de preferência de escolha.
Em ainda outra modalidade, o sistema de
resposta emocional e de preferência de escolha fornece à empresa ou ao pesquisador a habilidade de poder avaliar e monitorar, com o dispositivo fisiológico, a linguagem corporal de um consumidor depois que ele ou ela vê o 25 produto de consumo. 0 sistema de resposta emocional e de preferência de escolha fornece à empresa a habilidade de compreender e criticamente avaliar a linguagem corporal, as respostas conscientes e inconscientes de um consumidor a um produto de consumo. 0 dispositivo fisiológico pode analisar uma única alteração ou uma pluralidade de alterações na linguagem corporal de um consumidor. As medições e as alterações da linguagem corporal incluem todas as expressões faciais, isto é, o monitoramento da 5 boca, dos olhos, do pescoço, dos músculos do queixo, as contrações musculares voluntárias e involuntárias, os tecidos, a cartilagem, a estrutura óssea, o posicionamento das pernas, das mãos, dos dedos, a postura do ombro e similares, a atividade gestual, o padrão de 10 movimentação dos membros, isto é, os gestos repetidos, os movimentos suaves da cabeça, isto é, os movimentos de rotação ou de inclinação da cabeça, o posicionamento da cabeça em relação ao corpo e em relação ao estímulo aplicado, a tensão das cordas vocais e a tonalidade 15 resultante, o volume vocal (decibéis) , e velocidade da fala. No monitoramento da linguagem corporal, como alterações nas expressões faciais ou alterações vocais, podem ser usados métodos e dispositivos fisiológicos nãoinvasivos. Por exemplo, um equipamento de fotografia e 20 vídeo digitais pode ser usado que captura e é capaz de correlacionar, com um software de medição de elementos faciais, qualquer alteração na expressão facial.
Em um aspecto da invenção, são apresentadas questões ao consumidor pedindo informações sobre sua atitude e/ou comportamento acerca de estímulos visuais. Consulte, por exemplo, a patente US n° 2007/0156515.
Em um outro aspecto da invenção, os dados da presente invenção podem ser armazenados e transferidos de acordo com métodos conhecidos. Consulte, por exemplo, as patentes US n° 2006/0036751 e US n° 2007/0100666.
Um aspecto da invenção define uma área de interesse no estímulo visual que é apresentado ao 5 consumidor. A área de interesse pode ser definida pelo investigador por inúmeras razões. Algumas das razões nãolimitadoras podem ser: testar uma determinada característica de um produto, ou parte de uma ilustração gráfica na mensagem de um anúncio, ou mesmo uma mancha no 10 piso enquanto o consumidor executa a tarefa de esfregar a mancha com um produto. Alternativamente, a área de interesse pode ser definida, pelo menos em parte, pelos dados (por exemplo, duração da movimentação dos olhos em uma área do estímulo visual).
Os estímulos visuais e a área de interesse, para
fins do relatório do pesquisador, podem ser ilustrados como uma representação gráfica. A representação gráfica pode ser uma imagem arquivada do estímulo visual ou de alguma outra representação. Por sua vez, a área de 20 interesse pode ser ilustrada na representação gráfica, desenhando-se um círculo, ou algum outro indício, que indica a localização ou área da "área de interesse" na representação ("Indício AOI"). Naturalmente, um estímulo visual (e a representação gráfica do estímulo visual) pode 25 compreender uma pluralidade de áreas de interesse (por exemplo., 2 alO, ou mais). Cada área de interesse (e portanto cada indício AOI) não precisa ter um tamanho uniforme. Após a definição da área de interesse, o pesquisador pode coletar dados biométricos e dados de movimentos dos olhos do consumidor durante a apresentação do estímulo visual ao consumidor. Pelo sequenciamento temporal dos dados coletados de movimentos dos olhos em relação à área de interesse, o pesquisador pode determinar quando o olhar do consumidor está dentro da área de interesse, e assim associar os dados coletados de movimentos dos olhos e os dados biométricos coletados em relação à área de interesse. Naturalmente, os dados biométricos podem ser convertidos em dados métricos emocionais antes ou depois de serem associados aos dados coletados de movimentos dos olhos (em relação à área de interesse). O versado na técnica levará em conta qualquer "tempo de retardo" associado aos dados biométricos e às respostas emocionais e/ou os dados de movimentos dos olhos. Por exemplo, um dado cardíaco frequentemente tem um tempo de retardo (versus, digamos, a atividade cerebral, que é essencialmente ou praticamente instantânea).
Em uma modalidade, o investigador pode comparar os dados biométricos ou os dados métricos emocionais ou os dados de movimentos dos olhos em relação a uma primeira área de interesse aos dados relativos à segunda 25 área de interesse, a uma terceira área de interesse, e similares. Os dados métricos emocionais ou os dados biométricos em relação à área de interesse podem ser apresentados em um gráfico (compreendendo o estímulo visual) como um indício. 0 indício pode ser simplesmente apresentado como um dado bruto ou talvez como um símbolo (por exemplo, uma agulha em uma escala) ou por uma escala de cores ou uma escala de tamanho, ou similares. 0 indício pode também comunicar um certo grau, ou uma 5 faixa, de confiança estatística, ou similar, tanto para os dados biométricos como para os dados métricos emocionais. Pode haver mais de um indício associado a uma dada área de interesse, como dois dados biométricos ou métricos emocionais diferentes, ou uma combinação de 10 indícios; ou um indício baseado em dados de diferentes consumidores, ou do mesmo consumidor mas em dois testes diferentes em tempos distintos. O indício pode representar valores positivos ou negativos em relação às métricas específicas escolhidas pelo pesquisador. 15 Adicionalmente, o indício pode representar um conjunto de múltiplos consumidores como uma média, um total, uma variação da média, uma faixa, uma probabilidade, uma diferença versus um padrão, uma expectativa ou uma meta de projeto de dados, uma porcentagem do número de 20 consumidores com dados que estão dentro de um conjunto definido de limites ou um valor definido máximo ou mínimo. Opcionalmente, a trajetória da movimentação dos olhos ou a seqüência do olhar pode, também, ser mostrada no todo ou em parte. Naturalmente, o pesquisador pode 25 optar por apresentar os dados obtidos, descritos de acordo com as metodologias da presente invenção, através de um relatório que compreende: um gráfico do estímulo visual, um indício de área de interesse, um indício de dados métricos emocionais ou um indício de dados biométricos em relação à área de interesse e um indício de movimentação dos olhos em relação à área de interesse.
Os métodos de resposta emocional e de preferência de escolha descritos acima meramente ilustram e apresentam métodos preferenciais dentre os muitos que poderiam ser usados e produzidos. A descrição e os desenhos acima ilustram modalidades que se referem aos objetos, às características e as vantagens da presente invenção. Entretanto, não é intenção que a presente invenção fique estritamente limitada às modalidades ilustradas e descritas acima. Qualquer modificação, embora não prevista no momento, da presente invenção que faça parte cio espírito e escopo das reivindicações a seguir deve ser considerada como parte da presente invenção.
As dimensões e valores apresentados na presente invenção não devem ser compreendidos como sendo estritamente limitados aos exatos valores numéricos mencionados. Em vez disso, exceto onde especificado em contrário, cada uma dessas dimensões se destina a significar tanto o valor mencionado como uma faixa de valores funcionalmente equivalentes em torno daquele valor. Por exemplo, uma dimensão apresentada como "40 mm" destina-se a significar "cerca de 40 mm".
Claims (10)
1. Método de obtenção de dados de pesquisa do consumidor, caracterizado pelo fato de que compreende as seguintes etapas: (a) apresentar um estimulo visual a um consumidor; (b) coletar dados de movimentos dos olhos do consumidor de forma livre durante a apresentação do estímulo visual ao consumidor; (c) coletar dados biométricos não-oculares do consumidor de forma livre durante a apresentação do estímulo visual ao consumidor.
2. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende, adicionalmente, a etapa de associar os ditos dados biométricos não-oculares aos ditos dados de movimentos dos olhos, e converter os ditos dados biométricos nãooculares associados aos dados métricos emocionais associados.
3. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende adicionalmente a etapa de converter os ditos dados biométricos nãooculares em dados métricos emocionais, e associar os dados métricos emocionais aos ditos dados de movimentos dos olhos.
4. Método de obtenção de dados de pesquisa do consumidor, caracterizado pelo fato de que compreende as seguintes etapas: (a) apresentar um estímulo visual a um consumidor; (b) coletar dados da direção do rosto do consumidor de forma livre durante a apresentação do estimulo visual ao consumidor; (c) coletar dados biométricos não-oculares do consumidor de forma livre durante a apresentação do estímulo visual ao consumidor.
5. Método, de acordo com a reivindicação 4, caracterizado pelo fato de que compreende adicionalmente a etapa de associar os ditos dados biométricos nãooculares aos dados de direção do rosto, e converter os ditos dados biométricos não-oculares associados em dados métricos emocionais associados.
6. Método, de acordo com a reivindicação 4, caracterizado pelo fato de que compreende, adicionalmente, a etapa de converter os ditos dados biométricos não-oculares em dados métricos emocionais, e associar os dados métricos emocionais aos ditos dados de direção do rosto.
7. Método de obtenção de dados de pesquisa do consumidor, caracterizado pelo fato de que compreende as seguintes etapas: (a) apresentar um estímulo visual a um consumidor; (b) definir uma área de interesse (AOI) no estímulo visual; (c) coletar dados de movimentos dos olhos do consumidor durante a apresentação do estimulo visual ao consumidor e em relação à área de interesse; (d) coletar dados biométricos não-oculares do consumidor durante a apresentação do estímulo visual ao consumidor; e (e) associar os dados biométricos não-oculares coletados e os dados de movimentos dos olhos coletados em relação à área de interesse.
8. Método de obtenção de dados de pesquisa do consumidor, caracterizado pelo fato de que compreende as seguintes etapas: (a) apresentar um estímulo visual a um consumidor; (b) definir uma área de interesse no estímulo visual; (c) coletar dados de movimentos dos olhos do consumidor durante a apresentação do estímulo visual ao consumidor e em relação à área de interesse; (d) coletar dados biométricos não-oculares do consumidor durante a apresentação de um estímulo visual ao consumidor; e (e) converter os dados biométricos não-oculares coletados em dados métricos emocionais; (f) associar os dados métricos emocionais e os dados de movimentos dos olhos coletados em relação à área de interesse.
9. Método, de acordo com as reivindicações 1 a7, ou 8, caracterizado pelo fato de que pelo menos uma porção dos ditos dados biométricos não-oculares é coletada de forma livre, sendo selecionada de dados de funcionamento do cérebro, dados de reconhecimento de voz, dados de linguagem corporal, dados cardíacos, ou combinação dos mesmos.
10. Método, de acordo com as reivindicações 1 a8, ou 9, caracterizado pelo fato de que os dados biométricos compreendem dados de reconhecimento de voz, os quais compreendem dados de análise de voz em camadas.
Applications Claiming Priority (9)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US84275506P | 2006-09-07 | 2006-09-07 | |
US84275706P | 2006-09-07 | 2006-09-07 | |
US60/842,757 | 2006-09-07 | ||
US60/842,755 | 2006-09-07 | ||
US88600407P | 2007-01-22 | 2007-01-22 | |
US88599807P | 2007-01-22 | 2007-01-22 | |
US60/886,004 | 2007-01-22 | ||
US60/885,998 | 2007-01-22 | ||
PCT/US2007/019487 WO2008030542A2 (en) | 2006-09-07 | 2007-09-07 | Methods for measuring emotive response and selection preference |
Publications (1)
Publication Number | Publication Date |
---|---|
BRPI0716106A2 true BRPI0716106A2 (pt) | 2014-07-01 |
Family
ID=39157853
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
BRPI0716106-9A BRPI0716106A2 (pt) | 2006-09-07 | 2007-09-07 | Métodos de medição da resposta emocional e da preferência de escolha |
Country Status (7)
Country | Link |
---|---|
US (2) | US20080065468A1 (pt) |
EP (1) | EP2062206A4 (pt) |
JP (1) | JP5249223B2 (pt) |
BR (1) | BRPI0716106A2 (pt) |
CA (1) | CA2663078A1 (pt) |
MX (1) | MX2009002419A (pt) |
WO (1) | WO2008030542A2 (pt) |
Families Citing this family (289)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100649713B1 (ko) * | 2004-12-06 | 2006-11-28 | 한국전자통신연구원 | 두 계층으로 구성된 이중 클러스터 시스템에서 멀티미디어스트리밍 서비스 제공을 위한 계층적 시스템 구성 방법 및통합 스케줄링 방법 |
CN101233540B (zh) * | 2005-08-04 | 2016-05-11 | 皇家飞利浦电子股份有限公司 | 用于监控对目标感兴趣的人的装置及其方法 |
US20070066916A1 (en) * | 2005-09-16 | 2007-03-22 | Imotions Emotion Technology Aps | System and method for determining human emotion by analyzing eye properties |
US9658473B2 (en) * | 2005-10-07 | 2017-05-23 | Percept Technologies Inc | Enhanced optical and perceptual digital eyewear |
WO2008008893A2 (en) * | 2006-07-12 | 2008-01-17 | Medical Cyberworlds, Inc. | Computerized medical training system |
BRPI0716106A2 (pt) * | 2006-09-07 | 2014-07-01 | Procter & Gamble | Métodos de medição da resposta emocional e da preferência de escolha |
US9833184B2 (en) * | 2006-10-27 | 2017-12-05 | Adidas Ag | Identification of emotional states using physiological responses |
US8260690B2 (en) * | 2006-11-08 | 2012-09-04 | Kimberly-Clark Worldwide, Inc. | System and method for capturing test subject feedback |
US20080213736A1 (en) * | 2006-12-28 | 2008-09-04 | Jon Morris | Method and apparatus for emotional profiling |
US8321797B2 (en) * | 2006-12-30 | 2012-11-27 | Kimberly-Clark Worldwide, Inc. | Immersive visualization center for creating and designing a “total design simulation” and for improved relationship management and market research |
US8341022B2 (en) * | 2006-12-30 | 2012-12-25 | Red Dot Square Solutions Ltd. | Virtual reality system for environment building |
US8370207B2 (en) * | 2006-12-30 | 2013-02-05 | Red Dot Square Solutions Limited | Virtual reality system including smart objects |
WO2008081412A1 (en) * | 2006-12-30 | 2008-07-10 | Kimberly-Clark Worldwide, Inc. | Virtual reality system including viewer responsiveness to smart objects |
US8588464B2 (en) | 2007-01-12 | 2013-11-19 | International Business Machines Corporation | Assisting a vision-impaired user with navigation based on a 3D captured image stream |
US8295542B2 (en) | 2007-01-12 | 2012-10-23 | International Business Machines Corporation | Adjusting a consumer experience based on a 3D captured image stream of a consumer response |
US8269834B2 (en) | 2007-01-12 | 2012-09-18 | International Business Machines Corporation | Warning a user about adverse behaviors of others within an environment based on a 3D captured image stream |
WO2008093361A2 (en) * | 2007-02-01 | 2008-08-07 | Techvoyant Infotech Private Limited | Stimuli based intelligent electronic system |
US20080215975A1 (en) * | 2007-03-01 | 2008-09-04 | Phil Harrison | Virtual world user opinion & response monitoring |
US20090024049A1 (en) | 2007-03-29 | 2009-01-22 | Neurofocus, Inc. | Cross-modality synthesis of central nervous system, autonomic nervous system, and effector data |
US20080319276A1 (en) * | 2007-03-30 | 2008-12-25 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Computational user-health testing |
US20090119154A1 (en) * | 2007-11-07 | 2009-05-07 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Determining a demographic characteristic based on computational user-health testing of a user interaction with advertiser-specified content |
US20080242949A1 (en) * | 2007-03-30 | 2008-10-02 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Computational user-health testing |
US20090005654A1 (en) * | 2007-03-30 | 2009-01-01 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Computational user-health testing |
US20080243005A1 (en) * | 2007-03-30 | 2008-10-02 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Computational user-health testing |
US20080242947A1 (en) * | 2007-03-30 | 2008-10-02 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Configuring software for effective health monitoring or the like |
US20090024050A1 (en) * | 2007-03-30 | 2009-01-22 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Computational user-health testing |
US20080242952A1 (en) * | 2007-03-30 | 2008-10-02 | Searete Llc, A Limited Liablity Corporation Of The State Of Delaware | Effective response protocols for health monitoring or the like |
US20090005653A1 (en) * | 2007-03-30 | 2009-01-01 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Computational user-health testing |
US20090018407A1 (en) * | 2007-03-30 | 2009-01-15 | Searete Llc, A Limited Corporation Of The State Of Delaware | Computational user-health testing |
US20080242948A1 (en) * | 2007-03-30 | 2008-10-02 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Effective low-profile health monitoring or the like |
US20080242951A1 (en) * | 2007-03-30 | 2008-10-02 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Effective low-profile health monitoring or the like |
US20090118593A1 (en) * | 2007-11-07 | 2009-05-07 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Determining a demographic characteristic based on computational user-health testing of a user interaction with advertiser-specified content |
WO2008137579A1 (en) * | 2007-05-01 | 2008-11-13 | Neurofocus, Inc. | Neuro-informatics repository system |
WO2008137581A1 (en) | 2007-05-01 | 2008-11-13 | Neurofocus, Inc. | Neuro-feedback based stimulus compression device |
US20090328089A1 (en) * | 2007-05-16 | 2009-12-31 | Neurofocus Inc. | Audience response measurement and tracking system |
US8392253B2 (en) | 2007-05-16 | 2013-03-05 | The Nielsen Company (Us), Llc | Neuro-physiology and neuro-behavioral based stimulus targeting system |
US20090030287A1 (en) * | 2007-06-06 | 2009-01-29 | Neurofocus Inc. | Incented response assessment at a point of transaction |
US8494905B2 (en) * | 2007-06-06 | 2013-07-23 | The Nielsen Company (Us), Llc | Audience response analysis using simultaneous electroencephalography (EEG) and functional magnetic resonance imaging (fMRI) |
KR20100038107A (ko) | 2007-07-30 | 2010-04-12 | 뉴로포커스, 인크. | 신경-반응 자극 및 자극 속성 공명 추정기 |
US20090036755A1 (en) * | 2007-07-30 | 2009-02-05 | Neurofocus, Inc. | Entity and relationship assessment and extraction using neuro-response measurements |
US8386313B2 (en) | 2007-08-28 | 2013-02-26 | The Nielsen Company (Us), Llc | Stimulus placement system using subject neuro-response measurements |
US8635105B2 (en) * | 2007-08-28 | 2014-01-21 | The Nielsen Company (Us), Llc | Consumer experience portrayal effectiveness assessment system |
CN101795620B (zh) | 2007-08-28 | 2013-05-01 | 神经焦点公司 | 消费者体验评定系统 |
US8392255B2 (en) | 2007-08-29 | 2013-03-05 | The Nielsen Company (Us), Llc | Content based selection and meta tagging of advertisement breaks |
US8494610B2 (en) * | 2007-09-20 | 2013-07-23 | The Nielsen Company (Us), Llc | Analysis of marketing and entertainment effectiveness using magnetoencephalography |
US20090083129A1 (en) * | 2007-09-20 | 2009-03-26 | Neurofocus, Inc. | Personalized content delivery using neuro-response priming data |
US9191450B2 (en) * | 2007-09-20 | 2015-11-17 | Disney Enterprises, Inc. | Measuring user engagement during presentation of media content |
US8332883B2 (en) | 2007-10-02 | 2012-12-11 | The Nielsen Company (Us), Llc | Providing actionable insights based on physiological responses from viewers of media |
US9582805B2 (en) * | 2007-10-24 | 2017-02-28 | Invention Science Fund I, Llc | Returning a personalized advertisement |
US8112407B2 (en) * | 2007-10-24 | 2012-02-07 | The Invention Science Fund I, Llc | Selecting a second content based on a user's reaction to a first content |
US9513699B2 (en) * | 2007-10-24 | 2016-12-06 | Invention Science Fund I, LL | Method of selecting a second content based on a user's reaction to a first content |
US20090112696A1 (en) * | 2007-10-24 | 2009-04-30 | Jung Edward K Y | Method of space-available advertising in a mobile device |
US8126867B2 (en) * | 2007-10-24 | 2012-02-28 | The Invention Science Fund I, Llc | Returning a second content based on a user's reaction to a first content |
US20090112695A1 (en) * | 2007-10-24 | 2009-04-30 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Physiological response based targeted advertising |
US8234262B2 (en) * | 2007-10-24 | 2012-07-31 | The Invention Science Fund I, Llc | Method of selecting a second content based on a user's reaction to a first content of at least two instances of displayed content |
US20090112849A1 (en) * | 2007-10-24 | 2009-04-30 | Searete Llc | Selecting a second content based on a user's reaction to a first content of at least two instances of displayed content |
US8001108B2 (en) * | 2007-10-24 | 2011-08-16 | The Invention Science Fund I, Llc | Returning a new content based on a person's reaction to at least two instances of previously displayed content |
US20090112694A1 (en) * | 2007-10-24 | 2009-04-30 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Targeted-advertising based on a sensed physiological response by a person to a general advertisement |
US20090112693A1 (en) * | 2007-10-24 | 2009-04-30 | Jung Edward K Y | Providing personalized advertising |
US20090113297A1 (en) * | 2007-10-24 | 2009-04-30 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Requesting a second content based on a user's reaction to a first content |
US20090112697A1 (en) * | 2007-10-30 | 2009-04-30 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Providing personalized advertising |
WO2009059246A1 (en) | 2007-10-31 | 2009-05-07 | Emsense Corporation | Systems and methods providing en mass collection and centralized processing of physiological responses from viewers |
US20090158309A1 (en) * | 2007-12-12 | 2009-06-18 | Hankyu Moon | Method and system for media audience measurement and spatial extrapolation based on site, display, crowd, and viewership characterization |
US20090156955A1 (en) * | 2007-12-13 | 2009-06-18 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Methods and systems for comparing media content |
US20090171164A1 (en) * | 2007-12-17 | 2009-07-02 | Jung Edward K Y | Methods and systems for identifying an avatar-linked population cohort |
US20090157813A1 (en) * | 2007-12-17 | 2009-06-18 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Methods and systems for identifying an avatar-linked population cohort |
US20090164458A1 (en) * | 2007-12-20 | 2009-06-25 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Methods and systems employing a cohort-linked avatar |
US20090164302A1 (en) * | 2007-12-20 | 2009-06-25 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Methods and systems for specifying a cohort-linked avatar attribute |
US9211077B2 (en) * | 2007-12-13 | 2015-12-15 | The Invention Science Fund I, Llc | Methods and systems for specifying an avatar |
US20090157481A1 (en) * | 2007-12-13 | 2009-06-18 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Methods and systems for specifying a cohort-linked avatar attribute |
US20090157751A1 (en) * | 2007-12-13 | 2009-06-18 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Methods and systems for specifying an avatar |
US20090157660A1 (en) * | 2007-12-13 | 2009-06-18 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Methods and systems employing a cohort-linked avatar |
US8356004B2 (en) * | 2007-12-13 | 2013-01-15 | Searete Llc | Methods and systems for comparing media content |
US8069125B2 (en) * | 2007-12-13 | 2011-11-29 | The Invention Science Fund I | Methods and systems for comparing media content |
US8195593B2 (en) * | 2007-12-20 | 2012-06-05 | The Invention Science Fund I | Methods and systems for indicating behavior in a population cohort |
US20090157625A1 (en) * | 2007-12-13 | 2009-06-18 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Methods and systems for identifying an avatar-linked population cohort |
US8615479B2 (en) | 2007-12-13 | 2013-12-24 | The Invention Science Fund I, Llc | Methods and systems for indicating behavior in a population cohort |
US20090164131A1 (en) * | 2007-12-20 | 2009-06-25 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Methods and systems for specifying a media content-linked population cohort |
US9418368B2 (en) * | 2007-12-20 | 2016-08-16 | Invention Science Fund I, Llc | Methods and systems for determining interest in a cohort-linked avatar |
US20090164503A1 (en) * | 2007-12-20 | 2009-06-25 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Methods and systems for specifying a media content-linked population cohort |
US8150796B2 (en) * | 2007-12-20 | 2012-04-03 | The Invention Science Fund I | Methods and systems for inducing behavior in a population cohort |
US9775554B2 (en) * | 2007-12-31 | 2017-10-03 | Invention Science Fund I, Llc | Population cohort-linked avatar |
US20090222305A1 (en) * | 2008-03-03 | 2009-09-03 | Berg Jr Charles John | Shopper Communication with Scaled Emotional State |
US8433612B1 (en) * | 2008-03-27 | 2013-04-30 | Videomining Corporation | Method and system for measuring packaging effectiveness using video-based analysis of in-store shopper response |
WO2009132312A1 (en) * | 2008-04-25 | 2009-10-29 | Sorensen Associates Inc. | Point of view shopper camera system with orientation sensor |
US8462996B2 (en) * | 2008-05-19 | 2013-06-11 | Videomining Corporation | Method and system for measuring human response to visual stimulus based on changes in facial expression |
US9161715B2 (en) * | 2008-05-23 | 2015-10-20 | Invention Science Fund I, Llc | Determination of extent of congruity between observation of authoring user and observation of receiving user |
US9192300B2 (en) * | 2008-05-23 | 2015-11-24 | Invention Science Fund I, Llc | Acquisition and particular association of data indicative of an inferred mental state of an authoring user |
US7904507B2 (en) | 2008-05-23 | 2011-03-08 | The Invention Science Fund I, Llc | Determination of extent of congruity between observation of authoring user and observation of receiving user |
US8615664B2 (en) * | 2008-05-23 | 2013-12-24 | The Invention Science Fund I, Llc | Acquisition and particular association of inference data indicative of an inferred mental state of an authoring user and source identity data |
US8429225B2 (en) | 2008-05-21 | 2013-04-23 | The Invention Science Fund I, Llc | Acquisition and presentation of data indicative of an extent of congruence between inferred mental states of authoring users |
US8082215B2 (en) * | 2008-05-23 | 2011-12-20 | The Invention Science Fund I, Llc | Acquisition and particular association of inference data indicative of inferred mental states of authoring users |
US8086563B2 (en) * | 2008-05-23 | 2011-12-27 | The Invention Science Fund I, Llc | Acquisition and particular association of data indicative of an inferred mental state of an authoring user |
US9101263B2 (en) * | 2008-05-23 | 2015-08-11 | The Invention Science Fund I, Llc | Acquisition and association of data indicative of an inferred mental state of an authoring user |
US20090292658A1 (en) * | 2008-05-23 | 2009-11-26 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Acquisition and particular association of inference data indicative of inferred mental states of authoring users |
SE0801267A0 (sv) * | 2008-05-29 | 2009-03-12 | Cunctus Ab | Metod för en användarenhet, en användarenhet och ett system innefattande nämnda användarenhet |
US20090318773A1 (en) * | 2008-06-24 | 2009-12-24 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Involuntary-response-dependent consequences |
US8219438B1 (en) * | 2008-06-30 | 2012-07-10 | Videomining Corporation | Method and system for measuring shopper response to products based on behavior and facial expression |
JPWO2010001512A1 (ja) * | 2008-07-03 | 2011-12-15 | パナソニック株式会社 | 印象度抽出装置および印象度抽出方法 |
US20100010317A1 (en) * | 2008-07-09 | 2010-01-14 | De Lemos Jakob | Self-contained data collection system for emotional response testing |
US20100010370A1 (en) | 2008-07-09 | 2010-01-14 | De Lemos Jakob | System and method for calibrating and normalizing eye data in emotional testing |
WO2010018459A2 (en) | 2008-08-15 | 2010-02-18 | Imotions - Emotion Technology A/S | System and method for identifying the existence and position of text in visual media content and for determining a subject's interactions with the text |
US20100070987A1 (en) * | 2008-09-12 | 2010-03-18 | At&T Intellectual Property I, L.P. | Mining viewer responses to multimedia content |
US20100094097A1 (en) * | 2008-10-15 | 2010-04-15 | Charles Liu | System and method for taking responsive action to human biosignals |
US20100123776A1 (en) * | 2008-11-18 | 2010-05-20 | Kimberly-Clark Worldwide, Inc. | System and method for observing an individual's reaction to their environment |
US20100168529A1 (en) * | 2008-12-30 | 2010-07-01 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Methods and systems for presenting an inhalation experience |
US8270814B2 (en) | 2009-01-21 | 2012-09-18 | The Nielsen Company (Us), Llc | Methods and apparatus for providing video with embedded media |
US8464288B2 (en) * | 2009-01-21 | 2013-06-11 | The Nielsen Company (Us), Llc | Methods and apparatus for providing personalized media in video |
US9357240B2 (en) * | 2009-01-21 | 2016-05-31 | The Nielsen Company (Us), Llc | Methods and apparatus for providing alternate media for video decoders |
US8539359B2 (en) * | 2009-02-11 | 2013-09-17 | Jeffrey A. Rapaport | Social network driven indexing system for instantly clustering people with concurrent focus on same topic into on-topic chat rooms and/or for generating on-topic search results tailored to user preferences regarding topic |
US9558499B2 (en) * | 2009-02-27 | 2017-01-31 | The Forbes Consulting Group, Llc | Methods and systems for assessing psychological characteristics |
US20120071785A1 (en) * | 2009-02-27 | 2012-03-22 | Forbes David L | Methods and systems for assessing psychological characteristics |
US9603564B2 (en) * | 2009-02-27 | 2017-03-28 | The Forbes Consulting Group, Llc | Methods and systems for assessing psychological characteristics |
WO2010100567A2 (en) | 2009-03-06 | 2010-09-10 | Imotions- Emotion Technology A/S | System and method for determining emotional response to olfactory stimuli |
US10319471B2 (en) | 2009-03-10 | 2019-06-11 | Gearbox Llc | Computational systems and methods for health services planning and matching |
US9892435B2 (en) * | 2009-03-10 | 2018-02-13 | Gearbox Llc | Computational systems and methods for health services planning and matching |
US9858540B2 (en) | 2009-03-10 | 2018-01-02 | Gearbox, Llc | Computational systems and methods for health services planning and matching |
US20180197636A1 (en) * | 2009-03-10 | 2018-07-12 | Gearbox Llc | Computational Systems and Methods for Health Services Planning and Matching |
US9886729B2 (en) | 2009-03-10 | 2018-02-06 | Gearbox, Llc | Computational systems and methods for health services planning and matching |
US9911165B2 (en) | 2009-03-10 | 2018-03-06 | Gearbox, Llc | Computational systems and methods for health services planning and matching |
US8473352B2 (en) * | 2009-03-24 | 2013-06-25 | The Western Union Company | Consumer due diligence for money transfer systems and methods |
US20100250325A1 (en) | 2009-03-24 | 2010-09-30 | Neurofocus, Inc. | Neurological profiles for market matching and stimulus presentation |
US8905298B2 (en) | 2009-03-24 | 2014-12-09 | The Western Union Company | Transactions with imaging analysis |
US8285706B2 (en) * | 2009-06-10 | 2012-10-09 | Microsoft Corporation | Using a human computation game to improve search engine performance |
US20120191542A1 (en) * | 2009-06-24 | 2012-07-26 | Nokia Corporation | Method, Apparatuses and Service for Searching |
US20110046502A1 (en) * | 2009-08-20 | 2011-02-24 | Neurofocus, Inc. | Distributed neuro-response data collection and analysis |
US8655437B2 (en) | 2009-08-21 | 2014-02-18 | The Nielsen Company (Us), Llc | Analysis of the mirror neuron system for evaluation of stimulus |
US10987015B2 (en) * | 2009-08-24 | 2021-04-27 | Nielsen Consumer Llc | Dry electrodes for electroencephalography |
US20110106750A1 (en) | 2009-10-29 | 2011-05-05 | Neurofocus, Inc. | Generating ratings predictions using neuro-response data |
US8209224B2 (en) * | 2009-10-29 | 2012-06-26 | The Nielsen Company (Us), Llc | Intracluster content management using neuro-response priming data |
US9560984B2 (en) | 2009-10-29 | 2017-02-07 | The Nielsen Company (Us), Llc | Analysis of controlled and automatic attention for introduction of stimulus material |
US8335715B2 (en) * | 2009-11-19 | 2012-12-18 | The Nielsen Company (Us), Llc. | Advertisement exchange using neuro-response data |
US8335716B2 (en) * | 2009-11-19 | 2012-12-18 | The Nielsen Company (Us), Llc. | Multimedia advertisement exchange |
CA2781753A1 (en) * | 2009-11-25 | 2011-06-03 | David J. Vining | Advanced multimedia structured reporting |
US9024814B2 (en) | 2010-01-05 | 2015-05-05 | The Invention Science Fund I, Llc | Tracking identities of persons using micro-impulse radar |
US9019149B2 (en) | 2010-01-05 | 2015-04-28 | The Invention Science Fund I, Llc | Method and apparatus for measuring the motion of a person |
US20110166940A1 (en) * | 2010-01-05 | 2011-07-07 | Searete Llc | Micro-impulse radar detection of a human demographic and delivery of targeted media content |
US20110166937A1 (en) * | 2010-01-05 | 2011-07-07 | Searete Llc | Media output with micro-impulse radar feedback of physiological response |
US8884813B2 (en) | 2010-01-05 | 2014-11-11 | The Invention Science Fund I, Llc | Surveillance of stress conditions of persons using micro-impulse radar |
US9069067B2 (en) | 2010-09-17 | 2015-06-30 | The Invention Science Fund I, Llc | Control of an electronic apparatus using micro-impulse radar |
US9767470B2 (en) | 2010-02-26 | 2017-09-19 | Forbes Consulting Group, Llc | Emotional survey |
US20110237971A1 (en) * | 2010-03-25 | 2011-09-29 | Neurofocus, Inc. | Discrete choice modeling using neuro-response data |
US8684742B2 (en) | 2010-04-19 | 2014-04-01 | Innerscope Research, Inc. | Short imagery task (SIT) research method |
US20110263946A1 (en) * | 2010-04-22 | 2011-10-27 | Mit Media Lab | Method and system for real-time and offline analysis, inference, tagging of and responding to person(s) experiences |
US8655428B2 (en) | 2010-05-12 | 2014-02-18 | The Nielsen Company (Us), Llc | Neuro-response data synchronization |
JP5465089B2 (ja) * | 2010-05-31 | 2014-04-09 | キヤノン株式会社 | 脳機能計測用視覚刺激提示装置、機能的磁気共鳴画像装置、脳磁計、脳機能計測方法 |
US20140058828A1 (en) * | 2010-06-07 | 2014-02-27 | Affectiva, Inc. | Optimizing media based on mental state analysis |
US8939903B2 (en) * | 2010-06-17 | 2015-01-27 | Forethough Pty Ltd | Measurement of emotional response to sensory stimuli |
US20120023161A1 (en) * | 2010-07-21 | 2012-01-26 | Sk Telecom Co., Ltd. | System and method for providing multimedia service in a communication system |
US20120022937A1 (en) * | 2010-07-22 | 2012-01-26 | Yahoo! Inc. | Advertisement brand engagement value |
US8392251B2 (en) | 2010-08-09 | 2013-03-05 | The Nielsen Company (Us), Llc | Location aware presentation of stimulus material |
US8392250B2 (en) | 2010-08-09 | 2013-03-05 | The Nielsen Company (Us), Llc | Neuro-response evaluated stimulus in virtual reality environments |
US20120042263A1 (en) | 2010-08-10 | 2012-02-16 | Seymour Rapaport | Social-topical adaptive networking (stan) system allowing for cooperative inter-coupling with external social networking systems and other content sources |
US8396744B2 (en) | 2010-08-25 | 2013-03-12 | The Nielsen Company (Us), Llc | Effective virtual reality environments for presentation of marketing materials |
WO2012083415A1 (en) * | 2010-11-15 | 2012-06-28 | Tandemlaunch Technologies Inc. | System and method for interacting with and analyzing media on a display using eye gaze tracking |
EP2492705B1 (en) * | 2011-02-24 | 2015-12-30 | Takasago International Corporation | fMRI method to identify olfactive stimuli of the dopaminergic reward system |
US8886581B2 (en) * | 2011-05-11 | 2014-11-11 | Ari M. Frank | Affective response predictor for a stream of stimuli |
US8676937B2 (en) | 2011-05-12 | 2014-03-18 | Jeffrey Alan Rapaport | Social-topical adaptive networking (STAN) system allowing for group based contextual transaction offers and acceptances and hot topic watchdogging |
US20130022950A1 (en) | 2011-07-22 | 2013-01-24 | Muniz Simas Fernando Moreira | Method and system for generating behavioral studies of an individual |
US9707372B2 (en) * | 2011-07-29 | 2017-07-18 | Rosalind Y. Smith | System and method for a bioresonance chamber |
US8771206B2 (en) | 2011-08-19 | 2014-07-08 | Accenture Global Services Limited | Interactive virtual care |
US8988350B2 (en) * | 2011-08-20 | 2015-03-24 | Buckyball Mobile, Inc | Method and system of user authentication with bioresponse data |
US20150135309A1 (en) * | 2011-08-20 | 2015-05-14 | Amit Vishram Karmarkar | Method and system of user authentication with eye-tracking data |
US9442565B2 (en) | 2011-08-24 | 2016-09-13 | The United States Of America, As Represented By The Secretary Of The Navy | System and method for determining distracting features in a visual display |
US8854282B1 (en) | 2011-09-06 | 2014-10-07 | Google Inc. | Measurement method |
US8489182B2 (en) | 2011-10-18 | 2013-07-16 | General Electric Company | System and method of quality analysis in acquisition of ambulatory electrocardiography device data |
US9015084B2 (en) | 2011-10-20 | 2015-04-21 | Gil Thieberger | Estimating affective response to a token instance of interest |
US9819711B2 (en) * | 2011-11-05 | 2017-11-14 | Neil S. Davey | Online social interaction, education, and health care by analysing affect and cognitive features |
JP5898970B2 (ja) * | 2012-01-20 | 2016-04-06 | 株式会社日立製作所 | 気分評価システム |
US9569986B2 (en) | 2012-02-27 | 2017-02-14 | The Nielsen Company (Us), Llc | System and method for gathering and analyzing biometric user feedback for use in social media and advertising applications |
US9292858B2 (en) | 2012-02-27 | 2016-03-22 | The Nielsen Company (Us), Llc | Data collection system for aggregating biologically based measures in asynchronous geographically distributed public environments |
US9451303B2 (en) | 2012-02-27 | 2016-09-20 | The Nielsen Company (Us), Llc | Method and system for gathering and computing an audience's neurologically-based reactions in a distributed framework involving remote storage and computing |
US20130254006A1 (en) * | 2012-03-20 | 2013-09-26 | Pick'ntell Ltd. | Apparatus and method for transferring commercial data at a store |
US9030505B2 (en) * | 2012-05-17 | 2015-05-12 | Nokia Technologies Oy | Method and apparatus for attracting a user's gaze to information in a non-intrusive manner |
US9888842B2 (en) * | 2012-05-31 | 2018-02-13 | Nokia Technologies Oy | Medical diagnostic gaze tracker |
KR20140011204A (ko) * | 2012-07-18 | 2014-01-28 | 삼성전자주식회사 | 컨텐츠 제공 방법 및 이를 적용한 디스플레이 장치 |
US8984065B2 (en) * | 2012-08-01 | 2015-03-17 | Eharmony, Inc. | Systems and methods for online matching using non-self-identified data |
US10237613B2 (en) | 2012-08-03 | 2019-03-19 | Elwha Llc | Methods and systems for viewing dynamically customized audio-visual content |
US20140039857A1 (en) * | 2012-08-03 | 2014-02-06 | Daniel A. Hill | Emotional analytics for performance improvement |
US10455284B2 (en) | 2012-08-31 | 2019-10-22 | Elwha Llc | Dynamic customization and monetization of audio-visual content |
US9300994B2 (en) | 2012-08-03 | 2016-03-29 | Elwha Llc | Methods and systems for viewing dynamically customized audio-visual content |
US20140040945A1 (en) * | 2012-08-03 | 2014-02-06 | Elwha, LLC, a limited liability corporation of the State of Delaware | Dynamic customization of audio visual content using personalizing information |
US8989835B2 (en) | 2012-08-17 | 2015-03-24 | The Nielsen Company (Us), Llc | Systems and methods to gather and analyze electroencephalographic data |
WO2014037937A2 (en) * | 2012-09-06 | 2014-03-13 | Beyond Verbal Communication Ltd | System and method for selection of data according to measurement of physiological parameters |
US10010270B2 (en) * | 2012-09-17 | 2018-07-03 | Verily Life Sciences Llc | Sensing system |
US9477993B2 (en) * | 2012-10-14 | 2016-10-25 | Ari M Frank | Training a predictor of emotional response based on explicit voting on content and eye tracking to verify attention |
CA2891483A1 (en) | 2012-11-14 | 2014-05-22 | Carnegie Mellon University | Automated thumbnail selection for online video |
US20140149177A1 (en) * | 2012-11-23 | 2014-05-29 | Ari M. Frank | Responding to uncertainty of a user regarding an experience by presenting a prior experience |
US9265458B2 (en) | 2012-12-04 | 2016-02-23 | Sync-Think, Inc. | Application of smooth pursuit cognitive testing paradigms to clinical drug development |
US20140164056A1 (en) * | 2012-12-07 | 2014-06-12 | Cascade Strategies, Inc. | Biosensitive response evaluation for design and research |
WO2014088637A1 (en) * | 2012-12-07 | 2014-06-12 | Cascade Strategies, Inc. | Biosensitive response evaluation for design and research |
US9230180B2 (en) * | 2013-01-18 | 2016-01-05 | GM Global Technology Operations LLC | Eyes-off-the-road classification with glasses classifier |
US9380976B2 (en) | 2013-03-11 | 2016-07-05 | Sync-Think, Inc. | Optical neuroinformatics |
US9320450B2 (en) | 2013-03-14 | 2016-04-26 | The Nielsen Company (Us), Llc | Methods and apparatus to gather and analyze electroencephalographic data |
EP2972678A4 (en) | 2013-03-15 | 2016-11-02 | Interaxon Inc | CLOTHING COMPUTER APPARATUS AND ASSOCIATED METHOD |
US20190332656A1 (en) * | 2013-03-15 | 2019-10-31 | Sunshine Partners, LLC | Adaptive interactive media method and system |
US20140287387A1 (en) * | 2013-03-24 | 2014-09-25 | Emozia, Inc. | Emotion recognition system and method for assessing, monitoring, predicting and broadcasting a user's emotive state |
US9424411B2 (en) * | 2013-05-23 | 2016-08-23 | Honeywell International Inc. | Athentication of device users by gaze |
US20140365310A1 (en) * | 2013-06-05 | 2014-12-11 | Machine Perception Technologies, Inc. | Presentation of materials based on low level feature analysis |
US9710787B2 (en) * | 2013-07-31 | 2017-07-18 | The Board Of Trustees Of The Leland Stanford Junior University | Systems and methods for representing, diagnosing, and recommending interaction sequences |
US10013892B2 (en) * | 2013-10-07 | 2018-07-03 | Intel Corporation | Adaptive learning environment driven by real-time identification of engagement level |
US10546310B2 (en) * | 2013-11-18 | 2020-01-28 | Sentient Decision Science, Inc. | Systems and methods for assessing implicit associations |
US20150213002A1 (en) * | 2014-01-24 | 2015-07-30 | International Business Machines Corporation | Personal emotion state monitoring from social media |
US9773258B2 (en) * | 2014-02-12 | 2017-09-26 | Nextep Systems, Inc. | Subliminal suggestive upsell systems and methods |
US9622702B2 (en) | 2014-04-03 | 2017-04-18 | The Nielsen Company (Us), Llc | Methods and apparatus to gather and analyze electroencephalographic data |
US20150294086A1 (en) * | 2014-04-14 | 2015-10-15 | Elwha Llc | Devices, systems, and methods for automated enhanced care rooms |
US20150302422A1 (en) * | 2014-04-16 | 2015-10-22 | 2020 Ip Llc | Systems and methods for multi-user behavioral research |
US10222953B2 (en) * | 2014-04-30 | 2019-03-05 | Disney Enterprises, Inc. | Systems and methods for editing virtual content of a virtual space |
US20160015328A1 (en) * | 2014-07-18 | 2016-01-21 | Sony Corporation | Physical properties converter |
CN105354621A (zh) * | 2014-08-21 | 2016-02-24 | 国际商业机器公司 | 确定物品在多个储存区域中的放置方式的方法和装置 |
US11851279B1 (en) * | 2014-09-30 | 2023-12-26 | Amazon Technologies, Inc. | Determining trends from materials handling facility information |
US11107091B2 (en) | 2014-10-15 | 2021-08-31 | Toshiba Global Commerce Solutions | Gesture based in-store product feedback system |
US20160110737A1 (en) * | 2014-10-17 | 2016-04-21 | Big Heart Pet Brands | Product Development Methods for Non-Verbalizing Consumers |
US20160151052A1 (en) * | 2014-11-26 | 2016-06-02 | Theranos, Inc. | Methods and systems for hybrid oversight of sample collection |
US20160253735A1 (en) * | 2014-12-30 | 2016-09-01 | Shelfscreen, Llc | Closed-Loop Dynamic Content Display System Utilizing Shopper Proximity and Shopper Context Generated in Response to Wireless Data Triggers |
US9510788B2 (en) * | 2015-02-14 | 2016-12-06 | Physical Enterprises, Inc. | Systems and methods for providing user insights based on real-time physiological parameters |
JP2018525079A (ja) * | 2015-04-05 | 2018-09-06 | スマイラブルズ インコーポレイテッド | 複数の幼児監視システムからの測定データの遠隔集約、幼児に対する環境状態の効果に関連したデータの遠隔集約、生物学的年齢に対する幼児の発達年齢の判定、及び幼児学習コンテンツの完了についてのソーシャルメディア認識の提供 |
US20160292983A1 (en) * | 2015-04-05 | 2016-10-06 | Smilables Inc. | Wearable infant monitoring device |
US10438215B2 (en) * | 2015-04-10 | 2019-10-08 | International Business Machines Corporation | System for observing and analyzing customer opinion |
US9668688B2 (en) | 2015-04-17 | 2017-06-06 | Mossbridge Institute, Llc | Methods and systems for content response analysis |
US9936250B2 (en) | 2015-05-19 | 2018-04-03 | The Nielsen Company (Us), Llc | Methods and apparatus to adjust content presented to an individual |
US20160364774A1 (en) * | 2015-06-10 | 2016-12-15 | Richard WITTSIEPE | Single action multi-dimensional feedback graphic system and method |
JP6553418B2 (ja) * | 2015-06-12 | 2019-07-31 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 表示制御方法、表示制御装置及び制御プログラム |
US10872354B2 (en) * | 2015-09-04 | 2020-12-22 | Robin S Slomkowski | System and method for personalized preference optimization |
US10984514B2 (en) | 2015-09-18 | 2021-04-20 | Nec Corporation | Fingerprint capture system, fingerprint capture device, image processing apparatus, fingerprint capture method, and storage medium |
US10430810B2 (en) | 2015-09-22 | 2019-10-01 | Health Care Direct, Inc. | Systems and methods for assessing the marketability of a product |
US10242252B2 (en) * | 2015-09-25 | 2019-03-26 | Intel Corporation | Expression recognition tag |
US10262555B2 (en) | 2015-10-09 | 2019-04-16 | Microsoft Technology Licensing, Llc | Facilitating awareness and conversation throughput in an augmentative and alternative communication system |
US10148808B2 (en) | 2015-10-09 | 2018-12-04 | Microsoft Technology Licensing, Llc | Directed personal communication for speech generating devices |
US9679497B2 (en) * | 2015-10-09 | 2017-06-13 | Microsoft Technology Licensing, Llc | Proxies for speech generating devices |
JP6240289B2 (ja) | 2015-10-15 | 2017-11-29 | ダイキン工業株式会社 | 評価装置、マーケット調査装置、及び学習評価装置 |
US10775882B2 (en) * | 2016-01-21 | 2020-09-15 | Microsoft Technology Licensing, Llc | Implicitly adaptive eye-tracking user interface |
CN105678591A (zh) * | 2016-02-29 | 2016-06-15 | 北京时代云英科技有限公司 | 一种基于视频分析的商业智能化经营决策支撑系统和方法 |
US10178341B2 (en) * | 2016-03-01 | 2019-01-08 | DISH Technologies L.L.C. | Network-based event recording |
US10726465B2 (en) * | 2016-03-24 | 2020-07-28 | International Business Machines Corporation | System, method and computer program product providing eye tracking based cognitive filtering and product recommendations |
US10187694B2 (en) | 2016-04-07 | 2019-01-22 | At&T Intellectual Property I, L.P. | Method and apparatus for enhancing audience engagement via a communication network |
MX2018012576A (es) * | 2016-04-15 | 2019-03-06 | Walmart Apollo Llc | Caracterizaciones de productos basadas en vectores. |
US10592959B2 (en) | 2016-04-15 | 2020-03-17 | Walmart Apollo, Llc | Systems and methods for facilitating shopping in a physical retail facility |
WO2017181052A1 (en) | 2016-04-15 | 2017-10-19 | Wal-Mart Stores, Inc. | Systems and methods for providing content-based product recommendations |
WO2017181017A1 (en) * | 2016-04-15 | 2017-10-19 | Wal-Mart Stores, Inc. | Partiality vector refinement systems and methods through sample probing |
CN105852831A (zh) * | 2016-05-10 | 2016-08-17 | 华南理工大学 | 一种基于虚拟现实交互技术与脑功能实时监测技术的设备 |
US10373464B2 (en) | 2016-07-07 | 2019-08-06 | Walmart Apollo, Llc | Apparatus and method for updating partiality vectors based on monitoring of person and his or her home |
AU2017300636A1 (en) | 2016-07-21 | 2019-01-31 | Magic Leap, Inc. | Technique for controlling virtual image generation system using emotional states of user |
US10108784B2 (en) * | 2016-08-01 | 2018-10-23 | Facecontrol, Inc. | System and method of objectively determining a user's personal food preferences for an individualized diet plan |
US10120747B2 (en) | 2016-08-26 | 2018-11-06 | International Business Machines Corporation | Root cause analysis |
US10878454B2 (en) | 2016-12-23 | 2020-12-29 | Wipro Limited | Method and system for predicting a time instant for providing promotions to a user |
US20180189802A1 (en) * | 2017-01-03 | 2018-07-05 | International Business Machines Corporation | System, method and computer program product for sensory simulation during product testing |
US10943100B2 (en) * | 2017-01-19 | 2021-03-09 | Mindmaze Holding Sa | Systems, methods, devices and apparatuses for detecting facial expression |
KR102520627B1 (ko) * | 2017-02-01 | 2023-04-12 | 삼성전자주식회사 | 상품을 추천하는 디바이스 및 방법 |
FR3064097A1 (fr) * | 2017-03-14 | 2018-09-21 | Orange | Procede d'enrichissement d'un contenu numerique par donnees spontanees |
US10142686B2 (en) * | 2017-03-30 | 2018-11-27 | Rovi Guides, Inc. | System and methods for disambiguating an ambiguous entity in a search query based on the gaze of a user |
US10977674B2 (en) * | 2017-04-28 | 2021-04-13 | Qualtrics, Llc | Conducting digital surveys that collect and convert biometric data into survey respondent characteristics |
CA3061501A1 (en) | 2017-05-08 | 2018-11-15 | Symrise Ag | Novel fragrance compositions and products with mood enhancing effects |
WO2018226550A1 (en) | 2017-06-06 | 2018-12-13 | Walmart Apollo, Llc | Rfid tag tracking systems and methods in identifying suspicious activities |
JP6572943B2 (ja) * | 2017-06-23 | 2019-09-11 | カシオ計算機株式会社 | ロボット、ロボットの制御方法及びプログラム |
US11010797B2 (en) * | 2017-07-05 | 2021-05-18 | International Business Machines Corporation | Sensors and sentiment analysis for rating systems |
EP3672478A4 (en) | 2017-08-23 | 2021-05-19 | Neurable Inc. | BRAIN COMPUTER INTERFACE WITH HIGH SPEED EYE TRACKING |
US11559593B2 (en) * | 2017-10-17 | 2023-01-24 | Germbot, LLC | Ultraviolet disinfection device |
US11328533B1 (en) | 2018-01-09 | 2022-05-10 | Mindmaze Holding Sa | System, method and apparatus for detecting facial expression for motion capture |
WO2019164737A1 (en) | 2018-02-20 | 2019-08-29 | International Flavors & Fragrances Inc. | Device and method for integrating scent into virtual reality environment |
JP7152520B2 (ja) * | 2018-05-25 | 2022-10-12 | トヨタ モーター ヨーロッパ | 人間の脳の知覚負荷及び刺激知覚のレベルを決定するシステム及び方法 |
US10725536B2 (en) * | 2018-08-21 | 2020-07-28 | Disney Enterprises, Inc. | Virtual indicium display system for gaze direction in an image capture environment |
US10664050B2 (en) | 2018-09-21 | 2020-05-26 | Neurable Inc. | Human-computer interface using high-speed and accurate tracking of user interactions |
GB2579895A (en) * | 2018-10-12 | 2020-07-08 | Blue Yonder Res Limited | Apparatus and method for obtaining and processing data relating to user interactions and emotions relating to an event, item or condition |
US10860104B2 (en) | 2018-11-09 | 2020-12-08 | Intel Corporation | Augmented reality controllers and related methods |
US11741376B2 (en) * | 2018-12-07 | 2023-08-29 | Opensesame Inc. | Prediction of business outcomes by analyzing voice samples of users |
CN109828662A (zh) * | 2019-01-04 | 2019-05-31 | 杭州赛鲁班网络科技有限公司 | 一种心仪商品的感知和计算系统 |
JP2020119215A (ja) * | 2019-01-23 | 2020-08-06 | トヨタ自動車株式会社 | 情報処理装置及び情報処理方法、プログラム、需要探索システム |
EP3935474A4 (en) * | 2019-04-05 | 2022-10-12 | Hewlett-Packard Development Company, L.P. | MODIFICATION OF AUDIO CONTENT BASED ON PHYSIOLOGICAL OBSERVATIONS |
US11797938B2 (en) | 2019-04-25 | 2023-10-24 | Opensesame Inc | Prediction of psychometric attributes relevant for job positions |
US11393252B2 (en) * | 2019-05-01 | 2022-07-19 | Accenture Global Solutions Limited | Emotion sensing artificial intelligence |
US11553871B2 (en) | 2019-06-04 | 2023-01-17 | Lab NINE, Inc. | System and apparatus for non-invasive measurement of transcranial electrical signals, and method of calibrating and/or using same for various applications |
ES2801024A1 (es) * | 2019-06-26 | 2021-01-07 | Banco De Espana | Metodo y sistema de clasificacion de billetes basado en neuroanalisis |
JP7357244B2 (ja) * | 2019-09-09 | 2023-10-06 | パナソニックIpマネジメント株式会社 | 店舗利用情報配信装置及びこれを備えた店舗利用情報配信システム並びに店舗利用情報配信方法 |
JP7283336B2 (ja) * | 2019-09-30 | 2023-05-30 | 富士通株式会社 | 印象推定方法、印象推定プログラムおよび印象推定装置 |
KR102203786B1 (ko) * | 2019-11-14 | 2021-01-15 | 오로라월드 주식회사 | 스마트 토이를 이용한 인터렉션 서비스 제공방법 및 시스템 |
WO2021107955A1 (en) * | 2019-11-27 | 2021-06-03 | Hewlett-Packard Development Company, L.P. | Providing inputs to computing devices |
US20230196390A1 (en) * | 2020-03-31 | 2023-06-22 | Konica Minolta, Inc. | Design evaluation device, learning device, program, and design evaluation method |
US20210350223A1 (en) * | 2020-05-07 | 2021-11-11 | International Business Machines Corporation | Digital content variations via external reaction |
FR3113972A1 (fr) * | 2020-09-10 | 2022-03-11 | L'oreal | Système pour générer des recommandations de produits en utilisant des données biométriques |
FR3114426A1 (fr) * | 2020-09-18 | 2022-03-25 | L'oreal | Système pour générer des recommandations de produits en utilisant des données biométriques |
EP4172913A1 (en) * | 2020-06-30 | 2023-05-03 | L'oreal | System for generating product recommendations using biometric data |
US20210406983A1 (en) * | 2020-06-30 | 2021-12-30 | L'oreal | System for generating product recommendations using biometric data |
US20220122096A1 (en) * | 2020-10-15 | 2022-04-21 | International Business Machines Corporation | Product performance estimation in a virtual reality environment |
CA3210401A1 (en) * | 2021-03-08 | 2022-09-15 | Robert Levine | Billboard simulation and assessment system |
US11887405B2 (en) | 2021-08-10 | 2024-01-30 | Capital One Services, Llc | Determining features based on gestures and scale |
CN113749656B (zh) * | 2021-08-20 | 2023-12-26 | 杭州回车电子科技有限公司 | 基于多维生理信号的情感识别方法和装置 |
WO2023224604A1 (en) | 2022-05-17 | 2023-11-23 | Symrise Ag | Fragrance compositions and products conveying a positive mood |
CN116421202B (zh) * | 2023-02-13 | 2024-04-02 | 华南师范大学 | 基于脑电快速周期性视觉刺激奇异范式的大脑视觉功能快速检测方法、装置及存储介质 |
Family Cites Families (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4348186A (en) * | 1979-12-17 | 1982-09-07 | The United States Of America As Represented By The Secretary Of The Navy | Pilot helmet mounted CIG display with eye coupled area of interest |
US5243517A (en) * | 1988-08-03 | 1993-09-07 | Westinghouse Electric Corp. | Method and apparatus for physiological evaluation of short films and entertainment materials |
US6330426B2 (en) * | 1994-05-23 | 2001-12-11 | Stephen J. Brown | System and method for remote education using a memory card |
US6292688B1 (en) * | 1996-02-28 | 2001-09-18 | Advanced Neurotechnologies, Inc. | Method and apparatus for analyzing neurological response to emotion-inducing stimuli |
US5676138A (en) * | 1996-03-15 | 1997-10-14 | Zawilinski; Kenneth Michael | Emotional response analyzer system with multimedia display |
NL1002854C2 (nl) * | 1996-04-12 | 1997-10-15 | Eyelight Research Nv | Methode en meetsysteem voor het meten en interpreteren van reacties van respondenten op gepresenteerde stimuli, zoals advertenties of dergelijke. |
JPH10207615A (ja) * | 1997-01-22 | 1998-08-07 | Tec Corp | ネットワークシステム |
US6173260B1 (en) * | 1997-10-29 | 2001-01-09 | Interval Research Corporation | System and method for automatic classification of speech based upon affective content |
IL122632A0 (en) * | 1997-12-16 | 1998-08-16 | Liberman Amir | Apparatus and methods for detecting emotions |
US6190314B1 (en) * | 1998-07-15 | 2001-02-20 | International Business Machines Corporation | Computer input device with biosensors for sensing user emotions |
JP2000099612A (ja) * | 1998-09-25 | 2000-04-07 | Hitachi Ltd | 電子カタログ作成方法及びシステム |
JP4051798B2 (ja) * | 1999-02-12 | 2008-02-27 | 松下電工株式会社 | デザイン構築支援システム |
US7120880B1 (en) * | 1999-02-25 | 2006-10-10 | International Business Machines Corporation | Method and system for real-time determination of a subject's interest level to media content |
WO2001045004A1 (en) * | 1999-12-17 | 2001-06-21 | Promo Vu | Interactive promotional information communicating system |
JP2002175339A (ja) * | 2000-12-07 | 2002-06-21 | Kenji Mimura | 商品デザイン方法 |
GB0101794D0 (en) * | 2001-01-24 | 2001-03-07 | Central Research Lab Ltd | Monitoring responses to visual stimuli |
US6572562B2 (en) * | 2001-03-06 | 2003-06-03 | Eyetracking, Inc. | Methods for monitoring affective brain function |
US20030032890A1 (en) * | 2001-07-12 | 2003-02-13 | Hazlett Richard L. | Continuous emotional response analysis with facial EMG |
US8561095B2 (en) * | 2001-11-13 | 2013-10-15 | Koninklijke Philips N.V. | Affective television monitoring and control in response to physiological data |
US7213600B2 (en) * | 2002-04-03 | 2007-05-08 | The Procter & Gamble Company | Method and apparatus for measuring acute stress |
US7249603B2 (en) * | 2002-04-03 | 2007-07-31 | The Procter & Gamble Company | Method for measuring acute stress in a mammal |
US20040001616A1 (en) * | 2002-06-27 | 2004-01-01 | Srinivas Gutta | Measurement of content ratings through vision and speech recognition |
JP4117781B2 (ja) * | 2002-08-30 | 2008-07-16 | セイコーインスツル株式会社 | データ伝送システム及び身体装着型通信装置 |
US7046924B2 (en) * | 2002-11-25 | 2006-05-16 | Eastman Kodak Company | Method and computer program product for determining an area of importance in an image using eye monitoring information |
US9274598B2 (en) * | 2003-08-25 | 2016-03-01 | International Business Machines Corporation | System and method for selecting and activating a target object using a combination of eye gaze and key presses |
KR100592934B1 (ko) * | 2004-05-21 | 2006-06-23 | 한국전자통신연구원 | 착용형 생체신호 검출모듈 및 이를 포함한 측정장치 |
US20050289582A1 (en) * | 2004-06-24 | 2005-12-29 | Hitachi, Ltd. | System and method for capturing and using biometrics to review a product, service, creative work or thing |
US20060041401A1 (en) * | 2004-08-12 | 2006-02-23 | Johnston Jeffrey M | Methods, systems, and computer program products for facilitating user choices among complex alternatives using conjoint analysis in combination with psychological tests, skills tests, and configuration software |
US7630522B2 (en) * | 2006-03-08 | 2009-12-08 | Microsoft Corporation | Biometric measurement using interactive display systems |
US20070288300A1 (en) * | 2006-06-13 | 2007-12-13 | Vandenbogart Thomas William | Use of physical and virtual composite prototypes to reduce product development cycle time |
BRPI0716106A2 (pt) * | 2006-09-07 | 2014-07-01 | Procter & Gamble | Métodos de medição da resposta emocional e da preferência de escolha |
-
2007
- 2007-09-07 BR BRPI0716106-9A patent/BRPI0716106A2/pt not_active Application Discontinuation
- 2007-09-07 EP EP07837845A patent/EP2062206A4/en not_active Withdrawn
- 2007-09-07 US US11/851,638 patent/US20080065468A1/en not_active Abandoned
- 2007-09-07 JP JP2009527416A patent/JP5249223B2/ja not_active Expired - Fee Related
- 2007-09-07 WO PCT/US2007/019487 patent/WO2008030542A2/en active Application Filing
- 2007-09-07 MX MX2009002419A patent/MX2009002419A/es not_active Application Discontinuation
- 2007-09-07 CA CA002663078A patent/CA2663078A1/en not_active Abandoned
-
2010
- 2010-03-18 US US12/726,658 patent/US20100174586A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
MX2009002419A (es) | 2009-03-16 |
WO2008030542A2 (en) | 2008-03-13 |
US20100174586A1 (en) | 2010-07-08 |
JP5249223B2 (ja) | 2013-07-31 |
US20080065468A1 (en) | 2008-03-13 |
EP2062206A4 (en) | 2011-09-21 |
EP2062206A2 (en) | 2009-05-27 |
WO2008030542A3 (en) | 2008-06-26 |
JP2010503110A (ja) | 2010-01-28 |
CA2663078A1 (en) | 2008-03-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5249223B2 (ja) | 感情反応及び選択傾向を測定するための方法 | |
Li et al. | Current and potential methods for measuring emotion in tourism experiences: A review | |
US9495684B2 (en) | Methods and systems for indicating behavior in a population cohort | |
US8195593B2 (en) | Methods and systems for indicating behavior in a population cohort | |
US8069125B2 (en) | Methods and systems for comparing media content | |
US8356004B2 (en) | Methods and systems for comparing media content | |
Blairy et al. | Mimicry and the judgment of emotional facial expressions | |
CN101512574A (zh) | 用于测量情绪响应和选择偏好的方法 | |
US9454646B2 (en) | Short imagery task (SIT) research method | |
US20090157481A1 (en) | Methods and systems for specifying a cohort-linked avatar attribute | |
US20090164302A1 (en) | Methods and systems for specifying a cohort-linked avatar attribute | |
US20090157323A1 (en) | Methods and systems for specifying an avatar | |
US20090318773A1 (en) | Involuntary-response-dependent consequences | |
US20090156955A1 (en) | Methods and systems for comparing media content | |
US20090171164A1 (en) | Methods and systems for identifying an avatar-linked population cohort | |
US20090157813A1 (en) | Methods and systems for identifying an avatar-linked population cohort | |
US20090164131A1 (en) | Methods and systems for specifying a media content-linked population cohort | |
US20090157625A1 (en) | Methods and systems for identifying an avatar-linked population cohort | |
US20090164503A1 (en) | Methods and systems for specifying a media content-linked population cohort | |
US20090164549A1 (en) | Methods and systems for determining interest in a cohort-linked avatar | |
US20090157660A1 (en) | Methods and systems employing a cohort-linked avatar | |
JP6166463B2 (ja) | 痒みを定量化するための客観的かつ非侵襲的な方法を用いて製品の効果を評価する方法 | |
Schwarzkopf | Measurement devices and the psychophysiology of consumer behaviour: A posthuman genealogy of neuromarketing | |
Białowąs et al. | Eye-tracking in marketing research | |
Hutcherson | Measuring arousal through physiological responses to packaging designs: Investigating the validity of electrodermal activity as a measure of arousal in a realistic shopping environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
B06F | Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette] | ||
B07A | Application suspended after technical examination (opinion) [chapter 7.1 patent gazette] | ||
B15K | Others concerning applications: alteration of classification |
Free format text: A CLASSIFICACAO ANTERIOR ERA: G06Q 10/00 Ipc: G06Q 30/02 (2012.01) |
|
B09B | Patent application refused [chapter 9.2 patent gazette] | ||
B09B | Patent application refused [chapter 9.2 patent gazette] |
Free format text: MANTIDO O INDEFERIMENTO UMA VEZ QUE NAO FOI APRESENTADO RECURSO DENTRO DO PRAZO LEGAL |