JP2009530071A - 視覚的注意および感情反応の検出表示システム - Google Patents
視覚的注意および感情反応の検出表示システム Download PDFInfo
- Publication number
- JP2009530071A JP2009530071A JP2009510570A JP2009510570A JP2009530071A JP 2009530071 A JP2009530071 A JP 2009530071A JP 2009510570 A JP2009510570 A JP 2009510570A JP 2009510570 A JP2009510570 A JP 2009510570A JP 2009530071 A JP2009530071 A JP 2009530071A
- Authority
- JP
- Japan
- Prior art keywords
- stimulus
- subject
- information
- emotional
- visual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/163—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
Abstract
本発明は、視覚的注意を判定するためのシステムおよび方法であり、感情などの他の生理信号の測定とともに視線追跡の測定をサポートする。本発明のシステムおよび方法は、視線追跡データからの刺激関連感情を登録することが可能である。システムの視線追跡装置および他のセンサが、眼球特性および/または他の生理的特性を収集し、これが、刺激に関連する対象者の感情的および視覚的注意の観察および分析を可能にする。
Description
(関連出願データ)
本出願は、2006年3月13日に出願された米国仮出願第60/781,321号の優先権を主張する。上記出願の教示全体が参考として取り入れられる。
本出願は、2006年3月13日に出願された米国仮出願第60/781,321号の優先権を主張する。上記出願の教示全体が参考として取り入れられる。
本発明は、眼球運動、他の眼球特性、および/または他のデータを収集および分析することにより、視覚的注意および他の生理信号測定値(提示された刺激に対する人間の感情反応情報など)を判定および表示するための、コンピュータ利用システムおよび方法に関する。
視線追跡システムは概して周知である。感情反応検出システムは概して周知である。しかし、これら周知のシステムには様々な制限および欠点が存在する。
視覚的注意データの表示は概して周知である。しかし周知のシステムには様々な制限および欠点が存在する。加えて、視覚的注意データと対応の感情反応との同時表示は、これまで使用されていない。
周知のシステムには他の欠点および制限が存在する。
本発明の一態様は、対象者(検査を受ける人)に提示される刺激に関連する視覚的注意情報および感情反応情報を判定および表示するシステムおよび方法に関連する。本発明の一態様によれば、視覚的注意情報(例えば注視ポイントおよびサッカード)が判定され、例えばスポットライト特徴を持つゲイズプロットを用いて表示される。注視ポイントは、対象者が少なくとも最短時間量注目した刺激(視覚的イメージなど)のポイントまたはエリアである。ここで使用される場合、注視ポイントは多数の注視ポイントおよびサッカードにより特定される注視エリアも指す。スポットライトは、刺激に重ねられたブラックマスク(または他のタイプのマスク)上に透明度の統合によって視覚化された注視ポイントの統合体である。例えば、選択可能な閾値(管理ユーザが選択した閾値など)および/または他のパラメータに基づいて、一つ以上の注視ポイントを示すのにスポットライト特徴が使用される。注意ポイントを形成するため、統合注視ポイントが時間順で使用されてもよい。注視ポイントの統合体(スポットライトなど)の時間順を示すため、番号付けによって注意ポイントが視覚化されてもよい。所望であれば、他のポイントまたはエリア(閾値または他のパラメータを満たさないもの)が、注視ポイントと選択的に区別されてもよい。
この長所の一つは、スポットライト特徴を持つゲイズプロットは、対象者が注視した刺激の部分(および、所望であれば対象者が注視しなかったあいまいエリア)をグラフィック表示できることである。こうして、所与の刺激について、対象者が注視した刺激部分および/または対象者が注視しなかった部分が、当事者(マーケティングコンサルタントその他の実体)には容易に分かるのである。この情報はそれだけで有益ではあるが、対象者が刺激全体に感情反応を持ったかどうか、ましてや一つ以上の所与の注視ポイントに関連する感情反応を持ったかどうかを示すことはない。また、感情反応があったかどうか、感情の種類(肯定的感情か否定的感情かなど)、感情がどれくらいの強さかを示すこともない。
本発明の別の態様によれば、所与の刺激について、および/または刺激の注視ポイントについて、対象者の感情反応が判定および表示される。感情反応に関連すると判定された注視ポイントは、関心ポイントとして示される。感情反応情報(感情の種類および/または強度など)が、視覚的注意情報(ゲイズプロットまたは他の視覚的注意情報表示と同時に感情反応情報を表示する)と同時に表示される。関心ポイントは、単独で、または視覚的注意および/または感情反応情報と同時に表示される。
表示される感情反応情報は、一つ以上の感情価および/または感情喚起の表示を含む。この情報は、感情の種類(肯定的なものか否定的なものかなど)および/または感情の強度を示す。関心ポイントについては、感情反応(その他)の種類と強度が測定および/または表示される。異なる注視ポイント、注意ポイント、時間順、関心ポイント、および/または感情の種類および強度を区別するため、表示では異なる表示特徴を用いる。
感情反応情報は、いくつかの方法のいずれかで判定される。様々な感情検出技術が周知である(顔表情運動、皮膚電気反応の読み取り、様々な他の技術など)。本発明の相乗作用的な一実施例によれば、対象者の眼球特性(眼球運動、まばたき速度、瞳孔拡張、および/または他の眼球特性)に少なくとも部分的に基づいて、感情反応情報が検出される。有利なことに、これにより(所望であれば)視覚的注意データを収集するのに使用されるのと同じ視線追跡装置によって感情反応データを収集できる。眼球特性検出とともに、またはこれに代わって、様々な他の感情検出技術が使用されてもよい。
発明の範囲内において、様々な構造、特徴、機能が様々な組合せで使用されてもよい。例示目的であって限定のためではないが、ほんのいくつかの例を説明する。一実施例によれば、システムは、準備モジュール(検査パラメータ、対象者プロフィール、刺激パラメータ、校正および/または他の準備パラメータのうち一つ以上の準備を可能にするためなど)、刺激提示モジュール(刺激の記憶および提示を管理するためなど)、データ収集モジュール、分析モジュール(視覚的注意および/または感情反応を判定するために収集データを分析するためなど)、および、判定された視覚的注意および/または感情反応情報その他に関連する情報を含む情報を選択的に出力するための出力モジュールその他を含む。出力はいくつかの異なる形のいずれかを取っても良く、様々な種類の情報を含むことができ、様々な詳細レベルを含むことができる。
本発明の一態様によれば、出力モジュールにより、スポットライト特徴および/または注意ポイント(上で説明したものなど)を持つゲイズプロットなど、視覚的注意情報の出力が可能である。本発明の別の態様によれば、出力モジュールは、対象者の感情反応情報および/または移動中の関心ポイントの出力を可能にする。他の種類および組合せの出力が選択されてもよい。
出力のいずれかは、単一の対象者(人間など)に提示される単一の刺激、同じ対象者に提示されるいくつかの刺激のための統合出力、対象者グループに提示される単一の刺激の統合出力、および/または対象者グループに提示されるいくつかの刺激のためのものである。出力のいずれかは、「スナップショット」ビュー(特定時間のサンプリングにより判定された情報についての単一の結果など)および/または時間順表示(時間順の一連のスナップショット)、動画、および/または映像(ある時間にわたる対象者の眼球運動および/または他の情報を示す比較的連続した動きの表示など)を含む。本発明の一態様によれば、視覚的注意情報および/または感情反応情報は、映像再生モードで対象者の視覚的注意および/または感情反応を提示するため、記録および再生が可能である。再生制御が設けられてもよい。
一実施例では、本発明のシステムおよび方法は、一つ以上の指定の刺激および/または刺激の様々な部分(選択エリアなど)に関する対象者の視覚的注意を判定するように構成されている。
必要なおよび/または望ましい準備(対象者の年齢、住所、性別および/または他の個体群統計学的情報を含む背景変数の集合)および/または校正のステップが実施されると、眼球特性(例えば眼球位置、眼球運動、眼球運動の速度、および/または他の眼球特性に関するデータの収集を含む)を追跡することにより少なくとも部分的に、視覚的注意情報(コンピュータディスプレイに提示される視覚的刺激に関する注視および/またはサッカードなど)などが判定される。判定される視覚的注意情報は、注視ポイント(凝視)およびサッカード(注視ポイントの間の経路など)、および/または他の情報を含む。本発明の一態様によれば、こうして、ディスプレイ装置座標に合わせて予め校正された対象者の眼球運動を、視覚的刺激またはその一部と相関させることが可能となる。概して、視覚的注意情報は、一つ以上の時点で対象者が見ているのは刺激のどの部分であるかに関連する。対象者が見ている刺激のすべてまたはいくつかのポイント/エリアが特定および表示されるか、一定の基準を満たすポイント/エリアのみが表現される。例えば、少なくとも所定の最短時間にわたって対象者が注視したポイント/エリアのみ、または対象者が何度か戻ったポイント/エリアのみを表示するように閾値が設定されてもよい。他の基準は、注視として特定された刺激のポイント/エリアの時間順を含む。ビジネスの観点からは、サービスプロバイダは、対象者が訪れる検査センターを運営するためのソフトウェア/システムを使用する。このシナリオでは、検査に関して対象者を補助/案内するのに一人以上の検査リーダー(および/または管理ユーザ)が用いられる。検査リーダーを伴うにしろ伴わないにしろ、自動または半自動検査センター(キオスク、PCなど)が使用されてもよい。遠隔監督検査が実行されてもよい。
検査単位料金、刺激単位料金、対象者単位、人口割合単位、および/または他の基準を含むがこれに限定されない多様な基準で、サービスプロバイダは料金を回収する。加えて、料金の金額は、出力の種類および/または詳細によって変化してもよい。例えば、単純な出力(ゲイズプロットのみなど)は、第1料金で提供される。スポットライト特徴を含むゲイズプロットは、第2料金で提供される。ゲイズプロットと基本的感情反応情報との同時表現は、第3料金である。より詳細な感情反応情報が追加されると、第4料金である。このようなサービスプロバイダのための他のビジネスモデルが実行されてもよい。
別のビジネス方法によれば、サービスプロバイダは対象者が遠隔操作によって対話する(インターネットまたは他のネットワークを介して)遠隔アクセス可能な検査施設をサービスプロバイダが運営する。対象者は、検査センター、キオスク、家庭または職場のコンピュータ、モバイル無線装置その他などを介した方法を含むがこれに限定されないいくつかの方法で、遠隔アクセス可能な検査施設にアクセスできる。上記のようにまたは他の方法で料金が請求される。
別のビジネスモデルによれば、ソフトウェアがライセンス許諾される。後述するように、ライセンス許諾はモジュール単位である。例えば、視覚的注意モジュールおよび/または感情反応モジュールはそれぞれ、コア視覚的反応エンジンとコア感情反応エンジンとを含む。コアエンジンはそれぞれ、基本料金でライセンス許諾を受ける。機能の強化および/または高い詳細レベルを提供する独立したプラグイン(または他のモジュール)が別料金で提供されてもよい。また別のビジネスモデルでは、ソフトウェアを伴う所定の種類の装置がライセンス許諾される必要がある。例えば、連続するいくつかの視線追跡装置は、ソフトウェア機能へのアクセスが認められる前の許容範囲の装置であると判断される。他のライセンス許諾モデルが使用されてもよい。必要であるか望ましいインボイスの作成・送付を容易にするため、インボイスモジュールがシステムの作業を監視してもよい。
以上および他のビジネス方法に対応するため、検査の準備/校正、および/または実施は手動、自動、および/または半自動で行われる。所望であれば、結果のリアルタイム監視が局所的にまたは遠隔操作で利用可能である。
本発明の一つ以上の態様とともに、他の様々な特徴および機能が使用されてもよい。ここに記す特徴および機能のすべてが、あらゆる場合に使用される必要があるわけではない。所望であれば、特徴および/または機能の組合せが使用されてもよい。以下に挙げる例は、理解を容易にするためのものである。本発明は特定の実行例に限定されない。
本発明のシステムおよび方法は、広範囲の適用可能性を持つ。明瞭化のため、これらの特徴が有益である一つのシナリオについて説明する。例を挙げると、一つのシナリオは、(例えば広告、新製品、製品の新特徴および/または製品の包装、その他に対する対象者の反応を判定するために)刺激および/または調査質問を対象者に提示することによって対象者(個人など)が検査を受けるという状況に関連している。簡便性のため、主としてこのような検査について本発明を論じる。これは本発明を限定することを意図したものではない。本発明は、多様な他のシナリオおよび用途において同様に使用することができる。
ここで使用する場合、「検査」および/または「研究/調査」は、(新製品、新特徴、新包装についての広告またはマーケティングの研究または調査、または他の検査または研究など)多様な活動を広く指す。「対象者」は、例えば検査を受ける人間、動物、他の検査対象を含む。刺激は、五感(視覚、聴覚、嗅覚、触覚、味覚)のうち一つ以上に対応する何らかの種類の感覚刺激、および/または他の刺激を含む。視覚的刺激は(例えば単一のイメージ、連続または同時の二つ以上のイメージとして、映像またはその他として)ディスプレイに提示される。
視覚的刺激の例は、例えば写真、芸術作品、図、グラフ、文章、映画、マルチメディアプレゼンテーション、対話式コンテンツ(ビデオゲームなど)、他の視覚的刺激を含む。刺激は(何らかの種類のメディアに)記録される、および/または刺激はライブシナリオ(車を運転するか乗車するなど)である。様々な刺激および/または刺激の種類が組み合わされてもよい。検査または他のシナリオの場合には、目的と必要に基づいて刺激が選択される。例えば、広告の場合には、刺激(広告)およびより詳細な情報に対する全般的反応を判定するため、刺激は製品広告に対応する(対象者の注意が広告のどこに向けられるか、そして刺激またはその一部を知覚する際にどんな感情が起こるか)。
ここで使用される際には、(用いられる場合に)「管理者」または「管理ユーザ」は、検査(および/または他の機能)に関連する準備作業の少なくともいくつかを実施する人間を指す。例えば、管理者はシステムと対話して、例えば刺激パラメータ、対象参加者、背景変数(年齢、性別、居住地など)および/またはパラメータを含む検査準備に不可欠なパラメータを入力する。
研究/調査リーダーは、(用いられる場合には)実際の検査の実施を補助する。管理者およびリーダーは同じ人間であっても違う人間であってもよい。
図1は、本発明の一実施例に係る方法の高レベル図の一例を示す。様々な準備/校正ステップが実施される(ステップ2)。準備および校正の技術は概して周知である。これらのステップの例は、検査の準備、対象者の準備、刺激の準備、様々な校正ステップおよび/または他のステップなどを含む。新規性を持つ本発明の一態様によれば、細分化の準備は、独立と従属の両方の背景変数を収集することを含む。対象者に刺激が提示される(ステップ4)。所望であれば、調査質問が対象者に提示される。調査の提示および調査結果の収集は、概して周知である。しかし、新規性を持つ本発明の一態様によれば、調査の反応、視覚的注意情報、感情反応情報が相関する。
刺激に対する対象者の反応に関するデータ(視覚的注意データおよび/または感情反応データ)が収集される(ステップ6)。刺激提示の間および/または後に、収集されたデータ(および/または他の所望の情報)が分析される(ステップ8)。分析は、視覚注意情報(ステップ10)、感情反応情報(ステップ12)、関心ポイント(ステップ14)、および/または他の情報(提示された一つ以上の刺激に関する対象者に関連の生理情報など)を判定することを含む。次に、分析データが記憶され、および/または選択的に出力される(ステップ16)。出力は、コンピュータ表示のレポートまたは他の種類の出力を含む多様な形のいずれかで行なわれる。本発明の一態様は、後で詳述する特定種類の出力に関連する。
図2は、本発明のいくつかの態様を実施するのに使用できるシステムの簡単な概要の一部についての一例を示す。図示されているように、システムは、視線追跡装置120とディスプレイ装置130とコンピュータ装置110のうち少なくとも一つ以上を含む。コンピュータ110は、刺激提示モジュール203、視覚的注意エンジン205a、および/または感情反応エンジン205bのうち少なくとも一つ以上でプログラムされている(またはプログラムされたコンピュータ/サーバにアクセスする)。出力ジュール206は出力118を発生させるのに使用される。一つ以上の記憶装置(単純化のため図2には示されていない)は、刺激、データ、分析結果、および/または他の情報を記憶する。
実施時に、対象者50は、ディスプレイ装置130の近くに位置する。刺激提示モジュール203が選択された刺激をディスプレイ装置130に表示して、一つ以上の視覚的(または他の)刺激(ディスプレイ装置130および/または他の装置に表示される刺激など)を対象者50に与える。一つ以上のデータ収集装置(視線追跡装置120および/または他のデータ収集装置)が、対象者の反応に関するデータを収集および/または情報を記録する。収集されたデータは、所定の時間または可変時間(1〜3秒または他の時間)にわたる所望の数の個別サンプル(毎秒50〜60個のサンプルまたは他の所望の頻度で)を含む。代替的に、または付加的に、収集されたデータが一定または可変時間の連続サンプル(映像など)を含んでもよい。収集されたデータは、眼球運動または他の眼球特性、生理データ、環境データ、および/または様々な刺激に対する対象者の反応に関する他のデータを含む。ユーザからの直接入力も受理される。
本発明の有利な一態様によれば、視線追跡装置120はディスプレイ装置130と一体化され、および/またはディスプレイ装置の上または中に取り付けられる。しかし、様々な検出環境およびシナリオに基づいて、これらの装置が独立したユニットとして実行されてもよい。ディスプレイ装置130は、モニタ、タッチスクリーン、LCDスクリーン、および/または他のディスプレイ装置を含む。所望であれば、単純なUSB型ビデオカメラが視線追跡装置120として使用されてもよい。これ(または他の視線追跡装置)は、利用可能なディスプレイと一体化されるか、これに取り付けられる。一体型の視線追跡・ディスプレイ装置の一例は、Tobii Technology ABから市販されているTobii 1750 Eye−tracker(アイ・トラッカ)である。
視線追跡装置は、アイ・トラッカを制御することでデータを収集するソフトウェアプログラムを含むか、これと対話する。例えば視線追跡装置は、(Tobiiによる)ClearviewTMソフトウェアを含む。他の視線追跡ソフトウェアを使用することもできる。このソフトウェアはスタンドアロンアプリケーションであるか、ここで記す他のソフトウェアモジュールのうち一つ以上と抱き合わされるかその一部である。視線追跡ソフトウェアは、他のソフトウェアモジュールの一つ以上を取り入れている。他の視線追跡装置、ディスプレイ、および/または技術が、ここで説明する様々な部品の代わりに、または様々な部品とともに使用されてもよい。
図3は、本発明の一実施例によるシステム(および他の特徴)の、より詳細な機能ブロック図を示す。図3には、一つ以上の入力装置100、一つ以上の提示装置101、および/または一つ以上の出力装置102とインタフェースするための一つ以上のインタフェース114を有するコンピュータ110が図示されている。コンピュータ110はさらに、刺激データベース240、データ収集データベース241、対象者プロフィールデータベース242、分析結果データベース243、および/または他の記憶装置など、一つ以上の記憶装置と通信する。刺激情報、収集データ、対象者プロフィール情報、分析結果、および/または他のデータを記憶するため、一つ以上のデータベース240,241,242,243が設けられる。これらのデータベースは明瞭化のために示されたように独立したデータベースであるか、一つ以上が組み合わされて、アプリケーションシステムデータを記憶するための単一のデータベースとなることもある。
入力装置100(視線追跡装置120、タッチスクリーン135、キーボード140、マウス150、マイクロフォン160、センサ170、および/または他の入力装置のうち一つ以上など)は、入力(対象者50からのもの、または他の入力など)を受け取るために使用される。入力は、刺激に対する対象者の視覚的注意、感情反応、および/または他の反応を含むが、これらに限定されない。他の入力は、準備/校正手順で受理されたユーザ情報、調査反応および/または他のユーザ入力、他の所望の入力を含む。嗅覚センサ、触覚センサ、音センサ、および/または他のセンサなどのセンサが、入力装置として使用されてもよい。
提示装置は、例えばディスプレイ装置130、スピーカ180、他の提示装置のうち一つ以上を含む。ディスプレイ装置130は、視覚的刺激を対象者に視覚的に表示および提示するために使用される。
出力装置102は、例えばディスプレイ装置130(または他のディスプレイ)、スピーカ180、プリンタ190、およびまたは他の出力装置のうち一つ以上を含む。ディスプレイ装置130は、収集データまたは収集データの処理バージョンの再生映像を表示するための映像ディスプレイを含む。コンピュータ110は、ここに記す機能を実施するソフトウェアアプリケーション(図3に図示されたアプリケーション200など)でプログラムされるか、このソフトウェアアプリケーションでプログラムされたコンピュータ(リモートサーバなど)と通信状態にある。コンピュータ110は、単一のコンピュータでも多数のコンピュータでもよい。一つ以上のコンピュータ110が(検査対象50の付近に)局所的に設けられても、一つ以上が検査対象者50から離れて(中央検査施設などに)遠隔配置されて、対象者の遠隔検査および/または検査の遠隔監視を可能にする。一つ以上のコンピュータ110は、アプリケーション200を実行するスタンドアロンコンピュータである。一つ以上のコンピュータ110が(ネットワークインタフェース209などを介して)、相互に、および/または第三者装置260にネットワーク接続されて、間のネットワーク通信を可能にする。これにより、1台のコンピュータからアプリケーション200を実行している中央コンピュータ110へのブラウザベースのアクセスなどが可能となる。コンピュータ110は、有線および/または無線通信リンクを介してネットワーク250(インターネット、イントラネット、WAN、LANなど)を通してアプリケーション200にアクセスできる。
アプリケーション200は、ここに示す機能その他を実施する一つ以上のコンピュータソフトウェアプログラムおよび/またはモジュールを含む。例えば、アプリケーション200は、準備/校正、検査、刺激提示、データ収集、分析、出力、生成、および/またはフォーマット、インボイス作成送付、データマイニング、その他のうち一つ以上を含む機能を実施する。
簡便性のため、例えば図3に示されているように、様々なモジュール201〜209により様々な機能が実行される。一つ以上のモジュールが組み合わされるか、単一モジュールとして示されたモジュールが二つ以上のモジュールを含んでもよい。例を挙げると、モジュールは、インタフェース制御装置モジュール201、準備モジュール202、刺激提示モジュール203a、データ収集モジュール204、分析モジュール205、出力モジュール206、インボイスモジュール207、データマイニングモジュール208、および/または他のモジュールのうち少なくとも一つ以上を含む。すべての状況においてすべてのモジュールが使用される必要があるわけではない。
一つ以上のインタフェース制御装置モジュール201が、一つ以上の入力装置100、提示装置101、出力装置102と、周知の方法で関連し、および/または通信してもよい。一つ以上の制御装置201は、コンピュータ110のハードウェア(および/またはソフトウェア)要素として実行され、コンピュータ110に装着された装置との通信を可能にするのに使用されてもよい。通信はいかなる種類の有線または無線通信リンクによって行なわれてもよい。所望であれば、安全通信プロトコルを使用できる。
準備モジュール202は、対象者の準備202a、刺激の準備202b、校正202c、および/または他の準備/校正手順のうち一つ以上のためのサブモジュールを含む。これらの手順は、図1のステップ2に関して言及されたものなどを含む。準備/校正中にシステムによって受理されたデータ(背景変数、検査パラメータ、刺激パラメータ、対象者パラメータなど)は、刺激データベース240、対象者プロフィールデータベース242、および/または他のデータベースの一つに記憶される。
刺激準備情報、記憶された刺激、および/または他の刺激提示特性にしたがった刺激の提示を容易にするため、刺激提示モジュール203が設けられる。刺激提示モジュール203は、管理ユーザその他により刺激が管理されること(記憶、消去、修正、アップロード/ダウンロード、または他の管理など)を可能にするため、グラフィックユーザインタフェース(不図示)を含むか、これと対話する。加えて、ユーザインタフェースは、特定の検査または他の用途で使用するため、一つ以上の刺激および刺激提示特性の選択を可能にする。
データ収集モジュール204は、刺激提示中(または他の時)に(入力装置100または他の入力装置などの一つ以上からの)データを収集する。データ収集モジュール204は、後で(またはリアルタイムで)分析するため、収集されたデータを、データ収集データベース241または他のデータベースに記憶させる。
分析は、分析モジュール205および/または他のプロセッサによって行なわれる。分析モジュール205は、視覚的注意処理205a、感情反応処理205bのためのサブモジュール、および/または他のサブモジュールを含む。所望の場合には、コア感情反応エンジンおよび/または視覚的注意エンジンの機能性を高めるために様々なプラグイン205cが使用される。
分析結果は、分析データベース243または他のデータベースに記憶される。分析モジュール205は、一つ以上のエラー検出および補正(データクレンジング)技術を用いて収集データを処理する。このように、信号ノイズおよび他のエラーを減少させるため、収集されたデータは精製およびフィルタリングされる。クリーンデータは、分析がより容易および/または正確である。
様々なプラグイン205cは、視覚的注意および/または感情反応の処理に関する高レベルの詳細および/または付加的機能を提供するのに使用される。例えば、収集されたデータから関心ポイントが判定される。詳細は、詳細な関心ポイント、感情価の判定、感情喚起の判定、感情の名称および種類を含む。
出力モジュール206は、様々なタイプの出力を、アプリケーション200から一つ以上の出力装置102へ選択的に出力させる。例えば、分析結果に基づいてレポートを作成するのに、出力モジュール206が使用される。例えば、レポート出力118では、視覚的注意情報および感情反応情報が実際の刺激に関して出力および提示される。様々な電子および/または印刷出力タイプは、若干の例を挙げると、グラフ、文章、イラストレーション、ゲイズプロット、感情メータ、音声、および/または映像再生の表現を含むが、これらに限定されない。出力のさらなる詳細および例を、図6〜8に関連して示す。他の出力タイプおよびフォーマットを使用してもよい。
図4は、本発明の一実施例の様々な態様を実行するための方法の例を示す。図4は、研究/調査準備段階、研究/調査実行段階、研究/調査分析段階を示す。これらの段階および/または他の段階は、テストセンター、キオスク、家庭または職場のコンピュータ、モバイル無線装置その他を介した方法を含むがこれらに限定されないいくつかの方法のいずれかによって、検査施設(または検査施設の外部)で実行される。検査は、監督下、半監督下、無監督で行なわれる。検査施設では、各対象者に対して直接に、研究/調査リーダーによって検査が実行される。検査施設の外部で、対象者50が研究/調査リーダーを伴って、または伴わずに研究/調査を実行してもよい。研究/調査リーダーを伴わない場合、対象者の感情状態は変化せず、研究/調査リーダーの存在によって影響されない。代替的に、検査施設からおよび検査施設の外部からの態様の組合せが、図4に図示された段階で使用されてもよい。他の検査環境も本発明の範囲に含まれる。
一部またはすべての検査環境では、研究/調査準備段階が設けられる。この段階では、管理者(または他の個人)が、刺激および/または調査データと他の準備パラメータ(背景変数など)を入力または選択する。この情報は、刺激データベース240および/または他のデータベースに記憶される(ステップ501)。
研究/調査中に提示される刺激は、準備モジュール202の研究/調査準備サブモジュール202bを用いて選択される。選択された刺激は、コンピュータ110にロードされ、および/または刺激データベース240または他のデータベースに記憶される。様々な刺激ソースが使用される。広告データベースなどの遠隔ソースから刺激をダウンロードするため、ネットワーク250(インターネット、イントラネットなど)を通し、ネットワークインタフェース209を介して遠隔刺激(不図示)にアクセスされてもよい。別の刺激ソースは、刺激の生成および/またはカスタマイズを可能にする刺激生成アプリケーションである。生成アプリケーションは、マルチメディア刺激生成を可能にする。
他の刺激提示特性も選択される。例えば、所与の検査/研究について、一つ以上の刺激の一つ以上の刺激持続時間、刺激の提示順序(刺激のランダム提示など)、刺激を同時に提示すべきかどうか、および/または他の刺激特性が選択される。注視ポイントを特定するためのパラメータは、刺激特性の準備中(または他の時)に提供される。例えば、これは少なくともドエル時間または他のパラメータの閾値に基づく。スポットライトの視覚的表示は、注視ポイントのいくつかの統合体または他の要因に基づくように準備される。注意ポイントは、特定されたスポットライトに関する統合注視ポイントの時間的順序(半透明の数字インジケータなど)を示すように準備される。注視ポイント(選択された基準によって決定されるものなど)と、注視ポイントでの感情反応(選択された基準により規定されるもの)とに基づいて、関心ポイントが特定される。例えば、特定の種類および/または強度の感情反応が一つ以上の注視ポイントと関連する場合には、これによって関心ポイントが特定されると明記してもよい。これらの態様については、後述する。
出力提示特性は、準備モジュール202を用いて特定されてもよい。出力提示特性は、どのような分析が行なわれるか、出力の種類および/または形式、出力を誰が受け取るべきか、および/または出力がどのように受け取られるかなどを特定する。例えば、出力レポートに含まれる情報のレベルは、例えば所定のテンプレートを含む提示フォーマットを用いて指定される。出力情報を受け取る側と関連の送信手段も、出力提示特性の一部として指定されてもよい。例えば、所定の送信手段(Eメール、電話、FTPなど)を用いて、出力が指定のユーザ/装置に送信される。出力提示特性は、管理者、リーダー、対象者、および/または他の一人以上の人物によって入力されてもよい。
図4の方法は、対象者に関するプロフィール(および/または他の)情報(年齢、性別、居住地などを含む背景変数など)も含む。検査施設においてリーダーは、参加対象者の詳細を入力するか、対象者に入力するよう導く(ステップ502)。これは、準備モジュール202の対象者準備サブモジュール202aの使用を含む。情報は、対象者プロフィールデータベース242または他のデータベースに記憶される。対象者の校正も、手動、自動、および/または半自動で実施される(ステップ504)。実行段階では、対象者への表示のため刺激および/または調査質問が提示される(ステップ506)。対象者は、調査質問に手動またはその他で回答する(ステップ508)。他の箇所で説明するように、視覚的注意データおよび感情反応データが収集される。他の検査環境では、これらのステップのうち様々なものがリーダーなしで実行される(ステップ512〜514,516,518)。
研究/調査の刺激提示が完了すると、別の参加対象者がいるかどうかが判定される(ステップ510,520)。もしいれば、別の対象者でプロセスが繰り返される。いなければ、一連の研究が終了する、および/または分析が実施される(ステップ550)。
検査/研究の終了時、および/またはデータが収集される際にリアルタイムで、分析が実施される。分析は、収集データを処理して、視覚的注意情報および/または感情反応情報などを判定することその他を含む。視覚的注意の処理および/または感情反応の処理のいくつかの態様は、概して周知である。他の態様については、他の箇所で説明する。
視線追跡、感情反応(および他の)校正技術は概して周知である。本発明に使用される校正ルーチンのいくつかの態様の例を提示する。他の校正技術が使用されてもよい。校正サブモジュール202cは、対象者/装置の校正を含む校正作業を実施する。環境設定およびシナリオに基づいて、視線追跡装置120および他の入力装置が校正される。校正中にも、対象者に固有の校正のため、校正サブモジュール202cは、ディスプレイ装置の所定箇所または対象者の視界に設けられたいくつかの校正ポイントを、対象者に提示する。校正ポイントは、対象者が注目するように促されるディスプレイ装置の座標に対応し、ディスプレイ装置座標(x,y,z座標など)に対する対象者の視線の動きを視線追跡装置が校正するまで、その間を移動する。任意で、今後の一連の検査のため、ポイント校正情報が対象者プロフィールデータとともに記録および記憶される。
感情校正も、記録および記憶される。眼球特性に関する対象者感情反応を観察するため、ある感情を起こすのに使用される所定の刺激が対象者に提示される。肯定的(楽しいなど)、中間的、否定的(不快など)な反応を誘うことが知られている刺激が、対象者に提示されてもよい。例を挙げると、まばたき速度パターン、瞳孔反応、サッカード運動、および/または他の特性を記録して中間的刺激に対する対象者の反応を特徴付けるため、感情的に中間的な刺激が対象者に提示されてもよい。代替的に、対象者の個体群統計学的および他の個人データに基づいて一定の感情を引き起こすことが知られている刺激が、対象者に提示されてもよい。様々な感情の感情基準を設定するため、感情反応が使用されてもよい。こうして、感情価の大きさを理解するため、研究/調査刺激が対象者の基準と比較される。
検査の実行に関して、様々なデータが収集される。収集されたデータは、リアルタイムで、または後で処理される。出力提示特性について述べたように、収集および処理が行なわれたデータは、視覚的注意、感情反応および/または他の情報を多様な形式で提示するための出力情報として提示される。一つの出力タイプは、ディスプレイへの視覚的出力、視覚的印刷、他の視覚的出力である。非視覚的出力が設けられてもよい。
出力は、一つ以上の刺激についての視覚的注意情報(一つ以上のゲイズプロットなど)および/または感情反応情報(一つ以上の感情メータなど)を含むグラフィック表現を含む。ゲイズプロット(スポットライト、注意ポイント、関心ポイントなど)が、関連の刺激(二つ以上が同時に表現される場合には複数の刺激)に重ねられる。ゲイズプロットは、統合された注視ポイントを強調するためのスポットライト特徴、統合された注視ポイントの時間的順序を強調するための注意ポイント、および感情反応を強調するための関心ポイントを含む。
図5は、本発明の実施例による視覚的刺激の例を示す図である。図6は、図5の刺激に関する、本発明の一態様による出力の例である。示された出力は、視覚的刺激(図5の刺激700など)に対する対象者の反応に関する視覚的注意情報800と感情反応情報810(感情メーターなど)の同時表現を含む。図のように、視覚的注意情報800は、スポットライト特徴を持つゲイズプロットと、注意ポイントとを含む。スポットライト特徴は、視覚的刺激700の一つ以上の注視ポイントおよび/または関心ポイントを強調する(または他の方法で示す)。スポットライト特徴の一実施例では、刺激(視覚的イメージ700など)のすべてまたはいくつかにバーチャルマスクが重ねられ、一つ以上の注視ポイント(最短注視時間に基づくものなど)に対応するマスクの一部分が効果的に除去されるか、刺激の下地部分を明らかにするため透明にされる。別の方法は、刺激全体を明らかにして非注視ポイントを選択的に被覆することである。
概して、マスク(使用される場合)は、第1次の光学特性を有し、除去部分は第2次の光学特性(一つ以上の注視ポイントを刺激の残部と区別することなど)を有する。一実施例によれば、マスクは少なくとも比較的不透明で(刺激の下地部分を完全または部分的に隠し)、注視ポイントに対応する除去部分は、注視ポイント(例えば801〜804で示されたもの)を強調(つまりスポットライトを当てる)ため少なくとも比較的透明にされる。801,802,803,804で示されたエリアは、注視の時間的順序にしたがって番号付けするための注目ポイントも含む。所望であれば、刺激の被覆部分を分かりやすくするため、実際の刺激がゲイズプロットの近くに表現されてもよい。
別の実施例によれば、注視ポイントは他のポイントよりもより明るく表現される。注視ポイントと非注視ポイントとの間の区別を視覚的に表現するための他の技術が使用されてもよい。
注視ポイントの大きさを示すために光学的特性の相対的相違が用いられる。例えば、対象者が第2注視ポイントよりも第1注視ポイントに長い時間とどまる場合には、第1注視ポイントは第2注視ポイントよりも相対的により透明となるが、それでも各々は非注視ポイントよりも透明である。注視ポイントを区別するとともに注視ポイントを非注視ポイントと区別するため、他の光学的特性を使用できる。
ユーザが特定の時間順序で異なるポイントまたはエリアを注視する限り、注意ポイントを用いて注視ポイントの順序が視覚的に静的または動的に示される。静的な場合、一つ以上の注視ポイントの時間順序と整合させるため、注視ポイントには数字(または他のインジケータ)が付けられる。動的な場合、第1注視ポイントは、他の注視ポイントと比較して強調される(より透明またはより明るく表現されるなど)。次に第2および他の注視ポイントが順に強調される。
本発明の別の態様によれば、感情反応に対応すると判定された注視ポイントは、関心ポイントと呼ばれる。一つ以上の関心ポイントは、感情反応と関連しない注視ポイントとは異なる形で表現される。加えて、一つの関心ポイントは、そのポイントまたは他の相違と関連する感情価および/または喚起に基づいて、別の関心ポイントと異なる形で表現される。例えば、関心ポイントに対応する一つ以上の視覚的刺激のポイント/エリアを強調するのに、スポットライト特徴が使用される。関心ポイントスポットライトの特徴は、注視ポイントと関連する対象者の感情反応の種類および/または強度を示すため、変化させてもよい。
感情反応情報810は、視覚的注意情報800と同時に表示されてもよい。感情反応情報810は、一つ以上の刺激の一部に対応する刺激(複数の刺激)および/またはエリア関連の感情反応情報に対する対象者の反応に基づく全般的感情反応を含む。例えば、一つ以上の注視ポイントについての感情反応情報を個別に表現することにより、より詳細なレベルの感情反応が提示される。例示のみのため図6に示されているように、感情反応メータは、一つ以上の注視ポイントについて感情価および/または喚起を示す。感情価は、関心ポイント、スポットライト、および/または注意ポイントについて表示されてもよい。
所望であれば、レポートの様々な箇所に文章情報が含まれてもよい。
図7は、視覚的注意情報および感情反応情報の表示についてのいくつかのオプションを示す。これらの特徴を様々に並べ替えたものが使用されてもよい。すべての場合にすべての特徴が使用される必要があるわけではない。
例えば、視覚的注意情報は、(スポットライト特徴、注意ポイント、関心ポイントを含み、または含まない)ゲイズプロットを含む。使用される場合にゲイズプロットは、対象者の眼球運動、注視ポイント、および/または関心ポイントに対応する走査経路を示す。視覚的注意情報は、ある時点での一つ以上の刺激についてのものである。視覚的注意情報は静的または動的である。動的表示は、個々の表示の連続(スライドショーモードなど)、動画再生、一つ以上の映像、および/または他の動的表示を含む。
一つ以上のテンプレートに従って一部の出力(レポートなど)が自動的に生成されてもよい。様々なテンプレートおよび/またはテンプレートパラメータがシステムに予め記憶されてもよい。予め記憶されたテンプレートは、(管理ユーザ、検査・研究リーダー、他の実体などにより)選択および/または修正される。新しいテンプレートが作成および記憶されてもよい。
レポートおよび他の出力118は、一人以上の受取者および/または一つ以上の受取装置に自動的に送られる。例えば、対象者50、第三者装置250、研究/調査リーダー、管理者、および/または他の受取者である。出力118は、後の検索、送信、および/またはデータ保管のために記憶される。出力およびレポートは、JPEG,Word、PDF,XML、他の便利な出力フォーマットを含むがこれらに限定されてないいくつかのフォーマットのいずれかである。
本発明の一態様によれば、感情を引き起こした刺激と同時に、また同期して、感情マップが表現されてもよい。例えば、図8に図示されているように、第1刺激900aについてのスポットライト特徴を持つ第1ゲイズプロットが、刺激900aに対する対象者の感情反応を示す対応の感情マップ900bの付近に表示される。同様に、第2刺激904aのスポットライト特徴を持つ第2ゲイズプロットが、刺激904aに対する対象者の感情反応を示す対応の感情マップ904bの付近に表示されるといったふうである。異なる表示フォーマットが利用されてもよい。
データマイニングを目的として、データベース(240〜243)からのデータとともにレポート情報がさらに分析されてもよい。これらのデータベース内のデータその他は、収集データ、対象者データ、および/または分析結果に含まれるパターンおよび関係を明らかにするのに使用される。年齢、性別、居住地その他を含む背景変数(準備または他の時に収集されたものなど)が、データマイニングに使用されてもよい。一つ以上のデータベースでは、データの全部または一部にわたって、マイニングモジュール208を介してデータマイニングが手動または自動で行われる。
さらに説明するため、本発明の様々な態様に関する付加的情報および例をここに示す。調査質問は、使用される場合、一度に一つ提示されるか、いくつかの調査質問が単一のスクリーンに一度に示される。刺激の順序、タイミング、表示形態は、管理者が何を分析したいかに基づいて、管理者および/または対象者/調査リーダーによって準備時に決定される。別の例として、管理者が、二つ以上の競合市場ブランドに対する対象者の反応を研究しようとすることがある。刺激を同時に並列表示することで、連続ディスプレイとは異なる、二つ以上のブランドに関する視覚的注意情報および感情反応を誘発する。他の比較研究が実施されてもよい。
研究/調査が実行されると、視線追跡装置および/または他のセンサにより監視される対象者の眼球特性および他の特性が、収集、記憶、および/または分析される。収集されたデータは、後の分析および/または再生のためタイマと同期化される。収集データは眼球特性データ、他の生理データ、環境データ、および/または他のデータを包含する。収集される眼球特性データは、対象者の瞳孔のサイズ、まばたき特性、眼球位置(ゲイズ)特性、他の眼球特性に関するデータを含む。収集された瞳孔データは、瞳孔サイズ、変化速度(収縮または拡張)、加速度(速度から導出される)、他の瞳孔データを包含する。収集されるまばたきデータは、例えば、まばたき頻度、まばたき持続時間、まばたきポテンション、まばたきの大きさ、他のまばたきデータを含む。収集されるゲイズデータは、例えば、サッカード、急速サッカード、眼振、他のゲイズデータを包含する。顔面筋(一般には表情筋)の運動に関するデータも収集される。対象者に刺激が提示されると、収集データは提示された刺激と同期化される。
視覚的注意情報成分は、視覚キュー(収集された眼球特性データなど)から解読される。これは例えば、視覚的注意分析サブモジュール205aからの一つ以上のルールを印加することにより行なわれる。視覚的注意の判定および分析は、関心ポイントおよび関心追跡を含む様々な態様を伴う。関心ポイントは、眼球特性により判定される感情反応と結合された、視覚的刺激の一つまたは複数の部分に対する注視(ゲイズ)速度およびサッカードの種類に基づく。ゲイズ(眼球運動データなど)の処理は、例えば、サッカード、急速サッカード(ほぼ毎秒100度を超える速度でのサッカードなど)、眼振(眼球の素早い不随意運動)、他のデータの分析を包含する。関心の特徴は、眼球運動の速度(deg/s)および方向、注視時間(眼球がどれくらいの長さ、一つのポイントに注目しているか、など)、スペース(x,y,zまたは他の座標により画定されるエリアなど)内での注視の位置、注視ポイントへの戻り、関連性、奥行評価のための離接運動、走査作業を含む他の特徴を含む。
調節可能な注視/ゲイズ閾値を設定することによって、視覚的注意が判定される。対象者が最低400msの間、凝視したのは視覚的刺激のどのポイントまたはエリアであるかを判定するため、ミリ秒(または他の時間単位)で測定されるスライドウィンドウが、例えば400msの閾値として設定される。ユーザが少なくともこの時間ウィンドウの間、そのエリアを注視したままである場合には、この視覚的刺激のエリアが注視ポイントとして特定される。
注視ポイントに対応する感情反応(あれば喚起、価など)は、その注視ポイントでの関心のレベルを決定する。例えば、判定された注視ポイントが、所定の感情閾値を超える感情反応も誘発する場合には、この注視ポイントは関心ポイントと特定される。こうして、所定の時間(選択可能な閾値)にわたって対象者が凝視または注視して、測定可能な感情反応(感情閾値)を誘発する視覚的刺激のエリアによって、関心ポイント/エリアが特定される。
スライドウィンドウ閾値が例えば100msと小さくなると、視覚的刺激に対する対象者の走査経路全体が明白になる。こうして管理者または分析者は、それでも視覚的刺激の特定の特徴が見られているかどうかと、どれほどの長さかを知ることができる。
対象者の視覚的注意のグラフィック表現は、ゲイズプロットの形で行なわれてもよい。
感情反応要素は、例えば感情価、感情喚起、感情カテゴリ、および/または感情タイプを含む。他の要素が判定されてもよい。感情価は、所与の刺激に対する対象者の感情反応が肯定的感情反応(楽しい、「好き」など)、否定的感情反応(不快、「嫌い」など)、中間的感情反応であるかどうかを示す。感情喚起は、校正された感情基準に基づいて所定の規模の反応対象の強度または感情強度の指標を含む。対象者の感情価および喚起と、瞳孔サイズ、まばたき特性、顔表情、眼球運動などの物理的特性との間には、周知の関係が存在する。
瞳孔サイズは、ほぼ1.5mmから9mm以上までの範囲である。瞳孔データの処理はさらに、変化速度、刺激を受けてどれくらいの速さで拡張または収縮が起こるか、そして速度から導出される加速度を判定することを含む。瞳孔基準レベルと基準距離とを含む他の瞳孔関連データが、例えば最小および最大の瞳孔サイズとともに判定されてもよい。
まばたきデータの処理は、例えば、まばたき頻度、まばたき持続時間、まばたきポテンション、まばたき規模、他のまばたきデータを包含する。まばたき頻度測定は、素早いまばたき活動の間の時間枠を判定することを含む。
注意まばたきを生理的まばたきと区別するため、まばたき持続時間(例えばミリ秒)も処理される。まばたきパターンのファイルは、その持続時間に基づいて区別される。中間的まばたきは、校正中に測定されたまばたきに対応するものと分類される。長いまばたき間隔は注意の高まりを示し、一方、短いまばたきは、対象者が情報を探していることを示す。非常に短いまばたき間隔は混同を示すのに対して、半分のまばたきは強い警告の意味を指す働きがある。まばたき速度は、眼球視界量がどれほどの速さで変化するかを示し、まばたきの大きさはまばたき中に眼球がどれくらい見えるかを指す。
本発明の別の態様によれば、分析モジュール205は、感情反応分析サブモジュール205bからの一つ以上の規則を収集データに適用して一つ以上の感情要素を判定することにより、抽出された特徴データから感情キューを解読する。
ビジネスモデル
本発明の特徴および長所を利用するため、多様なビジネスモデルが使用される。例えば、サービスプロバイダは、対象者が実際に訪れる検査センターを運営するソフトウェア/システムを使用する。第三者(消費者製品会社など)に代わって検査/研究が実施される。このシナリオでは、検査について対象者を補助/案内するのに一人以上の検査リーダーが用いられる。リーダーがいる、またはいない自動運営検査センター(キオスクなど)が使用されてもよい。サービスプロバイダは、多様な基準で第三者から料金を回収する。例を挙げると、対象者単位の単位検査料金、複数の対象者についての単位検査料金、刺激単位料金、対象者割合単位、および/または他の基準を含む。加えて、出力のタイプ/詳細に応じて料金の額が変化してもよい。例えば、単純な視覚的注意出力(ゲイズプロットのみなど)は第1料金で提供される。より詳細な情報(スポットライト特徴を持つゲイズプロットなど)は第2料金で提供される。視覚的注意応報(スポットライト特徴がある場合とない場合のゲイズプロットなど)を基本的感情反応応報とともに同時に表現するのは、第3料金である。より詳細な感情反応情報(一つ以上の注視ポイントに対する感情反応など)を追加すると、第4料金である。他のタイプの出力、映像、動画などは、他の料金に値する。このようなサービスプロバイダについて、他のビジネスモデルが実行されてもよい。
本発明の特徴および長所を利用するため、多様なビジネスモデルが使用される。例えば、サービスプロバイダは、対象者が実際に訪れる検査センターを運営するソフトウェア/システムを使用する。第三者(消費者製品会社など)に代わって検査/研究が実施される。このシナリオでは、検査について対象者を補助/案内するのに一人以上の検査リーダーが用いられる。リーダーがいる、またはいない自動運営検査センター(キオスクなど)が使用されてもよい。サービスプロバイダは、多様な基準で第三者から料金を回収する。例を挙げると、対象者単位の単位検査料金、複数の対象者についての単位検査料金、刺激単位料金、対象者割合単位、および/または他の基準を含む。加えて、出力のタイプ/詳細に応じて料金の額が変化してもよい。例えば、単純な視覚的注意出力(ゲイズプロットのみなど)は第1料金で提供される。より詳細な情報(スポットライト特徴を持つゲイズプロットなど)は第2料金で提供される。視覚的注意応報(スポットライト特徴がある場合とない場合のゲイズプロットなど)を基本的感情反応応報とともに同時に表現するのは、第3料金である。より詳細な感情反応情報(一つ以上の注視ポイントに対する感情反応など)を追加すると、第4料金である。他のタイプの出力、映像、動画などは、他の料金に値する。このようなサービスプロバイダについて、他のビジネスモデルが実行されてもよい。
別のビジネスモデルによれば、対象者が遠隔操作で相互作用を行なう(インターネットまたは他のネットワークを介した)遠隔アクセス可能な検査施設を、サービスプロバイダが運営する。対象者は、検査センター、キオスク、家庭または職場のコンピュータ、モバイル無線装置、他の方法のいずれかで、遠隔アクセス可能な検査施設にアクセスできる。料金は上記のように、または他の方法で請求される。
本発明の別の態様によれば、請求書作成発行プロセスを少なくとも部分的に自動化するのに、インボイスモジュール(インボイスモジュール207など)が使用される。インボイスモジュール207は、システム情報を監視して、料金を自動的に判断し、インボイスを作成する。料金情報は、準備段階または他で入力される。監視される情報は、実行される検査、検査を受ける対象者、提示される刺激、出力の詳細のタイプおよび/またはレベル、および/または料金の基準となる他の情報を含む。
以上の明細書では、特定の実施例について本発明を説明した。発明の広い趣旨および範囲から逸脱することなく、様々な変形および変更を行なってもよい。したがって、明細書および図面は、限定的ではなく例示的な意味で検討されるべきである。
800 視覚的注意情報
801〜805 注視ポイント
810 感情反応情報
900a 第1刺激
900b 感情マップ
904a 第2刺激
904b 感情マップ
801〜805 注視ポイント
810 感情反応情報
900a 第1刺激
900b 感情マップ
904a 第2刺激
904b 感情マップ
Claims (48)
- 少なくとも一つの刺激を対象者に提示することと、
前記少なくとも一つの刺激が前記対象者に提示されている間に該対象者から生理データを収集して感情反応の判定を可能にすることと、
プロセッサを介して前記生理データを処理して視覚的注意情報を判定することと、
前記少なくとも一つの刺激に応じた感情反応情報を生成することと、
前記少なくとも一つの刺激について、前記判定された視覚的注意情報の表現と、前記生成された感情反応情報の表現とを生成することと、
から成る、一つ以上の刺激に対する対象者の感情反応を検出するためのコンピュータ利用方法。 - 前記少なくとも一つの刺激が視覚的刺激である、請求項1に記載の方法。
- 前記視覚的刺激が、文章、写真、芸術作品、映画、マルチメディアプレゼンテーション、および対話式コンテンツの少なくとも一つを包含する、請求項2に記載の方法。
- 前記視覚的刺激が広告または宣伝の少なくとも一つを包含する、請求項2に記載の方法。
- 前記視覚的刺激が製品の説明を包含する、請求項2に記載の方法。
- 前記視覚的刺激が製品パッケージを包含する、請求項2に記載の方法。
- 前記少なくとも一つの刺激が視覚的刺激と少なくとも一つの非視覚的刺激を包含する、請求項1に記載の方法。
- 前記生理データが瞳孔データ、まばたきデータ、または凝視データの一つ以上を含む、請求項1に記載の方法。
- 視線追跡装置を介して前記生理データが収集される、請求項1に記載の方法。
- 判定された前記視覚的注意情報の前記表現と判定された前記感情反応情報の前記表現とがディスプレイまたはプリンタに出力される、請求項1に記載の方法。
- 前記視覚的注意情報の判定が、
前記少なくとも一つの刺激と関連する一つ以上の注視ポイントを判定することであって、注視ポイントが、少なくとも所定の時間量にわたって前記対象者が視覚的に注目するエリアを包含することと、
を包含する、請求項1に記載の方法。 - 判定された前記視覚的注意情報の前記示が、前記対象者に提示される少なくとも一つの刺激に重ねられたゲイズプロットを包含し、前記一つ以上の注視ポイントを前記少なくとも一つの刺激の残部と区別するように該一つ以上の注視ポイントが強調される、請求項11に記載の方法。
- 生成された前記感情反応情報の前記表現が、前記一つ以上の強調注視ポイントに対応する感情情報を含む、請求項12に記載の方法。
- さらに、
一つ以上の注意ポイントを特定するように前記一つ以上の注視ポイントを統合すること、
を包含する、請求項11に記載の方法。 - さらに、
一つ以上の注意ポイントを特定するように前記一つ以上の注視ポイントを時間順に統合すること、
を包含する、請求項14に記載の方法。 - さらに、
特定された前記一つ以上の注意ポイントに番号を付けて時間順を示すこと、
を包含する、請求項15に記載の方法。 - さらに、
一つ以上の関心ポイントを特定するように前記感情反応情報が前記一つ以上の注視ポイントのいずれかに対応するかどうかを判定することと、
を包含する、請求項11に記載の方法。 - 生成された前記感情反応情報の前記表現が、特定された各関心ポイントについての感情価および感情喚起の指標を含む、請求項17に記載の方法。
- 感情反応情報が、感情価要素と感情喚起要素の少なくとも一方を含む、請求項1に記載の方法。
- 生成された前記感情反応情報の前記表現が、前記少なくとも一つの刺激に対する全般的感情反応を示す感情情報を含む、請求項1に記載の方法。
- 前記対象者に提示される少なくとも一つの刺激に対応する一つ以上の調査質問に回答するように該対象者を促すこと、
を包含する、請求項1に記載の方法。 - 前記対象者への前記少なくとも一つの刺激の提示と該対象者からの前記生理データの収集とがキオスクで行なわれ、視覚的注目情報を判定するための該生理データの処置と感情反応情報の生成とが該キオスクから遠隔位置に設けられた処理センターで行なわれる、請求項1に記載の方法。
- 前記少なくとも一つの刺激が実体により提供される広告を包含し、判定された前記視覚的注目情報の前記表現と生成された前記感情反応情報の表現とが評価のため該実体に提供される、請求項1に記載の方法。
- 前記少なくとも一つの刺激が複数の対象者に提示され、判定された前記視覚的注意情報の前記表現と生成された前記感情反応情報の前記表現とがそれぞれ、該複数の対象者について判定された前記視覚的注意情報と感情反応情報の統合体を示す、請求項1に記載の方法。
- 少なくとも一つの刺激を対象者に提示するための手段と、
前記少なくとも一つの刺激が前記対象者に提示されている間に該対象者から生理データを収集して感情反応の判定を可能にするための手段と、
前記生理データを処理して視覚的注意情報を判定するための手段と、
前記少なくとも一つの刺激に応じた感情反応情報を生成するための手段と、
前記少なくとも一つの刺激について、判定された前記視覚的注意情報の表現と、生成された前記感情反応情報の表現とを生成するための手段と、
から成る、一つ以上の刺激に対する対象者の感情反応を検出するためのコンピュータ利用
システム。 - 前記少なくとも一つの刺激が視覚的刺激である、請求項25に記載のシステム。
- 前記視覚的刺激が、文章、写真、芸術作品、映画、マルチメディアプレゼンテーション、または対話式コンテンツの少なくとも一つを包含する、請求項26のシステム。
- 前記視覚的刺激が広告または宣伝の少なくとも一方を包含する、請求項26に記載のシステム。
- 前記視覚的刺激が製品の説明を包含する、請求項26に記載のシステム。
- 前記視覚的刺激が製品パッケージを包含する、請求項26に記載のシステム。
- 前記少なくとも一つの刺激が視覚的刺激と少なくとも一つの非視覚的刺激とを包含する、請求項25に記載のシステム。
- 前記生理データが瞳孔データ、まばたきデータ、または凝視データのうち一つ以上を含む、請求項25に記載のシステム。
- 前記生理データが視線追跡装置を介して収集される、請求項25に記載のシステム。
- 判定された前記視覚的注意情報の前記表現と判定された前記感情反応情報の前記表現とがディスプレイまたはプリンタに出力される、請求項25に記載のシステム。
- 前記生理データを処理して視覚的注意情報を判定するための前記手段がさらに、前記少なくとも一つの刺激と関連する一つ以上の注視ポイントを判定するための手段を包含し、注視ポイントが、少なくとも所定の時間量にわたって前記対象者が視覚的に注目するエリアを包含する、請求項25に記載のシステム。
- 判定された前記視覚的注意情報の前記表現が、前記対象者に提示される前記少なくとも一つの刺激に重ねられるゲイズプロットを包含し、前記一つ以上の注視ポイントを該少なくとも一つの刺激の残部と区別するように該一つ以上の注視ポイントが強調される、請求項35に記載のシステム。
- 生成された前記感情反応情報の前記表現が、前記一つ以上の強調注視ポイントの各々に対応する感情情報を含む、請求項36に記載のシステム。
- さらに、
一つ以上の注意ポイントを特定するように前記一つ以上の注視ポイントを統合するための手段、
を包含する、請求項35に記載のシステム。 - さらに、
一つ以上の注意ポイントを特定するように前記一つ以上の注視ポイントを時間順に統合するための手段、
を包含する、請求項38に記載のシステム。 - さらに、
前記時間順を示すため、特定された前記一つ以上の注意ポイントに番号を付けるための手段、
を包含する、請求項39に記載のシステム。 - さらに、
一つ以上の関心ポイントを特定するように、前記感情反応情報が前記一つ以上の注視ポイントのいずれかに対応するかどうかを判定するための手段、
を包含する、請求項35に記載のシステム。 - 生成された前記感情反応情報の前記表現が、特定された各関心ポイントについての感情価および感情喚起の指標を含む、請求項41に記載のシステム。
- 感情反応情報が、感情価要素または感情喚起要素の少なくとも一方を含む、請求項25に記載のシステム。
- 生成された前記感情反応情報の前記表現が前記少なくとも一つの刺激への全般的感情反応を示す感情情報を含む、請求項25に記載のシステム。
- さらに、
前記対象者に提示される前記少なくとも一つの刺激に対応する一つ以上の調査質問に回答するように該対象者を促すための手段、
を包含する、請求項25に記載のシステム。 - 前記少なくとも一つの刺激を前記対象者に提示するための手段と、前記対象者から前記生理データを収集するための前記手段とがキオスクに配置され、前記生理データを処理して視覚的注意情報を判定するための手段と感情反応情報を生成するための前記手段とが該キオスクから遠隔位置の処理センターに配置される、請求項25に記載のシステム。
- 前記少なくとも一つの刺激が実体によって提供される広告を包含し、判定された前記視覚的注意情報の前記表現と生成された前記感情反応情報の前記表現とが、評価のため該実体に提供される、請求項25に記載のシステム。
- 前記少なくとも一つの刺激が複数の対象者に提示され、判定された前記視覚的注意情報の表現と生成された前記感情反応情報の表現とがそれぞれ、該複数の対象者について判定された該視覚的注意情報と感情反応情報との統合体を示す、請求項25に記載のシステム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US78132106P | 2006-03-13 | 2006-03-13 | |
PCT/IB2007/004587 WO2008129356A2 (en) | 2006-03-13 | 2007-03-13 | Visual attention and emotional response detection and display system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009530071A true JP2009530071A (ja) | 2009-08-27 |
Family
ID=39876016
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009510570A Withdrawn JP2009530071A (ja) | 2006-03-13 | 2007-03-13 | 視覚的注意および感情反応の検出表示システム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20070265507A1 (ja) |
EP (1) | EP2007271A2 (ja) |
JP (1) | JP2009530071A (ja) |
CA (1) | CA2639125A1 (ja) |
WO (1) | WO2008129356A2 (ja) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013061906A (ja) * | 2011-09-15 | 2013-04-04 | Osaka Kyoiku Univ | 顔分析装置、顔分析方法、及びプログラム |
JP2015039487A (ja) * | 2013-08-21 | 2015-03-02 | 大日本印刷株式会社 | 生理指標を用いる視線分析システムおよび方法 |
JP2015518402A (ja) * | 2012-04-24 | 2015-07-02 | ウニベルシタ デ バルセローナ | 注意測定方法 |
JP2016504089A (ja) * | 2012-12-11 | 2016-02-12 | クライン、アミKLIN, Ami | エンゲージメント及び知覚刺激顕著性のマーカーとして瞬き抑制を検出するためのシステム及び方法 |
KR101734845B1 (ko) * | 2015-11-13 | 2017-05-15 | 가톨릭대학교 산학협력단 | 시각 분석을 이용하는 감정 분류 장치 및 그 방법 |
CN109863502A (zh) * | 2016-11-10 | 2019-06-07 | 纽诺创科技术公司 | 将图像拍摄设备与人类用户相关联以分析认知能力的方法和系统 |
JP6802549B1 (ja) * | 2020-08-17 | 2020-12-16 | 株式会社スワローインキュベート | 情報処理方法、情報処理装置、及び制御プログラム |
US10896431B2 (en) | 2009-02-27 | 2021-01-19 | Forbes Consulting Group, Llc | Methods and systems for assessing psychological characteristics |
JP2021082114A (ja) * | 2019-11-21 | 2021-05-27 | 株式会社スワローインキュベート | 情報処理方法、情報処理装置、及び制御プログラム |
US11163359B2 (en) | 2016-11-10 | 2021-11-02 | Neurotrack Technologies, Inc. | Method and system for correlating an image capturing device to a human user for analyzing gaze information associated with cognitive performance |
US11249548B2 (en) | 2016-11-10 | 2022-02-15 | Neurotrack Technologies, Inc. | Method and system for correlating an image capturing device to a human user for analyzing gaze information associated with cognitive performance |
Families Citing this family (217)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2003900035A0 (en) * | 2003-01-07 | 2003-01-23 | Monash University | Detecting subtle cognitive impairment |
JP5065275B2 (ja) | 2005-09-02 | 2012-10-31 | エムセンス コーポレイション | 組織内の電気的活動を検知する装置及び方法 |
JP2009508553A (ja) * | 2005-09-16 | 2009-03-05 | アイモーションズ−エモーション テクノロジー エー/エス | 眼球性質を解析することで、人間の感情を決定するシステムおよび方法 |
EP2050086A2 (en) * | 2006-07-12 | 2009-04-22 | Medical Cyberworlds, Inc. | Computerized medical training system |
US9940589B2 (en) * | 2006-12-30 | 2018-04-10 | Red Dot Square Solutions Limited | Virtual reality system including viewer responsiveness to smart objects |
US8370207B2 (en) | 2006-12-30 | 2013-02-05 | Red Dot Square Solutions Limited | Virtual reality system including smart objects |
US20080215974A1 (en) * | 2007-03-01 | 2008-09-04 | Phil Harrison | Interactive user controlled avatar animations |
US9215996B2 (en) | 2007-03-02 | 2015-12-22 | The Nielsen Company (Us), Llc | Apparatus and method for objectively determining human response to media |
US20090070798A1 (en) * | 2007-03-02 | 2009-03-12 | Lee Hans C | System and Method for Detecting Viewer Attention to Media Delivery Devices |
US8230457B2 (en) * | 2007-03-07 | 2012-07-24 | The Nielsen Company (Us), Llc. | Method and system for using coherence of biological responses as a measure of performance of a media |
US8473044B2 (en) | 2007-03-07 | 2013-06-25 | The Nielsen Company (Us), Llc | Method and system for measuring and ranking a positive or negative response to audiovisual or interactive media, products or activities using physiological signals |
US8782681B2 (en) | 2007-03-08 | 2014-07-15 | The Nielsen Company (Us), Llc | Method and system for rating media and events in media based on physiological data |
US8764652B2 (en) | 2007-03-08 | 2014-07-01 | The Nielson Company (US), LLC. | Method and system for measuring and ranking an “engagement” response to audiovisual or interactive media, products, or activities using physiological signals |
US8473345B2 (en) | 2007-03-29 | 2013-06-25 | The Nielsen Company (Us), Llc | Protocol generator and presenter device for analysis of marketing and entertainment effectiveness |
US20080243005A1 (en) * | 2007-03-30 | 2008-10-02 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Computational user-health testing |
US8977631B2 (en) * | 2007-04-16 | 2015-03-10 | Ebay Inc. | Visualization of reputation ratings |
US9886981B2 (en) | 2007-05-01 | 2018-02-06 | The Nielsen Company (Us), Llc | Neuro-feedback based stimulus compression device |
EP2142082A4 (en) | 2007-05-01 | 2015-10-28 | Neurofocus Inc | NEUROINFORMATIC REFERENCE SYSTEM |
US8392253B2 (en) | 2007-05-16 | 2013-03-05 | The Nielsen Company (Us), Llc | Neuro-physiology and neuro-behavioral based stimulus targeting system |
US8494905B2 (en) | 2007-06-06 | 2013-07-23 | The Nielsen Company (Us), Llc | Audience response analysis using simultaneous electroencephalography (EEG) and functional magnetic resonance imaging (fMRI) |
WO2008154410A1 (en) * | 2007-06-06 | 2008-12-18 | Neurofocus, Inc. | Multi-market program and commercial response monitoring system using neuro-response measurements |
JP5542051B2 (ja) | 2007-07-30 | 2014-07-09 | ニューロフォーカス・インコーポレーテッド | 神経応答刺激及び刺激属性共鳴推定を行うシステム、方法、及び、装置 |
US8635105B2 (en) | 2007-08-28 | 2014-01-21 | The Nielsen Company (Us), Llc | Consumer experience portrayal effectiveness assessment system |
KR20100047865A (ko) | 2007-08-28 | 2010-05-10 | 뉴로포커스, 인크. | 소비자 경험 평가 시스템 |
US8386313B2 (en) | 2007-08-28 | 2013-02-26 | The Nielsen Company (Us), Llc | Stimulus placement system using subject neuro-response measurements |
US8392255B2 (en) | 2007-08-29 | 2013-03-05 | The Nielsen Company (Us), Llc | Content based selection and meta tagging of advertisement breaks |
US8376952B2 (en) | 2007-09-07 | 2013-02-19 | The Nielsen Company (Us), Llc. | Method and apparatus for sensing blood oxygen |
US20090083129A1 (en) | 2007-09-20 | 2009-03-26 | Neurofocus, Inc. | Personalized content delivery using neuro-response priming data |
US8494610B2 (en) | 2007-09-20 | 2013-07-23 | The Nielsen Company (Us), Llc | Analysis of marketing and entertainment effectiveness using magnetoencephalography |
WO2009046224A1 (en) | 2007-10-02 | 2009-04-09 | Emsense Corporation | Providing remote access to media, and reaction and survey data from viewers of the media |
US9582805B2 (en) | 2007-10-24 | 2017-02-28 | Invention Science Fund I, Llc | Returning a personalized advertisement |
US20090113297A1 (en) * | 2007-10-24 | 2009-04-30 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Requesting a second content based on a user's reaction to a first content |
US9513699B2 (en) | 2007-10-24 | 2016-12-06 | Invention Science Fund I, LL | Method of selecting a second content based on a user's reaction to a first content |
WO2009059246A1 (en) * | 2007-10-31 | 2009-05-07 | Emsense Corporation | Systems and methods providing en mass collection and centralized processing of physiological responses from viewers |
US20090150919A1 (en) * | 2007-11-30 | 2009-06-11 | Lee Michael J | Correlating Media Instance Information With Physiological Responses From Participating Subjects |
US20090157751A1 (en) * | 2007-12-13 | 2009-06-18 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Methods and systems for specifying an avatar |
US20090157660A1 (en) * | 2007-12-13 | 2009-06-18 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Methods and systems employing a cohort-linked avatar |
US20090171164A1 (en) * | 2007-12-17 | 2009-07-02 | Jung Edward K Y | Methods and systems for identifying an avatar-linked population cohort |
US20090157481A1 (en) * | 2007-12-13 | 2009-06-18 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Methods and systems for specifying a cohort-linked avatar attribute |
US20090157625A1 (en) * | 2007-12-13 | 2009-06-18 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Methods and systems for identifying an avatar-linked population cohort |
US8615479B2 (en) * | 2007-12-13 | 2013-12-24 | The Invention Science Fund I, Llc | Methods and systems for indicating behavior in a population cohort |
US9211077B2 (en) * | 2007-12-13 | 2015-12-15 | The Invention Science Fund I, Llc | Methods and systems for specifying an avatar |
US8347326B2 (en) | 2007-12-18 | 2013-01-01 | The Nielsen Company (US) | Identifying key media events and modeling causal relationships between key events and reported feelings |
US20090164131A1 (en) * | 2007-12-20 | 2009-06-25 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Methods and systems for specifying a media content-linked population cohort |
US9418368B2 (en) * | 2007-12-20 | 2016-08-16 | Invention Science Fund I, Llc | Methods and systems for determining interest in a cohort-linked avatar |
US20090164503A1 (en) * | 2007-12-20 | 2009-06-25 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Methods and systems for specifying a media content-linked population cohort |
US9775554B2 (en) * | 2007-12-31 | 2017-10-03 | Invention Science Fund I, Llc | Population cohort-linked avatar |
FR2933518A1 (fr) * | 2008-07-03 | 2010-01-08 | Mettler Toledo Sas | Terminal de transaction et systeme de transaction comportant de tels terminaux relies a un serveur |
US20100010370A1 (en) | 2008-07-09 | 2010-01-14 | De Lemos Jakob | System and method for calibrating and normalizing eye data in emotional testing |
US9710816B2 (en) * | 2008-08-05 | 2017-07-18 | Ford Motor Company | Method and system of measuring customer satisfaction with purchased vehicle |
US8136944B2 (en) * | 2008-08-15 | 2012-03-20 | iMotions - Eye Tracking A/S | System and method for identifying the existence and position of text in visual media content and for determining a subjects interactions with the text |
CN102144201A (zh) * | 2008-09-03 | 2011-08-03 | 皇家飞利浦电子股份有限公司 | 在用户与交互式显示系统之间执行基于目光的交互的方法 |
US8401248B1 (en) | 2008-12-30 | 2013-03-19 | Videomining Corporation | Method and system for measuring emotional and attentional response to dynamic digital media content |
US9357240B2 (en) | 2009-01-21 | 2016-05-31 | The Nielsen Company (Us), Llc | Methods and apparatus for providing alternate media for video decoders |
US8464288B2 (en) | 2009-01-21 | 2013-06-11 | The Nielsen Company (Us), Llc | Methods and apparatus for providing personalized media in video |
US8270814B2 (en) | 2009-01-21 | 2012-09-18 | The Nielsen Company (Us), Llc | Methods and apparatus for providing video with embedded media |
US8539359B2 (en) * | 2009-02-11 | 2013-09-17 | Jeffrey A. Rapaport | Social network driven indexing system for instantly clustering people with concurrent focus on same topic into on-topic chat rooms and/or for generating on-topic search results tailored to user preferences regarding topic |
WO2010100567A2 (en) * | 2009-03-06 | 2010-09-10 | Imotions- Emotion Technology A/S | System and method for determining emotional response to olfactory stimuli |
US9858540B2 (en) | 2009-03-10 | 2018-01-02 | Gearbox, Llc | Computational systems and methods for health services planning and matching |
US9892435B2 (en) | 2009-03-10 | 2018-02-13 | Gearbox Llc | Computational systems and methods for health services planning and matching |
US9911165B2 (en) * | 2009-03-10 | 2018-03-06 | Gearbox, Llc | Computational systems and methods for health services planning and matching |
US10319471B2 (en) | 2009-03-10 | 2019-06-11 | Gearbox Llc | Computational systems and methods for health services planning and matching |
US9886729B2 (en) | 2009-03-10 | 2018-02-06 | Gearbox, Llc | Computational systems and methods for health services planning and matching |
US20100250325A1 (en) | 2009-03-24 | 2010-09-30 | Neurofocus, Inc. | Neurological profiles for market matching and stimulus presentation |
US8655437B2 (en) | 2009-08-21 | 2014-02-18 | The Nielsen Company (Us), Llc | Analysis of the mirror neuron system for evaluation of stimulus |
US10987015B2 (en) | 2009-08-24 | 2021-04-27 | Nielsen Consumer Llc | Dry electrodes for electroencephalography |
US20110077996A1 (en) * | 2009-09-25 | 2011-03-31 | Hyungil Ahn | Multimodal Affective-Cognitive Product Evaluation |
US8209224B2 (en) | 2009-10-29 | 2012-06-26 | The Nielsen Company (Us), Llc | Intracluster content management using neuro-response priming data |
US20110106750A1 (en) | 2009-10-29 | 2011-05-05 | Neurofocus, Inc. | Generating ratings predictions using neuro-response data |
US9560984B2 (en) | 2009-10-29 | 2017-02-07 | The Nielsen Company (Us), Llc | Analysis of controlled and automatic attention for introduction of stimulus material |
US20110109879A1 (en) * | 2009-11-09 | 2011-05-12 | Daphna Palti-Wasserman | Multivariate dynamic profiling system and methods |
US8335715B2 (en) | 2009-11-19 | 2012-12-18 | The Nielsen Company (Us), Llc. | Advertisement exchange using neuro-response data |
US8335716B2 (en) | 2009-11-19 | 2012-12-18 | The Nielsen Company (Us), Llc. | Multimedia advertisement exchange |
US20120323087A1 (en) | 2009-12-21 | 2012-12-20 | Leon Villeda Enrique Edgar | Affective well-being supervision system and method |
WO2011133548A2 (en) | 2010-04-19 | 2011-10-27 | Innerscope Research, Inc. | Short imagery task (sit) research method |
US20110263946A1 (en) * | 2010-04-22 | 2011-10-27 | Mit Media Lab | Method and system for real-time and offline analysis, inference, tagging of and responding to person(s) experiences |
US8655428B2 (en) | 2010-05-12 | 2014-02-18 | The Nielsen Company (Us), Llc | Neuro-response data synchronization |
US10799168B2 (en) | 2010-06-07 | 2020-10-13 | Affectiva, Inc. | Individual data sharing across a social network |
US10517521B2 (en) | 2010-06-07 | 2019-12-31 | Affectiva, Inc. | Mental state mood analysis using heart rate collection based on video imagery |
US10897650B2 (en) | 2010-06-07 | 2021-01-19 | Affectiva, Inc. | Vehicle content recommendation using cognitive states |
US11067405B2 (en) | 2010-06-07 | 2021-07-20 | Affectiva, Inc. | Cognitive state vehicle navigation based on image processing |
US10779761B2 (en) | 2010-06-07 | 2020-09-22 | Affectiva, Inc. | Sporadic collection of affect data within a vehicle |
US10922567B2 (en) | 2010-06-07 | 2021-02-16 | Affectiva, Inc. | Cognitive state based vehicle manipulation using near-infrared image processing |
US11430260B2 (en) | 2010-06-07 | 2022-08-30 | Affectiva, Inc. | Electronic display viewing verification |
US11657288B2 (en) | 2010-06-07 | 2023-05-23 | Affectiva, Inc. | Convolutional computing using multilayered analysis engine |
US10111611B2 (en) * | 2010-06-07 | 2018-10-30 | Affectiva, Inc. | Personal emotional profile generation |
US11700420B2 (en) | 2010-06-07 | 2023-07-11 | Affectiva, Inc. | Media manipulation using cognitive state metric analysis |
US11430561B2 (en) | 2010-06-07 | 2022-08-30 | Affectiva, Inc. | Remote computing analysis for cognitive state data metrics |
US11073899B2 (en) | 2010-06-07 | 2021-07-27 | Affectiva, Inc. | Multidevice multimodal emotion services monitoring |
US10869626B2 (en) | 2010-06-07 | 2020-12-22 | Affectiva, Inc. | Image analysis for emotional metric evaluation |
US10401860B2 (en) | 2010-06-07 | 2019-09-03 | Affectiva, Inc. | Image analysis for two-sided data hub |
US11318949B2 (en) | 2010-06-07 | 2022-05-03 | Affectiva, Inc. | In-vehicle drowsiness analysis using blink rate |
US11587357B2 (en) | 2010-06-07 | 2023-02-21 | Affectiva, Inc. | Vehicular cognitive data collection with multiple devices |
US11465640B2 (en) | 2010-06-07 | 2022-10-11 | Affectiva, Inc. | Directed control transfer for autonomous vehicles |
US10627817B2 (en) | 2010-06-07 | 2020-04-21 | Affectiva, Inc. | Vehicle manipulation using occupant image analysis |
US11151610B2 (en) | 2010-06-07 | 2021-10-19 | Affectiva, Inc. | Autonomous vehicle control using heart rate collection based on video imagery |
US10843078B2 (en) | 2010-06-07 | 2020-11-24 | Affectiva, Inc. | Affect usage within a gaming context |
US10614289B2 (en) | 2010-06-07 | 2020-04-07 | Affectiva, Inc. | Facial tracking with classifiers |
US11017250B2 (en) | 2010-06-07 | 2021-05-25 | Affectiva, Inc. | Vehicle manipulation using convolutional image processing |
US10289898B2 (en) | 2010-06-07 | 2019-05-14 | Affectiva, Inc. | Video recommendation via affect |
US11393133B2 (en) | 2010-06-07 | 2022-07-19 | Affectiva, Inc. | Emoji manipulation using machine learning |
US10628985B2 (en) | 2017-12-01 | 2020-04-21 | Affectiva, Inc. | Avatar image animation using translation vectors |
US10143414B2 (en) | 2010-06-07 | 2018-12-04 | Affectiva, Inc. | Sporadic collection with mobile affect data |
US11056225B2 (en) | 2010-06-07 | 2021-07-06 | Affectiva, Inc. | Analytics for livestreaming based on image analysis within a shared digital environment |
US10592757B2 (en) | 2010-06-07 | 2020-03-17 | Affectiva, Inc. | Vehicular cognitive data collection using multiple devices |
US11292477B2 (en) | 2010-06-07 | 2022-04-05 | Affectiva, Inc. | Vehicle manipulation using cognitive state engineering |
US11484685B2 (en) | 2010-06-07 | 2022-11-01 | Affectiva, Inc. | Robotic control using profiles |
US10204625B2 (en) | 2010-06-07 | 2019-02-12 | Affectiva, Inc. | Audio analysis learning using video data |
US10108852B2 (en) * | 2010-06-07 | 2018-10-23 | Affectiva, Inc. | Facial analysis to detect asymmetric expressions |
US9723992B2 (en) * | 2010-06-07 | 2017-08-08 | Affectiva, Inc. | Mental state analysis using blink rate |
US11823055B2 (en) | 2019-03-31 | 2023-11-21 | Affectiva, Inc. | Vehicular in-cabin sensing using machine learning |
US10074024B2 (en) | 2010-06-07 | 2018-09-11 | Affectiva, Inc. | Mental state analysis using blink rate for vehicles |
US11232290B2 (en) | 2010-06-07 | 2022-01-25 | Affectiva, Inc. | Image analysis using sub-sectional component evaluation to augment classifier usage |
US9959549B2 (en) | 2010-06-07 | 2018-05-01 | Affectiva, Inc. | Mental state analysis for norm generation |
US10796176B2 (en) | 2010-06-07 | 2020-10-06 | Affectiva, Inc. | Personal emotional profile generation for vehicle manipulation |
US11704574B2 (en) | 2010-06-07 | 2023-07-18 | Affectiva, Inc. | Multimodal machine learning for vehicle manipulation |
US11511757B2 (en) | 2010-06-07 | 2022-11-29 | Affectiva, Inc. | Vehicle manipulation with crowdsourcing |
US11410438B2 (en) | 2010-06-07 | 2022-08-09 | Affectiva, Inc. | Image analysis using a semiconductor processor for facial evaluation in vehicles |
US11887352B2 (en) | 2010-06-07 | 2024-01-30 | Affectiva, Inc. | Live streaming analytics within a shared digital environment |
US10482333B1 (en) | 2017-01-04 | 2019-11-19 | Affectiva, Inc. | Mental state analysis using blink rate within vehicles |
US10474875B2 (en) | 2010-06-07 | 2019-11-12 | Affectiva, Inc. | Image analysis using a semiconductor processor for facial evaluation |
US9934425B2 (en) | 2010-06-07 | 2018-04-03 | Affectiva, Inc. | Collection of affect data from multiple mobile devices |
US11935281B2 (en) | 2010-06-07 | 2024-03-19 | Affectiva, Inc. | Vehicular in-cabin facial tracking using machine learning |
US10911829B2 (en) | 2010-06-07 | 2021-02-02 | Affectiva, Inc. | Vehicle video recommendation via affect |
US10628741B2 (en) | 2010-06-07 | 2020-04-21 | Affectiva, Inc. | Multimodal machine learning for emotion metrics |
GB2481323B (en) * | 2010-06-17 | 2016-12-14 | Forethought Pty Ltd | Measurement of emotional response to sensory stimuli |
US8392251B2 (en) | 2010-08-09 | 2013-03-05 | The Nielsen Company (Us), Llc | Location aware presentation of stimulus material |
US8392250B2 (en) | 2010-08-09 | 2013-03-05 | The Nielsen Company (Us), Llc | Neuro-response evaluated stimulus in virtual reality environments |
US20120042263A1 (en) | 2010-08-10 | 2012-02-16 | Seymour Rapaport | Social-topical adaptive networking (stan) system allowing for cooperative inter-coupling with external social networking systems and other content sources |
US8396744B2 (en) | 2010-08-25 | 2013-03-12 | The Nielsen Company (Us), Llc | Effective virtual reality environments for presentation of marketing materials |
US9545224B2 (en) * | 2010-11-08 | 2017-01-17 | Optalert Australia Pty Ltd | Fitness for work test |
GB201020241D0 (en) * | 2010-11-30 | 2011-01-12 | Univ Lincoln The | A response detection system and associated methods |
US20120143693A1 (en) * | 2010-12-02 | 2012-06-07 | Microsoft Corporation | Targeting Advertisements Based on Emotion |
US20120259240A1 (en) * | 2011-04-08 | 2012-10-11 | Nviso Sarl | Method and System for Assessing and Measuring Emotional Intensity to a Stimulus |
US8676937B2 (en) | 2011-05-12 | 2014-03-18 | Jeffrey Alan Rapaport | Social-topical adaptive networking (STAN) system allowing for group based contextual transaction offers and acceptances and hot topic watchdogging |
US20120324491A1 (en) * | 2011-06-17 | 2012-12-20 | Microsoft Corporation | Video highlight identification based on environmental sensing |
KR101901417B1 (ko) * | 2011-08-29 | 2018-09-27 | 한국전자통신연구원 | 감성기반 안전운전 자동차 서비스 시스템, 안전운전 서비스를 위한 감성인지 처리 장치 및 안전운전 서비스 장치, 감성기반 차량용 안전운전 서비스 방법 |
US20190102706A1 (en) * | 2011-10-20 | 2019-04-04 | Affectomatics Ltd. | Affective response based recommendations |
US9015084B2 (en) * | 2011-10-20 | 2015-04-21 | Gil Thieberger | Estimating affective response to a token instance of interest |
CA2855968C (en) * | 2011-11-22 | 2018-06-19 | Dignity Health | System and method for using microsaccade peak velocity as a measure of mental workload and fatigue |
US8869115B2 (en) | 2011-11-23 | 2014-10-21 | General Electric Company | Systems and methods for emotive software usability |
US20130137076A1 (en) * | 2011-11-30 | 2013-05-30 | Kathryn Stone Perez | Head-mounted display based education and instruction |
US9569986B2 (en) | 2012-02-27 | 2017-02-14 | The Nielsen Company (Us), Llc | System and method for gathering and analyzing biometric user feedback for use in social media and advertising applications |
US9451303B2 (en) | 2012-02-27 | 2016-09-20 | The Nielsen Company (Us), Llc | Method and system for gathering and computing an audience's neurologically-based reactions in a distributed framework involving remote storage and computing |
US9292858B2 (en) | 2012-02-27 | 2016-03-22 | The Nielsen Company (Us), Llc | Data collection system for aggregating biologically based measures in asynchronous geographically distributed public environments |
US20130243270A1 (en) * | 2012-03-16 | 2013-09-19 | Gila Kamhi | System and method for dynamic adaption of media based on implicit user input and behavior |
US8989835B2 (en) | 2012-08-17 | 2015-03-24 | The Nielsen Company (Us), Llc | Systems and methods to gather and analyze electroencephalographic data |
US20140149177A1 (en) * | 2012-11-23 | 2014-05-29 | Ari M. Frank | Responding to uncertainty of a user regarding an experience by presenting a prior experience |
US9265458B2 (en) | 2012-12-04 | 2016-02-23 | Sync-Think, Inc. | Application of smooth pursuit cognitive testing paradigms to clinical drug development |
WO2014116826A1 (en) * | 2013-01-24 | 2014-07-31 | The Trustees Of Columbia University In The City Of New York | Mobile, neurally-assisted personal assistant |
US9179833B2 (en) | 2013-02-28 | 2015-11-10 | Carl Zeiss Meditec, Inc. | Systems and methods for improved ease and accuracy of gaze tracking |
US9380976B2 (en) | 2013-03-11 | 2016-07-05 | Sync-Think, Inc. | Optical neuroinformatics |
US9202352B2 (en) | 2013-03-11 | 2015-12-01 | Immersion Corporation | Automatic haptic effect adjustment system |
US9773332B2 (en) | 2013-03-14 | 2017-09-26 | Otoy, Inc. | Visual cortex thought detector interface |
US9235968B2 (en) | 2013-03-14 | 2016-01-12 | Otoy, Inc. | Tactile elements for a wearable eye piece |
US9320450B2 (en) | 2013-03-14 | 2016-04-26 | The Nielsen Company (Us), Llc | Methods and apparatus to gather and analyze electroencephalographic data |
SG11201508399RA (en) | 2013-04-10 | 2015-11-27 | Auckland Uniservices Ltd | Head and eye tracking |
US10635167B2 (en) * | 2013-05-30 | 2020-04-28 | Umoove Services Ltd. | Smooth pursuit gaze tracking |
US20150332166A1 (en) * | 2013-09-20 | 2015-11-19 | Intel Corporation | Machine learning-based user behavior characterization |
AU2014334870B2 (en) | 2013-10-17 | 2019-06-13 | Children's Healthcare Of Atlanta, Inc. | Methods for assessing infant and child development via eye tracking |
DE102013017820A1 (de) * | 2013-10-23 | 2015-04-23 | Humboldt-Universität Zu Berlin | Verfahren und System zur Visualisierung der emotionalen Wirkung einer visuellen Stimulation |
US10048748B2 (en) | 2013-11-12 | 2018-08-14 | Excalibur Ip, Llc | Audio-visual interaction with user devices |
US10546310B2 (en) | 2013-11-18 | 2020-01-28 | Sentient Decision Science, Inc. | Systems and methods for assessing implicit associations |
DE102014104415A1 (de) * | 2014-03-28 | 2015-10-01 | Herbstwerbung Gmbh | Aufmerksamkeitserfassung |
US9622702B2 (en) | 2014-04-03 | 2017-04-18 | The Nielsen Company (Us), Llc | Methods and apparatus to gather and analyze electroencephalographic data |
US20150302422A1 (en) * | 2014-04-16 | 2015-10-22 | 2020 Ip Llc | Systems and methods for multi-user behavioral research |
US10376183B2 (en) | 2014-04-29 | 2019-08-13 | Dignity Health | Systems and methods for non-intrusive drug impairment detection |
EP3154414B1 (en) * | 2014-06-11 | 2021-08-04 | Dignity Health | Systems and methods for non-intrusive deception detection |
CN106659441B (zh) * | 2014-06-17 | 2019-11-26 | 皇家飞利浦有限公司 | 评价医生注意力 |
US10748439B1 (en) * | 2014-10-13 | 2020-08-18 | The Cognitive Healthcare Company | Automated delivery of unique, equivalent task versions for computer delivered testing environments |
US9936250B2 (en) | 2015-05-19 | 2018-04-03 | The Nielsen Company (Us), Llc | Methods and apparatus to adjust content presented to an individual |
US10045726B2 (en) | 2015-06-14 | 2018-08-14 | Facense Ltd. | Selecting a stressor based on thermal measurements of the face |
US10299717B2 (en) | 2015-06-14 | 2019-05-28 | Facense Ltd. | Detecting stress based on thermal measurements of the face |
US10080861B2 (en) | 2015-06-14 | 2018-09-25 | Facense Ltd. | Breathing biofeedback eyeglasses |
US10130299B2 (en) | 2015-06-14 | 2018-11-20 | Facense Ltd. | Neurofeedback eyeglasses |
US10113913B2 (en) | 2015-10-03 | 2018-10-30 | Facense Ltd. | Systems for collecting thermal measurements of the face |
US10092232B2 (en) | 2015-06-14 | 2018-10-09 | Facense Ltd. | User state selection based on the shape of the exhale stream |
US10523852B2 (en) | 2015-06-14 | 2019-12-31 | Facense Ltd. | Wearable inward-facing camera utilizing the Scheimpflug principle |
US10085685B2 (en) | 2015-06-14 | 2018-10-02 | Facense Ltd. | Selecting triggers of an allergic reaction based on nasal temperatures |
US10076270B2 (en) | 2015-06-14 | 2018-09-18 | Facense Ltd. | Detecting physiological responses while accounting for touching the face |
US9968264B2 (en) | 2015-06-14 | 2018-05-15 | Facense Ltd. | Detecting physiological responses based on thermal asymmetry of the face |
US10216981B2 (en) | 2015-06-14 | 2019-02-26 | Facense Ltd. | Eyeglasses that measure facial skin color changes |
US10064559B2 (en) | 2015-06-14 | 2018-09-04 | Facense Ltd. | Identification of the dominant nostril using thermal measurements |
US10136852B2 (en) | 2015-06-14 | 2018-11-27 | Facense Ltd. | Detecting an allergic reaction from nasal temperatures |
US10045699B2 (en) | 2015-06-14 | 2018-08-14 | Facense Ltd. | Determining a state of a user based on thermal measurements of the forehead |
US10165949B2 (en) | 2015-06-14 | 2019-01-01 | Facense Ltd. | Estimating posture using head-mounted cameras |
US10130308B2 (en) | 2015-06-14 | 2018-11-20 | Facense Ltd. | Calculating respiratory parameters from thermal measurements |
US10151636B2 (en) | 2015-06-14 | 2018-12-11 | Facense Ltd. | Eyeglasses having inward-facing and outward-facing thermal cameras |
US10154810B2 (en) | 2015-06-14 | 2018-12-18 | Facense Ltd. | Security system that detects atypical behavior |
US10130261B2 (en) | 2015-06-14 | 2018-11-20 | Facense Ltd. | Detecting physiological responses while taking into account consumption of confounding substances |
US10136856B2 (en) | 2016-06-27 | 2018-11-27 | Facense Ltd. | Wearable respiration measurements system |
US10076250B2 (en) | 2015-06-14 | 2018-09-18 | Facense Ltd. | Detecting physiological responses based on multispectral data from head-mounted cameras |
US10045737B2 (en) | 2015-06-14 | 2018-08-14 | Facense Ltd. | Clip-on device with inward-facing cameras |
US10159411B2 (en) | 2015-06-14 | 2018-12-25 | Facense Ltd. | Detecting irregular physiological responses during exposure to sensitive data |
KR20180021086A (ko) | 2015-06-30 | 2018-02-28 | 쓰리엠 이노베이티브 프로퍼티즈 컴파니 | 조명기 |
US10230805B2 (en) | 2015-09-24 | 2019-03-12 | International Business Machines Corporation | Determining and displaying user awareness of information |
US20170103424A1 (en) * | 2015-10-13 | 2017-04-13 | Mastercard International Incorporated | Systems and methods for generating mood-based advertisements based on consumer diagnostic measurements |
US10775882B2 (en) * | 2016-01-21 | 2020-09-15 | Microsoft Technology Licensing, Llc | Implicitly adaptive eye-tracking user interface |
US10602214B2 (en) | 2017-01-19 | 2020-03-24 | International Business Machines Corporation | Cognitive television remote control |
US10304447B2 (en) * | 2017-01-25 | 2019-05-28 | International Business Machines Corporation | Conflict resolution enhancement system |
US10922566B2 (en) | 2017-05-09 | 2021-02-16 | Affectiva, Inc. | Cognitive state evaluation for vehicle navigation |
US11601715B2 (en) | 2017-07-06 | 2023-03-07 | DISH Technologies L.L.C. | System and method for dynamically adjusting content playback based on viewer emotions |
EP3688997A4 (en) * | 2017-09-29 | 2021-09-08 | Warner Bros. Entertainment Inc. | PRODUCTION AND CONTROL OF CINEMATIC CONTENT IN RESPONSE TO A USER'S EMOTIONAL STATE |
US10171877B1 (en) | 2017-10-30 | 2019-01-01 | Dish Network L.L.C. | System and method for dynamically selecting supplemental content based on viewer emotions |
US10225621B1 (en) | 2017-12-20 | 2019-03-05 | Dish Network L.L.C. | Eyes free entertainment |
TWI691941B (zh) * | 2018-02-13 | 2020-04-21 | 林俊毅 | 邏輯思考能力之檢測系統及其方法 |
US11048921B2 (en) * | 2018-05-09 | 2021-06-29 | Nviso Sa | Image processing system for extracting a behavioral profile from images of an individual specific to an event |
CN110464365B (zh) * | 2018-05-10 | 2022-08-12 | 深圳先进技术研究院 | 一种关注度确定方法、装置、设备和存储介质 |
WO2019220428A1 (en) * | 2018-05-16 | 2019-11-21 | Moodify Ltd. | Emotional state monitoring and modification system |
KR20210093281A (ko) * | 2018-11-09 | 2021-07-27 | 아킬리 인터랙티브 랩스 인크. | 정서 장애의 검사 및 치료를 위한 얼굴 표정 검출 |
US11887383B2 (en) | 2019-03-31 | 2024-01-30 | Affectiva, Inc. | Vehicle interior object management |
CN110432915B (zh) * | 2019-08-02 | 2022-03-25 | 秒针信息技术有限公司 | 一种评估信息流创意的方法及装置 |
US11769056B2 (en) | 2019-12-30 | 2023-09-26 | Affectiva, Inc. | Synthetic data for neural network training using vectors |
WO2021217188A1 (en) * | 2020-04-23 | 2021-10-28 | Ahmad Hassan Abu Elreich | Methods, systems, apparatuses, and devices for facilitating a driver to advertise products to passengers |
US20220118218A1 (en) * | 2020-10-15 | 2022-04-21 | Bioserenity | Systems and methods for remotely controlled therapy |
CN112535479B (zh) * | 2020-12-04 | 2023-07-18 | 中国科学院深圳先进技术研究院 | 一种情绪加工倾向的确定方法及相关产品 |
CA3231733A1 (en) * | 2021-09-13 | 2023-03-16 | Benjamin Simon Thompson | System and method for monitoring human-device interactions |
Family Cites Families (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3827789A (en) * | 1971-01-08 | 1974-08-06 | Biometrics Inc | Monitoring devices |
US5243517A (en) * | 1988-08-03 | 1993-09-07 | Westinghouse Electric Corp. | Method and apparatus for physiological evaluation of short films and entertainment materials |
US6292688B1 (en) * | 1996-02-28 | 2001-09-18 | Advanced Neurotechnologies, Inc. | Method and apparatus for analyzing neurological response to emotion-inducing stimuli |
US7120880B1 (en) * | 1999-02-25 | 2006-10-10 | International Business Machines Corporation | Method and system for real-time determination of a subject's interest level to media content |
US7593952B2 (en) * | 1999-04-09 | 2009-09-22 | Soll Andrew H | Enhanced medical treatment system |
US6120461A (en) * | 1999-08-09 | 2000-09-19 | The United States Of America As Represented By The Secretary Of The Army | Apparatus for tracking the human eye with a retinal scanning display, and method thereof |
US7448000B2 (en) * | 2000-03-17 | 2008-11-04 | Schlucktronix Llc | Methods and devices for reconstructing visual stimuli observed through browser-based interfaces over time |
US6975988B1 (en) * | 2000-11-10 | 2005-12-13 | Adam Roth | Electronic mail method and system using associated audio and visual techniques |
US6385590B1 (en) * | 2000-11-22 | 2002-05-07 | Philip Levine | Method and system for determining the effectiveness of a stimulus |
US20020133347A1 (en) * | 2000-12-29 | 2002-09-19 | Eberhard Schoneburg | Method and apparatus for natural language dialog interface |
GB0101794D0 (en) * | 2001-01-24 | 2001-03-07 | Central Research Lab Ltd | Monitoring responses to visual stimuli |
US7027621B1 (en) * | 2001-03-15 | 2006-04-11 | Mikos, Ltd. | Method and apparatus for operator condition monitoring and assessment |
US7113916B1 (en) * | 2001-09-07 | 2006-09-26 | Hill Daniel A | Method of facial coding monitoring for the purpose of gauging the impact and appeal of commercially-related stimuli |
US7315725B2 (en) * | 2001-10-26 | 2008-01-01 | Concordant Rater Systems, Inc. | Computer system and method for training certifying or monitoring human clinical raters |
US7110582B1 (en) * | 2001-11-09 | 2006-09-19 | Hay Sam H | Method for determining binocular balance and disorders of binocularity of an individual or clinical groups of individuals |
US6659611B2 (en) * | 2001-12-28 | 2003-12-09 | International Business Machines Corporation | System and method for eye gaze tracking using corneal image mapping |
WO2003100560A2 (en) * | 2002-05-21 | 2003-12-04 | Solutions 9, Llc | Learning system |
US7306337B2 (en) * | 2003-03-06 | 2007-12-11 | Rensselaer Polytechnic Institute | Calibration-free gaze tracking under natural head movement |
GB0307077D0 (en) * | 2003-03-27 | 2003-04-30 | Univ Strathclyde | A stereoscopic display |
US7401920B1 (en) * | 2003-05-20 | 2008-07-22 | Elbit Systems Ltd. | Head mounted eye tracking and display system |
EP1691670B1 (en) * | 2003-11-14 | 2014-07-16 | Queen's University At Kingston | Method and apparatus for calibration-free eye tracking |
US7963652B2 (en) * | 2003-11-14 | 2011-06-21 | Queen's University At Kingston | Method and apparatus for calibration-free eye tracking |
US20050234779A1 (en) * | 2003-11-17 | 2005-10-20 | Leo Chiu | System for dynamic AD selection and placement within a voice application accessed through an electronic information pace |
US7302475B2 (en) * | 2004-02-20 | 2007-11-27 | Harris Interactive, Inc. | System and method for measuring reactions to product packaging, advertising, or product features over a computer-based network |
GB2412431B (en) * | 2004-03-25 | 2007-11-07 | Hewlett Packard Development Co | Self-calibration for an eye tracker |
US7963915B2 (en) * | 2004-10-15 | 2011-06-21 | Baxano, Inc. | Devices and methods for tissue access |
US7689499B1 (en) * | 2005-02-24 | 2010-03-30 | Trading Technologies International, Inc. | System and method for displaying market data in an electronic trading environment |
JP2009508553A (ja) * | 2005-09-16 | 2009-03-05 | アイモーションズ−エモーション テクノロジー エー/エス | 眼球性質を解析することで、人間の感情を決定するシステムおよび方法 |
US20070150916A1 (en) * | 2005-12-28 | 2007-06-28 | James Begole | Using sensors to provide feedback on the access of digital content |
US7747068B1 (en) * | 2006-01-20 | 2010-06-29 | Andrew Paul Smyth | Systems and methods for tracking the eye |
-
2007
- 2007-03-13 JP JP2009510570A patent/JP2009530071A/ja not_active Withdrawn
- 2007-03-13 EP EP20070873991 patent/EP2007271A2/en not_active Withdrawn
- 2007-03-13 CA CA 2639125 patent/CA2639125A1/en not_active Abandoned
- 2007-03-13 WO PCT/IB2007/004587 patent/WO2008129356A2/en active Application Filing
- 2007-03-13 US US11/685,552 patent/US20070265507A1/en not_active Abandoned
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10896431B2 (en) | 2009-02-27 | 2021-01-19 | Forbes Consulting Group, Llc | Methods and systems for assessing psychological characteristics |
JP2013061906A (ja) * | 2011-09-15 | 2013-04-04 | Osaka Kyoiku Univ | 顔分析装置、顔分析方法、及びプログラム |
JP2015518402A (ja) * | 2012-04-24 | 2015-07-02 | ウニベルシタ デ バルセローナ | 注意測定方法 |
JP2016504089A (ja) * | 2012-12-11 | 2016-02-12 | クライン、アミKLIN, Ami | エンゲージメント及び知覚刺激顕著性のマーカーとして瞬き抑制を検出するためのシステム及び方法 |
JP2015039487A (ja) * | 2013-08-21 | 2015-03-02 | 大日本印刷株式会社 | 生理指標を用いる視線分析システムおよび方法 |
KR101734845B1 (ko) * | 2015-11-13 | 2017-05-15 | 가톨릭대학교 산학협력단 | 시각 분석을 이용하는 감정 분류 장치 및 그 방법 |
JP2020513253A (ja) * | 2016-11-10 | 2020-05-14 | ニューロトラック テクノロジーズ,インク. | 認識能力の分析のために、画像取得デバイスを人間のユーザーに関連付けるための方法およびシステム |
CN109863502A (zh) * | 2016-11-10 | 2019-06-07 | 纽诺创科技术公司 | 将图像拍摄设备与人类用户相关联以分析认知能力的方法和系统 |
US11163359B2 (en) | 2016-11-10 | 2021-11-02 | Neurotrack Technologies, Inc. | Method and system for correlating an image capturing device to a human user for analyzing gaze information associated with cognitive performance |
US11249548B2 (en) | 2016-11-10 | 2022-02-15 | Neurotrack Technologies, Inc. | Method and system for correlating an image capturing device to a human user for analyzing gaze information associated with cognitive performance |
US11445955B2 (en) | 2016-11-10 | 2022-09-20 | Neurotrack Technologies, Inc. | Method and system for correlating an image capturing device to a human user for analysis of cognitive performance |
JP2021082114A (ja) * | 2019-11-21 | 2021-05-27 | 株式会社スワローインキュベート | 情報処理方法、情報処理装置、及び制御プログラム |
WO2021100214A1 (ja) * | 2019-11-21 | 2021-05-27 | 株式会社スワローインキュベート | 情報処理方法、情報処理装置、及び制御プログラム |
JP6802549B1 (ja) * | 2020-08-17 | 2020-12-16 | 株式会社スワローインキュベート | 情報処理方法、情報処理装置、及び制御プログラム |
JP2021082249A (ja) * | 2020-08-17 | 2021-05-27 | 株式会社スワローインキュベート | 情報処理方法、情報処理装置、及び制御プログラム |
Also Published As
Publication number | Publication date |
---|---|
WO2008129356A3 (en) | 2009-02-05 |
WO2008129356A2 (en) | 2008-10-30 |
US20070265507A1 (en) | 2007-11-15 |
EP2007271A2 (en) | 2008-12-31 |
CA2639125A1 (en) | 2007-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009530071A (ja) | 視覚的注意および感情反応の検出表示システム | |
US8986218B2 (en) | System and method for calibrating and normalizing eye data in emotional testing | |
US8535060B2 (en) | System and method for detecting a specific cognitive-emotional state in a subject | |
CN108078574B (zh) | 一种区别人与智能机器的方法 | |
Katona | Analyse the readability of LINQ code using an eye-tracking-based evaluation | |
US20070066916A1 (en) | System and method for determining human emotion by analyzing eye properties | |
US11301775B2 (en) | Data annotation method and apparatus for enhanced machine learning | |
WO2007135796A1 (ja) | コンテンツに対する利用者応答を評価する制御装置 | |
JP6146760B2 (ja) | 序列化装置、序列化方法及びプログラム | |
KR20190041081A (ko) | 인지장애 진단을 위한 vr기반 인지능력 평가시스템 | |
WO2020139970A1 (en) | Assessment of risk for major depressive disorder from human electroencephalography using machine learned model | |
Kovesdi et al. | Application of eye tracking for measurement and evaluation in human factors studies in control room modernization | |
CN114209324A (zh) | 基于图像视觉认知的心理测评数据获取方法及vr系统 | |
US20130262182A1 (en) | Predicting purchase intent based on affect | |
CN114822749A (zh) | 一种测评结果可视化心理测评方法和系统 | |
EP3801252A1 (en) | Technology adapted to enable improved collection of involuntary eyelid movement parameters, including collection of eyelid movement parameters to support analysis of neurological factors | |
CN114052736B (zh) | 认知功能的评估系统和方法 | |
Qin et al. | An EEG-based mental workload evaluation for AR head-mounted display use in construction assembly tasks | |
JP6739805B2 (ja) | 情報処理装置、プログラム | |
Oliveira et al. | Usability testing of a respiratory interface using computer screen and facial expressions videos | |
CN108416542A (zh) | 基于生理传感技术的体验度评估系统及方法和计算机可读存储介质 | |
CN215503045U (zh) | 一种基于视觉感受的认知心理感受器 | |
De Bruin | Automated usability analysis and visualisation of eye tracking data | |
Amer | Eye-tracking study: which experimental design is better suited for cognitive tasks? | |
Syed et al. | An Exploratory Study to Understand the Phenomena of Eye-Tracking Technology: A Case of the Education Environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20100601 |