JP2018521381A - Emotion detection system - Google Patents

Emotion detection system Download PDF

Info

Publication number
JP2018521381A
JP2018521381A JP2017557112A JP2017557112A JP2018521381A JP 2018521381 A JP2018521381 A JP 2018521381A JP 2017557112 A JP2017557112 A JP 2017557112A JP 2017557112 A JP2017557112 A JP 2017557112A JP 2018521381 A JP2018521381 A JP 2018521381A
Authority
JP
Japan
Prior art keywords
subject
emotion detection
data set
image data
stimulus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017557112A
Other languages
Japanese (ja)
Other versions
JP6752819B2 (en
Inventor
ナタン,オフィル
ナブワニ,アヨーブ
Original Assignee
インテル コーポレイション
インテル コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インテル コーポレイション, インテル コーポレイション filed Critical インテル コーポレイション
Publication of JP2018521381A publication Critical patent/JP2018521381A/en
Application granted granted Critical
Publication of JP6752819B2 publication Critical patent/JP6752819B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/95Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/179Human faces, e.g. facial parts, sketches or expressions metadata assisted face recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephonic Communication Services (AREA)

Abstract

本明細書に開示される感情検出システムは、監視される対象のプライバシー及びセキュリティを能動的に保護する。この保護の提供は、上記システムを、従来の感情検出器から区別する。いくつかの例において、自己充足型の感情検出装置が、対象の感情状態を記述した匿名データを感情検出システム内の他の装置に提供すると同時に、対象のアイデンティティを保護する。こうした例において、感情検出装置は、装置により取得された生イメージデータをもっぱら装置内のカプセル化された記憶場所に隔離することによって、対象のアイデンティティを保護する。匿名データを提供するために、感情検出装置は、最初、生イメージデータを処理して対象の顔のイメージ内の目印点を識別する。次に、感情検出装置は、目印点を汎用顔に正規化し、正規化された目印点を記述した匿名データセットを後続処理のために他の装置に送信する。The emotion detection system disclosed herein actively protects the privacy and security of monitored objects. This provision of protection distinguishes the system from conventional emotion detectors. In some examples, a self-contained emotion detection device protects the identity of the subject while simultaneously providing anonymous data describing the subject's emotional state to other devices in the emotion detection system. In such an example, the emotion detection device protects the identity of the subject by isolating the raw image data acquired by the device exclusively into an encapsulated storage location within the device. To provide anonymous data, the emotion detection device first processes the raw image data to identify landmark points in the target face image. Next, the emotion detection device normalizes the landmark point to a general-purpose face, and transmits an anonymous data set describing the normalized landmark point to another device for subsequent processing.

Description

従来の感情検出器は、事象に対する人の反応を記述したデータを取得し、記録する。従来の感情検出器は、さらに、記録されたデータを解析して、事象に対する人の感情的な反応を解釈する。感情検出器により記録、解析、及び解釈される反応には、人の発話、顔の表情、生理学的信号、装置使用パターン等が含まれる。有効であるために、多くの感情検出器は、人が閾レベルの活動を提示することを必要とする。例えば、人の発話に基づく感情検出器は、人が1つ以上の検出可能な表現を発することを必要とする。同様に、装置使用パターンに基づく感情検出器は、人が物体(例えば、マウス又はキーボード)を操作してベースライン使用パターンを確立することを必要とする。他の感情検出器では、センサが有効であるように人と物理的に接触することを必要とする。例えば、人の生理学的状態に基づく感情検出器は、人が1つ以上のセンサ(例えば、心電図電極、皮膚コンダクタンスセンサ等)を装着することを必要とする。従来の感情検出器の使用を通してもたらされる利点には、システムにより生成された事象に対する人の反応を持続的に記録し、後に解析するシステムの能力が含まれる。   Conventional emotion detectors acquire and record data describing a person's response to an event. Conventional emotion detectors further analyze the recorded data to interpret a person's emotional response to the event. Responses recorded, analyzed and interpreted by emotion detectors include human speech, facial expressions, physiological signals, device usage patterns, and the like. To be effective, many emotion detectors require a person to present a threshold level of activity. For example, an emotion detector based on a person's utterance requires the person to emit one or more detectable expressions. Similarly, emotion detectors based on device usage patterns require a person to manipulate an object (eg, a mouse or keyboard) to establish a baseline usage pattern. Other emotion detectors require physical contact with a person for the sensor to be effective. For example, an emotion detector based on a person's physiological state requires that the person wear one or more sensors (eg, an electrocardiogram electrode, skin conductance sensor, etc.). Benefits provided through the use of conventional emotion detectors include the system's ability to continuously record and later analyze a person's response to events generated by the system.

著作権保護対象資料の通知
本特許文献内の資料の一部は、米国及び他国の著作権法下で著作権保護を受ける。著作権の所有者は、特許文献又は特許開示が米国特許商標庁の公的に利用可能なファイル又は記録において出現する限り、何人によるそのファクシミリ複製にも反論を有さないが、そうでない場合は何であれすべての著作権を留保する。著作権所有者はここで、37 C.F.R.§1.14に従うその権利を限定なく含め、本特許文献を秘密に維持させるその権利のいずれも放棄しない。
Notification of materials subject to copyright protection Some of the materials in this patent document are subject to copyright protection under the copyright laws of the United States and other countries. The copyright owner has no objection to its facsimile reproduction by any person, so long as the patent document or patent disclosure appears in a publicly available file or record of the United States Patent and Trademark Office, otherwise All copyrights are reserved. The copyright owner hereby does not waive any of its rights to keep this patent document confidential, including without limitation its right to comply with 37 CFR §1.14.

本開示の一実施形態に従い構成された感情検出装置を示す。1 illustrates an emotion detection device configured in accordance with an embodiment of the present disclosure. 本開示の一実施形態に従い構成された感情検出処理を示す。7 illustrates emotion detection processing configured in accordance with an embodiment of the present disclosure. 本開示の一実施形態に従い構成された感情検出処理を実行する感情検出装置を示す。1 illustrates an emotion detection device that performs an emotion detection process configured in accordance with an embodiment of the present disclosure. 本開示の一実施形態に従い構成された感情検出システムを示す。1 illustrates an emotion detection system configured in accordance with an embodiment of the present disclosure. 本開示の一実施形態に従い構成された感情監視処理を示す。FIG. 6 illustrates emotion monitoring processing configured in accordance with an embodiment of the present disclosure. FIG. 本開示の一実施形態に従い構成された感情監視処理を実行する感情検出システムを示す。1 illustrates an emotion detection system that performs emotion monitoring processing configured in accordance with an embodiment of the present disclosure. 本開示の一実施形態に従い構成されたコンピューティングシステムを示す。1 illustrates a computing system configured in accordance with one embodiment of the present disclosure. 本開示の一実施形態に従い構成されたモバイルコンピューティングシステムを示す。1 illustrates a mobile computing system configured in accordance with one embodiment of the present disclosure.

本明細書に開示される感情検出システムは、監視される対象(subjects)のプライバシー及びセキュリティを能動的に保護する。この保護の提供は、本明細書に説明されるシステムを、従来の感情検出器から区別する。いくつかの例示的な実施形態において、自己充足型の感情検出装置が、対象の感情状態を記述した匿名データを感情検出システム内の他の装置に提供すると同時に、対象のアイデンティティ(identity)を保護する。こうした例において、感情検出装置は、装置により取得された生(raw)イメージデータをもっぱら装置内のカプセル化された記憶場所内に隔離することにより、対象のアイデンティティを保護する。匿名データを提供するために、感情検出装置は、最初、生イメージデータを処理して対象の顔のイメージ内の目印点を識別する。次に、感情検出装置は、目印点を汎用顔(generic face)に正規化し、正規化された目印点を記述した匿名データセットを後続処理のために他の装置に送信する。いくつかの例において、上記他の装置は、対象に提示される刺激を記述した情報と関連して、匿名データセットを処理して、対象の感情状態を識別し、記録する。上記刺激には、非インタラクティブコンテンツ(例えば、本、テレビジョン、ムービー、ラジオ番組、音楽、広告等)を含むことができる。刺激は、また、インタラクティブコンテンツ(例えば、ゲーム、ショッピング等)を含んでもよい。いくつかの例において、感情検出システム内の他の装置は、刺激を調整すること(例えば、価格、プロット、音楽ジャンル等を調整すること)により、対象の感情状態に影響するよう試みる。本明細書に提供される様々な例示的実施形態が、顔のイメージを参照するが、他のターゲット特徴が、対象の感情状態を評価するのに同様に使用でき、いくつか例を挙げると、例えば、音声記録、身体姿勢及び/又はジェスチャイメージ、並びにバイオメトリックデータ、例えば心拍及び血圧などである。十分理解されるであろうように、本明細書に提供される手法を使用して、任意のこうしたターゲット生データを装置内にカプセル化し、そのデータ内の目印点を識別し、目印点を汎用モデル(例えば、汎用音声を用いてユーザの抑揚と高くなった音程とを繰り返す汎用音声モデル、又は、汎用身体を用いてユーザの身体言語及び/又はジェスチャを繰り返す汎用胴部モデルなど)に正規化することができる。いずれの上記例示的場合においても、正規化された目印点を記述した匿名データセットを、後続処理のために他の装置に送信することができる。   The emotion detection system disclosed herein actively protects the privacy and security of monitored subjects. This provision of protection distinguishes the system described herein from conventional emotion detectors. In some exemplary embodiments, a self-contained emotion detector provides anonymous data describing the subject's emotional state to other devices in the emotion detection system while protecting the subject's identity To do. In these examples, the emotion detection device protects the identity of the subject by isolating the raw image data acquired by the device exclusively within an encapsulated storage location within the device. To provide anonymous data, the emotion detection device first processes the raw image data to identify landmark points in the target face image. Next, the emotion detection device normalizes the landmark point to a generic face, and transmits an anonymous data set describing the normalized landmark point to another device for subsequent processing. In some examples, the other device processes an anonymous data set to identify and record the emotional state of the subject in connection with information describing the stimulus presented to the subject. The stimuli can include non-interactive content (eg, books, television, movies, radio programs, music, advertisements, etc.). Stimuli may also include interactive content (eg, games, shopping, etc.). In some examples, other devices in the emotion detection system attempt to influence the subject's emotional state by adjusting stimuli (eg, adjusting prices, plots, music genres, etc.). While various exemplary embodiments provided herein refer to facial images, other target features can be used as well to assess a subject's emotional state, to name a few examples: For example, voice recording, body posture and / or gesture images, and biometric data such as heart rate and blood pressure. As will be appreciated, the techniques provided herein can be used to encapsulate any such target raw data within the device, identify landmark points within that data, Normalized to a model (for example, a general-purpose speech model that repeats the user's inflection and raised pitch using general-purpose speech, or a general-purpose torso model that repeats the user's body language and / or gesture using a general-purpose body) can do. In any of the above exemplary cases, the anonymous data set describing the normalized landmarks can be sent to other devices for subsequent processing.

上記例示的態様及び実施形態のさらに他の態様、実施形態、及び利点が、下記で詳細に論じられる。さらに、前述の情報及び下記の詳細な説明の双方は、様々な態様及び実施形態の単に例示であり、請求される態様及び実施形態の性質及び特性を理解するための概観又はフレームワークを提供するよう意図される。「一実施形態」、「他の実施形態」、「一例」、「いくつかの実施形態」、「いくつかの例」、「代替的な一実施形態」、「様々な実施形態」、「1つの実施形態」、「少なくとも1つの実施形態」、「別の実施形態」、「この及び他の実施形態」、又は同様のものに対する参照は、必ずしも相互排他的でなく、実施形態又は例に関連して説明される特定の特徴、構造、又は特性が少なくとも1つの実施形態又は例に含まれ得ることを示すよう意図される。本明細書におけるこうした用語の出現は、必ずしもすべて同一の実施形態又は例を参照しない。本明細書に開示される任意の実施形態又は例が、任意の他の実施形態又は例と組み合わせられてもよい。   Still other aspects, embodiments, and advantages of the above exemplary aspects and embodiments are discussed in detail below. Moreover, both the foregoing information and the following detailed description are merely exemplary of various aspects and embodiments and provide an overview or framework for understanding the nature and characteristics of the claimed aspects and embodiments. Intended to be. “One Embodiment”, “Other Embodiments”, “Example”, “Some Embodiments”, “Some Examples”, “Alternative Embodiments”, “Various Embodiments”, “1 References to “one embodiment”, “at least one embodiment”, “another embodiment”, “this and other embodiments”, or the like are not necessarily mutually exclusive and relate to an embodiment or example. It is intended that any particular feature, structure, or characteristic described as such may be included in at least one embodiment or example. The appearances of such terms herein do not necessarily all refer to the same embodiment or example. Any embodiment or example disclosed herein may be combined with any other embodiment or example.

さらに、本明細書に用いられる語法及び用語は説明を目的としており、限定とみなされるべきではない。本明細書で単数において参照されるシステム及び方法の例、実施形態、コンポーネント、要素、又は動作に対するいかなる参照も、複数を含む実施形態をさらに包含することがあり、本明細書における任意の実施形態、コンポーネント、要素、又は動作に対する複数におけるいかなる参照も、単数のみ含む実施形態をさらに包含することがある。単数又は複数形における参照は、現在開示されるシステム若しくは方法、そのコンポーネント、動作、又は要素を限定するようには意図されない。本明細書における「含める」、「含む」、「有する」、「含有する」、「伴う」、及びこれらの派生語の使用は、その後に列挙されるアイテム及びその均等物並びにさらなるアイテムを包含するよう意図される。「又は」に対する参照は包括的とみなされることがあり、したがって、「又は」を用いて説明されるいかなる用語も、説明される用語のうち1つ、1つより多く、及びすべてのうち、任意のものを示すことがある。さらに、本文献と本明細書において参照により援用される文献との間で用語の使用が矛盾する事象においては、援用参照における用語使用が本文献のそれに対する補足であり、共存できない矛盾について、本文献における用語使用がコントロールする。   Moreover, the terminology and terminology used herein is for the purpose of description and should not be considered limiting. Any reference to an example system, method, embodiment, component, element, or operation referred to herein in the singular may further include the plural embodiment and any embodiment herein. Any reference to a plurality of components, elements, or operations may further include embodiments that include the singular. References in the singular or plural are not intended to limit the presently disclosed system or method, its components, operations, or elements. The use of “include”, “include”, “have”, “contain”, “accompany”, and derivatives thereof herein includes the items listed thereafter and equivalents thereof as well as further items. Intended to be. References to “or” may be considered inclusive, and thus any term described using “or” may be any one, more than one, and all of the terms described. May indicate. In addition, in the event that the use of a term contradicts between this document and a document incorporated by reference herein, the use of the term in the incorporated reference is a supplement to that of this document and The use of terms in the literature controls.

概要
前に説明されたように、従来の感情検出器はいくつかの恩恵を提供するが、適用に依存して、さらに欠点にも悩まされる。例えば、プライバシーに関して、大抵の人間の対象は、一定の見張りに晒されたくはない。このことは、見張りが上記人間の対象の正確な肖像及び振る舞いを持続的に記録する場合、特に当てはまる。さらに、大抵の人間の対象は、見張り記録が誤使用され、盗まれ、あるいはその他の方法で自分達の許可なく使用されることについて、懸念する。対比を目的として、大抵の人間のユーザは、カメラに自分達のあらゆる動きを連続的に記録させることに反対し、自身を表現すること又は自分達の感情反応を匿名的に解析されることに反対しない。
Overview As explained before, conventional emotion detectors offer several benefits, but also suffer from drawbacks depending on the application. For example, with respect to privacy, most human subjects do not want to be exposed to a certain lookout. This is especially true if the lookout continuously records the exact portrait and behavior of the human object. In addition, most human subjects are concerned about the lookout records being misused, stolen, or otherwise used without their permission. For contrast purposes, most human users oppose having the camera continuously record all their movements, expressing themselves or analyzing their emotional responses anonymously. I do not object.

ゆえに、本開示のいくつかの例に従い、感情検出装置及びシステムが提供され、これにおいて、対象の感情状態を示す出力データは匿名である(すなわち、出力データは対象の個人アイデンティティを示さず、そのため、例えば、対象の実際のアイデンティティは出力データに含まれない)。上記感情検出装置及びシステムは、例えばデータを汎用対象のモデルに正規化することにより、匿名データを生成することによって、少なくとも従来の感情検出器とは異なる。いくつかのこうした例において、この匿名データは、感情検出装置により提供される唯一の出力である。上記例において、感情検出装置は、匿名データを提供する前に、対象を識別するのに使用できる情報(例えば、対象の顔、音声、身体姿勢及びジェスチャリング、又は他の検出可能な、識別する特質を記述した情報)を削除する。こうして、上記例は、監視される対象のプライバシー及びセキュリティに対するさらなる保護を提供する。   Thus, according to some examples of the present disclosure, an emotion detection apparatus and system are provided, in which output data indicating a subject's emotional state is anonymous (ie, the output data does not indicate the subject's personal identity, and therefore For example, the actual identity of the subject is not included in the output data). The emotion detection device and system differs from at least a conventional emotion detector by generating anonymous data, for example, by normalizing the data to a general purpose model. In some such examples, this anonymous data is the only output provided by the emotion detection device. In the above example, the emotion detection device may use information that can be used to identify the subject (eg, the subject's face, voice, body posture and gesturing, or other detectable identification before providing anonymous data). Delete the information describing the attributes). Thus, the above example provides further protection for the privacy and security of the monitored object.

いくつかの例において、感情検出装置は、さらなる特徴を含む感情検出システムに組み込まれる。例えば、いくつかの例が、1つ以上の感情検出装置と、該感情検出装置により送信される匿名データを解析する1つ以上のリモート装置と、上記感情検出装置を上記リモート装置に結合するネットワークと、を含む感情検出システムを含む。上記例において、リモート装置は、匿名データを受信し、匿名データをマイニングして個々の対象の感情状態を分類する。次いで、個々の感情状態を示す感情識別子が、後続処理のためにセキュアに記憶される。   In some examples, the emotion detection device is incorporated into an emotion detection system that includes additional features. For example, some examples include one or more emotion detection devices, one or more remote devices that analyze anonymous data transmitted by the emotion detection devices, and a network that couples the emotion detection devices to the remote devices. Including an emotion detection system. In the above example, the remote device receives anonymous data, mine the anonymous data, and classifies the emotional state of each subject. An emotion identifier indicating the individual emotion state is then securely stored for subsequent processing.

いくつかの例において、感情検出システムは、1つ以上の刺激コントローラをさらに含む。上記例において、リモート装置は、1つ以上の刺激コントローラの動作を自動的に制御するように構成できる。この制御は、匿名データ又は感情識別子の解析によって起こせる。例えば、いくつかの例において、リモート装置は、対象の匿名データセットを解析し、匿名データに関連付けられる実行すべき応答的アクションを識別する。応答的アクションを識別することに対する応答で、リモート装置は、上記応答的アクションを実行する。例えば、リモート装置が、第1の刺激に関連して否定的感情状態を検出する場合、リモート装置は、第2の刺激を指定する応答的アクションを識別することができる。こうした応答的アクションを識別することに応答して、リモート装置は、第2の刺激を生成するように、刺激メッセージを生成し、少なくとも1つの刺激コントローラに送信することができる。この例において、刺激メッセージを受信することに応答して、刺激コントローラは、対象に第2の刺激を提示する。   In some examples, the emotion detection system further includes one or more stimulus controllers. In the above example, the remote device can be configured to automatically control the operation of one or more stimulus controllers. This control can be caused by analysis of anonymous data or emotion identifiers. For example, in some examples, the remote device analyzes the subject anonymous data set and identifies responsive actions to be performed that are associated with the anonymous data. In response to identifying the responsive action, the remote device performs the responsive action. For example, if the remote device detects a negative emotional state associated with the first stimulus, the remote device can identify a responsive action that specifies the second stimulus. In response to identifying such responsive action, the remote device can generate a stimulus message and send it to the at least one stimulus controller to generate a second stimulus. In this example, in response to receiving the stimulus message, the stimulus controller presents a second stimulus to the subject.

本明細書に開示される上記及び他の例は、従来の感情検出器を超える様々なさらなる利点を提供する。例えば、本明細書に説明されるいくつかの例において、対象の実際の撮影は行われず、イメージデータは永続的に記憶されず、生イメージデータが、汎用目的プログラマブル装置(例えば、パーソナルコンピュータ、ラップトップ、スマートフォン、タブレット等)によってでなく特化された装置(例えば、感情検出装置)によって解析される。従来の感情検出器に対する対比を目的として、上記手法は、生イメージデータがプライバシー及びセキュリティ脅威により晒されるところのソフトウェアスタックの上位レイヤにおいて、汎用目的プログラマブル装置が生イメージデータを解析することを防止する。他の例において、感情検出装置は、入力データが取得された後、対象のアイデンティティを記述した入力データを取得するのに使用されるカメラ、マイクロフォン、又は他の入力を非アクティブ化する。こうして、上記例は、入力データ及び出力データに対して承認されていないアクセスを得ることの困難さを増大させる。さらに、いくつかの例によれば、感情検出システムは、下記でさらに詳細に説明されるように、匿名データを効率的に利用して、多くの価値あるアクションを達成する。   The above and other examples disclosed herein provide various additional advantages over conventional emotion detectors. For example, in some examples described herein, actual shooting of an object is not performed, image data is not permanently stored, and raw image data is stored on a general purpose programmable device (eg, a personal computer, a wrap Analysis by a specialized device (for example, emotion detection device), not by a top, a smartphone, a tablet, or the like. For purposes of contrast to traditional emotion detectors, the above approach prevents general purpose programmable devices from analyzing raw image data in the upper layers of the software stack where the raw image data is exposed to privacy and security threats. . In another example, the emotion detection device deactivates a camera, microphone, or other input used to acquire input data describing the subject's identity after the input data is acquired. Thus, the above example increases the difficulty of obtaining unauthorized access to input data and output data. Moreover, according to some examples, the emotion detection system efficiently utilizes anonymous data to achieve many valuable actions, as will be described in more detail below.

より特化された一例において、感情検出システムは、顔のイメージを用いて対象の感情状態を監視する。この感情検出システムは対象にとって都合よく、なぜならば、それがあまり侵襲的でなく、他タイプの感情検出システムよりもより低い閾値の対象活動を必要とするからである。さらに、この感情検出システムは、自己完結型のユニタリな(unitary)感情検出装置内でイメージデータを捕捉し、解析し、削除することにより、自分達の肖像の承認されていない記録又は使用に関する対象の懸念に対処する。こうした感情検出装置の1つの例、プライベート感情認識センサ(private emotion recognition sensor)(PERS)が、下記でさらに説明される。   In a more specialized example, the emotion detection system uses the facial image to monitor the emotional state of the subject. This emotion detection system is convenient for the subject because it is less invasive and requires lower threshold object activity than other types of emotion detection systems. In addition, this emotion detection system captures, analyzes, and deletes image data within a self-contained unitary emotion detection device, thereby providing an object for unauthorized recording or use of their portraits. Address the concerns. One example of such an emotion detection device, a private emotion recognition sensor (PERS), is further described below.

この感情検出装置は、カメラ、顔イメージ処理コンポーネント、データ記憶装置、及びデータ送信コンポーネントを含むことができる。いくつかの例において、カメラは、対象の顔を記述したイメージデータを取得する。顔イメージ処理コンポーネントは、イメージデータを処理して、対象の顔の物理的状態を記述したデータの匿名セットを生成する。この匿名データセットは、対象の感情状態に関する詳細を決定するようさらに解析できるが、対象のアイデンティティを決定することに使用できない。この装置は、他の感情指示特徴(emotion-indicating features)に対して容易に外挿される(extrapolated)ことができる。例えば、別の実施形態において、感情検出装置は、マイクロフォン、音声処理コンポーネント、データ記憶装置、及びデータ送信コンポーネントを含むことができる。こうした例において、マイクロフォンは、対象の口頭発声を記述した音声データを取得する。音声処理コンポーネントは、音声データを処理して、対象の音声の状態を(抑揚、ラウドネス等に関して)記述したデータの匿名セットを生成する。この匿名データセットは、対象の感情状態に関する詳細を決定するようさらに解析できるが、対象のアイデンティティを決定することに使用できない。他の例において、感情検出装置は、カメラ、身体姿勢及びジェスチャイメージ処理コンポーネント、データ記憶装置、並びにデータ送信コンポーネントを含むことができる。こうした例において、カメラは、対象の身体姿勢及びジェスチャリング状態を記述した身体姿勢及び/又はジェスチャデータを取得する。イメージ処理コンポーネントは、イメージデータを処理して、対象の身体及び/又はジェスチャリングの物理的状態を記述したデータの匿名セットを生成する。この匿名データセットは、対象の感情状態に関する詳細を決定するようさらに解析できるが、対象のアイデンティティを決定することに使用できない。本開示を考慮し、多数の他の変形が明らかになるであろう。具体的なターゲット感情指示特徴の選択は、対象の感情状態を識別するようデータを処理することにおける所望の計算負荷などのファクタに依存する。任意のこうしたターゲット感情指示特徴を、本明細書に様々に提供されるようにそのままで、あるいは所与の対象の感情状態のより総合的な理解を得る努力において他のターゲット感情指示特徴と関連して(例えば、顔及び音声、又は、顔及びジェスチャなど)、解析し、使用することができる。いずれの上記場合においても、生の感情指示データが匿名の同等物に変換され、生データ自体は破棄されて、対象のアイデンティティを保護することができる。   The emotion detection device can include a camera, a face image processing component, a data storage device, and a data transmission component. In some examples, the camera acquires image data describing the face of interest. The face image processing component processes the image data to generate an anonymous set of data describing the physical state of the subject's face. This anonymous data set can be further analyzed to determine details about the subject's emotional state, but cannot be used to determine the identity of the subject. This device can be easily extrapolated with respect to other emotion-indicating features. For example, in another embodiment, the emotion detection device can include a microphone, a voice processing component, a data storage device, and a data transmission component. In such an example, the microphone obtains audio data describing the oral utterance of the subject. The audio processing component processes the audio data to generate an anonymous set of data describing the state of the target audio (in terms of inflection, loudness, etc.). This anonymous data set can be further analyzed to determine details about the subject's emotional state, but cannot be used to determine the identity of the subject. In other examples, the emotion detection device can include a camera, a body posture and gesture image processing component, a data storage device, and a data transmission component. In such an example, the camera obtains body posture and / or gesture data describing the subject's body posture and gesturing state. The image processing component processes the image data to generate an anonymous set of data describing the physical state of the subject's body and / or gesturing. This anonymous data set can be further analyzed to determine details about the subject's emotional state, but cannot be used to determine the identity of the subject. Many other variations will be apparent in light of this disclosure. The selection of a specific target emotion indication feature depends on factors such as the desired computational load in processing the data to identify the target emotional state. Any such target emotion indication feature may be associated with other target emotion indication features as is, as variously provided herein, or in an effort to obtain a more comprehensive understanding of the emotional state of a given subject. (Eg, face and voice, or face and gesture, etc.) can be analyzed and used. In any of the above cases, the raw emotion instruction data is converted to an anonymous equivalent and the raw data itself is discarded to protect the identity of the subject.

感情検出装置
図1は、感情検出装置の1つの例、PERS100を示す。PERS100は、プログラマブル装置を用いて実装でき、例えば、下記で図9及び図10を参照して説明されるシステムのコンポーネントのうち任意のものを用いて製作されてもよい。図1に示されるように、PERS100は、ハウジング102を含み、ハウジング102内に、カメラ104、顔イメージプロセッサ106、及び出力バッファ114が配設される。いくつかの例において、ハウジングは、プラスチック、アルミニウム、又は何らかの他の耐久性のある材料で作られる。ハウジング102は、留め具を含むことができ、上記留め具は、ハウジングが様々な場所及び向き又は様々な構造において設置されることを可能にする。例えば、ハウジング102は、クランプ、樹脂、面ファスナー、又は他のメカニズムを含んで、感情検出装置がカウンタ、コンピュータモニタ、壁、ビルボード、標識、椅子、セキュリティカメラ、又は他の場所に設置されることを可能にすることができる。いくつかの例において、カメラ104は2次元カメラである。他の例において、カメラ104は3次元カメラである。いくつかの例において、PERS100は、回路を有するネットワークインターフェース(例えば、有線又は無線送受信器、コネクタ、アンテナ等)と、PERS100が通信ネットワークを介して他の装置と通信することを集合的に可能にするソフトウェアスタックとをさらに含む。
Emotion Detection Device FIG. 1 shows one example of an emotion detection device, PERS100. The PERS 100 can be implemented using a programmable device and may be fabricated using any of the components of the system described below with reference to FIGS. 9 and 10, for example. As shown in FIG. 1, the PERS 100 includes a housing 102 in which a camera 104, a face image processor 106, and an output buffer 114 are disposed. In some examples, the housing is made of plastic, aluminum, or some other durable material. The housing 102 can include fasteners that allow the housing to be installed in various locations and orientations or in various structures. For example, the housing 102 includes a clamp, resin, hook-and-loop fastener, or other mechanism so that emotion detection devices can be installed on counters, computer monitors, walls, billboards, signs, chairs, security cameras, or other locations. Can make it possible. In some examples, camera 104 is a two-dimensional camera. In another example, the camera 104 is a three-dimensional camera. In some examples, PERS 100 collectively enables a network interface (eg, wired or wireless transceiver, connector, antenna, etc.) with circuitry and allows PERS 100 to communicate with other devices over a communications network. And a software stack.

図1に表されるように、顔イメージプロセッサ106は、入力フレームバッファ108、顔検出モジュール110、及び目印点抽出モジュール112を含む。入力フレームバッファ108及び出力バッファ114は、ハウジング102内に含まれる様々なデータ記憶装置、例えば、オンチップメモリ又はオフチップメモリなどから割り当てできる。顔検出モジュール110及び目印点抽出モジュール112は、ハードウェア、又はハードウェア及びソフトウェアの組み合わせにおいて実装できる。顔イメージプロセッサ106が顔検出モジュール110及び目印点抽出モジュール112を介して実行するよう構成される処理の例が、下記で図2及び図3を参照してさらに説明される。   As shown in FIG. 1, the face image processor 106 includes an input frame buffer 108, a face detection module 110, and a landmark point extraction module 112. Input frame buffer 108 and output buffer 114 can be allocated from various data storage devices included within housing 102, such as on-chip memory or off-chip memory. The face detection module 110 and landmark point extraction module 112 can be implemented in hardware or a combination of hardware and software. Examples of processes configured to be performed by the face image processor 106 via the face detection module 110 and landmark point extraction module 112 are further described below with reference to FIGS.

いくつかの例によれば、感情検出装置は、対象の感情状態を示す匿名データを生成する処理を実行する。図2は、こうした例に従う検出処理200を示す。図2に示されるように、検出処理200は、感情検出装置が1つ以上の顔の表情を記述した匿名データセットを後続処理のために他の装置にプライベートかつセキュアに提供することを組み合わせで可能にするいくつかの動作を含む。   According to some examples, the emotion detection device executes a process of generating anonymous data indicating the emotional state of the target. FIG. 2 shows a detection process 200 according to such an example. As shown in FIG. 2, the detection process 200 is a combination of the emotion detection device providing a private and secure anonymous data set describing one or more facial expressions to other devices for subsequent processing. Includes several actions that make it possible.

動作202において、検出処理200を実行する装置は、装置の1つ以上のコンポーネント(例えば、カメラ、メモリ、プロセッサ、ネットワーキングインターフェース、イメージ処理モジュール等)を初期化する。動作204において、装置は、イメージデータについてカメラをポーリングする。イメージデータは、1つ以上のフレームを含むことができる。これらフレームは、対象の顔の生イメージデータを含むことができる。いくつかの例において、生イメージデータは3次元イメージデータを含む。別の例において、生イメージデータは2次元イメージデータを含む。   In operation 202, the device performing detection process 200 initializes one or more components of the device (eg, camera, memory, processor, networking interface, image processing module, etc.). In operation 204, the device polls the camera for image data. The image data can include one or more frames. These frames can include raw image data of the subject's face. In some examples, the raw image data includes 3D image data. In another example, the raw image data includes two-dimensional image data.

動作206において、装置は、上記1つ以上のフレームのうちいずれかが対象の顔のイメージを含むかどうかを決定する。そうである場合、装置は動作208に進む。そうでない場合、装置は動作218に進む。動作208において、装置は、後続処理のためにフレームを記憶する。さらに、少なくとも1つの例において、装置は、セキュリティ対策として動作208内でカメラを非アクティブ化する。動作208においてカメラを非アクティブ化することにより、装置は、装置上で実行するいかなる承認されたプロセスによってもさらなるイメージデータが取得されないことを確保するのに役立つ。   In operation 206, the apparatus determines whether any of the one or more frames includes an image of the subject's face. If so, the device proceeds to operation 208. Otherwise, the device proceeds to operation 218. In operation 208, the device stores the frame for subsequent processing. Further, in at least one example, the device deactivates the camera within operation 208 as a security measure. By deactivating the camera in act 208, the device helps to ensure that no further image data is acquired by any authorized process running on the device.

動作210において、装置は、上記イメージを解析して、対象の感情状態を示すデータを識別し、記憶する。いくつかの例において、装置は、インテル(登録商標)RealsenseTMテクノロジーを実行して、顔のイメージ内の目印点を識別する。目印点は、顔の特徴、例えば、唇、眉毛、まぶた等のアイデンティティ及び向きを指定する点の集合である。1つの例において、装置は、対象の感情状態を組み合わせで示す78個の目印点を識別する。 In operation 210, the device analyzes the image to identify and store data indicative of the subject's emotional state. In some examples, the device performs Intel® Realsense technology to identify landmark points in the facial image. A landmark point is a set of points that specify facial features, such as lips, eyebrows, eyelids, and other identities and orientations. In one example, the device identifies 78 landmarks that indicate the subject's emotional state in combination.

動作212において、装置は、さらなるセキュリティ対策として上記フレームを削除する。動作212においてフレームを削除することにより、装置は、フレームが記憶される時間の量と、フレーム及び目印点が装置の記憶装置内に共存する時間の量とを制限する。   In operation 212, the device deletes the frame as a further security measure. By deleting the frame in operation 212, the device limits the amount of time that the frame is stored and the amount of time that the frame and landmark points coexist in the storage device of the device.

動作214において、装置は、動作210において識別された目印点を汎用顔に対して正規化することにより、匿名データセットを生成する。この正規化処理は、顔のイメージ内で識別された各目印点を汎用顔のモデル内の対応する目印点にマッピングすることによって達成でき、そのため、顔の全体的表現は、顔のイメージから汎用顔に変換される。いくつかの例において、匿名データセットは、汎用顔のモデルにおける点及び点の場所を識別する値を記憶したフィールドを有するデータの要素を含む。上記場所フィールドに記憶された値は、2次元又は3次元の情報を含むことができる。次に、動作212において、装置は、後続処理のために匿名データセットを記憶する。   In act 214, the device generates an anonymous data set by normalizing the landmark points identified in act 210 to the generic face. This normalization process can be accomplished by mapping each landmark point identified in the face image to a corresponding landmark point in the generic face model, so that the overall representation of the face is universally derived from the facial image. Converted to face. In some examples, the anonymous data set includes elements of data having fields storing values that identify points and point locations in the generic face model. The value stored in the location field can include two-dimensional or three-dimensional information. Next, in operation 212, the device stores the anonymous data set for subsequent processing.

動作216において、装置は、匿名データセットを、事前定義された構成可能パラメータの値により指定されるアドレスに送信する。このアドレスは、ローカルアドレス、すなわち装置に対して一体的であるコンポーネントのアドレス、又は、リモートアドレス、すなわち装置に対して一体的でないコンポーネントのアドレスであり得る。動作218において、装置は、シャットダウンが差し迫っているかどうかを決定する。そうである場合、検出処理200は終了する。そうでない場合、検出処理200は動作204に進む。   In operation 216, the device sends the anonymous data set to an address specified by a predefined configurable parameter value. This address may be a local address, ie the address of a component that is integral to the device, or a remote address, ie the address of a component that is not integral to the device. In operation 218, the device determines whether a shutdown is imminent. If so, the detection process 200 ends. Otherwise, the detection process 200 proceeds to operation 204.

検出処理200に従う処理は、感情検出装置が対象の感情状態を記述したデータをプライベートかつセキュアに生成し、通信することを可能にする。   The process according to the detection process 200 enables the emotion detection device to privately and securely generate and communicate data describing the emotional state of interest.

図3は、1つの例示的な感情検出装置の動作を示す入力‐出力図である。より詳細には、図3は、図2の検出処理200を実行する図1のPERS100を表す。図1及び図2の組み合わせにおいて図3を主に参照し、PERS100は、動作204を実行して、イメージについてカメラ104をポーリングする。カメラ104は、3次元イメージデータを含むフレームを取得し、フレームを顔イメージプロセッサ106に送信する。顔イメージプロセッサ106の顔検出モジュール110は、動作206を実行することによりイメージ内の顔を検出し、動作208を実行することによりフレームを入力フレームバッファに記憶する。次に、顔イメージプロセッサ106の目印点抽出モジュール112が、動作210を実行してイメージを解析し、点の集合302により示されるように、目印点を識別する。   FIG. 3 is an input-output diagram illustrating the operation of one exemplary emotion detection device. More specifically, FIG. 3 represents the PERS 100 of FIG. 1 that performs the detection process 200 of FIG. Referring primarily to FIG. 3 in the combination of FIGS. 1 and 2, PERS 100 performs operation 204 to poll camera 104 for an image. The camera 104 acquires a frame including 3D image data, and transmits the frame to the face image processor 106. Face detection module 110 of face image processor 106 detects a face in the image by performing operation 206 and stores the frame in the input frame buffer by performing operation 208. Next, the landmark point extraction module 112 of the face image processor 106 performs operation 210 to analyze the image and identify landmark points as indicated by the point set 302.

上記の例を継続し、顔イメージプロセッサ106は、動作212及び214を実行して上記フレームを削除し、匿名データセット304を生成し、匿名データセットを出力バッファ114に記憶する。この時点で、PERS100は、動作216を実行して、匿名データセットをさらなる処理のために別の装置に送信することができる。   Continuing the above example, face image processor 106 performs operations 212 and 214 to delete the frame, generate anonymous data set 304, and store the anonymous data set in output buffer 114. At this point, PERS 100 may perform operation 216 to send the anonymous data set to another device for further processing.

上記で説明されたコンポーネントは、イメージデータを処理して対象の感情状態を決定するが、他の例が、同じ目的に対して対象についての他の識別可能な特質を使用する。例えば、1つの例において、感情検出装置が、図1に示されるアーキテクチャに類似したアーキテクチャを実装して、対象により行われる声の発生を処理することによって対象の感情状態を決定する。こうした例において、顔イメージプロセッサ106は、人間の声の発生を検出し、かつ声の発生により表現されるように対象の感情状態を記述した匿名データセットを抽出するように構成された音声プロセッサで、置換される。この匿名データセットは、発せられた言葉と、言葉が声に出された仕方(例えば、ボリューム、ピッチ、速度等)とを記述したデータを含むことができる。   While the components described above process the image data to determine the emotional state of the subject, other examples use other identifiable attributes about the subject for the same purpose. For example, in one example, the emotion detection device implements an architecture similar to the architecture shown in FIG. 1 and determines the emotional state of the subject by processing voice generation performed by the subject. In such an example, the face image processor 106 is a speech processor configured to detect the generation of a human voice and extract an anonymous data set describing the emotional state of the subject as represented by the generation of the voice. Replaced. This anonymous data set can include data describing the spoken words and how the words were spoken (eg, volume, pitch, speed, etc.).

感情検出システム
図4は、対象410の感情状態を監視し、かつ該感情状態に任意選択で影響するように構成された感情検出システム400を示す。図示されるように、感情検出システム400は、感情検出装置402、リモート装置404、刺激コントローラ406、及びネットワーク408を含む。刺激コントローラ406は、刺激412と刺激414とを含む刺激を生成することができる。感情検出装置402には、例えば、上記で図1〜図3を参照して説明されたPERSを含むことができる。リモート装置には、任意のプログラマブル装置、例えば、下記で図7及び図8を参照して説明されるシステムのうち任意のものなどを含むことができる。通信ネットワーク408には、システムが情報を交換することができる任意の通信ネットワークを含むことができる。例えば、ネットワーク408は、パブリックネットワーク、例えばインターネットなどであってもよく、他のパブリック又はプライベートネットワーク、例えばLAN、WAN、エクストラネット、及びイントラネットなどを含んでもよい。図4に示されるように、感情検出装置402、リモート装置404、及び任意選択で刺激コントローラ406は、ネットワーク408に接続され、ネットワーク408を介してデータを通信する。
Emotion Detection System FIG. 4 shows an emotion detection system 400 configured to monitor the emotional state of the subject 410 and optionally affect the emotional state. As shown, emotion detection system 400 includes emotion detection device 402, remote device 404, stimulus controller 406, and network 408. Stimulus controller 406 can generate stimuli including stimuli 412 and stimuli 414. The emotion detection device 402 can include, for example, the PERS described above with reference to FIGS. The remote device can include any programmable device, such as any of the systems described below with reference to FIGS. The communication network 408 can include any communication network with which systems can exchange information. For example, network 408 may be a public network, such as the Internet, and may include other public or private networks, such as a LAN, WAN, extranet, and intranet. As shown in FIG. 4, emotion detection device 402, remote device 404, and optionally stimulus controller 406 are connected to network 408 and communicate data via network 408.

刺激コントローラ406は、対象410に刺激を提供するように機能する様々な装置の形式をとることができる。例えば、いくつかの例によれば、刺激コントローラ406は、プログラマブル装置、例えば、ゲーミングコンソール、コンピュータ対応テレビジョン、パーソナルコンピュータ、ラップトップ、又はモバイルフォンなどである。こうした例において、刺激412及び414には、オンラインショッピングウェブページ、音楽、ビデオゲーム、テレビジョン番組、及び映画などのコンテンツを含むことができる。   Stimulus controller 406 can take the form of various devices that function to provide stimulation to subject 410. For example, according to some examples, the stimulus controller 406 is a programmable device, such as a gaming console, computer-compatible television, personal computer, laptop, or mobile phone. In such examples, stimuli 412 and 414 can include content such as online shopping web pages, music, video games, television programs, and movies.

他の例において、刺激コントローラ406は、ネットワーク408に接続されない場合がある。切断された刺激コントローラの例には、劇場プロジェクタ、非コンピュータ対応テレビジョン、標識、ビルボード、価格タグ、及び消費者製品が含まれる。こうした例において、刺激412及び414には、映画、広告、価格、情報メッセージ、及び消費者製品設計などのコンテンツを含むことができる。   In other examples, the stimulus controller 406 may not be connected to the network 408. Examples of disconnected stimulus controllers include theater projectors, non-computer compatible televisions, signs, billboards, price tags, and consumer products. In such examples, the stimuli 412 and 414 may include content such as movies, advertisements, prices, information messages, and consumer product designs.

いくつかの例によれば、感情検出システム400は、受動モード又は能動モードにおいて動作するように構成される。受動モードにおいて動作するとき、感情検出システム400は、刺激コントローラ406が対象又は何らかの他のユーザ若しくはシステムにより受信されるコマンドに従って対象を刺激するとき、対象410の感情状態を受動的に監視する。能動モードにおいて動作するとき、感情検出システム400は、対象の感情状態を監視し、1つ以上のシステム目標に従って対象の感情状態に影響するよう試みる。感情検出システム400が実行するよう構成される処理の例が、下記で図5及び図6を参照してさらに説明される。   According to some examples, emotion detection system 400 is configured to operate in a passive mode or an active mode. When operating in passive mode, emotion detection system 400 passively monitors the emotional state of subject 410 as stimulus controller 406 stimulates the subject according to commands received by the subject or any other user or system. When operating in active mode, emotion detection system 400 monitors the emotional state of the subject and attempts to influence the emotional state of the subject according to one or more system goals. Examples of processes configured to be performed by the emotion detection system 400 are further described below with reference to FIGS.

いくつかの例によれば、感情検出システムは、対象の感情状態を監視し、かつ任意選択で、対象の感情状態に影響するよう試みる処理を実行する。図5は、こうした例に従う監視処理500を示す。   According to some examples, the emotion detection system performs a process of monitoring the emotional state of the subject and optionally attempting to affect the emotional state of the subject. FIG. 5 shows a monitoring process 500 according to such an example.

動作502において、監視処理500を実行するシステムは、例えば検出処理200に従い処理を実行することにより、匿名データを生成する。いくつかの例において、システムの1つのコンポーネントが匿名データを生成し、それをシステムの別のコンポーネントに送信し、該別のコンポーネントは、匿名データを受信し、後に処理する。   In operation 502, the system that executes the monitoring process 500 generates anonymous data by executing the process according to the detection process 200, for example. In some examples, one component of the system generates anonymous data and sends it to another component of the system, which receives the anonymous data and later processes it.

動作504において、システムは、匿名データセットをデータストア内に記録し、匿名データセットに関連付けられた刺激を識別し、匿名データセットを解析してそれからの推論を引き出す。いくつかの例において、システムは、匿名データセットの1つ以上のタイムスタンプを刺激の1つ以上のタイムスタンプと比較することにより、匿名データセットに関連付けられた刺激を識別する。刺激のタイムスタンプが、匿名データセットのタイムスタンプのすぐ前(例えば、100〜500ミリ秒前の間)である場合、システムは、上記刺激を匿名データセットに関連付けられるとして識別する。匿名データセット又は刺激内における明示的な識別値を含む、他の識別方法が、本明細書に開示される例の範囲から逸脱することなく実施されてもよい。   In operation 504, the system records the anonymous data set in the data store, identifies stimuli associated with the anonymous data set, parses the anonymous data set and derives inferences therefrom. In some examples, the system identifies a stimulus associated with the anonymous data set by comparing one or more time stamps of the anonymous data set with one or more time stamps of the stimulus. If the stimulus timestamp is immediately before the anonymous dataset time stamp (eg, between 100 and 500 milliseconds), the system identifies the stimulus as being associated with the anonymous dataset. Other identification methods may be implemented without departing from the scope of the examples disclosed herein, including explicit identification values within an anonymous data set or stimulus.

動作504における解析及び引き出される潜在的な推論の具体的モードは、例示間で変動する。例えば、いくつかの例によれば、1つ以上の匿名データセットにより表現される感情状態を決定する(例えば、分類する)ために、様々なデータマイニング手法が採用される。上記目的のために実行できるデータマイニング手法の例には、ニューラルネットワーク、k近傍処理、及びベクターマシンが含まれる。他の例において、動作504内で、システムは、システムにより受信及び処理された匿名データセットの履歴に基づいて、データマイニング予測処理(例えば、ロジスティック回帰)を実行して、対象又は対象のグループの感情状態を予測する。こうした例において、システムは、システムのユーザに対して上記予測をまとめた(articulating)1つ以上の要約(summaries)を作成することができる。   The specific mode of analysis and potential inferences drawn in operation 504 varies between illustrations. For example, according to some examples, various data mining techniques are employed to determine (eg, classify) the emotional state represented by one or more anonymous data sets. Examples of data mining techniques that can be performed for the above purpose include neural networks, k-neighbor processing, and vector machines. In another example, within operation 504, the system performs a data mining prediction process (eg, logistic regression) based on the history of anonymous data sets received and processed by the system to determine the target or group of targets. Predict emotional state. In such an example, the system can create one or more summaries that articulate the predictions for the user of the system.

動作506において、システムは、匿名データ又はその解析が1つ以上の構成可能パラメータにより定義されるシステムアクションをトリガするかどうかを決定する。そうである場合、装置は動作508に進む。そうでない場合、監視処理500は終了する。   In operation 506, the system determines whether the anonymous data or analysis thereof triggers a system action defined by one or more configurable parameters. If so, the device proceeds to operation 508. Otherwise, the monitoring process 500 ends.

動作508において、システムは、刺激メッセージを1つ以上の刺激コントローラに送信することにより、1つ以上の刺激コントローラの構成可能パラメータを調整する。刺激メッセージには、さらなる刺激を対象に提示するための1つ以上の要求を含むことができる。動作510において、1つ以上の刺激コントローラは、上記構成可能パラメータに従って刺激514を生成し、これにより、対象の感情状態を第1の感情状態から第2の感情状態に変えるよう試み、監視処理500は終了する。   In operation 508, the system adjusts the configurable parameters of the one or more stimulation controllers by sending a stimulation message to the one or more stimulation controllers. The stimulation message can include one or more requests to present additional stimulation to the subject. In operation 510, the one or more stimulus controllers generate a stimulus 514 according to the configurable parameter, thereby attempting to change the subject's emotional state from the first emotional state to the second emotional state, and the monitoring process 500. Ends.

監視処理500に従う処理は、感情検出システムが対象の感情状態と可能性としてその挙動とを監視し、かついくつかの例において影響を与えることを可能にする。   The process according to the monitoring process 500 allows the emotion detection system to monitor the emotional state of the subject and possibly its behavior and to influence in some instances.

図6は、1つの例示的な感情検出システムの動作を示す入力‐出力図である。図6は、図5の監視処理500を実行する図4の感情検出システム400を表す。図2〜図5の組み合わせにおいて図6を主に参照し、感情検出装置402は、対象410に対する刺激412の提示のすぐ後(例えば、100〜500ミリ秒後の間)の時間に、動作204を実行して対象410のイメージについてポーリングする。感情検出システム402は、次に、動作206〜216を実行し、匿名データセット304を生成する。   FIG. 6 is an input-output diagram illustrating the operation of one exemplary emotion detection system. FIG. 6 represents the emotion detection system 400 of FIG. 4 that performs the monitoring process 500 of FIG. Referring primarily to FIG. 6 in the combination of FIGS. 2-5, the emotion detection device 402 operates 204 at a time immediately after presentation of the stimulus 412 to the subject 410 (eg, between 100 and 500 milliseconds). To poll for the image of the target 410. Emotion detection system 402 then performs operations 206-216 to generate an anonymous data set 304.

上記例を継続し、リモート装置404が、動作502を実行して匿名データセット304を受信し、リモート装置に対してローカルのデータストアにデータを記録する。次に、リモート装置404は、動作506を実行して、1つ以上の構成可能パラメータの値を参照することにより、匿名データの記録がさらなるアクションをトリガするかどうかを決定する。リモート装置404が、さらなるアクションがトリガされないと決定する場合、処理はここで終了する。しかしながら、この例において、リモート装置404は、さらなるアクションがトリガされると決定し、動作508を実行して刺激メッセージ600を刺激コントローラ406に送信する。刺激メッセージ600は、対象の感情状態を新しい感情状態に移行するように予測されたさらなる刺激を提示するための要求を含むことができる。刺激メッセージ600を受信することに応答して、刺激コントローラ406は、動作510を実行して刺激414を生成する。この時点で、上記で説明された活動は、対象410に対する刺激414の提示のすぐ後の時間に感情検出402が動作204を実行して対象410のイメージについてポーリングすることで、繰り返すことができる。   Continuing the above example, remote device 404 performs operation 502 to receive anonymous data set 304 and record the data in a data store local to the remote device. The remote device 404 then performs an operation 506 to determine whether the recording of anonymous data triggers further action by referencing the value of one or more configurable parameters. If the remote device 404 determines that no further action is triggered, the process ends here. However, in this example, remote device 404 determines that further action is triggered and performs operation 508 to send stimulation message 600 to stimulation controller 406. The stimulus message 600 may include a request to present additional stimuli that are predicted to transition the subject's emotional state to a new emotional state. In response to receiving stimulus message 600, stimulus controller 406 performs operation 510 to generate stimulus 414. At this point, the activities described above can be repeated by emotion detection 402 performing action 204 and polling for the image of the subject 410 at a time immediately after presentation of the stimulus 414 to the subject 410.

次に、前に開示されたものよりさらに特化された感情検出システムが、図6を参照して説明される。特化された感情検出システムの1つの例が、オンラインの又は従来的なブロードキャストコンテンツ(例えば、物語、講義、記事、ムービー、ショー、アマチュアビデオ等)に向けられる。この例において、感情検出装置402は、対象410がコンテンツをレビューすること(reviewing)又はコンテンツと対話することにより刺激412を受けるとき、対象410を見るように位置づけられる。リモート装置404は、匿名データセットを記録し、該匿名データセットをさらに解析して、オンラインコンテンツのうち識別された部分(例えば、ニュース記事、歌、ジョーク、サスペンスに満ちたシーン、ドラマチックなシーン、恐ろしいシーン等)がその意図した効果を対象410の感情状態に対して有したかどうかを決定する。この例において、解析された匿名データの要約がコンテンツ製作者に提供されて、コンテンツ製作者が将来のコンテンツを向上させることを可能にすることができる。別法として、上記要約がコンテンツ提供者に提供されて、いずれのコンテンツが一般に対象に又は具体的に対象410に最も関連あり得るかに関して、コンテンツ提供者がより良い提案を行えるようにしてもよい。   A more specialized emotion detection system than that previously disclosed will now be described with reference to FIG. One example of a specialized emotion detection system is directed to online or traditional broadcast content (eg, stories, lectures, articles, movies, shows, amateur videos, etc.). In this example, emotion detection device 402 is positioned to view subject 410 when subject 410 receives stimulus 412 by reviewing or interacting with the content. The remote device 404 records an anonymous data set and further analyzes the anonymous data set to identify identified portions of online content (eg, news articles, songs, jokes, suspenseful scenes, dramatic scenes, Determine whether the horrible scene or the like) had its intended effect on the emotional state of the object 410. In this example, a summary of the analyzed anonymous data can be provided to the content creator to allow the content producer to improve future content. Alternatively, the summary may be provided to the content provider to allow the content provider to make better suggestions regarding which content may be most relevant to the subject in general or specifically to the subject 410. .

特化された感情検出システムの別の例が、ビデオゲームに向けられる。この例において、感情検出装置402は、対象410がビデオゲームをプレーすることにより刺激412を受けるとき、対象410を見るように位置づけられる。リモート装置404は、匿名データセットを記録し、該匿名データセットをさらに解析して、ゲームのうち識別された部分(例えば、ステージ、パズル、ボスとの戦闘、カットシーン等)がその意図した効果を対象410の感情状態に対して有したかどうかを決定する。この例において、解析された匿名データの要約がビデオゲーム製作者に提供されて、ビデオゲーム製作者が将来のゲームを向上させることを可能にすることができる。別法として、上記要約がビデオゲーム提供者に提供されて、いずれのゲームが一般に対象に又は具体的に対象410に最も関連あり得るかに関して、ビデオゲーム提供者がより良い提案を行えるようにしてもよい。   Another example of a specialized emotion detection system is directed to video games. In this example, emotion detection device 402 is positioned to view subject 410 when subject 410 receives stimulus 412 by playing a video game. The remote device 404 records the anonymous data set, further analyzes the anonymous data set, and the identified portion of the game (eg, stage, puzzle, battle with boss, cut scene, etc.) has the intended effect. Is determined for the emotional state of the object 410. In this example, a summary of the analyzed anonymous data can be provided to the video game creator to allow the video game creator to improve future games. Alternatively, the above summary is provided to the video game provider so that the video game provider can make better suggestions regarding which games may be most relevant to the subject or specifically to the subject 410 in general. Also good.

特化された感情検出システムの別の例が、オンラインショッピングに向けられる。この例において、感情検出装置402は、対象410が購入すべきアイテムの検索においてウェブサイトを閲覧することにより刺激412を受けるとき、対象410を見るように位置づけられる。リモート装置404は、匿名データセットを記録し、該匿名データセットをさらに解析して、いずれのアイテム又は価格が対象410における肯定的及び否定的感情反応を引き起こしたかを決定する。さらに、この例において、刺激コントローラ406が、事前定義された状況におけるさらなる刺激(例えば、刺激414)を提示することができる。例えば、対象410が、価格設定情報なしにアイテムを提示されたときに肯定的感情を表現し、後に、価格を提示されたときに否定的感情を表現した場合、リモート装置404は、指定されたパーセンテージだけ価格を値引くよう刺激メッセージ600を送信することができる。刺激メッセージ600を受信することに応答して、刺激コントローラ406は、値引きされた価格の形式でさらなる刺激414を送信することができる。   Another example of a specialized emotion detection system is directed to online shopping. In this example, emotion detection device 402 is positioned to view subject 410 when subject 410 receives stimulus 412 by browsing a website in search for an item to purchase. The remote device 404 records the anonymous data set and further analyzes the anonymous data set to determine which items or prices caused the positive and negative emotional responses in the subject 410. Further, in this example, stimulus controller 406 may present additional stimuli (eg, stimulus 414) in a predefined situation. For example, if the subject 410 expresses a positive emotion when presented with an item without pricing information and later expresses a negative emotion when presented with a price, the remote device 404 is designated The stimulus message 600 can be sent to discount the price by a percentage. In response to receiving the stimulus message 600, the stimulus controller 406 can transmit additional stimuli 414 in the form of a discounted price.

さらに、上記例において、リモート装置404は、匿名データセットを解析して、いずれの製品が対象410に関心があったかといずれの製品が関心が無かったかとを示す要約を作り出すことができる。解析された匿名データのこうした要約は、アイテム製造業者に提供されて、アイテム製造業者が将来のアイテムを向上させることを可能にすることができる。別法として、上記要約が小売業者に提供されて、いずれのアイテムが一般に対象に又は具体的に対象410に最も関連あり得るかに関して、小売業者がより良い提案を行えるようにしてもよい。   Further, in the above example, the remote device 404 can analyze the anonymous data set to produce a summary that indicates which products were interested in the subject 410 and which products were not interested. Such a summary of the analyzed anonymous data can be provided to the item manufacturer to allow the item manufacturer to improve future items. Alternatively, the summary may be provided to the retailer to allow the retailer to make better suggestions regarding which items may be most relevant to the subject in general or specifically to the subject 410.

特化された感情検出システムの別の例が、映画館で提示される映画に向けられる。この例において、感情検出装置402は、対象410が映画館で映画を見ることにより刺激412を受けるとき、対象410を見るように位置づけられる。リモート装置404は、匿名データセットを記録し、該匿名データセットをさらに解析して、映画のうち識別された部分(例えば、ジョーク、サスペンスに満ちたシーン、ドラマチックなシーン、恐ろしいシーン等)がその意図した効果を対象410の感情状態に対して有したかどうかを決定する。この例において、解析された匿名データの要約が映画製作者に提供されて、映画製作者が将来の映画を向上させることを可能にすることができる。   Another example of a specialized emotion detection system is directed to a movie presented at a cinema. In this example, emotion detection device 402 is positioned to view subject 410 when subject 410 receives stimulus 412 by watching a movie in a movie theater. The remote device 404 records the anonymous data set and further analyzes the anonymous data set so that identified portions of the movie (eg, jokes, suspenseful scenes, dramatic scenes, horrible scenes, etc.) It is determined whether the intended effect has been given to the emotional state of the object 410. In this example, a summary of the analyzed anonymous data can be provided to the filmmaker to allow the filmmaker to improve future movies.

特化された感情検出システムの別の例が、標識及びビルボードに提示される広告に向けられる。この例において、感情検出装置402は、対象410が標識又はビルボード上の広告を見ることにより刺激412を受けるとき、対象410を見るように位置づけられる。リモート装置404は、匿名データセットを記録し、該匿名データセットを、広告が対象410における肯定的及び否定的感情反応を引き起こしたかどうかについてさらに解析して、広告がその意図した効果を対象410の感情状態に対して有したかどうかを決定する。さらに、この例において、リモート装置404は、匿名データセットを解析して、いずれの製品が対象410に関心があったかといずれが関心が無かったかとを示す要約を作り出すことができる。解析された匿名データのこうした要約は、アイテム製造業者に提供されて、アイテム製造業者が将来のアイテムを向上させることを可能にすることができる。別法として、上記要約は小売業者に提供されて、いずれのアイテムが一般に対象に又は具体的に対象410に最も関連あり得るかに関して、小売業者がより良い提案を行えるようにしてもよい。   Another example of a specialized emotion detection system is directed to advertisements presented on signs and billboards. In this example, emotion detection device 402 is positioned to view subject 410 when subject 410 receives stimulus 412 by viewing a sign or an advertisement on a billboard. The remote device 404 records the anonymous data set and further analyzes whether the advertisement caused positive and negative emotional responses in the subject 410 so that the advertisement can determine its intended effect. Determine if you have an emotional state. Further, in this example, the remote device 404 can analyze the anonymous data set to produce a summary that indicates which products were interested in the object 410 and which were not. Such a summary of the analyzed anonymous data can be provided to the item manufacturer to allow the item manufacturer to improve future items. Alternatively, the summary may be provided to the retailer to allow the retailer to make better suggestions regarding which items may be most relevant to the subject in general or specifically to the subject 410.

特化された感情検出システムの別の例が、実際のショッピングに向けられる。この例において、感情検出装置402は、対象410が実在の(brick-and-mortar)小売店舗(例えば、スーパーマーケット、デパート、専門店等)において購入すべきアイテムを閲覧することにより刺激412を受けるとき、対象410を見るように位置づけられる。リモート装置404は、匿名データセットを記録し、該匿名データセットをさらに解析して、いずれのアイテム又は価格が対象410における肯定的及び否定的感情反応を引き起こしたかを決定する。さらに、この例において、刺激コントローラ406が、事前定義された状況におけるさらなる刺激(例えば、刺激414)を提示することができる。例えば、対象410が、価格設定情報なしにアイテムを提示されたときに肯定的感情を表現し、後に、価格を提示されたときに否定的感情を表現した場合、リモート装置404は、指定されたパーセンテージだけ価格を値引くよう刺激メッセージ600を送信することができる。刺激メッセージ600を受信することに応答して、刺激コントローラ406は、値引きされた価格の形式でさらなる刺激414を送信することができる。   Another example of a specialized emotion detection system is directed to actual shopping. In this example, emotion detection device 402 receives stimulus 412 by viewing items to be purchased at a brick-and-mortar retail store (eg, supermarket, department store, specialty store, etc.) for object 410. , Positioned to view the object 410. The remote device 404 records the anonymous data set and further analyzes the anonymous data set to determine which items or prices caused the positive and negative emotional responses in the subject 410. Further, in this example, stimulus controller 406 may present additional stimuli (eg, stimulus 414) in a predefined situation. For example, if the subject 410 expresses a positive emotion when presented with an item without pricing information and later expresses a negative emotion when presented with a price, the remote device 404 is designated The stimulus message 600 can be sent to discount the price by a percentage. In response to receiving the stimulus message 600, the stimulus controller 406 can transmit additional stimuli 414 in the form of a discounted price.

さらに、上記例において、リモート装置404は、匿名データセットを解析して、いずれの製品が対象410に関心があったかといずれが関心が無かったかとを示す要約を作り出すことができる。解析された匿名データのこうした要約は、アイテム製造業者に提供されて、アイテム製造業者が将来のアイテムを向上させることを可能にすることができる。別法として、上記要約が小売業者に提供されて、いずれのアイテムが一般に対象に又は具体的に対象410に最も関連あり得るかに関して、小売業者がより良い提案を行えるようにしてもよい。   Further, in the above example, the remote device 404 can analyze the anonymous data set to produce a summary that indicates which products were interested in the object 410 and which were not. Such a summary of the analyzed anonymous data can be provided to the item manufacturer to allow the item manufacturer to improve future items. Alternatively, the summary may be provided to the retailer to allow the retailer to make better suggestions regarding which items may be most relevant to the subject in general or specifically to the subject 410.

特化された感情検出システムの別の例が、自動車動作に向けられる。この例において、感情検出装置402は、対象410が自動車を運転し、車載エンターテインメントシステムにより提供されるコンテンツをレビューすることにより刺激412を受けるとき、対象410を見るように位置づけられる。リモート装置404は、匿名データセットを記録し、該匿名データセットをさらに解析して、いずれの事象(天候及びトラフィック条件、ラジオで再生された歌等)が対象410における肯定的及び否定的感情反応を引き起こしたかを決定する。さらに、この例において、刺激コントローラ406が、事前定義された状況におけるさらなる刺激(例えば、刺激414)を提示することができる。例えば、対象410が天候又はトラフィック条件を提示されたときに否定的感情を表現した場合、リモート装置は、対象410を静めるよう刺激メッセージ600を送信することができる。刺激メッセージ600を受信することに応答して、刺激コントローラ406は、落ち着かせる音楽又は落ち着かせるメッセージの形式でさらなる刺激414を提供して、対象410をリラックスさせることができる。別の例において、対象410が、構成可能パラメータの値を超える時間の期間について感情の欠如を表現する場合、リモート装置404は、対象410を活気づけるよう刺激メッセージ600を送信することができる。刺激メッセージ600を受信することに応答して、刺激コントローラ406は、活気づける音楽、メッセージ、又はアラームの形式でさらなる刺激414を提供して、対象410を活気づけることができる。   Another example of a specialized emotion detection system is directed to automobile operation. In this example, emotion detection device 402 is positioned to view subject 410 when subject 410 receives a stimulus 412 by driving a car and reviewing the content provided by the in-vehicle entertainment system. The remote device 404 records the anonymous data set and further analyzes the anonymous data set so that any events (weather and traffic conditions, songs played on the radio, etc.) are positive and negative emotional responses in the subject 410. Determine what caused it. Further, in this example, stimulus controller 406 may present additional stimuli (eg, stimulus 414) in a predefined situation. For example, if the subject 410 expresses a negative emotion when presented with weather or traffic conditions, the remote device may send a stimulus message 600 to calm the subject 410. In response to receiving the stimulus message 600, the stimulus controller 406 can provide additional stimuli 414 in the form of a soothing music or soothing message to relax the subject 410. In another example, if the subject 410 expresses a lack of emotion for a period of time that exceeds the value of the configurable parameter, the remote device 404 can send a stimulus message 600 to energize the subject 410. In response to receiving the stimulus message 600, the stimulus controller 406 can provide additional stimuli 414 in the form of energizing music, messages, or alarms to energize the subject 410.

いくつかの例において、本明細書に開示されるコンポーネント(例えば、PERS100、感情検出装置402、リモート装置404、及び刺激コントローラ406)は、該コンポーネントにより実行される動作に影響するパラメータを読み出すことができる。上記パラメータは、揮発メモリ(例えば、RAMなど)又は不揮発メモリ(例えば、磁気ハードドライブなど)を含む任意形式の適切なメモリに物理的に記憶できる。さらに、パラメータは、適当なデータ構造(例えば、ユーザモードアプリケーションにより定義されるデータベース又はファイルなど)に、又は一般に共有されるデータ構造(例えば、オペレーティングシステムにより定義されるアプリケーションレジストリなど)に論理的に記憶されてもよい。さらに、いくつかの例が、外部エンティティがパラメータを修正し、これによりコンポーネントの挙動を構成することを許容するシステムとユーザインターフェースとの双方を提供する。   In some examples, components disclosed herein (eg, PERS 100, emotion detection device 402, remote device 404, and stimulus controller 406) can read parameters that affect the operations performed by the components. it can. The parameters can be physically stored in any form of suitable memory including volatile memory (eg, RAM, etc.) or non-volatile memory (eg, magnetic hard drive, etc.). Further, the parameters are logically stored in a suitable data structure (eg, a database or file defined by a user mode application) or in a commonly shared data structure (eg, an application registry defined by the operating system). It may be stored. In addition, some examples provide both a system and user interface that allows external entities to modify parameters and thereby configure component behavior.

感情検出装置100又は感情検出システム400内の情報は、コンピュータ読取可能媒体上に情報を保持することができる任意の論理的及び物理的構造に記憶でき、該構造には、とりわけ、リンクリスト、ファイルシステム、フラットファイル、インデックス化されたファイル、階層データベース、リレーショナルデータベース、又はオブジェクト指向データベースが含まれる。データは、一意及び外部キーの関係及びインデックスを用いてモデル化されてもよい。一意及び外部キーの関係及びインデックスは、様々なフィールド及びテーブル間で確立されて、データ完全性とデータやりとり性能との双方を確保することができる。   Information in emotion detection device 100 or emotion detection system 400 can be stored in any logical and physical structure capable of holding information on a computer readable medium, including, among other things, linked lists, files Includes systems, flat files, indexed files, hierarchical databases, relational databases, or object-oriented databases. Data may be modeled using unique and foreign key relationships and indexes. Unique and foreign key relationships and indexes can be established between the various fields and tables to ensure both data integrity and data exchange performance.

情報は、様々な手法を用いて本明細書に開示されるコンポーネント間でフローすることができる。上記手法には、例えば、TCP/IP又はHTTPなどの標準プロトコルを用いてネットワークを通じて情報を渡すこと、メモリにおいてモジュール間で情報を渡すこと、及び、ファイル、データベース、データストア、又は何らかの他の不揮発データ記憶装置に書き込むことにより情報を渡すことが含まれる。さらに、情報のコピーに対する代わり、組み合わせ、又は追加で、情報に対するポインタ又は他の参照が送信され、受信されてもよい。反対に、情報は、情報のポインタ又は他の参照に対する代わり、組み合わせ、又は追加で、交換されてもよい。情報を通信する他の手法及びプロトコルが、本明細書に開示される例及び実施形態の範囲から逸脱することなく使用できる。   Information can flow between the components disclosed herein using various techniques. The techniques include, for example, passing information over a network using a standard protocol such as TCP / IP or HTTP, passing information between modules in memory, and files, databases, data stores, or some other non-volatile It includes passing information by writing to a data storage device. In addition, pointers or other references to information may be transmitted and received instead of in combination with or in addition to a copy of the information. Conversely, information may be exchanged in combination or addition instead of to information pointers or other references. Other techniques and protocols for communicating information can be used without departing from the scope of the examples and embodiments disclosed herein.

例示的なシステム
図7は、本開示の一実施形態に従い構成されたコンピューティングシステム700を示す。いくつかの実施形態において、システム700は対象の感情状態を検出するコンピューティングシステムであり得るが、システム700はこの文脈に限定されない。例えば、システム700は、パーソナルコンピュータ(PC)、ラップトップコンピュータ、ウルトララップトップコンピュータ、タブレット、タッチパッド、ポータブルコンピュータ、ハンドヘルドコンピュータ、パームトップコンピュータ、パーソナルデジタルアシスタント(PDA)、セルラー電話、組み合わせのセルラー電話/PDA、テレビジョン、スマートデバイス(例えば、スマートフォン、スマートタブレット、又はスマートテレビジョン)、モバイルインターネットデバイス(MID)、メッセージング装置、データ通信装置、セットトップボックス、ゲームコンソール、又はグラフィックスレンダリング動作を実行しコンテンツを表示することができる他のこうしたコンピューティング環境に組み込まれてもよい。
Exemplary System FIG. 7 illustrates a computing system 700 configured in accordance with one embodiment of the present disclosure. In some embodiments, system 700 may be a computing system that detects a subject's emotional state, although system 700 is not limited to this context. For example, the system 700 can be a personal computer (PC), laptop computer, ultra laptop computer, tablet, touchpad, portable computer, handheld computer, palmtop computer, personal digital assistant (PDA), cellular phone, combined cellular phone. / PDA, television, smart device (eg, smart phone, smart tablet, or smart television), mobile internet device (MID), messaging device, data communication device, set top box, game console, or perform graphics rendering operations And may be incorporated into other such computing environments that can display content.

いくつかの実施形態において、システム700は、ディスプレイ720に結合されたプラットフォーム702を含む。プラットフォーム702は、コンテンツ装置、例えば、コンテンツサービス装置730若しくはコンテンツ配信装置740又は他の同様のコンテンツソースなどから、コンテンツを受信することができる。1つ以上のナビゲーション機構を含むナビゲーションコントローラが、例えばプラットフォーム702及び/又はディスプレイ720と対話するのに使用されて、ユーザによるナビゲーションのジェスチャリングを補足することができる。こうした例示的なコンポーネントの各々が、下記でより詳細に説明される。   In some embodiments, system 700 includes a platform 702 coupled to display 720. The platform 702 can receive content from a content device, such as a content service device 730 or content distribution device 740 or other similar content source. A navigation controller including one or more navigation mechanisms can be used, for example, to interact with the platform 702 and / or the display 720 to supplement the user's navigation gestures. Each of these exemplary components is described in more detail below.

いくつかの実施形態において、プラットフォーム702は、チップセット705、プロセッサ710、メモリ712、記憶装置714、グラフィックスサブシステム715、アプリケーション716、及び/又は無線機(radio)718のうち任意の組み合わせを含むことができる。チップセット705は、プロセッサ710、メモリ712、記憶装置714、グラフィックスサブシステム715、アプリケーション716、及び/又は無線機718間の相互通信を提供することができる。例えば、チップセット705は、記憶装置714との相互通信を提供することができる記憶装置アダプタ(図示されていない)を含むことができる。   In some embodiments, platform 702 includes any combination of chipset 705, processor 710, memory 712, storage device 714, graphics subsystem 715, application 716, and / or radio 718. be able to. Chipset 705 may provide intercommunication between processor 710, memory 712, storage device 714, graphics subsystem 715, application 716, and / or radio 718. For example, chipset 705 can include a storage device adapter (not shown) that can provide intercommunication with storage device 714.

プロセッサ710は、例えば、複合命令セットコンピュータ(CISC)若しくは縮小命令セットコンピュータ(RISC)プロセッサ、x86命令セット互換プロセッサ、マルチコア、又は任意の他のマイクロプロセッサ若しくは中央処理ユニット(CPU)として実装できる。いくつかの実施形態において、プロセッサ710は、デュアルコアプロセッサ、デュアルコアモバイルプロセッサ、及び同様のものを含むことができる。メモリ712は、例えば、揮発メモリ装置、例えばこれらに限られないが、ランダムアクセスメモリ(RAM)、ダイナミックランダムアクセスメモリ(DRAM)、又はスタティックメモリ(SRA)などとして実装できる。記憶装置714は、例えば、不揮発記憶装置、例えばこれらに限られないが、磁気ディスクドライブ、光学ディスクドライブ、テープドライブ、内部記憶装置、取り付け記憶装置、フラッシュメモリ、バッテリバックアップ型SDRAM(同期DRAM)、及び/又はネットワークアクセス可能記憶装置などとして実装できる。いくつかの実施形態において、記憶装置714は、例えば、複数のハードドライブが含まれるときに価値あるデジタルメディアの記憶性能強化保護を増大するテクノロジーを含むことができる。   The processor 710 can be implemented, for example, as a compound instruction set computer (CISC) or reduced instruction set computer (RISC) processor, x86 instruction set compatible processor, multi-core, or any other microprocessor or central processing unit (CPU). In some embodiments, the processor 710 may include a dual core processor, a dual core mobile processor, and the like. The memory 712 can be implemented as, for example, a volatile memory device, such as, but not limited to, a random access memory (RAM), a dynamic random access memory (DRAM), or a static memory (SRA). The storage device 714 is, for example, a nonvolatile storage device such as, but not limited to, a magnetic disk drive, an optical disk drive, a tape drive, an internal storage device, an attached storage device, a flash memory, a battery backup SDRAM (synchronous DRAM), And / or can be implemented as a network accessible storage device. In some embodiments, the storage device 714 may include technology that increases the enhanced storage performance protection of digital media, for example, when multiple hard drives are included.

グラフィックスサブシステム715は、本明細書に様々に説明されるように、表示のために静止又はビデオなどのイメージの処理を実行することができ、いくつかの実施形態において、直視型ディスプレイの光源のアレイを駆動するように構成される。グラフィックスサブシステム715は、例えば、グラフィックス処理ユニット(GPU)又はビジュアル処理ユニット(VPU)であり得る。アナログ又はデジタルのインターフェースが、グラフィックスサブシステム715及びディスプレイ720を通信可能に結合するのに使用できる。例えば、上記インターフェースは、高精細マルチメディアインターフェース(High-Definition Multimedia Interface)、ディスプレイポート(DisplayPort)、ワイヤレスHDMI(登録商標)、及び/又はワイヤレスHD準拠の手法のうち任意のものであり得る。グラフィックスサブシステム715は、プロセッサ710又はチップセット705に統合できる。グラフィックスサブシステム715は、チップセット705に通信可能に結合されるスタンドアロンカードであり得る。本明細書に説明される直視型投射手法を含む、グラフィックス及び/又はビデオ処理手法は、様々なハードウェアアーキテクチャにおいて実装できる。例えば、グラフィックス及び/又はビデオ機能性は、チップセット内に統合できる。別法として、ディスクリートのグラフィックス及び/又はビデオプロセッサが使用されてもよい。さらに別の実施形態として、グラフィックス及び/又はビデオ機能は、マルチコアプロセッサを含む汎用目的プロセッサにより実装されてもよい。さらなる一実施形態において、上記機能は消費者電子装置において実装されてもよい。   The graphics subsystem 715 can perform processing of images, such as still or video, for display, as described variously herein, and in some embodiments, a light source for a direct view display. Configured to drive the array. The graphics subsystem 715 can be, for example, a graphics processing unit (GPU) or a visual processing unit (VPU). An analog or digital interface can be used to communicatively couple graphics subsystem 715 and display 720. For example, the interface may be any of a high-definition multimedia interface, a display port, a wireless HDMI, and / or a wireless HD compliant technique. Graphics subsystem 715 can be integrated into processor 710 or chipset 705. Graphics subsystem 715 may be a stand-alone card that is communicatively coupled to chipset 705. Graphics and / or video processing techniques, including the direct view projection techniques described herein, can be implemented in a variety of hardware architectures. For example, graphics and / or video functionality can be integrated into the chipset. Alternatively, discrete graphics and / or video processors may be used. As yet another embodiment, graphics and / or video functionality may be implemented by a general purpose processor including a multi-core processor. In a further embodiment, the functionality may be implemented in a consumer electronic device.

無線機718は、様々な適切な無線通信手法を用いて信号を送信及び受信することができる1つ以上の無線機を含むことができる。上記手法は、1つ以上の無線ネットワークにわたる通信に関与することができる。例示的な無線ネットワークには、(これらに限られないが)ワイヤレスローカルエリアネットワーク(WLAN)、ワイヤレスパーソナルエリアネットワーク(WPAN)、ワイヤレスメトロポリタンエリアネットワーク(WMAN)、セルラーネットワーク、及び衛星ネットワークが含まれる。こうしたネットワークにわたり通信することにおいて、無線機718は、任意のバージョンにおける1つ以上の適用可能な標準に従って動作することができる。   Radio 718 may include one or more radios that can transmit and receive signals using various suitable wireless communication techniques. The above approach may involve communication across one or more wireless networks. Exemplary wireless networks include (but are not limited to) a wireless local area network (WLAN), a wireless personal area network (WPAN), a wireless metropolitan area network (WMAN), a cellular network, and a satellite network. In communicating across such networks, the radio 718 can operate according to one or more applicable standards in any version.

いくつかの実施形態において、ディスプレイ720は、任意のテレビジョン又はコンピュータタイプのモニタ又はディスプレイを含むことができる。1つ以上のソフトウェアアプリケーション716の制御下で、プラットフォーム702は、ディスプレイ720上にユーザインターフェース722を表示することができる。   In some embodiments, the display 720 can include any television or computer type monitor or display. Under the control of one or more software applications 716, the platform 702 can display a user interface 722 on the display 720.

いくつかの実施形態において、コンテンツサービス装置730は、例えば、任意の国の、国際的な、及び/又は独立したサービスによりホストされ、ゆえに、インターネット又は他のネットワークを介してプラットフォーム702にアクセス可能であり得る。コンテンツサービス装置730は、プラットフォーム702に及び/又はディスプレイ720に結合できる。プラットフォーム702及び/又はコンテンツサービス装置730は、ネットワーク760に結合されて、ネットワーク760への及びネットワーク760からのメディア情報を通信する(例えば、送信する及び/又は受信する)ことができる。コンテンツ配信装置740もまた、プラットフォーム702に及び/又はディスプレイ720に結合できる。いくつかの実施形態において、コンテンツサービス装置730は、ケーブルテレビジョンボックス、パーソナルコンピュータ、ネットワーク、電話、デジタル情報及び/又はコンテンツを配信することができるインターネット対応装置又は電気器具、並びに、ネットワーク760を介してか又は直接、コンテンツ提供者とプラットフォーム702及び/又はディスプレイ720との間でコンテンツを単方向又は双方向に通信することができる任意の他の同様の装置を含むことができる。コンテンツは、ネットワーク760を介してシステム700内のコンポーネントとコンテンツ提供者とのうち任意の1つに及び該任意の1つから単方向及び/又は双方向に通信できることが十分理解されるであろう。コンテンツの例には、例えば、ビデオ、音楽、グラフィックス、テキスト、医療及びゲーミングコンテンツ、及び同様のものを含む、任意のメディア情報を含むことができる。   In some embodiments, the content service device 730 is hosted by, for example, any national, international, and / or independent service, and is thus accessible to the platform 702 via the Internet or other network. possible. Content service device 730 may be coupled to platform 702 and / or to display 720. Platform 702 and / or content service device 730 may be coupled to network 760 to communicate (eg, send and / or receive) media information to and from network 760. Content distribution device 740 may also be coupled to platform 702 and / or to display 720. In some embodiments, the content service device 730 is via a cable television box, personal computer, network, telephone, internet-enabled device or appliance capable of delivering digital information and / or content, and the network 760. Or any other similar device that can communicate content unidirectionally or bidirectionally between the content provider and the platform 702 and / or display 720. It will be appreciated that content can be communicated unidirectionally and / or bidirectionally from and to any one of the components and content providers in system 700 via network 760. . Examples of content can include any media information including, for example, video, music, graphics, text, medical and gaming content, and the like.

コンテンツサービス装置730は、コンテンツ、例えば、メディア情報、デジタル情報、及び/又は他のコンテンツを含むケーブルテレビジョン番組などを受信する。コンテンツ提供者の例には、任意のケーブル又は衛星のテレビジョン又はラジオ又はインターネットのコンテンツ提供者を含むことができる。提供された例は、本開示を限定するようには意図されない。いくつかの実施形態において、プラットフォーム702は、1つ以上のナビゲーション機構を有するナビゲーションコントローラ750から制御信号を受信することができる。コントローラ750のナビゲーション機構は、例えば、ユーザインターフェース722と対話するのに使用できる。いくつかの実施形態において、ナビゲーションコントローラ750は、ユーザが空間的な(例えば、連続的な及び多次元の)データをコンピュータに入力することを許容するコンピュータハードウェアコンポーネント(具体的に、ヒューマンインターフェース装置)であり得るポインティング装置であり得る。グラフィカルユーザインターフェース(GUI)などの多くのシステム、並びにテレビジョン及びモニタが、ユーザが物理的なジェスチャ、顔の表情、又はサウンドを用いてコンピュータ又はテレビジョンを制御し、該コンピュータ又はテレビジョンに対するデータを提供することを許容する。   The content service device 730 receives content, such as cable television programs that include media information, digital information, and / or other content. Examples of content providers may include any cable or satellite television or radio or Internet content provider. The provided examples are not intended to limit the present disclosure. In some embodiments, the platform 702 can receive control signals from a navigation controller 750 having one or more navigation mechanisms. The navigation mechanism of controller 750 can be used, for example, to interact with user interface 722. In some embodiments, the navigation controller 750 is a computer hardware component (specifically, a human interface device) that allows a user to enter spatial (eg, continuous and multi-dimensional) data into a computer. ) Can be a pointing device. Many systems, such as graphical user interfaces (GUIs), and televisions and monitors allow a user to control a computer or television using physical gestures, facial expressions, or sounds, and data for the computer or television Allow to provide.

コントローラ750のナビゲーション機構の動きは、ディスプレイ上に表示されるポインタ、カーソル、フォーカスリング、又は他のビジュアルインジケータの動きにより、ディスプレイ(例えば、ディスプレイ720)上に反映できる。例えば、ソフトウェアアプリケーション716の制御下で、ナビゲーションコントローラ750上に位置するナビゲーション機構は、例えば、ユーザインターフェース722上に表示される仮想ナビゲーション機構にマッピングできる。いくつかの実施形態において、コントローラ750は、別個のコンポーネントでなく、プラットフォーム702及び/又はディスプレイ720に統合されてもよい。しかしながら、十分理解されるように、実施形態は、本明細書に図示又は説明される要素に又は文脈内に限定されない。   The movement of the navigation mechanism of controller 750 can be reflected on a display (eg, display 720) by movement of a pointer, cursor, focus ring, or other visual indicator displayed on the display. For example, a navigation mechanism located on the navigation controller 750 under the control of the software application 716 can be mapped to a virtual navigation mechanism displayed on the user interface 722, for example. In some embodiments, the controller 750 may be integrated into the platform 702 and / or the display 720 rather than a separate component. However, as will be appreciated, the embodiments are not limited to the elements shown or described herein or within the context.

いくつかの実施形態において、ドライバ(図示されていない)が、例えば、有効化されているとき、最初の起動の後にボタンのタッチでテレビジョンのようにプラットフォーム702をユーザが即座にオン及びオフすることを可能にするテクノロジーを含むことができる。プラットフォーム702が「オフ」にされているとき、プログラム論理が、プラットフォーム702がメディアアダプタ又は他のコンテンツサービス装置730若しくはコンテンツ配信装置740にコンテンツをストリーミングすることを許容してもよい。さらに、チップセット705は、例えば、5.1サラウンドサウンドオーディオ及び/又は7.1高精細サラウンドサウンドオーディオの、ハードウェア及び/又はソフトウェアサポートを含むことができる。ドライバには、統合されたグラフィックスプラットフォームのためのグラフィックスドライバを含むことができる。いくつかの実施形態において、グラフィックスドライバは、ペリフェラルコンポーネントインターコネクト(PCI)エクスプレスグラフィックスカードを含むことができる。   In some embodiments, when a driver (not shown), for example, is enabled, the user immediately turns the platform 702 on and off like a television with a touch of a button after initial activation. It can include technologies that make it possible. When platform 702 is turned “off”, program logic may allow platform 702 to stream content to a media adapter or other content service device 730 or content distribution device 740. Further, the chipset 705 may include hardware and / or software support for 5.1 surround sound audio and / or 7.1 high definition surround sound audio, for example. The driver can include a graphics driver for the integrated graphics platform. In some embodiments, the graphics driver may include a peripheral component interconnect (PCI) express graphics card.

様々な実施形態において、システム700に示されるコンポーネントのうち任意の1つ以上を統合することができる。例えば、プラットフォーム702及びコンテンツサービス装置730が統合されてもよく、あるいはプラットフォーム702及びコンテンツ配信装置740が統合されてもよく、あるいはプラットフォーム702、コンテンツサービス装置730、及びコンテンツ配信サービス740が統合されてもよい。様々な実施形態において、プラットフォーム702及びディスプレイ720は、統合されたユニットであり得る。例えば、ディスプレイ720及びコンテンツサービス装置730が統合されてもよく、あるいはディスプレイ720及びコンテンツ配信装置740が統合されてもよい。上記例は、本開示を限定するようには意図されない。   In various embodiments, any one or more of the components shown in system 700 can be integrated. For example, the platform 702 and the content service device 730 may be integrated, the platform 702 and the content distribution device 740 may be integrated, or the platform 702, the content service device 730, and the content distribution service 740 may be integrated. Good. In various embodiments, platform 702 and display 720 may be an integrated unit. For example, the display 720 and the content service device 730 may be integrated, or the display 720 and the content distribution device 740 may be integrated. The above examples are not intended to limit the present disclosure.

様々な実施形態において、システム700は、無線システム、有線システム、又は双方の組み合わせとして実装できる。無線システムとして実装されるとき、システム700は、無線共有媒体を通じて通信するのに適切なコンポーネント及びインターフェース、例えば、1つ以上のアンテナ、送信機、受信機、送受信器、増幅器、フィルタ、制御論理、及び同様のものなどを含むことができる。無線共有媒体の一例には、無線スペクトルのうちの部分、例えばRFスペクトル及び同様のものなどを含むことができる。有線システムとして実装されるとき、システム700は、有線通信媒体を通じて通信するのに適切なコンポーネント及びインターフェース、例えば、入力/出力(I/O)アダプタ、I/Oアダプタを対応する有線通信媒体に接続する物理コネクタ、ネットワークインターフェースカード(NIC)、ディスクコントローラ、ビデオコントローラ、オーディオコントローラ、及び同様のものなどを含むことができる。有線通信媒体の例には、ワイヤ、ケーブル、金属導線、印刷回路ボード(PCB)、バックプレーン、スイッチファブリック、半導体材料、ツイストペア線、同軸ケーブル、光ファイバ、及び同様のものを含むことができる。   In various embodiments, the system 700 can be implemented as a wireless system, a wired system, or a combination of both. When implemented as a wireless system, system 700 includes components and interfaces suitable for communicating over a wireless shared medium, such as one or more antennas, transmitters, receivers, transceivers, amplifiers, filters, control logic, And the like. An example of a wireless shared medium can include portions of the wireless spectrum, such as the RF spectrum and the like. When implemented as a wired system, the system 700 connects components and interfaces suitable for communicating over a wired communication medium, eg, input / output (I / O) adapters, I / O adapters, to corresponding wired communication media. Physical connectors, network interface cards (NICs), disk controllers, video controllers, audio controllers, and the like. Examples of wired communication media can include wires, cables, metal conductors, printed circuit boards (PCBs), backplanes, switch fabrics, semiconductor materials, twisted pair wires, coaxial cables, optical fibers, and the like.

プラットフォーム702は、1つ以上の論理的又は物理的チャネルを確立して情報を通信することができる。情報には、メディア情報及び制御情報を含むことができる。メディア情報は、ユーザに向けられたコンテンツを表す任意のデータを参照することができる。コンテンツの例には、例えば、音声会話、ビデオ会議、ストリーミングビデオ、電子メール又はテキストメッセージ、ボイスメールメッセージ、英数字シンボル、グラフィックス、イメージ、ビデオ、テキスト及び同様のものからのデータを含むことができる。制御情報は、自動化されたシステムに向けられたコマンド、命令、又は制御ワードを表す任意のデータを参照することができる。例えば、制御情報を使用して、システムを通じてメディア情報をルーティングし、あるいは(例えば、本明細書に説明されるように特権アクセス違反チェックについて支援されたハードウェアを用いて)所定の仕方でメディア情報を処理するようにノードに命令することができる。しかしながら、実施形態は、図7に図示又は説明される要素又は文脈に限定されない。   Platform 702 can establish one or more logical or physical channels to communicate information. The information can include media information and control information. Media information can refer to any data representing content directed to the user. Examples of content may include data from, for example, voice conversations, video conferencing, streaming video, email or text messages, voice mail messages, alphanumeric symbols, graphics, images, video, text and the like. it can. The control information can refer to any data representing commands, instructions, or control words directed to the automated system. For example, control information is used to route media information through the system or in a predetermined manner (eg, using hardware assisted for privileged access violation checking as described herein). The node can be instructed to process However, embodiments are not limited to the elements or context shown or described in FIG.

上記で説明されたように、システム700は、様々な物理的様式又はフォームファクタにおいて具現化できる。図8は、システム700が具現化され得るスモールフォームファクタ装置800の実施形態を示す。いくつかの実施形態において、例えば、装置800は、無線能力を有するモバイルコンピューティング装置として実装できる。モバイルコンピューティング装置は、例えば、処理システムと1つ以上のバッテリなどのモバイルパワーソース又はサプライとを有する任意の装置を参照することができる。   As described above, system 700 can be implemented in various physical forms or form factors. FIG. 8 shows an embodiment of a small form factor device 800 in which the system 700 can be implemented. In some embodiments, for example, the device 800 can be implemented as a mobile computing device with wireless capabilities. A mobile computing device can refer to any device having, for example, a processing system and a mobile power source or supply such as one or more batteries.

前に説明されたように、モバイルコンピューティング装置の例には、パーソナルコンピュータ(PC)、ラップトップコンピュータ、ウルトララップトップコンピュータ、タブレット、タッチパッド、ポータブルコンピュータ、ハンドヘルドコンピュータ、パームトップコンピュータ、パーソナルデジタルアシスタント(PDA)、セルラー電話、組み合わせのセルラー電話/PDA、テレビジョン、スマートデバイス(例えば、スマートフォン、スマートタブレット、又はスマートテレビジョン)、モバイルインターネットデバイス(MID)、メッセージング装置、データ通信装置、及び同様のものを含むことができる。   As previously described, examples of mobile computing devices include personal computers (PCs), laptop computers, ultra laptop computers, tablets, touchpads, portable computers, handheld computers, palmtop computers, personal digital assistants. (PDA), cellular phone, combined cellular phone / PDA, television, smart device (eg, smart phone, smart tablet, or smart television), mobile internet device (MID), messaging device, data communication device, and the like Things can be included.

モバイルコンピューティング装置の例には、人により着用されるように配置されたコンピュータ、例えば、リストコンピュータ、フィンガーコンピュータ、リングコンピュータ、眼鏡コンピュータ、ベルトクリップコンピュータ、アームバンドコンピュータ、シュー(shoe)コンピュータ、衣類コンピュータ、及び他の着用可能なコンピュータなどをさらに含むことができる。いくつかの実施形態において、例えば、モバイルコンピューティング装置は、コンピュータアプリケーションと音声通信及び/又はデータ通信とを実行することができるスマートフォンとして実装できる。いくつかの実施形態が、例としてスマートフォンとして実装されたモバイルコンピューティング装置を用いて説明され得るが、他の実施形態が、他のワイヤレスモバイルコンピューティング装置を用いて同様に実装できることが十分理解され得る。実施形態はこの文脈内に限定されない。   Examples of mobile computing devices include computers arranged to be worn by a person, such as wrist computers, finger computers, ring computers, eyeglass computers, belt clip computers, armband computers, shoe computers, clothing computers , And other wearable computers. In some embodiments, for example, a mobile computing device can be implemented as a smartphone that can perform computer applications and voice and / or data communications. Although some embodiments may be described using a mobile computing device implemented as a smartphone as an example, it is well understood that other embodiments can be similarly implemented using other wireless mobile computing devices. obtain. Embodiments are not limited within this context.

図8に示されるように、装置800は、ハウジング802、ディスプレイ804、入力/出力(I/O)装置806、及びアンテナ808を含むことができる。装置800は、ナビゲーション機構812をさらに含むことができる。ディスプレイ804には、モバイルコンピューティング装置に適した情報を表示する任意の適切な表示ユニットを含むことができ、ディスプレイ804は、1つの例示的な実施形態において、本明細書に提供されるように直視できる画素化されたディスプレイである。I/O装置806には、モバイルコンピューティング装置に情報を入力する任意の適切なI/O装置を含むことができる。I/O装置806の例には、英数字キーボード、数字キーパッド、タッチパッド、入力キー、ボタン、カメラ、スイッチ、ロッカースイッチ、マイクロフォン、スピーカー、音声認識装置及びソフトウェア、並びに同様のものを含むことができる。情報は、マイクロフォンによって装置800に入力されてもよい。上記情報は、音声認識装置によりデジタル化できる。実施形態はこの文脈内に限定されない。   As shown in FIG. 8, the device 800 can include a housing 802, a display 804, an input / output (I / O) device 806, and an antenna 808. The device 800 can further include a navigation mechanism 812. Display 804 can include any suitable display unit that displays information suitable for a mobile computing device, and display 804, as provided herein, in one exemplary embodiment. It is a pixelated display that can be viewed directly. The I / O device 806 may include any suitable I / O device that inputs information to the mobile computing device. Examples of I / O devices 806 include alphanumeric keyboards, numeric keypads, touchpads, input keys, buttons, cameras, switches, rocker switches, microphones, speakers, voice recognition devices and software, and the like Can do. Information may be entered into device 800 by a microphone. The information can be digitized by a voice recognition device. Embodiments are not limited within this context.

様々な実施形態が、ハードウェア要素、ソフトウェア要素、又は双方の組み合わせを用いて実装できる。ハードウェア要素の例には、プロセッサ、マイクロプロセッサ、回路、回路素子(例えば、トランジスタ、抵抗器、キャパシタ、インダクタ、及び同様のもの)、集積回路、特定用途向け集積回路(ASIC)、プログラマブル論理デバイス(PLD)、デジタルシグナルプロセッサ(DSP)、フィールドプログラマブルゲートアレイ(FPGA)、論理ゲート、レジスタ、半導体デバイス、チップ、マイクロチップ、チップセット、及び同様のものを含むことができる。ソフトウェアの例には、ソフトウェアコンポーネント、プログラム、アプリケーション、コンピュータプログラム、アプリケーションプログラム、システムプログラム、マシンプログラム、オペレーティングシステムソフトウェア、ミドルウェア、ファームウェア、ソフトウェアモジュール、ルーチン、サブルーチン、ファンクション、メソッド、プロシージャ、ソフトウェアインターフェース、アプリケーションプログラムインターフェース(API)、命令セット、コンピューティングコード、コンピュータコード、コードセグメント、コンピュータコードセグメント、ワード、値、シンボル、又はこれらの任意の組み合わせを含むことができる。ハードウェア要素が使用されるか及び/又はソフトウェア要素が使用されるかは、任意数のファクタ、例えば、所望の計算レート、電力レベル、熱耐性、処理サイクルバジェット、入力データレート、出力データレート、メモリリソース、データバス速度、及び他の設計又は性能制約などに従って、実施形態ごとに変動してよい。   Various embodiments may be implemented using hardware elements, software elements, or a combination of both. Examples of hardware elements include processors, microprocessors, circuits, circuit elements (eg, transistors, resistors, capacitors, inductors, and the like), integrated circuits, application specific integrated circuits (ASICs), programmable logic devices. (PLD), digital signal processor (DSP), field programmable gate array (FPGA), logic gate, register, semiconductor device, chip, microchip, chipset, and the like. Examples of software include software components, programs, applications, computer programs, application programs, system programs, machine programs, operating system software, middleware, firmware, software modules, routines, subroutines, functions, methods, procedures, software interfaces, applications A program interface (API), instruction set, computing code, computer code, code segment, computer code segment, word, value, symbol, or any combination thereof may be included. Whether hardware elements and / or software elements are used depends on any number of factors, for example, desired calculation rate, power level, thermal tolerance, processing cycle budget, input data rate, output data rate, It may vary from embodiment to embodiment according to memory resources, data bus speed, and other design or performance constraints.

いくつかの実施形態は、例えば、命令又は命令セットを記憶することができるマシン読取可能媒体又は物品を用いて実装でき、上記命令又は命令セットは、マシンにより実行される場合、本開示の実施形態に従う方法及び/又は動作をマシンに実行させることができる。上記マシンは、例えば、任意の適切な処理プラットフォーム、コンピューティングプラットフォーム、コンピューティング装置、処理装置、コンピューティングシステム、処理システム、コンピュータ、プロセッサ、又は同様のものを含むことができ、ハードウェア及びソフトウェアの任意の適切な組み合わせを用いて実装できる。マシン読取可能媒体又は物品には、例えば、任意の適切なタイプのメモリユニット、メモリ装置、メモリ物品、メモリ媒体、記憶装置、記憶物品、記憶媒体、及び/又は記憶ユニット、例えば、メモリ、取外し可能若しくは取外し不能媒体、消去可能若しくは消去不能媒体、書き込み可能若しくは書き換え可能媒体、デジタル若しくはアナログ媒体、ハードディスク、フロッピーディスク、コンパクトディスク読取専用メモリ(CD−ROM)、コンパクトディスクレコーダブル(CD−R)、コンパクトディスクリライタブル(CD−RW)、光ディスク、磁気媒体、磁気光媒体、取外し可能メモリカード若しくはディスク、様々なタイプのデジタル多用途ディスク(DVD)、テープ、カセット、又は同様のものを含むことができる。上記命令には、任意の適切な高水準の、低水準の、オブジェクト指向の、ビジュアルの、コンパイル型の、及び/又はインタプリタ型のプログラミング言語を用いて実装された任意の適切なタイプの実行可能コードを含むことができる。   Some embodiments can be implemented using, for example, a machine-readable medium or article that can store instructions or a set of instructions, where the instructions or instruction set is executed by a machine. Can cause a machine to perform the method and / or action according to The machine can include, for example, any suitable processing platform, computing platform, computing device, processing device, computing system, processing system, computer, processor, or the like, of hardware and software It can be implemented using any suitable combination. A machine-readable medium or article includes, for example, any suitable type of memory unit, memory device, memory article, memory medium, storage device, storage article, storage medium, and / or storage unit, eg, memory, removable Or non-removable medium, erasable or non-erasable medium, writable or rewritable medium, digital or analog medium, hard disk, floppy disk, compact disk read only memory (CD-ROM), compact disk recordable (CD-R), Can include compact disc rewritable (CD-RW), optical disc, magnetic media, magneto-optical media, removable memory card or disc, various types of digital versatile disc (DVD), tape, cassette, or the like . The instructions may be any suitable type of executable implemented using any suitable high-level, low-level, object-oriented, visual, compiled, and / or interpreted programming language. Can contain code.

さらなる例示的な実施形態
下記の例はさらなる実施形態に関連し、該実施形態から多数の組み合わせ及び構成が明らかになるであろう。
Further exemplary embodiments The following examples relate to further embodiments, from which numerous combinations and configurations will become apparent.

例1は、感情検出装置を含む感情検出システムであって、上記感情検出装置は、メモリと、上記メモリに結合された少なくとも1つのプロセッサと、上記少なくとも1つのプロセッサにより実行可能であり、かつ対象の顔を表すイメージデータを受信し、上記イメージデータを解析して、上記顔における複数の点を識別し、上記複数の点を記述した匿名データセットを記憶することであって、上記匿名データセットの各要素は識別子フィールドと場所フィールドとを含み、上記匿名データセットを、上記感情検出装置とは区別可能なリモート装置に送信し、上記イメージデータを削除するように構成された顔イメージ処理モジュールと、を含む。   Example 1 is an emotion detection system including an emotion detection device, wherein the emotion detection device is executable by a memory, at least one processor coupled to the memory, and the at least one processor. Receiving the image data representing the face of the user, analyzing the image data, identifying a plurality of points on the face, and storing an anonymous data set describing the plurality of points, the anonymous data set A face image processing module configured to send an anonymous data set to a remote device distinguishable from the emotion detection device and delete the image data, including an identifier field and a location field. ,including.

例2は、例1の構成要件を含み、上記イメージデータは、2次元イメージデータと3次元イメージデータとのうち少なくとも1つを含む。   Example 2 includes the configuration requirements of Example 1, and the image data includes at least one of two-dimensional image data and three-dimensional image data.

例3は、前述の例のうちいずれかの構成要件を含み、上記顔イメージ処理モジュールは、データセットを汎用顔に正規化することにより少なくとも部分的に上記イメージデータを解析し、上記データセットを記憶することにより少なくとも部分的に上記匿名データを記憶するように構成される。   Example 3 includes the configuration requirements of any of the previous examples, wherein the face image processing module analyzes the image data at least in part by normalizing the data set to a generic face, and By storing, the anonymous data is configured to be stored at least partially.

例4は、前述の例のうちいずれかの構成要件を含み、上記イメージデータは目印点を含む。   Example 4 includes any of the above-described configuration requirements, and the image data includes a mark point.

例5は、前述の例のうちいずれかの構成要件を含み、上記匿名データセットの各要素の上記場所は、2次元値及び3次元値のうち少なくとも1つを含む。   Example 5 includes any component of the previous examples, and the location of each element of the anonymous data set includes at least one of a two-dimensional value and a three-dimensional value.

例6は、前述の例のうちいずれかの構成要件を含み、上記感情検出装置は、上記イメージデータを取得するように構成されたカメラをさらに含み、上記顔イメージ処理モジュールは、上記イメージデータを解析すること、上記匿名データセットを記憶すること、及び上記匿名データセットを送信することの前に、上記カメラを非アクティブ化するように構成される。   Example 6 includes any component of the previous examples, the emotion detection device further includes a camera configured to acquire the image data, and the face image processing module stores the image data. The camera is configured to be deactivated prior to analyzing, storing the anonymous data set, and transmitting the anonymous data set.

例7は、例6の構成要件を含み、上記感情検出装置は、上記カメラと上記メモリと上記少なくとも1つのプロセッサと上記顔イメージ処理モジュールとを含むハウジングをさらに含む。   Example 7 includes the constituent elements of Example 6, and the emotion detection apparatus further includes a housing including the camera, the memory, the at least one processor, and the face image processing module.

例8は、前述の例のうちいずれかの構成要件を含み、上記リモート装置、をさらに含み、上記リモート装置は、上記イメージデータを受信することの前に上記対象に提供される刺激を識別し、上記匿名データセットを解析して、上記刺激を提示されたときの上記対象の感情状態を決定するように構成される。   Example 8 includes the requirements of any of the previous examples and further includes the remote device, wherein the remote device identifies a stimulus provided to the subject prior to receiving the image data. The anonymous data set is analyzed to determine the emotional state of the subject when presented with the stimulus.

例9は、例8の構成要件を含み、上記刺激は、非インタラクティブコンテンツとインタラクティブコンテンツとのうち少なくとも1つを含む。   Example 9 includes the configuration requirements of Example 8, and the stimulus includes at least one of non-interactive content and interactive content.

例10は、前述の例のうちいずれかの構成要件を含み、上記刺激は、上記対象に提供されるコンテンツの一部を含む。   Example 10 includes a component of any of the previous examples, and the stimulus includes a portion of content provided to the subject.

例11は、例10の構成要件を含み、上記コンテンツの一部はビデオフレームのシーケンスを含む。   Example 11 includes the configuration requirements of Example 10, and some of the content includes a sequence of video frames.

例12は、前述の例のうちいずれかの構成要件を含み、上記対象を刺激するように構成された刺激コントローラ、をさらに含む。   Example 12 further includes a stimulus controller configured to stimulate the subject, including any of the components of the previous examples.

例13は、例12の構成要件を含み、上記リモート装置、をさらに含み、上記リモート装置は、上記刺激コントローラにメッセージを送信するように構成され、上記刺激コントローラは、上記メッセージを受信することに応答して上記対象を刺激するように構成される。   Example 13 includes the configuration requirements of Example 12, further including the remote device, wherein the remote device is configured to send a message to the stimulus controller, the stimulus controller receiving the message. It is configured to stimulate the subject in response.

例14は、前述の例のうちいずれかの構成要件を含み、上記リモート装置、をさらに含み、上記リモート装置は、上記匿名データセットを解析して、上記対象の推定された感情状態を識別し、上記対象の上記推定された感情状態に基づいて上記対象のターゲット感情状態を識別し、上記対象を上記ターゲット感情状態に移行する刺激を識別し、上記刺激を用いて上記対象を刺激するように構成される。   Example 14 includes the configuration requirements of any of the previous examples and further includes the remote device, wherein the remote device analyzes the anonymous data set to identify an estimated emotional state of the subject. Identifying the target emotional state of the target based on the estimated emotional state of the target, identifying a stimulus that transitions the target to the target emotional state, and stimulating the target using the stimulus Composed.

例15は、装置を用いて感情を検出する方法であり、当該方法は、対象の顔を表すイメージデータを受信するステップと、上記イメージデータを解析して、上記顔における複数の点を識別するステップと、上記複数の点を記述した匿名データセットを記憶するステップであって、上記匿名データセットの各要素は識別子フィールドと場所フィールドとを含む、ステップと、上記匿名データセットを、上記装置とは区別可能なリモート装置に送信するステップと、上記イメージデータを削除するステップと、を含む。   Example 15 is a method for detecting an emotion using an apparatus, which includes receiving image data representing a target face and analyzing the image data to identify a plurality of points on the face. Storing an anonymous data set describing the plurality of points, wherein each element of the anonymous data set includes an identifier field and a location field, the anonymous data set, and the device Includes transmitting to a distinguishable remote device and deleting the image data.

例16は、例15の構成要件を含み、上記イメージデータを受信するステップは、2次元イメージデータと3次元イメージデータとのうち少なくとも1つを受信するステップを含む。   Example 16 includes the configuration requirements of Example 15, and receiving the image data includes receiving at least one of two-dimensional image data and three-dimensional image data.

例17は、例15又は16の構成要件を含み、上記イメージデータを解析するステップは、データセットを汎用顔に正規化するステップを含み、上記匿名データセットを記憶するステップは、上記データセットを記憶するステップを含む。   Example 17 includes the requirements of Example 15 or 16, wherein analyzing the image data includes normalizing the data set to a generic face, and storing the anonymous data set comprises: Storing.

例18は、例15乃至17のうちいずれかの構成要件を含み、上記イメージデータを解析するステップは、目印点を識別するステップを含む。   Example 18 includes the components of any of Examples 15-17, and the step of analyzing the image data includes identifying a landmark.

例19は、例15乃至18のうちいずれかの構成要件を含み、上記匿名データセットを記憶するステップは、2次元値と3次元値とのうち少なくとも1つを各要素の上記場所フィールドに記憶するステップを含む。   Example 19 includes the configuration requirements of any of Examples 15-18, and the step of storing the anonymous data set stores at least one of a two-dimensional value and a three-dimensional value in the location field of each element. Including the steps of:

例20は、例15乃至19のうちいずれかの構成要件を含み、上記イメージデータをカメラを介して取得するステップと、上記イメージデータを解析するステップ、上記匿名データセットを記憶するステップ、及び上記匿名データセットを送信するステップの前に、上記カメラを非アクティブ化するステップと、をさらに含む。   Example 20 includes the constituent elements of any of Examples 15 to 19, and the step of acquiring the image data through a camera, the step of analyzing the image data, the step of storing the anonymous data set, and the above Deactivating the camera prior to transmitting the anonymous data set.

例21は、例20の構成要件を含み、上記イメージデータを取得するステップは、上記装置に対して一体的なカメラから上記イメージデータを取得するステップを含む。   Example 21 includes the configuration requirements of Example 20, and obtaining the image data includes obtaining the image data from a camera integrated with the device.

例22は、例15乃至21のうちいずれかの構成要件を含み、上記イメージデータを受信するステップの前に上記対象に提供される刺激を識別するステップと、上記匿名データセットを解析して、上記刺激を提示されたときの上記対象の感情状態を決定するステップと、をさらに含む。   Example 22 includes any of the requirements of Examples 15-21, and identifies the stimulus provided to the subject prior to receiving the image data; and analyzing the anonymous data set; Determining the emotional state of the subject when presented with the stimulus.

例23は、例22の構成要件を含み、上記刺激を識別するステップは、非インタラクティブコンテンツとインタラクティブコンテンツとのうち少なくとも1つを識別するステップを含む。   Example 23 includes the configuration requirements of Example 22, wherein identifying the stimulus includes identifying at least one of non-interactive content and interactive content.

例24は、例15乃至23のうちいずれかの構成要件を含み、上記刺激を識別するステップは、上記対象に提供されるコンテンツの一部を識別するステップを含む。   Example 24 includes the components of any of Examples 15-23, and identifying the stimulus includes identifying a portion of content provided to the subject.

例25は、例24の構成要件を含み、上記コンテンツの一部を識別するステップは、上記コンテンツ内のビデオフレームのシーケンスと上記コンテンツ内の1つ以上の時間オフセットとのうち少なくとも1つを識別するステップを含む。   Example 25 includes the configuration requirements of Example 24, and identifying the portion of the content identifies at least one of a sequence of video frames in the content and one or more time offsets in the content. Including the steps of:

例26は、例15乃至25のうちいずれかの構成要件を含み、上記対象を刺激するステップ、をさらに含む。   Example 26 includes the components of any of Examples 15 to 25 and further includes stimulating the subject.

例27は、例26の構成要件を含み、上記対象を刺激するステップは、上記リモート装置から刺激コントローラにメッセージを送信するステップと、上記対象を刺激する刺激を生成するステップと、を含む。   Example 27 includes the requirements of Example 26, and stimulating the subject includes sending a message from the remote device to a stimulus controller and generating a stimulus that stimulates the subject.

例28は、例15乃至27のうちいずれかの構成要件を含み、上記匿名データを解析して、上記対象の推定された感情状態を識別するステップと、上記対象の上記推定された感情状態に基づいて上記対象のターゲット感情状態を識別するステップと、上記対象を上記ターゲット感情状態に移行する刺激を識別するステップと、上記刺激を用いて上記対象を刺激するステップと、をさらに含む。   Example 28 includes any of the constituent requirements of Examples 15 to 27, analyzing the anonymous data to identify the estimated emotional state of the target, and the estimated emotional state of the target Identifying a target emotional state of the subject based on, identifying a stimulus that transitions the subject to the target emotional state, and stimulating the subject using the stimulus.

例29は、命令をエンコードされた非一時的コンピュータプログラム製品であり、上記命令は、1つ以上のプロセッサにより実行されるとき、感情を検出する処理を実行させ、上記処理は、対象の顔を表すイメージデータを受信することと、上記イメージデータを解析して、上記顔における複数の点を識別することと、上記複数の点を記述した匿名データセットを記憶することであって、上記匿名データセットの各要素は識別子フィールドと場所フィールドとを含む、ことと、上記匿名データセットを、上記装置とは区別可能なリモート装置に送信することと、上記イメージデータを削除することと、を含む。   Example 29 is a non-transitory computer program product encoded with instructions that, when executed by one or more processors, causes an emotion detection process to be performed, the process comprising: Receiving the representing image data, analyzing the image data to identify a plurality of points on the face, and storing an anonymous data set describing the plurality of points, the anonymous data Each element of the set includes an identifier field and a location field, transmitting the anonymous data set to a remote device distinguishable from the device, and deleting the image data.

例30は、例29の構成要件を含み、上記イメージデータを受信することは、2次元イメージデータと3次元イメージデータとのうち少なくとも1つを受信することを含む。   Example 30 includes the configuration requirements of Example 29, and receiving the image data includes receiving at least one of two-dimensional image data and three-dimensional image data.

例31は、例29又は30の構成要件を含み、上記イメージデータを解析することは、データセットを汎用顔に正規化することを含み、上記匿名データセットを記憶することは、上記データセットを記憶することを含む。   Example 31 includes the configuration requirements of Example 29 or 30, wherein analyzing the image data includes normalizing the data set to a generic face, and storing the anonymous data set allows the data set to be Including remembering.

例32は、例29乃至31のうちいずれかの構成要件を含み、上記イメージデータを解析することは、目印点を識別することを含む。   Example 32 includes the configuration requirements of any of Examples 29-31, and analyzing the image data includes identifying landmark points.

例33は、例29乃至32のうちいずれかの構成要件を含み、上記匿名データセットを記憶することは、2次元値と3次元値とのうち少なくとも1つを各要素の上記場所フィールドに記憶することを含む。   Example 33 includes the configuration requirements of any of Examples 29 to 32, and storing the anonymous data set stores at least one of a two-dimensional value and a three-dimensional value in the location field of each element. Including doing.

例34は、例29乃至33のうちいずれかの構成要件を含み、上記イメージデータをカメラを介して取得することと、上記イメージデータを解析すること、上記匿名データセットを記憶すること、及び上記匿名データセットを送信することの前に、上記カメラを非アクティブ化することと、をさらに含む。   Example 34 includes the constituent elements of any of Examples 29 to 33, and acquires the image data through a camera, analyzes the image data, stores the anonymous data set, and the above Deactivating the camera prior to sending the anonymous data set.

例35は、例34の構成要件を含み、上記イメージデータを取得することは、上記装置に対して一体的なカメラから上記イメージデータを取得することを含む。   Example 35 includes the configuration requirements of Example 34, and obtaining the image data includes obtaining the image data from a camera that is integral to the device.

例36は、例29乃至35のうちいずれかの構成要件を含み、上記イメージデータを受信することの前に上記対象に提供される刺激を識別することと、上記匿名データセットを解析して、上記刺激を提示されたときの上記対象の感情状態を決定することと、をさらに含む。   Example 36 includes the components of any of Examples 29-35, identifying a stimulus provided to the subject prior to receiving the image data, and analyzing the anonymous data set, Further determining the emotional state of the subject when presented with the stimulus.

例37は、例36の構成要件を含み、上記刺激を識別することは、非インタラクティブコンテンツとインタラクティブコンテンツとのうち少なくとも1つを識別することを含む。   Example 37 includes the configuration requirements of Example 36, and identifying the stimulus includes identifying at least one of non-interactive content and interactive content.

例38は、例29乃至37のうちいずれかの構成要件を含み、上記刺激を識別することは、上記対象に提供されるコンテンツの一部を識別することを含む。   Example 38 includes the components of any of Examples 29-37, and identifying the stimulus includes identifying a portion of content provided to the subject.

例39は、例38の構成要件を含み、上記コンテンツの一部を識別することは、上記コンテンツ内のビデオフレームのシーケンスと上記コンテンツ内の1つ以上の時間オフセットとのうち少なくとも1つを識別することを含む。   Example 39 includes the configuration requirements of Example 38, wherein identifying a portion of the content identifies at least one of a sequence of video frames within the content and one or more time offsets within the content. Including doing.

例40は、例29乃至39のうちいずれかの構成要件を含み、上記対象を刺激すること、をさらに含む。   Example 40 includes the components of any of Examples 29-39 and further includes stimulating the subject.

例41は、例40の構成要件を含み、上記対象を刺激することは、上記リモート装置から刺激コントローラにメッセージを送信することと、上記対象を刺激する刺激を生成することと、を含む。   Example 41 includes the requirements of Example 40, wherein stimulating the subject includes sending a message from the remote device to a stimulus controller and generating a stimulus that stimulates the subject.

例42は、例29乃至41のうちいずれかの構成要件を含み、上記匿名データを解析して、上記対象の推定された感情状態を識別することと、上記対象の上記推定された感情状態に基づいて上記対象のターゲット感情状態を識別することと、上記対象を上記ターゲット感情状態に移行する刺激を識別することと、上記刺激を用いて上記対象を刺激することと、をさらに含む。   Example 42 includes any of the constituent requirements of Examples 29 to 41, and the anonymous data is analyzed to identify the estimated emotional state of the target, and to the estimated emotional state of the target Identifying the target emotional state of the subject based on, identifying a stimulus that transitions the subject to the target emotional state, and stimulating the subject using the stimulus.

前述の例示的な実施形態の説明は、例示及び説明の目的で提示されている。上記説明は、網羅的であるように又は本開示を開示された厳密な形式に限定するようには意図されない。本開示を考慮して、多くの修正及び変形が可能である。本開示の範囲は、上記詳細な説明によってでなく、本明細書に添付される請求項によって限定されることが意図される。本出願に対して優先権を主張する将来申請される出願は、開示された対象事項を異なる仕方で請求する可能性があり、本明細書において様々に開示され又はその他の方法で例証されるように1つ以上の限定の任意のセットを一般に含む可能性がある。   The foregoing description of the exemplary embodiments has been presented for purposes of illustration and description. The above description is not intended to be exhaustive or to limit the present disclosure to the precise form disclosed. Many modifications and variations are possible in light of this disclosure. It is intended that the scope of the disclosure be limited not by the above detailed description, but by the claims appended hereto. Applications filed in the future claiming priority over this application may claim the disclosed subject matter differently and will be variously disclosed or otherwise exemplified herein. May generally include any set of one or more limitations.

Claims (25)

感情検出装置を含む感情検出システムであって、前記感情検出装置は、
メモリと、
前記メモリに結合された少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサにより実行可能であり、かつ
対象の顔を表すイメージデータを受信し、
前記イメージデータを解析して、前記顔における複数の点を識別し、
前記複数の点を記述した匿名データセットを記憶することであって、前記匿名データセットの各要素は識別子フィールドと場所フィールドとを含み、
前記匿名データセットを、前記感情検出装置とは区別可能なリモート装置に送信し、
前記イメージデータを削除する
ように構成された顔イメージ処理モジュールと、
を含む、感情検出システム。
An emotion detection system including an emotion detection device, wherein the emotion detection device includes:
Memory,
At least one processor coupled to the memory;
Receiving image data executable by the at least one processor and representing the face of the subject;
Analyzing the image data to identify a plurality of points on the face;
Storing an anonymous data set describing the plurality of points, each element of the anonymous data set including an identifier field and a location field;
Sending the anonymous data set to a remote device distinguishable from the emotion detection device,
A face image processing module configured to delete the image data;
Including emotion detection system.
前記イメージデータは、2次元イメージデータと3次元イメージデータとのうち少なくとも1つを含む、請求項1に記載の感情検出システム。   The emotion detection system according to claim 1, wherein the image data includes at least one of two-dimensional image data and three-dimensional image data. 前記顔イメージ処理モジュールは、
データセットを汎用顔に正規化することにより少なくとも部分的に前記イメージデータを解析し、
前記データセットを記憶することにより少なくとも部分的に前記匿名データセットを記憶する
ように構成される、請求項1に記載の感情検出システム。
The face image processing module includes:
Analyzing the image data at least in part by normalizing the data set to a generic face;
The emotion detection system of claim 1, configured to store the anonymous data set at least in part by storing the data set.
前記イメージデータは目印点を含む、請求項1に記載の感情検出システム。   The emotion detection system according to claim 1, wherein the image data includes a landmark. 前記匿名データセットの各要素の前記場所フィールドは、2次元値及び3次元値のうち少なくとも1つを含む、請求項1に記載の感情検出システム。   The emotion detection system according to claim 1, wherein the location field of each element of the anonymous data set includes at least one of a two-dimensional value and a three-dimensional value. 前記感情検出装置は、前記イメージデータを取得するように構成されたカメラをさらに含み、前記顔イメージ処理モジュールは、前記イメージデータを解析すること、前記匿名データセットを記憶すること、及び前記匿名データセットを送信することの前に、前記カメラを非アクティブ化するように構成される、請求項1に記載の感情検出システム。   The emotion detection device further includes a camera configured to acquire the image data, and the face image processing module analyzes the image data, stores the anonymous data set, and the anonymous data The emotion detection system of claim 1, wherein the emotion detection system is configured to deactivate the camera prior to transmitting a set. 前記感情検出装置は、前記カメラと前記メモリと前記少なくとも1つのプロセッサと前記顔イメージ処理モジュールとを含むハウジングをさらに含む、請求項6に記載の感情検出システム。   The emotion detection system according to claim 6, wherein the emotion detection device further includes a housing including the camera, the memory, the at least one processor, and the face image processing module. 前記リモート装置、をさらに含み、前記リモート装置は、
前記イメージデータを受信することの前に前記対象に提供される刺激を識別し、
前記匿名データセットを解析して、前記刺激を提示されたときの前記対象の感情状態を決定する
ように構成される、請求項1に記載の感情検出システム。
The remote device further comprising:
Identifying a stimulus provided to the subject prior to receiving the image data;
The emotion detection system according to claim 1, configured to analyze the anonymous data set and determine an emotional state of the subject when presented with the stimulus.
前記刺激は、非インタラクティブコンテンツとインタラクティブコンテンツとのうち少なくとも1つを含む、請求項8に記載の感情検出システム。   The emotion detection system according to claim 8, wherein the stimulus includes at least one of non-interactive content and interactive content. 前記刺激は、前記対象に提供されるコンテンツの一部を含む、請求項8に記載の感情検出システム。   The emotion detection system according to claim 8, wherein the stimulus includes a part of content provided to the subject. 前記コンテンツの一部はビデオフレームのシーケンスを含む、請求項10に記載の感情検出システム。   The emotion detection system of claim 10, wherein the portion of content includes a sequence of video frames. 前記対象を刺激するように構成された刺激コントローラ、をさらに含む請求項1乃至11のうちいずれか1項に記載の感情検出システム。   The emotion detection system according to claim 1, further comprising a stimulation controller configured to stimulate the subject. 前記リモート装置、をさらに含み、前記リモート装置は、前記刺激コントローラにメッセージを送信するように構成され、前記刺激コントローラは、前記メッセージを受信することに応答して前記対象を刺激するように構成される、請求項12に記載の感情検出システム。   The remote device, wherein the remote device is configured to send a message to the stimulus controller, and the stimulus controller is configured to stimulate the subject in response to receiving the message. The emotion detection system according to claim 12. 前記リモート装置、をさらに含み、前記リモート装置は、
前記匿名データセットを解析して、前記対象の推定された感情状態を識別し、
前記対象の前記推定された感情状態に基づいて前記対象のターゲット感情状態を識別し、
前記対象を前記ターゲット感情状態に移行する刺激を識別し、
前記刺激を用いて前記対象を刺激する
ように構成される、請求項1乃至11のうちいずれか1項に記載の感情検出システム。
The remote device further comprising:
Analyzing the anonymous data set to identify an estimated emotional state of the subject;
Identifying the target emotional state of the subject based on the estimated emotional state of the subject;
Identifying a stimulus that transitions the subject to the target emotional state;
The emotion detection system according to claim 1, wherein the emotion detection system is configured to stimulate the object using the stimulus.
装置を用いて感情を検出する方法であって、
対象の顔を表すイメージデータを受信するステップと、
前記イメージデータを解析して、前記顔における複数の点を識別するステップと、
前記複数の点を記述した匿名データセットを記憶するステップであって、前記匿名データセットの各要素は識別子フィールドと場所フィールドとを含む、ステップと、
前記匿名データセットを、前記装置とは区別可能なリモート装置に送信するステップと、
前記イメージデータを削除するステップと、
を含む方法。
A method for detecting emotions using a device,
Receiving image data representing the subject's face;
Analyzing the image data to identify a plurality of points on the face;
Storing an anonymous data set describing the plurality of points, each element of the anonymous data set including an identifier field and a location field;
Transmitting the anonymous data set to a remote device distinguishable from the device;
Deleting the image data;
Including methods.
前記イメージデータを解析するステップは、データセットを汎用顔に正規化するステップを含み、前記匿名データセットを記憶するステップは、前記データセットを記憶するステップを含む、請求項15に記載の方法。   The method of claim 15, wherein analyzing the image data includes normalizing a data set to a generic face, and storing the anonymous data set includes storing the data set. 前記イメージデータを解析するステップは、目印点を識別するステップを含む、請求項15に記載の方法。   The method of claim 15, wherein analyzing the image data includes identifying landmark points. 前記イメージデータをカメラを介して取得するステップと、
前記イメージデータを解析するステップ、前記匿名データセットを記憶するステップ、及び前記匿名データセットを送信するステップの前に、前記カメラを非アクティブ化するステップと、
をさらに含む請求項15に記載の方法。
Obtaining the image data via a camera;
Deactivating the camera prior to analyzing the image data, storing the anonymous data set, and transmitting the anonymous data set;
16. The method of claim 15, further comprising:
前記イメージデータを受信するステップの前に前記対象に提供される刺激を識別するステップと、
前記匿名データセットを解析して、前記刺激を提示されたときの前記対象の感情状態を決定するステップと、
をさらに含む請求項15乃至18のうちいずれか1項に記載の方法。
Identifying a stimulus provided to the subject prior to receiving the image data;
Analyzing the anonymous data set to determine the emotional state of the subject when presented with the stimulus;
The method according to any one of claims 15 to 18, further comprising:
前記刺激を識別するステップは、前記対象に提供されるコンテンツの一部を識別するステップを含む、請求項19に記載の方法。   The method of claim 19, wherein identifying the stimulus comprises identifying a portion of content provided to the subject. 前記コンテンツの一部を識別するステップは、前記コンテンツ内のビデオフレームのシーケンスと前記コンテンツ内の1つ以上の時間オフセットとのうち少なくとも1つを識別するステップを含む、請求項20に記載の方法。   21. The method of claim 20, wherein identifying the portion of content includes identifying at least one of a sequence of video frames in the content and one or more time offsets in the content. . プロセッサに動作を実行させるコンピュータプログラムであって、前記動作は、
対象の顔を表すイメージデータを受信することと、
前記イメージデータを解析して、前記顔における複数の点を識別することと、
前記複数の点を記述した匿名データセットを記憶することであって、前記匿名データセットの各要素は識別子フィールドと場所フィールドとを含む、ことと、
前記匿名データセットを、前記プロセッサとは区別可能なリモート装置に送信することと、
前記イメージデータを削除することと、
を含む、コンピュータプログラム。
A computer program for causing a processor to execute an operation,
Receiving image data representing the subject's face;
Analyzing the image data to identify a plurality of points on the face;
Storing an anonymous data set describing the plurality of points, wherein each element of the anonymous data set includes an identifier field and a location field;
Sending the anonymous data set to a remote device distinguishable from the processor;
Deleting the image data;
Including computer programs.
前記イメージデータを解析することは、データセットを汎用顔に正規化することを含み、前記匿名データセットを記憶することは、前記データセットを記憶することを含む、請求項22に記載のコンピュータプログラム。   23. The computer program product of claim 22, wherein analyzing the image data includes normalizing a data set to a generic face, and storing the anonymous data set includes storing the data set. . 前記動作は、
前記イメージデータを受信することの前に前記対象に提供される刺激を識別することと、
前記匿名データセットを解析して、前記刺激を提示されたときの前記対象の感情状態を決定することと、
をさらに含む、請求項22又は23に記載のコンピュータプログラム。
The operation is
Identifying a stimulus provided to the subject prior to receiving the image data;
Analyzing the anonymous data set to determine the emotional state of the subject when presented with the stimulus;
The computer program according to claim 22 or 23, further comprising:
請求項22乃至24のうちいずれか1項に記載のコンピュータプログラムを記憶したコンピュータ読取可能記憶媒体。   A computer readable storage medium storing the computer program according to any one of claims 22 to 24.
JP2017557112A 2015-06-26 2016-05-23 Emotion detection system Active JP6752819B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/752,100 US9600715B2 (en) 2015-06-26 2015-06-26 Emotion detection system
US14/752,100 2015-06-26
PCT/US2016/033737 WO2016209453A1 (en) 2015-06-26 2016-05-23 Emotion detection system

Publications (2)

Publication Number Publication Date
JP2018521381A true JP2018521381A (en) 2018-08-02
JP6752819B2 JP6752819B2 (en) 2020-09-09

Family

ID=57586357

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017557112A Active JP6752819B2 (en) 2015-06-26 2016-05-23 Emotion detection system

Country Status (6)

Country Link
US (1) US9600715B2 (en)
EP (1) EP3314530A4 (en)
JP (1) JP6752819B2 (en)
KR (1) KR102611913B1 (en)
CN (1) CN107710222A (en)
WO (1) WO2016209453A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020177498A (en) * 2019-04-19 2020-10-29 ヤフー株式会社 Determination device, determination method, and determination program
WO2022249460A1 (en) * 2021-05-28 2022-12-01 株式会社I’mbesideyou Video analysis system

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113532464A (en) * 2015-10-08 2021-10-22 松下电器(美国)知识产权公司 Control method, personal authentication apparatus, and recording medium
US10534955B2 (en) * 2016-01-22 2020-01-14 Dreamworks Animation L.L.C. Facial capture analysis and training system
US10387571B2 (en) * 2016-07-20 2019-08-20 Vidicons LLC Networked device with suggested response to incoming message
US10636175B2 (en) * 2016-12-22 2020-04-28 Facebook, Inc. Dynamic mask application
US10846517B1 (en) * 2016-12-30 2020-11-24 Amazon Technologies, Inc. Content modification via emotion detection
US10747859B2 (en) * 2017-01-06 2020-08-18 International Business Machines Corporation System, method and computer program product for stateful instruction-based dynamic man-machine interactions for humanness validation
EP3660629B1 (en) * 2017-07-05 2023-08-30 Shanghai Cambricon Information Technology Co., Ltd Data processing apparatus and method
US11086634B2 (en) 2017-07-05 2021-08-10 Shanghai Cambricon Information Technology Co., Ltd. Data processing apparatus and method
CN109583577B (en) 2017-09-29 2021-04-23 上海寒武纪信息科技有限公司 Arithmetic device and method
CN107578014B (en) 2017-09-06 2020-11-03 上海寒武纪信息科技有限公司 Information processing apparatus and method
EP3704643A1 (en) * 2017-11-03 2020-09-09 Sensormatic Electronics LLC Methods and system for distributed cameras and demographics analysis
CN107992822B (en) * 2017-11-30 2020-04-10 Oppo广东移动通信有限公司 Image processing method and apparatus, computer device, computer-readable storage medium
US10740617B2 (en) * 2017-12-19 2020-08-11 Intel Corporation Protection and recovery of identities in surveillance camera environments
US10776609B2 (en) * 2018-02-26 2020-09-15 Samsung Electronics Co., Ltd. Method and system for facial recognition
CN108401129A (en) * 2018-03-22 2018-08-14 广东小天才科技有限公司 Video call method, device, terminal based on Wearable and storage medium
CN108741822B (en) * 2018-05-22 2021-06-08 国家电网公司客户服务中心南方分中心 Calling center customer service seat worker's chair
US11279041B2 (en) * 2018-10-12 2022-03-22 Dream Face Technologies, Inc. Socially assistive robot
US11017430B2 (en) 2018-11-16 2021-05-25 International Business Machines Corporation Delivering advertisements based on user sentiment and learned behavior
KR20200093090A (en) * 2019-01-07 2020-08-05 현대자동차주식회사 Vehicle and control method for the same
US11102353B2 (en) 2019-05-07 2021-08-24 Avaya Inc. Video call routing and management based on artificial intelligence determined facial emotion
CN112446243A (en) * 2019-08-29 2021-03-05 鸿富锦精密电子(郑州)有限公司 Electronic device and emotion-based content pushing method
EP4107655B1 (en) * 2020-02-21 2023-12-06 Philip Morris Products S.A. Method and apparatus for interactive and privacy-preserving communication between a server and a user device
US20230096240A1 (en) * 2020-02-21 2023-03-30 Philip Morris Products S.A. Method and apparatus for interactive and privacy-preserving communication between a server and a user device
US11341543B2 (en) 2020-08-31 2022-05-24 HYPE AR, Inc. System and method for generating visual content associated with tailored advertisements in a mixed reality environment
US11656681B2 (en) 2020-08-31 2023-05-23 Hypear, Inc. System and method for determining user interactions with visual content presented in a mixed reality environment
US11240469B1 (en) * 2020-12-18 2022-02-01 Frqncy, Inc. Systems and methods for audience interactions in real-time multimedia applications
US20230370692A1 (en) * 2022-05-14 2023-11-16 Dish Network Technologies India Private Limited Customized content delivery
US11843829B1 (en) * 2022-05-24 2023-12-12 Rovi Guides, Inc. Systems and methods for recommending content items based on an identified posture

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003016475A (en) * 2001-07-04 2003-01-17 Oki Electric Ind Co Ltd Information terminal device with image communication function and image distribution system
JP2008085685A (en) * 2006-09-28 2008-04-10 Hitachi Ltd In-vehicle information display system provided with small-sized camera
JP2013020365A (en) * 2011-07-08 2013-01-31 Namco Bandai Games Inc Game system, program, and information storage medium
JP2013178816A (en) * 2003-07-18 2013-09-09 Canon Inc Image processing apparatus, imaging apparatus and image processing method
JP2014042235A (en) * 2012-07-24 2014-03-06 Takashi Hirabayashi Audience rating survey system, facial expression information generation device, and facial expression information generation program
US20140267413A1 (en) * 2013-03-14 2014-09-18 Yangzhou Du Adaptive facial expression calibration

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5960099A (en) * 1997-02-25 1999-09-28 Hayes, Jr.; Carl Douglas System and method for creating a digitized likeness of persons
TWI221574B (en) 2000-09-13 2004-10-01 Agi Inc Sentiment sensing method, perception generation method and device thereof and software
KR200265257Y1 (en) * 2001-11-15 2002-02-21 삼성네트웍스 주식회사 An adaptive emotion controling apparatus
US7221809B2 (en) * 2001-12-17 2007-05-22 Genex Technologies, Inc. Face recognition system and method
US6947579B2 (en) * 2002-10-07 2005-09-20 Technion Research & Development Foundation Ltd. Three-dimensional face recognition
US7233684B2 (en) 2002-11-25 2007-06-19 Eastman Kodak Company Imaging method and system using affective information
US7824409B2 (en) * 2003-01-31 2010-11-02 Zimmer, Inc. Modular impaction grafting tamps
US8488023B2 (en) 2009-05-20 2013-07-16 DigitalOptics Corporation Europe Limited Identifying facial expressions in acquired digital images
US7606392B2 (en) 2005-08-26 2009-10-20 Sony Corporation Capturing and processing facial motion data
US7751599B2 (en) * 2006-08-09 2010-07-06 Arcsoft, Inc. Method for driving virtual facial expressions by automatically detecting facial expressions of a face image
DE602009000214D1 (en) * 2008-04-07 2010-11-04 Ntt Docomo Inc Emotion recognition messaging system and messaging server for it
US8462996B2 (en) 2008-05-19 2013-06-11 Videomining Corporation Method and system for measuring human response to visual stimulus based on changes in facial expression
CN101620669B (en) * 2008-07-01 2011-12-07 邹采荣 Method for synchronously recognizing identities and expressions of human faces
US8154615B2 (en) * 2009-06-30 2012-04-10 Eastman Kodak Company Method and apparatus for image display control according to viewer factors and responses
US20110063440A1 (en) * 2009-09-11 2011-03-17 Neustaedter Carman G Time shifted video communications
TWI430185B (en) * 2010-06-17 2014-03-11 Inst Information Industry Facial expression recognition systems and methods and computer program products thereof
US8705813B2 (en) * 2010-06-21 2014-04-22 Canon Kabushiki Kaisha Identification device, identification method, and storage medium
US8667519B2 (en) * 2010-11-12 2014-03-04 Microsoft Corporation Automatic passive and anonymous feedback system
EP2661917B1 (en) * 2011-01-07 2016-09-28 Empire Technology Development LLC Quantifying frustration via a user interface
WO2012139243A1 (en) * 2011-04-11 2012-10-18 Intel Corporation Personalized advertisement selection system and method
JP2014516490A (en) * 2011-04-11 2014-07-10 インテル・コーポレーション Personalized program selection system and method
US8903176B2 (en) * 2011-11-14 2014-12-02 Sensory Logic, Inc. Systems and methods using observed emotional data
JP5845988B2 (en) * 2012-03-16 2016-01-20 大日本印刷株式会社 Image processing system, image processing method, server, and program
US20140063237A1 (en) * 2012-09-03 2014-03-06 Transportation Security Enterprises, Inc.(TSE), a Delaware corporation System and method for anonymous object identifier generation and usage for tracking
US9105119B2 (en) * 2013-05-02 2015-08-11 Emotient, Inc. Anonymization of facial expressions
KR20150009032A (en) * 2013-07-09 2015-01-26 엘지전자 주식회사 Mobile terminal and method for controlling the same
CN103731728A (en) * 2014-01-24 2014-04-16 浪潮软件集团有限公司 Method for real-time audience investigation
CN104182619B (en) * 2014-08-05 2017-06-06 上海市精神卫生中心 The system and method for emotional characteristics parameter acquisition and treatment is realized based on intelligent terminal
CN104361356B (en) * 2014-12-08 2017-08-11 清华大学 A kind of film audient experience evaluation method based on man-machine interaction

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003016475A (en) * 2001-07-04 2003-01-17 Oki Electric Ind Co Ltd Information terminal device with image communication function and image distribution system
JP2013178816A (en) * 2003-07-18 2013-09-09 Canon Inc Image processing apparatus, imaging apparatus and image processing method
JP2008085685A (en) * 2006-09-28 2008-04-10 Hitachi Ltd In-vehicle information display system provided with small-sized camera
JP2013020365A (en) * 2011-07-08 2013-01-31 Namco Bandai Games Inc Game system, program, and information storage medium
JP2014042235A (en) * 2012-07-24 2014-03-06 Takashi Hirabayashi Audience rating survey system, facial expression information generation device, and facial expression information generation program
US20140267413A1 (en) * 2013-03-14 2014-09-18 Yangzhou Du Adaptive facial expression calibration

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
LILY MENG, 外3名: ""Retaining expressions on de-identified faces"", 2014 37TH INTERNATIONAL CONVENTION ON INFORMATION AND COMMUNICATION TECHNOLOGY, ELECTRONICS AND MICR, JPN6020025796, 30 May 2014 (2014-05-30), US, pages 1252 - 1257, XP032623057, ISSN: 0004310028, DOI: 10.1109/MIPRO.2014.6859759 *
塚本明利, 外2名: ""映像認識による広告効果測定支援システム「RESCAT」"", OKIテクニカルレビュー, vol. 第78巻, 第1号, JPN6020025795, 1 October 2011 (2011-10-01), pages 32 - 35, ISSN: 0004310027 *
早川こゆき, 外1名: ""表情変化を考慮したVideo Face Swapping"", 映像情報メディア学会技術報告, vol. 第36巻, 第54号, JPN6020025793, 4 December 2012 (2012-12-04), JP, pages 39 - 42, ISSN: 0004310026 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020177498A (en) * 2019-04-19 2020-10-29 ヤフー株式会社 Determination device, determination method, and determination program
JP7122286B2 (en) 2019-04-19 2022-08-19 ヤフー株式会社 Decision device, decision method and decision program
WO2022249460A1 (en) * 2021-05-28 2022-12-01 株式会社I’mbesideyou Video analysis system

Also Published As

Publication number Publication date
US9600715B2 (en) 2017-03-21
KR20180014195A (en) 2018-02-07
CN107710222A (en) 2018-02-16
EP3314530A1 (en) 2018-05-02
KR102611913B1 (en) 2023-12-11
JP6752819B2 (en) 2020-09-09
EP3314530A4 (en) 2019-02-20
US20160379047A1 (en) 2016-12-29
WO2016209453A1 (en) 2016-12-29

Similar Documents

Publication Publication Date Title
JP6752819B2 (en) Emotion detection system
Zhang et al. Watching the TV watchers
US9344773B2 (en) Providing recommendations based upon environmental sensing
JP6261515B2 (en) Consumption of content with personal reaction
Davies et al. Security and privacy implications of pervasive memory augmentation
US20170095192A1 (en) Mental state analysis using web servers
EP2943854B1 (en) Leveraging physical handshaking in head mounted displays
US20170351768A1 (en) Systems and methods for content targeting using emotional context information
CN109241347A (en) System and method for content reaction annotation
CN105793857A (en) Access tracking and restriction
JP2022516640A (en) Highlight image generation method using biometric data and its device
Andrejevic FCJ-187 The droning of experience
CN103942243A (en) Display apparatus and method for providing customer-built information using the same
Bâce et al. Quantification of users' visual attention during everyday mobile device interactions
Barra et al. Biometric data on the edge for secure, smart and user tailored access to cloud services
Sedenberg et al. A window into the soul: Biosensing in public
CN114270409A (en) Providing restrictions in computer-generated reality recordings
US20240037944A1 (en) Computer-generated reality recorder
US20200226012A1 (en) File system manipulation using machine learning
WO2015118061A1 (en) Method and system for displaying content to a user
Sasaka et al. A novel framework for estimating viewer interest by unsupervised multimodal anomaly detection
Salah et al. Computer vision for ambient intelligence
Kumar et al. Google glasses impediments
CN110908505B (en) Interest identification method, device, terminal equipment and storage medium
US20160342810A1 (en) Obtaining Data of Interest From Remote Environmental Sensors

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190517

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200626

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200721

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200819

R150 Certificate of patent or registration of utility model

Ref document number: 6752819

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250