CN107710222A - 情绪检测系统 - Google Patents
情绪检测系统 Download PDFInfo
- Publication number
- CN107710222A CN107710222A CN201680031101.2A CN201680031101A CN107710222A CN 107710222 A CN107710222 A CN 107710222A CN 201680031101 A CN201680031101 A CN 201680031101A CN 107710222 A CN107710222 A CN 107710222A
- Authority
- CN
- China
- Prior art keywords
- main body
- mood
- data
- anonymous
- data collection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
- G06V10/95—Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/179—Human faces, e.g. facial parts, sketches or expressions metadata assisted face recognition
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
- Telephonic Communication Services (AREA)
Abstract
本文公开的情绪检测系统主动地保护被监视主体的隐私和安全。该保护措施将这些系统与常规的情绪检测器区分开来。在一些示例中,自包含的情绪检测设备保护主体的身份,同时向情绪检测系统内的其他设备提供描述该主体的情绪状态的匿名数据。在这些示例中,情绪检测设备通过将设备获取的原始图像数据专门隔离在封装在该设备内的存储位置内来保护主体的身份。为了提供匿名数据,情绪检测设备首先处理原始图像数据以标识主体面部的图像内的陆标点。接下来,情绪检测设备将陆标点归一化为通用面部,并将描述经归一化的陆标点的匿名数据集传送到其他设备以用于后续处理。
Description
受版权保护的材料声明
本专利文档中的部分材料受美国和其他国家版权法的版权保护。版权所有者不反对任何人复制如呈现在美国专利和商标局公开提供的文件或记录中的本专利文档或专利公开内容,但在别的方面无论如何都保留所有版权。版权所有者不放弃使此专利文件保持保密的任何权利,包括但不限于依据37C.F.R.§1.14的权利。
背景技术
常规情绪检测器获取并记录描述个人对事件的反应的数据。常规情绪检测器也分析经记录的数据来解释个人对事件的情绪反应。由情绪检测器记录、分析和解释的反应包括个人的语音、面部表情、生理信号、设备使用模式等。为了有效,许多情绪检测器需要个人表现出活动的阈值水平。例如,基于个人语音的情绪检测器需要该个人说出一个或多个可检测的表情。类似地,基于设备使用模式的情绪检测器需要个人操纵对象(例如鼠标或键盘)以建立基线使用模式。其他的情绪检测器需要各传感器与个人进行物理接触才能有效。例如,基于个人生理状态的情绪检测器需要该个人穿戴一个或多个传感器(例如,心电图电极、皮肤电导传感器等)。通过使用常规情绪检测器引入的优点包括持续记录和稍后分析个人对系统生成事件的反应的系统能力。
附图简述
图1例示了根据本公开的实施例配置的情绪检测设备。
图2例示了根据本公开的实施例配置的情绪检测处理。
图3例示了根据本公开的实施例配置的执行情绪检测处理的情绪检测设备。
图4例示了根据本公开的实施例配置的情绪检测系统。
图5例示了根据本公开的实施例配置的情绪监视处理。
图6例示了根据本公开的实施例配置的执行情绪监视处理的情绪检测系统。
图7例示了根据本公开的实施例配置的计算系统。
图8例示了根据本公开的实施例配置的移动计算系统。
详细描述
本文公开的情绪检测系统主动地保护被监视主体的隐私和安全。该保护措施将本文所述的系统与常规的情绪检测器区分开来。在一些示例实施例中,自包含的情绪检测设备保护主体的身份,同时向情绪检测系统内的其他设备提供描述该主体的情绪状态的匿名数据。在这些示例中,情绪检测设备通过将设备获取的原始图像数据专门隔离在封装在该设备内的存储位置内来保护主体的身份。为了提供匿名数据,情绪检测设备首先处理原始图像数据以标识主体面部的图像内的陆标点。接下来,情绪检测设备将陆标点归一化为通用面部,并将描述经归一化的陆标点的匿名数据集传送到其他设备以用于后续处理。在一些示例中,其他设备处理匿名数据集与关联于描述被呈现给主体的刺激的信息以标识并记录该主体的情绪状态。此刺激可包括非交互式内容(例如,书籍、电视、电影、广播节目、音乐、广告等)。此刺激还可包括交互式内容(例如,游戏、购物等)。在一些示例中,情绪检测系统内的其他设备试图通过调整刺激(例如,调整价格、情节、音乐流派等)来影响主体的情绪状态。虽然本文提供的各种示例实施例涉及面部图像,但是也可使用其它目标特征来评估主体的情绪状态,诸如语音记录、身体姿态和/或姿势图像以及诸如心率和血压之类的生物统计数据,仅举数例。如将理解的,本文提供的技术可被用于将任何此类目标原始数据封装在设备内,标识该数据内的陆标点,并将陆标点归一化为通用模型(诸如使用通用语音来重复用户的变调和经提高的音调的通用语音模型,或使用通用身体来重复用户的身体语言和/或姿势的通用躯干模型)。在任何此类示例情况下,可将描述经归一化的陆标点的匿名数据集传送到其他设备以供后续处理。
下面详细讨论这些示例方面和实施例的其他方面、实施例和优点。此外,应该理解的是,前述信息和下面的详细描述仅仅是各个方面和实施例的说明性示例,并且旨在提供用于理解所要求保护的方面和实施例的性质和特征的概述或框架。对“实施例”、“其他实施例”、“示例”、“一些实施例”、“一些示例”、“替换实施例”、“各种实施例”、“一个实施例”、“至少一个实施例”、“另一实施例”、“这个和其他实施例”等等的引用不一定是相互排斥的,并且旨在指示结合该实施例或示例描述的特定特征、结构或特性可被包括在至少一个实施例或者示例中。本文中此类术语的出现不一定都指代同一实施例或示例。本文公开的任何实施例或示例可以与任何其它实施例或示例组合。
而且,本文使用的措辞和术语是出于描述的目的,而不应被认为是限制性的。在本文中以单数形式引用的各示例、各实施例、各组件、各元素或各系统和各方法的各动作也可包含包括复数的实施例,并且在本文中以复数形式引用的任何任何实施例、组件、元素或动作也可包含仅包括单个实施例。以单数或复数形式引用不旨在限制目前所公开的系统或方法,及其组件、动作或元素。本文使用的“包括”、“含有”、“具有”、“包含”、“涉及”及其变体意在涵盖其后列出的项目及其等同物以及附加项目。对“或”的引用可被解释为包含性的,使得使用“或”描述的任何术语可指示所描述的术语中的一个、多于一个以及全部。附加地,本文档和通过引用所结合的文档之间的不一致的术语用法的情况,在结合的引用中的用法应当被认为是对本文档的用法的补充;对于不可调和的不一致,以本文档中的术语用法为准。
总体概述
如前所解释的,常规情绪检测器提供了许多益处,但是也取决于应用而受到不利影响。例如,在涉及隐私的方面,大多数人类主体不希望受到持续的监察。在监察人员坚持记录他们的确切样貌和行为时尤其如此。附加地,大多数人类主体都担心监察记录在未经他们许可的情况下被误用、盗取或以其他方式被使用。出于对比的目的,大多数人类用户并不反对表达自己、或者对他们的情绪反应进行匿名分析,因为他们反对的是有相机连续记录他们的一举一动。
因此,根据本公开的一些示例提供了情绪检测设备和系统,其中指示主体的情绪状态的输出数据是匿名的(即,输出数据不指示主体的个人身份,使得例如,该主体的实际标识不被包括在输出数据中)。此类情绪检测设备和系统至少因通过例如将数据归一化到通用主体的模型来生成匿名数据而与常规情绪检测器不同。在一些此类示例中,该匿名数据是情绪检测设备所提供的唯一输出。在这些示例中,情绪检测设备在提供匿名数据之前删除可被用于标识对象的信息(例如,描述对象的面部、语音、身体姿态和姿势或其他可检测的标识特点的信息)。以此方式,这些示例为被监视的主体的隐私和安全性提供附加的保护。
在一些示例中,情绪检测设备被结合到包括附加特征的情绪检测系统中。例如,一些示例包括情绪检测系统,该情绪检测系统包括一个或多个情绪检测设备、分析由情绪检测设备传送的匿名数据的一个或多个远程设备、以及将情绪检测设备耦合到远程设备的网络。在这些示例中,远程设备接收匿名数据并挖掘匿名数据以分类各个主体的情绪状态。然后安全地存储指示各个主体的情绪状态的情绪标识符以供后续处理。
在一些示例中,情绪检测系统进一步包括一个或多个刺激控制器。在这些示例中,远程设备可被配置成自动控制一个或多个刺激控制器的操作。此控制可通过分析匿名数据或情绪标识符来启动。例如,在一些示例中,远程设备分析主体的匿名数据集并标识与匿名数据相关联的将要执行的响应动作。响应于标识响应动作,远程设备执行该响应动作。例如,在远程设备检测到与第一刺激相关联的消极情绪状态的情况下,远程设备可标识指定第二刺激的响应动作。响应于标识诸如响应动作,远程设备可自动地生成刺激消息并将刺激消息传送到至少一个刺激控制器以生成第二刺激。在此示例中,响应于接收刺激消息,刺激控制器向对象呈现第二刺激。
本文公开的这些和其他示例提供了超过常规情绪检测器的各种附加优点。例如,在本文描述的一些示例中,没有针对主体的实际拍摄被执行、没有图像数据被持久地存储、并且由专用设备(例如,情绪检测设备)而不是由通用可编程设备(例如,个人计算机、膝上型计算机、智能电话、平板等)来分析原始图像数据。为了与常规情绪检测器相比较,该技术防止通用可编程设备分析软件堆栈的上层中的原始图像数据,其中原始图像数据更容易暴露于隐私和安全性威胁。在其他示例中,情绪检测设备在获取输入数据之后关闭用于获取描述主体身份的输入数据的相机、话筒或其他输入。以此方式,这些示例增加了获得对输入数据和输出数据的非法访问的难度。此外,根据一些示例,情绪检测系统有效地利用匿名数据来完成许多有价值的动作,如下面进一步详细描述的。
在更具体的示例中,情绪检测系统使用面部图像来监视主体的情绪状态。该情绪检测系统对于主体而言是方便的,因为它比其他类型的情绪检测系统具有较小的侵入性并需要较低的主体活动阈值。此外,该情绪检测系统通过捕捉,分析和删除自包含的、单一情绪检测设备内的图像数据来解决主体对非法记录或使用他们的样貌的顾虑。下面进一步描述此类情绪检测设备、私人情绪识别传感器(PERS)的一个示例。
该情绪检测设备可包括相机、面部图像处理组件、数据存储、和数据传输组件。在一些示例中,相机获取描述对象面部的图像数据。面部图像处理组件处理图像数据以生成描述主体面部的物理状态的匿名数据集。此匿名数据集可被进一步分析以确定关于主体的情绪状态的细节,但不可被用于确定该主体的身份。此设备可被轻易地外推到其他情绪指示功能。例如,在另一实施例中,情绪检测设备可包括话筒、语音处理组件、数据存储、和数据传输组件。在此类示例中,话筒获取描述主体言语发声的语音数据。语音处理组件处理该语音数据以生成描述主体语音的状态(关于变调、响度等)的匿名数据集。此匿名数据集可被进一步分析以确定关于主体的情绪状态的细节,但不可被用于确定该主体的身份。在其他示例中,该情绪检测设备可包括相机、身体姿态、和姿势图像处理组件、数据存储、以及数据传输组件。在此类示例中,相机获取描述主体身体姿态和姿势状态的身体姿态和/或姿势数据。图像处理组件处理图像数据以生成描述主体身体和/或姿势的物理状态的匿名数据集。此匿名数据集可被进一步分析以确定关于主体的情绪状态的细节,但不可被用于确定该主体的身份。根据本公开,多种其他变体将显而易见。对特定目标情绪指示特征的选择将取决于诸如处理数据以标识主体的情绪状态的所期望的计算负担之类的因素。任何此类目标情绪指示特征可独立地被分析和使用,或与其他目标情绪指示特征结合以努力获得对给定主体的情绪状态的更全面的理解(例如,面部和声音,或面部和姿势等)。在任何此类情况下,原始情绪指示数据被转换成匿名的等同物,而原始数据本身可被丢弃以便保护主体的身份。
情绪检测设备
图1例示了情绪检测设备PERS 100的一个示例。PERS 100可使用可编程设备来实现,诸如可使用下面参考图9和图10描述的系统的任何组件来制造。如图1所示,PERS 100包括其中设置有相机104、面部图像处理器106和输出缓冲器114的外壳102。在一些示例中,外壳由塑料、铝或一些其他的耐用材料制成。外壳102可包括使得外壳能够被安装在各种位置和方位或各种结构的紧固件。例如,外壳102可包括夹子、树脂,钩环紧固件或其他机制,以使情绪检测设备能够被安装在柜台、计算机监视器、墙壁、广告板、标志、椅子、安全相机或其它位置处。在一些示例中,相机104是二维相机。在其他示例中,相机104是三维相机。在一些示例中,PERS 100进一步包括具有电路(例如,有线或无线收发机、连接器、天线等)和软件堆栈的网络接口,其共同使得PERS 100能够经由通信网络与其他设备进行通信。
如图1所描绘的,面部图像处理器106包括输入帧缓冲器108、面部检测模块110、和陆标点提取模块112。输入帧缓冲器108和输出缓冲器114可以从包括在外壳102内的各种数据存储(诸如片上存储器或片外存储器)分配。可在硬件或硬件和软件的组合中实现面部检测模块110和陆标点提取模块112。以下参考图2和3进一步描述的面部图像处理器106被配置为经由面部检测模块110和陆标点提取模块112执行的处理的示例。
根据一些示例,情绪检测设备执行生成指示主体的情绪状态的匿名数据的处理。图2例示了根据这些示例的检测处理200。如图2所示,检测处理200包括若干动作,其组合使得情绪检测设备能够私下地和安全地向其他设备提供描述一个或多个面部表情的匿名数据集以供后续处理。
在动作202中,执行检测处理200的设备初始化设备的一个或多个组件(例如,相机、存储器、处理器、网络接口、图像处理模块等)。在动作204中,设备轮询相机的图像数据。图像数据可包括一个或多个帧。这些帧可包括主体面部的原始图像数据。在一些示例中,原始图像数据包括三维图像数据。在其他示例中,原始图像数据包括二维图像数据。
在动作206中,设备确定一个或多个帧中的任何帧是否包括主体面部的图像。如果是,则设备行进到动作208。否则,则设备行进到动作218。在动作208中,设备存储该帧以供后续处理。而且,在至少一个示例中,作为安全措施,设备在动作208内停用相机。通过在动作208内停用相机,设备有助于确保附加的图像数据不被在该设备上执行的任何授权的处理所获取。
在动作210中,设备分析图像以标识并存储指示主体的情绪状态的数据。在一些示例中,设备执行RealsenseTM技术来标识面部图像内的陆标点。陆标点是指定诸如嘴唇、眉毛、眼睑等面部特征的身份和方位的点的集合。
在一个示例中,设备标识78个陆标点,该78个陆标点组合地指示主体的情绪状态。
在动作212中,作为附加的安全措施,设备删除该帧。通过删除动作212中的帧,设备限制帧存储的时间量以及帧和陆标点共存于设备的存储中的时间量。
在动作214中,设备通过将在动作210处标识的陆标点归一化为通用面部来生成匿名数据集。此归一化处理可通过将在面部图像内标识的每个陆标点映射到通用面部模型内的对应陆标点来完成,使得面部的整体表情从面部图像转换到通用面部。在一些示例中,匿名数据集包括具有存储标识通用面部模型上的点和点的位置的值的字段的数据元素。存储在这些位置字段中的值可包括二维或三维信息。接下来,在动作212中,设备存储匿名数据集以供后续处理。
在动作216中,设备将匿名数据集传送到由预定义可配置参数的值指定的地址。此地址可以是本地地址(即,集成于设备的组件的地址)或者远程地址(即,不集成于设备的组件的地址)。在动作218中,设备确定是否即将关机。如果是,则检测处理200结束。否则,则检测处理200行进到动作204。
根据检测处理200的处理使得情绪检测设备能够私下地且安全地生成和传递描述主体的情绪状态的数据。
图3是例示一个示例情绪检测设备的操作的输入输出图。更具体地,图3描绘了执行图2的检测处理200的图1的PERS 100。主要参考图3,在图1和2的组合中,PERS 100执行动作204以轮询相机104的图像。相机104获取包括三维图像的帧,并将该帧传送到面部图像处理器106。面部图像处理器106的面部检测模块110通过执行动作206来检测图像中的面部,并通过执行动作208将该帧存储在输入帧缓冲器中。接下来,面部图像处理器106的陆标点提取模块112执行动作210以分析图像并标识陆标点,如点302的集合所例示的。
继续该示例,面部图像处理器106执行动作212和214来删除该帧,生成匿名数据集304,并将该匿名数据集存储在输出缓冲器114中。此时,PERS 100可执行动作216以将匿名数据集传送给另一设备以供附加处理。
尽管上述组件处理图像数据以确定主体的情绪状态,但是使用主体的其他可标识特点的其他示例可到达同样的效果。例如,在一个示例中,情绪检测设备实现类似于图1所例示的架构的架构,以通过处理由对象做出的言语发声来确定对象的情绪状态。在这些示例中,面部图像处理器106被替换为被配置为检测人类言语发声的语音处理器,并且提取描述由言语发声表达的主体的情绪状态的匿名数据集。此匿名数据集可包括描述所发声的单词以及单词被言语的方式(例如音量、音高、速度等)的数据。
情绪检测系统
图4例示了被配置为监控并可选地影响主体410的情绪状态的情绪检测系统400。如图所示,情绪检测系统400包括情绪检测设备402、远程设备404、刺激控制器406、和网络408。刺激控制器406可生成包括刺激412和刺激414的刺激。情绪检测设备402可包括例如上面参考图1-3描述的PERS。远程设备可包括诸如下面参考图7和8所描述的任何系统之类的任何可编程设备。通信网络408可包括系统可经由其来交换信息的任何通信网络。例如,网络408可以是诸如因特网之类的公共网络,并且可包括诸如LAN、WAN、外联网和内联网之类的其他公共或私有网络。如图4所示,情绪检测设备402、远程设备404以及可选地刺激控制器406经由网络408被连接到数据并且与数据通信。
刺激控制器406可采取用于向主体410提供刺激的各种形式的设备。例如,根据一些示例,刺激控制器406是诸如游戏控制台、启用计算机的电视机、个人计算机、膝上型计算机或移动电话之类的可编程设备。在这些示例中,刺激412和414可包括诸如在线购物网页、音乐、视频游戏、电视节目和影片之类的内容。
在其他示例中,刺激控制器406可以不被连接到网络408。断开连接的刺激控制器的示例包括影院投影仪、不启用计算机的电视机、标志、广告板、价格标签和消费产品。在这些示例中,刺激412和414可包括诸如影片、广告、价格、信息消息、和消费者产品设计之类的内容。
根据一些示例,情绪检测系统400被配置成以被动模式或主动模式进行操作。当以被动模式进行操作时,情绪检测系统400被动地监视主体410的情绪状态,因为刺激控制器406根据由主体或一些其他用户或系统接收的命令来刺激主体。当以主动模式进行操作时,情绪检测系统400监视主体的情绪状态,并试图根据一个或多个系统目标来影响主体的情绪状态。以下参考图5和6进一步描述的情绪检测系统400被配置为执行处理的示例。
根据一些示例,情绪检测系统执行监视主体的情绪状态的处理,并且可选地试图影响主体的情绪状态。图5例示了根据这些示例的监视处理500。
在动作502,执行监视处理500的系统通过例如执行与检测处理200一致的处理来生成匿名数据。在一些示例中,系统的一个组件生成匿名数据并将其传送到接收并随后处理匿名数据的系统的另一组件。
在动作504,系统将匿名数据集记录在数据存储内,标识与匿名数据集相关联的刺激,并分析匿名数据集以便从中作出推断。在一些示例中,系统通过将匿名数据集的一个或多个时间戳与刺激的一个或多个时间戳进行比较来标识与匿名数据集相关联的刺激。在刺激的时间戳在匿名数据集的时间戳之前不久(例如,在100-500毫秒之前)时,系统将刺激标识为与匿名数据集相关联。其他标识方法,包括匿名数据集或刺激内的表达标识值,可在不脱离本文公开的示例的范围的情况下实现。
特定分析模式和在动作504中绘制的潜在推断在各示例之间有所不同。例如,根据一些示例,采用各种数据挖掘技术来确定(例如分类)由一个或多个匿名数据集表示的情绪状态。可为此目执行的数据挖掘技术的示例包括神经网络、k-最近邻处理和矢量机。在其他示例中,在动作504内,系统基于由系统接收和处理的匿名数据集的历史,执行数据挖掘预测处理(例如,逻辑回归)以预测主体或一群主体的情绪状态。在这些示例中,系统可为系统的用户创建阐述这些预测的一个或多个概述。
在动作506,系统确定匿名数据或其分析是否触发由一个或多个可配置参数定义的系统动作。如果是,则设备行进到动作508。否则,则监视处理500结束。
在动作508中,系统通过向一个或多个刺激控制器传送刺激消息来调整一个或多个刺激控制器的可配置参数。刺激消息可包括向主体呈现附加刺激的一个或多个请求。在动作510中,一个或多个刺激控制器根据其可配置参数生成刺激514,从而试图将主体的情绪状态从第一情绪状态改变为第二情绪状态,并且监视处理500结束。
根据监视处理500的处理使得情绪检测系统能够监视并且,在一些实例中,影响主体的情绪状态并潜在地影响主体的行为。
图6是例示一个示例情绪检测系统的操作的输入输出图。图6描绘了执行图5的监视处理500的图4的情绪检测系统400。主要参考图6,在图2-5的组合中,情绪检测设备402执行动作204以在向主体410呈现刺激412的不久之后(例如,在100-500毫秒之后)轮询主体410的图像。情绪检测系统402接下来执行动作206-216并生成匿名数据集304。继续该示例,远程设备404执行动作502以接收匿名数据集304并将数据记录在远程设备的本地的数据存储中。接下来,远程设备404执行动作506以通过参考一个或多个可配置参数的值来确定匿名数据的记录是否触发附加动作。如果远程设备404确定没有附加动作被触发,则处理终止于此。然而,在此示例中,远程设备404确定已触发了附加动作并且执行动作508以将刺激消息600传送给刺激控制器406。刺激消息600可包括将呈现附加刺激预测以将主体的情绪状态转换为新的情绪状态的请求。响应于接收刺激消息600,刺激控制器406执行动作510以生成刺激414。此时,可在情绪检测402执行动作204的情况下重复以上描述的活动,以在向主体410呈现刺激414的不久之后轮询主体410的图像。
现在将参考图6来描述比先前公开的那些更专业化的情绪检测系统。专业情绪检测系统的一个示例针对在线或传统广播内容(例如,故事、演讲、文章、电影、表演、业余视频等)。在此示例中,情绪检测设备402被定位成当主体410通过回顾内容或与内容交互来接收刺激412时查看主体410。远程设备404记录匿名数据集并进一步分析它们以确定在线内容(例如新闻故事、歌曲、笑话、悬疑场景、戏剧场景、恐怖场景等)的经标识的部分是否对主体410的情绪状态产生其预期的效果。在此示例中,可将经分析的匿名数据的概述提供给内容制作者以使他们能够改进未来的内容。替换地,可向内容提供者提供摘要以使得他们能够更好地建议哪些内容可能与一般主体或特别主体410最相关。
专业情绪检测系统的另一示例针对视频游戏。在此示例中,情绪检测设备402被定位成当主体410通过玩视频游戏来接收刺激412时查看主体410。远程设备404记录匿名数据集并进一步分析它们以确定游戏(例如,关卡、谜题、终极战斗、剪辑场景等)的经标识的部分是否对主体410的情绪状态产生其预期的效果。在此示例中,可将经分析的匿名数据的概述提供给视频游戏制作者以使他们能够改进未来的游戏。替换地,可向视频游戏提供者提供摘要以使得他们能够更好地建议哪些游戏可能与一般主体或特别主体410最相关。
专业情绪检测系统的另一示例针对在线购物。在此示例中,情绪检测设备402被定位成当主体410通过浏览网站来搜索要购买的项目来接收刺激412时查看主体410。远程设备404记录匿名数据集并进一步分析它们以确定哪些项目或价格导致了主体410的积极和消极情绪反应。此外,在此示例中,刺激控制器406可在预定义的情况下呈现附加刺激(例如,刺激414)。例如,当主体410在被呈现不含价格信息的项目时表达正面情绪而随后在呈现带有价格信息的项目时表达负面情绪的情况下,远程设备404可传送刺激消息600以将价格按指定百分比打折。响应于接收刺激消息600,刺激控制器406可以按折后价格的形式传送附加刺激414。
附加地,在此示例中,远程设备404可分析匿名数据集以产生指示主体410对哪些产品感兴趣而对哪些产品不感兴趣的概述。可将这些经分析的匿名数据的概述提供给项目制造商以使他们能够改进未来的产品。替换地,可向零售商提供概述以使得他们能够更好地建议哪些项目可能与一般主体或特别主体410最相关。
专业情绪检测系统的另一示例针对在电影院中呈现的影片。在此示例中,情绪检测设备402被定位成当主体410通过观看在电影院中的影片来接收刺激412时查看主体410。远程设备404记录匿名数据集并进一步分析它们以确定影片(例如,笑话、悬疑场景、戏剧场景、恐怖场景等)的经标识的部分是否对主体410的情绪状态产生其预期的效果。在此示例中,可将经分析的匿名数据的概述提供给影片制作者以使他们能够改进未来的影片。
专业情绪检测系统的另一示例针对在标志和广告板中呈现的广告。在此示例中,情绪检测设备402被定位成当主体410通过观看在标志和广告板中的广告来接收刺激412时查看主体410。远程设备404记录匿名数据集并进一步分析广告是否导致了主体410的积极和消极情绪反应,以确定广告是否对主体410的情绪状态产生其预期的效果。附加地,在此示例中,远程设备404可分析匿名数据集以产生指示主体410对哪些产品感兴趣而对哪些产品不感兴趣的概述。可将这些经分析的匿名数据的概述提供给项目制造商以使他们能够改进未来的产品。替换地,可向零售商提供概述以使得他们能够更好地建议哪些项目可能与一般主体或特别主体410最相关。
专业情绪检测系统的另一示例针对真实购物。在此示例中,情绪检测设备402被定位成当主体410通过在实体零售店(例如,超市、百货商店、专卖店等)中浏览要购买的物品来接收刺激412时查看主体410。远程设备404记录匿名数据集并进一步分析它们以确定哪些项目或价格导致了主体410的积极和消极情绪反应。此外,在此示例中,刺激控制器406可在预定义的情况下呈现附加刺激(例如,刺激414)。例如,当主体410在被呈现不含价格信息的项目时表达正面情绪而随后在被呈现带有价格信息的项目时表达负面情绪的情况下,远程设备404可传送刺激消息600以将价格按指定百分比打折。响应于接收刺激消息600,刺激控制器406可以按折后价格的形式传送附加刺激414。
附加地,在此示例中,远程设备404可分析匿名数据集以产生指示主体410对哪些产品感兴趣而对哪些产品不感兴趣的概述。可将这些经分析的匿名数据的概述提供给项目制造商以使他们能够改进未来的产品。替换地,可向零售商提供概述以使得他们能够更好地建议哪些项目可能与一般主体或特别主体410最相关。
专业情绪检测系统的另一示例针对汽车操作。在此示例中,情绪检测设备402被定位成当主体410通过驾驶汽车并回顾由车载娱乐系统提供的内容来接收刺激412时查看主体410。远程设备404记录匿名数据集并进一步分析它们以确定哪些事件(天气和交通条件、在收音机上播放的歌曲等)导致了主体410的积极和消极情绪反应。此外,在此示例中,刺激控制器406可在预定义的情况下呈现附加刺激(例如,刺激414)。例如,在主体410当遇到天气或交通状况时表达负面情绪的情况下,远程设备404可传送刺激消息600以平息主体410。响应于接收刺激消息600,刺激控制器406可以按舒缓音乐或舒缓消息的形式提供附加刺激414以使主体410放松。在另一示例中,在主体410在超过可配置参数的值的时间段内表现出缺乏情绪的情况下,远程设备404可传送刺激消息600以激励主体410。响应于接收刺激消息600,刺激控制器406可以激励音乐、消息或警报的形式提供附加刺激414以激励主体410。
在一些示例中,本文公开的组件(例如,PERS 100、情绪检测设备402、远程设备404和刺激控制器406)可读取影响组件所执行的操作的参数。这些参数可被物理地存储在包括易失性存储器(诸如RAM)或非易失性存储器(诸如磁性硬驱)的任何形式的合适的存储器中。附加地,参数可被逻辑地存储在适当的数据结构(诸如由用户模式应用定义的数据库或文件)中或共享的数据结构(诸如由操作系统定义的应用注册表)中。此外,一些示例提供了允许外部实体修改参数并由此配置组件的行为的系统和用户界面两者。
情绪检测设备100或情绪检测系统400内的信息可以按能够将信息保存在计算机可读介质上的任何逻辑和物理结构存储来存储,该逻辑和物理结构包括链接列表、文件系统、平面文件、索引文件、分层数据库、关系数据库或面向对象的数据库以及其他结构。数据可使用唯一的外键关系和索引来被建模。可以在各个字段和表之间建立唯一的外键关系和索引,以确保数据完整性和数据交换性能。
可使用各种技术让信息在本文公开的各组件之间流动。此类技术包括,例如,使用诸如TCP/IP或HTTP之类的标准协议通过网络传递信息、在存储器中的各模块之间传递信息、并通过写入文件、数据库、数据存储、或一些其他非易失性数据存储设备来传递信息。附加地,可传送和接收指针或其他对信息的引用来代替信息的副本,或除此之外与信息的副本组合。相反地,可交换信息来代替指针或其他对信息的引用,或除此之外与指针或其他对信息的引用组合。用于传递信息的其他技术和协议可以被使用,而不脱离本文所公开的各示例和各实施例的范围。
示例系统
图7例示了根据本公开的实施例配置的计算系统700。在一些实施例中,系统700可以是用于检测主体的情绪状态的计算系统,虽然系统700不仅限于此上下文。例如,系统700可被合并到个人计算机(PC)、膝上型计算机、超膝上型计算机、平板电脑、触摸板、便携式计算机、手持式计算机、掌上电脑、个人数字助理(PDA)、蜂窝电话、蜂窝电话/PDA的组合、电视机、智能设备(例如,智能电话、智能平板电脑或智能电视机)、移动互联网设备(MID)、消息接发设备、数据通信设备、机顶盒、游戏控制台或者能够执行图形渲染操作和显示内容的其他这样的计算环境。
在一些实施例中,系统700包括耦合到显示器720的平台702。平台702可接收来自诸如内容服务设备730或内容递送设备740或其他类似内容源之类的内容设备的内容。包括一个或多个导航特征的导航控制器750可被用来与例如平台702和/或显示器720交互,以便于补充用户的导航姿势。在下文中更详细地描述这些示例组件中的每一个。
在一些实施例中,平台702可包括芯片组705、处理器710、存储器712、存储714、图形子系统715、应用716和/无线电718的或任何组合。芯片组705可提供处理器710、存储器712、存储设备714、图形子系统715、应用716和/或无线电设备718之间的相互通信。例如,芯片组705可包括能够提供与存储设备714的互通的存储适配器(未描绘)。
处理器710可被实现为例如复杂指令集计算机(CISC)或精简指令集计算机(RISC)处理器、x86指令集兼容的处理器、多核或者任何其他微处理器或中央处理单元(CPU)。在一些实施例中,处理器710可以包括双核处理器、双核移动处理器等等。可将存储器712实现为例如易失性存储器设备,诸如但不限于,随机存取存储器(RAM)、动态随机存取存储器(DRAM)或静态RAM(SRAM)。存储714可被实现为例如非易失性存储设备,诸如但不限于磁盘驱动器、光盘驱动器、磁带驱动器、内部存储设备、附属存储设备、闪存、电池备用SDRAM(同步DRAM)和/或网络可接入存储设备。在一些实施例中,存储714可包括用于在例如包括多个硬盘驱动器时提高有价值数字媒体的存储性能改善保护的技术。
图形子系统715可执行诸如静止或视频的图像的处理以用于显示,并且在一些实施例中,图形子系统被配置为驱动直接视图显示的光源阵列,如本文以各种方式描述的。图形子系统715可以是例如图形处理单元(GPU)或视觉处理单元(VPU)。可将模拟或数字接口用于通信地耦合图形子系统715和显示器720。例如,该接口可以是高清多媒体接口、显示端口、无线HDMI和/或适合无线HD的技术中的任意一个。图形子系统715可被集成至处理器710或芯片组705中。图形子系统715可以是可通信地耦合到芯片组705的独立卡。可在各种硬件架构中实现本文中所描述的图形和/或视频处理技术(包括直接视图投影技术)。例如,可在芯片组中集成图形和/或视频功能。或者,可使用分立的图形和/或视频处理器。作为又一实施例,图形和/或视频功能可由包括多核处理器的通用处理器实现。在又一实施例中,这些功能可实现在消费者电子设备中。
无线电设备718可包括能够使用各种合适的无线通信技术发送和接收信号的一个或多个无线电设备。此类技术可涉及横跨一个或多个无线网络的通信。示例性无线网络包括(但不限于)无线局域网(WLAN)、无线个域网(WPAN)、无线城域网(WMAN)、蜂窝网络以及卫星网络。在横跨此类网络进行通信时,无线电设备718可根据任何版本的一个或多个适用的标准进行操作。
在一些实施例中,显示器720可以包括任何电视机或计算机类型监视器或显示器。在一个或多个软件应用716的控制下,平台702可在显示器720上显示用户界面722。
在一些实施例中,内容服务设备730可以由任何国家的、国际的和/或独立的服务托管,并由此可以被平台702例如经由互联网或其他网络来访问。可将内容服务设备730耦合至平台702和/或显示器720。可将平台702和/或内容服务设备730耦合至网络760,以便往返于网络760传递(如,发送和/或接收)媒体信息。也可将内容递送设备740耦合至平台702和/或显示器720。在一些实施例中,内容服务设备730可以包括有线电视盒、个人计算机、网络、电话、启用因特网的设备或能够分发数字信息和/或内容的电器,以及能够通过网络760或直接在内容提供商和平台702和/或显示器720之间单方向地或双向地传递内容的任何其他类似的设备。将会领会,可经由网络760,在系统700中的任何一个组件和内容提供商之间往返地单向和/或双向传递内容。内容的示例可包括任何媒体信息,包括例如视频、音乐、图形、文本、医疗和游戏内容,等等。
内容服务设备730接收内容,诸如有线电视节目,包括媒体信息、数字信息和/或其他内容。内容提供商的示例可包括任何有线或卫星电视或无线电或互联网内容提供商。所提供的示例并不旨在限制本公开。在一些实施例中,平台702可以从具有一个或多个导航特征的导航控制器750接收控制信号。可将控制器750的导航特征用于与例如用户界面722交互。在一些实施例中,导航控制器750可以是指示设备,该指示设备可以是计算机硬件组件(具体地,人机接口设备),可使用户向计算机中输入空间(例如,连续的和多维)数据。诸如图形用户界面(GUI)之类的许多系统以及电视机和监视器允许用户使用物理姿势、面部表情、或声音来控制数据,并向计算机或电视机提供数据。
控制器750的导航特征的移动可以通过指针、光标、焦点环,或显示在显示器上的其他可视指示器,反映到显示器(例如,显示器720)上。例如,在软件应用716的控制下,位于导航控制器750上的导航特征可以被映射到例如用户界面722上显示的虚拟导航特征。在一些实施例中,控制器750可以不是单独的组件,而是集成到平台702和/或显示器720中。然而,如能理解的那样,各实施例并不限于这些元素或在本文中示出或描述的上下文。
在一些实施例中,驱动程序(未示出)可以包括允许用户立即打开和关闭平台702的技术,类似于电视机,例如,当启用时,在初始引导之后,按下按钮。在平台被“关闭”时,程序逻辑可以允许平台702将内容流传输到媒体适配器或其他内容服务设备730或内容递送设备740。此外,芯片组705可包括例如针对5.1环绕声音频和/或高清晰度7.1环绕声音频的硬件和/或软件。驱动器可包括用于集成图形平台的图形驱动器。在一些实现方案中,该图形驱动器可包括外围组件互连(PCI)快速图形卡。
在各实施例中,系统700中所示组件中的任意一个或多个可以是集成的。例如,可集成平台702和内容服务设备730,或可集成平台702和内容递送设备740,或例如可集成平台702、内容服务设备730和内容递送设备740。在各实施例中,平台702和显示器720可以是集成单元。可集成显示器720和内容服务设备730,或例如可集成的显示器720和内容递送设备740。这些示例并不旨在限制本公开。
在各实施例中,可将系统700实现为无线系统、有线系统或无线和有线系统两者的组合。当将系统700实现为无线系统时,该系统500可包括适合于在无线共享介质上进行通信的组件和接口,无线共享介质例如是一个或多个天线、发射机、接收机、收发机、放大器、过滤器、控制逻辑等。无线共享介质的示例可包括无线频谱的多个部分,例如RF频谱等。当实现为有线系统时,系统700可以包括适用于通过有线通信介质进行通信的组件和接口,诸如输入/输出(I/O)适配器、将I/O适配器与相应的有线通信介质连接的物理连接器、网络接口卡(NIC)、磁盘控制器、视频控制器、音频控制器等等。有线通信介质的示例可包括线、电缆、金属引线、印刷电路板(PCB)、底板、交换结构、半导体材料、双绞线、同轴电缆、光纤等。
平台702可建立用于传递信息的一个或多个逻辑或物理通道。该信息可包括媒体信息和控制信息。媒体信息可以是指表示针对用户的内容的任何数据。内容的示例可包括例如来自语音转换、视频会议、流视频、电子邮件或文本消息、语音信箱消息、字母数字符号、图形、图像、视频、文本等的数据。控制信息可以是指表示针对自动系统的命令、指令或控制字的任何数据。例如,控制信息可被用来将媒体信息路由通过系统,或者指令节点以预先确定的方式处理媒体信息(例如,使用辅助权限访问冲突检查的硬件,如本文所述)。然而,这些实施例并不限于这些元素或图7中示出或描述的上下文。
如前所述,系统700可表现为不同的物理样式或形状因子。图8例示了其中可体现系统700的小形状因子设备800的实施例。在一些实施例中,例如设备800可被实现为具有无线能力的移动计算设备的一部分。移动计算设备可以是指具有处理系统和移动电源或供电(诸如例如,一个或多个电池)的任何设备。
如先前所描述的,移动计算设备的示例可以包括个人计算机(PC)、膝上型计算机、超膝上型计算机、平板电脑、触摸板、便携式计算机、手持式计算机、掌上电脑、个人数字助理(PDA)、蜂窝电话、蜂窝电话/PDA的组合、电视机、智能设备(例如,智能电话、智能平板电脑或智能电视机)、移动因特网设备(MID)、消息传送设备、数据通信设备等等。
移动计算设备的示例也可包括被安排为由人穿戴的计算机,诸如腕式计算机、手指计算机、戒指计算机、眼镜计算机、皮带扣计算机、臂带计算机、鞋计算机、衣服计算机以及其他可穿戴计算机。例如,在一些实施例中,移动计算设备可以实现为能够执行计算机应用程序以及语音通信和/或数据通信的智能电话。尽管已经通过示例方式将移动计算设备实现为智能电话而描述了一些实施例,但是可以领会,也可以使用其他无线移动计算设备来实现其他实施例。各实施例不限于此上下文。
如图8所示,设备800可以包括外壳802、显示器804、输入/输出(I/O)设备806以及天线808。设备800还可包括导航特征812。显示器804可包括用于显示适于移动计算设备的信息的任何合适的显示单元,在一示例实施例中,显示器804是像本文所提供的能够直接观看的像素化显示器。I/O设备806可包括任何适当I/O设备,用以将信息输入到移动计算设备中。I/O设备806的示例可包括字母数字键盘、数字小键盘、触摸板、输入键、相机、按钮、开关、摇杆开关、话筒、扬声器、语音识别设备和软件等。信息还可以通过话筒输入到设备800中。该信息可由语音识别设备数字化。各实施例不限于此上下文。
可使用硬件元素、软件元素或软硬件元素的组合来实现各实施例。硬件元素的示例可包括处理器、微处理器、电路、电路元素(例如,晶体管、电阻器、电容器、电感器等)、集成电路、专用集成电路(ASIC)、可编程逻辑器件(PLD)、数字信号处理器(DSP)、现场可编程门阵列(FPGA)、逻辑门、寄存器、半导体器件、芯片、微芯片、芯片集等。软件的示例可包括软件组件、程序、应用、计算机程序、应用程序、系统程序、机器程序、操作系统软件、中间件、固件、软件模块、例程、子例程、函数、方法、程序、软件接口、应用程序接口(API)、指令集、计算代码、计算机代码、代码段、计算机代码段、字、值、符号或它们的任意组合。硬件元素和/或软件元素是否被使用可根据任意数量的因素而因实施例不同,这些因素诸如为所期望的计算速率、功率电平、热容限、处理循环预算、输入数据速率、输出数据速率、存储器资源、数据总线速度以及其他设计或性能约束。
例如,可使用机器可读介质或者制品来实现一些实施例,这些介质或者制品可存储指令或者指令集,这些指令或指令集在由机器执行时可促使该机器根据本公开的实施例来执行方法和/或操作。该机器可包括例如任何合适的处理平台、计算平台、计算设备、处理设备、计算系统、处理系统、计算机、处理器等,并可使用硬件和软件的任何合适组合来实现。机器可读介质或作品可包括例如任何合适类型的存储器单元、存储器设备、存储器作品、存储器介质、存储设备、存储作品、存储介质和/或存储单元,例如存储器、可移除或不可移除介质、可擦除或不可擦除介质、可写或可重写介质、数字或模拟介质、硬盘、软盘、紧凑盘只读存储器(CD-ROM)、紧凑盘可记录(CD-R)、紧凑盘可重写(CD-W)、光盘、磁性介质、磁光介质、可移除存储器卡或盘、各种类型的数字多功能盘(DVD)、磁带、磁带盒等等。指令可包括使用任何合适的高级、低级、面向对象的、可视的、经编译的和/或经解译的编程语言实现的任何合适类型的可执行代码。
其他示例实施例
以下示例涉及另外的实施例,根据这些实施例,许多排列和配置将是显而易见的。
示例1是一种包括情绪检测设备的情绪检测系统,所述情绪检测系统包括:存储器;耦合到所述存储器的至少一个处理器;以及面部图像处理模块,所述面部图像处理模块可由所述至少一个处理器执行并且被配置为:接收描绘主体的面部的图像数据;分析所述图像数据以标识所述面部上的多个点;存储描述所述多个点的匿名数据集,所述匿名数据集的每个元素包括标识符字段和位置字段;将所述匿名数据集传送至与所述情绪检测设备不同的远程设备处;以及删除所述图像数据。
示例2包括示例1中的主题,其中所述图像数据包括二维图像数据和三维图像数据中的至少一个。
示例3包括前述各示例中的任一项的主题,其中所述面部图像处理模块被配置为:至少部分地通过将数据集归一化到通用面部来分析所述图像数据;以及至少部分地通过存储所述数据集来存储所述匿名数据。
示例4包括前述各示例中的任一项的主题,其中所述图像数据包括陆标点。
示例5包括前述各示例中的任一项的主题,其中所述匿名数据集的每个元素的位置包括二维值和三维值中的至少一个。
示例6包括前述各示例中的任一项的主题,其中所述情绪检测设备进一步包括被配置为获取所述图像数据的相机,其中所述面部图像处理模块被配置为在分析所述图像数据之前停用所述相机、存储所述匿名数据集、并传送所述匿名数据集。
示例7包括示例6中的主题,其中所述情绪检测设备进一步包括外壳,所述外壳包括所述相机、所述存储器、所述至少一个处理器、和所述面部图像处理模块。
示例8包括前述各示例中的任一项的主题,进一步包括所述远程设备,其中所述远程设备被配置为:标识在接收所述图像数据之前被提供给所述主体的刺激;以及分析所述匿名数据集以确定在被呈现所述刺激时所述主体的情绪状态。
示例9包括示例8中的主题,其中所述刺激包括非交互式内容和交互内容式中的至少一个。
示例10包括前述各示例中的任一项的主题,其中所述刺激包括提供给所述主体的内容的部分。
示例11包括示例10中的主题,其中所述内容的部分包括视频帧序列。
示例12包括前述各示例中的任一项的主题,进一步包括刺激控制器,所述刺激控制器被配置为刺激所述主体。
示例13包括示例12中的主题,进一步包括所述远程设备,其中所述远程设备被配置为向所述刺激控制器传送消息,并且所述刺激控制器被配置为响应于接收到所述消息而刺激所述主体。
示例14包括前述各示例中的任一项的主题,进一步包括所述远程设备,其中所述远程设备被配置为:分析所述匿名数据以标识所述主体的经估计的情绪状态;基于所述主体的经估计的情绪状态来标识所述主体的目标情绪状态;标识将所述主体转换到所述目标情绪状态的刺激;以及用所述刺激来刺激所述主体。
示例15是一种使用设备检测情绪的方法,所述方法包括:接收描绘主体的面部的图像数据;分析所述图像数据以标识所述面部上的多个点;存储描述所述多个点的匿名数据集,所述匿名数据集的每个元素包括标识符字段和位置字段;将所述匿名数据集传送至与所述设备不同的远程设备处;以及删除所述图像数据。
示例16包括示例15中的主题,其中接收所述图像数据包括接收二维图像数据和三维图像数据中的至少一个。
示例17包括示例15或16中的主题,其中分析所述图像数据包括将数据集归一化为通用面部而存储所述匿名数据集包括存储所述数据集。
示例18包括示例15至17中的任一项的主题,其中分析所述图像数据包括标识陆标点。
示例19包括示例15至18中的任一项的主题,其中存储所述匿名数据集包括存储每个元素的位置字段中的二维值和三维值中的至少一个。
示例20包括示例15至19中的任一项的主题,进一步包括:经由相机获取所述图像数据;以及在分析所述图像数据之前停用所述相机、存储所述匿名数据集、并传送所述匿名数据集。
示例21包括示例20中的主题,其中获取所述图像数据包括从集成到所述设备的相机获取所述图像数据。
示例22包括示例15至21中的任一项的主题,进一步包括:标识在接收所述图像数据之前被提供给所述主体的刺激;以及分析所述匿名数据集以确定在被呈现所述刺激时所述主体的情绪状态。
示例23包括示例22中的主题,其中标识所述刺激包括标识非交互式内容和交互内容式中的至少一个。
示例24包括示例15至23中的任一项的主题,其中标识所述刺激包括标识被提供给所述主体的内容的部分。
示例25包括示例24中的主题,其中标识所述内容的部分包括标识所述内容内的视频帧序列和所述内容内的一个或多个时间偏移中的至少一个。
示例26包括示例15至25中的任一项的主题,进一步包括刺激所述主体。
示例27包括示例26的主题,其中刺激所述主体包括:从所述远程设备向刺激控制器传送消息;以及生成刺激以刺激所述主体。
示例28包括示例15至27中的任一项的主题,进一步包括:分析所述匿名数据以标识所述主体的经估计的情绪状态;基于所述主体的经估计的情绪状态来标识所述主体的目标情绪状态;标识将所述主体转换到所述目标情绪状态的刺激;以及用所述刺激来刺激所述主体。
示例29是一种用指令编码的非瞬态计算机程序产品,所述指令在由一个或多个处理器执行时引起用于检测将被执行的情绪的处理,所述处理包括:接收描绘主体的面部的图像数据;分析所述图像数据以标识所述面部上的多个点;存储描述所述多个点的匿名数据集,所述匿名数据集的每个元素包括标识符字段和位置字段;将所述匿名数据集传送至与所述设备不同的远程设备处;以及删除所述图像数据。
示例30包括示例29中的主题,其中接收所述图像数据包括接收二维图像数据和三维图像数据中的至少一个。
示例31包括示例29或30中的主题,其中分析所述图像数据包括将数据集归一化为通用面部而存储所述匿名数据集包括存储所述数据集。
示例32包括示例29至31中的任一项的主题,其中分析所述图像数据包括标识陆标点。
示例33包括示例29至32中的任一项的主题,其中存储所述匿名数据集包括存储每个元素的位置字段中的二维值和三维值中的至少一个。
示例34包括示例29至33中的任一项的主题,进一步包括:经由相机获取所述图像数据;以及在分析所述图像数据之前停用所述相机、存储所述匿名数据集、并传送所述匿名数据集。
示例35包括示例34中的主题,其中获取所述图像数据包括从集成到所述设备的相机获取所述图像数据。
示例36包括示例29至35中的任一项的主题,进一步包括:标识在接收所述图像数据之前被提供给所述主体的刺激;以及分析所述匿名数据集以确定在被呈现所述刺激时所述主体的情绪状态。
示例37包括示例36中的主题,其中标识所述刺激包括标识非交互式内容和交互内容式中的至少一个。
示例38包括示例29至37中的任一项的主题,其中标识所述刺激包括标识被提供给所述主体的内容的部分。
示例39包括示例38中的主题,其中标识所述内容的部分包括标识所述内容内的视频帧序列和所述内容内的一个或多个时间偏移中的至少一个。
示例40包括示例29至39中的任一项的主题,进一步包括刺激所述主体。
示例41包括示例40的主题,其中刺激所述主体包括:从所述远程设备向刺激控制器传送消息;以及生成刺激以刺激所述主体。
示例42包括示例29至41中的任一项的主题,进一步包括:分析所述匿名数据以标识所述主体的经估计的情绪状态;基于所述主体的经估计的情绪状态来标识所述主体的目标情绪状态;标识将所述主体转换到所述目标情绪状态的刺激;以及用所述刺激来刺激所述主体。
已出于说明和描述的目的呈现了各示例实施例的前述描述。它不旨在穷尽或者将本公开限制于所公开的准确的形式。根据上述公开,许多修改和变体是可能的。本公开的范围不是由该详细说明书限制而是由所附权利要求限定。将来提出的要求本申请优先权的申请可以以不同的方式要求所公开的主题,并且通常可包括如在此多方面地公开或以其他方式展示的一个或多个限制的任意集合。
Claims (24)
1.一种包括情绪检测设备的情绪检测系统,所述情绪检测系统包括:
存储器;
耦合到所述存储器的至少一个处理器;以及
面部图像处理模块,所述面部图像处理模块能由所述至少一个处理器执行并且被配置为:
接收描绘主体的面部的图像数据;
分析所述图像数据以标识所述面部上的多个点;
存储描述所述多个点的匿名数据集,所述匿名数据集的每个元素包括标识符字段和位置字段;
将所述匿名数据集传送至与所述情绪检测设备不同的远程设备处;以及
删除所述图像数据。
2.如权利要求1所述的情绪检测系统,其特征在于,所述图像数据包括二维图像数据和三维图像数据中的至少一个。
3.如权利要求1所述的情绪检测系统,其特征在于,所述面部图像处理模块被配置为:
至少部分地通过将数据集归一化到通用面部来分析所述图像数据;以及
至少部分地通过存储所述数据集来存储所述匿名数据。
4.如权利要求1所述的情绪检测系统,其特征在于,所述图像数据包括陆标点。
5.如权利要求1所述的情绪检测系统,其特征在于,所述匿名数据集的每个元素的位置包括二维值和三维值中的至少一个。
6.如权利要求1所述的情绪检测系统,其特征在于,所述情绪检测设备进一步包括被配置为获取所述图像数据的相机,并且其中所述面部图像处理模块被配置为在分析所述图像数据、存储所述匿名数据集、以及传送所述匿名数据集之前停用所述相机。
7.如权利要求6所述的情绪检测系统,其特征在于,所述情绪检测设备进一步包括外壳,所述外壳包括所述相机、所述存储器、所述至少一个处理器、和所述面部图像处理模块。
8.如权利要求1所述的情绪检测系统,其特征在于,进一步包括所述远程设备,其中所述远程设备被配置为:
标识在接收所述图像数据之前被提供给所述主体的刺激;以及
分析所述匿名数据集以确定在被呈现所述刺激时所述主体的情绪状态。
9.如权利要求8所述的情绪检测系统,其特征在于,所述刺激包括非交互式内容和交互内容式中的至少一个。
10.如权利要求8所述的情绪检测系统,其特征在于,所述刺激包括被提供给所述主体的内容的部分。
11.如权利要求10所述的情绪检测系统,其特征在于,所述内容的部分包括视频帧序列。
12.如权利要求1至11中任一项所述的情绪检测系统,其特征在于,进一步包括刺激控制器,所述刺激控制器被配置来刺激所述主体。
13.如权利要求12所述的情绪检测系统,其特征在于,进一步包括所述远程设备,其中所述远程设备被配置为向所述刺激控制器传送消息,并且所述刺激控制器被配置为响应于接收到所述消息而刺激所述主体。
14.如权利要求1至11中任一项所述的情绪检测系统,其特征在于,进一步包括所述远程设备,其中所述远程设备被配置为:
分析所述匿名数据以标识所述主体的经估计的情绪状态;
基于所述主体的经估计的情绪状态来标识所述主体的目标情绪状态;
标识将所述主体转换到所述目标情绪状态的刺激;以及
用所述刺激来刺激所述主体。
15.一种使用设备检测情绪的方法,所述方法包括:
接收描绘主体的面部的图像数据;
分析所述图像数据以标识所述面部上的多个点;
存储描述所述多个点的匿名数据集,所述匿名数据集的每个元素包括标识符字段和位置字段;
将所述匿名数据集传送至与所述设备不同的远程设备处;以及
删除所述图像数据。
16.如权利要求15所述的方法,其特征在于,分析所述图像数据包括将数据集归一化为通用面部而存储所述匿名数据集包括存储所述数据集。
17.如权利要求15所述的方法,其特征在于,分析所述图像数据包括标识陆标点。
18.如权利要求15所述的方法,其特征在于,进一步包括:
经由相机获取所述图像数据;以及
在分析所述图像数据、存储所述匿名数据集、以及传送所述匿名数据集之前停用所述相机。
19.如权利要求15至18中的任一项所述的方法,其特征在于,进一步包括:
标识在接收所述图像数据之前被提供给所述主体的刺激;以及
分析所述匿名数据集以确定在被呈现所述刺激时所述主体的情绪状态。
20.如权利要求19所述的方法,其特征在于,标识所述刺激包括标识被提供给所述主体的内容的部分。
21.如权利要求20所述的方法,其特征在于,标识所述内容的部分包括标识所述内容内的视频帧序列和所述内容内的一个或多个时间偏移中的至少一个。
22.一种用指令编码的非瞬态计算机程序产品,所述指令在由一个或多个处理器执行时引起用于检测将被执行的情绪的处理,所述处理包括:
接收描绘主体的面部的图像数据;
分析所述图像数据以标识所述面部上的多个点;
存储描述所述多个点的匿名数据集,所述匿名数据集的每个元素包括标识符字段和位置字段;
将所述匿名数据集传送至与所述设备不同的远程设备处;以及
删除所述图像数据。
23.如权利要求22所述的计算机程序产品,其特征在于,分析所述图像数据包括将数据集归一化为通用面部而存储所述匿名数据集包括存储所述数据集。
24.如权利要求22或23所述的计算机程序产品,其特征在于,进一步包括:
标识在接收所述图像数据之前被提供给所述主体的刺激;以及
分析所述匿名数据集以确定在被呈现所述刺激时所述主体的情绪状态。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/752,100 | 2015-06-26 | ||
US14/752,100 US9600715B2 (en) | 2015-06-26 | 2015-06-26 | Emotion detection system |
PCT/US2016/033737 WO2016209453A1 (en) | 2015-06-26 | 2016-05-23 | Emotion detection system |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107710222A true CN107710222A (zh) | 2018-02-16 |
Family
ID=57586357
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680031101.2A Pending CN107710222A (zh) | 2015-06-26 | 2016-05-23 | 情绪检测系统 |
Country Status (6)
Country | Link |
---|---|
US (1) | US9600715B2 (zh) |
EP (1) | EP3314530A4 (zh) |
JP (1) | JP6752819B2 (zh) |
KR (1) | KR102611913B1 (zh) |
CN (1) | CN107710222A (zh) |
WO (1) | WO2016209453A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108401129A (zh) * | 2018-03-22 | 2018-08-14 | 广东小天才科技有限公司 | 基于穿戴式设备的视频通话方法、装置、终端及存储介质 |
CN108741822A (zh) * | 2018-05-22 | 2018-11-06 | 国家电网公司客户服务中心南方分中心 | 一种呼叫中心客服座位工椅 |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106562792B (zh) | 2015-10-08 | 2021-08-06 | 松下电器(美国)知识产权公司 | 信息提示装置的控制方法和信息提示装置 |
US10534955B2 (en) * | 2016-01-22 | 2020-01-14 | Dreamworks Animation L.L.C. | Facial capture analysis and training system |
US10387571B2 (en) * | 2016-07-20 | 2019-08-20 | Vidicons LLC | Networked device with suggested response to incoming message |
US10636175B2 (en) | 2016-12-22 | 2020-04-28 | Facebook, Inc. | Dynamic mask application |
US10846517B1 (en) * | 2016-12-30 | 2020-11-24 | Amazon Technologies, Inc. | Content modification via emotion detection |
US10747859B2 (en) * | 2017-01-06 | 2020-08-18 | International Business Machines Corporation | System, method and computer program product for stateful instruction-based dynamic man-machine interactions for humanness validation |
CN109583577B (zh) | 2017-09-29 | 2021-04-23 | 上海寒武纪信息科技有限公司 | 运算装置及方法 |
CN107578014B (zh) | 2017-09-06 | 2020-11-03 | 上海寒武纪信息科技有限公司 | 信息处理装置及方法 |
US20200110635A1 (en) | 2017-07-05 | 2020-04-09 | Shanghai Cambricon Information Technology Co., Ltd. | Data processing apparatus and method |
CN111553473B (zh) * | 2017-07-05 | 2023-10-13 | 上海寒武纪信息科技有限公司 | 数据冗余方法及执行数据冗余方法的神经网络处理器 |
US20200344238A1 (en) * | 2017-11-03 | 2020-10-29 | Sensormatic Electronics, LLC | Methods and System for Controlling Access to Enterprise Resources Based on Tracking |
CN107992822B (zh) | 2017-11-30 | 2020-04-10 | Oppo广东移动通信有限公司 | 图像处理方法和装置、计算机设备、计算机可读存储介质 |
US10740617B2 (en) * | 2017-12-19 | 2020-08-11 | Intel Corporation | Protection and recovery of identities in surveillance camera environments |
US10776609B2 (en) * | 2018-02-26 | 2020-09-15 | Samsung Electronics Co., Ltd. | Method and system for facial recognition |
US11279041B2 (en) * | 2018-10-12 | 2022-03-22 | Dream Face Technologies, Inc. | Socially assistive robot |
US11017430B2 (en) | 2018-11-16 | 2021-05-25 | International Business Machines Corporation | Delivering advertisements based on user sentiment and learned behavior |
KR20200093090A (ko) * | 2019-01-07 | 2020-08-05 | 현대자동차주식회사 | 차량 및 그 제어방법 |
JP7122286B2 (ja) * | 2019-04-19 | 2022-08-19 | ヤフー株式会社 | 決定装置、決定方法及び決定プログラム |
US11102353B2 (en) | 2019-05-07 | 2021-08-24 | Avaya Inc. | Video call routing and management based on artificial intelligence determined facial emotion |
CN112446243A (zh) * | 2019-08-29 | 2021-03-05 | 鸿富锦精密电子(郑州)有限公司 | 电子装置及基于情绪的内容推送方法 |
US20230096240A1 (en) * | 2020-02-21 | 2023-03-30 | Philip Morris Products S.A. | Method and apparatus for interactive and privacy-preserving communication between a server and a user device |
WO2021165430A1 (en) * | 2020-02-21 | 2021-08-26 | Philip Morris Products Sa | Method and apparatus for interactive and privacy-preserving communication between a server and a user device |
US11341543B2 (en) | 2020-08-31 | 2022-05-24 | HYPE AR, Inc. | System and method for generating visual content associated with tailored advertisements in a mixed reality environment |
US11656681B2 (en) | 2020-08-31 | 2023-05-23 | Hypear, Inc. | System and method for determining user interactions with visual content presented in a mixed reality environment |
US11240469B1 (en) * | 2020-12-18 | 2022-02-01 | Frqncy, Inc. | Systems and methods for audience interactions in real-time multimedia applications |
WO2022249460A1 (ja) * | 2021-05-28 | 2022-12-01 | 株式会社I’mbesideyou | 動画像分析システム |
KR20230106995A (ko) * | 2022-01-07 | 2023-07-14 | 현대자동차주식회사 | 감성 모델링 방법 및 장치 |
US12137278B2 (en) * | 2022-05-14 | 2024-11-05 | Dish Network Technologies India Private Limited | Customized content delivery |
US11843829B1 (en) | 2022-05-24 | 2023-12-12 | Rovi Guides, Inc. | Systems and methods for recommending content items based on an identified posture |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030182123A1 (en) * | 2000-09-13 | 2003-09-25 | Shunji Mitsuyoshi | Emotion recognizing method, sensibility creating method, device, and software |
US20090285456A1 (en) * | 2008-05-19 | 2009-11-19 | Hankyu Moon | Method and system for measuring human response to visual stimulus based on changes in facial expression |
CN101620669A (zh) * | 2008-07-01 | 2010-01-06 | 邹采荣 | 一种人脸身份和表情的同步识别方法 |
CN102577367A (zh) * | 2009-09-11 | 2012-07-11 | 伊斯曼柯达公司 | 时移视频通信 |
CN102572539A (zh) * | 2010-11-12 | 2012-07-11 | 微软公司 | 自动的被动和匿名反馈系统 |
CN103098079A (zh) * | 2011-04-11 | 2013-05-08 | 英特尔公司 | 个性化节目选择系统和方法 |
CN103283267A (zh) * | 2011-01-07 | 2013-09-04 | 英派尔科技开发有限公司 | 经由用户接口来量化挫折 |
JP2013196107A (ja) * | 2012-03-16 | 2013-09-30 | Dainippon Printing Co Ltd | 画像処理システム、画像処理方法、サーバおよびプログラム |
CN103493068A (zh) * | 2011-04-11 | 2014-01-01 | 英特尔公司 | 个性化广告选择系统和方法 |
CN103731728A (zh) * | 2014-01-24 | 2014-04-16 | 浪潮软件集团有限公司 | 一种实时收视调查的方法 |
CN104182619A (zh) * | 2014-08-05 | 2014-12-03 | 上海市精神卫生中心 | 基于智能终端实现情绪特征参数采集和处理的系统及方法 |
CN104284014A (zh) * | 2013-07-09 | 2015-01-14 | Lg电子株式会社 | 移动终端及其控制方法 |
CN104361356A (zh) * | 2014-12-08 | 2015-02-18 | 清华大学 | 一种基于人机交互的电影受众体验评价方法 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5960099A (en) * | 1997-02-25 | 1999-09-28 | Hayes, Jr.; Carl Douglas | System and method for creating a digitized likeness of persons |
JP3593067B2 (ja) * | 2001-07-04 | 2004-11-24 | 沖電気工業株式会社 | 画像コミュニケーション機能付き情報端末装置および画像配信システム |
KR200265257Y1 (ko) * | 2001-11-15 | 2002-02-21 | 삼성네트웍스 주식회사 | 상황적응적 감성 조정 장치 |
US7221809B2 (en) * | 2001-12-17 | 2007-05-22 | Genex Technologies, Inc. | Face recognition system and method |
US6947579B2 (en) * | 2002-10-07 | 2005-09-20 | Technion Research & Development Foundation Ltd. | Three-dimensional face recognition |
US7233684B2 (en) | 2002-11-25 | 2007-06-19 | Eastman Kodak Company | Imaging method and system using affective information |
US7824409B2 (en) * | 2003-01-31 | 2010-11-02 | Zimmer, Inc. | Modular impaction grafting tamps |
CN1839410B (zh) * | 2003-07-18 | 2015-05-20 | 佳能株式会社 | 图像处理设备、摄像设备、图像处理方法 |
US8488023B2 (en) | 2009-05-20 | 2013-07-16 | DigitalOptics Corporation Europe Limited | Identifying facial expressions in acquired digital images |
US7606392B2 (en) | 2005-08-26 | 2009-10-20 | Sony Corporation | Capturing and processing facial motion data |
US7751599B2 (en) * | 2006-08-09 | 2010-07-06 | Arcsoft, Inc. | Method for driving virtual facial expressions by automatically detecting facial expressions of a face image |
JP4710778B2 (ja) * | 2006-09-28 | 2011-06-29 | 株式会社日立製作所 | 小型カメラ搭載型の列車内情報表示システム |
EP2109302B1 (en) * | 2008-04-07 | 2010-09-22 | NTT DoCoMo, Inc. | Emotion recognition message system and message storage server therefor |
US8154615B2 (en) * | 2009-06-30 | 2012-04-10 | Eastman Kodak Company | Method and apparatus for image display control according to viewer factors and responses |
TWI430185B (zh) * | 2010-06-17 | 2014-03-11 | Inst Information Industry | 臉部表情辨識系統及其辨識方法及其電腦程式產品 |
US8705813B2 (en) * | 2010-06-21 | 2014-04-22 | Canon Kabushiki Kaisha | Identification device, identification method, and storage medium |
JP2013020365A (ja) * | 2011-07-08 | 2013-01-31 | Namco Bandai Games Inc | ゲームシステム、プログラム、及び情報記憶媒体 |
US8903176B2 (en) * | 2011-11-14 | 2014-12-02 | Sensory Logic, Inc. | Systems and methods using observed emotional data |
US20140063237A1 (en) * | 2012-09-03 | 2014-03-06 | Transportation Security Enterprises, Inc.(TSE), a Delaware corporation | System and method for anonymous object identifier generation and usage for tracking |
JP6254785B2 (ja) * | 2012-07-24 | 2017-12-27 | サイトセンシング株式会社 | 視聴率調査システム、並びに表情情報生成装置及び表情情報生成プログラム |
WO2014139118A1 (en) * | 2013-03-14 | 2014-09-18 | Intel Corporation | Adaptive facial expression calibration |
US9105119B2 (en) * | 2013-05-02 | 2015-08-11 | Emotient, Inc. | Anonymization of facial expressions |
-
2015
- 2015-06-26 US US14/752,100 patent/US9600715B2/en active Active
-
2016
- 2016-05-23 KR KR1020187002447A patent/KR102611913B1/ko active IP Right Grant
- 2016-05-23 JP JP2017557112A patent/JP6752819B2/ja active Active
- 2016-05-23 CN CN201680031101.2A patent/CN107710222A/zh active Pending
- 2016-05-23 WO PCT/US2016/033737 patent/WO2016209453A1/en unknown
- 2016-05-23 EP EP16814923.5A patent/EP3314530A4/en not_active Withdrawn
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030182123A1 (en) * | 2000-09-13 | 2003-09-25 | Shunji Mitsuyoshi | Emotion recognizing method, sensibility creating method, device, and software |
US20090285456A1 (en) * | 2008-05-19 | 2009-11-19 | Hankyu Moon | Method and system for measuring human response to visual stimulus based on changes in facial expression |
CN101620669A (zh) * | 2008-07-01 | 2010-01-06 | 邹采荣 | 一种人脸身份和表情的同步识别方法 |
CN102577367A (zh) * | 2009-09-11 | 2012-07-11 | 伊斯曼柯达公司 | 时移视频通信 |
CN102572539A (zh) * | 2010-11-12 | 2012-07-11 | 微软公司 | 自动的被动和匿名反馈系统 |
CN103283267A (zh) * | 2011-01-07 | 2013-09-04 | 英派尔科技开发有限公司 | 经由用户接口来量化挫折 |
CN103098079A (zh) * | 2011-04-11 | 2013-05-08 | 英特尔公司 | 个性化节目选择系统和方法 |
CN103493068A (zh) * | 2011-04-11 | 2014-01-01 | 英特尔公司 | 个性化广告选择系统和方法 |
JP2013196107A (ja) * | 2012-03-16 | 2013-09-30 | Dainippon Printing Co Ltd | 画像処理システム、画像処理方法、サーバおよびプログラム |
CN104284014A (zh) * | 2013-07-09 | 2015-01-14 | Lg电子株式会社 | 移动终端及其控制方法 |
CN103731728A (zh) * | 2014-01-24 | 2014-04-16 | 浪潮软件集团有限公司 | 一种实时收视调查的方法 |
CN104182619A (zh) * | 2014-08-05 | 2014-12-03 | 上海市精神卫生中心 | 基于智能终端实现情绪特征参数采集和处理的系统及方法 |
CN104361356A (zh) * | 2014-12-08 | 2015-02-18 | 清华大学 | 一种基于人机交互的电影受众体验评价方法 |
Non-Patent Citations (2)
Title |
---|
IPEPDF: "《Automated facial recognition in the public and private sectors》", 《HTTP://PUBLICATIONS.GC.CA/SITE/ENG/9.808035/PUBLICATION.HTML》 * |
黄钊 等: "《基于大数据时代背景下对我国体育产业发展的影响》", 《安徽体育科技》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108401129A (zh) * | 2018-03-22 | 2018-08-14 | 广东小天才科技有限公司 | 基于穿戴式设备的视频通话方法、装置、终端及存储介质 |
CN108741822A (zh) * | 2018-05-22 | 2018-11-06 | 国家电网公司客户服务中心南方分中心 | 一种呼叫中心客服座位工椅 |
CN108741822B (zh) * | 2018-05-22 | 2021-06-08 | 国家电网公司客户服务中心南方分中心 | 一种呼叫中心客服座位工椅 |
Also Published As
Publication number | Publication date |
---|---|
WO2016209453A1 (en) | 2016-12-29 |
US9600715B2 (en) | 2017-03-21 |
EP3314530A4 (en) | 2019-02-20 |
KR20180014195A (ko) | 2018-02-07 |
JP2018521381A (ja) | 2018-08-02 |
US20160379047A1 (en) | 2016-12-29 |
JP6752819B2 (ja) | 2020-09-09 |
KR102611913B1 (ko) | 2023-12-11 |
EP3314530A1 (en) | 2018-05-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107710222A (zh) | 情绪检测系统 | |
CN111652678B (zh) | 物品信息显示方法、装置、终端、服务器及可读存储介质 | |
CN105075278B (zh) | 基于环境感测提供建议的计算设备 | |
KR101661407B1 (ko) | 상호작용-기반의 인증을 통한 컨텐츠 활성화, 시스템 및 방법 | |
CN103760968B (zh) | 数字标牌显示内容选择方法和装置 | |
US20140129935A1 (en) | Method and Apparatus for Developing and Playing Natural User Interface Applications | |
CN107003827A (zh) | 由包括可切换镜子的设备执行的图像显示方法和设备 | |
CN106462725A (zh) | 监测游戏场所的活动的系统和方法 | |
CN111491187B (zh) | 视频的推荐方法、装置、设备及存储介质 | |
CN111698564B (zh) | 信息推荐方法、装置、设备及存储介质 | |
CN109241347A (zh) | 用于内容反应注释的系统和方法 | |
US20140168114A1 (en) | System and method of dynamically generating a frequency pattern to realize the sense of touch in a computing device | |
KR101988334B1 (ko) | 이동 전화기 및 이동전화기에서 재생되는 미디어 컨텐츠의 효율성 분석 방법 | |
CN116894711A (zh) | 商品推荐理由生成方法及其装置、电子设备 | |
CN113269612A (zh) | 物品推荐方法、装置、电子设备及存储介质 | |
Alyasseri et al. | Eeg-based person identification using multi-verse optimizer as unsupervised clustering techniques | |
Kerdvibulvech | A digital human emotion modeling application using metaverse technology in the post-COVID-19 era | |
Doan | An efficient patient activity recognition using LSTM network and high-fidelity body pose tracking | |
CN111797303A (zh) | 信息处理方法、装置、存储介质及电子设备 | |
CN112070586B (zh) | 基于语义识别的物品推荐方法、装置、计算机设备及介质 | |
CN113420217A (zh) | 生成文案的方法、装置、电子设备和计算机可读存储介质 | |
Nguyen et al. | Location-aware human activity recognition | |
CN110908505A (zh) | 兴趣识别方法、装置、终端设备及存储介质 | |
Bartosik-Purgat et al. | Cross-cultural adoption of augmented reality–theories and practices | |
Kim et al. | Stereoscopic media art that changes based on gender classification using a depth sensor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |