KR20140001930A - 소셜 네트워크를 통한 정서의 공유 - Google Patents

소셜 네트워크를 통한 정서의 공유 Download PDF

Info

Publication number
KR20140001930A
KR20140001930A KR1020137014369A KR20137014369A KR20140001930A KR 20140001930 A KR20140001930 A KR 20140001930A KR 1020137014369 A KR1020137014369 A KR 1020137014369A KR 20137014369 A KR20137014369 A KR 20137014369A KR 20140001930 A KR20140001930 A KR 20140001930A
Authority
KR
South Korea
Prior art keywords
mental state
state information
data
individual
mental
Prior art date
Application number
KR1020137014369A
Other languages
English (en)
Inventor
라나 엘 칼리우비
리차드 스콧 사도우스키
올리버 오리온 윌더-스미스
Original Assignee
어펙티바,아이엔씨.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 어펙티바,아이엔씨. filed Critical 어펙티바,아이엔씨.
Publication of KR20140001930A publication Critical patent/KR20140001930A/ko

Links

Images

Classifications

    • G06Q50/40
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/101Collaborative creation, e.g. joint development of products or services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training

Abstract

심리 상태 정보를 비디오 캡쳐 또는 센서 정보의 캡쳐를 통해 개인으로부터 수집한다. 센서 정보는 피부전기활성, 가속도계 판독, 피부온도, 또는 다른 특징들로 이루어질 수 있다. 심리 상태 정보를 소정 기간에 걸쳐 수집 및 분석하여, 개인의 기분을 판단할 수 있다. 개인은 소셜 네트워크를 통해 심리 상태 정보를 공유할 수 있다. 개인은 공유 전에 심리 상태 정보의 공유 여부를 결정하도록 요청받을 수 있다.

Description

소셜 네트워크를 통한 정서의 공유{SHARING AFFECT ACROSS A SOCIAL NETWORK}
관련 출원
본 출원은 2010년 11월 17일에 출원된 일련번호 제61/414,451호 “소셜 네트워크를 통한 정서 데이터의 공유(Sharing Affect Data Across a Social Network)”, 2011년 2월 6일에 출원된 일련번호 제61/439,913호 “게임 컨텍스트 내의 정서의 사용(Using Affect Within a Gaming Context)”, 2011년 2월 27일에 출원된 일련번호 제61/447,089호 “비디오에 대한 정서 반응의 추천 및 시각화(Recommendation and Visualization of Affect Responses to Videos)”, 2011년 2월 28일에 출원된 일련번호 제61/447,464호 “정서에 기반한 비디오 순위(Video Ranking Based on Affect)”, 2011년 3월 24일에 출원된 일련번호 제61/467,209호 “베이스라인 얼굴 분석(Baseline Face Analysis)”, 및 2011년 10월 20일에 출원된 일련번호 제61/549,560호 “유권자들의 심리 상태 분석(Mental State Analysis of Voters)”을 포함하는 미국 가출원들에 대한 우선권을 주장한다. 전술한 출원들 각각은 허용되는 경우 관할권 내에서 전체가 이에 참조로서 포함된다.
본 출원은 전반적으로 심리 상태들의 분석에 관한 것으로, 특히 소셜 네트워크를 통한 정서 데이터의 공유에 관한 것이다.
사람들은 인터넷을 하며 많은 시간을 보내는데, 그 대부분은 소셜 네트워크들에 대한 페이지들을 포함하는 웹페이지들을 보며 이들과 상호 작용하는 것을 포함한다. 심리 상태들의 평가는 개인들, 및 이들이 주변 세계에 반응하는 방식을 이해하는 데 있어서 중요하고, 이러한 세계는 더욱더 가상 세계를 포함한다. 심리 상태들은 행복과 슬픔, 만족과 걱정, 흥분과 진정 간의 광범위한 심리 상태뿐만 아니라 무수한 다른 심리 상태들을 포함한다. 교통 정체 동안의 좌절, 줄서는 동안의 권태, 한 잔의 커피를 기다리는 동안의 초조, 그리고 심지어 사람들이 컴퓨터 및 인터넷과 상호 작용할 때와 같은 일과에 반응하여 이러한 심리 상태들을 경험하게 된다. 개인들은 다른 사람들의 심리 상태들의 평가 및 이해에 기반하여 어느 정도 인지 및 공감하게 될 수 있지만, 심리 상태들의 자동적인 평가는 여전히 어려운 일이다. 공감을 잘 하는 사람은 다른 사람이 불안해하거나 즐거워하는 것을 인지하여, 그에 따라 반응할 수 있다. 한 사람이 다른 사람의 감정 상태를 인지하는 능력 및 수단은 간추려 말하기 어려우며, 종종 “직감(gut feel)”을 가진 것으로 알려져 있다.
개인 또는 일 그룹의 사람들에 대한 이해를 돕기 위해 혼란, 집중, 걱정과 같은 많은 심리 상태들을 식별할 수 있다. 예컨대 대참사의 목격 후에, 사람들은 집단적으로 공포 또는 불안을 가지고 반응할 수 있다. 마찬가지로, 예컨대 응원하는 스포츠팀이 승리할 때, 사람들은 집단적으로 행복한 열광을 가지고 반응할 수 있다. 소정의 얼굴 표정들 및 머리 동작들을 이용하여 사람이 경험 중인 심리 상태를 식별할 수 있다. 얼굴 표정들에 기반한 심리 상태들의 평가 시에 제한적인 자동화가 이루어졌다. 소정의 생리적 조건들이 사람의 정신 상태의 효과적인 지표를 제공하기도 하며, 거짓말 탐지기 테스트에서와 같이 불완전하게 사용되었다.
본 발명은 소셜 네트워크를 통한 정서의 공유를 제공하는 것을 목적으로 한다.
사람들이 인터넷 및 다양한 미디어와 상호 작용할 때 이들의 분석이 얼굴 표정들, 머리 동작들, 및 생리적 조건들의 평가를 통해 심리 상태들을 수집함으로써 이루어질 수 있다. 이후, 심리 상태 분석의 일부가 소셜 네트워크를 통해 공유될 수 있다. 심리 상태들을 전달하기 위한 컴퓨터로 구현되는 방법이 개시되며, 상기 방법은: 개인의 심리 상태 데이터를 수집하는 단계; 심리 상태 데이터를 분석하여 심리 상태 정보를 생성하는 단계; 및 소셜 네트워크를 통해 심리 상태 정보를 공유하는 단계를 포함한다. 상기 방법은 개인이 심리 상태 정보를 공유하기로 결정하는 단계를 더 포함할 수 있다. 상기 방법은 결정 단계 전에 개인에게 심리 상태 정보를 제시하는 단계를 더 포함할 수 있다. 심리 상태 데이터는 소정 기간에 걸쳐 수집될 수 있고, 공유되는 심리 상태 정보는 개인에 대한 기분의 반영이다. 기분은 좌절, 혼란, 실망, 주저, 인지 과부하, 집중, 관여, 참여, 권태, 탐구, 확신, 신뢰, 기쁨, 및 만족으로 이루어진 그룹 중 하나를 포함할 수 있다. 공유 단계는 소셜 네트워크 웹페이지에 심리 상태 정보를 포스팅하는 단계를 포함할 수 있다. 상기 방법은 서버에 심리 상태 정보를 업로드하는 단계를 더 포함할 수 있다. 상기 방법은 컴퓨터 네트워크를 통해 심리 상태 정보를 분배하는 단계를 더 포함할 수 있다. 심리 상태 데이터는 생리적 데이터, 얼굴 데이터, 및 액티그래프 데이터(actigraphy data)로 이루어진 그룹 중 하나를 포함할 수 있다. 웹캠을 사용하여 얼굴 데이터와 생리적 데이터 중 하나 이상을 캡쳐할 수 있다. 얼굴 데이터는 얼굴 표정, 행동 단위(action units), 머리 동작, 미소, 눈살 찌푸리기, 곁눈질하기, 눈썹 내리기, 눈썹 올리기, 및 몰두로 이루어진 그룹 중 하나 이상에 관한 정보를 포함할 수 있다. 생리적 데이터는 피부전기활성, 심박수, 심박 변이도, 피부온도, 및 호흡 중 하나 이상을 포함할 수 있다. 상기 방법은 수집된 심리 상태 데이터에 기반하여 심리 상태들을 유추하는 단계를 더 포함할 수 있다. 상기 방법은 소셜 네트워크 내에서 유사한 심리 상태들을 식별하는 단계를 더 포함할 수 있다. 심리 상태들은 좌절, 혼란, 실망, 주저, 인지 과부하, 집중, 관여, 참여, 권태, 탐구, 확신, 신뢰, 기쁨, 및 만족으로 이루어진 그룹 중 하나를 포함할 수 있다. 상기 방법은 공유 중인 심리 상태 정보와 함께 개인의 이미지를 전달하는 단계를 더 포함할 수 있다. 개인의 이미지는 심리 상태 활동의 피크 시간에서 유래될 수 있다. 이미지는 비디오를 포함할 수 있다. 상기 방법은 소셜 네트워크의 서브세트로 심리 상태 정보의 분배를 제한하는 단계를 더 포함할 수 있다. 상기 방법은 통합된 심리 상태 정보를 소셜 네트워크를 통해 공유하는 단계를 더 포함할 수 있다. 심리 상태 데이터는 개인이 웹-구동형 애플리케이션과 상호 작용할 때 수집될 수 있다. 웹-구동형 애플리케이션은 랜딩 페이지, 체크아웃 페이지, 웹페이지, 웹사이트, 웹-구동형 애플리케이션 상의 비디오, 웹-구동형 애플리케이션 상의 게임, 예고편, 영화, 광고, 및 가상 세계로 이루어진 그룹 중 하나일 수 있다. 상기 방법은 심리 상태 정보를 공유하는 단계의 일부로서 웹-구동형 애플리케이션에 대한 레퍼런스를 발송하는 단계를 더 포함할 수 있다. 레퍼런스는 URL과 타임스탬프를 포함할 수 있다. 발송 단계는 웹-구동형 애플리케이션으로부터의 소재의 이미지를 포함할 수 있다. 발송 단계는 웹-구동형 애플리케이션으로부터의 소재의 비디오를 포함할 수 있다. 공유 단계는 웹-구동형 애플리케이션에 대한 평가 시스템(rating system)의 일부일 수 있다. 심리 상태 데이터는 바이오센서를 사용하여 수집될 수 있다.
몇몇 구현예들에서, 심리 상태들을 전달하기 위해 컴퓨터 판독 가능한 매체 내에 구현된 컴퓨터 프로그램 제품은: 개인의 심리 상태 데이터를 수집하기 위한 코드; 심리 상태 데이터를 분석하여 심리 상태 정보를 생성하기 위한 코드; 개인이 심리 상태 정보를 공유하기로 결정하기 위한 코드; 및 소셜 네트워크를 통해 심리 상태 정보를 공유하기 위한 코드를 포함할 수 있다. 구현예들에서, 심리 상태들을 공유하기 위한 시스템은: 명령어들을 저장하기 위한 메모리; 메모리에 부착된 하나 이상의 프로세서로서, 개인의 심리 상태 데이터를 수집하고, 심리 상태 데이터를 분석하여 심리 상태 정보를 생성하며, 개인으로부터 심리 상태 정보를 공유하기로 결정한 명령어를 수신하고, 소셜 네트워크를 통해 심리 상태 정보를 공유하도록 구성된 하나 이상의 프로세서를 포함할 수 있다.
몇몇 구현예들에서, 심리 상태들을 전달하기 위한 컴퓨터로 구현되는 방법은: 개인의 심리 상태 정보를 수신하는 단계; 수신된 심리 상태 정보에 기반하여 개인에 대한 심리 상태들을 유추하는 단계; 및 유추된 심리 상태들을 소셜 네트워크를 통해 공유하는 단계를 포함한다.
다수의 구현예들의 다양한 특징들, 양상들, 및 이점들이 후술하는 설명에서 더욱 명확해질 것이다.
소정의 구현예들의 후술하는 상세한 설명은 하기 도면들을 참조하여 이해될 수 있다:
도 1은 웹캠 뷰 스크린의 도면이다.
도 2는 정서 데이터에 대한 분석 차트의 도면이다.
도 3은 심리 상태 정보를 공유하는 흐름도이다.
도 4는 소셜 네트워크를 통해 공유하는 흐름도이다.
도 5는 렌더링에 대한 얼굴 반응을 캡쳐하는 도면이다.
도 6은 생리적 분석을 나타내는 도면이다.
도 7은 심장 관련 센싱의 도면이다.
도 8은 심리 상태 분석의 그래픽 표현이다.
도 9는 공유를 결정하는 웹페이지의 도면이다.
도 10은 예시적인 소셜 네트워크 페이지 컨텐츠이다.
도 11은 소셜 네트워크를 통해 공유하는 시스템도이다.
본 개시는 사람들이 웹사이트들, 웹-구동형 애플리케이션들, 및/또는 인터넷 상의 다른 특징들과 상호 작용할 때 이들의 심리 상태들을 분석하여, 그 결과를 소셜 네트워크를 통해 공유하기 위한 다양한 방법들 및 시스템들의 설명을 제공한다. 소셜 네트워킹은 인터넷을 통해 계속 연결된 소사이어티와 함께 더욱더 일상의 일부가 되었다. 통신은 이메일, 포스팅, 텍스팅, 단문 등에 의해 이루어지지만, 감정의 전달이 여전히 문제로 남아있다. 심리 상태 분석을 수행하고, 이후 이러한 심리 상태들을 소셜 네트워크를 통해 전달함으로써, 가상 통신이 훨씬 더 사람에게 적합화된다. 통신은 명시적인 포스팅에 제한되는 대신, 감정의 전달을 가능하게 한다. 심리 상태들은 감정 상태들 및/또는 인지 상태들을 포함할 수 있다. 감정 상태들의 예로, 행복 또는 슬픔이 포함된다. 인지 상태들의 예로, 집중 또는 혼란이 포함된다. 이러한 심리 상태들을 관찰, 캡쳐, 분석하면, 웹사이트형 분석에서의 현재 능력을 훨씬 넘어서는, 사람들의 반응에 관한 상당한 정보를 생성할 수 있다.
이러한 개시에 의해 해결된 문제점은 개인의 심리 상태들을 수집 및 분석하여, 소셜 네트워크를 통해 공유될 수 있는 심리 상태 정보를 생성하는 것이다. 심리 상태 데이터는 개인이 특정한 작업을 수행하는 동안 또는 더 긴 기간에 걸쳐 개인으로부터 수집될 수 있다. 심리 상태 데이터는 센서들로부터의 생리적 데이터, 웹캠으로부터의 얼굴 데이터, 또는 액티그래프 데이터를 포함할 수 있다. 심리 상태 데이터를 분석하여 심리 상태 정보를 생성할 수 있다. 심리 상태 정보는 기분들, 다른 심리 상태들, 심리 상태 데이터, 또는 심리 상태 데이터로부터 파생 또는 유추된 심리 상태 정보를 포함할 수 있다. 개인의 심리 상태들은 좌절, 혼란, 실망, 주저, 인지 과부하, 집중, 관여, 참여, 권태, 탐구, 확신, 신뢰, 기쁨, 및 만족 또는 다른 감정들이나 인지 상태들을 포함할 수 있다. 심리 상태 정보는 웹-구동형 애플리케이션에 대해 반응하는 것과 같이 특정한 자극과 관련될 수 있거나, 또는 더 긴 시간과 관련될 수 있으며 예컨대 하루 동안의 심리 상태를 나타낼 수 있는 기분일 수 있다.
심리 상태를 다른 사람들과 공유할 기회가 개인에게 주어질 수 있다. 개인이 공유를 채택한다면, 심리 상태가 소셜 네트워크를 통해 공유될 수 있다. 소셜 미디어 또는 소셜 네트워크 웹페이지에 기분 정보를 포스팅함으로써, 심리 상태가 소셜 네트워크 상에서 공유될 수 있다. 공유되는 심리 상태는 전반적 기분일 수 있거나, 특정한 자극에 대한 반응일 수 있다. 심리 상태가 특정한 자극에 대한 반응인 경우, 웹-구동형 애플리케이션과 같은 자극에 대한 레퍼런스가 공유될 수 있다. 레퍼런스는 파일식별자(URL) 및/또는 타임스탬프를 포함할 수 있다. 기분에 대응하는 개인의 이미지가 심리 상태와 함께 포스팅될 수 있다. 개인은 유사한 심리 상태를 가진 소셜 네트워크 상의 다른 개인들을 식별할 수 있다. 그리고, 몇몇 경우에, 소셜 네트워크 상의 개인의 연락처들의 심리 상태들이 소셜 네트워크 상에서 통합 및 공유될 수 있다.
도 1은 웹캠 뷰 스크린의 도면이다. 윈도우(100)는 뷰 및 수 개의 버튼들을 포함할 수 있다. 웹캠 뷰(110)는 개인의 뷰를 포함할 수 있다. 웹캠 뷰(110)는 웹캠, 또는 컴퓨터에 부착된 다른 카메라 장치에 의해 획득될 수 있다. 개인의 뷰는 사람의 머리, 사람 전체, 또는 사람의 일부를 보여줄 수 있다. 얼굴이 보여지는 경우 사람의 머리를 시청할 수 있고, 얼굴 표정들을 관찰할 수 있다. 얼굴 표정들은 얼굴 움직임들과 머리 동작들을 포함할 수 있다. 심리 상태들을 유추하기 위해 사용되는 얼굴 움직임들과 머리 동작들을 포함하는 얼굴 데이터가 관찰될 수 있다. 게다가, 관찰된 데이터는 눈에 띄는 조바심과 같은 손짓들 또는 신체 언어 및 신체 움직임에 관한 정보를 포함할 수 있다. 다양한 구현예들에서, 이러한 움직임들이 카메라 또는 센서 판독에 의해 캡쳐될 수 있다. 얼굴 데이터는 머리를 한 쪽으로 기울이기, 앞으로 숙이기, 미소, 찌푸리기, 및 다른 많은 몸짓들 또는 표정들을 포함할 수 있다. 얼굴 데이터는 얼굴 표정, 행동 단위, 머리 동작, 미소, 눈살 찌푸리기, 곁눈질하기, 눈썹 내리기, 눈썹 올리기, 및 몰두와 같은 정보를 포함할 수 있다. 웹캠 관찰은 눈 깜빡임 속도를 포함할 수 있다. 예컨대, 깜빡임 속도의 감소는 관찰되는 것과의 상당한 연대(engagement)를 나타낼 수 있다. 웹캠 관찰은 또한 생리적 정보를 캡쳐할 수 있다. 웹캠을 통한 관찰은 개인이 컴퓨터를 사용하는 동안 일상적인 작업을 수행하는 중에 이루어질 수 있다. 관찰은 또한 웹-구동형 애플리케이션, 웹-구동형 애플리케이션 상의 비디오, 웹-구동형 애플리케이션 상의 게임, 및 가상 세계와 같은 특정한 아이템들을 보는 동안 또는 이들과 상호 작용하는 동안 이루어질 수 있다. 몇몇 구현예들에서, 개인이 웹-구동형 애플리케이션과 상호 작용하는 동안, 웹캠 뷰(110)는 더 작아지거나, 아이콘이 되거나, 사라질 수 있다. 몇몇 구현예들에서, 관찰은 하루중 일과가 일어나는 동안 이루어진다.
웹캠 뷰(110)를 기록하기 위해 기록 버튼(120)을 포함할 수 있다. 심리 상태 정보를 관찰 및 공유하기 위한 승인을 획득한 경우, 기록 버튼(120)은 웹캠 뷰(110) 내에서 개인에 의한 “채택(opting in)”의 일부일 수 있다. 기록 버튼(120) 위에 마우스를 놓으면, 기록 버튼(120)의 목적이 설명될 수 있다. 기록 버튼(120)을 클릭하여 기록을 시작할 수 있다. 기록 버튼을 다시 클릭하여 기록을 중지할 수 있다. 몇몇 구현예들에서, 기록은 센싱 컨텍스트에 기반하여 이루어질 수 있다. 기록은 시청 또는 상호 작용이 특정한 웹-구동형 애플리케이션과 함께 시작될 때 자동으로 시작될 수 있다. 기록은 특정한 시점에 또는 웹-구동형 애플리케이션이 종료점에 도달할 때 자동으로 종료될 수 있다. 하나의 이러한 예로, 시청될 수 있는 일련의 비디오 예고편이 있다. 웹캠 뷰의 기록은 각각의 비디오 예고편의 시작 및 종료와 함께 시작 및 종료될 수 있다. 구현예들에서, 작동의 소정의 컨텍스트에 대해 웹캠 뷰의 기록 승인을 부여할 수 있다. 게다가, 웹캠 뷰뿐만 아니라 컨텍스트가 기록될 수 있다.
차트 버튼(130)을 사용하여 웹캠의 기록 중에 수집된 정보의 분석을 표시할 수 있다. 차트 버튼(130) 위에 마우스를 놓으면, 버튼의 목적이 설명될 수 있다. 차트 버튼(130)을 클릭하여 도 2에 도시된 바와 같은 차트를 표시할 수 있다. 사람이 다른 사람들과 심리 상태 정보를 공유하기를 원하는지 결정할 수 있도록, 심리 상태 정보의 공유 전에 차트 버튼(130)을 클릭할 수 있다. 공유 버튼(140)을 사용하여, 기록 버튼(120)이 클릭될 때 수집된 심리 상태 정보를 공유할 수 있다. 공유 버튼(140)은 다른 사람들과 심리 상태 정보를 공유하는 “채택” 과정의 일부일 수 있다. 공유 버튼(140) 위에 마우스를 놓으면, 버튼의 목적이 설명될 수 있다. 공유 버튼(140)을 클릭하여 개인, 일 그룹의 사람들, 또는 소셜 네트워크와 심리 상태 정보를 공유할 수 있다. 공유 버튼(140)을 클릭함으로써, 심리 상태 정보를 이메일에 의해 전달할 수 있거나, 페이스북에 포스팅할 수 있거나, 트위터 또는 다른 소셜 네트워킹 사이트에 의해 공유할 수 있다. 심리 상태 정보의 공유는 1회 이루어질 수 있거나 연속적일 수 있다. 공유가 개시되면, 심리 상태 정보가 소셜 네트워킹 사이트에 규칙적으로 포스팅될 수 있다. 이런 방식으로, 사람의 심리 상태 정보를 소셜 네트워크에 퍼뜨릴 수 있다. 공유는 또한 웹-구동형 애플리케이션에 대한 레퍼런스 또는 웹-구동형 애플리케이션 자체를 전달할 수 있다. 웹-구동형 애플리케이션에 대한 레퍼런스는 예컨대 웹페이지 링크일 수 있다. 이러한 공유에 기반하여, 개인은 자신이 본 것 및 보는 동안의 심리 상태를 전달할 수 있다. 개인은 자신의 심리 상태를 공유하고 있는 개인 또는 사람들로부터 도출된 응답을 추가로 요청할 수 있다.
도 2는 정서 데이터에 대한 분석 차트(210)의 도면이다. 분석 차트(210)는 x축에 “시간”, y축에 “정서”를 포함할 수 있다. 시간에 따라 정서 데이터를 묘사하는 그래프(230)가 도시될 수 있다. 도시되는 기간은 개인이 다양한 작업들을 수행한 최근 기간에 대한 것이거나, 개인이 웹-구동형 애플리케이션과 상호 작용할 때 수집된 심리 상태 데이터와 같은 특정한 작업에 대한 것일 수 있다. 정서 데이터는 개인이 스크린을 향해 숙이는 때를 나타내는 머리 동작처럼 간단할 수 있다. 스크린을 향해 숙이는 것은 스크린에 표시된 것에 대한 굉장한 관심을 나타내는 지표일 수 있다. 행동 단위들은 한쪽 눈썹 올리기, 양 눈썹 올리기, 씰룩거리는 미소, 눈살 찌푸리기, 콧구멍 벌리기, 눈 가늘게 뜨기, 및 다른 많은 가능성들을 포함할 수 있다. 이러한 행동 단위들은 비디오를 분석하는 컴퓨터 시스템에 의해 자동으로 검출될 수 있다. 정서 데이터는 또한 소정의 심리 상태 평가일 수 있다. 예컨대, 그래프는 긍정적 또는 부정적 반응들을 보여줄 수 있다. 몇몇 구현예들에서, 그래프 대신 색상이 사용될 수 있다. 예컨대, 녹색은 긍정적 반응을 나타낼 수 있는 반면, 적색은 부정적 반응을 나타낼 수 있다. 정서 데이터는 또한 더 많은 특정한 심리 상태 평가에 대해 그래프로 표시될 수 있다. 예컨대, 하나의 심리 상태를 그래프로 나타낼 수 있다. 그래프로 나타낼 수 있는 몇몇 심리 상태들은 좌절, 혼란, 실망, 주저, 인지 과부하, 집중, 관여, 참여, 권태, 탐구, 확신, 신뢰, 기쁨, 및 만족을 포함한다. 몇몇 구현예들에서, 각각의 미소의 발생에 대한 라인을 제공하는 미소 트랙이 표시될 수 있다. 미소가 더 길거나 더 뚜렷해짐에 따라, 미소 라인은 더 어두워지거나 더 뚜렷해진다. 도 1에서 차트 버튼(130)을 선택할 수 있는 것처럼, 도 2에 표시된 윈도우에서 리턴 버튼(220)을 선택할 수 있다. 리턴 버튼(220)은 다양한 구현예들에서 웹캠 뷰, 이전 웹-구동형 애플리케이션 등을 보여주도록 윈도우를 복귀시킬 수 있다.
도 3은 심리 상태 정보를 공유하는 흐름도이다. 흐름도(300)는 개인의 심리 상태 데이터를 수집하는 단계(310)로 시작될 수 있다. 심리 상태 데이터는 행동 단위들의 수집, 얼굴 표정들의 수집 등을 포함할 수 있다. 생리적 데이터가 사람의 비디오 관찰로부터 획득될 수 있다. 예컨대, 심박수, 심박 변이도, 자율신경 활동, 호흡, 및 발한이 비디오 캡쳐로부터 관찰될 수 있다. 대안으로, 몇몇 구현예들에서, 바이오센서를 사용하여, 생리적 정보를 캡쳐할 수 있고, 또한 가속도계 판독을 캡쳐할 수 있다. 심리 상태 데이터를 수집하는 단계(310) 전에 승인을 요청 및 획득할 수 있다. 심리 상태 데이터는 클라이언트 컴퓨터 시스템에 의해 수집될 수 있다.
흐름도(300)는 심리 상태 데이터를 분석하여 심리 상태 정보를 생성하는 단계(320)로 진행될 수 있다. 심리 상태 데이터가 심박수와 같은 미가공 데이터일 수 있는 반면, 심리 상태 정보는 미가공 데이터로부터 파생된 정보를 포함할 수 있다. 심리 상태 정보는 심리 상태 데이터를 포함할 수 있다. 심리 상태 정보는 유발성(valence) 및 각성(arousal)을 포함할 수 있다. 심리 상태 정보는 개인이 경험한 심리 상태들을 포함할 수 있다. 몇몇 구현예들은 수집된 심리 상태 데이터에 기반하여 심리 상태들을 유추하는 단계를 포함할 수 있다.
흐름도(300)는 서버에 심리 상태 정보를 업로드하는 단계(330)로 진행될 수 있다. 서버는 사용자로부터 멀리 있을 수 있고, 소셜 네트워크에 의해 사용되는 데이터의 호스트일 수 있지만, 몇몇 구현예들에서, 서버는 소셜 네트워크의 컴퓨터 시스템으로부터 분리될 수 있고, 심리 상태 정보의 보관 및 다른 기능을 위해 사용될 수 있다. 몇몇 경우에, 이미지가 심리 상태 정보와 함께 서버로 전달될 수 있다(340). 이미지는 심리 상태 데이터가 수집될 때 개인의 이미지일 수 있고, 심리 상태 정보를 대표할 수 있다. 다른 구현예들에서, 이미지는 미리 캡쳐 또는 식별되어 특정한 심리 상태를 나타낼 수 있다. 흐름도(300)는 공유를 결정하는 단계 전에, 개인에게 심리 상태 정보를 제시하는 단계(350)로 진행될 수 있다. 몇몇 구현예들은 사용자로 하여금 제시 단계 전에 결정하게 할 수 있다. 몇몇 구현예들에서, 심리 상태 데이터, 심리 상태 정보, 또는 심리 상태 정보의 서브세트가 개인에게 제시될 수 있다. 몇몇 구현예들에서는 제시가 없을 수 있다. 심리 상태 정보는 기분의 텍스트 설명, 개인에 대해 또는 개인으로부터 획득된 이미지, 도 2 또는 도 8에 도시된 바와 같은 그래프, 또는 심리 상태 정보를 전달하는 다른 방식과 같은 다양한 방식으로 개인에게 제시될 수 있다.
흐름도(300)는 개인이 심리 상태 정보 또는 심리 상태들을 공유하기로 결정하는 단계(360)로 진행될 수 있다. 개인은 심리 상태 정보의 분배를 제한하는 것을 선택할 수 있다(362). 개인은 심리 상태 데이터와 심리 상태 정보의 전부 또는 일부를 공유하는 것을 선택할 수 있다. 개인은 소셜 네트워크의 서브세트로 심리 상태 정보의 분배를 제한하는 것과 같이, 소셜 네트워크를 통해 또는 개인, 일 그룹의 사람들과 공유하는 것을 선택할 수 있다. 구현예들에서, 심리 상태 정보는 네트워크가 추천할 수 있는 다른 사람들에게 공유될 수 있다. 몇몇 구현예들에서, 웹-구동형 애플리케이션에 대한 레퍼런스를 선택된 그룹 또는 서브그룹으로 발송할 수 있다(364). 몇몇 구현예들에서, 발송 단계는 웹페이지 상에서 “좋아요(like)” 유형의 버튼을 선택함으로써 이루어진다. 레퍼런스는 비디오, 예고편, 전자책, 웹사이트, 영화, 광고, TV쇼, 스트리밍된 비디오 클립, 비디오 게임, 컴퓨터 게임 등에 관한 정보를 포함할 수 있다. 레퍼런스는 그 일부를 식별하기 위한 타임스탬프, 페이지 번호, 웹페이지 URL 등을 포함할 수 있다. 발송 단계는 트위터 메시지, 텍스트, SMS 등을 포함할 수 있다. 레퍼런스가 발송될 때(364), URL 또는 짧은 URL이 포함될 수 있다. 흐름도(300)는 심리 상태정보를 공유하는 단계(370)로 진행될 수 있다. 공유 단계는 개인의 클라이언트 컴퓨터로부터 심리 상태 정보를 유지하는 서버로 데이터를 전송하는 단계를 포함할 수 있다. 공유 단계는 웹 링크, 웹-구동형 애플리케이션 레퍼런스, 또는 웹-구동형 애플리케이션을 포함할 수 있다. 심리 상태 정보는 서버로부터 개인에게 전달될 수 있다(380). 대안으로, 제1 개인으로부터 제2 개인으로의 심리 상태 정보의 P2P 공유가 있을 수 있다. 몇몇 구현예들은 소셜 네트워크를 통해 심리 상태 정보를 공유하는 단계(382)를 포함할 수 있다. 심리 상태들은 페이스북(FacebookTM), 링크드인(LinkedInTM), 마이스페이스(MySpaceTM), 트위터(TwitterTM), 구글(Google+TM), 또는 다른 소셜 네트워킹 사이트를 통해 전달될 수 있다.
도 4는 소셜 네트워크를 통해 공유하는 흐름도이다. 흐름도(400)는 심리 상태들을 공유하기 위한 컴퓨터로 구현되는 방법을 설명하며, 서버 관점의 활동을 나타낼 수 있다. 흐름도(400)는 개인에 대한 심리 상태 데이터를 수신하는 단계(410)로 시작될 수 있다. 심리 상태 정보는 흐름도(300)에 대해 설명한 바와 같이 수집될 수 있거나, 심리 상태 정보를 수집한 클라이언트 컴퓨터로부터 수신될 수 있다. 몇몇 구현예들에서, 심리 상태 정보를 분석하여(420), 얼굴 표정, 행동 단위, 머리 동작, 미소, 눈살 찌푸리기, 곁눈질하기, 눈썹 내리기, 눈썹 올리기, 또는 몰두와 같은 추가 정보를 추출할 수 있다. 다른 사람들과 심리 상태 정보를 공유하고자 하는 욕망을 나타내는, 심리 상태 정보를 공유하기로 한 결정을 개인으로부터 수신할 수 있다(430). 사용자가 웹-구동형 애플리케이션의 스크린 상의 버튼을 선택하여 심리 상태 정보의 공유를 채택함으로써, 결정이 이루어질 수 있다.
흐름도(400)는 수신된 심리 상태 정보에 기반하여 개인에 대한 심리 상태들을 유추하는 단계(440)로 진행된다. 유추될 수 있는 심리 상태들은 좌절, 혼란, 실망, 주저, 인지 과부하, 집중, 관여, 참여, 권태, 탐구, 확신, 신뢰, 기쁨, 및 만족을 포함한다. 몇몇 구현예들에서, 일 그룹의 사람들에 대해 집단적 심리 상태들을 유추할 수 있다. 흐름도(400)는 유추된 심리 상태들을 소셜 네트워크를 통해 공유하는 단계(450)로 진행된다. 몇몇 구현예들은 소셜 네트워크 내에서 유사한 심리 상태들을 식별하는 단계(452)를 포함할 수 있다. 유사한 심리 상태들을 식별하기 위해 조사될 수 있는 사람들의 그룹은 구현예에 따라 가변될 수 있다. 몇몇 구현예들은 개인의 직접 연락처 리스트만을 조사할 수 있는 반면, 다른 구현예들은 개인의 연락처들의 연락처들을 포함하는 확장된 연락처 리스트, 또는 여러 레벨의 연락처들의 연락처들을 벗어난 훨씬 더 확장된 그룹을 조사할 수 있다. 다른 구현예들에서 심리 상태 정보를 공유하기 위해 특별히 생성된 그룹만을 조사할 수 있는 반면, 또 다른 구현예들에서는 개인에게 흥미로울 수 있으며 잠재적인 새로운 연락처일 수 있는 사람들의 식별을 돕기 위해 개인의 확장된 네트워크 밖을 조사할 수 있다.
다수의 개인들은 자신의 심리 상태가 수집되게 하고, 자신의 심리 상태 정보가 다양한 목적을 위해 컴퓨터 네트워크를 통해 분배되게 할 수 있다(460). 이러한 심리 상태들은 서로 통합될 수 있고, 결합된 심리 상태 평가가 다른 사람들에게 포스팅 또는 전파될 수 있다. 웹마스터는 정서 데이터와 심리 상태 정보를 수집할 수 있다. 이러한 데이터 및/또는 정보는 웹마스터에 의해 제어되는 웹사이트에 태깅될 수 있고, 그에 따라 심리 상태들이 웹-구동형 애플리케이션과 연관될 수 있다. 게다가, 통합된 반응들을 사용하여, 비디오 또는 게임과 같은 웹-구동형 애플리케이션의 바이러스 가능성을 평가할 수 있다. 통합(aggregation)은 다양한 구현예들에서 다양한 형태들을 취할 수 있지만, 예로서 소셜 네트워크 상의 개인의 연락처의 통합된 기분을 생성하는 단계, 영화 예고편을 본 사람들의 통합된 심리 상태 정보를 생성하는 단계, 특정한 심리 상태를 가진 특정한 그룹의 백분율을 표로 나타내는 단계, 또는 심리 상태 정보를 통합하는 다른 방법이 포함될 수 있다. 흐름도(400)는 통합된 심리 상태 정보를 소셜 네트워크를 통해 공유함으로써 종료될 수 있다(470).
도 5는 렌더링에 대한 얼굴 반응을 캡쳐하는 도면이다. 시스템(500)에서, 전자 디스플레이(510)는 얼굴 데이터 및/또는 심리 상태의 다른 지표들을 수집하기 위해 사람(520)에게 렌더링(512)을 보여줄 수 있다. 웹캠(530)을 사용하여 얼굴 데이터와 생리적 데이터 중 하나 이상을 캡쳐한다. 다양한 구현예들에서, 얼굴 데이터는 얼굴 표정, 행동 단위, 머리 동작, 미소, 눈살 찌푸리기, 곁눈질하기, 눈썹 내리기, 눈썹 올리기, 또는 몰두에 관한 정보를 포함할 수 있다. 웹캠(530)은 사람(520)의 비디오, 오디오, 및/또는 스틸 이미지를 캡쳐할 수 있다. 본 개시 및 청구범위에 사용될 때, 웹캠이라는 용어는 비디오 카메라, 스틸 카메라, 열화상 카메라, CCD 기기, 폰 카메라, 3차원 카메라, 깊이 카메라, 사람(520)의 다양한 모습들을 보여주기 위해 사용된 다수의 웹캠들(530), 또는 캡쳐된 데이터가 전자 시스템에서 사용되게 할 수 있는 다른 유형의 이미지 캡쳐 장치일 수 있다. 전자 디스플레이(510)는 컴퓨터 디스플레이, 랩톱 스크린, 넷북 스크린, 태블릿 컴퓨터, 휴대 전화 디스플레이, 모바일 기기 디스플레이, 디스플레이를 구비한 리모컨, 또는 다른 전자 디스플레이일 수 있지만, 이에 제한되지 않는다. 렌더링(512)은 웹-구동형 애플리케이션의 렌더링일 수 있고, 랜딩 페이지, 체크아웃 페이지, 웹페이지, 웹사이트, 웹-구동형 애플리케이션, 웹-구동형 애플리케이션 상의 비디오, 웹-구동형 애플리케이션 상의 게임, 예고편, 영화, 광고, 또는 가상 세계 혹은 웹-구동형 애플리케이션의 다른 출력을 포함할 수 있다. 렌더링(512)은 또한 버튼, 광고, 배너 광고, 드롭다운 메뉴, 및 웹-구동형 애플리케이션 상의 데이터 요소와 같은 표시의 일 부분, 또는 표시의 다른 부분일 수 있다. 몇몇 구현예들에서, 웹캠(530)은 사람을 관찰하여 얼굴 데이터를 수집할 수 있다(532). 얼굴 데이터는 행동 단위, 머리 동작, 미소, 눈살 찌푸리기, 곁눈질하기, 눈썹 내리기, 눈썹 올리기, 및 몰두에 관한 정보를 포함할 수 있다. 추가로, 눈을 추적하여 렌더링(512) 중 집중되는 부분을 식별할 수 있다. 본 개시 및 청구범위를 위해, “눈(eyes)”이라는 단어는 개인의 1개 또는 2개의 눈, 또는 그룹 내의 개인들의 1개 또는 2개의 눈의 임의의 조합을 가리킬 수 있다. 사람(520)이 렌더링(512)을 관찰할 때(534) 눈이 움직일 수 있다. 웹캠(530)으로부터의 사람(520)의 이미지들이 비디오 캡쳐 유닛(540)에 의해 캡쳐될 수 있다. 몇몇 구현예들에서 비디오를 캡쳐할 수 있는 반면, 다른 구현예들에서는 일련의 스틸 이미지들을 캡쳐할 수 있다. 캡쳐된 비디오 또는 스틸 이미지는 하나 이상의 분석에 사용될 수 있다.
행동 단위들, 몸짓들, 및 심리 상태들의 분석(550)이 사람(520)의 캡쳐된 이미지를 사용하여 이루어질 수 있다. 행동 단위들을 사용하여 미소, 찌푸리기, 및 심리 상태들의 다른 얼굴 지표들을 식별할 수 있다. 머리 동작들을 포함하는 몸짓들은 관심 또는 호기심을 나타낼 수 있다. 예컨대, 전자 디스플레이(510)에 다가가는 머리 동작은 관심의 증가 또는 명확함에 대한 욕구를 나타낼 수 있다. 생리적 데이터의 분석이 캡쳐된 이미지들에 기반하여 이루어질 수 있다. 이미지들을 분석함으로써, 호흡, 심박수, 심박 변이도, 발한, 온도, 및 심리 상태의 다른 생리적 지표들을 관찰할 수 있다. 따라서, 다양한 구현예들에서, 웹캠을 사용하여 얼굴 데이터와 생리적 데이터 중 하나 이상을 캡쳐한다.
도 6은 생리적 분석을 나타내는 도면이다. 시스템(600)은 데이터가 수집되고 있는 사람(610)을 분석할 수 있다. 바이오센서(612)를 사용하여 심리 상태 데이터를 수집하기 위해, 바이오센서(612)를 사람(610)에게 부착할 수 있다. 바이오센서(612)는 손목, 손바닥, 손, 머리, 또는 신체의 다른 부분에 배치될 수 있다. 몇몇 구현예들에서, 다수의 바이오센서들이 신체의 다수의 지점들에 배치될 수 있다. 바이오센서(612)는 피부전기활성, 피부온도, 가속도계 판독 등과 같은 생리적 데이터용 검출기들을 포함할 수 있다. 심박수, 혈압, EKG, EEG, 추가적 뇌파, 및 기타 생리적 검출기들과 같은, 생리적 데이터를 위한 다른 검출기들을 또한 포함할 수 있다. 바이오센서(612)는 Wi-Fi, 블루투스, 802.11, 셀룰러, 또는 다른 대역과 같은 무선 기술을 이용하여 수신기(620)로 수집된 정보를 전송할 수 있다. 다른 구현예들에서, 바이오센서(612)는 유선 인터페이스 또는 광학 인터페이스와 같은 다른 방법들에 의해 수신기(620)와 통신할 수 있다. 수신기는 시스템(600) 내의 하나 이상의 구성요소에 데이터를 제공할 수 있다. 몇몇 구현예들에서, 바이오센서(612)는 추후 다운로드 및 분석을 위해 메모리에 다양한 생리적 정보를 기록할 수 있다. 몇몇 구현예들에서, 기록된 생리적 정보의 데이터 다운로드가 USB 포트 또는 다른 유무선 연결을 통해 이루어질 수 있다.
심리 상태들은 센서(612)로부터의 생리적 데이터와 같은 생리적 데이터에 기반하여 유추될 수 있다. 또한, 심리 상태들은 웹캠에 의해 관찰된 얼굴 표정들과 머리 동작들 또는 센서(612)로부터의 데이터와 웹캠으로부터의 데이터의 조합에 기반하여 유추될 수 있다. 심리 상태들은 각성 및 유발성에 기반하여 분석될 수 있다. 각성은 사람이 격앙된 경우와 같이 매우 활성화된 상태로부터, 사람이 지루해 하는 경우와 같이 전적으로 수동적인 상태까지 이를 수 있다. 유발성은 사람이 행복한 경우와 같이 매우 긍정적인 상태로부터, 사람이 화가 난 경우와 같이 매우 부정적인 상태까지 이를 수 있다. 생리적 데이터는 피부전기활성(EDA) 또는 피부전도도 또는 피부전도반응(GSR), 가속도계 판독, 피부온도, 심박수, 심박 변이도, 및 인간에 대한 다른 유형의 분석들을 포함할 수 있다. 본 문헌의 이 부분 및 다른 부분 모두에서, 생리적 정보는 바이오센서(612) 또는 얼굴 관찰에 의해 획득될 수 있음을 이해할 것이다. 얼굴 데이터는 심리 상태들을 유추하기 위해 사용되는 얼굴 움직임들과 머리 동작들을 포함할 수 있다. 게다가, 데이터는 눈에 띄는 조바심과 같은 손짓들 또는 신체 언어 및 신체 움직임에 관한 정보를 포함할 수 있다. 몇몇 구현예들에서, 이러한 움직임들이 카메라 또는 센서 판독에 의해 캡쳐될 수 있다. 얼굴 데이터는 머리를 한 쪽으로 기울이기, 앞으로 숙이기, 미소, 찌푸리기, 및 다른 많은 몸짓들 또는 표정들을 포함할 수 있다.
피부전기활성이 몇몇 구현예들에서 수집될 수 있으며, 연속으로, 매 초마다, 초당 4회, 초당 8회, 초당 32회, 또는 어떤 다른 주기에 따라 수집될 수 있다. 피부전기활성이 기록될 수 있다. 기록은 디스크, 테이프, 플래시 메모리, 컴퓨터 시스템에 이루어지거나, 서버로 스트리밍될 수 있다. 피부전기활성을 분석하여(630), 각성, 흥분, 권태, 또는 피부전도도의 변화에 기반한 다른 심리 상태들을 나타낼 수 있다. 피부온도가 주기적으로 수집 및 기록될 수 있다. 피부온도를 분석하여(632), 각성, 흥분, 권태, 또는 피부온도의 변화에 기반한 다른 심리 상태들을 나타낼 수 있다. 심박수가 수집 및 기록될 수 있다. 심박수를 분석할 수 있고(634), 높은 심박수는 흥분, 각성, 또는 다른 심리 상태들을 나타낼 수 있다. 가속도계 데이터를 수집하여, 1차원, 2차원, 또는 3차원의 운동을 나타낼 수 있다. 가속도계 데이터가 기록될 수 있다. 가속도계 데이터를 사용하여, 시간에 따른 개인의 활동 레벨을 보여주는 액티그래프를 생성할 수 있다. 가속도계 데이터를 분석하여(636), 수면 패턴, 높은 활동 상태, 기면 상태, 또는 가속도계 데이터에 기반한 다른 상태를 나타낼 수 있다. 바이오센서(612)에 의해 수집된 다양한 데이터는 웹캠에 의해 캡쳐된 얼굴 데이터와 함께 사용될 수 있다.
도 7은 심장 관련 센싱의 도면이다. 사람(710)이 특정한 유형의 바이오센서(심박수 센서(720))를 포함할 수 있는 시스템(700)에 의해 관찰된다. 관찰은 심박수 정보의 캡쳐를 가능하게 하는 접촉 센서 또는 비디오 분석을 통해, 또는 다른 비접촉 센싱을 통해 이루어질 수 있다. 몇몇 구현예들에서, 웹캠을 사용하여 생리적 데이터를 캡쳐한다. 몇몇 구현예들에서, 생리적 데이터를 사용하여 자율신경활동을 판단하고, 몇몇 구현예들에서 자율신경활동은 심박수, 호흡, 및 심박 변이도로 이루어진 그룹 중 하나일 수 있다. 다른 구현예들은 동공확대와 같은 다른 자율신경활동 또는 기타 자율신경활동들을 판단할 수 있다. 심박수는 디스크, 테이프, 플래시 메모리, 컴퓨터 시스템에 기록되거나(730), 서버로 스트리밍될 수 있다. 심박수와 심박 변이도가 분석될 수 있다(740). 심박수의 상승은 흥분, 초조, 또는 다른 심리 상태들을 나타낼 수 있다. 심박수의 하강은 진정, 권태, 또는 다른 심리 상태들을 나타낼 수 있다. 심박 변이도의 레벨은 피트니스, 진정, 스트레스, 및 연령과 연관될 수 있다. 심박 변이도를 사용하여 심리 상태의 유추를 도울 수 있다. 높은 심박 변이도는 양호한 건강 및 스트레스의 부재를 나타낼 수 있다. 낮은 심박 변이도는 스트레스 레벨의 상승을 나타낼 수 있다. 그러므로, 생리적 데이터는 피부전기활성, 심박수, 심박 변이도, 피부온도, 및 호흡 중 하나 이상을 포함할 수 있다.
도 8은 심리 상태 분석의 그래픽 표현이다. 예컨대 연관된 심리 상태 정보를 가진 웹-구동형 애플리케이션의 렌더링(810)을 포함하는 윈도우(800)가 도시될 수 있다. 도시된 예에서의 렌더링은 비디오이지만, 다른 구현예들에서는 다른 종류의 렌더링일 수 있다. 사용자는 비디오 1 선택 버튼(820), 비디오 2 선택 버튼(822), 비디오 3 선택 버튼(824), 및 비디오 4 선택 버튼(826)과 같은 다양한 버튼들 및/또는 탭들을 사용하여 복수의 렌더링들 중 선택할 수 있다. 다양한 구현예들은 사용자가 사용 가능한 임의의 개수의 선택들을 가질 수 있는데, 일부는 비디오가 아닌 다른 유형의 렌더링일 수 있다. 도시된 예에서 썸네일 1(830), 썸네일 2(832),…, 썸네일 N(836)을 포함하는, 선택된 렌더링을 위한 썸네일 이미지들의 세트가 타임라인(838)과 함께 렌더링 아래에 보여질 수 있다. 몇몇 구현예들은 썸네일들을 포함하지 않거나, 렌더링과 연관된 하나의 썸네일을 가질 수 있고, 다양한 구현예들은 동일한 길이의 썸네일들을 가질 수 있는 반면, 다른 구현예들은 상이한 길이의 썸네일들을 가질 수 있다. 몇몇 구현예들에서 렌더링의 비디오의 편집컷들에 의해 썸네일들의 시작 및/또는 종료를 결정할 수 있지만, 다른 구현예들에서는 렌더링과 연관되는 캡쳐된 심리 상태들의 변화에 기반하여 썸네일들의 시작 및/또는 종료를 결정할 수 있다. 구현예들에서, 심리 상태 분석이 수행되고 있는 사람의 썸네일들이 표시될 수 있다.
몇몇 구현예들은 사용자로 하여금 다양한 버튼들 또는 다른 선택 방법들을 사용하여, 표시를 위해 특정한 유형의 심리 상태 정보를 선택하게 하는 기능을 포함할 수 있다. 도시된 예에서, 사용자가 미소 버튼(840)을 사전 선택함에 따라, 미소 심리 상태 정보를 보여준다. 다양한 구현예들에서 사용자 선택을 위해 사용 가능할 수 있는 다른 유형의 심리 상태 정보는, 구현예에 따라, 눈썹 내림 버튼(842), 눈썹 올림 버튼(844), 몰두 버튼(846), 유발성 점수 버튼(848), 또는 다른 유형의 심리 상태 정보를 포함할 수 있다. 표시되는 심리 상태 정보는 생리적 데이터, 얼굴 데이터, 및 액티그래프 데이터에 기반할 수 있다. 사용자가 다양한 유형의 심리 상태 정보의 그래프들을 동시에 나타낼 수 있도록, 오버뷰 버튼(849)이 사용 가능할 수 있다.
도시된 예에서 미소 옵션(840)이 선택되었기 때문에, 렌더링(810)에 대한 심리 상태 데이터가 수집된 복수의 개인들의 통합된 미소 심리 상태 정보를 보여주는 미소 그래프(850)가 베이스라인(852)에 대해 도시될 수 있다. 남성 미소 그래프(854)와 여성 미소 그래프(856)가 도시될 수 있고, 그에 따라 가시적 표현이 인구통계를 기반으로 통합된 심리 상태 정보를 표시한다. 다양한 인구통계 기반의 그래프들을 도시된 바와 같이 다양한 라인 유형들을 사용하여 나타내거나, 색상 또는 다른 구별 방식을 사용하여 나타낼 수 있다. 슬라이더(858)가 사용자로 하여금 타임라인의 특정한 시간을 선택하게 하고, 특정한 시간 동안 선택된 심리 상태의 값을 보여줄 수 있다. 슬라이더는 값이 보여진 인구통계 그룹과 같은 라인 유형 또는 색상을 보여줄 수 있다.
몇몇 구현예들에서, 인구통계 버튼(860)을 사용하여 다양한 유형의 인구통계 기반의 심리 상태 정보를 선택할 수 있다. 이러한 인구통계는 성별, 연령, 인종, 소득 수준, 또는 응답자들을 더 높은 반응의 응답자들과 더 낮은 반응의 응답자들로 분리하는 것을 포함하는 다른 유형의 인구통계를 포함할 수 있다. 다양한 인구통계 그룹들, 각각의 그룹을 위한 라인 유형 또는 색상, 각각의 그룹에 대한 총 응답자들의 백분율 및/또는 응답자들의 절대수, 및/또는 인구통계 그룹들에 관한 다른 정보를 나타내는 그래프 범례(862)가 표시될 수 있다. 심리 상태 정보는 선택된 인구통계 유형에 따라 통합될 수 있다.
도 9는 공유를 결정하는 웹페이지의 도면이다. 웹-구동형 애플리케이션으로부터의 렌더링(900)이 개인에게 심리 상태 정보를 수집하는 옵션을 제시할 수 있다. 몇몇 실시예들에서 플래시(FlashTM)를 사용하여 승인을 제시하고/제시하거나 요청할 수 있다. 다양한 구현예들이 다양한 언어를 사용하여 개인에게 승인을 요청할 수 있다. 도시된 구현예에서, 얼굴 표정들을 기록하는 웹-구동형 애플리케이션에 대한 개인의 승인을 나타내는 텍스트(910)가 개인에게 제시된다. 비디오(920)가 개인에게 표시될 수 있다. 비디오(920)는 개인의 웹캠으로부터의 비디오, 개인이 응답할 컨텐츠, 개인의 승인을 요청하는 메시지, 또는 다른 비디오일 수 있다. 몇몇 구현예들은 비디오가 아닌 텍스트만 포함하거나, 텍스트와 이미지를 포함할 수 있다. 개인은 2개 이상의 버튼들 중 하나를 클릭함으로써 초대에 응답할 수 있다. 개인이 기록되는 것과 심리 상태 정보를 공유하는 것을 원하지 않는다면, “아니오” 버튼(930)을 클릭할 수 있고, 개인의 심리 상태 정보는 더 이상 캡쳐되지 않을 것이다. 개인이 기록되는 것과 심리 상태 정보를 공유하는 것을 원한다면, “예” 버튼(940)을 클릭하여 심리 상태 정보의 캡쳐를 개시할 수 있다. 다양한 구현예들이 버튼들을 위해 다른 언어를 사용할 수 있고, 몇몇 구현예들은 3개 이상의 옵션들, 예컨대 단지 특정한 그룹과 심리 상태 정보를 공유하는 옵션, 얼굴 데이터를 캡쳐하지만 개인이 심리 상태 정보를 검토할 때까지 심리 상태 정보를 공유하지 않는 옵션, 또는 심리 상태 정보에 대한 다른 다양한 제한들을 포함할 수 있다. 따라서, 심리 상태 정보를 공유하는 단계는 개인이 심리 상태 정보를 공유하기로 결정하는 단계를 포함할 수 있다.
도 10은 예시적인 소셜 네트워크 페이지 컨텐츠(1000)이다. 정확한 컨텐츠와 포맷팅은 다양한 소셜 네트워크들에 따라 다를 수 있지만, 블로깅 웹사이트, 페이스북, 링크드인, 마이스페이스, 트위터, 구글, 또는 다른 소셜 네트워크를 포함하지만 이에 제한되지 않는 다양한 소셜 네트워크들을 위해, 유사한 컨텐츠들이 포맷팅될 수 있다. 특정한 소셜 네트워크용 소셜 네트워크 페이지는 소셜 네트워크 페이지 컨텐츠(1000) 내에 도시된 구성요소들 중 하나 이상을 포함할 수 있지만, 도시된 구성요소들 대신에 또는 이들에 더하여 다른 다양한 구성요소들을 포함할 수도 있다. 소셜 네트워크 컨텐츠(1000)는 헤더(1010)를 포함할 수 있고, 헤더(1010)는 소셜 네트워크를 식별할 수 있고, 도시된 “홈”, “프로필”, 및 “친구들” 탭과 같은, 소셜 네트워크 사이트를 항해하기 위한 다양한 탭들 또는 버튼들을 포함할 수 있다. 소셜 네트워크 컨텐츠(1000)는 또한 소셜 네트워크 컨텐츠(1000)를 소유한 개인의 프로필 사진(1020)을 포함할 수 있다. 다양한 구현예들은 특정한 소셜 네트워크 상의 개인의 연락처들을 보여주는 친구 리스트(1030)를 포함할 수 있다. 몇몇 구현예들은 개인, 친구들 또는 다른 단체들의 게시물을 보여주기 위해 커멘트 구성요소(1040)를 포함할 수 있다.
소셜 네트워크 콘텐츠(1000)는 심리 상태 정보 섹션(1050)을 포함할 수 있다. 심리 상태 정보 섹션(1050)은 소셜 네트워크 웹페이지에 심리 상태 정보를 포스팅하는 것을 가능하게 할 수 있다. 이는, 구현예에 따라, 개인에 의해 공유된 심리 상태 정보를 포함할 수 있거나, 캡쳐되었지만 아직 공유되지 않은 심리 상태 정보를 포함할 수 있다. 적어도 하나의 구현예에서, 도 2의 그래프와 같은, 개인이 웹-구동형 애플리케이션을 보는 동안 개인의 심리 상태 정보를 보여주는 심리 상태 그래프(1052)가 개인에게 표시될 수 있다. 정보가 소셜 네트워크 상에 아직 공유되지 않았다면, 몇몇 구현예들에서 공유 버튼(1054)이 포함될 수 있다. 개인이 공유 버튼(1054)을 클릭하면, 심리 상태 그래프(1052)와 같은 심리 상태 정보 또는 심리 상태 정보의 다양한 개요들이 소셜 네트워크 상에서 공유될 수 있다. 구현예 및 개인의 선택에 따라, 심리 상태 정보는 개인, 연락처들 또는 친구들의 그룹 또는 서브그룹, 소셜 네트워크에 의해 정의된 다른 그룹과 공유될 수 있거나, 모든 사람에게 개방될 수 있다. 사진(1020) 또는 소셜 네트워크 상에 보여진 다른 이미지는, 심리 상태 정보가 행복인 경우 미소짓는 사진과 같은, 공유 중인 심리 상태 정보를 가진 개인의 이미지로 업데이트될 수 있다. 몇몇 경우에, 개인의 이미지는 심리 상태 활동의 피크 시간에서 유래된다. 몇몇 구현예들에서, 사진(1020) 섹션 또는 소셜 네트워크 페이지 컨텐츠(1000)의 다른 섹션은 비디오를 허용할 수 있고, 이미지는 개인의 반응 또는 심리 상태 정보를 나타내는 비디오를 포함한다. 공유되는 심리 상태 정보가 웹-구동형 애플리케이션과 관련된다면, 심리 상태 정보를 공유하는 단계의 일부로서 웹-구동형 애플리케이션에 대한 레퍼런스를 발송하는 단계가 이행될 수 있으며, 비디오 내의 특정한 지점을 나타낼 수 있는 타임스탬프와 URL을 포함할 수 있다. 다른 구현예들은 웹-구동형 애플리케이션으로부터의 소재의 이미지 또는 웹-구동형 애플리케이션으로부터의 소재의 비디오를 포함할 수 있다. 다양한 심리 상태 정보 및 관련 아이템들을 발송 또는 공유하는 단계는 하나의 소셜 네트워크 상에서 이행될 수 있거나, 일부 아이템들이 하나의 소셜 네트워크 상에서 발송될 수 있는 반면, 다른 아이템들은 다른 소셜 네트워크 상에서 발송된다. 몇몇 구현예들에서, 공유 단계는 예컨대 복수의 사용자들로부터의 심리 상태 정보를 통합하여 비디오들에 대한 평가를 자동으로 생성하는, 웹-구동형 애플리케이션을 위한 평가 시스템의 일부이다.
몇몇 구현예들은 심리 상태 점수(1056)를 포함할 수 있다. 몇몇 구현예들에서, 심리 상태 데이터는 소정 기간에 걸쳐 수집되고, 공유되는 심리 상태 정보는 심리 상태 점수(1056) 내의 개인에 대한 기분의 반영이다. 심리 상태 점수는 숫자, 슬라이딩 스케일, 색상 스케일, 기분을 나타내는 다양한 아이콘들 또는 이미지들, 또는 다른 유형의 표현일 수 있다. 몇몇 구현예들에서, 심리 상태 점수(1056)는 1970년대에 유행했던 “무드 링(mood ring)”을 모방할 수 있다. 좌절, 혼란, 실망, 주저, 인지 과부하, 집중, 관여, 참여, 권태, 탐구, 확신, 신뢰, 기쁨, 및 만족을 포함하지만 이에 제한되지 않는 다양한 기분들이 표현될 수 있다.
몇몇 구현예들은 친구들의 통합된 심리 상태들을 위한 섹션(1058)을 포함할 수 있다. 이 섹션은 심리 상태 정보를 공유하기로 채택한, 친구 섹션(1030) 내에 보여진 친구들의 통합된 기분을 포함할 수 있다. 다른 구현예들은 개인과 같은 웹-구동형 애플리케이션을 보는 친구들의 통합된 심리 상태들을 포함할 수 있고, 개인으로 하여금 심리 상태 그래프(1052) 내의 심리 상태 정보를 친구들의 심리 상태 정보(1058)와 비교할 수 있게 한다. 다른 구현예들은 상이한 그룹들의 다양한 통합들을 표시할 수 있다.
도 11은 소셜 네트워크를 통해 공유하기 위한 시스템(1100) 또는 심리 상태들을 공유하기 위한 시스템의 도면이다. 인터넷(1110), 인트라넷, 또는 다른 컴퓨터 네트워크가 다양한 컴퓨터들 간의 통신을 위해 사용될 수 있다. 클라이언트 컴퓨터(1120)는 명령어들을 저장하기 위한 메모리(1126), 및 메모리(1126)에 부착된 하나 이상의 프로세서(1124)를 구비하고, 여기서 하나 이상의 프로세서(1124)는 명령어들을 실행할 수 있다. 클라이언트 컴퓨터(1120)는 또한 심리 상태 정보를 운반하기 위한 인터넷 연결(1121), 및 사용자에게 다양한 렌더링들을 제시할 수 있는 디스플레이(1122)를 구비할 수 있다. 클라이언트 컴퓨터(1120)는 개인 또는 복수의 사람들이 렌더링과 상호 작용할 때 이들로부터 심리 상태 데이터를 수집할 수 있다. 몇몇 구현예들에서, 한 명의 사람 또는 복수의 사람들이 렌더링과 상호 작용할 때 이들로부터 심리 상태 데이터를 각각 수집할 수 있는 다수의 클라이언트 컴퓨터들(1120)이 있을 수 있다. 다른 구현예들에서, 클라이언트 컴퓨터(1120)는 복수의 사람들이 렌더링과 상호 작용할 때 이들로부터 수집된 심리 상태 데이터를 수신할 수 있다. 클라이언트 컴퓨터(1120)는 개인으로부터 심리 상태 정보를 공유하기로 결정한 명령어를 수신할 수 있다. 일단 심리 상태 데이터가 수집되면, 승인이 수신된 경우, 클라이언트 컴퓨터는 렌더링과 상호 작용하는 복수의 사람들로부터의 심리 상태 데이터에 기반하여 서버(1130)에 정보를 업로드할 수 있다. 클라이언트 컴퓨터(1120)는 인터넷(1110), 다른 컴퓨터 네트워크 상에서, 또는 두 컴퓨터 간의 통신에 적합한 다른 방법에 의해 서버(1130)와 통신할 수 있다. 몇몇 구현예들에서, 서버(1130) 기능이 클라이언트 컴퓨터 내에 구현될 수 있다.
서버(1130)는 심리 상태들 또는 수집된 심리 상태 정보를 수신하기 위한 인터넷 연결(1131)을 구비할 수 있고, 명령어들을 저장하는 메모리(1134), 및 메모리(1134)에 부착되어 명령어들을 실행하는 하나 이상의 프로세서(1132)를 구비할 수 있다. 서버(1130)는 복수의 사람들이 클라이언트 컴퓨터(1120) 또는 컴퓨터들로부터의 렌더링과 상호 작용할 때 이들로부터 수집된 심리 상태 정보를 수신할 수 있고, 심리 상태 데이터를 분석하여 심리 상태 정보를 생성할 수 있다. 서버(1130)는 또한 렌더링과 상호 작용하는 복수의 사람들에 관한 심리 상태 정보를 통합할 수 있다. 서버(1130)는 통합된 심리 상태 정보를 렌더링과 연관되게 할 수도 있고, 측정되는 컨텍스트들을 위한 표준들(norms)의 집합과 연관되게 할수도 있다. 몇몇 구현예들에서, 서버(1130)는 또한 사용자로 하여금 렌더링과 연관된 심리 상태 정보를 보고 평가하게 할 수 있지만, 다른 구현예들에서 서버(1130)는 통합된 심리 상태 정보(1141)를 공유를 위해 소셜 네트워크(1140)로 송신하여, 심리 상태 정보를 컴퓨터 네트워크를 통해 분배할 수 있다. 이는 소셜 네트워크를 통해 심리 상태 정보를 공유하기 위해 이행될 수 있다. 몇몇 구현예들에서, 소셜 네트워크(1140)는 서버(1130) 상에서 운영될 수 있다.
전술한 방법들 각각은 하나 이상의 컴퓨터 시스템의 하나 이상의 프로세서 상에서 실행될 수 있다. 구현예들은 다양한 형태의 분산형 컴퓨팅, 클라이언트/서버 컴퓨팅, 및 클라우드 기반 컴퓨팅을 포함할 수 있다. 게다가, 본 개시의 각각의 흐름도에 대해, 도시된 단계들 또는 블록들은 단지 예시 및 설명의 목적으로 제공된 것임을 이해할 것이다. 단계들은 수정, 생략, 또는 재정리될 수 있고, 다른 단계들이 본 개시의 범주를 벗어남 없이 추가될 수 있다. 아울러, 각각의 단계는 하나 이상의 하위 단계를 포함할 수 있다. 전술한 도면 및 설명은 개시된 시스템의 기능적 양상들을 설명하고 있지만, 명시적으로 언급되거나 컨텍스트상 명확하지 않는 한, 이러한 기능적 양상들을 구현하기 위한 소프트웨어 및/또는 하드웨어의 특정한 배치가 이러한 설명으로부터 유추되지 않아야 한다. 소프트웨어 및/또는 하드웨어의 이러한 모든 배치들은 본 개시의 범주에 속하도록 의도된다.
블록도들 및 흐름도들은 방법들, 장치들, 시스템들, 및 컴퓨터 프로그램 제품들을 도시한다. 블록도들 및 흐름도들의 각각의 요소와 블록도들 및 흐름도들 내의 요소들의 각각의 조합은 방법들, 장치들, 시스템들, 컴퓨터 프로그램 제품들, 및/또는 컴퓨터-구현 방법들의 기능, 단계, 또는 단계들의 집합을 도시한다. 이러한 모든 기능들은 컴퓨터 프로그램 명령어들, 특수용 하드웨어-기반 컴퓨터 시스템들, 특수용 하드웨어 및 컴퓨터 명령어들의 조합들, 범용 하드웨어 및 컴퓨터 명령어들의 조합들 등에 의해 구현될 수 있다. 이들 모두는 본원에서 일반적으로 “회로”, “모듈”, 또는 “시스템”으로 지칭될 수 있다.
전술한 컴퓨터 프로그램 제품들 또는 컴퓨터로 구현되는 방법들 중 임의의 것을 실행하는 프로그램 가능한 장치는 하나 이상의 마이크로프로세서, 마이크로컨트롤러, 내장형 마이크로컨트롤러, 프로그램 가능한 디지털 신호 프로세서, 프로그램 가능한 디바이스, 프로그램 가능한 게이트 어레이, 프로그램 가능한 어레이 로직, 메모리 디바이스, 애플리케이션 특정 집적 회로 등을 포함할 수 있다. 각각은 컴퓨터 프로그램 명령어들을 처리하고, 컴퓨터 로직을 실행하며, 컴퓨터 데이터를 저장하는 등을 위해 적절하게 채용 또는 구성될 수 있다.
컴퓨터가 컴퓨터-판독 가능한 저장 매체로부터의 컴퓨터 프로그램 제품을 포함할 수 있다는 것과, 이러한 매체는 내장 또는 외장형이고, 분리 가능 및 교체 가능하거나, 고정형이라는 것을 이해할 것이다. 또한, 컴퓨터는 기본 입출력 시스템(BIOS), 펌웨어, 운영체계, 데이터베이스 등을 포함할 수 있고, 이들은 본원에 설명된 소프트웨어 및 하드웨어를 포함하거나, 상호 작용하거나, 지원할 수 있다.
본 발명의 구현예들은 종래의 컴퓨터 프로그램들 또는 이들을 실행하는 프로그램 가능한 장치를 포함하는 응용들에 제한되지 않는다. 예컨대, 현재 청구된 발명의 구현예들은 광학 컴퓨터, 양자 컴퓨터, 아날로그 컴퓨터 등을 포함할 수 있다고 여겨진다. 컴퓨터 프로그램은 도시된 기능들 모두를 수행할 수 있는 특정한 기계를 제조하기 위해 컴퓨터에 로딩될 수 있다. 이러한 특정한 기계는 도시된 기능들 모두를 수행하기 위한 수단을 제공한다.
하나 이상의 컴퓨터 판독 가능한 매체의 임의의 조합이 활용될 수 있다. 컴퓨터 판독 가능한 매체는 저장을 위한 컴퓨터 판독 가능한 매체일 수 있다. 컴퓨터 판독 가능한 저장 매체는 전자, 자기, 광학, 전자기, 적외선, 반도체, 또는 이들의 임의의 적절한 조합일 수 있다. 다른 컴퓨터 판독 가능한 저장 매체들의 예로, 하나 이상의 와이어를 구비한 전기적 연결, 휴대용 컴퓨터 디스켓, 하드 디스크, 랜덤 액세스 메모리(RAM), 읽기 전용 메모리(ROM), 소거 및 프로그램 가능한 읽기 전용 메모리(EPROM, 플래시, MRAM, FeRAM, 또는 상변화 메모리), 광섬유, 휴대용 콤팩트 디스크 읽기 전용 메모리(CD-ROM), 광학 저장 장치, 자기 저장 장치, 또는 이들의 임의의 적절한 조합이 포함될 수 있다. 본 문헌의 맥락에서, 컴퓨터 판독 가능한 저장 매체는 명령어 실행 시스템, 장치, 또는 디바이스와 관련하여 또는 이들에 의해 사용되는 프로그램을 포함 또는 저장할 수 있는 임의의 유형 매체(tangible medium)일 수 있다.
컴퓨터 프로그램 명령어들이 컴퓨터 실행 가능한 코드를 포함할 수 있음은 물론이다. 컴퓨터 프로그램 명령어들을 표현하기 위한 다양한 언어들은, 제한 없이, C, C++, Java, JavaScriptTM, ActionScriptTM, 어셈블리 언어, Lisp, Perl, Tcl, Python, Ruby, 하드웨어 기술 언어, 데이터베이스 프로그래밍 언어, 함수형 프로그래밍 언어, 명령형 프로그래밍 언어 등을 포함할 수 있다. 구현예들에서, 컴퓨터 프로그램 명령어들은 컴퓨터, 프로그램 가능한 데이터 처리 장치, 프로세서들 또는 프로세서 아키텍쳐들의 이질적 조합 등에서 실행되도록 저장, 컴파일, 또는 해석될 수 있다. 제한 없이, 본 발명의 구현예들은 클라이언트/서버 소프트웨어, 서비스형 소프트웨어(SaaS), P2P 소프트웨어 등을 포함하는 웹-기반 컴퓨터 소프트웨어 형태를 취할 수 있다.
구현예들에서, 컴퓨터는 다수의 프로그램들 또는 스레드들을 포함하는 컴퓨터 프로그램 명령어들의 실행을 가능하게 할 수 있다. 프로세서의 활용을 증진하고 실질적으로 동시적인 기능들을 촉진하기 위해, 다수의 프로그램들 또는 스레드들을 어느 정도 동시에 처리할 수 있다. 실시예로서, 본원에 설명된 모든 방법들, 프로그램 코드들, 프로그램 명령어들 등은 하나 이상의 스레드 내에 실시될 수 있다. 각각의 스레드는 다른 스레드들을 산출(spawn)할 수 있고, 이들 자체는 상기 스레드와 연관된 우선권을 가질 수 있다. 몇몇 구현예들에서, 컴퓨터는 우선권 또는 다른 순서에 기반하여 이러한 스레드들을 처리할 수 있다.
명시적으로 언급되거나 문맥상 명확하지 않는 한, “실행한다” 및 “처리한다”는 동사들은 실행, 처리, 해석, 컴파일, 조립, 링크, 로딩, 또는 이들의 조합을 나타내도록 상호 교환 가능하게 사용될 수 있다. 그러므로, 컴퓨터 프로그램 명령어들, 컴퓨터-실행 가능한 코드 등을 실행 또는 처리하는 구현예들은 전술한 방식들 모두에서 명령어 또는 코드에 따라 작용할 수 있다. 게다가, 도시된 방법 단계들은 하나 이상의 단체 또는 개체로 하여금 단계들을 수행하게 하는 임의의 적절한 방법을 포함하도록 의도된다. 단계 또는 단계의 일부를 수행하는 단체는 특정한 지리적 위치 또는 국가 경계에 위치할 필요가 없다. 예컨대, 미국 내에 위치한 개체가 방법 단계 또는 그 일부를 미국 외에서 수행되게 할지라도, 상기 단계를 수행되게 한 개체로 인해 상기 방법은 미국 내에서 수행되는 것으로 간주된다.
본 발명은 상세히 도시 및 설명된 바람직한 구현예들과 관련하여 개시되었지만, 다양한 변경들 및 개선들이 당해 기술분야의 숙련자들에게 명백할 것이다. 따라서, 본 발명의 정신 및 범주는 전술한 예들에 의해 한정되는 것이 아니라, 법에 의해 허용될 수 있는 가장 광범위한 의미로 해석되어야 한다.

Claims (99)

  1. 심리 상태들을 전달하기 위한 컴퓨터로 구현되는 방법에 있어서,
    개인의 심리 상태 데이터를 수집하는 단계;
    심리 상태 데이터를 분석하여 심리 상태 정보를 생성하는 단계; 및
    소셜 네트워크를 통해 심리 상태 정보를 공유하는 단계를 포함하는 방법.
  2. 제1항에 있어서, 개인이 심리 상태 정보를 공유하기로 결정하는 단계를 더 포함하는 방법.
  3. 제2항에 있어서, 상기 결정 단계 전에 개인에게 심리 상태 정보를 제시하는 단계를 더 포함하는 방법.
  4. 제1항에 있어서, 심리 상태 데이터는 소정 기간에 걸쳐 수집되고, 공유되는 심리 상태 정보는 개인에 대한 기분의 반영인 방법.
  5. 제4항에 있어서, 기분은 좌절, 혼란, 실망, 주저, 인지 과부하, 집중, 관여, 참여, 권태, 탐구, 확신, 신뢰, 기쁨, 및 만족으로 이루어진 그룹 중 하나를 포함하는 방법.
  6. 제1항에 있어서, 상기 공유 단계는 소셜 네트워크 웹페이지에 심리 상태 정보를 포스팅하는 단계를 포함하는 방법.
  7. 제1항에 있어서, 서버에 심리 상태 정보를 업로드하는 단계를 더 포함하는 방법.
  8. 제1항에 있어서, 컴퓨터 네트워크를 통해 심리 상태 정보를 분배하는 단계를 더 포함하는 방법.
  9. 제1항에 있어서, 심리 상태 데이터는 생리적 데이터, 얼굴 데이터, 및 액티그래프 데이터로 이루어진 그룹 중 하나를 포함하는 방법.
  10. 제9항에 있어서, 웹캠을 사용하여 얼굴 데이터와 생리적 데이터 중 하나 이상을 캡쳐하는 방법.
  11. 제9항에 있어서, 얼굴 데이터는 얼굴 표정, 행동 단위, 머리 동작, 미소, 눈살 찌푸리기, 곁눈질하기, 눈썹 내리기, 눈썹 올리기, 및 몰두로 이루어진 그룹 중 하나 이상에 관한 정보를 포함하는 방법.
  12. 제9항에 있어서, 생리적 데이터는 피부전기활성, 심박수, 심박 변이도, 피부온도, 및 호흡 중 하나 이상을 포함하는 방법.
  13. 제1항에 있어서, 수집된 심리 상태 데이터에 기반하여 심리 상태들을 유추하는 단계를 더 포함하는 방법.
  14. 제13항에 있어서, 소셜 네트워크 내에서 유사한 심리 상태들을 식별하는 단계를 더 포함하는 방법.
  15. 제13항에 있어서, 심리 상태들은 좌절, 혼란, 실망, 주저, 인지 과부하, 집중, 관여, 참여, 권태, 탐구, 확신, 신뢰, 기쁨, 및 만족으로 이루어진 그룹 중 하나를 포함하는 방법.
  16. 제1항에 있어서, 공유 중인 심리 상태 정보와 함께 개인의 이미지를 전달하는 단계를 더 포함하는 방법.
  17. 제16항에 있어서, 개인의 이미지는 심리 상태 활동의 피크 시간에서 유래되는 방법.
  18. 제16항에 있어서, 이미지는 비디오를 포함하는 방법.
  19. 제1항에 있어서, 소셜 네트워크의 서브세트로 심리 상태 정보의 분배를 제한하는 단계를 더 포함하는 방법.
  20. 제1항에 있어서, 통합된 심리 상태 정보를 소셜 네트워크를 통해 공유하는 단계를 더 포함하는 방법.
  21. 제1항에 있어서, 심리 상태 데이터는 개인이 웹-구동형 애플리케이션과 상호 작용할 때 수집되는 방법.
  22. 제21항에 있어서, 웹-구동형 애플리케이션은 랜딩 페이지, 체크아웃 페이지, 웹페이지, 웹사이트, 웹-구동형 애플리케이션 상의 비디오, 웹-구동형 애플리케이션 상의 게임, 예고편, 영화, 광고, 및 가상 세계로 이루어진 그룹 중 하나인 방법.
  23. 제21항에 있어서, 심리 상태 정보를 공유하는 단계의 일부로서 웹-구동형 애플리케이션에 대한 레퍼런스를 발송하는 단계를 더 포함하는 방법.
  24. 제23항에 있어서, 레퍼런스는 URL과 타임스탬프를 포함하는 방법.
  25. 제23항에 있어서, 상기 발송 단계는 웹-구동형 애플리케이션으로부터의 소재의 이미지를 포함하는 방법.
  26. 제23항에 있어서, 상기 발송 단계는 웹-구동형 애플리케이션으로부터의 소재의 비디오를 포함하는 방법.
  27. 제21항에 있어서, 상기 공유 단계는 웹-구동형 애플리케이션에 대한 평가 시스템의 일부인 방법.
  28. 제1항에 있어서, 심리 상태 데이터는 바이오센서를 사용하여 수집되는 방법.
  29. 심리 상태들을 전달하기 위해 컴퓨터 판독 가능한 매체 내에 구현된 컴퓨터 프로그램 제품에 있어서,
    개인의 심리 상태 데이터를 수집하기 위한 코드;
    심리 상태 데이터를 분석하여 심리 상태 정보를 생성하기 위한 코드; 및
    소셜 네트워크를 통해 심리 상태 정보를 공유하기 위한 코드를 포함하는 컴퓨터 프로그램 제품.
  30. 제29항에 있어서, 개인이 심리 상태 정보를 공유하기로 결정하기 위한 코드를 더 포함하는 컴퓨터 프로그램 제품.
  31. 제30항에 있어서, 상기 결정 단계 전에 개인에게 심리 상태 정보를 제시하기 위한 코드를 더 포함하는 컴퓨터 프로그램 제품.
  32. 제29항에 있어서, 심리 상태 데이터는 소정 기간에 걸쳐 수집되고, 공유되는 심리 상태 정보는 개인에 대한 기분의 반영인 컴퓨터 프로그램 제품.
  33. 제32항에 있어서, 기분은 좌절, 혼란, 실망, 주저, 인지 과부하, 집중, 관여, 참여, 권태, 탐구, 확신, 신뢰, 기쁨, 및 만족으로 이루어진 그룹 중 하나를 포함하는 컴퓨터 프로그램 제품.
  34. 제29항에 있어서, 상기 공유 단계는 소셜 네트워크 웹페이지에 심리 상태 정보를 포스팅하는 단계를 포함하는 컴퓨터 프로그램 제품.
  35. 제29항에 있어서, 서버에 심리 상태 정보를 업로드하기 위한 코드를 더 포함하는 컴퓨터 프로그램 제품.
  36. 제29항에 있어서, 컴퓨터 네트워크를 통해 심리 상태 정보를 분배하기 위한 코드를 더 포함하는 컴퓨터 프로그램 제품.
  37. 제29항에 있어서, 심리 상태 데이터는 생리적 데이터, 얼굴 데이터, 및 액티그래프 데이터로 이루어진 그룹 중 하나를 포함하는 컴퓨터 프로그램 제품.
  38. 제37항에 있어서, 웹캠을 사용하여 얼굴 데이터와 생리적 데이터 중 하나 이상을 캡쳐하는 컴퓨터 프로그램 제품.
  39. 제37항에 있어서, 얼굴 데이터는 얼굴 표정, 행동 단위, 머리 동작, 미소, 눈살 찌푸리기, 곁눈질하기, 눈썹 내리기, 눈썹 올리기, 및 몰두로 이루어진 그룹 중 하나 이상에 관한 정보를 포함하는 컴퓨터 프로그램 제품.
  40. 제37항에 있어서, 생리적 데이터는 피부전기활성, 심박수, 심박 변이도, 피부온도, 및 호흡 중 하나 이상을 포함하는 컴퓨터 프로그램 제품.
  41. 제29항에 있어서, 수집된 심리 상태 데이터에 기반하여 심리 상태들을 유추하기 위한 코드를 더 포함하는 컴퓨터 프로그램 제품.
  42. 제41항에 있어서, 소셜 네트워크 내에서 유사한 심리 상태들을 식별하기 위한 코드를 더 포함하는 컴퓨터 프로그램 제품.
  43. 제41항에 있어서, 심리 상태들은 좌절, 혼란, 실망, 주저, 인지 과부하, 집중, 관여, 참여, 권태, 탐구, 확신, 신뢰, 기쁨, 및 만족으로 이루어진 그룹 중 하나를 포함하는 컴퓨터 프로그램 제품.
  44. 제29항에 있어서, 공유 중인 심리 상태 정보와 함께 개인의 이미지를 전달하기 위한 코드를 더 포함하는 컴퓨터 프로그램 제품.
  45. 제44항에 있어서, 개인의 이미지는 심리 상태 활동의 피크 시간에서 유래되는 컴퓨터 프로그램 제품.
  46. 제44항에 있어서, 이미지는 비디오를 포함하는 컴퓨터 프로그램 제품.
  47. 제29항에 있어서, 소셜 네트워크의 서브세트로 심리 상태 정보의 분배를 제한하기 위한 코드를 더 포함하는 컴퓨터 프로그램 제품.
  48. 제29항에 있어서, 통합된 심리 상태 정보를 소셜 네트워크를 통해 공유하기 위한 코드를 더 포함하는 컴퓨터 프로그램 제품.
  49. 제29항에 있어서, 심리 상태 데이터는 개인이 웹-구동형 애플리케이션과 상호 작용할 때 수집되는 컴퓨터 프로그램 제품.
  50. 제49항에 있어서, 웹-구동형 애플리케이션은 랜딩 페이지, 체크아웃 페이지, 웹페이지, 웹사이트, 웹-구동형 애플리케이션 상의 비디오, 웹-구동형 애플리케이션 상의 게임, 예고편, 영화, 광고, 및 가상 세계로 이루어진 그룹 중 하나인 컴퓨터 프로그램 제품.
  51. 제49항에 있어서, 심리 상태 정보를 공유하는 단계의 일부로서 웹-구동형 애플리케이션에 대한 레퍼런스를 발송하기 위한 코드를 더 포함하는 컴퓨터 프로그램 제품.
  52. 제51항에 있어서, 레퍼런스는 URL과 타임스탬프를 포함하는 컴퓨터 프로그램 제품.
  53. 제51항에 있어서, 상기 발송 단계는 웹-구동형 애플리케이션으로부터의 소재의 이미지를 포함하는 컴퓨터 프로그램 제품.
  54. 제51항에 있어서, 상기 발송 단계는 웹-구동형 애플리케이션으로부터의 소재의 비디오를 포함하는 컴퓨터 프로그램 제품.
  55. 제49항에 있어서, 상기 공유 단계는 웹-구동형 애플리케이션에 대한 평가 시스템의 일부인 컴퓨터 프로그램 제품.
  56. 제29항에 있어서, 심리 상태 데이터는 바이오센서를 사용하여 수집되는 컴퓨터 프로그램 제품.
  57. 심리 상태들을 공유하기 위한 시스템에 있어서,
    명령어들을 저장하기 위한 메모리;
    상기 메모리에 부착된 하나 이상의 프로세서로서, 개인의 심리 상태 데이터를 수집하고, 심리 상태 데이터를 분석하여 심리 상태 정보를 생성하며, 개인으로부터 심리 상태 정보를 공유하기로 결정한 명령어를 수신하고, 소셜 네트워크를 통해 심리 상태 정보를 공유하도록 구성된 하나 이상의 프로세서를 포함하는 시스템.
  58. 제57항에 있어서, 상기 하나 이상의 프로세서는 개인이 심리 상태 정보를 공유하기로 결정하도록 추가로 구성되는 시스템.
  59. 제58항에 있어서, 상기 하나 이상의 프로세서는 상기 결정 단계 전에 개인에게 심리 상태 정보를 제시하도록 추가로 구성되는 시스템.
  60. 제57항에 있어서, 심리 상태 데이터는 소정 기간에 걸쳐 수집되고, 공유되는 심리 상태 정보는 개인에 대한 기분의 반영인 시스템.
  61. 제60항에 있어서, 기분은 좌절, 혼란, 실망, 주저, 인지 과부하, 집중, 관여, 참여, 권태, 탐구, 확신, 신뢰, 기쁨, 및 만족으로 이루어진 그룹 중 하나를 포함하는 시스템.
  62. 제57항에 있어서, 상기 공유 단계는 소셜 네트워크 웹페이지에 심리 상태 정보를 포스팅하는 단계를 포함하는 시스템.
  63. 제57항에 있어서, 상기 하나 이상의 프로세서는 서버에 심리 상태 정보를 업로드하도록 추가로 구성되는 시스템.
  64. 제57항에 있어서, 상기 하나 이상의 프로세서는 컴퓨터 네트워크를 통해 심리 상태 정보를 분배하도록 추가로 구성되는 시스템.
  65. 제57항에 있어서, 심리 상태 데이터는 생리적 데이터, 얼굴 데이터, 및 액티그래프 데이터로 이루어진 그룹 중 하나를 포함하는 시스템.
  66. 제65항에 있어서, 얼굴 데이터는 얼굴 표정, 행동 단위, 머리 동작, 미소, 눈살 찌푸리기, 곁눈질하기, 눈썹 내리기, 눈썹 올리기, 및 몰두로 이루어진 그룹 중 하나 이상에 관한 정보를 포함하는 시스템.
  67. 제65항에 있어서, 생리적 데이터는 피부전기활성, 심박수, 심박 변이도, 피부온도, 및 호흡 중 하나 이상을 포함하는 시스템.
  68. 제65항에 있어서, 웹캠을 사용하여 얼굴 데이터와 생리적 데이터 중 하나 이상을 캡쳐하는 시스템.
  69. 제57항에 있어서, 상기 하나 이상의 프로세서는 수집된 심리 상태 데이터에 기반하여 심리 상태들을 유추하도록 추가로 구성되는 시스템.
  70. 제69항에 있어서, 상기 하나 이상의 프로세서는 소셜 네트워크 내에서 유사한 심리 상태들을 식별하도록 추가로 구성되는 시스템.
  71. 제69항에 있어서, 심리 상태들은 좌절, 혼란, 실망, 주저, 인지 과부하, 집중, 관여, 참여, 권태, 탐구, 확신, 신뢰, 기쁨, 및 만족으로 이루어진 그룹 중 하나를 포함하는 시스템.
  72. 제57항에 있어서, 상기 하나 이상의 프로세서는 공유 중인 심리 상태 정보와 함께 개인의 이미지를 전달하도록 추가로 구성되는 시스템.
  73. 제72항에 있어서, 개인의 이미지는 심리 상태 활동의 피크 시간에서 유래되는 시스템.
  74. 제72항에 있어서, 이미지는 비디오를 포함하는 시스템.
  75. 제57항에 있어서, 상기 하나 이상의 프로세서는 소셜 네트워크의 서브세트로 심리 상태 정보의 분배를 제한하도록 추가로 구성되는 시스템.
  76. 제57항에 있어서, 상기 하나 이상의 프로세서는 통합된 심리 상태 정보를 소셜 네트워크를 통해 공유하도록 추가로 구성되는 시스템.
  77. 제57항에 있어서, 심리 상태 데이터는 개인이 웹-구동형 애플리케이션과 상호 작용할 때 수집되는 시스템.
  78. 제77항에 있어서, 웹-구동형 애플리케이션은 랜딩 페이지, 체크아웃 페이지, 웹페이지, 웹사이트, 웹-구동형 애플리케이션 상의 비디오, 웹-구동형 애플리케이션 상의 게임, 예고편, 영화, 광고, 및 가상 세계로 이루어진 그룹 중 하나인 시스템.
  79. 제77항에 있어서, 상기 하나 이상의 프로세서는 심리 상태 정보를 공유하는 단계의 일부로서 웹-구동형 애플리케이션에 대한 레퍼런스를 발송하도록 추가로 구성되는 시스템.
  80. 제79항에 있어서, 레퍼런스는 URL과 타임스탬프를 포함하는 시스템.
  81. 제79항에 있어서, 상기 발송 단계는 웹-구동형 애플리케이션으로부터의 소재의 이미지를 포함하는 시스템.
  82. 제79항에 있어서, 상기 발송 단계는 웹-구동형 애플리케이션으로부터의 소재의 비디오를 포함하는 시스템.
  83. 제77항에 있어서, 상기 공유 단계는 웹-구동형 애플리케이션에 대한 평가 시스템의 일부인 시스템.
  84. 제57항에 있어서, 심리 상태 데이터는 바이오센서를 사용하여 수집되는 시스템.
  85. 심리 상태들을 공유하기 위한 컴퓨터로 구현되는 방법에 있어서,
    개인으로부터 심리 상태 데이터에 기반한 심리 상태 정보를 수신하는 단계;
    수신된 심리 상태 정보에 기반하여 개인에 대한 심리 상태들을 유추하는 단계; 및
    유추된 심리 상태들을 소셜 네트워크를 통해 공유하는 단계를 포함하는 방법.
  86. 제85항에 있어서, 개인이 심리 상태 정보를 공유하기로 한 결정을 수신하는 단계를 더 포함하는 방법.
  87. 제85항에 있어서, 심리 상태 데이터는 소정 기간에 걸쳐 수집되고, 공유되는 심리 상태 정보는 개인에 대한 기분의 반영인 방법.
  88. 제87항에 있어서, 기분은 좌절, 혼란, 실망, 주저, 인지 과부하, 집중, 관여, 참여, 권태, 탐구, 확신, 신뢰, 기쁨, 및 만족으로 이루어진 그룹 중 하나를 포함하는 방법.
  89. 제85항에 있어서, 상기 공유 단계는 소셜 네트워크 웹페이지에 심리 상태 정보를 포스팅하는 단계를 포함하는 방법.
  90. 제85항에 있어서, 심리 상태 데이터는 생리적 데이터, 얼굴 데이터, 및 액티그래프 데이터로 이루어진 그룹 중 하나를 포함하는 방법.
  91. 제90항에 있어서, 웹캠을 사용하여 얼굴 데이터와 생리적 데이터 중 하나 이상을 캡쳐하는 방법.
  92. 제91항에 있어서, 얼굴 데이터는 얼굴 표정, 행동 단위, 머리 동작, 미소, 눈살 찌푸리기, 곁눈질하기, 눈썹 내리기, 눈썹 올리기, 및 몰두로 이루어진 그룹 중 하나 이상에 관한 정보를 포함하는 방법.
  93. 제91항에 있어서, 생리적 데이터는 피부전기활성, 심박수, 심박 변이도, 피부온도, 및 호흡 중 하나 이상을 포함하는 방법.
  94. 제85항에 있어서, 상기 심리 상태들을 유추하는 단계는 개인으로부터 수집된 심리 상태 데이터에 기반하는 방법.
  95. 제94항에 있어서, 소셜 네트워크 내에서 유사한 심리 상태들을 식별하는 단계를 더 포함하는 방법.
  96. 제85항에 있어서, 소셜 네트워크의 서브세트로 심리 상태 정보의 분배를 제한하는 단계를 더 포함하는 방법.
  97. 제85항에 있어서, 통합된 심리 상태 정보를 소셜 네트워크를 통해 공유하는 단계를 더 포함하는 방법.
  98. 제85항에 있어서, 심리 상태 정보를 공유하는 단계의 일부로서 웹-구동형 애플리케이션에 대한 레퍼런스를 발송하는 단계를 더 포함하는 방법.
  99. 제85항에 있어서, 심리 상태 데이터는 바이오센서를 사용하여 수집되는 방법.
KR1020137014369A 2010-11-17 2011-11-16 소셜 네트워크를 통한 정서의 공유 KR20140001930A (ko)

Applications Claiming Priority (13)

Application Number Priority Date Filing Date Title
US41445110P 2010-11-17 2010-11-17
US61/414,451 2010-11-17
US201161439913P 2011-02-06 2011-02-06
US61/439,913 2011-02-06
US201161447089P 2011-02-27 2011-02-27
US61/447,089 2011-02-27
US201161447464P 2011-02-28 2011-02-28
US61/447,464 2011-02-28
US201161467209P 2011-03-24 2011-03-24
US61/467,209 2011-03-24
US201161549560P 2011-10-20 2011-10-20
US61/549,560 2011-10-20
PCT/US2011/060900 WO2012068193A2 (en) 2010-11-17 2011-11-16 Sharing affect across a social network

Publications (1)

Publication Number Publication Date
KR20140001930A true KR20140001930A (ko) 2014-01-07

Family

ID=46048788

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020137014369A KR20140001930A (ko) 2010-11-17 2011-11-16 소셜 네트워크를 통한 정서의 공유

Country Status (8)

Country Link
US (1) US20120124122A1 (ko)
EP (1) EP2641228A4 (ko)
JP (1) JP2014501967A (ko)
KR (1) KR20140001930A (ko)
CN (1) CN103209642A (ko)
AU (1) AU2011329025A1 (ko)
BR (1) BR112013011819A2 (ko)
WO (1) WO2012068193A2 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170010780A (ko) * 2014-06-03 2017-02-01 시'안 종싱 뉴 소프트웨어 컴퍼니 리미티드 프레임 집적 방법 및 전자 설비
US11392979B2 (en) 2015-05-01 2022-07-19 Sony Corporation Information processing system, communication device, control method, and storage medium
GB2617820A (en) * 2022-03-28 2023-10-25 Workspace Design Global Ltd Freestanding shelving unit and system

Families Citing this family (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110114732A (ko) 2007-09-24 2011-10-19 애플 인크. 전자 장치 내의 내장형 인증 시스템들
US8600120B2 (en) 2008-01-03 2013-12-03 Apple Inc. Personal computing device control using face detection and recognition
US9934425B2 (en) 2010-06-07 2018-04-03 Affectiva, Inc. Collection of affect data from multiple mobile devices
US20120265811A1 (en) * 2011-04-12 2012-10-18 Anurag Bist System and Method for Developing Evolving Online Profiles
US9002322B2 (en) 2011-09-29 2015-04-07 Apple Inc. Authentication with secondary approver
US10638197B2 (en) 2011-11-07 2020-04-28 Monet Networks, Inc. System and method for segment relevance detection for digital content using multimodal correlations
US11064257B2 (en) 2011-11-07 2021-07-13 Monet Networks, Inc. System and method for segment relevance detection for digital content
CN104054099A (zh) 2011-12-07 2014-09-17 阿弗科迪瓦公司 广告有效性的基于影响的评估
US9418390B2 (en) 2012-09-24 2016-08-16 Intel Corporation Determining and communicating user's emotional state related to user's physiological and non-physiological data
US10187254B2 (en) 2012-10-09 2019-01-22 At&T Intellectual Property I, L.P. Personalization according to mood
KR101617114B1 (ko) * 2012-11-06 2016-04-29 인텔 코포레이션 생리학적 데이터를 사용한 소셜 감성 결정
WO2014105266A1 (en) * 2012-12-31 2014-07-03 Affectiva, Inc. Optimizing media based on mental state analysis
US9202352B2 (en) 2013-03-11 2015-12-01 Immersion Corporation Automatic haptic effect adjustment system
WO2014145228A1 (en) * 2013-03-15 2014-09-18 Affectiva, Inc. Mental state well being monitoring
US10545132B2 (en) * 2013-06-25 2020-01-28 Lifescan Ip Holdings, Llc Physiological monitoring system communicating with at least a social network
US9898642B2 (en) 2013-09-09 2018-02-20 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
US10013892B2 (en) * 2013-10-07 2018-07-03 Intel Corporation Adaptive learning environment driven by real-time identification of engagement level
GB2519339A (en) 2013-10-18 2015-04-22 Realeyes O Method of collecting computer user data
WO2015067534A1 (en) * 2013-11-05 2015-05-14 Thomson Licensing A mood handling and sharing method and a respective system
US9930136B2 (en) * 2014-03-07 2018-03-27 International Business Machines Corporation Forming social media groups based on emotional states
GB201404234D0 (en) 2014-03-11 2014-04-23 Realeyes O Method of generating web-based advertising inventory, and method of targeting web-based advertisements
US9324067B2 (en) 2014-05-29 2016-04-26 Apple Inc. User interface for payments
JP2016015009A (ja) * 2014-07-02 2016-01-28 ソニー株式会社 情報処理システム、情報処理端末、および情報処理方法
JP6596945B2 (ja) * 2014-07-31 2019-10-30 セイコーエプソン株式会社 運動解析方法、運動解析装置、運動解析システム及び運動解析プログラム
US11269891B2 (en) 2014-08-21 2022-03-08 Affectomatics Ltd. Crowd-based scores for experiences from measurements of affective response
US9805381B2 (en) 2014-08-21 2017-10-31 Affectomatics Ltd. Crowd-based scores for food from measurements of affective response
US11494390B2 (en) 2014-08-21 2022-11-08 Affectomatics Ltd. Crowd-based scores for hotels from measurements of affective response
DE102015113941A1 (de) 2014-08-21 2016-02-25 Affectomatics Ltd. Rating von Restaurants auf der Grundlage von affektiver Reaktion
CN105718709A (zh) * 2014-12-02 2016-06-29 展讯通信(上海)有限公司 数据处理方法及数据处理系统
DE102016101665A1 (de) 2015-01-29 2016-08-04 Affectomatics Ltd. Auf datenschutzüberlegungen gestützte filterung von messwerten der affektiven reaktion
US11232466B2 (en) 2015-01-29 2022-01-25 Affectomatics Ltd. Recommendation for experiences based on measurements of affective response that are backed by assurances
US10902526B2 (en) * 2015-03-30 2021-01-26 Twiin, LLC Systems and methods of generating consciousness affects
CN104793743B (zh) * 2015-04-10 2018-08-24 深圳市虚拟现实科技有限公司 一种虚拟社交系统及其控制方法
CN104916176B (zh) * 2015-07-08 2019-01-01 广东小天才科技有限公司 一种课堂录音设备及录音方法
CN105930408A (zh) * 2016-04-16 2016-09-07 张海涛 一种亲密关系在线促进系统
CN105933632A (zh) * 2016-05-05 2016-09-07 广东小天才科技有限公司 一种课件记录方法及装置
US10762429B2 (en) * 2016-05-18 2020-09-01 Microsoft Technology Licensing, Llc Emotional/cognitive state presentation
DK179186B1 (en) 2016-05-19 2018-01-15 Apple Inc REMOTE AUTHORIZATION TO CONTINUE WITH AN ACTION
US10445385B2 (en) 2016-05-31 2019-10-15 International Business Machines Corporation Social sharing path user interface insights
US9949074B2 (en) 2016-07-25 2018-04-17 International Business Machines Corporation Cognitive geofencing
US9942707B2 (en) 2016-07-25 2018-04-10 International Business Machines Corporation Cognitive geofencing
US20180032126A1 (en) * 2016-08-01 2018-02-01 Yadong Liu Method and system for measuring emotional state
US11755172B2 (en) * 2016-09-20 2023-09-12 Twiin, Inc. Systems and methods of generating consciousness affects using one or more non-biological inputs
JP6824552B2 (ja) * 2016-09-23 2021-02-03 アップル インコーポレイテッドApple Inc. 拡張されたユーザ対話のための画像データ
US10600507B2 (en) 2017-02-03 2020-03-24 International Business Machines Corporation Cognitive notification for mental support
US10958742B2 (en) 2017-02-16 2021-03-23 International Business Machines Corporation Cognitive content filtering
JP6926569B2 (ja) 2017-03-24 2021-08-25 富士フイルムビジネスイノベーション株式会社 情報処理装置、情報処理システム、及び情報処理プログラム
US20180295212A1 (en) * 2017-04-07 2018-10-11 Bukio Corp System, device and server for generating address data for part of contents in electronic book
US10395693B2 (en) * 2017-04-10 2019-08-27 International Business Machines Corporation Look-ahead for video segments
DK180007B1 (en) 2017-05-16 2020-01-16 Apple Inc. RECORDING AND SENDING EMOJI
KR102185854B1 (ko) 2017-09-09 2020-12-02 애플 인크. 생체측정 인증의 구현
EP4155988A1 (en) 2017-09-09 2023-03-29 Apple Inc. Implementation of biometric authentication for performing a respective function
DK180212B1 (en) 2018-05-07 2020-08-19 Apple Inc USER INTERFACE FOR CREATING AVATAR
US11170085B2 (en) 2018-06-03 2021-11-09 Apple Inc. Implementation of biometric authentication
CN109171649B (zh) * 2018-08-30 2021-08-17 合肥工业大学 智能影像式生命体征探测仪
CN109260710B (zh) * 2018-09-14 2021-10-01 北京智明星通科技股份有限公司 一种基于心情的游戏app优化方法、装置及终端设备
US11100349B2 (en) 2018-09-28 2021-08-24 Apple Inc. Audio assisted enrollment
US10860096B2 (en) 2018-09-28 2020-12-08 Apple Inc. Device control using gaze information
US11107261B2 (en) 2019-01-18 2021-08-31 Apple Inc. Virtual avatar animation based on facial feature movement
CN110558997A (zh) * 2019-08-30 2019-12-13 深圳智慧林网络科技有限公司 基于机器人的陪护方法、机器人和计算机可读存储介质
US11443424B2 (en) * 2020-04-01 2022-09-13 Kpn Innovations, Llc. Artificial intelligence methods and systems for analyzing imagery
CN114420294A (zh) * 2022-03-24 2022-04-29 北京无疆脑智科技有限公司 心理发展水平评估方法、装置、设备、存储介质和系统

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5772508A (en) * 1995-09-28 1998-06-30 Amtex Co., Ltd. Game or play facilities controlled by physiological information
JP3824848B2 (ja) * 2000-07-24 2006-09-20 シャープ株式会社 通信装置および通信方法
JP4085926B2 (ja) * 2003-08-14 2008-05-14 ソニー株式会社 情報処理端末及び通信システム
US20050289582A1 (en) * 2004-06-24 2005-12-29 Hitachi, Ltd. System and method for capturing and using biometrics to review a product, service, creative work or thing
US7921369B2 (en) * 2004-12-30 2011-04-05 Aol Inc. Mood-based organization and display of instant messenger buddy lists
JP2008532587A (ja) * 2005-02-22 2008-08-21 ヘルス−スマート リミテッド 生理学的及び心理学的/生理学的モニタリングのための方法及びシステム並びにその使用
US7636779B2 (en) * 2006-04-28 2009-12-22 Yahoo! Inc. Contextual mobile local search based on social network vitality information
US20080103784A1 (en) * 2006-10-25 2008-05-01 0752004 B.C. Ltd. Method and system for constructing an interactive online network of living and non-living entities
US20080214944A1 (en) * 2007-02-09 2008-09-04 Morris Margaret E System, apparatus and method for mobile real-time feedback based on changes in the heart to enhance cognitive behavioral therapy for anger or stress reduction
KR100964325B1 (ko) * 2007-10-22 2010-06-17 경희대학교 산학협력단 온톨로지를 이용한 공간의 상황정보 공유시스템
JP2011505175A (ja) * 2007-10-31 2011-02-24 エムセンス コーポレイション 視聴者からの生理的反応の分散収集および集中処理を提供するシステムおよび方法
US20090128567A1 (en) * 2007-11-15 2009-05-21 Brian Mark Shuster Multi-instance, multi-user animation with coordinated chat
US7889073B2 (en) * 2008-01-31 2011-02-15 Sony Computer Entertainment America Llc Laugh detector and system and method for tracking an emotional response to a media presentation
US20090203998A1 (en) * 2008-02-13 2009-08-13 Gunnar Klinghult Heart rate counter, portable apparatus, method, and computer program for heart rate counting
US20100198757A1 (en) * 2009-02-02 2010-08-05 Microsoft Corporation Performance of a social network
US20100223341A1 (en) * 2009-02-27 2010-09-02 Microsoft Corporation Electronic messaging tailored to user interest
US9386139B2 (en) * 2009-03-20 2016-07-05 Nokia Technologies Oy Method and apparatus for providing an emotion-based user interface
US20100274847A1 (en) * 2009-04-28 2010-10-28 Particle Programmatica, Inc. System and method for remotely indicating a status of a user
WO2010132568A1 (en) * 2009-05-13 2010-11-18 Wms Gaming, Inc. Player head tracking for wagering game control
KR101708682B1 (ko) * 2010-03-03 2017-02-21 엘지전자 주식회사 영상표시장치 및 그 동작 방법.
US20110143728A1 (en) * 2009-12-16 2011-06-16 Nokia Corporation Method and apparatus for recognizing acquired media for matching against a target expression
US20110263946A1 (en) * 2010-04-22 2011-10-27 Mit Media Lab Method and system for real-time and offline analysis, inference, tagging of and responding to person(s) experiences
KR20130122535A (ko) * 2010-06-07 2013-11-07 어펙티바,아이엔씨. 웹서비스들을 이용한 심리 상태 분석
US20120311032A1 (en) * 2011-06-02 2012-12-06 Microsoft Corporation Emotion-based user identification for online experiences
US20130019187A1 (en) * 2011-07-15 2013-01-17 International Business Machines Corporation Visualizing emotions and mood in a collaborative social networking environment
US9020185B2 (en) * 2011-09-28 2015-04-28 Xerox Corporation Systems and methods for non-contact heart rate sensing
US9425627B2 (en) * 2013-03-04 2016-08-23 Hello Inc. Telemetry system with remote firmware updates

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170010780A (ko) * 2014-06-03 2017-02-01 시'안 종싱 뉴 소프트웨어 컴퍼니 리미티드 프레임 집적 방법 및 전자 설비
US10178013B2 (en) 2014-06-03 2019-01-08 Xi'an Zhongxing New Software Co., Ltd. Frame aggregation method and electronic device
US11392979B2 (en) 2015-05-01 2022-07-19 Sony Corporation Information processing system, communication device, control method, and storage medium
GB2617820A (en) * 2022-03-28 2023-10-25 Workspace Design Global Ltd Freestanding shelving unit and system

Also Published As

Publication number Publication date
CN103209642A (zh) 2013-07-17
EP2641228A2 (en) 2013-09-25
JP2014501967A (ja) 2014-01-23
WO2012068193A2 (en) 2012-05-24
EP2641228A4 (en) 2014-05-21
WO2012068193A3 (en) 2012-07-19
AU2011329025A1 (en) 2013-05-23
US20120124122A1 (en) 2012-05-17
BR112013011819A2 (pt) 2019-09-24

Similar Documents

Publication Publication Date Title
KR20140001930A (ko) 소셜 네트워크를 통한 정서의 공유
US20120083675A1 (en) Measuring affective data for web-enabled applications
US10111611B2 (en) Personal emotional profile generation
US9224175B2 (en) Collecting naturally expressed affective responses for training an emotional response predictor utilizing voting on content
US20140200463A1 (en) Mental state well being monitoring
US9723992B2 (en) Mental state analysis using blink rate
US9204836B2 (en) Sporadic collection of mobile affect data
US20130245396A1 (en) Mental state analysis using wearable-camera devices
US20130189661A1 (en) Scoring humor reactions to digital media
US20130115582A1 (en) Affect based concept testing
KR20130122535A (ko) 웹서비스들을 이용한 심리 상태 분석
US20150178511A1 (en) Methods and systems for sharing psychological or physiological conditions of a user
US9934425B2 (en) Collection of affect data from multiple mobile devices
JP2015505087A (ja) 広告効果の感情に基づく評価
WO2014145228A1 (en) Mental state well being monitoring
US20130218663A1 (en) Affect based political advertisement analysis
Boccignone et al. Amhuse: a multimodal dataset for humour sensing
US20170105668A1 (en) Image analysis for data collected from a remote computing device
US20130238394A1 (en) Sales projections based on mental states
US20130052621A1 (en) Mental state analysis of voters
CN113287281A (zh) 将情绪数据整合至社交网络平台并在社交网络平台上共享情绪数据的系统及方法
WO2014106216A1 (en) Collection of affect data from multiple mobile devices
WO2014066871A1 (en) Sporadic collection of mobile affect data

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid